joelnazarene

weatherengine

May 7th, 2019
86
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
Python 13.56 KB | None | 0 0
  1. import requests
  2. import time
  3. import bs4
  4. import re
  5. import sys
  6. from selenium import webdriver
  7. from bs4 import BeautifulSoup as soup
  8. b1=sys.argv[1]
  9. y=sys.argv[2]
  10. r=sys.argv[3]
  11. if(y != '8'):
  12.     print('<html> <head><link rel="stylesheet" href="https://maxcdn.bootstrapcdn.com/bootstrap/3.3.7/css/bootstrap.min.css"> </head><body ><br><div class="container"><button class="btn btn-info"><a style="color:white" href="gui.html">< Back</a></button><div class="jumbotron"><h1>RESULTS FOR    '+b1+'</h1><h2>ABSTRACTS</h2><p> </p></div>')
  13. if(y=='1' or y=='7'):
  14.  
  15.         print("<img src='https://brocku.ca/library/wp-content/uploads/sites/51/Untitled-design-7.png?x63146' height='100'> <br>")
  16.         driver = webdriver.Firefox()
  17.         url="https://ieeexplore.ieee.org/search/searchresult.jsp?newsearch=true&queryText="
  18.         b2=b1.replace(" ","%20")
  19.         url=url+b2
  20.         driver.get(url)
  21.         time.sleep(5)
  22.         refs=driver.page_source
  23.         pagesoup=soup(refs,"html.parser")
  24.        
  25.         containers=pagesoup.findAll("a",{"href":re.compile('/document/.*')})
  26.  
  27.  
  28.         i=0
  29.         urlist=[]
  30.         u="https://ieeexplore.ieee.org"
  31.         for container in containers :
  32.             try:
  33.                 if(len(container.text)>20):
  34.                     i=i+1
  35.                     if(i%2 != 0 and i/2 < int(r)):
  36.                         print("<br>=====================================================IEEERESULTS================================================================================================<br>")
  37.                        
  38.                        
  39.                         print(container.text)
  40.                      
  41.                         driver.get(u+ container['href'])
  42.                         time.sleep(2)
  43.                         refs=driver.page_source
  44.                         urlist.append(u+ container['href'])
  45.                         s=soup(refs,"html.parser")
  46.                         c=s.find("div",{"class":"abstract-text row"})
  47.                         print(c.div.div.text)
  48.                         print("<a href='"+u+container['href']+"'>(ctrl +click here) </a>")
  49.                         print("\n")
  50.                         print("<br>===================================================================================================================================================<br>")
  51.             except(TypeError,AttributeError):
  52.                           print("ABSTRACT IS NOT AVAILABLE FOR THIS ARTICLE")
  53.         #print(urlist)
  54.        # x=input("enter number \n")
  55.         #b=int(x)-1
  56.         #print(urlist[b])
  57.         driver.close()
  58. if(y=='2' or y=='7'):
  59.         driver = webdriver.Firefox()
  60.         url="https://www.scienceopen.com/search#('v'~3_'id'~''_'isExactMatch'~true_'context'~null_'kind'~77_'order'~0_'orderLowestFirst'~false_'query'~'"
  61.         b2=b1.replace(" ","%20")
  62.         b3="'_'filters'~!*)"
  63.         print("<img src='http://blog.scienceopen.com/wp-content/uploads/2015/12/SOlogowbox.png' height='100'> <br>")
  64.         print("\n\n")
  65.         url=url+b2+b3
  66.         driver.get(url)
  67.         time.sleep(2)
  68.         refs=driver.page_source
  69.         pagesoup=soup(refs,"html.parser")
  70.     #containers=pagesoup.findAll("div",{"class":'main-section'})
  71.        
  72.         containers=pagesoup.findAll("a",{"href":re.compile('/document.*')})
  73.     #print(containers[0].a['href'])
  74.    
  75.         i=0
  76.         u="https://www.scienceopen.com"
  77.         urlist=[]
  78.         for container in containers :
  79.             try :
  80.                 if(len(container.text)>20 and i < int(r)):
  81.                     i=i+1
  82.                     driver.get(u + container['href'])
  83.                     urlist.append(u+ container['href'])
  84.                     print("<a href='"+u+container['href']+"'>(ctrl +click here )</a>")
  85.                     refs=driver.page_source
  86.                     time.sleep(2)
  87.                     s=soup(refs,"html.parser")
  88.                     t=s.find("title")
  89.                     print(container)
  90.                     c=s.find("div",{"itemprop":"description"})
  91.                     print("<br>=======================================================================================================================================================================================\n"+t.text + "\n========================================================SCIENCEOPEN======================================================================================<br>")
  92.                     print(c.text + "\n=========================================================SCIENCEOPEN==========================================================================================<br>")
  93.                            
  94.             except :
  95.                 continue
  96.         #x=input("enter number \n")
  97.         #b=int(x)-1
  98.         #print(urlist[b])
  99.         driver.close()
  100. if(y=='3'or y=='7'):
  101.             driver = webdriver.Firefox()
  102.             url="https://www.sciencedirect.com/search?qs="
  103.             b3="&show=25&sortBy=relevance"
  104.    
  105.             print("<img src='https://www.thesisscientist.com/images/blog/ScienceDirect-Thesisscientist.png' height='100'><br>")
  106.             b2=b1.replace(" ","%20")
  107.            
  108.             print("\n\n")
  109.             url=url+b2+b3
  110.             driver.get(url)
  111.             time.sleep(2)
  112.             refs=driver.page_source
  113.             pagesoup=soup(refs,"html.parser")
  114.             urlist=[]
  115.             containers=pagesoup.findAll("a",{"href":re.compile('/pii/.*')})
  116.            
  117.  
  118.        
  119.             u="https://www.sciencedirect.com"
  120.             i=0
  121.             for container in containers :
  122.                 i=i+1
  123.                 if(len(container.text)>20 and i <= int(r)):
  124.                
  125.        
  126.        
  127.        
  128.                        print("<br>======================================================================================================================================================================\n"+container.text+"<br>")
  129.                        driver.get(u + container['href'])
  130.                        refs=driver.page_source
  131.                        urlist.append(u+ container['href'])
  132.                        s=soup(refs,"html.parser")
  133.                        c=s.find("div",{"id":"abstracts"})
  134.                        print("<a href='"+u+container['href']+"'>(ctrl +click here )</a>")
  135.                        print(c.text)
  136.                        print("\n<br>==================================================SCIENCEDIRECT======================================================================================<br>")
  137.            # x=input("enter number \n")
  138.             #b=int(x)-1
  139.            # print(urlist[b])
  140.             driver.close()
  141. if(y=='4' or y=='7'):
  142.         driver = webdriver.Firefox()
  143.         url='https://arxiv.org/search/?query='
  144.    
  145.         print("<img src='https://upload.wikimedia.org/wikipedia/commons/thumb/a/a8/ArXiv_web.svg/1280px-ArXiv_web.svg.png' height='100'><br>")
  146.         b2=b1.replace(" ","+")
  147.         b3='&searchtype=all&source=header'
  148.         print("\n\n")
  149.         url=url+b2+b3
  150.         driver.get(url)
  151.         time.sleep(2)
  152.         refs=driver.page_source
  153.         pagesoup=soup(refs,"html.parser")
  154.        
  155.        
  156.  
  157.         containers=pagesoup.findAll("span",{"class":"abstract-full has-text-grey-dark mathjax"})
  158.         urlist=[]
  159.         i=0
  160.         u="https://arxiv.org/abs/"
  161.         for container in containers :
  162.          d=container.parent.parent.contents[3].text
  163.          e=container.parent.parent.a.text
  164.          try :
  165.              if(len(container.text)>200 and i <= int(r)):  
  166.                 print(d+"\n<br>====================================================================================================================================================================================================\n")
  167.                 g=e[6:]
  168.                 urlist.append(u+g)
  169.                 print("<a href='"+u+g+"'>(ctrl+click here) </a>")
  170.                 print(container.text +"\n====================================================ARXIV=================================================================================================================<br>")
  171.                 print("\n")
  172.                 i=i+1
  173.          except :
  174.             continue
  175.         #print(urlist)
  176.         #x=input("enter number \n")
  177.         #b=int(x)-1
  178.         #print(urlist[b])
  179.         driver.close()
  180. if(y=='5' or y=='7'):
  181.         driver = webdriver.Firefox()
  182.         url="https://paperity.org/search/?q="
  183.    
  184.         print("<img src='http://paperity.org/static/img/logo/wide.png'height='100'><br>")
  185.         b2=b1.replace(" ","+")
  186.    
  187.         print("\n\n")
  188.         url=url+b2
  189.         driver.get(url)
  190.    
  191.         time.sleep(2)
  192.  
  193.         refs=driver.page_source
  194.    
  195.         pagesoup=soup(refs,"html.parser")
  196.         #containers=pagesoup.findAll("div",{"class":'result-item-content'})
  197.         containers=pagesoup.findAll("a",{"href":re.compile('/p/.*')})
  198.         #print(containers)
  199.        
  200.         urlist=[]
  201.         i=0
  202.         u="https://paperity.org"
  203.         for container in containers :
  204.          try :
  205.             if(len(container.text)>20):
  206.                 i=i+1
  207.        
  208.            # print(i)
  209.                 if(i%2!=0 and i <= int(r)):
  210.                    print("<br>========================================================================================================================================================================="+container.text)
  211.                    driver.get(u + container['href'])
  212.                    refs=driver.page_source
  213.                    s=soup(refs,"html.parser")
  214.                    c=s.find("blockquote")
  215.                    urlist.append(u+ container['href'])
  216.                    print("<a href='"+u+ container['href']+"'>(ctrl+click here) </a>")
  217.                    print(c.text +"\n<br>================================================PAPERITY================================================================================================================<br>")
  218.                
  219.          except :
  220.                 continue
  221.         #print(urlist)
  222.         #x=input("enter number \n")
  223.         #b=int(x)-1
  224.         #print(urlist[b])
  225.         driver.close()
  226. if(y=='6' or y=='7'):
  227.         driver = webdriver.Firefox()
  228.         url='https://doaj.org/search?source={"query"%3A{"query_string"%3A{"query"%3A"'
  229.         b2=b1.replace(" ","%20")
  230.         b3='"%2C"default_operator"%3A"AND"}}%2C"from"%3A0%2C"size"%3A10}'
  231.         print("<img src='https://doaj.org/static/doaj/images/logo_square.jpg' height='100'><br>")
  232.         print("\n\n")
  233.         url=url+b2+b3
  234.         driver.get(url)
  235.         time.sleep(2)
  236.         refs=driver.page_source
  237.         pagesoup=soup(refs,"html.parser")
  238.         #containers=pagesoup.findAll("div",{"class":'main-section'})
  239.         containers=pagesoup.findAll("div",{"class":"abstract_text"})
  240.    
  241.        
  242.         #print(containers[0].a['href'])
  243.         #print("reached contA")
  244.         c2=pagesoup.findAll("a",{"href":re.compile('/article.*')})
  245.         i=0
  246.         urlist=[]
  247.         u="https://doaj.org"
  248.         for container in containers :
  249.          # print("for loop")
  250.          try :
  251.             if(len(container.text)>20 and i <= int(r)):
  252.              
  253.                
  254.                # print(i)
  255.                 #if(i%2!=0):
  256.                
  257.                 #   driver.get(u + container['href'])
  258.                  #  refs=driver.page_source
  259.                 #   s=soup(refs,"html.parser")
  260.                   # c=s.find("div",{"itemprop":"description"})
  261.              if("Full Text" in c2[i].text):
  262.                 i=i+1
  263.              print("<br>=================================================================================================================================================<BR>"+c2[i].text+"\n=====================================================DOAJ==========================================================================================<BR>"+container.text+"\n==============================================================================================================================================================================<br>")
  264.              i=i+1
  265.              urlist.append(u+ c2[i]['href'])
  266.              #print(c2[i].text+"\n")
  267.              print("<a href='"+u+ c2[i]['href']+"'>(ctrl+click here )</a>")
  268.          except :
  269.             continue
  270.         driver.close()
  271.         #print(urlist)
  272.         #x=input("enter number \n")
  273.        # b=int(x)-1
  274.         #print(urlist[b])
  275.  
  276.  
  277. if(y == '8'):
  278.         k="https://www.wolframalpha.com/input/?i="
  279.         b2=b1.replace(" ","+")
  280.         url=k+b2
  281.         print("<a href='"+url+"'>(ctrl+click here )</a>")
  282. if(y == '9'):  
  283.  
  284.  myurl="https://search.yahoo.com/yhs/search?hspart=ddc&hsimp=yhs-linuxmint&type=__alt__ddc_linuxmint_com&p="
  285.  #a="jesus"
  286.  b=sys.argv[1]
  287.  myurl=myurl+b
  288.  pagehtml = requests.get(myurl)
  289.  pagesoup=soup(pagehtml.content,"html.parser")
  290.  containers=pagesoup.findAll("h3",{"class":"title"})
  291.  
  292.  
  293.  for container in containers :
  294.   try:
  295.    if len(container.a['href']) < 80  :
  296.          
  297.           # print(container.a['href'])
  298.     # print("<a href='"+u+ c2[i]['href']+"'>(ctrl+click here )</a>")
  299.            print("<a href='"+container.a['href']+"'>(ctrl+click here )</a>")
  300.            #pagehtml = requests.get(container.a['href'])
  301.            #pagesoup=soup(pagehtml.content,"html.parser")
  302.            #containers=pagesoup.find_all('body')
  303.            #c=containers[0].get_text()
  304.            #c=containers[0]
  305.            #print(c[:1000])
  306.            c=container.parent.parent.get_text()
  307.            print(c)
  308.            print('<br><br>')
  309.   except :
  310.    continue    
  311.  
  312. if(y != '8'):        
  313.  print('<button class="btn btn-info"><a style="color:white" href="gui.html">< Back</a></button></BODY></html>')
Add Comment
Please, Sign In to add comment