joelnazarene

main6

Apr 7th, 2019
120
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
Python 8.82 KB | None | 0 0
  1. import time
  2. import bs4
  3. import re
  4. from selenium import webdriver
  5. from bs4 import BeautifulSoup as soup
  6.  
  7. print("=================================================WELCOME TO RESEARCHER'S APP===========================================================================================")
  8. b1=input("enter text \n")
  9.  
  10. y='1'
  11. while(y != 'q'):
  12.     print("=========================================================================================================================================================================")
  13.     print("1 IEEE")
  14.     print("2 SCIENCE OPEN ")
  15.     print("3 SCIENCE DIRECT")
  16.     print("4 ARXIV")
  17.     print("5 PAPERITY")
  18.     print("6 DOAJ \n")
  19.     print("7 ALL")
  20.     y =input("enter choice enter 'q' to exit ")
  21.     if(y != 'q'):
  22.         r = input("enter the number of abstracts to be displayed")
  23.     if(y=='1' or y=='7'):
  24.  
  25.    
  26.         driver = webdriver.Firefox()
  27.         url="https://ieeexplore.ieee.org/search/searchresult.jsp?newsearch=true&queryText="
  28.         b2=b1.replace(" ","%20")
  29.         url=url+b2
  30.         driver.get(url)
  31.         time.sleep(5)
  32.         refs=driver.page_source
  33.         pagesoup=soup(refs,"html.parser")
  34.  
  35.         containers=pagesoup.findAll("a",{"href":re.compile('/document/.*')})
  36.  
  37.  
  38.         i=0
  39.         u="https://ieeexplore.ieee.org"
  40.         for container in containers :
  41.             try:  
  42.                 if(len(container.text)>20):
  43.                     i=i+1
  44.                     if(i%2 != 0 and i/2 < int(r)):
  45.                         print("=====================================================================================================================================================")
  46.                         print("\n")
  47.                         print(container.text)
  48.                         driver.get(u+ container['href'])
  49.                         time.sleep(2)
  50.                         refs=driver.page_source
  51.    
  52.                         s=soup(refs,"html.parser")
  53.                         c=s.find("div",{"class":"abstract-text row"})
  54.                         print(c.div.div.text)
  55.                         print("\n")
  56.                         print("===================================================================================================================================================")
  57.             except(TypeError,AttributeError):
  58.                         print("ABSTRACT IS NOT AVAILABLE FOR THIS ARTICLE")
  59.  
  60.         driver.close()
  61.     if(y=='2' or y=='7'):
  62.         driver = webdriver.Firefox()
  63.         url="https://www.scienceopen.com/search#('v'~3_'id'~''_'isExactMatch'~true_'context'~null_'kind'~77_'order'~0_'orderLowestFirst'~false_'query'~'"
  64.         b2=b1.replace(" ","%20")
  65.         b3="'_'filters'~!*)"
  66.        
  67.         print("\n\n")
  68.         url=url+b2+b3
  69.         driver.get(url)
  70.         time.sleep(2)
  71.         refs=driver.page_source
  72.         pagesoup=soup(refs,"html.parser")
  73.     #containers=pagesoup.findAll("div",{"class":'main-section'})
  74.         containers=pagesoup.findAll("a",{"href":re.compile('/document.*')})
  75.     #print(containers[0].a['href'])
  76.    
  77.         i=0
  78.         u="https://www.scienceopen.com"
  79.        
  80.         for container in containers :
  81.             try :
  82.                 if(len(container.text)>20 and i < int(r)):
  83.                     i=i+1    
  84.                     driver.get(u + container['href'])
  85.                     refs=driver.page_source
  86.                     s=soup(refs,"html.parser")
  87.                     t=s.find("title")
  88.                     c=s.find("div",{"itemprop":"description"})
  89.                     print(t.text + "\n==============================================================================================================================================")
  90.                     print(c.text + "\n===================================================================================================================================================")
  91.                            
  92.             except :
  93.                 continue
  94.         driver.close()
  95.     if(y=='3'or y=='7'):
  96.             driver = webdriver.Firefox()
  97.             url="https://www.sciencedirect.com/search?qs="
  98.             b3="&show=25&sortBy=relevance"
  99.    
  100.            
  101.             b2=b1.replace(" ","%20")
  102.            
  103.             print("\n\n")
  104.             url=url+b2+b3
  105.             driver.get(url)
  106.             time.sleep(2)
  107.             refs=driver.page_source
  108.             pagesoup=soup(refs,"html.parser")
  109.            
  110.             containers=pagesoup.findAll("a",{"href":re.compile('/pii/.*')})
  111.        
  112.  
  113.        
  114.             u="https://www.sciencedirect.com"
  115.             i=0
  116.             for container in containers :
  117.                 i=i+1
  118.                 if(len(container.text)>20 and i <= int(r)):
  119.                
  120.        
  121.        
  122.        
  123.                        print(container.text)
  124.                        driver.get(u + container['href'])
  125.                        refs=driver.page_source
  126.                        s=soup(refs,"html.parser")
  127.                        c=s.find("div",{"id":"abstracts"})
  128.                        print(c.text)
  129.                        print("\n========================================================================================================================================")
  130.    
  131.             driver.close()
  132.     if(y=='4' or y=='7'):
  133.         driver = webdriver.Firefox()
  134.         url='https://arxiv.org/search/?query='
  135.    
  136.    
  137.         b2=b1.replace(" ","+")
  138.         b3='&searchtype=all&source=header'
  139.         print("\n\n")
  140.         url=url+b2+b3
  141.         driver.get(url)
  142.         time.sleep(2)
  143.         refs=driver.page_source
  144.         pagesoup=soup(refs,"html.parser")
  145.  
  146.         containers=pagesoup.findAll("span",{"class":"abstract-full has-text-grey-dark mathjax"})
  147.    
  148.         i=0
  149.    
  150.         for container in containers :
  151.          d=container.parent.parent.contents[3].text
  152.          try :
  153.              if(len(container.text)>200 and i <= int(r)):  
  154.                 print(d)
  155.                 print(container.text +"\n=====================================================================================================================================================================")
  156.                 print("\n")
  157.                 i=i+1
  158.          except :
  159.             continue
  160.         driver.close()
  161.    
  162.     if(y=='5' or y=='7'):
  163.         driver = webdriver.Firefox()
  164.         url="https://paperity.org/search/?q="
  165.    
  166.        
  167.         b2=b1.replace(" ","+")
  168.    
  169.         print("\n\n")
  170.         url=url+b2
  171.         driver.get(url)
  172.    
  173.         time.sleep(2)
  174.  
  175.         refs=driver.page_source
  176.    
  177.         pagesoup=soup(refs,"html.parser")
  178.         #containers=pagesoup.findAll("div",{"class":'result-item-content'})
  179.         containers=pagesoup.findAll("a",{"href":re.compile('/p/.*')})
  180.         #print(containers)
  181.  
  182.         i=0
  183.         u="https://paperity.org"
  184.         for container in containers :
  185.          try :
  186.             if(len(container.text)>20):
  187.                 i=i+1
  188.        
  189.            # print(i)
  190.                 if(i%2!=0 and i <= int(r)):
  191.                    print(container.text)
  192.                    driver.get(u + container['href'])
  193.                    refs=driver.page_source
  194.                    s=soup(refs,"html.parser")
  195.                    c=s.find("blockquote")
  196.  
  197.                    print(c.text +"\n================================================================================================================================================================")
  198.                 print("\n")
  199.          except :
  200.                 continue
  201.         driver.close()
  202.    
  203.     if(y=='6' or y=='7'):
  204.         driver = webdriver.Firefox()
  205.         url='https://doaj.org/search?source={"query"%3A{"query_string"%3A{"query"%3A"'
  206.         b2=b1.replace(" ","%20")
  207.         b3='"%2C"default_operator"%3A"AND"}}%2C"from"%3A0%2C"size"%3A10}'
  208.        
  209.         print("\n\n")
  210.         url=url+b2+b3
  211.         driver.get(url)
  212.         time.sleep(2)
  213.         refs=driver.page_source
  214.         pagesoup=soup(refs,"html.parser")
  215.         #containers=pagesoup.findAll("div",{"class":'main-section'})
  216.         containers=pagesoup.findAll("div",{"class":"abstract_text"})
  217.         #print(containers[0].a['href'])
  218.         #print("reached contA")
  219.         c2=pagesoup.findAll("a",{"href":re.compile('/article.*')})
  220.         i=0
  221.         #u="https://www.scienceopen.com"
  222.         for container in containers :
  223.          # print("for loop")
  224.          try :
  225.             if(len(container.text)>20 and i <= int(r)):
  226.              
  227.                
  228.                # print(i)
  229.                 #if(i%2!=0):
  230.                
  231.                 #   driver.get(u + container['href'])
  232.                  #  refs=driver.page_source
  233.                 #   s=soup(refs,"html.parser")
  234.                   # c=s.find("div",{"itemprop":"description"})
  235.              if("Full Text" in c2[i].text):
  236.                 i=i+1
  237.              print(c2[i].text+"\n==============================================================================================================================================="+container.text+"\n==============================================================================================================================================================================")
  238.              i=i+1
  239.              #print(c2[i].text+"\n")
  240.          except :
  241.             continue
  242.         driver.close()
Add Comment
Please, Sign In to add comment