当前位置:   article > 正文

[python爬虫] selenium爬取局部动态刷新网站(URL始终固定)_driver.find_element(by.xpath .get_attribute()

driver.find_element(by.xpath .get_attribute()

在爬取网站过程中,通常会遇到局部动态刷新情况,当你点击“下一页”或某一页时,它的数据就进行刷新,但其顶部的URL始终不变。这种局部动态刷新的网站,怎么爬取数据呢?某网站数据显示如下图所示,当点击“第五页”之时,其URL始终不变,传统的网站爬取方法是无法拼接这类链接的,所以本篇文章主要解决这个问题。


本文主要采用Selenium爬取局部动态刷新的网站,获取“下一页”按钮实现自动点击跳转,再依次爬取每一页的内容。希望对您有所帮助,尤其是遇到同样问题的同学,如果文章中出现错误或不足之处,还请海涵~




一. Selenium爬取第一页信息

首先,我们尝试使用Selenium爬取第一页的内容,采用浏览器右键“审查”元素,可以看到对应的HTML源代码,如下图所示,可以看到,每一行工程信息都位于<table class="table table-hover">节点下的<tr>...</tr>中。


然后我们再展开其中一个<tr>...</tr>节点,看它的源码详情,如下图所示,包括公告标题、发布时间、项目所在地。如果我们需要抓取公告标题,则定位<div class="div_title text_view">节点,再获取标题内容和超链接。

完整代码如下:

  1. # coding=utf-8
  2. from selenium import webdriver
  3. import re
  4. import time
  5. import os
  6. print "start"
  7. #打开Firefox浏览器 设定等待加载时间
  8. driver = webdriver.Firefox()
  9. #定位节点
  10. url = 'http:/www.xxxx.com/'
  11. print url
  12. driver.get(url)
  13. content = driver.find_elements_by_xpath("//div[@class='div_title text_view']")
  14. for u in content:
  15. print u.text

输出内容如下图所示:



PS:由于网站安全问题,我不直接给出网址,主要给出爬虫的核心思想。同时,下面的代码我也没有给出网址,但思路一样,请大家替换成自己的局部刷新网址进行测试。



二. Selenium实现局部动态刷新爬取

接下来我们想爬取第2页的网站内容,其代码步骤如下:
    1.定位驱动:driver = webdriver.Firefox()
    2.访问网址:driver.get(url)
    3.定位节点获取第一页内容并爬取:driver.find_elements_by_xpath()
    4.获取“下一页”按钮,并调用click()函数点击跳转
    5.爬取第2页的网站内容:driver.find_elements_by_xpath()

其核心步骤是获取“下一页”按钮,并调用Selenium自动点击按钮技术,从而实现跳转,之后再爬取第2页内容。“下一页”按钮的源代码如下图所示:


其中,“下一页”按钮始终在第9个<li>...</li>位置,则核心代码如下:
nextPage = driver.find_element_by_xpath("//ul[@class='pagination']/li[9]/a")
nextPage.click()


完整代码如下:

  1. # coding=utf-8
  2. from selenium import webdriver
  3. import re
  4. import time
  5. import os
  6. print "start"
  7. driver = webdriver.Firefox()
  8. url = 'http://www.XXXX.com/'
  9. print url
  10. driver.get(url)
  11. #项目名称
  12. titles = driver.find_elements_by_xpath("//div[@class='div_title text_view']")
  13. for u in titles:
  14. print u.text
  15. #超链接
  16. urls = driver.find_elements_by_xpath("//div[@class='div_title text_view']/a")
  17. for u in urls:
  18. print u.get_attribute("href")
  19. #时间
  20. times = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[2]")
  21. for u in times:
  22. print u.text
  23. #地点
  24. places = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[3]")
  25. for u in places:
  26. print u.text
  27. #点击下一页
  28. nextPage = driver.find_element_by_xpath("//ul[@class='pagination']/li[9]/a")
  29. print nextPage.text
  30. nextPage.click()
  31. time.sleep(5)
  32. #爬取第2页数据
  33. content = driver.find_elements_by_xpath("//div[@class='div_title text_view']")
  34. for u in content:
  35. print u.text
输出内容如下所示,可以看到第二页的内容也爬取成功了,并且作者爬取了公告主题、超链接、发布时间、发布地点。
  1. >>>
  2. start
  3. http://www.xxxx.com/
  4. 观山湖区依法治国普法教育基地(施工)中标候选人公示
  5. 兴义市2017年农村公路生命防护工程一期招标公告
  6. 安龙县市政广场地下停车场10kV线路迁改、10kV临时用电、10kV电缆敷设及400V电缆敷设工程施工公开竞争性谈判公告
  7. 剑河县小香鸡种苗孵化场建设项目(场坪工程)中标公示
  8. 安龙县栖凤生态湿地走廊建设项目(原冰河步道A、B段)10kV线路、400V线路、220V线路及变压器迁改工程施工招标
  9. 镇宁自治县2017年简嘎乡农村饮水安全巩固提升工程(施工)招标废标公示
  10. S313线安龙县城至普坪段道路改扩建工程勘察招标公告
  11. S313线安龙县城至普坪段道路改扩建工程勘察招标公告
  12. 贵州中烟工业有限责任公司2018物资公开招标-卷烟纸中标候选人公示
  13. 册亨县者楼河纳福新区河段生态治理项目(上游一标段)初步设计 招标公告
  14. http://www.gzzbw.cn/historydata/view/?id=116163
  15. http://www.gzzbw.cn/historydata/view/?id=114995
  16. http://www.gzzbw.cn/historydata/view/?id=115720
  17. http://www.gzzbw.cn/historydata/view/?id=116006
  18. http://www.gzzbw.cn/historydata/view/?id=115719
  19. http://www.gzzbw.cn/historydata/view/?id=115643
  20. http://www.gzzbw.cn/historydata/view/?id=114966
  21. http://www.gzzbw.cn/historydata/view/?id=114965
  22. http://www.gzzbw.cn/historydata/view/?id=115400
  23. http://www.gzzbw.cn/historydata/view/?id=116031
  24. 2017-12-22
  25. 2017-12-22
  26. 2017-12-22
  27. 2017-12-22
  28. 2017-12-22
  29. 2017-12-22
  30. 2017-12-22
  31. 2017-12-22
  32. 2017-12-22
  33. 2017-12-22
  34. 未知
  35. 兴义市
  36. 安龙县
  37. 未知
  38. 安龙县
  39. 未知
  40. 安龙县
  41. 安龙县
  42. 未知
  43. 册亨县
  44. 下一页
  45. 册亨县丫他镇板其村埃近12组村庄综合整治项目
  46. 册亨县者楼河纳福新区河段生态治理项目(上游一标段)勘察 招标公告
  47. 惠水县撤并建制村通硬化路施工总承包中标候选人公示
  48. 册亨县丫他镇板街村村庄综合整治项目施工招标 招标公告
  49. 镇宁自治县农村环境整治工程项目(环翠街道办事处)施工(三标段)(二次)(项目名称)交易结果公示
  50. 丫他镇生态移民附属设施建设项目
  51. 剑河县城市管理办公室的剑河县仰阿莎主题文化广场护坡绿化工程中标公示
  52. 册亨县者楼河纳福新区河段生态治理项目(上游一标段)施工图设计
  53. 册亨县2017年岩架城市棚户区改造项目配套基础设施建设项目 中标公示
  54. 数字瓮安地理空间框架建设项目
  55. >>>
Firefox成功跳转到第2页,此时你增加一个循环则可以跳转很多页,并爬取信息,详见第三个步骤。



三. Selenium爬取详情页面

上面爬取了每行公告信息的详情页面超链接(URL),本来我准备采用BeautifulSoup爬虫爬取详情页面信息的,但是被拦截了,详情页面如下图所示:

这里作者继续定义另一个Selenium Firefox驱动进行爬取,完整代码如下:
  1. # coding=utf-8
  2. from selenium import webdriver
  3. from selenium.webdriver.common.keys import Keys
  4. import re
  5. import time
  6. import os
  7. print "start"
  8. #打开Firefox浏览器
  9. driver = webdriver.Firefox()
  10. driver2 = webdriver.Firefox()
  11. url = 'http://www.xxxx.com/'
  12. print url
  13. driver.get(url)
  14. #项目名称
  15. titles = driver.find_elements_by_xpath("//div[@class='div_title text_view']")
  16. #超链接
  17. urls = driver.find_elements_by_xpath("//div[@class='div_title text_view']/a")
  18. num = []
  19. for u in urls:
  20. href = u.get_attribute("href")
  21. driver2.get(href)
  22. con = driver2.find_element_by_xpath("//div[@class='col-xs-9']")
  23. #print con.text
  24. num.append(con.text)
  25. #时间
  26. times = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[2]")
  27. #地点
  28. places = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[3]")
  29. #输出所有结果
  30. print len(num)
  31. i = 0
  32. while i<len(num):
  33. print titles[i].text
  34. print urls[i].get_attribute("href")
  35. print times[i].text
  36. print places[i].text
  37. print num[i]
  38. print ""
  39. i = i + 1
  40. #点击下一页
  41. j = 0
  42. while j<5:
  43. nextPage = driver.find_element_by_xpath("//ul[@class='pagination']/li[9]/a")
  44. print nextPage.text
  45. nextPage.click()
  46. time.sleep(5)
  47. #项目名称
  48. titles = driver.find_elements_by_xpath("//div[@class='div_title text_view']")
  49. #超链接
  50. urls = driver.find_elements_by_xpath("//div[@class='div_title text_view']/a")
  51. num = []
  52. for u in urls:
  53. href = u.get_attribute("href")
  54. driver2.get(href)
  55. con = driver2.find_element_by_xpath("//div[@class='col-xs-9']")
  56. num.append(con.text)
  57. #时间
  58. times = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[2]")
  59. #地点
  60. places = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[3]")
  61. #输出所有结果
  62. print len(num)
  63. i = 0
  64. while i<len(num):
  65. print titles[i].text
  66. print urls[i].get_attribute("href")
  67. print times[i].text
  68. print places[i].text
  69. print num[i]
  70. print ""
  71. i = i + 1
  72. j = j + 1

注意作者定义了一个while循环,一次性输出一条完整的招标信息,代码如下:

  1. print len(num)
  2. i = 0
  3. while i<len(num):
  4. print titles[i].text
  5. print urls[i].get_attribute("href")
  6. print times[i].text
  7. print places[i].text
  8. print num[i]
  9. print ""
  10. i = i + 1

输出结果如下图所示:


其中一条完整的结果如下所示:

  1. 观山湖区依法治国普法教育基地(施工)中标候选人公示
  2. http://www.gzzbw.cn/historydata/view/?id=116163
  3. 2017-12-22
  4. 未知
  5. 观山湖区依法治国普法教育基地(施工)中标候选人公示
  6. 来源: 贵州百利工程建设咨询有限公司 发布时间: 2017-12-22
  7. 根据法律、法规、规章和招标文件的规定,观山湖区司法局、贵阳观山湖投资(集团)旅游文化产业发展有限公司(代建)的观山湖区依法治国普法
  8. 教育基地(施工)(项目编号:BLZB01201744) 已于20171222日进行谈判,根据谈判小组出具的竞争性谈判报告,现公示下列内容:
  9. 第一中标候选人:贵州鸿友诚建筑安装有限公司
  10. 中标价:1930000.00(元) 工 期:57日历天
  11. 第二中标候选人:贵州隆瑞建设有限公司
  12. 中标价:1940000.00(元) 工 期:60日历天
  13. 第三中标候选人:凤冈县建筑工程有限责任总公司
  14. 中标价:1953285.00(元) 工 期:60日历天
  15. 中标结果公示至20171225日。
  16. 招 标 人:贵阳观山湖投资(集团)有限公司
  17. 招标代理人:贵州百利工程建设咨询有限公司
  18. 20171222
最后读者可以结合MySQLdb库,将爬取的内容存储至本地中。同时,如果您爬取的内容需要设置时间,比如2015年的数据,则在爬虫开始之前设置time.sleep(5)暂定函数,手动点击2015年或输入关键字,再进行爬取。也建议读者采用Selenium技术来自动跳转,而详情页面采用BeautifulSoup爬取。

  1. # coding=utf-8
  2. from selenium import webdriver
  3. from selenium.webdriver.common.keys import Keys
  4. import selenium.webdriver.support.ui as ui
  5. import re
  6. import time
  7. import os
  8. import codecs
  9. from bs4 import BeautifulSoup
  10. import urllib
  11. import MySQLdb
  12. #存储数据库
  13. #参数:公告名称 发布时间 发布地点 发布内容
  14. def DatabaseInfo(title,url,fbtime,fbplace,content):
  15. try:
  16. conn = MySQLdb.connect(host='localhost',user='root',
  17. passwd='123456',port=3306, db='20180426ztb')
  18. cur=conn.cursor() #数据库游标
  19. #报错:UnicodeEncodeError: 'latin-1' codec can't encode character
  20. conn.set_character_set('utf8')
  21. cur.execute('SET NAMES utf8;')
  22. cur.execute('SET CHARACTER SET utf8;')
  23. cur.execute('SET character_set_connection=utf8;')
  24. #SQL语句 智联招聘(zlzp)
  25. sql = '''insert into ztb
  26. (title, url, fbtime, fbplace, content)
  27. values(%s, %s, %s, %s, %s);'''
  28. cur.execute(sql, (title,url,fbtime,fbplace,content))
  29. print '数据库插入成功'
  30. #异常处理
  31. except MySQLdb.Error,e:
  32. print "Mysql Error %d: %s" % (e.args[0], e.args[1])
  33. finally:
  34. cur.close()
  35. conn.commit()
  36. conn.close()
  37. print "start"
  38. #打开Firefox浏览器
  39. driver = webdriver.Firefox()
  40. driver2 = webdriver.Firefox()
  41. url = 'http://www.gzzbw.cn/historydata/'
  42. print url
  43. driver.get(url)
  44. #项目名称
  45. titles = driver.find_elements_by_xpath("//div[@class='div_title text_view']")
  46. #超链接
  47. urls = driver.find_elements_by_xpath("//div[@class='div_title text_view']/a")
  48. num = []
  49. for u in urls:
  50. href = u.get_attribute("href")
  51. driver2.get(href)
  52. con = driver2.find_element_by_xpath("//div[@class='col-xs-9']")
  53. #print con.text
  54. num.append(con.text)
  55. #时间
  56. times = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[2]")
  57. #地点
  58. places = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[3]")
  59. #输出所有结果
  60. print len(num)
  61. i = 0
  62. while i<len(num):
  63. print titles[i].text
  64. print urls[i].get_attribute("href")
  65. print times[i].text
  66. print places[i].text
  67. print num[i]
  68. print ""
  69. DatabaseInfo(titles[i].text, urls[i].get_attribute("href"), times[i].text,
  70. places[i].text, num[i])
  71. i = i + 1
  72. #点击下一页
  73. j = 0
  74. while j<100:
  75. nextPage = driver.find_element_by_xpath("//ul[@class='pagination']/li[9]/a")
  76. print nextPage.text
  77. nextPage.click()
  78. time.sleep(5)
  79. #项目名称
  80. titles = driver.find_elements_by_xpath("//div[@class='div_title text_view']")
  81. #超链接
  82. urls = driver.find_elements_by_xpath("//div[@class='div_title text_view']/a")
  83. num = []
  84. for u in urls:
  85. href = u.get_attribute("href")
  86. driver2.get(href)
  87. con = driver2.find_element_by_xpath("//div[@class='col-xs-9']")
  88. num.append(con.text)
  89. #时间
  90. times = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[2]")
  91. #地点
  92. places = driver.find_elements_by_xpath("//table[@class='table table-hover']/tbody/tr/td[3]")
  93. #输出所有结果
  94. print len(num)
  95. i = 0
  96. while i<len(num):
  97. print titles[i].text
  98. print urls[i].get_attribute("href")
  99. print times[i].text
  100. print places[i].text
  101. print num[i]
  102. print ""
  103. DatabaseInfo(titles[i].text, urls[i].get_attribute("href"), times[i].text,
  104. places[i].text, num[i])
  105. i = i + 1
  106. print u"已爬取页码:", (j+2)
  107. j = j + 1
存储至数据库:

最后希望文章对您有所帮助,尤其是要爬取局部刷新的同学,
如果文章中出现错误或不足之处,还请海涵~

(By:Eastmount 2018-04-26 早上11点半 http://blog.csdn.net/eastmount/ )


声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/489050
推荐阅读
相关标签
  

闽ICP备14008679号