当前位置:   article > 正文

Python爬虫:Selenium模拟Chrome浏览器爬取淘宝商品信息_获取淘宝网页信息

获取淘宝网页信息

       对于采用异步加载技术的网页,有时候想通过逆向工程的方式来设计爬虫进行爬取会比较困难,因此,要想通过python获取异步加载数据往往可以使用Selenium模拟浏览器的方式来获取。

       Selenium是一个用于Web应用程序测试的工具,它可以在浏览器中运行,模拟用户真实的浏览网页操作,也就是说可以实现浏览器加载页面,搜索关键字和点击翻页等等操作,因此,就算使用了异步加载技术的网页,也可以模拟翻页得到不同的网页,也就可以得到你想要的数据了。

       Selenium模块在第三方库里面可以找到,使用pycharm软件,打开左上角PyCharm->项目->python解释器->preferences里面添加,结果如下图进行搜索安装即可。

由于Selenium自己不带有浏览器,因此需要配合我们自己电脑安装的浏览器来使用,这里我们是通过常用的Chrome浏览器来模拟实现爬取数据。具体可以模拟的操作主要有如下一些操作:输入框内容填写、点击按钮、截屏、下滑等,因此对于登录网站的时候,我们可以不再需要构造表单或者提交cookie来登录网站了,只需要通过python代码模拟输入《账号》和《密码》实现登录。

模拟的

  1. 以下是模拟搜索和登录最常用代码

(2)登录后获取数据的常用代码

备注:此处xpath和单独的xpath方法差异就是此处是在最后加.text,单独xpath是在路径里面加/text()

以上是selenium基本要点,现在让我们开始进行实践操刀,如何来对淘宝商品信息进行抓取。

工具和语言:Selenium+Chrome+PyCharm+Python

抓取平台:www.taobao.com

抓取思路:以抓取我最近想入手的投影仪商品为例

  1. 打开淘宝网,输入投影仪,得到商品信息页面
  2. 打开网页源代码,查看输入投影仪后的搜索框位置如下图,确定位置,为后续输入关键字做准备

  1. 有时在你点击搜索后,淘宝强制需要登录网页,就需要再次查看输入账号和密码的位置,然后同理操作进入网页,在此不再赘述,直接上代码如下

  1. 接下来要模拟翻页操作,同理也是找到翻页位置:下一页,如下图

  1. 此时页面上有的信息都可以尝试查看,举例如付款人数、价钱等都可以尝试测试看看。

  1. 最后数据存储数据库就可以了,详细入库代码见详细代码部分

 

详细代码如下:

  1. from selenium import webdriver
  2. from lxml import etree
  3. import time
  4. import pymysql
  5. db = pymysql.connect(host='localhost', user='root', passwd='密码', db='库名称', port=3306, charset='utf8')
  6. print("数据库连接")
  7. cursor = db.cursor()
  8. cursor.execute("DROP TABLE IF EXISTS Learn_data.taobao_touyingyi_data")
  9. sql = """CREATE TABLE IF not EXISTS Learn_data.taobao_touyingyi_data (
  10. id int auto_increment primary key,
  11. price CHAR(100),
  12. sell CHAR(100),
  13. detail CHAR(100)
  14. )
  15. DEFAULT CHARSET=utf8"""
  16. cursor.execute(sql)
  17. driver=webdriver.Chrome()
  18. driver.maximize_window()
  19. def get_info(url,page):
  20. page=page+1
  21. driver.get(url)
  22. driver.implicitly_wait(10)
  23. selector=etree.HTML(driver.page_source)
  24. infos=selector.xpath('//div[@class="items"]/div[@class="item J_MouserOnverReq "]')
  25. for info in infos:
  26. price = info.xpath('div[2]/div/div/strong/text()')[0]
  27. sell = info.xpath('div[2]/div/div[2]/text()')[0]
  28. detail = info.xpath('div[2]/div/div[2]/text()')[1]
  29. print(price,sell,detail)
  30. cursor.execute("insert into taobao_touyingyi_data (price,sell,detail)values(%s,%s,%s)",(str(price),str(sell),str(detail)))
  31. if page<=50:
  32. NextPage(url,page)
  33. else:
  34. pass
  35. def NextPage(url,page):
  36. print(url)
  37. driver.get(url)
  38. driver.implicitly_wait(10)
  39. driver.find_element_by_xpath('//a[@trace="srp_bottom_pagedown"]').click()
  40. time.sleep(4)
  41. driver.get(driver.current_url)
  42. driver.implicitly_wait(10)
  43. get_info(driver.current_url, page)
  44. if __name__=='__main__':
  45. page=1
  46. url='https://www.taobao.com/'
  47. driver.get(url)
  48. driver.implicitly_wait(10)
  49. driver.find_element_by_id('q').clear()
  50. driver.find_element_by_id('q').send_keys('商品名称')
  51. driver.find_element_by_class_name('btn-search').click()
  52. driver.find_element_by_id("fm-login-id").send_keys("账号")
  53. # 找到按钮的位置
  54. time.sleep(1)
  55. # 找到密码的位置
  56. driver.find_element_by_id("fm-login-password").send_keys("密码")
  57. # 确保账号和密码输入完成
  58. time.sleep(3)
  59. # 识别验证码
  60. # 找到图片地址
  61. ret = driver.find_element_by_class_name("fm-button")
  62. # 点击按钮
  63. ret.click()
  64. time.sleep(3)
  65. print(driver.current_url)
  66. get_info(driver.current_url,page)
  67. db.commit()

运行数据库结果如下:

以上就是Selenium模拟Chrome浏览器爬取淘宝商品投影仪信息数据的所有过程,后续会进一步进行数据分析,有兴趣的同学可以扫描下方二维码加关注,更多机器学习和Python分析实践案例等着你!

 

 

 

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号