当前位置:   article > 正文

Selenium爬虫实践之爬取携程网北京旅游景点数据_携程 爬虫

携程 爬虫

昨天我发布了一篇名为Selenium在爬虫中的应用的文章,今天补充一下Selenium爬虫实践,话不多说直接上代码。

1.导包

首先导入所需要的库:

  1. import html
  2. import time
  3. from lxml import html
  4. from selenium import webdriver
  5. from selenium.webdriver.common.by import By

 2.获取浏览器驱动

紧接着定义一个函数来获取浏览器驱动:

  1. #获取浏览器驱动
  2. def get_driver():
  3. option = webdriver.ChromeOptions()
  4. # 设置编码集
  5. option.add_argument('lang=zh_CN.UTF-8')
  6. driver = webdriver.Chrome(options=option)
  7. return driver

 3.自动登录的实现

接下来用Selenium实现自动化登录操作,这里提前把用户名和密码设置好,在网页对应的表单中通过element.send_keys("xxxxxx")方法输入用户名和密码。

这里定义一个实现自动登录操作的函数login,后续过程通过调用该函数可实现自动登录,通过find_element(By.XPATH)的方法定位到输入框,输入完账号密码后还需点击同意政策服务的选项按钮,这里的思想是一样的,操作完成后点击登录按钮即可登录。

  1. def login(driver):
  2. driver.maximize_window()#最大化窗口
  3. #定位到登录按钮
  4. login_button = driver.find_element(By.XPATH, "/html/body/div[2]/div[1]/div/div/div/div/div[2]/ul/li[1]/div/button")
  5. login_button.click()
  6. username = driver.find_element(By.XPATH, "/html/body/div[1]/div[2]/div[2]/div[2]/div/div/div[1]/div[1]/form/dl[1]/dd/input")
  7. username.send_keys("用户名")
  8. password = driver.find_element(By.XPATH, "/html/body/div[1]/div[2]/div[2]/div[2]/div/div/div[1]/div[1]/form/dl[2]/dd/input")
  9. password.send_keys("密码")
  10. agree_btn = driver.find_element(By.XPATH, "/html/body/div[1]/div[2]/div[2]/div[2]/div/div/div[1]/div[4]/div/div[1]/label")
  11. agree_btn.click()
  12. log_btn = driver.find_element(By.XPATH, "/html/body/div[1]/div[2]/div[2]/div[2]/div/div/div[1]/div[1]/form/dl[3]/dd/input")
  13. log_btn.click()

 4.数据爬取与存储

 登录成功后就开始我们的核心程序的编写,同样定义一个开始任务的函数start_task()。

通过driver.page_source的方法获取到网页信息后再用xpath进行数据解析,定义一个字典用来存储爬取到的数据,当然如果有需要可以自己定义一个存储数据的函数来将数据存储到数据库中。

这里我爬取的内容主要有四个分别是景点名称name、景区热度hotnumber、景区位置location和景点评分score,也可以根据自己需要进行增加和删除。

  1. #元素定位与爬取数据
  2. def start_task(driver):
  3. for i in range(1,5):
  4. #模拟下滑到底部操作
  5. for j in range(1,13):
  6. driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
  7. time.sleep(1)
  8. # 获取网页信息
  9. resp = driver.page_source
  10. # 加载xpath,用于数据解析
  11. etree = html.etree
  12. xml = etree.HTML(resp)
  13. #定义字典存储数据
  14. data_dict = {}
  15. for k in range(1,13):
  16. #name:景点名称
  17. name = xml.xpath(f'//*[@class="list_mod2"]/div[{k}]/div[2]/dl/dt/a/text()')
  18. if len(name) > 0:
  19. mess_dict['name'] = name[0]
  20. else:
  21. mess_dict['name'] = ' '
  22. #hotnumber:景区热度
  23. hotnumber = xml.xpath(f'//*[@class="list_mod2"]/div[{k}]/div[2]/dl/dt/a/b[2]/text()')
  24. if len(hotnumber) > 0:
  25. try:
  26. mess_dict['hotnumber'] = float(hotnumber[0])
  27. except:
  28. mess_dict['hotnumber'] = '0.0'
  29. else:
  30. mess_dict['hotnumber'] = 0.0
  31. #location:景区位置
  32. location = xml.xpath(f'//*[@class="list_mod2"]/div[{k}]/div[2]/dl/dd/text()')
  33. if len(location) > 0:
  34. mess_dict['location'] = location[0]
  35. else:
  36. mess_dict['location'] = ' '
  37. #score:景点评分
  38. score = xml.xpath(f'//*[@class="list_mod2"]/div[{k}]/div[2]/ul/li/a/text()')
  39. if len(score) > 0:
  40. try:
  41. mess_dict['score'] = float(score[0])
  42. except:
  43. mess_dict['score'] = '0.0'
  44. else:
  45. mess_dict['score'] = 0.0
  46. #进行翻页操作
  47. next_page_btn = driver.find_element(By.XPATH, "/html/body/div[2]/div[2]/div[4]/div/div[2]/div/div[3]/div[12]/div/a[7]")
  48. next_page_btn.click()
  49. time.sleep(1)
  50. driver.quit()

 5.运行程序

 最后就是调用定义的函数了!!!

  1. #加载浏览器驱动
  2. driver = get_driver()
  3. #指定url
  4. url = "https://you.ctrip.com/sight/beijing1.html"
  5. #进入页面
  6. driver.get(url)
  7. #登录
  8. login(driver=driver)
  9. #开始任务
  10. start_task(driver=driver)

以上内容为Selenium在爬虫应用中通用的基本流程,可根据需求自己扩展添加。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/372197
推荐阅读
相关标签
  

闽ICP备14008679号