当前位置:   article > 正文

python爬取旅游信息_使用python+selenium爬取同城旅游网机票信息

python爬取旅游信息_使用python+selenium爬取同城旅游网机票信息

from selenium import webdriver

from selenium.webdriver.support.wait import WebDriverWait

from selenium.webdriver.support import expected_conditions as EC

from selenium.webdriver.common.by import By

from selenium.webdriver.common.keys import Keys

from spider.comm.spider_communal import is_same_month

from selenium.webdriver.chrome.options import Options

import platform

import time

import re

from lxml import etree

'''使用selenium自动化测试工具爬取同城旅游网机票信息爬取URL:https://www.ly.comauthor:liu-yanlin依赖环境:python3.6.1pip install selenium=3.13.0pip install lxml=4.2.1Chrome驱动下载地址:https://pan.baidu.com/s/1564mrLmlT7vPdLBntm8hlQ 提取码:fq33'''

class LySpider():

'''@:param date_str 查询日期@:param start_city 查询起始城市@:param arrive_city 查询抵达城市'''

def __init__(self,date_str,start_city,arrive_city):

self.date_str=date_str

self.start_city=start_city

self.arrive_city=arrive_city

# 判断如果系统是Windows测试效果则弹窗模式,否则Linux部署环境下开启无头模式

sys_str = platform.system()

if sys_str == "Windows":

# self.driver = webdriver.Chrome()

options = Options()

options.add_argument('--headless')

self.driver = webdriver.Chrome(chrome_options=options)

elif sys_str == "Linux":

options = Options()

options.add_argument('--headless')

self.driver = webdriver.Chrome(chrome_options=options)

'''通过selenium控制Chrome驱动,完成模拟人工输入查询地址和日期然后点击提交获取查询结果html的流程'''

def get_query_results(self):

# 隐性等待和显性等待可以同时用,但要注意:等待的最长时间取两者之中的大者

self.driver.implicitly_wait(10)

self.driver.get('https://www.ly.com/FlightQuery.aspx')

locator = (By.ID, 'txtAirplaneCity1')

try:

#显性等待

WebDriverWait(self.driver, 20, 0.5).until(EC.presence_of_element_located(locator))

# 起始地城市input元素获取并清空值,然后填入城市名称,输入之后模拟按回车键

txtAirplaneCity1 = self.driver.find_elements_by_id("txtAirplaneCity1")[0]

txtAirplaneCity1.clear()

txtAirplaneCity1.send_keys(self.start_city)

txtAirplaneCity1.send_keys(Keys.ENTER)

# 抵达地城市input元素获取并清空值,然后填入城市名称,输入之后模拟按回车键

txtAirplaneCity2 = self.driver.find_elements_by_id("txtAirplaneCity2")[0]

txtAirplaneCity2.clear()

txtAirplaneCity2.send_keys(self.arrive_city)

txtAirplaneCity2.send_keys(Keys.ENTER)

# 如果所查询的日期在当月范围内,则定位到日历插件中第1个div否则定位到第2个div,div1 表示当月,div2表示下一个月

if is_same_month(self.date_str):

# 定位到日历插件

element_calendar = self.driver.find_elements_by_xpath(

"/html/body/div[17]/div/div[1]/div[1]/div/table/tbody/tr/td/span")

for item in element_calendar:

if item.text == str(int(self.date_str.split("-")[2])):

item.click()

else:

element_calendar = self.driver.find_elements_by_xpath(

"/html/body/div[17]/div/div[1]/div[2]/div/table/tbody/tr/td/span")

for item in element_calendar:

if item.text == str(int(self.date_str.split("-")[2])):

item.click()

# 定位搜索按钮并模拟点击提交

airplaneSubmit = self.driver.find_elements_by_id("airplaneSubmit")[0]

airplaneSubmit.click()

# 显性等待后,定位到机票查询结果div,然后获取div内的html

locator_content = (By.ID, 'allFlightListDom_1')

WebDriverWait(self.driver, 20, 0.5).until(EC.presence_of_element_located(locator_content))

flight_list_html=self.get_flight_list_dom()

#返回结果

data_list=[]

'''此处判断返回的flight_list_html里面是否包含有机票信息,如果有直接返回此html代码,否则使用for循环从新尝试10次,每循环一次暂停一秒(这里为啥要这样写,因为实际情况中可能会存在网络延迟加载慢等原因导致获取不到内容)'''

if flight_list_html:

for item in flight_list_html:

data_list.append(item.get_attribute('innerHTML'))

else:

for x in range(10):

flight_list_html = self.get_flight_list_dom()

if flight_list_html:

for item in flight_list_html:

data_list.append(item.get_attribute('innerHTML'))

break

time.sleep(1)

return data_list

except Exception as ex:

print(ex)

finally:

self.driver.close()

'''定位到机票查询结果div,然后获取div内的html'''

def get_flight_list_dom(self):

# ---显性等待后,定位到机票查询结果div,然后获取div内的html

#通过观察页面发现这个机票列表数据有三种格式,所以将它们都提取出来拼接成一个List返回

flight_list_html_n=self.driver.find_elements_by_xpath('//div[@class="clearfix flightList"]//div[@class="flist_box"]')

flight_list_html_top=self.driver.find_elements_by_xpath('//div[@class="clearfix flightList"]//div[@class="flist_box f_m_top flist_boxat"]')

flight_list_html_boxbot = self.driver.find_elements_by_xpath('//div[@class="clearfix flightList"]//div[@class="flist_box flist_boxbot"]')

return flight_list_html_n+flight_list_html_top+flight_list_html_boxbot

'''提取数据@:param respone get_query_results()方法中返回的结果内容'''

def extract(self,respone):

try:

data_list=[]

for item in respone:

data = {}

html = etree.HTML(item)

# 航司

airline = html.xpath('/html/body/table/tbody/tr/td[1]/div[1]/text()')

data["airline"] = airline[0] if airline else ""

# 航班号

flight_number = re.findall("[a-zA-Z]{2}\d+", airline[0])

data["flight_number"] = flight_number[0] if flight_number else ""

# 出发时间

dep_time = html.xpath('/html/body/table/tbody/tr/td[2]/div[1]/text()')

data["dep_time"] = dep_time[0] if dep_time else ""

# 出发机场

dep_airport = html.xpath('/html/body/table/tbody/tr/td[2]/div[2]/text()')

data["dep_airport"] = dep_airport[0] if dep_airport else ""

# 飞机类型

aircraft_type = html.xpath('/html/body/table/tbody/tr/td[1]/div[2]/a/text()')

data["aircraft_type"] = aircraft_type[0] if aircraft_type else ""

# 抵达时间

arr_time = html.xpath('/html/body/table/tbody/tr/td[4]/div[1]/text()')

data["arr_time"] = arr_time[0] if arr_time else ""

# 抵达机场

arr_airport = html.xpath('/html/body/table/tbody/tr/td[4]/div[2]/text()')

data["arr_airport"] = arr_airport[0] if arr_airport else ""

# 价格

price = html.xpath('/html/body/table/tbody/tr/td[8]/div[1]/span[1]/em[1]/text()')

data["price"] = price[0] if price else ""

data_list.append(data)

return data_list

except Exception as ex:

print(ex)

return None

'''保存数据@:param data 要保存的数据,默认是保存extract()方法所返回的数据'''

def save(self,data=None):

try:

#以下将数据保存到kafka中

if data:

pass

else:

results=self.extract(self.get_query_results())

except Exception as ex:

pass

if __name__ == "__main__":

ly_spider=LySpider("2019-01-02","成都","北京")

res=ly_spider.get_query_results()

data_list=ly_spider.extract(res)

for item in data_list:

print(item)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/372148
推荐阅读
相关标签
  

闽ICP备14008679号