赞
踩
好久不见!
今天我们来爬取 去哪儿网站 的 旅游攻略 数据。
作为一名立志成为技术宅的普通肥宅,每次一到周末就会面临一个人生难题:这周末怎么过?
本来是没有这些问题的,该吃吃该睡睡,打打游戏敲敲代码,也挺自在。
只是后来毕业,来到一个新的城市,赚的钱除了吃住还有富余,总觉得如果不趁着周末和假期出去好好逛逛这个城市,就等于白来一趟,那就太亏了。
话虽如此,旅游岂是说走就走的。好几次我下定决心出门,结果在小区门口的十字路口,看着车来车往陷入沉思:我特么去哪儿玩啊!思索半天,最后去超市买了一提肥宅快乐水,回家躺床上打开了王者荣耀。。。
哎!
都怪没有一份完整的旅游攻略,导致我想出去玩都不知道去哪儿玩!
为了防止我以后再找这种自欺欺人的借口,我决定爬取 去哪儿 2021最新游记有什么好玩的地方-适合年轻人的旅游攻略-去哪儿攻略 网站的旅游攻略库。
分析流程主要有以下几步:
1. 打开网站,看看网页上展示一些什么数据。
2. 通过 F12 开发者工具,找到数据的获取接口(数据是 html 还是 json,翻页是 url 控制还是 ajax)
3. 编写简单的代码,发起网络请求,试探对方网站的反爬机制。
4. 完成以上三步之后,就可以完善代码,正式爬取数据了。
1. 我们可以获取哪些数据
如图,通过观察,我们可以发现网站上展示了以下数据:
而且,多翻阅不同的文章,可以发现
【文章标题】【作者昵称】【出发日期】【游玩天数】【阅读量】【点赞数】【评论数】【途经】【行程】这些数据项是每一篇游记文章中共有的数据。
【照片数量】【人均消费】【同行人数】【旅游类型】这四项,会根据作者的设置,显示全部,显示部分,或者全部隐藏。
2. 抓取数据的接口
一般情况下,网站的数据加载方式有两种,一种是直接存放在静态的HTML网页中,另一种是通过 Ajax 动态的加载到网页中。
那怎么判断我们要爬取的网站,到底采用的是哪一种数据加载方式呢?这里教大家几个小办法。
① 通过翻页
② 开发者工具抓包
通过上面 翻页 的方式大致确定了数据加载方式之后,我们可以在浏览器中按 F12,调用 开发者工具 进行抓包,验证我们的想法,并找到数据的接口。
Ⅰ. 打开开发者工具,切换到 Network 项,然后在网页中进行翻页操作(这一步主要是是网站出现 “加载新数据” 这一过程,方便我们抓包分析)。
Ⅱ. 开发者工具会为我们抓取整个过程中网站与服务器通信的所有数据包。如截图所示,这些数据包类型有 XHR,JS,CSS,Img 等等,这里我们主要关注 XHR 和 Doc 这两类(一般情况下,XHR 中的数据是 json 格式的,Doc 中的数据是 Html 格式的)。
通过测试,我们在 Doc 中找到了 去哪儿网 旅游攻略数据的接口。
3. 试探网站的反爬机制
找到网站的数据接口之后,我们还不能大意,需要简单地编写代码,调用这个接口,来试探网站的反爬机制。只有绕过了反爬机制,用代码获取到了数据,才算是成功了。
这是我们上一步找到的接口,在 Headers 选项卡中可以看到这个接口的基本参数,我们主要关注以下几个:
然后我们在 python 中,用代码构造这些参数,访问这个接口,看是否可以获取数据
- import requests
-
- # Request Url
- url = "https://travel.qunar.com/travelbook/list.htm?page=2&order=hot_heat"
- # Request Headers
- headers = {
- 'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
- 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36',
- }
- # Query String Parameters
- params = {
- 'page': 2,
- 'order': 'hot_heat',
- }
-
- # 发起网络请求,请求方式是 get
- r = requests.get(url, data=params, headers=headers)
- r.encoding = r.apparent_encoding
- print(r.text)
执行代码,很幸运,这个网站没有太多的反爬机制,直接就获取到了数据。
上述的操作一步步做下来,我们基本上已经攻克了整个爬虫中最困难的一步了。接下来,只需要对爬取到的内容进行解析,提取出我们需要的数据即可。
由于爬到的数据是 HTML 格式,我们选用 BeautifulSoup 库进行解析。
bsObj = BeautifulSoup(html,"html.parser")
我们对照网页源码来简单分析(有条件的可以去 旅游攻略库 网站,打开开发者工具对照着分析)。
- bookList = bsObj.find("ul",attrs = {"class":"b_strategy_list"})
- li_List = bookList.find_all("li")
link = "https://travel.qunar.com" + li.h2.a["href"]
title = li.h2.a.text
- user_info = li.find("p", attrs = {"class":"user_info"})
- intro = user_info.find("span", attrs = {"class":"intro"})
-
- user_name = intro.find("span", attrs = {"class":"user_name"}).text
- date = intro.find("span", attrs = {"class":"date"}).text
- days = intro.find("span", attrs = {"class":"days"}).text
-
- photo_nums = intro.find("span", attrs = {"class":"photo_nums"}).text
- people = intro.find("span", attrs = {"class":"people"}).text
- trip = intro.find("span", attrs = {"class":"trip"}).text
- fee = intro.find("span", attrs = {"class":"fee"}).text
- nums = user_info.find("span", attrs = {"class":"nums"})
- icon_view = nums.find("span", attrs = {"class":"icon_view"}).span.text
- icon_love = nums.find("span", attrs = {"class":"icon_love"}).span.text
- icon_comment = nums.find("span", attrs = {"class":"icon_comment"}).span.text
上述代码,对照着网页源码,和上面的分析,大家应该可以很轻易掌握这个库的使用方法。
最后我们将代码整理一下:
- import requests
- from bs4 import BeautifulSoup
-
- def fetchHotel(url):
- # 发起网络请求,获取数据
- headers = {
- 'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
- 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36',
- }
-
- # 发起网络请求(参数放到 URL 中了)
- r = requests.get(url,headers=headers)
- r.encoding = "utf-8"
- return r.text
-
- def getPageNum(html):
- #获取总页数
- pageNum=1
- bsObj = BeautifulSoup(html,"html.parser")
- pageList = bsObj.find("div",attrs = {"class":"b_paging"}).find_all("a")
- if(pageList):
- pageNum = pageList[-2].text
- return int(pageNum)
-
- def parseHtml(html):
- #解析html网页,提取数据
- bsObj = BeautifulSoup(html,"html.parser")
- bookList = bsObj.find("ul",attrs = {"class":"b_strategy_list"})
- books = []
-
- for book in bookList:
- link = "https://travel.qunar.com" + book.h2.a["href"]
- #print("link:",link)
- title = book.h2.a.text
- #print("title:", title)
- user_info = book.find("p", attrs = {"class":"user_info"})
-
- intro = user_info.find("span", attrs = {"class":"intro"})
- user_name = intro.find("span", attrs = {"class":"user_name"}).text
- #print("user_name:",user_name)
- date = intro.find("span", attrs = {"class":"date"}).text
- #print("date:",date)
- days = intro.find("span", attrs = {"class":"days"}).text
- #print("days:",days)
-
- photoTmp = intro.find("span", attrs = {"class":"photo_nums"})
- if(photoTmp):
- photo_nums = photoTmp.text
- else:
- photo_nums = "没有照片"
- #print("photo_nums:",photo_nums)
-
- peopleTmp = intro.find("span", attrs = {"class":"people"})
- if(peopleTmp):
- people = peopleTmp.text
- else:
- people = ""
- #print("people:",people)
-
- tripTmp = intro.find("span", attrs = {"class":"trip"})
- if(tripTmp):
- trip = tripTmp.text
- else:
- trip = ""
- #print("trip:",trip)
-
- feeTmp = intro.find("span", attrs = {"class":"fee"})
- if(feeTmp):
- fee = feeTmp.text
- else:
- fee = ""
- #print("fee:",fee)
-
- nums = user_info.find("span", attrs = {"class":"nums"})
- icon_view = nums.find("span", attrs = {"class":"icon_view"}).span.text
- #print("icon_view:",icon_view)
- icon_love = nums.find("span", attrs = {"class":"icon_love"}).span.text
- #print("icon_love:",icon_love)
- icon_comment = nums.find("span", attrs = {"class":"icon_comment"}).span.text
- #print("icon_comment:",icon_comment)
-
- #print("----"*20)
- books = [[title,link,user_name,date,days,photo_nums,people,trip,fee,icon_view,icon_love,icon_comment]]
- yield books
-
- def saveCsvFile(filename,content):
- import pandas as pd
- # 保存文件
- dataframe = pd.DataFrame(content)
- dataframe.to_csv(filename, encoding='utf_8_sig', mode='a', index=False, sep=',', header=False )
-
- def downloadBookInfo(url,fileName):
- head = [["标题","链接","作者","出发日期","天数","照片数","人数","玩法","费用","阅读数","点赞数","评论数"]]
- saveCsvFile(fileName, head)
- html = fetchHotel(url)
- pageNum = getPageNum(html)
- for page in range(1, pageNum + 1):
- print("正在爬取",str(page), "页 .......")
- url = "https://travel.qunar.com/travelbook/list/%E4%B8%8A%E6%B5%B7/hot_heat/" + str(page) + ".htm"
- html = fetchHotel(url)
- for book in parseHtml(html):
- saveCsvFile(fileName, book)
-
- url = "https://travel.qunar.com/travelbook/list/上海/hot_heat/1.htm"
- fileName = "data.csv"
- downloadBookInfo(url,fileName)
- print("全部完成!")
-
整理过程中,我对代码做了一些调整,这里简单说明一下,以免给大家造成困惑。
经过一段时间的爬取,整整 200 页,2000 条的数据全部爬取完成。在 Excel 中打开,简单排版一下,如下图所示。
在分析网站的时候,我其实分析了更多的内容,包括城市编号,排序方式,以及下面这些参数的编号等,但是想了想还是不写文章里了,一方面我们这个爬虫不需要分析那么深入,另一方面,把人家网站扒的一丝不苟总归是不太礼貌的。大家感兴趣的可以自己去研究研究。
后续的话,削微透露一下,我通过这些文章的链接,将文章内容爬取了下来。
由于是图文,所以我决定用 markdown 格式文本进行保存,近两千篇文章,找一个高颜值的 markdown 编辑器,读起来有种特别的美感。
后面我会写博客介绍如何爬取图文文章保存为markdown,以及其中遇到的问题和解决方法,大家可以期待一下。
如果文章中有哪里没有讲明白,或者讲解有误的地方,欢迎在评论区批评指正,或者扫描下面的二维码,加我微信,大家一起学习交流,共同进步。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。