当前位置:   article > 正文

Python爬虫的学习笔记_with_open(file_name,'w',encoding='utf-8')

with_open(file_name,'w',encoding='utf-8')

目录

1.爬虫基础简介

2.requests模块基础

2.1  requests模块介绍

2.2  requests实战编码

2.2.1 实战1:爬取搜狗首页的页面数据 

2.2.2 实战2:爬取搜狗指定词条对应的搜索结果页面(简易网页采集器)

2.2.3 实战3:破解百度翻译

2.2.4 实战4:爬取豆瓣电影分类排行榜中的电影详情数据

2.2.5 实战5:爬取肯德基餐厅查询中指定地点的餐厅数量

2.2.6 实战6:爬取国家药品监督管理总局中基于中华人民共和国化妆品生产许可证相关数据

3.数据解析

3.1 基本概念 

3.2 正则解析 

3.2.1 正则图片数据爬取

3.2.2 正则解析案例

3.3 bs4解析

3.3.1 bs4相关知识 

3.3.2 bs4案例实战

3.4 xpath解析(重要)

3.4.1 xpath基础知识 

3.4.2 xpath实战-58二手房

3.4.3 xpath解析案例-4k图片解析下载

3.4.4 xpath解析案例-全国城市名称爬取

3.4.5 xpath解析案例-爬取站长素材中免费的简历模板

4.验证码识别

4.1 云打码使用流程

4.2 云打码实战演练-识别古诗文网登陆页面中的验证码

5.requests模块高级

5.1 模拟登陆古诗文网 

5.2 模拟登陆人人网

5.3 模拟登录cookie

5.4 代理

5.4.1 代理理论知识 

6.高性能异步爬虫

6.1 基础知识

6.2 异步爬虫之线程池的使用

6.3 异步爬虫之线程池案例应用-爬取梨视频的视频数据

6.4 协程

6.4.1 基本概念

6.4.2 基于协程的异步编程

6.4.3 异步和非异步模块混合案例

6.4.4 异步迭代器【了解】

6.4.5 异步上下文管理器

6.4.6 uvloop

6.5 协程复习

6.5.1 定义一个协程 

6.5.2 task的使用: 

6.5.3 future的使用 

6.5.4 绑定回调

6.6 多任务异步协程

6.7 aiohttp模块

6.7.1 aiohttp模块的引出

6.7.2 aiohttp+多任务异步协程实现异步爬虫

7.动态加载数据处理 

7.1 selenium模块简介 

7.2 selenium其他自动化操作

7.3 iframe处理+动作链

7.4 selenium的模拟登录QQ空间

7.5 谷歌无头浏览器+规嫌检测

7.6 超级鹰的基本使用

7.7 中国铁路12306模拟登陆

8.scrapy框架

8.1 学前准备

8.2 scrapy创建工程

8.3 数据解析--知乎热榜

8.4 基于终端命令的持久化存储

8.4.1 基于终端命令方式存储

8.4.2 基于管道方式持久化存储

8.4.3 基于管道方式持久化存储--->面试题

8.5 基于spider的全站数据爬取

8.6 五大核心组件

8.6 请求传参

8.7 scrapy图片爬取

8.8 中间件初始

8.8.1 使用中间件拦截请求

8.8.2 使用中间件拦截响应

8.9 CrawlSpider

8.10 分布式爬虫

9.增量式爬虫


1.爬虫基础简介

前戏:
        1.你是否在夜深人静的时候,想看一些会让你更睡不着的图片...
        2.你是否在考试或者面试前夕,想看一些具有针对性的题目和面试题...

        3.你是否想在杂乱的网络世界中获取你想要的数据...

什么是爬虫:
        -通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程。

爬虫的价值:
        -实际应用

        -就业

爬虫究竟是合法还是违法的?
        -在法律中是不被禁止
        -具有违法风险

爬虫带来的风险可以体现在如下2方面:
        -爬虫干扰了被访问网站的正常运营
        -爬虫抓取了收到法律保护的特定类型的数据或信息

如何在使用编写爬虫的过程中避免进入局子的厄运呢?
        -时常的优化自己的程序,避免干扰被访问网站的正常运行
        -在使用传播爬取到的数据时,审查抓取到的内容,如果发现了涉及到用户隐私、商业机密等敏感内容,需要及时停止爬取或传播

爬虫在使用场景中的分类:
        -通用爬虫:抓取系统重要组成部分。抓取的是一整张页面数据。

        -聚焦爬虫:是建立在通用爬虫的基础之上。抓取的是页面中特定的局部内容。

        -增量式爬虫:检测网站中数据更新的情况。只会抓取网站中最新更新出来的数据。

反爬机制:
        门户网站,可以通过制定相应的策略或者技术手段,防止爬虫程序进行网站数据的爬取。
反反爬策略:
        爬虫程序可以通过制定相关的策略或者技术手段,破解门户网站中具备的反爬机制,从而可以获取门户网站中的相关数据。

robots.txt协议:

        君子协议。规定了网站中哪些数据可以被爬虫爬取,哪些数据不可以被爬取。

http协议:
        -概念:就是服务器和客户端进行数据交互的一种形式。常用请求头信息。

常用请求头信息:
        -User-Agent:请求载体的身份标识

        -Connecion:请求完毕后,是断开连接还是保持连接
常用响应头信息:
        -Content-Type:
服务器响应回客户端的数据类型
https协议:
        -安全的超文本传输协议【与http协议的区别在于是否安全,安全是指是否加密】

加密方式:
        -对称秘钥加密

        -非对称秘钥加密
        -证书秘钥加密【https所用的】

对称秘钥加密:

        私有秘钥加密 Secret Key Cryptography,最大的特点是发送方和接收方都采用同样的秘钥,具有对称性,故称对称秘钥加密。发送方采用私有秘钥和指定算法进行加密 形成密文,接收方也采用同样的私有秘钥和同样的算法进行解密得到明文。由于加密和解密所用的算法是完全公开的,关键是加密和解密所用的秘钥,秘钥不同,生成的密文也就不同,用哪个秘钥加密,就需要用哪个秘钥解密,双方不能把秘钥公开,即秘钥属于双方私有。第三方无法获得秘钥,也就无法窃取信息。

使用过程:

        1.发送方使用私有秘钥加密算法生成秘钥A,并复制一份借助安全通道(数字信封、PGP再次加密)发送给接收方;
        2.发送方使用秘钥A将明文信息加密成密文;
        3.发送方发送密文给接收方;
        4.接收方接到密文利用本地秘钥A将信息解密成明文。

优点:

        1.算法公开;

        2.应用简单;

        3.加密速度快;

        4.加密效率高。

        在专用网络中通讯方相对固定,所以应用效果好。可以在金融局域网和各种专网的加密通讯中,大文件传输或者大报文的传输非常有效率。

缺点:

        1.由于算法公开,其安全性完全依赖于对私有秘钥的保护;

        2.在同一网络中所有用户使用相同的秘钥就失去了保密的意义;

        3.难以进行用户身份认定,存在欺诈行为。

原理图如下:

非对称秘钥加密:

        “非对称加密"使用的时候有两把锁,一把叫做“私有密钥”,一把是“公开密钥",使用非对称加密的加密方式的时候,服务器首先告诉客户端按照自己给定的公开密钥进行加密处理,客户端按照公开密钥加密以后,服务器接受到信息再通过自己的私有密钥进行解密,这样做的好处就是解密的钥匙根本就不会进行传输,因此也就避免了被挟持的风险。就算公开密钥被窃听者拿到了,它也很难进行解密,因为解密过程是对离散对数求值,这可不是轻而易举就能做到的事。

非对称秘钥加密技术缺点:

  • 如何保证接收端向发送端发出公开秘钥的时候,发送端确保收到的是预先要发送的,而不会被挟持。只要是发送密钥,就有可能有被挟持的风险。
  • 非对称加密的方式效率比较低,它处理起来更为复杂,通信过程中使用就有一定的效率问题而影响通信速度。

原理图如下:

证书秘钥加密: 

        在上面我们讲了非对称加密的缺点,其中第一个就是公钥很可能存在被挟持的情况,无法保证客户端收到的公开密钥就是服务器发行的公开密钥。此时就引出了公开密钥证书机制。数字证书认证机构是客户端与服务器都可信赖的第三方机构。

证书的具体传播过程:

  • 服务器的开发者携带公开密钥,向数字证书认证机构提出公开密钥的申请,数字证书认证机构在认清申请者的身份,审核通过以后,会对开发者申请的公开密钥做数字签名,然后分配这个已签名的公开密钥,并将密钥放在证书里面,绑定在一起;
  • 服务器将这份数字证书发送给客户端,因为客户端也认可证书机构,客户端可以通过数字证书中的数字签名来验证公钥的真伪,来确保服务器传过来的公开密钥是真实的。一般情况下,证书的数字签名是很难被伪造的,这取决于认证机构的公信力。一旦确认信息无误之后,客户端就会通过公钥对报文进行加密发送,服务器接收到以后用自己的私钥进行解密。

原理图如下:

2.requests模块基础

2.1  requests模块介绍

requests模块:

        python中原生的一款基于网络请求的模块。

特点:

        功能非常强大,简单便捷,效率极高。

作用:

        模拟浏览器发请求。

如何使用:(requests模块的编码流程)

        -指定url

        -发起请求
        -获取响应数据

        -持久化存储
环境安装:
        pip install requests

2.2  requests实战编码

2.2.1 实战1:爬取搜狗首页的页面数据 

实战编码:
        -需求:爬取搜狗首页的页面数据

  1. #需求:爬取搜狗首页的页面数据
  2. import requests
  3. if __name__ == '__main__':
  4. #1.指定url
  5. url="https://www.sogou.com/"
  6. #2.发起请求
  7. response=requests.get(url=url)#get发起请求成功后,返回请求对象
  8. #3.获取响应数据
  9. page_text=response.text#返回字符串
  10. print(page_text)
  11. #4.持久化存储
  12. with open('./sogou.html','w',encoding='utf-8') as fp:
  13. fp.write(page_text)
  14. print('爬取数据结束!!!')

2.2.2 实战2:爬取搜狗指定词条对应的搜索结果页面(简易网页采集器)

UA:User-Agent(请求载体的身份标识)
UA检测:门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求的载体身份标识为某一款浏览器,说明该请求是正常的请求。但是,如果检测到的载体身份标识不是基于某一款浏览器的,则表示该请求为不正常的请求(爬虫),则服务器端就有可能拒绝该请求。

UA伪装【反反爬策略】:让爬虫对应的请求载体身份标识伪装成某一款浏览器。

UA伪装:将对应的User-Agent封装到一个字典中。

需求:爬取搜狗指定词条对应的搜索结果页面(简易网页采集器) 

  1. # 需求:爬取搜狗指定词条对应的搜索结果页面(简易网页采集器)
  2. import requests
  3. if __name__ == '__main__':
  4. #UA伪装:将对应的User-Agent封装到一个字典中
  5. headers={
  6. 'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  7. }
  8. #1.指定url
  9. url="https://www.sogou.com/web"#从网页上粘贴
  10. #处理url携带的参数:封装到字典中
  11. kw=input('enter a word:')
  12. param={
  13. 'query':kw,
  14. }
  15. #2.对指定的url发起的请求对应的url是携带参数的,并且请求过程中处理了参数
  16. response=requests.get(url=url,params=param,headers=headers)
  17. #3.获取响应数据
  18. page_text=response.text
  19. #4.存储数据
  20. file_name=kw+'.html'
  21. with open(file_name,'w',encoding='utf-8') as fp:
  22. fp.write(page_text)
  23. print(file_name+'保存成功!!!')

2.2.3 实战3:破解百度翻译

需求:破解百度翻译。    获取一个页面的局部数据。
        -post请求(携带了参数)   获取到的是json数据

  1. import requests,json
  2. if __name__ == '__main__':
  3. #1.指定url
  4. post_url="https://fanyi.baidu.com/sug"
  5. #2.进行UA伪装
  6. headers={
  7. 'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  8. }
  9. #3.post请求参数的处理(同get请求一致)
  10. word=input('enter a word:')
  11. data={
  12. 'kw':word
  13. }
  14. #4.请求发送
  15. response=requests.post(url=post_url,data=data,headers=headers)
  16. #5.获取响应数据:json()方法返回的是一个对象【只有确认响应数据是json,才可以使用json()返回】
  17. dic_obj=response.json()
  18. #6.进行持久化存储
  19. fp=open('./'+word+'.json','w',encoding='utf-8')
  20. json.dump(dic_obj,fp=fp,ensure_ascii=False)#因为拿到的串是中文的,所以不是ascii
  21. print('数据爬取结束!!!')

2.2.4 实战4:爬取豆瓣电影分类排行榜中的电影详情数据

只要url里面有参数,最好用参数封装一下,将问号?后面的参数封装到字典里。 

  1. import requests,json
  2. if __name__ == '__main__':
  3. #只要url里面有参数,最好用参数封装一下,将问号?后面的参数封装到字典里
  4. url="https://movie.douban.com/j/search_subjects"
  5. params={
  6. "type": "tv",
  7. "tag": "美剧",
  8. "sort": "recommend",
  9. "page_limit": "20",#一次请求取出的个数
  10. "page_start": "20"#从库中的第几部电影取
  11. }
  12. #UA伪装
  13. headers={
  14. 'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  15. }
  16. #发请求get
  17. response=requests.get(url=url,params=params,headers=headers)
  18. list_data=response.json()
  19. fp=open('./豆瓣.json','w',encoding='utf-8')
  20. json.dump(list_data,fp=fp,ensure_ascii=False)
  21. print('抓取完毕!!!')

2.2.5 实战5:爬取肯德基餐厅查询中指定地点的餐厅数量

需求:爬取肯德基餐厅查询http://www.kfc.com.cn/ kfccda/index.aspx中指定地点的餐厅数量

  1. import requests
  2. if __name__ == '__main__':
  3. url="http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword"
  4. name=input('请输入地点:')
  5. data={
  6. "cname":"" ,
  7. "pid":"" ,
  8. "keyword": name,
  9. "pageIndex": "1",
  10. "pageSize": "10"
  11. }
  12. headers = {
  13. 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  14. }
  15. response=requests.post(url=url,headers=headers,data=data)
  16. page_text=response.text
  17. file_name='./肯德基地点_'+name+'.html'
  18. fp=open(file_name,'w',encoding='utf-8')
  19. fp.write(page_text)
  20. fp.close()
  21. print('爬取结束!!!')

2.2.6 实战6:爬取国家药品监督管理总局中基于中华人民共和国化妆品生产许可证相关数据

需求:爬取国家药品监督管理总局中基于中华人民共和国化妆品生产许可证相关数据

数据有可能是动态数据,这些数据通过网址是获取不到。

        -动态加载数据
        -首页中对应的企业信息数据是通过ajax动态请求到的。

两个url:

(看差异:只有id后面的不一样,所以可以通过拼接获取url)

通过对详情页url的观察发现:
        -url的域名都是一样的,只有携带的参数(id)不一样

        -id值可以从首页对应的ajax请求到的json串中获取

        -域名和id值拼接处一个完整的企业对应的详情页的url

        -详情页的企业详情数据也是动态加载出来的

http://scxk.nmpa.gov.cn:81/xk/itownet/portal/dzpz.jsp?id=fb41790cea4e419b957d1e4f63c16b63

http://scxk.nmpa.gov.cn:81/xk/itownet/portal/dzpz.jsp?id=462b26aca5d54203b710b7fe6ab90a8d

详情页的企业详情数据也是动态加载出来的:

        -所有的post请求的url都是一样的,只有参数id值是不同。
        -如果我们可以批量获取多家企业的id后,就可以将id和url形成一个完整的详情页对应详情数据的ajax请求的url。

http://scxk.nmpa.gov.cn:81/xk/itownet/portal/dzpz.jsp?id=fb41790cea4e419b957d1e4f63c16b63

http://scxk.nmpa.gov.cn:81/xk/itownet/portal/dzpz.jsp?id=462b26aca5d54203b710b7fe6ab90a8d

如何批量获取ajax数据。

  1. import requests,json
  2. if __name__ == '__main__':
  3. #批量获取不同企业的id值
  4. url="http://scxk.nmpa.gov.cn:81/xk/itownet/portalAction.do?hKHnQfLv=5uQ9.uJUl4Kc0z9J3tOGq2N1C1yh_ETgCj3KikIiJ.hItGaGnAiNedALSUdOxIxomoe52gVOVehZxG_loPZkHk9bV.iYW64w1ZpctYB6I1Sj3lUQksDSpWxog0rZw.SoKR8HduuWdyJ6W_D17.n9LX8eQsdVLMAtVlbE72WXAAljs91VQSHFoZeMrNhZwAc7gsqTUHkztGPFRVIXDmsO2uHkWAmELOSrMAciMNFDKRYUH6D.SqCLo1HJ0y_E92gvRJ.QWlxJZxLbmy57RqguVavTttBPGK8.VgZOi3RiEhxq&8X7Yi61c=4W0g8_xILDErPdAKWad_7M3DbjEMGxyC0vPfbCZn8jm3ceIQ1Qr5HP6mo.xAQkBFwUlR9boMY3oK71AX.CT_JnCeV0xl.gqYU.MG6XFqC8W.qBu_P0WSZKH9.NP70GTpi"
  5. headers = {
  6. 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  7. }
  8. id_list = [] # 存储企业的id
  9. all_data_list = [] # 存储所有企业详情数据
  10. # 参数的封装
  11. for page in range(1,384):
  12. page=str(page)
  13. data={
  14. "on": "true",
  15. "page": page,
  16. "pageSize": "15",
  17. "productName":"",
  18. "conditionType": "1",
  19. "applyname":"",
  20. "applysn":""
  21. }
  22. json_ids=requests.post(url=url,headers=headers,data=data).json()#字典类型,包含id
  23. for dic in json_ids['list']:
  24. id_list.append(dic['ID'])
  25. #获取企业详细数据
  26. post_url='http://scxk.nmpa.gov.cn:81/xk/itownet/portal/dzpz.jsp?'
  27. for id in id_list:
  28. data={
  29. "id":id
  30. }
  31. detail_json=requests.post(url=post_url,headers=headers,data=data).json()
  32. all_data_list.append(detail_json)
  33. #持久化存储
  34. fp=open('./all_Data.json','w',encoding='utf-8')
  35. json.dump(all_data_list,fp=fp,ensure_ascii=False)
  36. fp.close()
  37. print('抓包结束!!!!')

3.数据解析

3.1 基本概念 

爬虫在使用场景中的分类:
        -通用爬虫:抓取系统重要组成部分。抓取的是一整张页面数据。

        -聚焦爬虫:是建立在通用爬虫的基础之上。抓取的是页面中特定的局部内容。

        -增量式爬虫:检测网站中数据更新的情况。只会抓取网站中最新更新出来的数据。

数据解析分类:
        -正则

        -bs4
        -xpath(重要)

数据解析原理概述:
        -解析的局部的文本内容都会在标签之间或者标签对应的属性中进行存储

        -1.进行指定标签的定位
        -2.标签或者标签对应的属性中存储的数据值进行提取(解析)

基于聚焦爬虫的编码流程:
        -指定url

        -发起请求
        -获取响应数据

        -数据解析
        -持久化存储

3.2 正则解析 

3.2.1 正则图片数据爬取

常用正则表达式回顾: 

项目需求:爬取指定页面的图片,并将其保存到指定文件夹中

  1. # 项目需求:爬取指定页面的图片,并将其保存到指定文件夹中
  2. import requests
  3. if __name__ == '__main__':
  4. #如何爬取图片数据
  5. url='https://c-ssl.duitang.com/uploads/item/202004/25/20200425173132_svsej.jpeg'
  6. #图片是二进制数据
  7. #text(返回字符串类型数据) content(返回二进制类型数据) json()(返回一个对象)
  8. img_data=requests.get(url=url).content#content返回的就是二进制形式的数据
  9. with open('./捕获图片.jpg','wb') as fp:
  10. fp.write(img_data)

捕获结果展示:

3.2.2 正则解析案例

爬取一个页面的所有图片

爬取http://jandan.net/ooxx中随手拍网站的所有图片。

将整个网页的<img src>=后面的链接提取出来,就可以了。

ex='<img src="(.*?)"'   #最终要括号里面的内容。

  1. #爬取一个网页的所有图片
  2. import requests,re,os
  3. if __name__ == '__main__':
  4. #创建一个文件夹,用来保存所有图片
  5. if not os.path.exists('./糗图获取Libs'):
  6. os.mkdir('./糗图获取Libs')
  7. url='http://jandan.net/ooxx'#将要爬取页面的网址
  8. headers={
  9. 'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  10. }
  11. #使用通用爬虫对url对应的一整张页面进行爬取
  12. page_text=requests.get(url=url,headers=headers).text
  13. #使用聚焦爬虫将页面史所有的糗阁进行解析/提取
  14. ex='<img src="(.*?)"'#最终要括号里面的内容
  15. img_src_list=re.findall(ex,page_text,re.S)#re.S代表单行匹配
  16. for src in img_src_list:#列表中的链接内容缺少https头
  17. url="http:"+src
  18. img_data = requests.get(url=url,headers=headers).content # content返回的就是二进制形式的数据
  19. #生成图片名称,链接里面的最后字符串就是图片名称
  20. img_name=src.split('/')[-1]
  21. img_path='./糗图获取Libs/'+img_name
  22. with open(img_path, 'wb') as fp:
  23. fp.write(img_data)
  24. print(img_name+'下载成功!!!')

运行结果:

3.3 bs4解析

3.3.1 bs4相关知识 

bs4只可以应用于python中。

bs4数据解析的原理:

        -1.实例化一个BeautifulSoup对象,并且将页面源码数据加载到改对象中

        -2.通过调用BeautifulSoup对象中相关的属性或者方法进行标签定位和数据提取

环境安装:

        pip install bs4

        pip install lxml

如何实例化一个BeautifulSoup对象呢:

        -from bs4 import BeautifulSoup

        -对象的实例化:

                -1.将本地的html文档中的数据加载到该对象中

                        fp=open('./test.html','r',encoding='utf-8')
                        soup=BeautifulSoup(fp,'lxml')#第二个参数固定

                -2.将互联网上获取的页面源码加载到该对象中

                        page_text=response.text
                        soup=BeautifulSoup(page_text,'lxml')

        -提供的用于数据解析的方法和属性:

                -soup.tagName:返回的是html中第一次出现的togName对应的标签

                -soup.find():

                        -find(tagName):等同于soup.tagName

                        -属性定位:

                                -soup.find('div',class_/id/attr='song'

                -soup.find_all(tagName):返回符合要求的所有标签(列表)

                -select:

                        -select('某种选择器(id,calss,标签...选择器)'):返回的是一个列表

                        -层级选择器:

                                -soup.select('./tang >ul > li > a'):大于号表示是一个层级,返回的是列表

                                -soup.select('./tang > ul a')#ul与a之间的空格表示一个层级

                -获取标签之间的文本数据:

                        -soup.a.text/string/get_text():这几个一样,都是获取文本内容

                        -text/get_text():可以获取某一个标签中所有的文本内容

                        -string:只可以获取该标签下面直系的文本内容

                -获取标签中的属性值:
                         -soup.a['href‘]

  1. #test.html文件中内容
  2. <html lang="en">
  3. <head>
  4. <meta charset="UTF-8" />
  5. <title>测试bs4</title>
  6. </head>
  7. <body>
  8. <div>
  9. <p>百里守约</p>
  10. </div>
  11. <div class="song">
  12. <p>李清照</p>
  13. <p>王安石</p>
  14. <p>苏轼</p>
  15. <p>柳宗元</p>
  16. <a href="http://www.song.com/" title="赵匡胤" target="_self">
  17. <span>this is span</span>
  18. 宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都很有钱</a>
  19. <a href="" class="du">总为浮云能蔽日,长安不见使人愁</a>
  20. <img src="http://www.baidu.com/meinv.jpg" alt=""/>
  21. </div>
  22. <div class="tang">
  23. <ul>
  24. <li><a href="http://ww.baidu.com" title= "ging">清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村</a></li>
  25. <li><a href="http://ww.163 .com" title="gin">秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山</a></li>
  26. <li><a href="http://ww.126.com" alt= "qi">岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君</a></li>
  27. <li><a href="http://www.sina.com" class="du">杜甫</a></li>
  28. <li><a href="http://www.dudu.com" class="du">杜牧</a></li>
  29. <li><b>杜小月</b></li>
  30. <li><i>度蜜月</i></li>
  31. <li><a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a></li>
  32. </ul>
  33. </div>
  34. </body>
  35. </html>

测试代码: 

  1. from bs4 import BeautifulSoup
  2. import requests
  3. if __name__ == '__main__':
  4. #想要将本地的html文档中的数据加载到该对象中
  5. fp=open('./test.html','r',encoding='utf-8')
  6. soup=BeautifulSoup(fp,'lxml')#第二个参数固定'lxml'
  7. # print(soup)
  8. # print(soup.a)#soup.tagName返回的是html中第一次出现的togName对应的标签
  9. # print(soup.div)#
  10. # print(soup.find('div'))#返回的结果也是第一次出现的,相当于soup.div
  11. # print(soup.find('div',class_='song'))#属性定位。注意class_
  12. # print(soup.find_all('a'))#找到所有的
  13. # print(soup.select('.tang'))
  14. # print(soup.select('.tang > ul > li > a')[0])#层级选择器 返回的是一个列表
  15. # print(soup.select('./tang > ul a')[0])#ul与a之间的空格表示一个层级
  16. # print(soup.select('./tang > ul a')[0].string)#text,get_text,string
  17. print(soup.select('./tang > ul a')[0]['href'])

3.3.2 bs4案例实战

需求:爬取三国演义小说章节标题和章节内容

http://www.shicimingju.com/book/sanguoyanyi.html

  1. #需求:爬取三国演义小说章节标题和章节内容
  2. import requests
  3. from bs4 import BeautifulSoup
  4. if __name__ == '__main__':
  5. pass
  6. #对首页的数据进行爬取
  7. headers = {
  8. 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  9. }
  10. url = 'https://www.shicimingju.com/book/sanguoyanyi.html'
  11. page_text = requests.get(url =url,headers= headers).content
  12. #在首页中解析出所有章节的标题和详情页的url
  13. #实例化BeautifulSoup对象,需要将页面的网页源码加载到该对象中
  14. soup = BeautifulSoup(page_text,'lxml') #拿到了对象
  15. #解析章节标题和详情页的数据
  16. li_list = soup.select('.book-mulu>ul>li')
  17. fp = open('./三国.text', 'w', encoding='utf-8')
  18. for li in li_list :
  19. title = li.a.string
  20. detail_url = 'https://www.shicimingju.com'+li.a['href']
  21. #对详情页发起请求,并进行解析
  22. detail_page_text =requests.get(url=detail_url,headers=headers).content
  23. #解析详情页面的内容
  24. detail_soup = BeautifulSoup(detail_page_text,'lxml')
  25. div_tag = detail_soup.find('div',class_ = 'chapter_content')
  26. content = div_tag.text
  27. fp.write(title+":"+content+'\n')
  28. print(title+'爬取成功')

爬取结果展示:

3.4 xpath解析(重要)

3.4.1 xpath基础知识 

xpath解析:【最通用,最重要,最高效】

xpath解析原理:

        -1.实例化一个etree的对象,且需要将被解析的页面源码数据加载到该对象中。

        -2.调用etree对象中的xpath方法结合xpath表达式实现标签的定位和内容的捕获。

环境的安装:

        pip install lxml

如何实例化一个etree对象:from lxml import etree

        -1.将本地的html文档中的源码数据加载到etree对象中:

                etree.parse(filePath)

        -2.可以将从互联网上获取的源码数据加载到etree对象中:

                etree.HTML('page_text')

        -xpath('xpath表达式'):

                -/:最左侧的斜杠表示从根节点开始定位,中间的斜杠表示的是一个层级

                -//:中间的//表示的是多个层级,最左侧的//表示从任意位置开始定位

                -属性定位://tag[@属性名称='属性值']

                -索引定位://tag[@属性名称='属性值']/p[3]      ==>  索引从1开始

                -取文本:

                        -/text():获取的是标签中直系的文本内容

                        -//text():获取的的是标签下所有的文本内容

                -取属性值:

                        -/@属性名字

  1. #test.html文件中的内容
  2. <html lang="en">
  3. <head>
  4. <meta charset="UTF-8" />
  5. <title>测试bs4</title>
  6. </head>
  7. <body>
  8. <div>
  9. <p>百里守约</p>
  10. </div>
  11. <div class="song">
  12. <p>李清照</p>
  13. <p>王安石</p>
  14. <p>苏轼</p>
  15. <p>柳宗元</p>
  16. <a href="http://www.song.com/" title="赵匡胤" target="_self">
  17. <span>this is span</span>
  18. 宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都很有钱</a>
  19. <a href="" class="du">总为浮云能蔽日,长安不见使人愁</a>
  20. <img src="http://www.baidu.com/meinv.jpg" alt=""/>
  21. </div>
  22. <div class="tang">
  23. <ul>
  24. <li><a href="http://ww.baidu.com" title= "ging">清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村</a></li>
  25. <li><a href="http://ww.163 .com" title="gin">秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山</a></li>
  26. <li><a href="http://ww.126.com" alt= "qi">岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君</a></li>
  27. <li><a href="http://www.sina.com" class="du">杜甫</a></li>
  28. <li><a href="http://www.dudu.com" class="du">杜牧</a></li>
  29. <li><b>杜小月</b></li>
  30. <li><i>度蜜月</i></li>
  31. <li><a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a></li>
  32. </ul>
  33. </div>
  34. </body>
  35. </html>

测试代码: 

  1. from lxml import etree
  2. if __name__ == '__main__':
  3. #实例化一个对象,且将解析的源码加载到该对象中
  4. tree=etree.parse('test.html')
  5. print(tree.xpath('/html/head/title'))#从根目录开始遍历html,html>head>title
  6. print(tree.xpath('/html//title'))#同上,这里的//表示的是多个层级
  7. print(tree.xpath('//div'))#最左侧的//表示从任意位置开始定位title
  8. print(tree.xpath('//div[@class="song"]'))#class属性定位
  9. print(tree.xpath('//div[@class="song"]/p[3]'))#索引定位,索引下标从1开始
  10. print(tree.xpath('//div[@class="tang"]/ul/li[5]/a/text()')[0])#杜牧
  11. print(tree.xpath('//li[7]/i/text()'))#返回的是列表['度蜜月'],若想拿值,可以加上[0]
  12. print(tree.xpath('//li[7]//text()')) # 同上
  13. print(tree.xpath('//div[@class="song"]/img/@src')[0])#取属性值

运行结果:

3.4.2 xpath实战-58二手房

需求:爬取58二手房中的房源信息   https://bj.58.com/ershoufang/

  1. from lxml import etree
  2. import requests
  3. if __name__ == "__main__":
  4. url = 'https://bj.58.com/ershoufang/'
  5. headers = {
  6. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36'
  7. }
  8. # 爬取到页面源码数据
  9. page_text = requests.get(url=url,headers=headers).text
  10. # 数据解析
  11. tree = etree.HTML(page_text)
  12. # 存储li标签对象
  13. li_list = tree.xpath('//ul[@class="house-list-wrap"]/li')
  14. with open('./58.txt','w',encoding='utf-8') as fp:
  15. for li in li_list:
  16. title = li.xpath('./div[2]/h2/a/text()')
  17. print(title)
  18. fp.write(title+'\n')

3.4.3 xpath解析案例-4k图片解析下载

  1. import requests
  2. from lxml import etree
  3. if __name__ == '__main__':
  4. url="http://pic.netbian.com/4kmeinv/"
  5. headers = {
  6. 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  7. }
  8. response=requests.get(url=url,headers=headers)
  9. # response.encoding='utf-8'#可以解决乱码问题
  10. page_text =response.text
  11. # print(page_text)
  12. #数据解析:src的属性值 alt属性
  13. tree=etree.HTML(page_text)
  14. li_list=tree.xpath('//div[@class="slist"]/ul/li')
  15. # print(li_list)
  16. for li in li_list:
  17. img_src="http://pic.netbian.com"+li.xpath('./a/img/@src')[0]
  18. img_name=li.xpath('./a/img/@alt')[0]+'.jpg'
  19. #通用解决中文乱码的解决方案
  20. img_name=img_name.encode('iso-8859-1').decode('gbk')
  21. #请求图片
  22. img_data=requests.get(url=img_src,headers=headers).content
  23. with open('./糗图获取Libs/'+img_name,'wb') as fp:
  24. fp.write(img_data)
  25. print(img_name+'抓取完毕!!!')

运行效果:

3.4.4 xpath解析案例-全国城市名称爬取

https://www.aqistudy.cn/historydata/

  1. import requests
  2. from lxml import etree
  3. #需求:xpath解析案例-全国城市名称爬取
  4. if __name__ == '__main__':
  5. headers = {
  6. 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  7. }
  8. url="https://www.aqistudy.cn/historydata/"
  9. page_text=requests.get(url=url,headers=headers).text
  10. tree=etree.HTML(page_text)
  11. host_li_list=tree.xpath('//div[@class="bottom"]/ul/li')#热门城市的标签
  12. all_city_names=[]
  13. #解析到了热门城市的名称
  14. for li in host_li_list:
  15. host_city_name=li.xpath('./a/text()')[0]#拿到热门城市的名称
  16. all_city_names.append(host_city_name)
  17. #解析全部城市的名称
  18. city_names_list=tree.xpath('//div[@class="all"]//ul/div[2]/li')
  19. for li in city_names_list:
  20. city_name=li.xpath('./a/text()')[0]
  21. all_city_names.append(city_name)
  22. print(all_city_names,len(all_city_names))

简洁代码:

  1. import requests
  2. from lxml import etree
  3. #需求:xpath解析案例-全国城市名称爬取
  4. if __name__ == '__main__':
  5. #简洁代码
  6. headers = {
  7. 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  8. }
  9. url = "https://www.aqistudy.cn/historydata/"
  10. page_text = requests.get(url=url, headers=headers).text
  11. tree = etree.HTML(page_text)
  12. #直接解析热门城市和全部城市
  13. #div[@class="bottom"]/ul/li/a 热门城市a标签的层级关系
  14. #div[@class="all"]/ul/div[2]/li/a 全部城市a标签的层级关系
  15. a_list=tree.xpath('//div[@class="bottom"]/ul/li/a | //div[@class="all"]//ul/div[2]/li/a')#按位或
  16. all_city_names=[]
  17. for a in a_list:
  18. city_name=a.xpath('./text()')[0]
  19. all_city_names.append(city_name)
  20. print(all_city_names)
  21. print(len(all_city_names))

运行结果:

3.4.5 xpath解析案例-爬取站长素材中免费的简历模板

案例:爬取站长素材中免费的简历模板【详情页也需要解析  ==> 多级解析】

网址:https://sc.chinaz.com

  1. import requests
  2. from lxml import etree
  3. import os
  4. # 分页:
  5. if __name__ == "__main__":
  6. if not os.path.exists('./jianli'):
  7. os.mkdir('./jianli')
  8. for pageName in range(1, 4):
  9. if pageName == 1:
  10. url = 'https://sc.chinaz.com/jianli/free.html'
  11. print('正在爬取网站第1页内容')
  12. else:
  13. url = format('https://sc.chinaz.com/jianli/free_%d.html' % pageName)
  14. print('正在爬取网站第%d页内容' % pageName)
  15. # 1.爬取网页信息 https://sc.chinaz.com/jianli/free.html
  16. headers = {
  17. 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  18. }
  19. # 爬取到页面源码数据
  20. page_text = requests.get(url=url,headers=headers).text
  21. # 2.数据解析
  22. tree = etree.HTML(page_text)
  23. jl_href= tree.xpath('//div[@id="container"]/div/a/@href')
  24. # 拿到每个简历的url
  25. for jl in jl_href:
  26. one_url = 'https:' + jl
  27. # print(one_url)
  28. # 3.拿到每个简历的下载地址
  29. one_page_taxt = requests.get(url=one_url,headers=headers).text
  30. one_tree = etree.HTML(one_page_taxt)
  31. one_adress = one_tree.xpath('//div[@id="down"]/div[2]/ul/li[1]/a/@href')[0]
  32. # print(one_adress)
  33. # 4.持久化存储
  34. # 拿到每个简历的名字
  35. jl_name = one_tree.xpath('//*[@class="bgwhite"]/div[1]/h1/text()')[0] + '.rar'
  36. jl_name = jl_name.encode('iso-8859-1').decode('utf-8')
  37. # print(jl_name)
  38. download = requests.get(url=one_adress, headers=headers).content
  39. adress_path = './jianli/' + jl_name
  40. with open(adress_path, 'wb') as fp:
  41. fp.write(download)
  42. print(jl_name, '下载成功!!!')
  43. print('over')

爬取结果:

4.验证码识别

4.1 云打码使用流程

验证码和爬虫之间的爱恨情仇?

反爬机制:验证码。   ==>  识别验证码图片中的数据,用于模拟登陆操作。


识别验证码的操作:
        -人工肉眼识别      (不推荐)

        -第三方自动识别   (推荐)

                -云打码  http://www.yundama.com/demo.html

云打码的使用流程:

        -注册:普通用户和开发用户

        -登录:

                -普通用户的登录:查询该用户是否还有剩余部分

                -开发者用户的登录:

                        -创建一个软件:我的软件->添加新软件->录入软件名称->提交(产生软件id和密钥)

                        -下载实例代码:开发文档->点击下载:云代码接口DLL->PythonHTTP实例下载

        -下载后解压缩,如下图所示:

                                 

YDMHTTPDemo3.x.py文件中的内容如下:

  1. import http.client, mimetypes, urllib, json, time, requests
  2. ######################################################################
  3. class YDMHttp:
  4. apiurl = 'http://api.yundama.com/api.php'
  5. username = ''
  6. pwd= ''
  7. appid = ''
  8. appkey = ''
  9. def __init__(self, username, pwd, appid, appkey):
  10. self.username = username
  11. self.pwd= pwd
  12. self.appid = str(appid)
  13. self.appkey = appkey
  14. def request(self, fields, files=[]):
  15. response = self.post_url(self.apiurl, fields, files)
  16. response = json.loads(response)
  17. return response
  18. def balance(self):
  19. data = {'method': 'balance', 'username': self.username, 'pwd': self.pwd, 'appid': self.appid,
  20. 'appkey': self.appkey}
  21. response = self.request(data)
  22. if (response):
  23. if (response['ret'] and response['ret'] < 0):
  24. return response['ret']
  25. else:
  26. return response['balance']
  27. else:
  28. return -9001
  29. def login(self):
  30. data = {'method': 'login', 'username': self.username, 'pwd': self.pwd, 'appid': self.appid,
  31. 'appkey': self.appkey}
  32. response = self.request(data)
  33. if (response):
  34. if (response['ret'] and response['ret'] < 0):
  35. return response['ret']
  36. else:
  37. return response['uid']
  38. else:
  39. return -9001
  40. def upload(self, filename, codetype, timeout):
  41. data = {'method': 'upload', 'username': self.username, 'pwd': self.password, 'appid': self.appid,
  42. 'appkey': self.appkey, 'codetype': str(codetype), 'timeout': str(timeout)}
  43. file = {'file': filename}
  44. response = self.request(data, file)
  45. if (response):
  46. if (response['ret'] and response['ret'] < 0):
  47. return response['ret']
  48. else:
  49. return response['cid']
  50. else:
  51. return -9001
  52. def result(self, cid):
  53. data = {'method': 'result', 'username': self.username, 'pwd': self.pwd, 'appid': self.appid,
  54. 'appkey': self.appkey, 'cid': str(cid)}
  55. response = self.request(data)
  56. return response and response['text'] or ''
  57. def decode(self, filename, codetype, timeout):
  58. cid = self.upload(filename, codetype, timeout)
  59. if (cid > 0):
  60. for i in range(0, timeout):
  61. result = self.result(cid)
  62. if (result != ''):
  63. return cid, result
  64. else:
  65. time.sleep(1)
  66. return -3003, ''
  67. else:
  68. return cid, ''
  69. def report(self, cid):
  70. data = {'method': 'report', 'username': self.username, 'pwd': self.pwd, 'appid': self.appid,
  71. 'appkey': self.appkey, 'cid': str(cid), 'flag': '0'}
  72. response = self.request(data)
  73. if (response):
  74. return response['ret']
  75. else:
  76. return -9001
  77. def post_url(self, url, fields, files=[]):
  78. for key in files:
  79. files[key] = open(files[key], 'rb');
  80. res = requests.post(url, files=files, data=fields)
  81. return res.text
  82. ######################################################################
  83. # 普通用户用户名
  84. username = 'username'
  85. # 密码
  86. password = 'password'
  87. # 软件ID,开发者分成必要参数。登录开发者后台【我的软件】获得!
  88. appid = 1
  89. # 软件密钥,开发者分成必要参数。登录开发者后台【我的软件】获得!
  90. appkey = '22cc5376925e9387a23cf797cb9ba745'
  91. # 图片文件:即将被识别的验证码图片的路径
  92. filename = 'getimage.jpg'
  93. # 验证码类型,# 例:1004表示4位字母数字,不同类型收费不同。请准确填写,否则影响识别率。在此查询所有类型 http://www.yundama.com/price.html
  94. codetype = 1004
  95. # 超时时间,秒
  96. timeout = 60
  97. # 检查
  98. if (username == 'username'):
  99. print('请设置好相关参数再测试')
  100. else:
  101. # 初始化
  102. yundama = YDMHttp(username, pwd, appid, appkey)
  103. # 登陆云打码
  104. uid = yundama.login();
  105. print('uid: %s' % uid)
  106. # 查询余额
  107. balance = yundama.balance();
  108. print('balance: %s' % balance)
  109. # 开始识别,图片路径,验证码类型ID,超时时间(秒),识别结果
  110. cid, result = yundama.decode(filename, codetype, timeout);
  111. print('cid: %s, result: %s' % (cid, result))
  112. ######################################################################

4.2 云打码实战演练-识别古诗文网登陆页面中的验证码

实战:识别古诗文网登陆页面中的验证码

使用云打码平台识别验证码的编码流程:

        -1.将验证码图片进行本地下载

        -2.调用平台提供的示例代码进行图片数据识别

  1. import requests
  2. from lxml import etree
  3. from CodeClass import YDMHttp
  4. #封装识别验证码图片的函数
  5. def getCodeText(imgPath,codeType):#图片路径,codeType:验证码类型
  6. # 普通用户用户名
  7. username = 'bobo328410948'
  8. # 密码
  9. pwd= 'bobo328410948'
  10. # 软件ID,开发者分成必要参数。登录开发者后台【我的软件】获得!
  11. appid = 6003
  12. # 软件密钥,开发者分成必要参数。登录开发者后台【我的软件】获得!
  13. appkey = '1f4b564483ae5c907a1d34f8e2f2776c'
  14. # 图片文件:即将被识别的验证码图片的路径
  15. filename = imgPath
  16. # 验证码类型,# 例:1004表示4位字母数字,不同类型收费不同。请准确填写,否则影响识别率。在此查询所有类型 http://www.yundama.com/price.html
  17. codetype = codeType
  18. # 超时时间,秒
  19. timeout = 20
  20. result=None
  21. # 检查
  22. if (username == 'username'):
  23. print('请设置好相关参数再测试')
  24. else:
  25. # 初始化
  26. yundama = YDMHttp(username, pwd, appid, appkey)
  27. # 登陆云打码
  28. uid = yundama.login();
  29. print('uid: %s' % uid)
  30. # 查询余额
  31. balance = yundama.balance();
  32. print('balance: %s' % balance)
  33. # 开始识别,图片路径,验证码类型ID,超时时间(秒),识别结果
  34. cid, result = yundama.decode(filename, codetype, timeout);
  35. print('cid: %s, result: %s' % (cid, result))
  36. return result
  37. ########################################################################
  38. #1.将验证码图片下载到本地
  39. url="https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx"
  40. headers = {
  41. 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  42. }
  43. page_text=requests.get(url=url,headers=headers).text
  44. #解析验证码图片img中src属性值
  45. tree=etree.HTML(page_text)
  46. code_img_src='https://so.gushiwen.org'+tree.xpath('//*[@id="imgCode"]/@src')[0]
  47. img_data=requests.get(url=url,headers=headers).content
  48. #将验证码图片保存到本地
  49. with open('./code.jpg','wb') as fp:
  50. fp.write(img_data)
  51. #调用云打码平台的示例程序进行验证码图片数据识别
  52. code_text=getCodeText('code.jpg',1004)
  53. print('识别结果为:',code_text)
  54. #很可能是错误的结果,所以需要多次实验

5.requests模块高级

5.1 模拟登陆古诗文网 

模拟登陆:

        -爬取基于某些用户的用户信息

需求:对古诗文网进行模拟登录

        -点击登陆按钮后,会发送一个post请求

        -post请求中会携带登陆之前录入的相关登录信息(用户名,密码,验证码.....)

        -验证码:每次请求都是动态变化的

链接:登录古诗文网

  1. import requests
  2. from lxml import etree
  3. from CodeClass import YDMHttp
  4. #封装识别验证码图片的函数
  5. def getCodeText(imgPath,codeType):#图片路径,codeType:验证码类型
  6. # 普通用户用户名
  7. username = 'bobo328410948'
  8. # 密码
  9. pwd= 'bobo328410948'
  10. # 软件ID,开发者分成必要参数。登录开发者后台【我的软件】获得!
  11. appid = 6003
  12. # 软件密钥,开发者分成必要参数。登录开发者后台【我的软件】获得!
  13. appkey = '1f4b564483ae5c907a1d34f8e2f2776c'
  14. # 图片文件:即将被识别的验证码图片的路径
  15. filename = imgPath
  16. # 验证码类型,# 例:1004表示4位字母数字,不同类型收费不同。请准确填写,否则影响识别率。在此查询所有类型 http://www.yundama.com/price.html
  17. codetype = codeType
  18. # 超时时间,秒
  19. timeout = 20
  20. result=None
  21. # 检查
  22. if (username == 'username'):
  23. print('请设置好相关参数再测试')
  24. else:
  25. # 初始化
  26. yundama = YDMHttp(username, pwd, appid, appkey)
  27. # 登陆云打码
  28. uid = yundama.login()
  29. print('uid: %s' % uid)
  30. # 查询余额
  31. balance = yundama.balance()
  32. print('balance: %s' % balance)
  33. # 开始识别,图片路径,验证码类型ID,超时时间(秒),识别结果
  34. cid, result = yundama.decode(filename, codetype, timeout)
  35. print('cid: %s, result: %s' % (cid, result))
  36. return result
  37. ########################################################################
  38. #1.验证码的识别,获取验证码图片的文字数据
  39. headers = {
  40. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
  41. }
  42. url="https://so.gushiwen.cn/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx"
  43. page_text=requests.get(url=url,headers=headers).text
  44. tree=etree.HTML(page_text)
  45. code_img_src='https://so.gushiwen.cn/'+tree.xpath('//*[@id="imgCode"]/@src')[0]
  46. # print(code_img_src)
  47. code_img_data=requests.get(url=code_img_src,headers=headers).content
  48. with open('./code.jpg','wb') as fp:
  49. fp.write(code_img_data)
  50. #使用云打码提供的示例代码对验证码图片进行识别
  51. result=getCodeText('./code.jpg',1004)
  52. print(result)
  53. #2.对post请求,进行发送(处理请求参数)
  54. login_url="https://so.gushiwen.org/user/login.aspx?from=http%3a%2f%2fso.gushiwen.org%2fuser%2fcollect.aspx"
  55. data = {
  56. "__VIEWSTATE":"u+DzAnizDr8zKG7K/Q/OHyl4Kae1i0R5uxnuMk+EONOCJb5GTyGoJgnx1n/wlOx4XePU+CN5dRcmV/ptirBjyW6SyzcQqdOMuyeIbuFfEWNcUm7K00I9RH7g5gA=",
  57. "__VIEWSTATEGENERATOR":"C93BE1AE",
  58. "from":"http://so.gushiwen.org/user/collect.aspx",
  59. "email":"1547360919@qq.com",
  60. "pwd":"512abc...",
  61. "code":result,
  62. "denglu":"登录"
  63. }
  64. response=requests.post(url=url,headers=headers,data=data)
  65. print(response.status_code)
  66. #3.对响应数据进行持久化存储
  67. # login_page_text=requests.get(url=login_url,headers=headers,data=data).text
  68. # with open('./古诗文网.html','w',encoding='utf-8') as fp:
  69. # fp.write(login_page_text)

5.2 模拟登陆人人网

  1. def getCodeData(username, pwd, codePath, codeType):
  2. username = username # 用户名(云打码普通用户用户名)
  3. pwd= pwd # 普通用户对应的密码
  4. appid = 6003 # 软件代码,开发者分成必要参数。登录开发者后台【我的软件】获得!
  5. appkey = '1f4b564483ae5c907a1d34f8e2f2776c' # 通讯密钥,开发者分成必要参数。登录开发者后台【我的软件】获得!
  6. filename = codePath # 识别的图片的路径
  7. codetype = codeType # 识别的类型,在帮助文档可查看对应验证码类型
  8. timeout = 20
  9. if (username == 'username'):
  10. print('请设置好相关参数再测试')
  11. else:
  12. # 初始化
  13. yundama = YDMHttp(username, password, appid, appkey)
  14. # 登陆云打码
  15. uid = yundama.login();
  16. # print('uid: %s' % uid)
  17. # 查询余额
  18. balance = yundama.balance();
  19. # print('balance: %s' % balance)
  20. # 开始识别,图片路径,验证码类型ID,超时时间(秒),识别结果
  21. cid, result = yundama.decode(filename, codetype, timeout);
  22. # print('cid: %s, result: %s' % (cid, result))
  23. return result
  24. # 人人网的模拟登陆
  25. import requests
  26. import urllib
  27. from lxml import etree
  28. # 获取session对象
  29. session = requests.Session()
  30. # 下载验证码图片
  31. headers = {
  32. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36'
  33. }
  34. url = 'http://www.renren.com'
  35. page_text = requests.get(url=url, headers=headers).text
  36. tree = etree.HTML(page_text)
  37. code_img_url = tree.xpath('//*[@id="verifyPic_login"]/@src')[0]
  38. urllib.request.urlretrieve(url=code_img_url, filename='code.jpg')
  39. # 识别验证码图片中的数据值,2004表示4位纯汉字,其他类型代码参考云打码帮助文档
  40. code_data = getCodeData(云打码用户名', '云打码密码', './code.jpg', 2004)
  41. # print(code_data) # code_data为识别结果
  42. login_url = 'http://www.renren.com/ajaxLogin/login?1=1&uniqueTimestamp=2019141727367'
  43. data = {
  44. "email":"1547360919@qq.com",
  45. "icode":code_data,
  46. "origURL":"http://www.renren.com/home",
  47. "domain":"renren.com",
  48. "key_id":"1",
  49. "captcha_type":"web_login",
  50. "pwd":"38ce96b6b81595f845e55c1dd4e712ad6f1efe50fe31dbd5bf517b273d7c3b6e",
  51. "rkey":"07a9f1810ecf9b507634a45447a628e7",
  52. "f":""
  53. }
  54. # 如果请求成功,产生的cookie会自动保存在session对象中
  55. session.post(url=login_url, data=data, headers=headers)
  56. url = 'http://www.renren.com/448850039/profile'
  57. page_text = session.get(url=url, headers=headers).text
  58. with open('renren.html', 'w', encoding='utf8') as f:
  59. f.write(page_text)

5.3 模拟登录cookie

需求:爬取当前用户向相关的用户信息(个人主页中显示的用户信息)

http/https协议特性:无状态


        对于本例,当前想要爬取人人网个人主页的用户数据,那整个的编码中,我们一共向人人网发起了两次请求,在我们发第二次请求,想要请求人人网个人主页源码数据的时候,其实我们是想要服务器知道我们在发第二次请求的时候,我们已经经过登录了。即我的第二次请求应该是让服务器端知道我是在登录之后才发起的第二次请求,但是服务器是不会保留用户的用户状态的。【服务器不会记录第一模拟登录成功的状态】,因此,这就导致第二次请求出现失败。

没有请求到对应页面数据的原因:

        发起的第二次基于个人主页页面请求的时候,服务器端并不知道该此请求是基于登陆状态下的请求。

cookie:用来让服务器端记录客户端请求的状态

        -手动处理:通过抓包工具获取cookie值,将该值封装到headers。 【不建议】

        -自动处理:

                -cookie值的来源是哪里?

                       模拟登录post请求后,由服务器端创建。

                -session会话对象:

                        -作用:

                                -1.可以进行请求的发送。

                                -2.如果请求过程中产生了cookie,则该cookie会被自动存储/携带在该session对象中。

                        -步骤:
                                -1.创建一个session对象:session = requests.Session()

                                -2.使用session对象进行模拟登录post请求的发送(cookie就会被自动存储在session中)

                                -3.session对象对个人主页对应的get请求进行发送(携带了cookie)

在这里插入图片描述

代码框架:

  1. # 创建一个session对象
  2. session = requests.Session()
  3. # 对验证码图片进行捕获和识别
  4. 。。。
  5. 。。。
  6. 。。。
  7. # 使用超级鹰云平台进行图片识别
  8. 。。。
  9. # 使用session进行post请求发送
  10. response = session.post(url = login_url,headers = headers, data = data)
  11. # 使用携带cookie的session进行get请求的发送
  12. detail_page_text = session.get(url = detail_url,headers=headers).text
  13. with open('bobo.html','w',encoding = 'utf-8') as fp:
  14. fp.write(detail_page_text)

完整代码:
 

  1. import requests
  2. from lxml import etree
  3. from CodeClass import YDMHttp
  4. #封装识别验证码图片的函数
  5. def getCodeText(imgPath,codeType):#图片路径,codeType:验证码类型
  6. # 普通用户用户名
  7. username = 'bobo328410948'
  8. # 密码
  9. password = 'bobo328410948'
  10. # 软件ID,开发者分成必要参数。登录开发者后台【我的软件】获得!
  11. appid = 6003
  12. # 软件密钥,开发者分成必要参数。登录开发者后台【我的软件】获得!
  13. appkey = '1f4b564483ae5c907a1d34f8e2f2776c'
  14. # 图片文件:即将被识别的验证码图片的路径
  15. filename = imgPath
  16. # 验证码类型,# 例:1004表示4位字母数字,不同类型收费不同。请准确填写,否则影响识别率。在此查询所有类型 http://www.yundama.com/price.html
  17. codetype = codeType
  18. # 超时时间,秒
  19. timeout = 20
  20. result=None
  21. # 检查
  22. if (username == 'username'):
  23. print('请设置好相关参数再测试')
  24. else:
  25. # 初始化
  26. yundama = YDMHttp(username, password, appid, appkey)
  27. # 登陆云打码
  28. uid = yundama.login()
  29. print('uid: %s' % uid)
  30. # 查询余额
  31. balance = yundama.balance()
  32. print('balance: %s' % balance)
  33. # 开始识别,图片路径,验证码类型ID,超时时间(秒),识别结果
  34. cid, result = yundama.decode(filename, codetype, timeout)
  35. print('cid: %s, result: %s' % (cid, result))
  36. return result
  37. ########################################################################
  38. #创建一个session对象
  39. session=requests.Session()
  40. #1.验证码的识别,获取验证码图片的文字数据
  41. headers = {
  42. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
  43. }
  44. url="http://www.renren.com"
  45. page_text=requests.get(url=url,headers=headers).text
  46. tree=etree.HTML(page_text)
  47. code_img_src=tree.xpath('//*[@id="verifyPic_login"]/@src')[0]
  48. # print(code_img_src)
  49. code_img_data=requests.get(url=code_img_src,headers=headers).content
  50. with open('./code.jpg','wb') as fp:
  51. fp.write(code_img_data)
  52. #使用云打码提供的示例代码对验证码图片进行识别
  53. result=getCodeText('./code.jpg',1004)
  54. print(result)
  55. #2.对post请求,进行发送(处理请求参数)
  56. login_url="http://www.renren.com/ajaxLogin/login?1=1&uniqueTimestamp=2019141727367"
  57. data = {
  58. "email":"1547360919@qq.com",
  59. "icode":result,
  60. "origURL":"http://www.renren.com/home",
  61. "domain":"renren.com",
  62. "key_id":"1",
  63. "captcha_type":"web_login",
  64. "password":"38ce96b6b81595f845e55c1dd4e712ad6f1efe50fe31dbd5bf517b273d7c3b6e",
  65. "rkey":"07a9f1810ecf9b507634a45447a628e7",
  66. "f":""
  67. }
  68. #使用session进行post请求的发送
  69. response=session.post(url=url,headers=headers,data=data)
  70. print(response.status_code)
  71. #爬取当前用户个人主页对应的页面数据
  72. detail_url="http://www.renren.com/289676607/profile"
  73. # #手动Cookie处理【不建议:有的网站cookie值可能是存在有效时常的,过了该时间段,cookie可能无法使用;有的网站也是动态变换的】
  74. # headers={
  75. # 'Cookie':'xxxx'
  76. # }
  77. #使用携带cookie的session进行get请求的发送
  78. detail_page_text=session.get(url=detail_url,headers=headers).text
  79. with open('bobo.html','w',encoding='utf-8') as fp:
  80. fp.write(detail_page_text)

5.4 代理

5.4.1 代理理论知识 

代理:破解封IP这种反爬机制。

什么是代理:

        -代理服务器。

代理的作用:

        -突破自身IP访问的限制。

        -可以隐藏自身真实的IP,免受攻击。

代理相关的网站:

        -快代理

        -西祠代理

        -www.goubanjia.com 

代理IP的类型:

        -http:只能应用带http协议对应的url中

        -https:应用带https协议对应的url中

代理IP的匿名度:

        -1.透明:服务器知道该次请求使用了代理,也知道请求对应的真实ip

        -2.匿名:知道使用了代理,不知道真实ip

        -3.高匿:不知道使用了代理,也不知道真实ip

推荐个查询IP地址的网址:IP查询地址信息-IP归属地查询-网站IP查询 - ip.293.net

推荐几个免费代理IP网站:

        -1.四叶天代理ip   http://www.a-2.cn   【强烈推荐】

        -2.Avoidr免费代理   http://www.avoidr.com

        -3.Proxytor在线代理服务   http://www.proxytor.net

        -4.SpySurfing    http://www.spysurfing.com

在这里插入图片描述

未应用代理时,如下: 

应用代理时:

  1. #需求:
  2. import requests
  3. url="https://www.baidu.com/s?word=ip&tn=94819464_hao_pg"
  4. headers={
  5. 'User-Agent':"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36"
  6. }
  7. page_text=requests.get(url=url,headers=headers,proxies={'http':'139.196.196.74:80'}).text
  8. with open('./ip.html','w',encoding='utf-8') as fp:
  9. fp.write(page_text)
  10. #没报错,但是ip还是没有变

6.高性能异步爬虫

6.1 基础知识

高性能异步爬虫目的:在爬虫中使用异步实现高性能的数据爬取操作。

异步爬虫的方式:
        -1.多线程,多进程:

                好处:可以为相关阻塞的操作单独开启线程或进程,阻塞操作就可以异步执行。

                弊端:无法无限制的开启多线程或者多进程。

        -2.线程池、进程池(适当的使用):

                -好处:我们可以降低系统对进程或者线程创建和销毁的频率,从而很好地降低系统的开销。

                -弊端:池中线程或进程的数量是有上限的。

                -原则:线程池处理的是阻塞且较为耗时的操作。

        -3.单线程 + 异步协程(推荐):

                -一些概念和两个关键字:
                        ①event_loop:事件循环,相当于一个无限循环,我们可以把一些函数注册到这个事件循环上,当满足某些条件时,函数就会被循环执行。
                        ②coroutline:协程对象,我们可以将协程对象注册到事件循环中,它会被事件循环调用。我们可以使用async关键字来定义一个方法,这个方法在调用时不会被立即被执行,而是返回一个协程对象。
                        ③task:任务,它是对协程对象的进一步封装,包含了任务的各个状态。
                        ④future:代表将来执行或还没有执行的任务,实际上和task没有本质区别。
                        ⑤async:定义一个协程。
                        ⑥await:用来挂起阻塞方法的执行。

6.2 异步爬虫之线程池的使用

  1. import time
  2. #使用单线程串行方式执行
  3. def get_page(str):
  4. print('正在下载:',str)
  5. time.sleep(2)
  6. print('下载成功:',str)
  7. name_list=['xiaozi','aa','bb','cc']
  8. start_time=time.time()
  9. for i in range(len(name_list)):
  10. get_page(name_list[i])
  11. end_time=time.time()
  12. print('%d second!'%(end_time-start_time))

运行结果:

  1. #使用线程池方式执行
  2. import time
  3. from multiprocessing.dummy import Pool #导入线程池模块对应的类
  4. start_time=time.time()
  5. def get_page(str):
  6. print('正在下载:',str)
  7. time.sleep(2)
  8. print('下载成功:',str)
  9. name_list=['xiaozi','aa','bb','cc']
  10. #实例化一个线程池对象
  11. pool=Pool(4)#最大4个
  12. pool.map(get_page,name_list)#将列表中每一个元素交给函数get_page函数处理,map返回值就是传入函数的返回值
  13. end_time=time.time()
  14. print('%d second!'%(end_time-start_time))

 运行效果:

6.3 异步爬虫之线程池案例应用-爬取梨视频的视频数据

需求:爬取梨视频的视频数据。

  1. import requests
  2. from lxml import html
  3. etree = html.etree
  4. import re
  5. from multiprocessing.dummy import Pool
  6. # 需求:爬取视频的视频数据
  7. headers = {
  8. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36'
  9. }
  10. # 原则:线程池处理的是阻塞且较为耗时的操作
  11. def get_video_data(dic):
  12. url = dic['url']
  13. print(dic['name'], 'downloading...')
  14. data = requests.get(url=url, headers=headers).content
  15. # 持久化存储操作
  16. with open(dic['name'], 'wb') as fp:
  17. fp.write(data)
  18. print(dic['name'], '下载成功')
  19. if __name__ == "__main__":
  20. # 对下述url发起请求解析出视频详情页的url和视频名称
  21. url = 'https://www.pearvideo.com/category_5'
  22. page_text = requests.get(url=url, headers=headers).text
  23. tree = etree.HTML(page_text)
  24. li_list = tree.xpath('//ul[@id="listvideoListUl"]/li')
  25. urls = [] # 存储所有视频的名称和链接
  26. for li in li_list:
  27. detail_url = 'https://www.pearvideo.com/' + li.xpath('./div/a/@href')[0]
  28. name = li.xpath('./div/a/div[2]/text()')[0] + '.mp4'
  29. print(detail_url, name)
  30. # 对详情页的url发起请求
  31. detail_page_text = requests.get(url=detail_url, headers=headers).text
  32. # 从详情页中解析出视频的地址(url)
  33. # 用作案例的网站在教程中的那个时间段(一几年,大概是18年)
  34. # 没有video标签,视频的地址在js里面,所以不能用bs4和xpath
  35. # 但是网站已经更新(2021.08.01),我现在学的时候src的Url已经在video标签中了
  36. # 因此此处正则不再适用,咱用xpath修改一下
  37. # 教程代码:
  38. # ex = 'srcUrl="(.*?)",vdoUrl'
  39. # video_url = re.findall(ex, detail_page_text)[0]
  40. # 咱的代码:
  41. # detail_tree = etree.HTML(detail_page_text)
  42. # print(detail_page_text)
  43. # video = detail_tree.xpath('//*[@id="JprismPlayer"]/video')
  44. # print(video)
  45. # video_url = video[0]
  46. # 哈哈,放video标签之后不知道是人家反爬了还是咱的爬取有问题
  47. # 应该是弄得Ajax动态加载
  48. # 爬到的:
  49. # <div class="main-video-box" id="drag_target1">
  50. # <div class="img prism-player" style="height:100% !important;" id="JprismPlayer">
  51. # </div>
  52. # </div>
  53. # F12看到的:
  54. # <div class="main-video-box" id="drag_target1">
  55. # <div class="img prism-player play" style="height: 100% !important; width: 100%;" id="JprismPlayer"
  56. # x-webkit-airplay="" playsinline="" webkit-playsinline="" >
  57. # < video webkit-playsinline="" playsinline="" x-webkit-airplay="" autoplay="autoplay"
  58. # src="https://video.pearvideo.com/mp4/third/20210801/cont-1737209-12785353-091735-hd.mp4"
  59. # style="width: 100%; height: 100%;">
  60. # < / video >
  61. # ...
  62. # </div>
  63. # </div>
  64. # 又挖了一个坑,以后再填qwq
  65. video_url = ''
  66. dic = {
  67. 'name': name,
  68. 'url': video_url
  69. }
  70. urls.append(video_url)
  71. # 使用线程池对视频数据进行请求(较为耗时的阻塞操作)
  72. pool = Pool(4)
  73. pool.map(get_video_data, urls)
  74. pool.close()
  75. pool.join()

6.4 协程

6.4.1 基本概念

协程不是计算机提供.程序员人为创造。
协程(Coroutine),也可以被称为微线程,是一种用户态内的上下文切换技术。简而言之,其实就是通过一个线程实现代码块相互切换执行。

协程意义:在一个线程中如果遇到IO等待时间,线程不会傻傻等,利用空闲的时候再去干点其他事。

例如︰  

  1. def func1():
  2. print(1)
  3. ...
  4. print(2)
  5. def func2():
  6. print(3)
  7. ...
  8. print(4)
  9. func1()
  10. func2()

实现协程有这么几种方法:

        -greenlet,早期模块

        -yield关键字

        -asyncio装饰器(py3.4以后才可以用)

        -async,await关键字(py3.5以后才可以用)【推荐】

(1)greenlet实现协程:

  1. from greenlet import greenlet
  2. def func1():
  3. print(1) #第2步:输出1
  4. gr2.switch() #第3步:切换到func2()函数
  5. print(2) #第6步:输出2
  6. gr2.switch() #第7步:切换到func2()函数,从上一次执行的位置继续向后执行
  7. def func2():
  8. print(3) #第4步:输出3
  9. gr1.switch() #第5步:切换到func1()函数,从上一次执行的位置继续向后执行
  10. print(4) #第8步:输出4
  11. gr1=greenlet(func1)
  12. gr2=greenlet(func2)
  13. gr1.switch()#第1步:去执行func1函数

运行结果:

(2)yield关键字:

一个函数里面有yield,就是生成器函数。

  1. def func1():
  2. yield 1
  3. yield from func2()
  4. yield 2
  5. def func2():
  6. yield 3
  7. yield 4
  8. f1=func1()
  9. for item in f1:
  10. print(item)

运行结果:

(3)asyncio:

装饰器作用:给不改变原来函数的代码。给他添加新的一些功能。

注意:遇到IO阻塞自动切换

  1. import asyncio
  2. @asyncio.coroutine
  3. def func1():
  4. print(1)
  5. await asyncio.sleep(2) #遇到IO耗时操作,自动化切换到tasks中的其他任务
  6. print(2)
  7. @asyncio.coroutine
  8. def func2():
  9. print(3)
  10. await asyncio.sleep(2) # 遇到IO耗时操作,自动化切换到tasks中的其他任务
  11. print(4)
  12. tasks=[
  13. asyncio.ensure_future(func1()),
  14. asyncio.ensure_future(func2())
  15. ]
  16. loop=asyncio.get_event_loop()
  17. loop.run_until_complete(asyncio.sleep(tasks))

(4)async & await 关键字【推荐】:

  1. import asyncio
  2. async def func1():
  3. print(1)
  4. await asyncio.sleep(2)#遇到IO耗时操作,自动化切换到tasks中的其他任务
  5. print(2)
  6. async def func2():
  7. print(3)
  8. await asyncio.sleep(2)#遇到IO耗时操作,自动化切换到tasks中的其他任务
  9. print(4)
  10. tasks=[
  11. asyncio.ensure_future(func1()),
  12. asyncio.ensure_future(func2())
  13. ]
  14. loop=asyncio.get_event_loop()
  15. loop.run_until_complete(asyncio.wait(tasks))

运行结果:

6.4.2 基于协程的异步编程

6.4.2.1 事件循环

事件循环:理解成为一个死循环,去检测并执行某些代码。

  1. #伪代码:
  2. 任务列表=[任务1,任务2,任务3...]
  3. while True:
  4. 可执行的任务列表,已完成的任务列表=去任务列表中检查所有的任务,将'可执行''已完成'的任务返回
  5. for 就绪任务 in 已准备就绪的任务列表:
  6. 执行已就绪的任务
  7. for 已完成任务 in 已完成的任务列表:
  8. 在任务列表中移除已完成的任务
  9. 如果人物列表中的任务都已完成,则终止循环
  1. import asyncio
  2. #去生成或获取一个事件循环
  3. loop=asyncio.get_event_loop()
  4. #将任务放到人物列表
  5. loop.run_until_complete(asyncio.wait(tasks))

6.4.2.2 快速上手

协程函数:定义函数时候async def 函数名
协程对象:执行协程函数()得到的协程对象。

  1. async def func():
  2. pass
  3. result=func()#result为协程对象,此刻函数内部代码并不会执行

如果想要运行协程函数内部代码,必须要将协程对象交给事件循环来处理,如下: 

  1. import asyncio
  2. async def func():
  3. print('hahah')
  4. result=func()
  5. #loop=asyncio.get_event_loop()
  6. #loop.run_until_complete(result)
  7. asyncio.run(result)#该行代码等效上面两行,python3.7以后有效

6.4.2.3 await

await+可等待的对象(协程对象、Future、Task对象 -> IO等待)

await就是等待对应的值得到结果之后再继续向下走。

示例1: 

  1. import asyncio
  2. async def func():
  3. print('hello')
  4. response=await asyncio.sleep(2)#有返回值
  5. print('over:',response)
  6. asyncio.run(func())

示例2:

  1. import asyncio
  2. async def others():
  3. print('start')
  4. await asyncio.sleep(2)
  5. print('end')
  6. return '返回值'
  7. async def func():
  8. print('执行协程函数内部代码')
  9. response=await others()#await+协程对象
  10. print('io请求结果结束,结果为:',response)
  11. asyncio.run(func())

运行结果:

示例3:

  1. import asyncio
  2. async def others(name):
  3. print('start:',name)
  4. await asyncio.sleep(2)
  5. print('end:',name)
  6. return name
  7. async def func():
  8. print('执行协程函数内部代码')
  9. response1=await others('小红')#await+协程对象
  10. print('io请求结果结束,结果为:',response1)
  11. response2 = await others('小明') # await+协程对象
  12. print('io请求结果结束,结果为:', response2)
  13. asyncio.run(func())

运行结果:

6.4.2.4 Task对象

在事件循环中添加多个任务。

        Tasks用于并发调度协程,通过asyncio.create_task(协程对象)的方式创建Task对象,这样可以让协程加入事件循环中等待被调度执行。除了使用asyncio.create_task()函数以外,还可以用低层级的loop.create_task()或ensure_future()函数。不建议手动实例化Task对象。

        注意: asyncio.create_task()函数在Python 3.7中被加入;在Python 3.7之前,可以改用低层级的asyncio.ensure_future()函数。

示例1: 

  1. import asyncio
  2. async def func1(name):
  3. print(name+'执行func1开始')
  4. await asyncio.sleep(2)
  5. print(name+'执行func1结束')
  6. return name
  7. async def main():
  8. print('main开始')
  9. task1=asyncio.create_task(func1('小红'))
  10. task2=asyncio.create_task(func1('小明'))
  11. print('main结束')
  12. ret1=await task1
  13. ret2=await task2
  14. print(ret1,ret2)
  15. asyncio.run(main())

运行结果:

示例2:【常见写法】

  1. import asyncio
  2. async def func1(name):
  3. print(name+'执行func1开始')
  4. await asyncio.sleep(2)
  5. print(name+'执行func1结束')
  6. return name
  7. async def main():
  8. print('main开始')
  9. #常见写法
  10. task_list=[
  11. asyncio.create_task(func1('小红'),name='f1'),#指定名字
  12. asyncio.create_task(func1('小明'),name='f2')
  13. ]
  14. print('main结束')
  15. # timeout=2:表示最多等2秒,默认是None,表示等到所有任务结束
  16. # 返回值均放在done中
  17. done,pending=await asyncio.wait(task_list,timeout=None)
  18. print(done)
  19. asyncio.run(main())

运行结果:

示例3:

  1. import asyncio
  2. async def func1(name):
  3. print(name+'执行func1开始')
  4. await asyncio.sleep(2)
  5. print(name+'执行func1结束')
  6. return name
  7. task_list=[#协程对象
  8. func1('小红'),
  9. func1('小明')
  10. ]
  11. done,pending=asyncio.run(asyncio.wait(task_list))
  12. print(done)

6.4.2.5 asyncio.Future对象【了解即可】

Task继承Future,Task对象内部await结果的处理基于Future对象来的。

示例1:

  1. import asyncio
  2. async def main():
  3. #获取当前事件循环
  4. loop=asyncio.get_running_loop()
  5. #创建一个任务(Future对象),这个任务什么都不干
  6. ful=loop.create_task()
  7. #等待任务最终结果(Future对象),没有结果一直等待下去
  8. await ful
  9. asyncio.run(main())

 示例2:

  1. import asyncio
  2. async def set_after(fut):
  3. await asyncio.sleep(2)
  4. fut.set_result('666')
  5. async def main():
  6. #获取当前事件循环
  7. loop=asyncio.get_running_loop()
  8. #创建一个任务(Future对象),没绑定任何行为,则这个任务永远不知道什么时候结束
  9. fut=loop.create_future()
  10. #创建一个任务(Task对象),绑定了set_after函数,函数内部2秒之后,会给fut赋值
  11. #即手动设置future任务的最终结果,那么fut就可以结束了
  12. await loop.create_task(set_after(fut))
  13. #等待Future对象获取最终结果,否则一直等待下去
  14. data=await fut
  15. print(data)
  16. asyncio.run(main())

6.4.2.6 concurrent.futures.Future对象【扩充】

使用线程池、进程池实现异步操作时用到的对象。

  1. import time
  2. from concurrent.futures import Future
  3. from concurrent.futures import ThreadPoolExecutor
  4. from concurrent.futures.process import ProcessPoolExecutor
  5. def func(value):
  6. time.sleep(1)
  7. print(value)
  8. return 123
  9. #创建线程池
  10. pool=ThreadPoolExecutor(max_workers=5)
  11. #创建进程池
  12. #或 pool=ProcessPoolExecutor(max_workers=5)
  13. for i in range(10):
  14. fut=pool.submit(func,i)
  15. print(fut)

运行结果:

以后写代码可能会存在交叉时间。例如︰crm项目80%都是基于协程异步编程+MySQL.

  1. import time,asyncio
  2. import concurrent.futures
  3. def func1():
  4. time.sleep(2)
  5. return "SB"
  6. async def main():
  7. loop=asyncio.get_running_loop()
  8. #1.Run in the default loop's executor (默认ThreadPoolExecutor)
  9. #第1步:内部会先调用ThreadPoo1Executor的 submit方法去线程池中申请一个线程去执行func1函数,并返
  10. # 回一个concurrent.futures. Future对象
  11. #第2步︰调用asyncio.wrap_future将concurrent.futures.Future对象包装为asycio.Future对象。
  12. #因为concurrent.futures.Future对象不支持await语法,所以需要包装为 asycio.Future对象才能使用。
  13. fut=loop.run_in_executor(None,func1)
  14. result=await fut
  15. print('default thread pool',result)
  16. # # 2.Run in a custom thread pool:
  17. # with concurrent.futures.ThreadPoolExecutor() as pool:
  18. # result = await loop.run_in_executor(pool,func1)
  19. # print('custom thread pool', result)
  20. # # 3. Run in a custom process pool:
  21. # with concurrent.futures.ProcessPoolExecutor() as pool:
  22. # result = await loop.run_in_executor(pool,func1)
  23. # print('custom process poo7 ', result)
  24. asyncio.run(main())

6.4.3 异步和非异步模块混合案例

案例:asyncio+不支持异步模块

  1. import asyncio,requests,os
  2. if not os.path.exists('./图片'):
  3. os.mkdir('./图片')
  4. async def download_image(url):
  5. print('开始下载:',url)
  6. loop=asyncio.get_event_loop()
  7. future=loop.run_in_executor(None,requests.get,url)
  8. response=await future
  9. print('下载完毕:',url)
  10. file_name=url.split('/')[-1]
  11. with open('./图片/'+file_name,'wb') as fp:
  12. fp.write(response.content)
  13. if __name__ == '__main__':
  14. url_list=[
  15. 'https://img0.baidu.com/it/u=4035507251,3354770163&fm=253&fmt=auto&app=138&f=JPEG?w=800&h=500',
  16. 'https://gimg2.baidu.com/image_search/src=http%3A%2F%2Fpic24.nipic.com%2F20120924%2F3809112_161818252000_2.jpg&refer=http%3A%2F%2Fpic24.nipic.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1661515323&t=2730849b734a3f6e46c377b67192fa77',
  17. 'https://gimg2.baidu.com/image_search/src=http%3A%2F%2Ftenfei02.cfp.cn%2Fcreative%2Fvcg%2Fveer%2F612%2Fveer-125357826.jpg&refer=http%3A%2F%2Ftenfei02.cfp.cn&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1661515323&t=b7a360e37df698f959779e3a7582197d',
  18. 'https://gimg2.baidu.com/image_search/src=http%3A%2F%2Fc-ssl.duitang.com%2Fuploads%2Fitem%2F202005%2F13%2F20200513160844_uuqfs.jpg&refer=http%3A%2F%2Fc-ssl.duitang.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1661515323&t=e1f8804445dbae23dd52c3ee4f419e1d'
  19. ]
  20. tasks=[download_image(url) for url in url_list]
  21. loop=asyncio.get_event_loop()
  22. loop.run_until_complete(asyncio.wait(tasks))

6.4.4 异步迭代器【了解】

什么是异步迭代器:
        实现了__aiter__()和__anext__()方法的对象。__anext__()必须返回一个awaitable对象。async for 会处理异步迭代器的__anext__()方法所返回的可等待对象,直到其引发一个StopAsyncIteration 异常。
什么是异步可迭代对象?
        可在 async for语句中被使用的对象。必须通过它的__aiter__()方法返回一个asynchronous iterator。

  1. import asyncio
  2. from typing import Any, Coroutine
  3. class Reader(object):
  4. """自定义异步迭代器(同时也是异步可迭代对象)"""
  5. def __init__(self):
  6. self.count=0
  7. async def readline(self):
  8. #await asyncio.sleep(1)
  9. self.count+=1
  10. if self.count==100:
  11. return self.count
  12. def __aiter__(self):#迭代器返回自己
  13. return self
  14. async def __anext__(self):
  15. val=await self.readline()
  16. if val==None:
  17. raise StopAsyncIteration#异常
  18. return val
  19. #async for 必须写在协程函数内部
  20. async def func():
  21. obj=Reader()
  22. async for val in obj:
  23. print(val)
  24. asyncio.run(func())

6.4.5 异步上下文管理器

什么是异步上下文管理器:

        此种对象通过定义__aenter__()和__aexit__()方法来对 async with语句中的环境进行控制。

好处:

      这样执行的过程中可以被挂起,提高执行效率。

  1. import asyncio
  2. class AsyncContextManager:
  3. def __init__(self):
  4. self.conn="conn"
  5. async def do_something(self):
  6. return 666
  7. async def __aenter__(self):
  8. #异步链接数据库
  9. self.conn=await asyncio.sleep(1)
  10. return self
  11. async def __aexit__(self, exc_type, exc, tb):
  12. #异步关闭数据库链接
  13. await asyncio.sleep(1)
  14. #async with必须在协程函数中
  15. async def func():
  16. async with AsyncContextManager() as f:
  17. result=await f.do_something()
  18. print(result)
  19. asyncio.run(func())

6.4.6 uvloop

是asyncio的事件循环的替代方案。事件循环   大于   默认asyncio的事件循环。

  1. import uvloop
  2. import asyncio
  3. asyncio.set_event_loop_policy(uvloop.EventLoopPolicy())
  4. #编写asyncio的代码,与之前写的代码一致
  5. #内部的事件循环自动化会变成uvloop
  6. asyncio.run(...)

6.5 协程复习

6.5.1 定义一个协程 

  1. import asyncio
  2. #函数被async这个关键字修饰:该函数不会立马执行,返回一个协程对象
  3. async def request(url):
  4. print('正在请求的url是:',url)
  5. print('请求成功:',url)
  6. c=request('www.baidu.com')#c是async对象
  7. #创建一个事件循环对象
  8. loop=asyncio.get_event_loop()
  9. #将协程对象注册到loop中,然后启动loop
  10. loop.run_until_complete(c)#该函数既可以实现注册,又可以实现循环

运行结果: 

6.5.2 task的使用: 

  1. #task的使用
  2. import asyncio
  3. #函数被async这个关键字修饰:该函数不会立马执行,返回一个协程对象
  4. async def request(url):
  5. print('正在请求的url是:',url)
  6. print('请求成功:',url)
  7. c=request('www.baidu.com')#c是async对象
  8. loop=asyncio.get_event_loop()
  9. #基于loop创建了一个task对象
  10. task=loop.create_task(c)
  11. print(task)#还没有被执行
  12. loop.run_until_complete(task)
  13. print(task)#写成状态是已经执行后的

运行结果:

6.5.3 future的使用 

  1. #future的使用
  2. import asyncio
  3. async def request(url):
  4. print('正在请求的url是:',url)
  5. print('请求成功:',url)
  6. c=request('www.baidu.com')
  7. loop=asyncio.get_event_loop()
  8. task=asyncio.ensure_future(c)
  9. print(task)
  10. loop.run_until_complete(task)
  11. print(task)

运行结果:

6.5.4 绑定回调

  1. async def request(url):
  2. print('正在请求的url是:',url)
  3. print('请求成功:',url)
  4. return url
  5. c=request('www.baidu.com')
  6. def callback_func(task):
  7. print(task.result())#result()返回的是任务对象中封装的协程对象对应函数的返回值
  8. loop=asyncio.get_event_loop()
  9. task=asyncio.ensure_future(c)
  10. #将回调函数绑定到任务对象中
  11. task.add_done_callback(callback_func)
  12. loop.run_until_complete(task)

运行结果:

6.6 多任务异步协程

  1. import asyncio,time
  2. async def my_request(url):
  3. print('正在下载:',url)
  4. #在异步协程中如果出现了同步模块相关的代码,那么就无法实现异步
  5. # time.sleep(2)#基于同步模块的
  6. #当在asyncio中遇到阻塞操作必须进行手动挂起
  7. await asyncio.sleep(2)#基于异步模块的
  8. print('下载完毕:',url)
  9. urls=[
  10. 'www.baidu.com',
  11. 'www.sogou.com',
  12. 'www.goubanjia.com'
  13. ]
  14. #任务列表:存放多个任务对象
  15. stasks=[asyncio.ensure_future(my_request(url)) for url in urls]
  16. loop=asyncio.get_event_loop()
  17. #需要将任务列表封装到wait中
  18. loop.run_until_complete(asyncio.wait(stasks))#固定写法

运行结果:

6.7 aiohttp模块

6.7.1 aiohttp模块的引出

requests发起的请求是基于同步的,aiohttp是基于异步的网络请求模块,必须使用基于异步的网络请求模块进行指定url的请求发送。

  1. import requests,asyncio,time
  2. start=time.time()
  3. urls=[
  4. 'http://www.baidu.com','http://www.zhihu.com','http://www.qq.com'
  5. ]
  6. async def get_page(url):
  7. print('正在下载:',url)
  8. #requests发起的请求是基于同步的,必须使用基于异步的网络请求模块进行指定url的请求发送
  9. # aiohttp:是基于异步的网络请求模块
  10. response=requests.get(url=url)
  11. print('下载完毕:',url)
  12. tasks=[asyncio.ensure_future(get_page(url)) for url in urls]
  13. loop=asyncio.get_event_loop()
  14. loop.run_until_complete(asyncio.wait(tasks))
  15. end=time.time()
  16. print('总耗时:',end-start)

运行结果:

6.7.2 aiohttp+多任务异步协程实现异步爬虫

环境安装:pip.install aiohttp

使用该模块中的ClientSession

  1. import requests,asyncio,time,aiohttp
  2. start=time.time()
  3. urls=[
  4. 'http://www.baidu.com','http://www.zhihu.com','http://www.qq.com'
  5. ]
  6. async def get_page(url):
  7. print('开始:',url)
  8. async with aiohttp.ClientSession() as session:
  9. # get(),post():
  10. #参数的处理和requests差不多,headers,param[get]/data[post],代理伪装proxy='http://ip:port'
  11. async with await session.get(url=url) as response:
  12. #text()返回字符串形式的响应数据
  13. #read()返回二进制形式的响应数据
  14. #json()返回的是json对象
  15. #注意:在获取响应数据操作之前,一定要使用await进行手动挂起
  16. page_text=await response.text()#注意是text()方法
  17. print('结束:',url)
  18. tasks=[asyncio.ensure_future(get_page(url)) for url in urls]
  19. loop=asyncio.get_event_loop()
  20. loop.run_until_complete(asyncio.wait(tasks))
  21. end=time.time()
  22. print('总耗时:',end-start)

7.动态加载数据处理 

7.1 selenium模块简介 

问题:selenium模块和爬虫之间具有怎样的关联?
        -便捷的获取网站中动态加载的数据;

        -便捷实现模拟登录

什么是selenium模块?
        -基于浏览器自动化的一个模块。

简介:

        selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题selenium本质是通过驱动浏览器,完全横拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器。

selenium使用流程:

        -下载安装selenium:pip install selenium

        -下载浏览器驱动程序(谷歌浏览器):【查看谷歌版本:设置->关于谷歌

                -下载路径:http://chromedriver.storage.googleapis.com/index.html
                -查看驱动和浏览器版本的映射关系:【根据谷歌版本,下载相应的驱动程序版本http://blog.csdn.net/huilan_same/article/details/51896672

        -实例化一个浏览器对象:

        -编写基于浏览器自动化的操作代码

                -发起请求:get(url)

                -标签定位:find系列的方法

                -标签交互:send_keys('str')

                -执行js程序:excute_script('js代码')

                -前进、后退:forward()、back()

                -关闭浏览器:quit()

     

如何判断一个网页的数据是动态加载出来的呢? 

        浏览器搜索“化妆品生产许可信息管理系统服务平台”,接下来拿这个举例子。

 

  1. from selenium import webdriver
  2. from lxml import etree
  3. from time import sleep
  4. print('开始')
  5. #实例化一个浏览器对象(传入浏览器的驱动程序)
  6. bro=webdriver.Chrome()#驱动程序在C:\Users\86187\pythonProject12\Scripts\
  7. #让浏览器发起指定url对应的请求
  8. bro.get('http://scxk.nmpa.gov.cn:81/xk/')
  9. #获取浏览器当前页面的页面源码数据
  10. page_text=bro.page_source
  11. print(page_text)
  12. #解析企业名称
  13. tree=etree.HTML(page_text)
  14. li_list=tree.xpath('//*[@id="gzlist"]/li')
  15. for li in li_list:
  16. name=li.xpath('./dl/@title')[0]
  17. print(name)
  18. #停留5秒
  19. sleep(5)
  20. #关闭浏览器
  21. bro.quit()

7.2 selenium其他自动化操作

需求:打开淘宝,并录入搜索信息。

编写基于浏览器自动化的操作代码

        -发起请求:get(url)

        -标签定位:find系列的方法

        -标签交互:send_keys('str')

        -执行js程序:excute_script('js代码')

        -前进、后退:forward()、back()

        -关闭浏览器:quit()

  1. from selenium import webdriver
  2. from time import sleep
  3. print('开始')
  4. bro=webdriver.Chrome()
  5. bro.get('https://www.taobao.com/')
  6. #实现标签定位
  7. search_input=bro.find_element(by='id',value='q')
  8. #标签交互
  9. search_input.send_keys('Iphone')
  10. #执行一组js程序
  11. bro.execute_script('window.scrollTo(0,document.body.scrollHeight)')#滑轮滚动
  12. sleep(2)#停留一下,便于观察
  13. #定位并点击搜索按钮
  14. btn=bro.find_element(by='xpath',value='//*[@id="J_TSearchForm"]/div[1]/button')
  15. btn.click()
  16. bro.get('https://www.baidu.com')
  17. sleep(2)
  18. #浏览器回退一次
  19. bro.back()
  20. sleep(2)
  21. #浏览器再前进一次
  22. bro.forward()
  23. print('结束')
  24. sleep(3)
  25. bro.quit()

7.3 iframe处理+动作链

selenium处理iframe:

        -如果定位的标签存在于iframe标签之中,则必须使用switch_to.frame(id)

        -动作链(拖动):from selenium.webdriver import ActionChains

                -实例化一个动作链对象:action=ActionChains(bro)

                -click_and_hold(div):点击并长按操作

                -move_by_offset(x,y):移动像素值

                -perform():让动作链立即执行

                -release():释放动作链
url="https://runoob.com/try/try.php?filename=jqueryui-api-droppable"

如果定位的标签是存在于iframe标签之中的则必须通过如下操作再进行标签定位 :

  1. from selenium import webdriver
  2. #导入动作链对应的类
  3. from selenium.webdriver import ActionChains
  4. from time import sleep
  5. bro=webdriver.Chrome()
  6. bro.get('https://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
  7. #定位拖动框
  8. #如果定位的标签是存在于iframe标签之中的则必须通过如下操作,再进行标签定位
  9. bro.switch_to.frame('iframeResult')#id值传进去;切换浏览器标签定位的作用域
  10. div=bro.find_element(by='id',value='draggable')
  11. #动作链
  12. #实例化对象
  13. action=ActionChains(bro)
  14. #点击并且长按指定的标签
  15. action.click_and_hold(div)
  16. #一点一点的移动
  17. for i in range(10):
  18. action.move_by_offset(xoffset=25,yoffset=0).perform()#perform表示立即执行动作链操作
  19. sleep(0.3)
  20. #释放动作链
  21. action.release().perform()
  22. bro.quit()#关闭浏览器
  23. # print(div)

7.4 selenium的模拟登录QQ空间

  1. from selenium import webdriver
  2. from time import sleep
  3. from selenium.webdriver import ActionChains
  4. bro=webdriver.Chrome()
  5. bro.get('https://qzone.qq.com/')
  6. #默认是扫码,所以需要定位到账号登录
  7. #因为该标签在iframe标签下,所以先切换作用域
  8. bro.switch_to.frame('login_frame')
  9. a_tog=bro.find_element(by='id',value='switcher_plogin')
  10. a_tog.click()
  11. #找到输入账号和密码模块
  12. userName_tag=bro.find_element(by='id',value='u')
  13. password_tag=bro.find_element(by='id',value='p')
  14. #录入内容
  15. userName_tag.send_keys('2571029391')
  16. password_tag.send_keys('**************')
  17. #登录
  18. btn=bro.find_element(by='id',value='login_button')
  19. btn.click()
  20. sleep(3)
  21. bro.quit()

滑块拖动还没有实现,所以登陆不上去。

7.5 谷歌无头浏览器+规嫌检测

将谷歌浏览器无可视化界面(无头浏览器)phantomJS。

用的时候直接将下面这写代码粘贴即可:

#无头浏览器设置
from selenium.webdriver.chrome.options import Options
chrome_options=Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')
bro=webdriver.Chrome(chrome_options=chrome_options)

  1. from selenium import webdriver
  2. from time import sleep
  3. #实现无可视化界面
  4. from selenium.webdriver.chrome.options import Options
  5. #实现规避检测
  6. from selenium.webdriver import ChromeOptions
  7. #实现无可视化界面的操作
  8. chrome_options=Options()
  9. chrome_options.add_argument('--headless')
  10. chrome_options.add_argument('--disable-gpu')
  11. #实现规避检测
  12. option=ChromeOptions()
  13. option.add_experimental_option('excludeSwitches',['enable-automation'])
  14. #如何实现让selenium规避被检测到的风险
  15. bro=webdriver.Chrome(chrome_options=chrome_options,options=chrome_options)
  16. #将谷歌浏览器无可视化界面(无头浏览器)phantomJS
  17. bro.get('https://www.baidu.com')
  18. print(bro.page_source)
  19. sleep(2)
  20. bro.quit()

7.6 超级鹰的基本使用

中国地铁12306网址:https://kyfw.12306.cn/otn/login/init

云打码平台:超级鹰   http://www.chaojiying.com/

chaojiying.py内容如下: 

  1. #!/usr/bin/env python
  2. # coding:utf-8
  3. import requests
  4. from hashlib import md5
  5. class Chaojiying_Client(object):
  6. def __init__(self, username, password, soft_id):
  7. self.username = username
  8. password = password.encode('utf8')
  9. self.password = md5(password).hexdigest()
  10. self.soft_id = soft_id
  11. self.base_params = {
  12. 'user': self.username,
  13. 'pass2': self.password,
  14. 'softid': self.soft_id,
  15. }
  16. self.headers = {
  17. 'Connection': 'Keep-Alive',
  18. 'User-Agent': 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0)',
  19. }
  20. def PostPic(self, im, codetype):
  21. """
  22. im: 图片字节
  23. codetype: 题目类型 参考 http://www.chaojiying.com/price.html
  24. """
  25. params = {
  26. 'codetype': codetype,
  27. }
  28. params.update(self.base_params)
  29. files = {'userfile': ('ccc.jpg', im)}
  30. r = requests.post('http://upload.chaojiying.net/Upload/Processing.php', data=params, files=files, headers=self.headers)
  31. return r.json()
  32. def PostPic_base64(self, base64_str, codetype):
  33. """
  34. im: 图片字节
  35. codetype: 题目类型 参考 http://www.chaojiying.com/price.html
  36. """
  37. params = {
  38. 'codetype': codetype,
  39. 'file_base64':base64_str
  40. }
  41. params.update(self.base_params)
  42. r = requests.post('http://upload.chaojiying.net/Upload/Processing.php', data=params, headers=self.headers)
  43. return r.json()
  44. def ReportError(self, im_id):
  45. """
  46. im_id:报错题目的图片ID
  47. """
  48. params = {
  49. 'id': im_id,
  50. }
  51. params.update(self.base_params)
  52. r = requests.post('http://upload.chaojiying.net/Upload/ReportError.php', data=params, headers=self.headers)
  53. return r.json()
  54. if __name__ == '__main__':
  55. chaojiying = Chaojiying_Client('xxxxxxxxxx', 'xxxxxxxxxxx', 'ddddddd')#用户中心>>软件ID 生成一个替换 ddddddd
  56. im = open('验证码图片/锅铲.png', 'rb').read()#本地图片文件路径 来替换 a.jpg 有时WIN系统须要//
  57. print(chaojiying.PostPic(im, 9004)) #9004 验证码类型 官方网站>>价格体系
  58. #print(chaojiying.PostPic(base64_str, 1902)) #此处为传入 base64代码
  59. print(chaojiying.PostPic(im, 9004)['pic_str'])#读取图片内容

7.7 中国铁路12306模拟登陆

12306模拟登录编码流程:
        -使用selenium打开登录页面心
        -对当前selenium打开的这张页面进行截图

        -对当前图片局部区域(验证码图片)进行裁剪
                -好处:将验证码图片和模拟登录进行一一对应。

        -使用超级鹰识别验证码图片(坐标)

  1. from selenium import webdriver
  2. import time
  3. from PIL import Image
  4. from chaojiying import Chaojiying_Client
  5. from selenium.webdriver import ActionChains
  6. from io import BytesIO
  7. #使用selenium打开登陆页面
  8. bro=webdriver.Chrome()
  9. bro.get('https://kyfw.12306.cn/otn/resources/login.html')
  10. time.sleep(1)
  11. #截图整张页面 save_screenshot就是将当前页面进行截图并保存
  12. bro.save_screenshot('./铁路登录页面.png')
  13. #确定验证码图片对应的左上角和右下角的坐标(裁剪的区域就确定了)
  14. code_img_ele=bro.find_element(by='xpath',value='//*[@id="loginForm"]/div/ul[2]/li[4]/div;div/div[3]/img')
  15. location=code_img_ele.location #验证码图片左上角坐标 x,y
  16. size=code_img_ele.size #验证码标签对应的长和宽
  17. rangle=(int(location['x'],int(location['y']),int(location['x']+size['width']),int(location['y']+size['height'])))
  18. #至此验证码图片区域就确定下来了
  19. i=Image.open('./铁路登录页面.png')
  20. code_img_name='./验证码图片/12306.png'
  21. #crop根据指定区域裁剪
  22. frame=i.crop(rangle)
  23. frame.save(code_img_name)
  24. #将验证码图片提交给超级鹰进行识别
  25. chaojiying=Chaojiying_Client('xxxxxxxxxxxxxx','xxxxxxxx','dddddddd')#账号,密码,id
  26. im=open('./验证码图片/12306.png','rb').read()
  27. result=chaojiying.PostPic(im,9004)['pic_str']
  28. #点击
  29. all_list=[]#存储即将要点击的坐标,有几个点就存几个 [[x1,y1],[x2,y2]]
  30. if '|' in result:
  31. list_1=result.split('|')
  32. count_1=len(list_1)
  33. for i in range(count_1):
  34. xy_list=[]
  35. x=int(list_1[i].split(',')[0])
  36. y=int(list_1[i].split(',')[1])
  37. xy_list.append(x)
  38. xy_list.append(y)
  39. all_list.append(xy_list)
  40. else:
  41. x = int(result.split(',')[0])
  42. y = int(result.split(',')[1])
  43. xy_list=[]
  44. xy_list.append(x)
  45. xy_list.append(y)
  46. all_list.append(xy_list)
  47. #遍历all_list,使用动作链对每一个列表元素对应的x y指定的位置点击操作
  48. for l in all_list:
  49. x=l[0]
  50. y=l[1]
  51. ActionChains(bro).move_to_element_with_offset(code_img_ele,x,y).click().perform()
  52. time.sleep(0.5)
  53. bro.find_element(by='id',value='username').send_keys('xxxxxxxxxx')
  54. time.sleep(2)
  55. bro.find_element(by='id',value='password').send_keys('xxxxxxxxxx')
  56. time.sleep(2)
  57. bro.find_element(by='id',value='loginSub').click()
  58. time.sleep(5)
  59. bro.quit()

8.scrapy框架

8.1 学前准备

什么是框架?

         -就是一个集成了很多功能并且具有很强通用性的一个项目模板。
如何学习框架?
        -专门学习框架封装的各种功能的详细用法。

什么是scrapy?

        -爬虫中封装好的一个明星框架。
scrapy功能:高性能的持久化存储,异步的数据下载,高性能的数据解析,分布式。

-环境的安装:
        -mac or linux:pip install scrapy

        -windows:【看下面的截图】

                -pip install wheel

                 -下载twisted,下载地址:http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
                -安装twisted,pip install Twisted-20.3.0-cp39-cp39-win amd64.whl
                        cp39:是指python版本;64:是指操作系统64位
                -pip install pywin32

                -pip install scrapy

                测试:在终端里录入scrapy指令,没有报错即表示安装成功!

8.2 scrapy创建工程

1.创建一个工程:scrapy startproject firstBlood

2.cd firstBlood

3.在spiders子目录中创建一个爬虫文件:
        -scrapy  genspider  spiderName  www.xxx.com     

4.执行工程:
        -scrapy crawl spiderName

8.3 数据解析--知乎热榜

需求:爬取知乎热榜内容。

1.创建一个工程,工程名为zhihuPro:scrapy startproject zhihuPro

2. cd .\zhihuPro

3.创建一个爬虫文件: scrapy genspider zhihu www.zhihu.com

4.编写代码

5.修改配置文件

6.运行:scrapy crawl zhihu

zhihu.py文件中的内容如下: 

  1. import scrapy
  2. class ZhihuSpider(scrapy.Spider):
  3. name = 'zhihu'
  4. # allowed_domains = ['www.zhihu.com'] ==> 一般不用这个
  5. start_urls = ['https://tophub.today/n/mproPpoq6O']
  6. def parse(self, response):#数据解析
  7. #解析
  8. div_list=response.xpath('//*[@id="page"]/div[2]/div[2]/div[1]/div[2]/div/div[1]/table/tbody/tr')#直接xpath
  9. # print(div_list)
  10. i=1
  11. for div in div_list:
  12. #xpath返回的是列表,但是列表元素一定是Selector类型的对象
  13. #extract可以将Selector对象中data参数存储的字符串提取出来
  14. content=div.xpath('./td[2]/a/text()')[0].extract()
  15. content=''.join(content)#转换成字符串
  16. print(i,' ',content)
  17. i+=1

爬取结果:

8.4 基于终端命令的持久化存储

8.4.1 基于终端命令方式存储

scrapy持久化存储:

        -基于终端指令:

                -要求:只可以将parse方法的返回值存储到本地的文件中,不可以往数据库里存储

                -命令:scrapy crawl zhihu -o zhihu.csv

                -注意:存储文件类中只能是 ('json', 'jsonlines', 'jl', 'csv', 'xml', 'marshal', 'pickle')

                -zhihu.py文件的编辑

  1. import scrapy
  2. class ZhihuSpider(scrapy.Spider):
  3. name = 'zhihu'
  4. # allowed_domains = ['www.zhihu.com'] ==> 一般不用这个
  5. start_urls = ['https://tophub.today/n/mproPpoq6O']
  6. def parse(self, response):#数据解析
  7. #解析
  8. div_list=response.xpath('//*[@id="page"]/div[2]/div[2]/div[1]/div[2]/div/div[1]/table/tbody/tr')#直接xpath
  9. # print(div_list)
  10. i=1
  11. all_data= []#存储所有解析到的数据
  12. for div in div_list:
  13. #xpath返回的是列表,但是列表元素一定是Selector类型的对象
  14. #extract可以将Selector对象中data参数存储的字符串提取出来
  15. content=div.xpath('./td[2]/a/text()')[0].extract()
  16. content=''.join(content)#转换成字符串
  17. # print(i,'\t',content)
  18. dic={
  19. 'index':i,
  20. 'content':content
  21. }
  22. all_data.append(dic)
  23. i+=1
  24. return all_data

                 -好处:简洁高效便捷

                 -缺点:局限性比较强(数据只可以存储到指定后缀文件中)

8.4.2 基于管道方式持久化存储

基于管道:

        -编码流程:

                -1.数据解析

                -2.在item类中定义相关的属性

                -3.将解析的数据封装存储到item类型的对象中
                -4.将item类型的对象提交给管道进行持久化存储操作   

                        zhihu.py文件中的内容如下

  1. import scrapy
  2. from ..items import ZhihuproItem
  3. #基于管道的持久化存储
  4. class ZhihuSpider(scrapy.Spider):
  5. name = 'zhihu'
  6. # allowed_domains = ['www.zhihu.com'] ==> 一般不用这个
  7. start_urls = ['https://tophub.today/n/mproPpoq6O']
  8. def parse(self, response):#数据解析
  9. #解析知乎热搜
  10. div_list=response.xpath('//*[@id="page"]/div[2]/div[2]/div[1]/div[2]/div/div[1]/table/tbody/tr')#直接xpath
  11. idx=0
  12. all_data= []#存储所有解析到的数据
  13. for div in div_list:
  14. #xpath返回的是列表,但是列表元素一定是Selector类型的对象
  15. #extract可以将Selector对象中data参数存储的字符串提取出来
  16. content=div.xpath('./td[2]/a/text()')[0].extract()
  17. idx+=1
  18. content=''.join(content)#转换成字符串
  19. #实例化一个item类型的对象
  20. item=ZhihuproItem()
  21. item['idx']=idx
  22. item['content']=content
  23. #将item提交给管道
  24. yield item

                -5.在管道类的process_item中要将其接收到的item对象中存储的数据进行持久化存储

  1. # Define your item pipelines here
  2. #
  3. # Don't forget to add your pipeline to the ITEM_PIPELINES setting
  4. # See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
  5. # useful for handling different item types with a single interface
  6. from itemadapter import ItemAdapter
  7. class ZhihuproPipeline:
  8. fp=None#因为每次接收到一个item就会调用一次process_item,所以就将打开文件操作写外边
  9. #重写父类方法:该方法只会开始爬虫时候调用一次,正好可以操作打开文件
  10. def open_spider(self,spider):
  11. self.fp=open('./zhihu.txt','w',encoding='utf-8')
  12. #重写父类的一个方法:该方法在爬虫结束时只会调用一次,刚好用于关闭文件操作
  13. def close_spider(self):
  14. self.fp.close()
  15. #专门用来处理item类型对象的
  16. #该方法可以接受爬虫文件提交的item对象
  17. #该方法每接收到一个item,就会被调用一次
  18. def process_item(self, item, spider):
  19. idx=item['idx']
  20. content=item['content']
  21. #存储
  22. self.fp.write(idx+'\t'+content+'\n')
  23. return item

                -6.在配置文件中手动开启管道

                -7.执行:    scrapy crawl zhihu

        -好处:通用性强,可以往任意类型文件中存储

        -缺点:编码流程繁琐

8.4.3 基于管道方式持久化存储--->面试题

面试题:将爬取到的数据一份存储到本地一份存储到数据库,如何实现?

注意:

        -管道文件中一个管道类对应的是将数据存储到一种平台
        -爬虫文件提交的item只会给管道文件中第一个被执行的管道类接受
        -process_item中的return item表示将item传递给下一个即将被执行的管道类

在pipelines.py文件中加下面内容:

  1. #管道文件中的一个管道类对应的一组数据存储到一个平台或者载体中
  2. #自定义管道类
  3. class mysqlPileLine(object):
  4. conn=None
  5. def open_spider(self,spider):
  6. self.conn=pymysql.Connect(host='127.0.0.1',port=3306,user='root',password='123456',db='zhihu',charset='utf8')
  7. def process_items(self, item, spider):
  8. self.cursor=self.conn.cursor()
  9. try:
  10. self.cursor.execute('insert into zhihu values("%s","%s")'%(item["idx"],item["content"]))
  11. self.conn.commit()#提交
  12. except Exception as e:
  13. print(e)
  14. self.conn.rollback()
  15. return item # 就会传递给下一个即将被执行的管道类,不管有没有下一个,都建议写上
  16. def close_spider(self,spider):
  17. self.cursor.close()
  18. self.conn.close()
  19. #爬虫文件提交的item类型的对象最终会提交给哪一个管道类呢?
  20. #先执行优先级高的管道类

 修改配置文件:

8.5 基于spider的全站数据爬取

全站数据的爬取:就是将网站中某板块下的全部页码对应的页面数据进行爬取。

需求:爬取所有全部页面的标题。

实现方式:

        -1.将所有页面的url添加到start__urls列表     ==> 不推荐

        -2.自行手动进行请求发送                              ==> 推荐

                #手动请求   callback回调函数是是专门用作于数据解析
               yield scrapy.Request(url=new_url,callback=self.parse)#递归

sunshine.py文件的内容如下: 

  1. import scrapy
  2. class SunshineSpider(scrapy.Spider):
  3. idx=1
  4. name = 'sunshine'
  5. # allowed_domains = ['about.sinosig.com']
  6. start_urls = ['http://about.sinosig.com/common/news/html/2277.html']
  7. #http://about.sinosig.com/common/news/html/2277.html 【第一页】
  8. #http://about.sinosig.com/common/about_sinosig/html/2277_2.html
  9. #http://about.sinosig.com/common/about_sinosig/html/2277_5.html
  10. page_num=2#从第2页开始,但第一页url不一样
  11. url='http://about.sinosig.com/common/about_sinosig/html/2277_%d.html'#通用模板,不可变
  12. def parse(self, response):
  13. li_list=response.xpath('/html/body/div[2]/div[2]/div[5]/ul/li')
  14. for li in li_list:
  15. title_name=li.xpath('./a/text()')[0].extract()
  16. print(str(self.idx)+'\t'+title_name)
  17. self.idx+=1
  18. # 持久化存储
  19. if self.page_num<=20:#控制页数
  20. new_url=format(self.url%self.page_num)
  21. self.page_num+=1
  22. #手动请求 callback回调函数是是专门用作于数据解析
  23. yield scrapy.Request(url=new_url,callback=self.parse)#递归

运行结果:

8.6 五大核心组件

引擎(Scrapy):
        用来处理整个系统的数据流处理,触发事务(框架核心)。

调度器(Scheduler):
        用来接受引擎发过来的请求,压入队列中,并在引擎再次请求的时候返回。可以想像成一个URL(抓取网页的网址或者说是链接)的优先队列,由它来决定下一个要抓取的网址是什么,同时去除重复的网址。
下载器(Downloader):
        用于下载网页内容,并将网页内容返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的)。

爬虫(Spiders):
        爬虫是主要干活的,用于从特定的网页中提取自己需要的信息,即所谓的实体(Item)。用户也可以从中提取出链接让Scrapy继续抓取下一个页面。
项目管道(Pipeline):
        负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道,并经过几个特定的次序处理数据。
 

8.6 请求传参

使用场景:如果爬取解析的数据不在同一张页面中。(深度爬取)
需求:爬取boss的岗位名称,岗位描述。  

                https://www.zhipin.com/web/geek/job?query=python&city=100010000


 

配置文件中的内容: 

items.py文件中的内容: 

piplines.py文件中的内容:

  1. # Define your item pipelines here
  2. #
  3. # Don't forget to add your pipeline to the ITEM_PIPELINES setting
  4. # See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
  5. # useful for handling different item types with a single interface
  6. from itemadapter import ItemAdapter
  7. class BossproPipeline:
  8. fp = None
  9. def open_spider(self, spider):
  10. self.fp = open('./bossInfo.txt', 'w', encoding='utf-8')
  11. def close_spider(self):
  12. self.fp.close()
  13. def process_item(self, item, spider):
  14. job_name = item['job_name']
  15. job_desc = item['job_desc']
  16. self.fp.write(job_name + '\n\t' + job_desc + '\n\n')
  17. return item

配置文件boss.py中的内容:

  1. import scrapy
  2. from ..items import BossproItem
  3. class BossSpider(scrapy.Spider):
  4. name = 'boss'
  5. allowed_domains = ['www.xx.com']
  6. start_urls = ['https://www.zhipin.com/web/geek/job?query=python&city=100010000']
  7. #https://www.zhipin.com/web/geek/job?query=python&city=100010000 第一页
  8. #https://www.zhipin.com/web/geek/job?query=python&city=100010000&page=2
  9. #https://www.zhipin.com/web/geek/job?query=python&city=100010000&page=5
  10. url='https://www.zhipin.com/web/geek/job?query=python&city=100010000&page=%d'#通用url模板
  11. page_num=2
  12. # 解析详情页中的职位描述
  13. #回调函数接收item
  14. def parse_detal(self, response):
  15. item=response.meta['item']
  16. job_desc=response.xpath('//*[@id="main"]/div[3]/div/div[2]/div[2]/div[2]/div//text()').extract()#因为是多行内容,所以拿到的是所有内容,所以是//text(),返回的是列表
  17. job_desc=''.join(job_desc)#转换成字符串
  18. item['job_desc']=job_desc
  19. print('职位描述:\t',job_desc)
  20. #解析首页的岗位名称
  21. def parse(self, response):
  22. li_list=response.xpath('//*[@id="wrap"]/div[2]/div[2]/div/div[1]/div[2]/ul/li')
  23. print(li_list)
  24. for li in li_list:
  25. item=BossproItem()
  26. job_name=li.xpath('./div[1]/a/div[1]/span[1]/text()')[0].extract()
  27. item['job_name'] = job_name
  28. detail_url='https://www.zhipin.com/'+li.xpath('./div[1]/a/@href').extract_first()#同上
  29. print('岗位名字:\t',job_name)
  30. #对详情页发请求获取详情页的页面源码是数据
  31. #手动请求的发送
  32. #请求传参:meta={},可以将meta字典传递给请求对应的回调函数
  33. yield scrapy.Request(url=detail_url,callback=self.parse_detal,meta={'item':item})#因为解析详情页代码不一样了,所以自定义个函数
  34. #进行分页操作
  35. if self.page_num<=20:#页码控制
  36. new_url=format(self.url%self.page_num)
  37. self.page_num+=1
  38. yield scrapy.Request(url=new_url,callback=self.parse)

8.7 scrapy图片爬取

图片数据爬取之ImagesPipeline


-基于scrapy爬取字符串类型的数据和爬取图片类型的数据区别?
        -字符串:只需要基于xpath进行解析且提交管道进行持久化存储
        -图片:xpath解析出图片src的属性值。单独的对图片地址发起请求获取图片二进制类型的数据。


-ImagesPipeline:

        只需要将img的src的属性值进行解析,提交到管道。管道就会对图片的src进行请求发送获取图片的二进制类型的数据,且还会帮我们进行持久化存储。

-需求:爬取站长素材中的高清图片。  https://sc.chinaz.com/tupian/


-使用流程:

        -1.数据解析(图片的地址)
        -2.将存储图片地址的item提交到制定的管道类
        -3.在管道文件中自定制一个基于ImagesPipeLine的一个管道类【重写三个方法】

                -get_media_requests():根据图片地址进行图片数据的请求

                -file_path(): 指定图片存储的路径
                -item_completed():返回下一个被执行的管道类

        -4.在配置文件中:

                -指定图片存储的目录:IMAGES_STORE='./imgs_zmj'

                -指定开启的管道:自定制的管道类,继承于ImagesPipeline

                        from scrapy.pipelines.images import ImagesPipeline

配置文件的修改:

items.py文件的修改:

pipelines.py文件的修改:

  1. # Define your item pipelines here
  2. #
  3. # Don't forget to add your pipeline to the ITEM_PIPELINES setting
  4. # See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html
  5. # useful for handling different item types with a single interface
  6. import scrapy
  7. from itemadapter import ItemAdapter
  8. # #这个管道类不能将src请求发送
  9. # class ImgsproPipeline:
  10. # def process_item(self, item, spider):
  11. # return item
  12. from scrapy.pipelines.images import ImagesPipeline
  13. import scrapy
  14. #自定义类
  15. class imgsPileLine(ImagesPipeline):
  16. #这个函数就是可以根据图片地址进行图片数据的请求
  17. def get_media_requests(self, item, info):
  18. yield scrapy.Request(url=item['src'])#这里只需要指定url,callback不需要指定
  19. #该函数指定图片存储的路径
  20. def file_path(self, request, response=None, info=None, *, item=None):
  21. img_name=request.url.split('/')[-1]
  22. return img_name
  23. #
  24. def item_completed(self, results, item, info):
  25. return item#返回下一个被执行的管道类

img.py文件的内容:

  1. import scrapy
  2. from ..items import ImgsproItem
  3. class ImgSpider(scrapy.Spider):
  4. name = 'img'
  5. # allowed_domains = ['www.xxx.com']
  6. start_urls = ['https://sc.chinaz.com/tupian/']
  7. def parse(self, response):
  8. div_list=response.xpath('//*[@id="container"]/div')
  9. i=1
  10. for div in div_list:
  11. src='https:'+div.xpath('./div/a/img/@src').extract_first()
  12. print(i,src)
  13. item=ImgsproItem()
  14. item['src']=src
  15. i+=1
  16. yield item#将item提交到管道类

运行结果:

8.8 中间件初始

中间件
        -下载中间件
                -位置:引擎和下载器之间。
                -作用:批量拦截到整个工程中发起的所有的请求和响应。

                -拦截请求:

                        -UA伪装:写在process_request()函数中

                        -代理IP的设定:写在process_exception()函数中

                -拦截响应:
                        -串改响应数据或者响应对象

8.8.1 使用中间件拦截请求

-拦截请求:

        -UA伪装:写在process_request()函数中

        -代理IP的设定:写在process_exception()函数中

终端命令:

配置文件的修改如下:

中间件middlewares.py文件内容如下:

  1. from scrapy import signals
  2. from itemadapter import is_item, ItemAdapter
  3. import random
  4. #下载中间件
  5. class MiddleproDownloaderMiddleware:
  6. #UA列表
  7. user_agent_list=[
  8. 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36',
  9. 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36',
  10. 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
  11. 'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.133 Safari/534.16',
  12. 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3100.0 Safari/537.36'
  13. ]
  14. #代理池
  15. PROXY_http=[
  16. '153.180.102.104:80',
  17. '195.208.112.214:35508'
  18. ]
  19. PROXY_https=[
  20. '120.83.49.90:9000',
  21. '95.189.112.214:35508'
  22. ]
  23. #拦截请求
  24. def process_request(self, request, spider):
  25. #UA伪装
  26. request.headers['User-Agent']=random.choice(self.user_agent_list)#随机选
  27. #为了验证代理的操作是否生效
  28. request.meta['proxy']='http://116.62.198.43:8000'
  29. return None
  30. #拦截所有响应
  31. def process_response(self, request, response, spider):
  32. return response
  33. #拦截发生异常的请求
  34. def process_exception(self, request, exception, spider):
  35. #代理IP的设定
  36. if request.url.split(':')[0]=='http':
  37. request.meta['proxy']='http://'+random.choice(self.PROXY_http)
  38. else:
  39. request.meta['proxy'] = 'https://' + random.choice(self.PROXY_https)
  40. return request#将修正后的请求对象进行重新的请求发送

爬虫文件middle,py内容如下:

  1. import scrapy
  2. class MiddleSpider(scrapy.Spider):
  3. #爬取百度
  4. name = 'middle'
  5. # allowed_domains = ['www.xxx.com']
  6. start_urls = ['http://www.baidu.com/s?word=ip&tn=59189121_26_oem_dg']
  7. def parse(self, response):
  8. page_text=response.text#如果是二进制数据,是body
  9. with open('ip.html','w',encoding='utf-8') as fp:
  10. fp.write(page_text)

8.8.2 使用中间件拦截响应

-拦截响应:
        -串改响应数据或者响应对象


        -需求:爬取网易新闻中的新闻数据(爬取标题和内容)     https://news.163.com/

                -1.通过网易新闻的首页解析出四大板块对应的详情页的url(没有动态加载)
                -2.每一个板块对应的新闻标题都是动态加载出来的(动态加载)
                -3.通过解析出每一条新闻详情页的url获取详情页的页面源码,解析出新闻内容

终端命令创建项目:

配置文件的修改如下:

items.py文件内容如下:

中间件middlewares.py文件如下:

  1. # Define here the models for your spider middleware
  2. #
  3. # See documentation in:
  4. # https://docs.scrapy.org/en/latest/topics/spider-middleware.html
  5. from scrapy import signals
  6. # useful for handling different item types with a single interface
  7. from itemadapter import is_item, ItemAdapter
  8. # class WangyiproSpiderMiddleware:
  9. # # Not all methods need to be defined. If a method is not defined,
  10. # # scrapy acts as if the spider middleware does not modify the
  11. # # passed objects.
  12. #
  13. # @classmethod
  14. # def from_crawler(cls, crawler):
  15. # # This method is used by Scrapy to create your spiders.
  16. # s = cls()
  17. # crawler.signals.connect(s.spider_opened, signal=signals.spider_opened)
  18. # return s
  19. #
  20. # def process_spider_input(self, response, spider):
  21. # # Called for each response that goes through the spider
  22. # # middleware and into the spider.
  23. #
  24. # # Should return None or raise an exception.
  25. # return None
  26. #
  27. # def process_spider_output(self, response, result, spider):
  28. # # Called with the results returned from the Spider, after
  29. # # it has processed the response.
  30. #
  31. # # Must return an iterable of Request, or item objects.
  32. # for i in result:
  33. # yield i
  34. #
  35. # def process_spider_exception(self, response, exception, spider):
  36. # # Called when a spider or process_spider_input() method
  37. # # (from other spider middleware) raises an exception.
  38. #
  39. # # Should return either None or an iterable of Request or item objects.
  40. # pass
  41. #
  42. # def process_start_requests(self, start_requests, spider):
  43. # # Called with the start requests of the spider, and works
  44. # # similarly to the process_spider_output() method, except
  45. # # that it doesn’t have a response associated.
  46. #
  47. # # Must return only requests (not items).
  48. # for r in start_requests:
  49. # yield r
  50. #
  51. # def spider_opened(self, spider):
  52. # spider.logger.info('Spider opened: %s' % spider.name)
  53. from scrapy.http import HtmlResponse
  54. from time import sleep
  55. class WangyiproDownloaderMiddleware:
  56. # Not all methods need to be defined. If a method is not defined,
  57. # scrapy acts as if the downloader middleware does not modify the
  58. # passed objects.
  59. # @classmethod
  60. # def from_crawler(cls, crawler):
  61. # # This method is used by Scrapy to create your spiders.
  62. # s = cls()
  63. # crawler.signals.connect(s.spider_opened, signal=signals.spider_opened)
  64. # return s
  65. def process_request(self, request, spider):
  66. # Called for each request that goes through the downloader
  67. # middleware.
  68. # Must either:
  69. # - return None: continue processing this request
  70. # - or return a Response object
  71. # - or return a Request object
  72. # - or raise IgnoreRequest: process_exception() methods of
  73. # installed downloader middleware will be called
  74. return None
  75. #通过该方法拦截四大板块的响应对象,进行篡改:将原来不满足需求的篡改成符合需求的
  76. def process_response(self, request, response, spider):
  77. bro=spider.bro#获取了在爬虫类中定义的浏览器对象
  78. #挑选出指定的响应对象,进行篡改
  79. #通过url指定request
  80. #通过request指定response
  81. if request.url in spider.models_urls:
  82. bro.get(request.url)#对四个板块对应的url进行请求发送
  83. sleep(2)
  84. page_text=bro.page_source#包含了动态加载的新闻数据
  85. # response#是四大板块对应的响应对象
  86. #针对定位到的这些response进行篡改
  87. #实例化一个新的响应对象(符合需求:包含动态加载出来的新闻数据),替代原来旧的响应对象
  88. #如何获取动态加载出来的新闻数据? ==> 基于selenium便捷的获取动态加载数据
  89. new_response=HtmlResponse(url=request.url,body=page_text,encoding='utf-8',request=request)
  90. return new_response
  91. else:
  92. # response#其他板块对应的响应对象
  93. return response
  94. def process_exception(self, request, exception, spider):
  95. # Called when a download handler or a process_request()
  96. # (from other downloader middleware) raises an exception.
  97. # Must either:
  98. # - return None: continue processing this exception
  99. # - return a Response object: stops process_exception() chain
  100. # - return a Request object: stops process_exception() chain
  101. pass
  102. # def spider_opened(self, spider):
  103. # spider.logger.info('Spider opened: %s' % spider.name)

middle.py文件内容:

  1. import scrapy
  2. from selenium import webdriver
  3. from ..items import WangyiproItem
  4. class MiddleSpider(scrapy.Spider):
  5. name = 'middle'
  6. allowed_domains = ['www.xxx.com']
  7. start_urls = ['https://news.163.com/']
  8. models_urls=[]#存储四个板块详情页的url
  9. #实例化一个浏览器对象
  10. def __init__(self):
  11. self.bro=webdriver.Chrome()
  12. #解析四大板块对应的详情页url
  13. def parse(self, response):
  14. li_list=response.xpath('//*[@id="index2016_wrap"]/div[2]/div[2]/div[2]/div[2]/div/ul/li')
  15. # print(li_list)
  16. alist=[1,2,4,5]
  17. for i in alist:
  18. modlel_url=li_list[i].xpath('./a/@href').extract_first()
  19. self.models_urls.append(modlel_url)
  20. # print(modlel_url)
  21. #一次对每一个板块对应的页面进行请求
  22. for url in self.models_urls:
  23. yield scrapy.Request(url=url,callback=self.parse_model)
  24. #解析每一个详情页对应的标题和新闻 ==> 动态加载出来的
  25. def parse_model(self,response):
  26. div_list=response.xpath('/html/body/div/div[3]/div[3]/div[1]/div[1]/div/ul/li/div/div')
  27. for div in div_list:
  28. title=div.xpath('./div/div[1]/h3/a/text()').extract_first()
  29. new_detail_url=div.xpath('./div/div[1]/h3/a/@href').extract_first()
  30. item=WangyiproItem()
  31. item['title']=title
  32. #对新闻详情页的url发起请求
  33. yield scrapy.Request(url=new_detail_url,callback=self.parse_detail,meta={'item':item})
  34. def parse_detail(self,response):
  35. content=''.join(response.xpath('//*[@id="content"]/div[2]/p//text()').extract())
  36. item=response.meta['item']
  37. item['content']=content
  38. yield item

8.9 CrawlSpider

CrawlSpider:类,是Spider的一个子类。

-全站数据爬取的方式:

        -基于Spider:手动请求

        -基于CrawlSpider:

                -创建一个工程: scrapy startproject 工程名
                -cd XXX:cd 工程名
                -创建爬虫文件(CrawlSpider):

                        -scrapy genspider -t crawl  爬虫文件名称  起始url

                        -链接提取器:

                                -作用:根据指定规则(allow='正则’)进行指定链接的提取。

                        -规则提取器:

                                -作用:将链接提取器提取到的链接进行指定规则(callback)的解析操作

                                 follow=True:可以将链接提取器继续做用到连接提取器提取到的链接所对应的页面上,相当于递归。

网站地址:https://wz.sun0769.com/political/index/supervise 

需求:爬取sun网站中的编号,新闻标题,新闻内容,标号
        -分析:爬取的数据没有在同一张页面中。

        -1.可以使用链接提取器提取所有的页码链接
        -2. 让链接提取器提取所有的新闻详情页的链接  

终端命令:

8.10 分布式爬虫

概念:我们需要搭建一个分布式的机群,让其对一组资源进行分布联合爬取。

作用:提升爬取数据的效率。
如何实现分布式?
        -安装一个scrapy-redis的组件:pip install scrapy-redis

        -原生的scarapy是不可以实现分布式爬虫,必须要让scrapy结合着scrapy-redis组件一起实现分布式爬虫。

        -为什么原生的scrapy不可以实现分布式?
                -调度器不可以被分布式机群共享

                -管道不可以被分布式机群共享

        -scrapy-redis组件作用:

                -可以给原生的scrapy框架提供可以被共享的管道和调度器。

实现流程:
        -创建一个工程
        -创建一个基于CrawlSpider的爬虫文件

        -修改当前的爬虫文件:
                -导包:from scrapy_redis.spiders import RedisCrawlSpider

                -将allowed_domains和start_urls进行注释

                -添加一个新属性:redis_key = 'sun’可以被共享的调度器队列的名称
                -编写数据解析相关的操作

                -将当前爬虫类的父类修改成RedisCrawlSpider

        -修改配置文件settings.py:

                -指定使用可以被共享的管道:

                        ITEM_PIPELINES={ 'scrapy_redis.pipelines.RedisPipeline':400}

                -指定调度器:

                        DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
                        SCHEDULER = "scrapy_redis.scheduler.Scheduler"
                        SCHEDULER_PERSIST=True

                -指定redis服务器:

                        REDIS_HOST = '127.0.0.1'#最好写成‘redis服务的ip地址’(需要修改)
                        REDIS_PORT = 6379
          -redis相关操作配置:

                        -配置redis的配置文件:

                                -Linux或者mac:redis.conf

                                -WIndows:redis.windows.conf

                                -打开配置文件:

                                        -1.将bind 127.0.0.1 进行注释或删除
                                        -2.关闭保护模式:protected-mode yes 改为 no

                        -结合着配置文件开启redis服务
                                -redis-server配置文件

                        -启动客户端:

                                -redis-cli

        -执行工程:

                -scrapy runspider XXX.py
        -向调度器的队列中放入一个起始的url:
                -调度器的队列在redis的客户端中
                
        -lpush xxx  www.xxx.com

        -爬取到的数据存储在了redis的proName: ilems这个数据结构中


 

终端命令:

配置文件的修改:

items.py文件中添加属性:

fbs.py文件中的内容:

  1. import scrapy
  2. from scrapy.linkextractors import LinkExtractor
  3. from scrapy.spiders import CrawlSpider, Rule
  4. from scrapy_redis.spiders import RedisCrawlSpider
  5. from ..items import FbsproItem
  6. class FbsSpider(RedisCrawlSpider):
  7. name = 'fbs'
  8. # allowed_domains = ['www.xxx.com']
  9. # start_urls = ['http://www.xxx.com/']
  10. redis_key='sun'
  11. rules = (
  12. Rule(LinkExtractor(allow=r'type=4&page=\d+'), callback='parse_item', follow=True),
  13. )
  14. def parse_item(self, response):
  15. tr_list=response.xpath('//*[@id="morelist"]/div/table[2]//tr/td/table//tr')
  16. for tr in tr_list:
  17. new_num=tr.xpath('./td[1]/text()').extract_first()#编号
  18. new_title=tr.xpath('./td[2]/a[2]/@title').extract_first()#标题
  19. item=FbsproItem()
  20. item['new_num']=new_num
  21. item['title']=new_title
  22. yield item#

9.增量式爬虫

概念:监测网站数据更新的情况,只会爬取网站最新更新出来的数掘。
分析:

        -1.指定一个起始url
        -2.基于CrawlSpider获取其他页码链接

        -3.基于Rule将其他页码链接进行请求
        -4.从每一个页码对应的页面源码中解析出每一个电影详情页的URL

        -5.【核心】检测电影详情页的url之前有没有请求过
                -将爬取过的电影详情页的url存储
                      -存储到redis的set数据结构 

        -6.对详情页的ur发起请求,然后解析出电影的名称和简介
        -7.进行持久化存储

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/287470
推荐阅读
相关标签
  

闽ICP备14008679号