赞
踩
requests是python的一个库,也是用来构建请求的,但是比urllib更加方便和强大。
对urllib不是很清楚的同学可以看我的上一部日志:Python爬虫学习日志——day1(urllib)
对于不同的请求方式,如GET,POST,PUT等,requests库提供了一系列简单明了的方法:
分别对应不同的请求方式,一目了然,下面就以get()方法为例:
使用urllib要获取网站的cookies则需要使用对应的handler创建特定功能的opener来实现,但是对于requests的get()方法,直接就可以通过返回对象的属性来获取cookies的值。
然后将cookies的值在下一次访问是放在headers里面,就可以自动放回登录后的结果。
代码示例:
- import requests
-
-
- url = "https://www.baidu.com"
- r = requests.get(url)
- print(r.cookies)
- for key,value in r.cookies.items():
- print(key+'='+value)
我们调用cookies的属性,通过输出可以发现它是RequestsCookieJar类型,然后用item()方法将其转换为元组组成的列表,遍历输出每一个cookies的名称和值,实现cookies的遍历解析。
如果想要在发送请求时带上额外的信息,只需要在get方法里添加一个参数params,它的值是一个由需要添加的信息组成的字典。
代码示例:
- import requests
-
-
- url="http://httpbin.org/ge
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。