当前位置:   article > 正文

Python爬虫学习日志——day2(requests)_爬虫实训日志

爬虫实训日志

requests是python的一个库,也是用来构建请求的,但是比urllib更加方便和强大。

对urllib不是很清楚的同学可以看我的上一部日志:Python爬虫学习日志——day1(urllib)

对于不同的请求方式,如GET,POST,PUT等,requests库提供了一系列简单明了的方法:

  • get()
  • put()
  • post()
  • delete()
  • head()
  • options(0

分别对应不同的请求方式,一目了然,下面就以get()方法为例:

一.get()

1.1cookies处理

使用urllib要获取网站的cookies则需要使用对应的handler创建特定功能的opener来实现,但是对于requests的get()方法,直接就可以通过返回对象的属性来获取cookies的值。

然后将cookies的值在下一次访问是放在headers里面,就可以自动放回登录后的结果。

代码示例:

  1. import requests
  2. url = "https://www.baidu.com"
  3. r = requests.get(url)
  4. print(r.cookies)
  5. for key,value in r.cookies.items():
  6. print(key+'='+value)

我们调用cookies的属性,通过输出可以发现它是RequestsCookieJar类型,然后用item()方法将其转换为元组组成的列表,遍历输出每一个cookies的名称和值,实现cookies的遍历解析。

1.2get()参数一:params

如果想要在发送请求时带上额外的信息,只需要在get方法里添加一个参数params,它的值是一个由需要添加的信息组成的字典。

代码示例:

  1. import requests
  2. url="http://httpbin.org/ge
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/181847?site
推荐阅读
相关标签
  

闽ICP备14008679号