当前位置:   article > 正文

python 使用 requests 库发送请求及设置代理_requests.adapters.default_retries

requests.adapters.default_retries

1、请求网页时,有的网页有防机器人,所以需要设置 user-agent 标识为浏览器,就不会被拒绝访问;

2、当访问国外需要翻墙的网页时,可以通过设置代理实现访问,分为 http 和 https 两种,另外需要注意 urllib3 版本不要高于 1.26.0,当请求出现错误(check_hostname requires server_hostname) 或者一直没响应时,可以检查是否是 urllib3 版本问题;

3、

        发送 get 请求时,传参使用参数名 params:requests.get(url, headers, params=params)

        发送 post 请求时,传参使用参数名 data:requests.post(url, headers, data=params)

        响应数据:

  •  response.status_code   # 响应的状态码
  •  response.headers         # 响应的头信息
  •  response.text               # 返回数据(字符串)
  •  response.json()           # 返回数据(json 格式)
  • response.content        # 返回数据(二进制数据)

     
    1. import requests
    2. import random
    3. def request_url(url):
    4. user_agent = [
    5. 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:10.0) Gecko/20100101 Firefox/10.0',
    6. 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
    7. 'Chrome/94.0.4606.61 Safari/537.36',
    8. 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
    9. 'Chrome/94.0.4606.71 Safari/537.36 Edg/94.0.992.38',
    10. ]
    11. # 频繁请求某个网址偶尔会报错请求超时,可采用下面方式降低失败率,设置重试次数为5,会话设置为不维持连接.
    12. requests.adapters.DEFAULT_RETRIES = 5
    13. ses = requests.session()
    14. ses.keep_alive = False
    15. # 随机获取 headers
    16. headers = {
    17. 'User-Agent': random.choice(user_agent)
    18. }
    19. # 设置代理,分为 http 和 https
    20. proxies = {
    21. "http": "http://127.0.0.1:1080",
    22. "https": "https://127.0.0.1:1080"
    23. }
    24. try:
    25. response = ses.get(url=url, headers=headers, proxies=proxies)
    26. except requests.exceptions.RequestException as e:
    27. print(f'request url {url} occurs error')
    28. print(e)
    29. print(response.status_code, response.headers)
    30. # 获取文件大小
    31. def get_file_size(file):
    32. file_size = int(requests.head(file, headers=self.headers).headers['Content-Length'])
    33. return file_size
    34. if __name__ == '__main__':
    35. request_url(url='http://www.baidu.com')

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/178407?site
推荐阅读
相关标签
  

闽ICP备14008679号