当前位置:   article > 正文

爬虫爬取网页时报错:requests.exceptions.SSLError: HTTPSConnectionPool(host=‘www.cnblogs.com‘, port=443): Max r_爬虫出现443怎么解决

爬虫出现443怎么解决

1,报错信息:

1.1报错原因

这个错误是由于 SSL 连接问题引起的。可能是由于与网站建立安全连接时出现了问题。

2.先检查pip有没安装cryptography,pyOpenSSL,certifi要是没有先安装

pip install cryptography

pip install pyOpenSSL

pip install certifi

2.1要是以上这些已安装还是继续报错,则在网页请求代码中加上这个 verify=False 就可以解决报错,代码可运行。

requests.get('https://www.cnblogs.com/', verify=False)

运行成功:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/478739
推荐阅读
相关标签
  

闽ICP备14008679号