当前位置:   article > 正文

【Python网络爬虫】获取cookie的方法_python获取cookie

python获取cookie


原文作者:我辈理想
版权声明:文章原创,转载时请务必加上原文超链接、作者信息和本声明。

一、手动获取

  1. 1.通过浏览器打开网站
  2. 2.网页右键检查或F12
  3. 3.右上找到网络或network
  4. 4.在xhr下,重新刷新网页
  5. 5.左键名称下的链接,右侧弹出中headers(标头)中存在cookie

二、requsets获取

  1. import requests
  2. def fun_1():
  3. """方式一:CookieJar"""
  4. # province省份,creditcode统一社会信用代码,company市场主体(企业名字),cpmc地理标志(特产),
  5. url_search = 'https://dlbzsl.hizhuanli.cn:8888/Logo/Result?cpmc=' + '五常大米' + '&company=&creditcode='
  6. res = requests.get(url_search)
  7. cookiejar = res.cookies
  8. cookies = requests.utils.dict_from_cookiejar(cookiejar)
  9. print(cookiejar)
  10. print(cookies)

三、Session获取

  1. import requests
  2. def fun_2():
  3. """方式二:Session"""
  4. session = requests.Session()
  5. # province省份,creditcode统一社会信用代码,company市场主体(企业名字),cpmc地理标志(特产),
  6. url_search = 'https://dlbzsl.hizhuanli.cn:8888/Logo/Result?cpmc=' + '五常大米' + '&company=&creditcode='
  7. cookies = session.get(url_search).cookies.get_dict()
  8. print(cookies)

四、selenium获取

  1. from selenium import webdriver
  2. def fun_3():
  3. # province省份,creditcode统一社会信用代码,company市场主体(企业名字),cpmc地理标志(特产),
  4. url_search = 'https://dlbzsl.hizhuanli.cn:8888/Logo/Result?cpmc=' + '五常大米' + '&company=&creditcode='
  5. # 无头浏览
  6. option = webdriver.ChromeOptions()
  7. option.add_argument("headless")
  8. chrome_path = r'C:\Users\lenovo\PycharmProjects\爬虫示例代码\获取cookie\chromedriver.exe'
  9. browser = webdriver.Chrome(options=option)
  10. browser.get(url_search)
  11. # 延迟10
  12. time.sleep(10)
  13. cookies = browser.get_cookies()
  14. print(cookies)
  15. print('ASP.NET_SessionId的值:', cookies[0].get('value'))
  16. # 关闭浏览器
  17. browser.close()

五、其他示例代码

  1. import requests
  2. url = 'https://www.processon.com/login'
  3. login_email = '283867@qq.com'
  4. login_password = 'ZZZ0'
  5. # 创建一个session,作用会自动保存cookie
  6. session = requests.session()
  7. data = {
  8. 'login_email': login_email,
  9. 'login_password': login_password
  10. }
  11. # 使用session发起post请求来获取登录后的cookie,cookie已经存在session中
  12. response = session.post(url = url,data=data)
  13. # 用session给个人主页发送请求,因为session中已经有cookie了
  14. index_url = 'https://www.processon.com/diagrams'
  15. index_page = session.get(url=index_url).text
  16. print(index_page)

参考链接:

爬虫——cookie模拟登陆

爬虫之模拟登录、自动获取cookie值、验证码识别_小狐狸梦想去童话镇的博客-CSDN博客_go爬虫自动识别验证码登陆

爬虫中获取cookie的方式 - 程序员一学徒 - 博客园 (cnblogs.com)

利用requests库获取cookie的两种方式_龙王.*?的博客-CSDN博客_requests查看cookie

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/384383
推荐阅读
相关标签
  

闽ICP备14008679号