当前位置:   article > 正文

Python入门01:如何在 Chrome 浏览器轻松抓包_chrome抓包工具

chrome抓包工具

python入门01:教你在 Chrome 浏览器轻松抓包

通过上一节我们知道了什么是爬虫,也知道了爬虫的具体流程

那么在我们要对某个网站进行爬取的时候,要对其数据进行分析

就要知道应该 怎么请求,就要知道 获取的数据是什么样的

所以我们要学会怎么抓咪咪!

图片

哦,不对。我们要学会怎么 数据抓包

虽然小馒头也是包的一种 ok…anyway… 打开我们的 Chrome 浏览器

在这里 小帅b 提醒大家一句 尽量不要用国产浏览器

很多是有后门

图片

所以 Chrome 是首选!

ok,打开 Chrome 浏览器之后呢,我们随便输入一个网址吧

比如 www.pornhub.com

图片

营养跟不上?那就… 输入一个人人都能上的网站 www.baidu.com

用力回车

一个熟悉的页面显示在你的面前

在这里插入图片描述

这个时候,你按下 F12 你可以看到弹出一个有点装逼的窗口

在这里插入图片描述

这个玩意,正是我们想要的

可以看到,Element 标签下对应的 HTML 代码

其实就是这个网页的代码,我们可以在这里除了看看它的代码之外

我们还可以修改一些东西,比如我把这个按钮改成小帅b

在这里插入图片描述

按下回车

在这里插入图片描述

是不是瞬间逼格满满

哦,不好意思,今天不是要说怎么装逼的

在这里插入图片描述

我们点击 Network 这个标签,然后刷新一下,可以看到有很多的请求

图片

HTTP 的请求方式有好几种

GET, POST, PUT, DELETE, HEAD, OPTIONS, TRACE

不过最常见的就是 GET 和 POST 请求

咱们就一一说道说道,接下来就是

学习 python 的正确姿势

图片

我们直接搜索「苍老师」然后我们就可以发现,有好多请求

图片

这些都是 GET 请求,我们随便点击一个请求进去

图片

可以看到我们的请求URL

https://www.baidu.com/s?wd=%E8%8B%8D%E8%80%81%E5%B8%88&rsv_spt=1&rsv_iqid=0xad707ee600011b25&issp=1&f=8&rsv_bp=1&rsv_idx=2&ie=utf-8&rqlang=cn&tn=baiduhome_pg&rsv_enter=0&oq=%25E8%258B%258D%25E8%2580%2581%25E5%25B8%2588&rsv_t=5d8eqNDy4ZpyUOz7ByzyIMYfH5Jc7861dr4CFQaY3WCiDnOpBLob6Eouk23%2F3L%2BTD46O&rsv_sug3=15&rsv_pq=996e776f0000df06&rsv_sug4=19123

在 ?后面的这些 ** 玩意儿,就是 GET 请求的参数

这些参数以「键值对」的形式实现

比如这里的,wd=%E8%8B%8D%E8%80%81%E5%B8%88

就是告诉百度,我们要查询的是苍老师相关的内容,这种方式的请求方式是最简单的

所以以后我们在 Python 写 GET 请求的时候,直接在 URL 后面加个 ?然后添加参数值就好了

比如,我要百度搜索波多野结衣,那么就是 https://www.baidu.com/s?wd=波多野结衣

不信你直接在浏览器这样搜,是一毛一样的

那么,啥是 POST 请求呢?

我们在做一些信息提交的时候

比如注册,登录

这时候我们做的就是 POST 请求,POST 的参数不会直接放在 URL 上

会以 Form 表单的形式将数据提交给服务器,我们来登录一下百度

图片

当我们点击登录的时候,就开始将我们的账号密码请求给百度服务器,可以看到我们请求了 login 这个接口,请求方法就是 POST

图片

而我们的请求参数是以 Form 表单的方式提交的

图片

拉到下面就可以看到,username 就是 xiaoshuaib

而密码,就是被加密了的,这些都是 POST 参数

可以发现,GET请求把请求参数都暴露在URL上

而POST请求的参数放在request body 里面,POST请求方式还对密码参数加了密

这样就相对安全一些

ok

你已经了解请求方式了

接下来说说请求头

图片

当然说的不是上面这个 gou 头哈

我们刚刚在访问百度的时候,可以看到这个玩意

图片

这个就是请求头 Request Header

我们在做 HTTP 请求的时候,除了提交一些参数之外

我们还有定义一些 HTTP 请求的头部信息,比如 Accept、Host、cookie、User-Agent等等

这些参数也是我们在做爬虫要用到,通过这些信息,欺骗服务器,告诉它我们是正规请求

比如

我们可以在代码里面设置 cookie 告诉服务器我们就是在这个浏览器请求的会话

User-Agent 告诉服务器我们是浏览器请求的

图片

说完我们这边的请求了,接着我们再说说服务器的响应

你一定遇到过 404 页面吧,或者服务器错误返回个 502 吧

图片

这些 404 啊,200啊,301啊,502啊,都是服务器的响应码

一般服务器给我们返回 200,那就说明,我们成功请求了!!

图片

图片

再来说说响应头

图片

当我们请求成功之后,服务器会给我们返回响应码之外

还有响应头,这个头主要是告诉我们数据以什么样的形式展现

告诉我们cookie的设置,还有一个,就是响应体

说白了,就是服务器返回给我们的数据,我们点击 Response 就可以看到相关的数据了

图片

看,这些就是服务器返回给我们的 HTML 源代码

对于不同的请求,我们获取到的数据是不一样的,除了 HTML的,也有 JSON 的,图片二进制数据等等

可以针对不同的情况,用不同的手段来解析这些数据

说到这里,想必你已经会在 Chrome 抓包

所谓抓包,就是我们摸清了浏览器里面的套路

知道它是怎么搞的,那么通过我们的请求,GET 请求也好,POST 请求也罢

只要知道请求方式,只要知道请求参数,只要知道请求头定义,只要知道怎么拿到返回的数据

这… 对我们来说

爬虫还难么?

图片

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/393992
推荐阅读
相关标签
  

闽ICP备14008679号