赞
踩
这篇文章主要介绍了利用python爬取简单网页数据步骤,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获,下面让小编带着大家一起了解一下。
在着手写爬虫抓取网页之前,要先把其需要的知识线路理清楚。
下面就按这个路线逐一讲讲各部分的内容;
一、Http协议
HTTP协议是一个应用层面向对象协议,也叫超文本传输协议学python好还是学c++好。
是基于TCP协议的可靠传输,采用客户端/服务器端模式,指定了客户端可能发送给服务器什么样的消息,以及服务端给出什么样的响应。
1)HTTP协议组成
HTTP协议请求由状态行、请求头和请求正文三部分组成;
请求端的HTTP报文叫做请求报文,响应端的叫做响应报文,通常,并不一定要有报文主体。
2)HTTP 请求方法
HTTP1.0 定义了三种请求方法: GET, POST 和 HEAD方法。
HTTP1.1 新增了六种请求方法:OPTIONS、PUT、PATCH、DELETE、TRACE 和 CONNECT 方法。
以上是HTTP所有的方法,但常见的方法有以下:
3)HTTP的请求响应模型
HTTP协议永远都是客户端发起请求,服务器回送响应。
这样就限制了使用HTTP协议,无法实现在客户端没有发起请求的时候,服务器将消息推送给客户端。
注意:HTTP协议是一个无状态的协议,同一个客户端的这次请求和上次请求是没有对应关系。
4)HTTP的状态码
Http状态码能告诉我们当前请求响应的状态,通过状态码判断和分析服务器的运行状态,以便更好的进行下一步的操作。
5)工作流程
一次HTTP操作称为一个事务,其工作过程可分为四步:
如果在以上过程中的某一步出现错误,那么产生错误的信息将返回到客户端,有显示屏输出。
这些过程由HTTP自己完成,我们等待信息显示就可以了。
二、Urllib、Requests库
这两个库都建议新手能够熟练掌握,在Python爬虫中使用频率非常高。
下方也有分享安装教程资源,有需要的点击进群找群管理获取即可↓↓
<Python学习交流群 安装教程资源获取>
Urllib库
Urllib是Python中请求url连接的官方标准库,在Python2中主要为urllib和urllib2,在Python3中整合成了urllib。
1)主要包含以下4个模块
2)urllib.request.urlopen()
模块定义了有助于在复杂环境中打开URL(主要是HTTP)的函数和类-基本身份验证和摘要身份验证,重构定向,Cookie等。
语法结构
urllib.request.urlopen(url,data = None,[ timeout,] *,cafile = None,capath = None,cadefault = False,context = None)
语法详解
3)urllib.openurl:返回对象的方法
- # 设置一个url对象
- url = "百度一下,你就知道"
- #发送请求,打开url
- up = urllib.request.urlopen(url)
- print(type(up))
-
- #返回对象
- >>> <class 'http.client.HTTPResponse'>
上面我们可以看出返回的对象是HTTPResponse类型的,下面一起来看一下HTTPResponse类的方法
发送GET请求:
- from urllib import request
- response = request.urlopen('百度一下,你就知道')
- print(response.read().decode())
发送post请求:
- from urllib import reuqest
- response = request.urlopen('Method Not Allowed', data=b'word=hello')
- print(response.read().decode()) #decode()解码
我们已经知道在讲urlopen中传入一个网址的时候他就会主动的去访问目标的网址,会返回一个HTTPResponse类型的对象,那么我们是怎么知道我们发送的get请求和post请求呢?
- def get_method(self):
- """Return a string indicating the HTTP request method."""
- default_method = "POST" if self.data is not None else "GET"
- return getattr(self, 'method', default_method)
这个是源码中的一个方法,根据代码我们得知如果data是不为空的话,就是post请求,否则就是get请求。
4)urllib.request.Request
上面的urllib是可对网页发起请求,在我们实际的爬虫应用中,如果频繁的访问一个网页,网站就会识别我们是不是爬虫,这个时候我们就要利用Request来伪装我们的请求头。
urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None)
推荐使用request()来进行访问的,因为使用request()来进行访问有两点好处:
如果只进行基本的爬虫网页抓取,那么urllib足够用了。
Requests库
requests库是一个常用于http请求的模块,可以方便的对网页进行爬取,是学习python爬虫比较好的http请求模块,比urllib库更加简洁,并且自带json解析器。
掌握了它,Cookies、登录验证、代理设置等操作都不是事儿。
1)request提供的方法
get(url,params,**kwargs)
post(url, data=None, json=None, **kwargs):
request(method, url, **kwargs):
2)控制访问的参数
通过上面方法返回的是一个Response对象,该对象有以下这些属性和方法:
requests的优势在于使用简单,相同一个功能,用requests实现起来代码量要少很多。
戳这里可获取相关的Python基础学习资料哦↓↓↓
下面的所有资料我全部打包好了并且上传至CSDN官方,需要的点击
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。