当前位置:   article > 正文

python爬虫基础测试_python爬虫系统测试怎么写

python爬虫系统测试怎么写

1requests基本使用

主要有get/post/put三种方式,返回的是响应对象(response object):
res = resquests.get/post/put(url,params,data,...)
对于每种方式(method),其可传递的参数包括以下 额 好多种:

参数说明煮个小栗子
url待获取页面的url链接requests.get("http://tieba.baidu.com")
params将字典或字节序列作为参数添加到url中kw={"kw":"李毅"}
requests.get(url,params=kw)
# 得到的res为“http://tieba.baidu.com/f?kw=李毅”
data字典,字节序列或文件对象,作为res的内容待补充
headers字典,HTTP定制头header = {"User-Agent":"Mozilla/5.0"}
resq.get(url,headers=header)
timeout设定超时时间,单位为秒
proxies字典类型,设定访问代理服务器proxie={"http:":"http://12.34.56.79:9527"}
resq.get(url,proxies=proxie)
verify认证SSL证书开关,默认为False 
jsonJSON格式的数据,作为resquests的内容 
auth元祖,支持HTTP认证功能 

1.1 基本get请求

  1. # ===============1、基本GET请求---百度搜索页=====================
  2. kw = {'wd':'花梨'}
  3. res_1 = requests.get('https://www.baidu.com/',params=kw,headers=headers)
  4. # 网页内容乱码,默认编码是ISO-8859-1,修改
  5. res_1.encoding = 'utf-8'
  6. # 查看返回对象类型和内容---response对象
  7. print(type(res_1)) # <class 'requests.models.Response'>
  8. print(res_1.text) # 返回的是Unicode格式的str数据
  9. print(res_1.content) # 返回的是二进制字节流(bytes)数据
  10. #查看完整url地址,,响应头部字符编码 和响应码
  11. print(res_1.url) # https://www.baidu.com/
  12. print(res_1.encoding) # utf-8
  13. print(res_1.status_code) # 200

1.2 基本POST请求

对于POST请求,一般需要增加一些参数,最基本的利用data参数

  1. # =======2、基本post请求,有道词典翻译==============
  2. formdata = {
  3. "type":"AUTO",
  4. "i":"i love python",
  5. "doctype":"json",
  6. "keyfrom":"fanyi.web",
  7. "ue":"utf-8",
  8. "action":"FY_BY_ENTER",
  9. "typeResult":"true"
  10. }
  11. url_2 = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"
  12. res_2 = requests.post(url_2,data=formdata,headers=headers)
  13. print(res_2.text)
  14. print(res_2.json()) # json文件可以直接显示

1.3 与urllib urllib2的区别

  • (1)输入kw等参数时
    在requests中,params可以接收字典类型的参数
  1. kw={"kw":"李毅"}
  2. requests.get(url,params=kw) # 此时requests自动将kw自动转为url形式

但是在urllib中:

  1. kw={"kw":"李毅"}
  2. kw = urllib.urlencode(kw) #将字典形式转换为url编码格式(字符串)
  3. newurl = url +"?"+ kw
  • (2)返回html内容时
    在得到response对象后,res可以以两种形式返回网页内容
  1. html = res.text # 返回的是str格式的文本内容
  2. html = res.content # 返回的是bytes格式的二进制字节流,可以用来存储图片等内容

而在urllib中,

  1. res = urllib.request.urlopen(url) # response对象
  2. html = res.read()
  3. print(type(html)) # <class 'bytes'>
  4. print(html) # bytes格式
  5. html = html.decode() # 将bytes格式转为str
  6. print(html) # str格式

2 XPath解析html页面

2.0 前提知识

关于DOM、HTML、XML的简单概念和关系参考我写的另一篇杂文DOM 及 HTML和XML

2.1 基本流程

 

13379455-33039db537147927.png

从url到content.png

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/黑客灵魂/article/detail/1004882
推荐阅读
相关标签
  

闽ICP备14008679号