赞
踩
爬虫测试时间:2020年7月29日
爬虫目标网站:百度翻译(https://fanyi.baidu.com/?aldtype=16047#auto/zh)
键入要翻译的关键字后,页面局部刷新(依旧使用的是 AJAX)
1、数据抓包,进入XHR页面获取AJAX实际的请求地址及相关参数
2、看几个响应,分析请求的规律
找到k是china的那个请求,可以看到 请求url、请求方式 和 返回的数据类型 都有了
继续往下看,post传出的是什么样的数据。最下方可以看到传出数据的形式为 key —> kw, value —> china
3、编写个代码测试一下(此步可跳过,下面代码为不完全版本,只是为了引导思路)
import requests from bs4 import BeautifulSoup import os baseurl = 'https://fanyi.baidu.com/sug' ua = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)' \ ' AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36' para = { 'query': 'python' } data = { 'kw': 'dog' } res = requests.post(baseurl, headers={'User-Agent': ua}, data=data) saveDir = './爬虫数据存储/百度翻译' saveData = '百度翻译' extName = 'json' if res.status_code == 200: print(res.text) if not os.path.exists(saveDir): os.mkdir(saveDir) with open(os.path.join(saveDir, saveData + '.' + extName), 'w', encoding='utf-8') as f: f.write(res.text)
可以看到返回的数据如下:
上图中的 v 都是 \uxxx的形式,使用urllib解析字符,可以看到返回的结果就是翻译的结果
4、一个一个的解析这些字符也很麻烦,此处既然返回的直接试json数据,则调用 requests.json() 直接将响应的json字符串 读入为 python 字典,可以看到结果数据已经成功被解析了
5、整体代码如下:
import requests from bs4 import BeautifulSoup import os import json baseurl = 'https://fanyi.baidu.com/sug' ua = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)' \ ' AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36' para = { 'query': 'python' } data = { 'kw': 'dog' } res = requests.post(baseurl, headers={'User-Agent': ua}, data=data) saveDir = './爬虫数据存储/百度翻译' saveData = '百度翻译' extName = 'json' if res.status_code == 200: print(res.text) if not os.path.exists(saveDir): os.mkdir(saveDir) with open(os.path.join(saveDir, saveData + '.' + extName), 'w', encoding='utf-8') as f: # 注意此处使用json.dumps() 一定要把属性 ensure_ascii 设置为 False,否则中文无法正常解码 f.write(json.dumps(res.json(), ensure_ascii=False))
6、将上述代码按需封装,在辅以gui则可实现“自己的”翻译器了
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。