赞
踩
———————本文仅用于技术交流,支持正版—————————
爬虫学到了一丢丢,就开始了实战之旅,第一次实战,来点简单的,我们来爬一本小说。
网上随便找了本小说,按下我们最热爱的F12
,打开开发者工具,按下图所示操作。
点击开发者工具左上角的小箭头,鼠标指向章节链接的位置,不要点击!开发者工具就会自动显示这一部分所对应的源代码,我们能发现每个章节的链接都是在a标签。我们就可以用正则表达式将每个章节的链接都找出来。
而每一章节的内容是这样的:
我们再查看网页的源代码,如下图:
发现不仅有我们所需要的小说内容,还有一些无用的script。之后还需要处理。
我们以这个章节目录为例,打开开发者工具,点击Network
,会出现如图所示界面,若没有,刷新一下即可。然后点击3392/,而我们所需要的在Request Headers
里。将该目录下的信息提取,存放到字典中,其中最重要的是User-Agent
,仅将其存放到我们的headers字典中也行,其代表了我们的身份信息,浏览器的User-Agent
一般都有Mozilla/5.0
。
headers = {
"user-agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36"
}
import requests, re, os, time, random
from bs4 import BeautifulSoup
url = "https://www.boquge.com/book/3392/"
headers = {
"user-agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36"
}
try:
r = requests.get(url, headers=headers)
#get请求的状态,get失败会报错
r.raise_for_status()
#修改get到的编码
r.encoding = r.apparent_encoding
except:
print("爬取失败"
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。