当前位置:   article > 正文

Python爬虫之旅_(数据解析)_bs4_爬虫用bs410不一样的提取url

爬虫用bs410不一样的提取url

前言:

这次来学习数据解析这方面的知识!

0x00:了解数据解析

在ONE那一篇中,就提到过聚焦爬虫(爬取页面中指定内容),大部分的爬虫都是聚焦爬虫,但我们刚开始爬取的肯定都是整个页面的数据,如何定位到我们想要的那一部分数据,就用到了数据解析

数据解析主要通过以下三种进行:
加粗样式

—— 正则表达式
—— BeautifulSoup
—— xpath
  • 1
  • 2
  • 3

数据解析原理:

—— 解析的局部的文本内容都会在标签之间或者标签对应的属性中进行存储
一 1.进行指定标签的定位
二 2.标签或者标签对应的属性中存储的数据值进行提取(解析) 
  • 1
  • 2
  • 3

先练习一下爬取图片

爬取图片

#爬取图片
import requests
if __name__ == "__main__":
    url = 'http://gaoxiao.jokeji.cn/UpFilesnew/2011/8/20/201182002041961.jpg'
    #content返回的是二进制形式的图片数据
    img_data = requests.get(url=url).content
    #text(字符串) content(二进制数据) json(对象)
    with open('imag.jpg','wb') as fp:
        fp.write(img_data)
    print('Over')
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

爬取成功:
在这里插入图片描述

0x01:使用bs4进行解析

bs4数据解析的原理:
—— 1.实例化一个BeautifulSoup对象,并且将页面源码数据加载到该对象中
—— 2.通过调用BeautifulSoup对象中相关的属性或者方法进行标签定位和数据提取
  • 1
  • 2
  • 3
如何实例化BeautifulSoup对象:
—— from bs4 import BeautifulSoup
—— 对象的实例化:
	—— 1.将本地的html文档中的数据加载到该对象中
		fp = open('sogou.html','r',encoding='utf-8')
    	soup = BeautifulSoup(fp,'lxml')
	—— 2.将互联网上获取的网页源码加载到该对象中
		page_text = response.text
		soup = BeautifulSoup(page_text,'lxml')


—— 提供用于数据解析的方法和属性:
	soup.tagName:返回的是文档中第一次出现的tagName对应的标签(单数,只能返回一个)
	soup.find('tagName'):等同于soup.tagName(单数)
	—— 属性定位:
		——soup.find('div',class_/(还可以是其他的属性)='bg-gj-w')
		#下划线是为了区分关键字
		——soup.find_all('a')(多个数)
		#返回要求的所有标签(列表)


—— select:
	——soup.select('.dingpai > li > a')
	# >表示的是一个层级
	——soup.select('.dingpai a')
	#空格表示的是多个层级
	#层级选择器

——获取标签之间的文本数据:
	——soup.a.text/string/get_text()
	——区别:
		text/get_text():可以获取某一个标签中所有的文本内容
		string:只可以获取该标签下面直系的文本内容
——获取标签中属性值:
	—— soup.a['href']

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36

测试文档:

<div class="dingpai">
<li>
<a id="ding79" href="javascript:ding('79','http://so.gushiwen.org/shiwenv.aspx?id=8dd719a833f0')">有用</a>
<a id="pai79" style=" margin-left:10px;" href="javascript:pai('79','http://so.gushiwen.org/shiwenv.aspx?id=8dd719a833f0')">没用</a>
<a style="width:34px; height:18px; line-height:19px; margin-top:2px; float:right; color:#aeaeae;" href="/jiucuo.aspx?u=%e7%bf%bb%e8%af%9179%e3%80%8a%e8%af%91%e6%96%87%e5%8f%8a%e6%b3%a8%e9%87%8a%e3%80%8b" target="_blank">完善</a>
</li>
</div>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

练习代码:

from bs4 import BeautifulSoup
if __name__ == "__main__":
    #将本地的html文档的数据加载到该对象中
    fp = open('test.html','r',encoding='utf-8')
    soup = BeautifulSoup(fp,'lxml')
    # print(soup.a)
    # print(soup.find('div',class_='dingpai').get_text())
    # print(soup.find_all('a'))
    # print(soup.select('.dingpai > li > a')[0])
    # print(soup.select('.dingpai a')[0])
    # print(soup.select('.dingpai a')[0].text)
    # print(soup.select('.dingpai a')[0].get_text())
    # print(soup.select('.dingpai a')[0]['href'])
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

0x02:爬取三国演义小说

练习了基本的一些操作,接下来利用这个模块爬取一下三国演义的小说:
在这里插入图片描述
要做的就是将 标题标题对应的内容爬取保存到本地

一开始还是先要爬取整个页面的数据(通用爬虫):

import requests
from bs4 import BeautifulSoup

if __name__ == '__main__':
    #URL
    url = 'http://shicimingju.com/book/sanguoyanyi.html'
    #UA伪装
    headers = {
        'User-Agent' : 'user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36'
    }
    #获取页面数据
    content = requests.post(url=url,headers=headers).text
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

爬取整个页面数据之后再来看,标题和对应的URL在那个标签中
在这里插入图片描述

div -> ul -> a
  • 1

既然知道了层级关系,就行先来解析出标题:

import requests
from bs4 import BeautifulSoup

if __name__ == '__main__':
    #URL
    url = 'http://shicimingju.com/book/sanguoyanyi.html'
    #UA伪装
    headers = {
        'User-Agent' : 'user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36'
    }
    #获取页面数据
    content = requests.post(url=url,headers=headers).text
    #实例化对象
    soup = BeautifulSoup(content,'lxml')
    # print(soup)
    #解析文章标题和标题对应的url
    li_list = soup.select('.book-mulu > ul > li')
    for li in li_list:
        title = li.a.string
        #拼接成完整的url
        title_url = 'http://shicimingju.com'+li.a['href']
         print(title)
         print(title_url)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

运行结果:
在这里插入图片描述
接下来观察详情页的标签
在这里插入图片描述
发现内容全部在p标签下,那我们是不是提取出所有p标签再进行处理一下就可以了

每一个章节爬取的url在这里就要用的了,在每个章节详情页再重新实例化一个对象,使用循环即可爬出所有章节内容

import requests
from bs4 import BeautifulSoup

if __name__ == '__main__':
    #URL
    url = 'http://shicimingju.com/book/sanguoyanyi.html'
    #UA伪装
    headers = {
        'User-Agent' : 'user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36'
    }
    #获取页面数据
    content = requests.post(url=url,headers=headers).text
    #实例化对象
    soup = BeautifulSoup(content,'lxml')
    # print(soup)
    #解析文章标题和标题对应的url
    li_list = soup.select('.book-mulu > ul > li')
    fp = open('sanguo.txt','w',encoding='utf-8')
    for li in li_list:
        title = li.a.string
        title_url = 'http://shicimingju.com'+li.a['href']
        # print(title)
        # print(title_url)
        #对详情页发起请求,解析内容
        details_text = requests.get(url=title_url,headers=headers).text
        #解析内容
        detail_soup = BeautifulSoup(details_text,'lxml')
        detail_text = detail_soup.find('div',class_='chapter_content')
        contents = detail_text.text
        fp.write(title +':'+ contents+ '\n')
        print(title+':爬取成功')
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31

在这里插入图片描述
爬取成功!

总结:

哇 这爬虫真的越学习越有意思,下次学习数据解析中的xpath

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/545315
推荐阅读
相关标签
  

闽ICP备14008679号