当前位置:   article > 正文

Python爬虫-解析-bs4_python soup.find

python soup.find

BeautifulSoup

什么是BeatifulSoup?

BeautifulSoup,和lxml一样,是一个html的解析器,主要功能也是解析和提取数据

优缺点?

缺点:效率没有lxml的效率高
优点:接口设计人性化,使用方便

bs4也和xpath一样,可以解析本地文件也可以解析服务器响应文件。

服务器响应的文件生成对象
soup = BeautifulSoup(response.read().decode(‘utf-8’), ‘lxml’)
本地文件生成对象
soup = BeautifulSoup(open(‘1.html’), ‘lxml’)
注意:默认打开文件的编码格式gbk所以需要指定打开编码格式

根据标签名查找节点

# 找到的是第一个符合条件的数据
print(soup.a)
# 获取标签的属性和属性值
print(soup.a.attrs)
  • 1
  • 2
  • 3
  • 4

bs4的一些函数

(1)find
返回的是第一个符合条件的数据
print(soup.find('a'))

根据title的值来找到对应的标签对象
print(soup.find('a',title="a2"))

根据class的值来找到对应的标签对象  注意的是class需要添加下划线
print(soup.find('a',class_="a1"))


(2)find_all  返回的是一个列表 并且返回了所有的a标签
print(soup.find_all('a'))

如果想获取的是多个标签的数据 那么需要在find_all的参数中添加的是列表的数据
print(soup.find_all(['a','span']))

limit的作用是查找前几个数据
print(soup.find_all('li',limit=2))


(3)select(推荐)
select方法返回的是一个列表  并且会返回多个数据
print(soup.select('a'))

可以通过.代表class  我们把这种操作叫做类选择器
print(soup.select('.a1'))

print(soup.select('#l1'))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

属性选择器—通过属性来寻找对应的标签

查找到li标签中有id的标签
print(soup.select('li[id]'))

查找到li标签中id为l2的标签
print(soup.select('li[id="l2"]'))
  • 1
  • 2
  • 3
  • 4
  • 5

层级选择器

后代选择器
找到的是div下面的li
print(soup.select('div li'))

子代选择器
 某标签的第一级子标签
注意:很多的计算机编程语言中 如果不加空格不会输出内容  但是在bs4中 不会报错 会显示内容
print(soup.select('div > ul > li'))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

找到a标签和li标签的所有的对象

print(soup.select('a,li'))
  • 1

节点信息获取节点内容

obj = soup.select('#d1')[0]
如果标签对象中 只有内容 那么string和get_text()都可以使用
如果标签对象中 除了内容还有标签 那么string就获取不到数据 而get_text()是可以获取数据
我们一般情况下  推荐使用get_text()
print(obj.string)
print(obj.get_text())
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

节点的属性

obj = soup.select('#p1')[0]
name是标签的名字
print(obj.name)
将属性值左右一个字典返回
print(obj.attrs)
  • 1
  • 2
  • 3
  • 4
  • 5

获取节点的属性

obj = soup.select('#p1')[0]

print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])
  • 1
  • 2
  • 3
  • 4
  • 5

星巴克案例

由于xpath的插件相对方便,所以先用xpath语法,再转换成bs4语法。

import urllib.request
from bs4 import BeautifulSoup

url='https://www.starbucks.com.cn/menu/'

response=urllib.request.urlopen(url)

content=response.read().decode('utf-8')

soup=BeautifulSoup(content,'lxml')

#//ul[@class="grid padded-3 product"]//strong/text()
name_list=soup.select('ul[class="grid padded-3 product"] strong')

for i in name_list:
    print(i.string)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

注意用select选择器这里不能写('.grid padded-3 product strong')

  1. 这里报错的原因是: class=“grid padded-3 product”
  2. 这里 class 表示的不是单个类名,而是有3个类名
  3. 空格在选择器中,属于后代选择器,而3个类并不存在层级关系
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/1005457
推荐阅读
相关标签
  

闽ICP备14008679号