当前位置:   article > 正文

爬虫(二)解析数据_爬虫数据解析

爬虫数据解析

爬虫将数据爬取到后,并不是全部的数据都能用,我们只需要截取里面的一些数据来用,这也就是解析爬取到的信息,在解析方面,我们常用的手段有三个,Xpath,jsonpath以及BeautifulSoup,接下来我将对其分别进行介绍。

1. Xpath

Chrome有Xpath的插件,可以在应用商店里面下载一个,而Python中使用Xpath解析的话需要安装 lxml 库。

lxml 库的方法很多,这么只讲一些涉及到爬虫解析的方法,即主要使用的是 lxml 中的 etree 。Xpath的主要使用语句如下:

语句含义
//查找所有子孙结点,忽略层级
/只查找子结点
@选取属性
..选取当前节点的父节点
*通配符
[]选取子元素,如 [1] 表示选取第一个元素
div[@id]查找有 id 属性的 div 标签
div[@id="name"]查找 id="name" 属性的 div 标签
div[contains(@id, "name")]查找 id 中包含 namediv 标签
div[starts-with(@id, "name")]查找 id 中以 name 开头的 div 标签
div[@id="name" and @class="name1"]逻辑与查询
div[@id="name"] | div[@class="name1"]逻辑或操作,逻辑或不能写成 div[@id="name" | @class="name1"]

我们查询的HTML 代码如下所示:

<!DOCTYPE html>
<html lang="en" >

<head>
 <meta charset="UTF-8"/>

 <title></title>

</head>
<body>
    <div class="wrapper">
        <a href="www.biancheng.net/product/" id="site">website product</a>
        <ul id="sitename">
        <li><a href="http://www.biancheng.net/" title="编程帮" id="1">编程</a></li>
        <li><a href="http://world.sina.com/" title="编程帮" id="2">微博</a></li>
        <li><a href="http://www.baidu.com" title="百度">百度贴吧</a></li>
        <li><a href="http://www.taobao.com" title="淘宝">天猫淘宝</a></li>
        <li><a href="http://www.jd.com/" title="京东">京东购物</a></li>
        <li><a href="http://c.bianchneg.net/" title="C语言中文网">编程</a></li>
        <li><a href="http://www.360.com" title="360科技">安全卫士</a></li>
        <li><a href="http://www.bytesjump.com/" title="字节">视频娱乐</a></li>
        <li><a href="http://bzhan.com/" title="b站">年轻娱乐</a></li>
        <li><a href="http://hao123.com/" title="浏览器Chrome">搜索引擎</a></li>
        </ul>
    </div>
</body>
</html>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

下面是我们的代码查询示例:

from lxml import etree

tree = etree.parse('test.html')

# 找到ul下所有的a标签的文本内容
find1 = tree.xpath('//ul//a/text()')
print('find1 = {}'.format(find1))

# 找到ul下所有的a标签中title="编程帮"的标签内容
find2 = tree.xpath('//a[@title="编程帮"]/text()')
print('find2 = {}'.format(find2))

# 找到ul下所有的a标签中title="编程帮"且id="1"的标签内容
find3 = tree.xpath('//a[@id="1" and @title="编程帮"]/text()')
print('find3 = {}'.format(find3))

# 找到ul下所有的a标签中title="淘宝"或id="1"的标签内容
find4 = tree.xpath('//a[@id="1"]/text() | //a[@title="淘宝"]/text()')
print('find4 = {}'.format(find4))

# 找到ul下所有的a标签中title包含"C"的标签内容
find5 = tree.xpath('//a[contains(@title, "C")]/text()')
print('find5 = {}'.format(find5))

# 找到ul下所有的a标签的以"C"开头的title的标签内容
find6 = tree.xpath('//a[starts-with(@title, "C")]/text()')
print('find6 = {}'.format(find6))

# 找到ul下所有的a标签中title="淘宝"或id="1"的标签的爷爷结点的id
find7 = tree.xpath('//a[starts-with(@title, "C")]/../../@id')
print('find7 = {}'.format(find7))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31

输出如下:

find1 = [‘编程’, ‘微博’, ‘百度贴吧’, ‘天猫淘宝’, ‘京东购物’, ‘编程’, ‘安全卫士’, ‘视频娱乐’, ‘年轻娱乐’, ‘搜索引擎’]
find2 = [‘编程’, ‘微博’]
find3 = [‘编程’]
find4 = [‘编程’, ‘天猫淘宝’]
find5 = [‘编程’, ‘搜索引擎’]
find6 = [‘编程’]
find7 = [‘sitename’]

接下来我们讲讲最开始安装的Xpath的插件有什么作用。在这里我们以百度首页为例,按下 Ctrl+Shift+x ,并按下F12唤出开发者工具,页面如下。
在这里插入图片描述

上面的黑框就是插件所起的效果,比如说我们获取上图的 点击一下,了解更多 字样,那我们就可以在黑框中输入我们的Xpath查询语句,黑框右边就会出现语句查询得到的结果,非常实用。
在这里插入图片描述
当然,如果你不想这样看得眼花缭乱的去写Xpath也行,只需要在F12开发者模式下右击你想要查询的元素,选择复制Xpath即可,如下图所示,实际上,我们一般选择的是这种方法,虽然有的时候复制的并不是最简的Xpath语法,但是这确实有效。
在这里插入图片描述

2. jsonpath

jsonpath使用前必须安装jsonpath的包,jsonpath 是参照xpath表达式来解析xml文档的方式,jsonpath的入门可以参考这篇文章,在这里,我将主要的点进行一下说明。

学会了Xpath的语法,那么jsonpath的语法其实可以对照着进行学习。

Xpathjsonpath说明
/$表示根元素
.@当前元素
/. or []子元素
父元素
//递归下降,JSONPath是从E4X借鉴的。
**通配符,表示所有的元素
@属性访问字符
[][]子元素操作符
|[,]逻辑或。jsonpath允许name或者 [start:end:step] 的数组分片索引
[]?()应用过滤表示式

为了更加直观一点,我把文章的例子搞过来,大家可以对照着看。

测试数据如下:

{ "store": {
    "book": [ 
      { "category": "reference",
        "author": "Nigel Rees",
        "title": "Sayings of the Century",
        "price": 8.95
      },
      { "category": "fiction",
        "author": "Evelyn Waugh",
        "title": "Sword of Honour",
        "price": 12.99
      },
      { "category": "fiction",
        "author": "Herman Melville",
        "title": "Moby Dick",
        "isbn": "0-553-21311-3",
        "price": 8.99
      },
      { "category": "fiction",
        "author": "J. R. R. Tolkien",
        "title": "The Lord of the Rings",
        "isbn": "0-395-19395-8",
        "price": 22.99
      }
    ],
    "bicycle": {
      "color": "red",
      "price": 19.95
    }
  }
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
XPathJSONPath结果
/store/book/author$.store.book[*].author书点所有书的作者
//author$..author所有的作者
/store/*$.store.*store的所有元素。所有的bookst和bicycle
/store//price$.store..pricestore里面所有东西的price
//book[3]$..book[2]第三个书
//book[last()]$..book[(@.length-1)]最后一本书
//book[position() < 3]$..book[0,1]
$..book[:2]
前面的两本书。
//book[isbn]$..book[?(@.isbn)]过滤出所有的包含isbn的书。
//book[price<10]$..book[?(@.price<10)]过滤出价格低于10的书。
//*$..*所有元素。

3. BeautifulSoup

BeautifulSoup 库也是解析爬虫的一大利器,BeautifulSoup 库的解析速度比 Xpath 相对来说更慢一些,但是使用方法简单了不少。这里将BeautifulSoup 常用的方法例举如下:

方法含义
soup.a找到第一个 a 标签
soup.a.name找到第一个 a 标签,并输出标签名
soup.a.attrs找到第一个 a 标签,并将标签属性以字典列出
soup.a.get_text()找到第一个 a 标签,并输出其内容
soup.find('a', class_='name1')找到第一个 class='name1'a 标签
soup.find_all('a')找到全部的 a 标签,并以列表形式返回
soup.find_all(['a', 'span'])找到全部的 a 标签和 span 标签
soup.find_all('a', limit=2)找到前两个 a 标签
soup.select('a')找到全部的 a 标签,并以列表返回
soup.select('.a1')找到全部的 class='a1' 的标签
soup.select('#a1')找到全部的 id=a1 的标签
soup.select('a[class]')找到全部的拥有 class 属性的 a 标签
soup.select('a[class='name1']')找到全部的 class='name1'a 标签
soup.select('a', 'span')找到全部的 a 标签和 span 标签
soup.select('div li')找到 div 后代中的所有 li 标签
soup.select('div > li')找到 div 子代(即下面第一层级)中的所有 li 标签

我们仍以第一节中 Xpath 的HTML代码为例进行查询。

from bs4 import BeautifulSoup

# 使用lxml解析器
soup = BeautifulSoup(open("test.html", encoding='utf-8'), "lxml")

find1 = soup.a
print('find1 = {}'.format(find1.get_text()))
print('find1.name = {}'.format(find1.name))
print('find1.attrs = {}'.format(find1.attrs))

# 找到id=site 的标签
find2 = soup.select('#site')
print('find2 = {}'.format(find2))

# 找到前两个 a 标签和 li 标签
find3 = soup.find_all(['a', 'li'], limit=2)
print('find3 = {}'.format(find3))

# 找到class=th 的 a 标签
find4 = soup.select('a[class="th"]')
print('find4 = {}'.format(find4))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

4. 正则表达式

最后我们来讲一讲正则表达式。爬虫解析数据中最出名的当属正则表达式了,但是正则表达式并不是仅仅在爬虫中才有使用,很多的搜索功能或者筛选功能都支持正则表达式。聊到Python正则表达式的支持,首先肯定会想到re库,这是一个Python处理文本的标准库,下面我就来详细讲讲re库的使用。

4.1 特殊符号

正则表达式中存在这一些特殊符号,这些符号的使用能够带来不同的匹配作用,介绍如下:

模式描述
.匹配除换行符 \n 之外的任何 单字符。要匹配 . ,请使用 \. 。
*匹配前面的 子表达式 零次或多次。要匹配 * 字符,请使用 \*。
+匹配前面的 子表达式 一次或多次。要匹配 + 字符,请使用 \+。
?匹配前面的 子表达式 零次或一次,或指明一个非贪婪限定符。要匹配 ? 字符,请使用 \?。
^匹配输入字符串的开始位置,在方括号表达式中使用时,表示不接受该字符集合。要匹配 ^ 字符本身,请使用 \^。
$匹配字符串的结尾位置。如果设置了Multiline 属性,则 $ 也匹配 \n 或 \r。要匹配 $ 字符本身,请使用 \$。
\转义字符。将下一个字符标记为或特殊字符、或原义字符、或向后引用、或八进制转义符。
|关系符号“或”。指明两项之间的一个选择。要匹配 |,请使用 \|。

4.2 特殊字符

正则表达式中还存在一些以转义字符开头的特殊字符,这些符号也能表示一些匹配的规则。

模式描述
\d匹配数字:[0-9]
\D匹配非数字
\s匹配任何空白字符
\S匹配非空白字符
\w匹配字母数字及下划线
\W匹配非字母数字及下划线
\A仅匹配字符串开头,同^
\Z仅匹配字符串结尾,同$
\b匹配一个单词边界,也就是指单词和空格间的位置。例如, ‘er\b’ 可以匹配"never" 中的 ‘er’,但不能匹配 “verb” 中的 ‘er’
\B匹配非单词边界。‘er\B’ 能匹配 “verb” 中的 ‘er’,但不能匹配 “never” 中的 ‘er’

4.3 限定符

限定符用来指定正则表达式的一个给定 子字符串 必须要出现多少次才能满足匹配。

字符描述
( )标记一个 子表达式 的开始和结束位置。子表达式可以获取供以后使用。要匹配这些字符,请使用
[ ]标记一个 中括号表达式 的开始和结束位置。表示字符集合。要匹配这些字符,请使用
{ }标记 限定符表达式 的开始和结束位置。要匹配这些字符,请使用 \{ 和 \}。
{n}n 是一个非负整数。它前面的 字符 或 子字符串 匹配确定的 n 次。
{n,}n 是一个非负整数。它前面的 字符 或 子字符串 至少匹配n 次。
{,m}m 为非负整数,它前面的 字符 或 子字符串 最多匹配 m 次。
{n,m}n 和 m 均为非负整数,其中n <= m。它前面的 字符 或 子字符串 最少匹配 n 次且最多匹配 m 次。

4.3 常用函数

接下来介绍 re 库中的常用函数。

  1. match
    re.match 尝试从字符串的起始位置匹配一个模式,如果不是起始位置匹配成功的话,match() 就返回 None,只匹配一个。
    函数的使用如下:

    re.match(pattern, string, flags=0)
    
    • 1

    其中 pattern 是要匹配的正则表达式,string 是要匹配的字符串,flags 是正则表达式匹配的模式。

  2. search
    re.search 扫描整个字符串并返回第一个成功的匹配。
    函数的使用如下:

    re.search(pattern, string, flags=0)
    
    • 1

    其中 pattern 是要匹配的正则表达式,string 是要匹配的字符串,flags 是正则表达式匹配的模式。示例如下:

    import re
    
    s = 'Red里面香克斯帅爆了好吧'
    pattern = r'香克斯.'
    print('re.search结果:{}'.format(re.search(pattern, s).group()))
    print('re.match结果:{}'.format(re.match(pattern, s)))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    输出结果为

    re.search结果:香克斯帅
    re.match结果:None

  3. sub
    re.subre 模块的替换函数。
    函数的使用如下:

    re.sub(pattern, repl, string, count=0, flags=0)
    
    • 1

    其中 pattern 是要匹配的正则表达式,repl 是要替换成什么字符串,string 原始字符串,count 表示模式匹配后替换的最大次数,默认 0 表示替换所有的匹配,flags 是正则表达式匹配的模式。

  4. compile
    re.compile 函数用于编译正则表达式,生成一个正则表达式(Pattern)对象,供 match()search() 这两个函数使用。
    函数的使用如下:

    re.compile(pattern[, flags])
    
    • 1

    其中 pattern 是要匹配的正则表达式,flags 可选,是正则表达式匹配的模式。示例如下。

    import re
    
    s = 'Red里面香克斯帅爆了好吧'
    pattern = re.compile(r'香克斯.')
    m = pattern.search(s)
    print('匹配结果:{}'.format(m.group()))
    print('替换结果:{}'.format(re.sub('香克斯', '路飞', s)))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    输出结果如下:

    匹配结果:香克斯帅
    替换结果:Red里面路飞帅爆了好吧

  5. findall
    re.findall 在字符串中找到正则表达式所匹配的所有子串,并返回一个列表,如果有多个匹配模式,则返回元组列表,如果没有找到匹配的,则返回空列表。
    函数的使用如下:

    findall(string[, pos[, endpos]])
    
    • 1

    其中 string 是字符串,pos 是可选参数,表示匹配开始的位置,endpos 是可选参数,表示匹配结束的位置。

  6. split
    re.split split 方法按照能够匹配的子串将字符串分割后返回列表
    函数的使用如下:

    re.split(pattern, string[, maxsplit=0, flags=0])
    
    • 1

    其中 pattern 是匹配的正则表达式,string 是要匹配的字符串,maxsplit 分隔次数,maxsplit=1 分隔一次,默认为 0,不限制次数,flags 是匹配模式。示例如下:

    import re
    
    s = 'Red里面香克斯帅爆了好吧,香克斯牛皮'
    pattern = re.compile(r'香克斯.')
    m = pattern.findall(s)
    print('匹配结果:{}'.format(m))
    print('切分结果:{}'.format(re.split('香克斯.', s)))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

最后,对于 search() 以及 match() 函数匹配后返回的 Match 对象,都有以下的方法可以使用:

方法描述
group([group1, …])获得一个或多个分组匹配的字符串,当要获得整个匹配的子串时,可直接使用 group()group(0)
start([group])获取分组匹配的子串在整个字符串中的起始位置
end([group])获取分组匹配的子串在整个字符串中的结束位置
span([group])方法返回 (start(group), end(group))

4.4 匹配策略

正则表达式中常用的匹配策略有四种,可以在各函数的flag中进行模式指定。

  1. IGNORECASE
    可以使用 re.IGNORECASEre.I 标志。进行忽略大小写的匹配。示例如下:

    import re
    
    s = 'Red里面香克斯帅爆了好吧,香克斯牛皮'
    pattern1 = re.compile(r'r')
    pattern2 = re.compile(r'r', re.I)
    print('默认情况:{}'.format(pattern1.findall(s)))
    print('改变后为:{}'.format(pattern2.findall(s)))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    输出结果为

    默认情况:[]
    改变后为:[‘R’]

  2. ASCII
    可以使用 re.ASCIIre.A 标志。让 \w, \W, \b, \B, \d, \D, \s\S 只匹配ASCII,而不是Unicode。示例如下:

    import re
    
    s = 'Red里面香克斯帅爆了好吧\n香克斯牛皮'
    pattern1 = re.compile(r'\w+')
    pattern2 = re.compile(r'\w+', re.A)
    print('默认情况:{}'.format(pattern1.findall(s)))
    print('改变后为:{}'.format(pattern2.findall(s)))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    输出结果为

    默认情况:[‘Red里面香克斯帅爆了好吧’, ‘香克斯牛皮’]
    改变后为:[‘Red’]

  3. DOTALL
    可以使用 re.DOTALLre.S 标志。DOT表示 .,ALL表示所有,连起来就是 . 匹配所有,包括换行符\n。默认模式下.是不能匹配行符\n的。示例如下:

    import re
    
    s = 'Red里面香克斯帅爆了好吧\n香克斯牛皮'
    pattern1 = re.compile(r'香克斯.*')
    pattern2 = re.compile(r'香克斯.*', re.S)
    print('默认情况:{}'.format(pattern1.findall(s)))
    print('改变后为:{}'.format(pattern2.findall(s)))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    输出结果为

    默认情况:[‘香克斯帅爆了好吧’, ‘香克斯牛皮’]
    改变后为:[‘香克斯帅爆了好吧\n香克斯牛皮’]

  4. MULTILINE
    可以使用 re.MULTILINEre.M 标志。多行模式,当某字符串中有换行符\n,默认模式下是不支持换行符特性的,影响 ^ 和 $。示例如下:

    import re
    
    s = '香克斯Red里面帅爆了好吧\n香克斯牛皮'
    pattern1 = re.compile(r'^香克斯')
    pattern2 = re.compile(r'^香克斯', re.M)
    print('默认情况:{}'.format(pattern1.findall(s)))
    print('改变后为:{}'.format(pattern2.findall(s)))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    输出结果为

    默认情况:[‘香克斯’]
    改变后为:[‘香克斯’, ‘香克斯’]

  5. VERBOSE
    可以使用 re.VERBOSEre.X 标志。详细模式,可以在正则表达式中加注解,会忽略正则表达式中的空格和 # 后面的注释。示例如下:

    import re
    
    s = '香克斯Red里面帅爆了好吧香克斯牛皮'
    pattern1 = re.compile(r'^香克斯       #四皇之一')
    pattern2 = re.compile(r'^香克斯       #四皇之一', re.X)
    print('默认情况:{}'.format(pattern1.findall(s)))
    print('改变后为:{}'.format(pattern2.findall(s)))
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    输出结果为

    默认情况:[]
    改变后为:[‘香克斯’]

4.5 常用正则

正则表达式解释
[\u4e00-\u9fa5]+匹配汉字

这里我给一个就行,其他的有什么功能都可以去查。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/109111
推荐阅读
相关标签
  

闽ICP备14008679号