当前位置:   article > 正文

【Python 爬虫】详细介绍三种解析方式:正则表达式解析、CSS 选择器解析和 XPath 节点提取解析_爬虫解析网页的几种方式

爬虫解析网页的几种方式

在这里插入图片描述

Python 爬虫的解析方式是将从网页获取到的 HTML 内容转化为程序可读取和处理的数据。常见的解析方式有正则表达式解析、CSS 选择器解析和 XPath 节点提取解析。

1. 正则表达式解析

正则表达式是一种描述字符串模式的语言,可以用来匹配和处理文本。在 Python 爬虫中,正则表达式通常用来处理网页内容中的文本信息,例如提取标题、正文、图片链接等。

以下是一个简单的正则表达式示例,用来匹配 HTML 中的图片链接:

import re

html_content = """
<html>
  <body>
    <img src="image.png" alt="image">
    <img src="image2.png" alt="image2">
  </body>
</html>
"""

pattern = r'<img.*?src="(.*?)".*?>'

images = re.findall(pattern, html_content)

print(images)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

这个示例中,使用 re.findall() 函数和正则表达式 r’<img.?src="(.?)".?>’ 来匹配 HTML 中的图片链接。其中,.? 表示非贪婪匹配,匹配尽可能少的字符。通过 re.findall() 函数可以返回所有匹配的结果,这里返回的是图片链接列表。

正则表达式解析在 Python 爬虫中使用较为广泛,但也有一些缺点。首先,正则表达式书写复杂,容易出错,不易维护和调试。其次,当处理复杂的 HTML 结构时,使用正则表达式可能会非常困难,因为它很难处理嵌套的标签。

2. CSS 选择器解析

CSS 选择器是用来选择 HTML 中元素的一种语法,可以很方便地提取页面中的元素信息。在 Python 爬虫中,可以使用第三方库 Beautiful Soup 或 lxml 来解析 HTML 页面,并使用 CSS 选择器来提取页面元素数据。

以下是使用 Beautiful Soup 来解析 HTML 页面,并使用 CSS 选择器来提取页面中的所有 a 标签:


from bs4 import BeautifulSoup

html_content = """
<html>
  <body>
    <a href="http://www.example.com">example link</a>
    <a href="http://www.example2.com">example2 link</a>
  </body>
</html>
"""

soup = BeautifulSoup(html_content, 'html.parser')

links = soup.select('a')

for link in links:
    print(link['href'], link.text)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

这个示例中,使用 Beautiful Soup 库来解析 HTML 页面,并使用 soup.select() 函数和 CSS 选择器 a 来提取页面中所有的 a 标签。通过遍历返回的标签列表,可以获取每个标签的属性和文本信息。

但是,使用 CSS 选择器也有一些限制。比如,它不能处理复杂的嵌套标签结构,也不能处理动态生成的元素。当页面中存在多个相同的元素时,使用 CSS 选择器会返回所有的元素,需要进一步处理。

3. XPath 节点提取解析

XPath 是一种用来描述 XML(以及 HTML)文档中包含的特定元素的语言。在 Python 爬虫中,可以使用第三方库 lxml 来解析 HTML 页面,并使用 XPath 来提取页面元素数据。

以下是使用 lxml 来解析 HTML 页面,并使用 XPath 来提取页面中的所有 a 标签:

from lxml import etree

html_content = """
<html>
  <body>
    <a href="http://www.example.com">example link</a>
    <a href="http://www.example2.com">example2 link</a>
  </body>
</html>
"""

html = etree.HTML(html_content)

links = html.xpath('//a')

for link in links:
    print(link.attrib['href'], link.text)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

这个示例中,使用 lxml 库来解析 HTML 页面,并使用 html.xpath() 函数和 XPath 表达式 //a 来提取页面中所有的 a 标签。通过遍历返回的标签列表,可以获取每个标签的属性和文本信息。

XPath 是一种基于层级结构的选择语言,比 CSS 选择器更加强大灵活。它可以处理复杂的嵌套标签结构,以及动态生成的元素。但是,XPath 的使用也需要一定的技巧,需要熟悉 XPath 语法和页面结构。

参考资料和优秀实践:

  1. Python 正则表达式教程:https://www.runoob.com/regexp/regexp-tutorial.html
  2. Beautiful Soup 官方文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc/
  3. lxml 官方文档:https://lxml.de/index.html
  4. 《Python 网络数据采集》一书:https://book.douban.com/subject/27028517/
  5. 爬虫实战项目:https://www.zhihu.com/question/32492895/answer/827620336

综合来看,Python 爬虫的解析方式有多种选择,根据不同的情况和需求选择合适的解析方式可以提高爬虫的效率和可维护性。对于简单的文本匹配可以使用正则表达式,对于结构化的页面可以使用 CSS 选择器或 XPath,对于需要处理 JavaScript 渲染的页面可以考虑使用模拟浏览器的方式。同时,为了保证代码的可读性和可维护性,可以封装解析方式和选择器,减少冗余代码和重复操作。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/109119
推荐阅读
相关标签
  

闽ICP备14008679号