当前位置:   article > 正文

大数据:lxml解析html文件(网页)

lxml解析html

lxml是Python的一个html/xml解析并建立dom的库,lxml的特点是功能强大,性能也不错,xml包含了ElementTree ,html5lib ,beautfulsoup 等库。

 

使用lxml前注意事项:先确保html经过了utf-8解码,即code =html.decode('utf-8', 'ignore'),否则会出现解析出错情况。因为中文被编码成utf-8之后变成 '/u2541' 之类的形式,lxml一遇到 “/”就会认为其标签结束。

具体用法:元素节点操作

1、  解析HTMl建立DOM

from lxml import etree

dom = etree.HTML(html)

2、  查看dom中子元素的个数 len(dom)

3、  查看某节点的内容:etree.tostring(dom[0])

4、  获取节点的标签名称:dom[0].tag

5、  获取某节点的父节点:dom[0].getparent()

6、  获取某节点的属性节点的内容:dom[0].get(“属性名称”)


对xpath路径的支持:

XPath即为XML路径语言,是用一种类似目录树的方法来描述在XML文档中的路径。比如用“/”来作为上下层级间的分隔。第一个“/”表示文档的根节点(注意,不是指文档最外层的tag节点,而是指文档本身)。比如对于一个HTML文件来说,最外层的节点应该是"/html"。

xpath选取元素的方式:

1、  绝对路径,如page.xpath("/html/body/p"),它会找到body这个节点下所有的p标签

2、  相对路径,page.xpath("//p"),它会找到整个html代码里的所有p标签。


xpath筛选方式:

1、  选取元素时一个列表,可通过索引查找[n]

2、  通过属性值筛选元素p =page.xpath("//p[@style='font-size:200%']")

3、  如果没有属性可以通过text()(获取元素中文本)、position()(获取元素位置)、last()等进行筛选


获取属性值

dom.xpath(“.//a/@href”)

获取文本

dom.xpath(“.//a/text()”)

示例代码:

  1. #!/usr/bin/python
  2. # -*- coding:utf-8 -*-
  3. from scrapy.spiders import Spider
  4. from lxml import etree
  5. from jredu.items import JreduItem
  6. class JreduSpider(Spider):
  7. name = 'tt' #爬虫的名字,必须的,唯一的
  8. allowed_domains = ['sohu.com']
  9. start_urls = [
  10. 'http://www.sohu.com'
  11. ]
  12. def parse(self, response):
  13. content = response.body.decode('utf-8')
  14. dom = etree.HTML(content)
  15. for ul in dom.xpath("//div[@class='focus-news-box']/div[@class='list16']/ul"):
  16. lis = ul.xpath("./li")
  17. for li in lis:
  18. item = JreduItem() #定义对象
  19. if ul.index(li) == 0:
  20. strong = li.xpath("./a/strong/text()")
  21. li.xpath("./a/@href")
  22. item['title']= strong[0]
  23. item['href'] = li.xpath("./a/@href")[0]
  24. else:
  25. la = li.xpath("./a[last()]/text()")
  26. item['title'] = la[0]
  27. item['href'] = li.xpath("./a[last()]/href")[0]
  28. yield item



声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读