当前位置:   article > 正文

常用正则表达式爬取网页信息及HTML分析总结

常用正则表达式爬取网页信息及HTML分析总结

Python爬取网页信息时,经常使用的正则表达式及方法。

1.获取<tr></tr>标签之间内容
2.获取<a href..></a>超链接之间内容
3.获取URL最后一个参数命名图片或传递参数
4.爬取网页中所有URL链接
5.爬取网页标题title两种方法
6.定位table位置并爬取属性-属性值
7.过滤<span></span>等标签
8.获取<script></script>等标签内容

 

1). 获取<tr></tr>标签之间内容
开始标签如:<tr>、<th>、<td>、<a>、<table>、<div>...
后缀标签如:</tr>、</th>、</td>、</a>、</table>、</div>...

核心代码:

  1. res_tr = r'<tr>(.*?)</tr>'
  2. m_tr = re.findall(res_tr,language,re.S|re.M)

# eg_v1

  1. import re
  2. language = '''<tr><th>床前明月光</th><td>忧思独伤心</td></tr><tr>'''
  3. # 正则表达式获取<tr></tr>之间内容
  4. res_tr = r"<tr>(.*?)</tr>"
  5. m_tr = re.findall(res_tr,language,re.S|re.M)
  6. print (unicode(m_tr,"utf-8"))
  7. for line in m_tr:
  8. print line
  9. res_th = r"<th>(.*?)</th>"
  10. m_th = re.findall(res_th,line,re.S|re.M)
  11. for mm in m_th:
  12. print (unicode(mm,"utf-8"))
  13. res_td = r"<td>(.*?)</td>"
  14. m_td = re.findall(res_td,line,re.S|re.M)
  15. for nn in m_td:
  16. print (unicode(nn,"utf-8"))

  


2). 获取超链接<a href=..></a>之间内容
在使用正则表达式时,需要分析网页链接,获取URL或网页内容。核心代码如下:

  1. res = r'<a .*?>(.*?)</a>'
  2. mm = re.findall(res, content, re.S|re.M)
  3. urls=re.findall(r"<a.*?href=.*?<\/a>", content, re.I|re.S|re.M)

  

# eg_v2

  1. import re
  2. content = '''
  3. <td>
  4. <a href="https://www.baidu.com/articles/zj.html" title="浙江省">浙江省主题介绍</a>
  5. <a href="https://www.baidu.com//articles/gz.html" title="贵州省">贵州省主题介绍</a>
  6. </td>
  7. '''

  


# 获取<a href></a>之间的内容

  1. res = r'<a .*?>(.*?)</a>'
  2. mm = re.findall(res,content,re.S|re.M)
  3. for value in mm:
  4. print (value)

# 获取所有<a href></a>链接所有内容

  1. urls = re.findall(r"a.*?href=.*?<\/a>",content,re.I|re.S|re.M)
  2. for i in urls:
  3. print i

# 获取<a href></a>中的URL

  1. res_url = r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')"
  2. link = re.findall(res_url,content,re.I|re.S|re.M)
  3. for url in link:
  4. print (url)

  


3). 获取URL最后一个参数命名图片或传递参数
使用Python爬取图片过程中,会遇到图片对应的URL最后一个字段通常用于命名图片
通过该URL的"/"后面的参数命名图片
# eg_v3

  1. urls = 'http://i1.hoopchina.com.cn/blogfile/201411/11/BbsImg141568417848931_640*640.jpg'
  2. value = urls.split("/")[-1]
  3. print (value)
  4. # BbsImg141568417848931_640*640.jpg

  

使用Python获取GET方法的URL链接中,还可能存在传递参数的值,获取参数方法:

  1. url = 'http://localhost/test.py?a=hello&b=world'
  2. values = url.split('?')[-1]
  3. print (values)
  4. # a=hello&b=world
  5. for key_value in values.split('&'):
  6. print (key_value.split('='))
  7. # ['a', 'hello']
  8. # ['b', 'world']

  


4). 爬取网页中所有URL链接
从固有网页中爬取URL链接,再进行下一步的循环爬取或URL抓取.
# eg_v4 (爬取CSDN首页的所有URL链接)

  1. import re
  2. import urllib2
  3. url = "http://www.csdn.net/"
  4. content = urllib2.urlopen(url).read()
  5. urls = re.findall(r'<a.*?href=.*?<\/a>',content,re.I)
  6. for url in urls:
  7. print (unicode(url,"utf-8"))
  8. link_list = re.findall(r"(?=href=\".+?(?=\")|(?<=href=\').+?(?=\')",content)
  9. for url in link_list:
  10. print (url)

  

5). 爬取网页标题title两种方法
获取网页标题也是一种常见的爬虫,常位于<html><head><title>标题</title></head></html>中
# eg_v5 (爬取CSDN标题)

  1. import re
  2. import urllib2
  3. url = 'http://www.csdn.net/'
  4. content = urllib2.urlopen(url).read()
  5. # 方法一
  6. title_pat = r'(?<=<title>).*?(?=</title>)'
  7. title_ex = re.compile(title_pat,re.M|re.S)
  8. title_obj = re.search(title_ex,content)
  9. title = title_obj.group()
  10. print (title)
  11. # 方法二
  12. title = re.findall(r'<title>(.*?)</title>',content)
  13. print (title[0])

  

6). 定位table位置并爬取属性-属性值
# eg_v6 (正则表达式获取td值的例子)

  1. import re
  2. s = '''<table>
  3. <tr>
  4. <td>序列号</td><td>DEIN3-39CD3-2093J3</td>
  5. <td>日期</td><td>2013年1月22日</td>
  6. <td>售价</td><td>392.70 元</td>
  7. <td>说明</td><td>仅限5用户使用</td>
  8. </tr>
  9. </table>
  10. '''
  11. res = r'<td>(.*?)</td><td>(.*?)</td>'
  12. m = re.findall(res,s,re.S|re.M)
  13. for line in m:
  14. print (unicode(line[0],'utf-8'),unicode(line[1],'utf-8'))

  


# 如果<td id="">包含该属性则正则表达式为r'<td id=.*?>(.*?)</td>';同样如果不一定是id属性开头,则可以使用正则表达式r'<td .*?>(.*?)</td>'

7). 过滤<span></span>等标签
获取值过程中,通常会存在<span>、<br>、<a href>等标签
核心代码:

  1. elif "span" in nn: #处理标签<span>
  2. res_value = r'<span .*?>(.*?)</span>'
  3. m_value = re.findall(res_value,nn,re.S|re.M)
  4. for value in m_value:
  5. print unicode(value,'utf-8'),

 

# eg_v7 

  1. import re
  2. language = '''
  3. <table class="infobox bordered vcard" style="width: 21em; font-size: 89%; text-align: left;" cellpadding="3">
  4. <caption style="text-align: center; font-size: larger;" class="fn"><b>购书</b></caption>
  5. <tr>
  6. <th>性別:</th>
  7. <td>男</td>d
  8. </tr>
  9. <tr>
  10. <th>異名:</th>
  11. <td><span class="nickname">(字) 翔宇</span></td>
  12. </tr>
  13. <tr>
  14. <th>政黨:</th>
  15. <td><span class="org"><a href="../articles/%E4%B8%AD9A.html" title="购书中心"></a></span></td>
  16. </tr>
  17. <tr>
  18. <th>籍貫:</th>
  19. <td><a href="../articles/%E6%B5%9981.html" title="广东省">广东省</a><a href="../articles/%E7%BB%8D82.html" title="绍兴市">绍兴市</a></td>
  20. </tr>
  21. </table>
  22. '''
  23. # 获取table中tr值
  24. res_tr = r'<tr>(.*?)</tr>'
  25. m_tr = re.findall(res_tr,language,re.S|re.M)
  26. # 获取表格第一列th 属性
  27. for line in m_tr:
  28. res_th = r'<th>(.*?)</th>'
  29. m_th = re.findall(res_th,line,re.S|re.M)
  30. for mm in m_th:
  31. if "href" in mm: # 如果获取加粗的th中含超链接则处理
  32. restr = r'<a href=.*?(.*?)<\a>'
  33. h = re.findall(res_tr,mm,re.S|re.M)
  34. print (unicode(h[0],'utf-8'))
  35. else:
  36. print (unicode(mm,'utf-8'))
  37. # 取表格第二列td 属性值
  38. res_td = r'<td>(.*?)</td>'
  39. m_td = re.findall(res_td,line,re.S|re.M)
  40. for nn in m_td:
  41. if 'href' in nn:
  42. res_value = r'<a .*?>(.*?)</a>'
  43. m_value = re.findall(res_value,nn,re.S|re.M)
  44. for value in m_value:
  45. print (unicode(value,'utf-8'))
  46. elif "span" in nn:
  47. res_value = r'<span .*?>(.*?)</span>'
  48. m_value = re.findall(res_value,nn,re.S|re.M)
  49. for value in m_value:
  50. print (unicode(value,'utf-8')
  51. else:
  52. print (unicode(nn,'utf-8'))
  53. print (' ')

  

8). 获取<script></script>等标签内容
在获取游讯网图库中,图集对应的原图它是存储在script中,其中获取原图-original即可
通过正则表达式下载URL:

  1. res_original = r'"original":"(.*?)"' #原图
  2. m_original = re.findall(res_original,script)

# eg_v8

  1. import re
  2. import os
  3. import urllib
  4. content = '''
  5. <script>var images = [
  6. { "big":"http://i-2.yxdown.com/2015/3/18/KDkwMHgp/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg",
  7. "thumb":"http://i-2.yxdown.com/2015/3/18/KHgxMjAp/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg",
  8. "original":"http://i-2.yxdown.com/2015/3/18/6381ccc0-ed65-4422-8671-b3158d6ad23e.jpg",
  9. "title":"","descript":"","id":75109},
  10. { "big":"http://i-2.yxdown.com/2015/3/18/KDkwMHgp/fec26de9-8727-424a-b272-f2827669a320.jpg",
  11. "thumb":"http://i-2.yxdown.com/2015/3/18/KHgxMjAp/fec26de9-8727-424a-b272-f2827669a320.jpg",
  12. "original":"http://i-2.yxdown.com/2015/3/18/fec26de9-8727-424a-b272-f2827669a320.jpg",
  13. "title":"","descript":"","id":75110},
  14. </script>
  15. '''
  16. html_script = r'<script>(.*?)</script>'
  17. m_script = re.findall(html_script,content,re.S|re.M)
  18. for script in m_script:
  19. res_original = r'"original":"(.*?)"'
  20. m_original = re.findall(res_original,script)
  21. for pic_url in m_original:
  22. print (pic_url)
  23. filename = os.path.basename(pic_url)
  24. urllib.urlretrieve(pic_url,"D:\\" + filename)

 

转载于:https://www.cnblogs.com/xieshengsen/p/6882163.html

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/神奇cpp/article/detail/763114
推荐阅读
相关标签
  

闽ICP备14008679号