当前位置:   article > 正文

python使用bs模块爬取小说数据_运用python中bs模块的相关方法小说url爬取。

运用python中bs模块的相关方法小说url爬取。

目录

一、BS模块介绍        

二、分析页面架构

三、代码实现

四、结果展示

五、总结思路


一、BS模块介绍        

        Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。

Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。

Beautiful Soup已成为和lxml、html6lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度。

详细的BS模块介绍(参考网友):

Python中BeautifulSoup库的用法_阎_松的博客-CSDN博客_python beautifulsoup

业务需求:通过BS模块来抓取某小说里面的数据内容

二、分析页面架构

        通过bs模块可以抓取到网站源代码的数据,然后分析抓取网站代码架构。首先可以看到网站每一章的标签都是div class="book-mulu"标签下面,只要搜索到标签值就可以抓到里面数据。

         第二是内容的url是藏在a href标签里面的数据, 每个章节的sanguoyanyi/x.html来代替,x是章节数。通过一个for循环可以把数据赋值到每个列表中,在通过get方法抓取每个url中的内容,刚好每个章节的内容藏在chapter_content的标签下面,用select模块就可以抓到标签下面内容。

 三、代码实现

        每个代码详细功能写在注释里面了,不懂留言沟通。

  1. # -*- coding:UTF-8 -*-
  2. import requests
  3. import json
  4. from bs4 import BeautifulSoup
  5. import cchardet#字符编码格式化模块包
  6. if __name__ == "__main__":
  7. #浏览器请求标识符
  8. headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}
  9. #爬取url的地址
  10. url='http://www.shicimingju.com/book/sanguoyanyi.html'
  11. #使用requests方法抓取书
  12. page_test = requests.get(url=url,headers=headers)
  13. #用cchardet的detect方法将content编码化
  14. page_test_coding = cchardet.detect(page_test.content)['encoding']
  15. #print(page_test.content.decode(page_test_coding))
  16. #给一个变量赋值到抓取下来的内容
  17. new_page_test = page_test.content.decode(page_test_coding)
  18. #使用bs模块的lxml方法进行解析
  19. soup = BeautifulSoup(new_page_test,'lxml')
  20. # print(soup)
  21. #用select方法搜索book-mulu标签下ul标签下li标签
  22. li_list= soup.select('.book-mulu > ul > li')
  23. #新建对象保存
  24. fp = open('./sanguo.txt','w',encoding='utf-8')
  25. for li in li_list:
  26. #标题用string字符串保存
  27. title = li.a.string
  28. #内容方面的url
  29. detail_url = 'http://www.shicimingju.com'+li.a['href']
  30. #继续抓取内容url的赋值
  31. detai_page_text = requests.get(url=detail_url,headers=headers).content
  32. #创建对象,括号中的参数是html文档(可以打开外部存储html文档的文件BeautifulSoup(open("index.html")),或者直接使用当前文件中的html字符串对象)和解析器名称
  33. detail_soup = BeautifulSoup(detai_page_text,'lxml')
  34. #查找标签chapter_content的内容
  35. div_tag = detail_soup.find('div',class_='chapter_content')
  36. #将内容使用text方法赋予新对象
  37. content = div_tag.text
  38. #写入文本中title和content加换行符
  39. fp.write(title+':'+content+'\n')
  40. #打印爬取结果
  41. print(title,'爬取成功!')

四、结果展示

        编译结果显示正常,每个章节都抓取到了数据。

 查看保存的text文档

​​​​​​​

 五、总结思路

        requests抓取下来的数据是有带.content或者.text标签的数据,尝试了很多用.text标签抓下来的数据是乱码。后面怎么用utf-8格式变通都不行,原来response.text这个是str的数据(unicode),是requests库将response.content进行解码后的字符串。(而我们在解码的时候需要指定一个编码方式,requests在进行自动解码的时候需要猜测编码的方式,所以避免不了判断失误,就会导致解码产生乱码.)后面用content就可以行的通了。为了以防万一,使用cchardet模块来解决编码问题。Python requests乱码的五种解决办法_小龙在山东的博客-CSDN博客_python requests 乱码

参考文献:

Python中BeautifulSoup库的用法_阎_松的博客-CSDN博客_python beautifulsoup

requests.text和requests.content的区别_、Lu的博客-CSDN博客_requests.text

Python requests乱码的五种解决办法_小龙在山东的博客-CSDN博客_python requests 乱码

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/485995
推荐阅读
相关标签
  

闽ICP备14008679号