当前位置:   article > 正文

使用Crawler对腾讯新闻进行数据爬取并保存入库

如何抽取腾讯文档数据入库

系统环境:Windows7

任务要求:爬取URL + 爬取里面的新闻内容 + 入库

http://www.oschina.net/p/Crawler 项目软件地址


1、我们首先要有一个URL列表,有了列表我们才能深度去挖掘新闻的内容

使用cl 命令收集要爬取的内容:

C:\Users\ssHss\Desktop\Jar包\ImageTemp>java -jar Crawler1.0.3.jar -cl http://news.qq.com/ -cq "div[class=Q-tpWrap]"

-cl http://news.qq.com/ 

-cq "div[class=Q-tpWrap]"  就是样式代码 <div class="Q-tpWrap" style:"xxsxxs:da;dadsad;sad;"><a href="x">x</a></div>

提取规则 -cq 后面的参数

161126_8pDQ_2311702.png

160621_BMhe_2311702.png

唉呀妈呀,我们爬取的里面怎么还有各种不一样的代码呢,ヾ(。`Д´。). ok,我们加format参数,哈哈,这样写代码会比较安全一点。 -format 特征

通过爬取的我们发现 news.qq.com/a/ 是新闻共有的一个URL特征

我们加特技 -fromat "news.qq.com/a/" 

160829_nkMp_2311702.png

加File,我们生成URL到本地路径中 -input localpath 即可

161021_BERR_2311702.png

第一步我们完成了 URL的收集


2、深度爬取内容 使用ci命令

加载本地URLlist文件,进行爬取

161857_3d4f_2311702.png

162343_zvZ7_2311702.png

我看了下内容,我把neirong抽取写错了,改成div[class=db]就好了。

162631_j7jG_2311702.png


3、导入数据库

162900_qIRp_2311702.png

162935_045G_2311702.png

163051_YCW4_2311702.png

162954_kWjQ_2311702.png

163113_Kvs5_2311702.png

完成了


转载于:https://my.oschina.net/u/2311702/blog/652856

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/339500
推荐阅读
相关标签
  

闽ICP备14008679号