赞
踩
爬虫需要哪些 (文末送读者福利)
(1)爬虫调度器主要配合调用其他四个模块。所谓调度,就是调用其他模板。
(2)URL管理器负责管理URL链接。URL链接分为爬行链接和未爬行链接,需要URL管理器来管理。同时,它还为获取新的URL链接提供了接口。
(3)HTML下载器是下载要抓取的页面的HTML。
(4)HTML解析器是从HTML源代码中获取爬行的数据,同时向URL管理器发送新的URL链接,并向数据存储器发送处理后的数据。
(5)数据存储器是将HTML下载器发送的数据存储在本地。
在编写python爬虫程序时,只需要做以下两件事:
发送GET请求,获取HTML
解析HTML,获取数据
使用Python爬虫时,经常会遇到有反爬机制的网站。我们可以通过伪装headers爬行,但网站仍然可以获得您的ip,从而禁止您的ip爬行信息。
python爬虫是最方便快捷获取数据的方法,不过很多小伙伴还没有切实地感受过。爬行数据基本上通过网页URL获得该网页的源代码,根据源代码筛选必要的信息。
requests:获取网页源代码
lxml:得到网页源代码中的指定数据
requests可以很方便地让我们得到网页的源代码网页,同时lxml能够很快来筛选出我们所需要的信息。
import requests
import lxml
html = requests.get(“https://coder-lida.github.io/”)
print (html.text)
为其他程序提供数据源,如搜索引擎(百度、Google等)、数据分析、大数据等等。
(1)、首先确定需要爬取的网页URL地址 ;
(2)、通过HTTP协议来获取对应的HTML页面 ;
(3)、提取html页面里的有用数据 ;
(4)、如果是需要的数据就保存起来,如果是其他的URL,那么就执行第二步。
(1)、确定爬取网页内容的网络地址
https://k.sina.com.cn/article_6192937794_17120bb42020015u42.html?from=health
(2)、实施爬虫代码
import requests
from bs4 import BeautifulSoup
res =requests.get(‘https://k.sina.com.cn/article_6192937794_17120bb42020015u42.html?from=health’)
res.encoding=‘utf-8’
soup=BeautifulSoup(res.text, ‘html.parser’)
title=soup.select(‘#artibody’)[0].text
print(title)
以上就是python爬虫爬取网页新闻内容的简单实现,是不是很简单的,快尝试看看吧~更多python爬虫学习推荐:python爬虫教程。
现在很多网站对异常用户访问网站频次过高设置了安全访问机制。在这个时候,如果你想继续访问这个网站,HTTP代理ip
非常重要。
当前ip地址有限,可以更改新的ip地址,保证爬虫的顺利进行。
推荐使用优质的代理ip资源,保证爬虫程序的顺利进行。
实战案例——爬去汽车之家网站上的图片
随着生活水平的提高和快节奏生活的发展。汽车开始慢慢成为人们的必需品,浏览各种汽车网站便成为购买合适、喜欢车辆的前提。例如汽车之家网站中就有最新的报价和图片以及汽车的相关内容,是提供信息最快最全的中国汽车网站。本文介绍python爬虫爬取汽车之家网站上的图片的思路和具体演示代码。
1、分析页面,确认图片的url是否在网页源码。
2、确认是静态数据后,先找到总的ul标签,再找它里面的li标签,最后在img标签里面的src属性,即可获得想要的图片url地址。
3、通过切割图片url的方式获取图片名字。
4、完成图片命名后,使用os模块确定图片存放的路径。
在做爬虫的过程中,如果你爬取的频率过快,不符合人的操作模式。有些网站的反爬虫机制通过监测到你的IP异常,访问频率过高。就会对你进行封IP处理。目前已有比较多的第三方平台专门进行代理IP的服务。
三、爬取汽车之家网站上的图片具体代码
# piplines管道代码 from urllib import request import os class VehicleHomePipeline: def process_item(self, item, spider): pic_url = item['pic_url'] # 得到图片名字 pic_name = pic_url.split('__')[-1] # 得到xxx.jpg # os.path.dirname(__file__) 结果 D:\PycharmProjects\spider\day21\vehicle_home\vehicle_home\ # 创建图片存放路径 xxx\vehicle_home\result_pic pic_path = os.path.join(os.path.dirname(__file__), 'result_pic') # 下载图片 xxx\vehicle_home\result_pic\xxx.jpg request.urlretrieve(pic_url, pic_path + '/' + pic_name) return item # 爬虫代码 import scrapy from day21.vehicle_home.vehicle_home.items import VehicleHomeItem class VehPicSpider(scrapy.Spider): name = 'veh_pic' allowed_domains = ['car.autohome.com.cn'] base_url = 'https://car.autohome.com.cn/photolist/series/18/p{}/' start_urls = [base_url.format(1)] def parse(self, response): # 获取图片标签列表 pic_lists = response.xpath('//ul[@id="imgList"]/li') for pic in pic_lists: pic_url = pic.xpath('./a/img/@src').extract_first() # 上述获取的url需要进一步补全 pic_url = response.urljoin(pic_url) item = VehicleHomeItem() item['pic_url'] = pic_url print(item) yield item # 翻页逻辑 for page in range(2, 3): next_url = self.base_url.format(page) yield scrapy.Request(next_url)
以上就是python爬虫爬取汽车之家网站上的图片的思路和具体演示代码,大家可以套用代码灵活使用哟~
更多python爬虫实战案例分享(视频+源码),文末领取。
谢谢大家支持,喜欢的话别忘记关注转发一下哦~
读者福利:知道你对Python感兴趣,便为你准备了这套python学习资料,
对于0基础小白入门:
如果你是零基础小白,想快速入门Python是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案
包括:Python web开发,Python爬虫,Python数据分析,人工智能等学习教程。带你从零基础系统性的学好Python!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。