当前位置:   article > 正文

python爬虫基础(一)~爬虫概念和架构_头歌基础爬虫架构

头歌基础爬虫架构

目录

1. 爬虫

1.1 概念

1.2 分类

2. 爬虫架构

2.1 url管理器

2.2 网页(html)下载(download)器

2.2.1 urllib下载html源码

2.2.2 requests下载html源码

2.3 网页(html)解析(parser)器

2.3.1 BeautifulSoup解析包

2.3.2 xpath解析包

2.4 数据存储器

2.4.1 保存文本

2.4.2 保存图片

2.4.3 保存表格table数据

2.4.4 将数据重复写入已存在的excel文件

3. 爬虫难点要点

3.1 设置headers

3.2 字符编解码知识

3.3 爬取动态页面 

3.4 爬虫爬取的图片损坏、无法打开

3.5 异常处理

3.6 如何获取两个不同之间的所有文本

参考


1. 爬虫

1.1 概念

参考:百度百科~爬虫

网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取html网页信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。

1.2 分类

  • 通用网络爬虫。又称全网爬虫(Scalable Web Crawler),爬行对象从一些种子 URL 扩充到整个 Web,主要为门户站点搜索引擎和大型 Web 服务提供商采集数据。 商业应用,很少个人使用
  • 聚焦网络爬虫(Focused Crawler)。又称主题网络爬虫(Topical Crawler),是指选择性地爬行那些与预先定义好的主题相关页面的网络爬虫。我们通常意义上说的爬虫,给定词或者url,爬取想要的网页内容。--我认为是个人初级爬虫
  • 增量式网络爬虫(Incremental Web Crawler)。是指对已下载网页采取增量式更新和只爬行新产生的或者已经发生变化网页的爬虫,它能够在一定程度上保证所爬行的页面是尽可能新的页面。针对特定网页,及时发现、爬取更新信息, 并可以发送邮件通知用户。---我认为是个人中级爬虫
  • Deep Web 爬虫Web 页面按存在方式可以分为表层网页(Surface Web)和深层网页(Deep Web,也称 Invisible Web Pages 或 Hidden Web)。 表层网页是指传统搜索引擎可以索引的页面,以超链接可以到达的静态网页为主构成的 Web 页面。Deep Web 是那些大部分内容不能通过静态链接获取的、隐藏在搜索表单后的,只有用户提交一些关键词才能获得的 Web 页面。例如那些用户注册后内容才可见的网页就属于 Deep Web。 2000 年 Bright Planet 指出:Deep Web 中可访问信息容量是 Surface Web 的几百倍,是互联网上最大、发展最快的新型信息资源。

2. 爬虫架构

用python3!python3!python3!python2已经过时了

2.1 url管理器

管理将要爬取的url和已经爬取的url,将待爬取的url传送给网页下载器。

2.2 网页(html)下载(download)器

将url指定的网页下载下来,保存为一个json字符串,然后将这个字符串传送给html解析器解析。

download packages:requests, urllib

html download包含三个核心部分:

  • 构造url请求对象
  • 发送url请求,获取响应
  • 读取/下载html全部网页内容

2.2.1 urllib下载html源码

  1. # 访问、下载html网页
  2. url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content) # 请求地址
  3. # 请求头部,伪造浏览器,防止爬虫被反
  4. headers = {
  5. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
  6. }
  7. # 利用请求地址和请求头部构造请求对象
  8. req = urllib.request.Request(url=url, headers=headers, method='GET')
  9. response = urllib.request.urlopen(req) # 发送请求,获得响应
  10. text = response.read().decode('utf-8') # 读取响应,获得文本

urllib.parse.quote(content) <--因为url只允许一部分ascii字符,其他字符(如汉子)是不符合标准的,此时就要进行编码。
urllib.request.Request --> urlopen()方法可以实现最基本构造HTTP请求的方法,但如果加入headers等信息,就可以利用Request类来构造请求。

2.2.2 requests下载html源码

  1. #coding=utf-8
  2. import requests
  3. from bs4 import BeautifulSoup
  4. resp=requests.get('https://www.baidu.com') #请求百度首页
  5. print(resp) #打印请求结果的状态码
  6. print(resp.content) #打印请求到的网页源码
  7. bsobj=BeautifulSoup(resp.content,'lxml') #将网页源码构造成BeautifulSoup对象,方便操作
  8. a_list=bsobj.find_all('a') #获取网页中的所有a标签对象
  9. text='' # 创建一个空字符串
  10. for a in a_list:
  11. href=a.get('href') #获取a标签对象的href属性,即这个对象指向的链接地址
  12. text+=href+'\n' #加入到字符串中,并换行
  13. with open('url.txt','w') as f: #在当前路径下,以写的方式打开一个名为'url.txt',如果不存在则创建
  14. f.write(text) #将text里的数据写入到文本中

-->注意:百度爬取的html有静态页面和动态页面。静态简单,比如百度百科;动态困难,比如淘女郎,参考:python爬虫入门教程(三):淘女郎爬虫 ( 接口解析 | 图片下载 )-CSDN博客

2.3 网页(html)解析(parser)器

一方面,html parser会解析出有价值的数据;另一方面,解析出字符串中的url,将其补充到url管理器。这三个模块形成了一个循环,只要有未爬取的url,这个循环就会一直继续下去。

parser packages: bs4, lxml, xpath。正则表达式用于提取解析器提取不到的数据!!!

html parser包含三个核心内容

  • 解析html内容
  • 抽取特定标签,返回一个标签列表
  • 获取标签文本/属性值

2.3.1 BeautifulSoup解析包

将网页源码解析成BeautifulSoup对象,方便操作

抽取标签方法:find()方法、find_all()方法、select()方法

获取标签文本、属性值方法:text()方法、get_text()方法、get()方法

具体方法介绍,看我的第二篇博客:python爬虫基础(二)~工具包: 下载包requests、urllib和解析包BeautifulSoup(bs4)、xpath,python爬虫基础(二)~工具包: 下载包requests、urllib和解析包BeautifulSoup(bs4)、lxml.etree.xpath_etree与beautifulsoup-CSDN博客

  1. # 爬取图片
  2. # 找到所有img标签,返回一个url的标签列表
  3. img_urllist = []
  4. resp = requests.get(url=url, headers=headers)
  5. content = resp.content
  6. soup = BeautifulSoup(content, 'lxml')
  7. # img_list = soup.select('div .album-wrap')
  8. img_list = soup.select('a>div>img')
  9. print(img_list)
  10. for img in img_list:
  11. try:
  12. # src = img.find('img').get('src')
  13. src = img.get('src')
  14. if re.match(r'https:(.*)image(.*)auto$', src):
  15. img_urllist.append(src)
  16. except:
  17. continue

2.3.2 xpath解析包

  1. def query(content):
  2. # 请求地址
  3. url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content)
  4. # 请求头部
  5. headers = {
  6. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
  7. }
  8. # 利用请求地址和请求头部构造请求对象
  9. req = urllib.request.Request(url=url, headers=headers, method='GET')
  10. # 发送请求,获得响应
  11. response = urllib.request.urlopen(req)
  12. # 读取响应,获得文本
  13. text = response.read().decode('utf-8')
  14. # 构造 _Element 对象
  15. html = etree.HTML(text)
  16. # 使用 xpath 匹配数据,得到匹配字符串列表
  17. sen_list = html.xpath('//div[contains(@class,"lemma-summary")]//text()')
  18. print(sen_list)
  19. # 过滤数据,去掉空白
  20. sen_list_after_filter = [item.strip('\n') for item in sen_list if item != '\n']
  21. # 将字符串列表连成字符串并返回
  22. return ''.join(sen_list_after_filter)

2.4 数据存储器

2.4.1 保存文本

  • 写入--"w"; 追加--"a"

source:菜鸟教程,Python open() 函数 | 菜鸟教程

模式描述
t文本模式 (默认)。
x写模式,新建一个文件,如果该文件已存在则会报错。
b二进制模式。
+打开一个文件进行更新(可读可写)。
U通用换行模式(不推荐)。
r以只读方式打开文件。文件的指针将会放在文件的开头。这是默认模式。
rb以二进制格式打开一个文件用于只读。文件指针将会放在文件的开头。这是默认模式。一般用于非文本文件如图片等。
r+打开一个文件用于读写。文件指针将会放在文件的开头。
rb+以二进制格式打开一个文件用于读写。文件指针将会放在文件的开头。一般用于非文本文件如图片等。
w打开一个文件只用于写入。如果该文件已存在则打开文件,并从开头开始编辑,即原有内容会被删除。如果该文件不存在,创建新文件。
wb以二进制格式打开一个文件只用于写入。如果该文件已存在则打开文件,并从开头开始编辑,即原有内容会被删除。如果该文件不存在,创建新文件。一般用于非文本文件如图片等。
w+打开一个文件用于读写。如果该文件已存在则打开文件,并从开头开始编辑,即原有内容会被删除。如果该文件不存在,创建新文件。
wb+以二进制格式打开一个文件用于读写。如果该文件已存在则打开文件,并从开头开始编辑,即原有内容会被删除。如果该文件不存在,创建新文件。一般用于非文本文件如图片等。
a打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。也就是说,新的内容将会被写入到已有内容之后。如果该文件不存在,创建新文件进行写入。
ab以二进制格式打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。也就是说,新的内容将会被写入到已有内容之后。如果该文件不存在,创建新文件进行写入。
a+打开一个文件用于读写。如果该文件已存在,文件指针将会放在文件的结尾。文件打开时会是追加模式。如果该文件不存在,创建新文件用于读写。
ab+以二进制格式打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。如果该文件不存在,创建新文件用于读写。
  1. with open('url.txt','w') as f: #在当前路径下,以写的方式打开一个名为'url.txt',如果不存在则创建
  2. f.write(text) #将text里的数据写入到文本中

2.4.2 保存图片

需要用二进制, 'wb'

  1. with open(file_path, 'wb') as f:
  2. f.write(soup.content)

2.4.3 保存表格table数据

  1. # 先请求页面,xpath定位表格区域
  2. res = requests.get('http://www.csres.com/notice/50655.html')
  3. res_elements = etree.HTML(res.text)
  4. table = res_elements.xpath('//table[@id="table1"]')
  5. table = etree.tostring(table[0], encoding='utf-8').decode()
  6. # 调用pandas的read_html方法解析表格数据
  7. df = pd.read_html(table, encoding='utf-8', header=0)[0]
  8. results = list(df.T.to_dict().values()) # 转换成列表嵌套字典的格式
  9. 转存为csv文件
  10. df.to_csv("std.csv", index=False)
  • 百度百科表格数据保存
temp

2.4.4 将数据重复写入已存在的excel文件

  1. # 保存信息框数据到excel
  2. if not os.path.exists('profile'):
  3. os.mkdir('profile')
  4. profile_file = project_path + '/profile/' + 'profile.csv'
  5. field_list = ['中文名', '外文名', '别名', '性别', '学位', '职称', '国籍', '民族', '出生地', '籍贯', '出生日期', '逝世日期',
  6. '星座', '血型', '身高','体重', '毕业院校', '职业', '经纪公司', '代表作品', '主要成就', '生肖', '语种', '特长', '粉丝名']
  7. if not os.path.exists(profile_file):
  8. workbook = xlwt.Workbook(encoding='utf-8')
  9. output_sheet = workbook.add_sheet('profile_sheet', cell_overwrite_ok=True)
  10. for i in range(len(field_list)):
  11. output_sheet.write(0, i, field_list[i])
  12. workbook.save(profile_file)
  13. rb = xlrd.open_workbook(profile_file)
  14. rows_num = rb.sheet_by_name('profile_sheet').nrows
  15. # print(rows_num)
  16. wb = copy(rb)
  17. output_sheet = wb.get_sheet(0)
  18. # print(profile)
  19. for i in range(len(field_list)):
  20. if profile_dict.get(field_list[i]):
  21. output_sheet.write(rows_num, i, profile_dict.get(field_list[i]))
  22. else:
  23. continue
  24. os.remove(profile_file)
  25. wb.save(profile_file)

3. 爬虫难点要点

3.1 设置headers

  • 伪造火狐浏览器的headers
  1. # 请求头部,伪造浏览器,防止爬虫被反
  2. headers = {
  3. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
  4. }
  • 自己设置headers   
  1. # 创建一个session
  2.     session = requests.Session()
  3.     # 设置用于访问的请求头
  4.     headers = {
  5.         'accept': 'application/json, text/javascript, */*; q=0.01',
  6.         'accept-encoding': 'gzip, deflate, br',
  7.         'accept-language': 'zh-CN,zh;q=0.9',
  8.         'content-type': 'application/x-www-form-urlencoded; charset=UTF-8',
  9.         'origin': 'https://mm.taobao.com',
  10.         'referer': 'https://mm.taobao.com/search_tstar_model.htm',
  11.         'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36',
  12.         'x-requested-with': 'XMLHttpRequest',
  13.     }

session是requests库中的一个类,创建session对象进行访问的好处是,session对象能够自动维护访问的cookies信息(通过js修改的cookies信息它是记录不到的)

--> 为啥要记录cookies信息因为有些站点的服务器会验证你的cookies信息,当cookies信息不正确时,服务器会拒绝你的访问

--> 设置headers和data的目的:是为了将本次请求伪装成浏览器的请求,并通过传递的数据控制服务器返回我们需要的信息。
————————————————
版权声明:本文为CSDN博主「笔墨留年」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/aaronjny/article/details/80291997

3.2 字符编解码知识

现在html网页基本都采用utf-8编码,在爬虫爬取网页时不必过多关注网页的编解码。

以前,request返回的消息编码为gb2312,我们需要先进行解码decode('utf-8'),才不会出现乱码。比如:淘女郎case,因为主页源码为gbk编码,所以需要先用gbk对其解码。

唯一一个例外时urllib发送url请求获取网页源码时,需要先解码decode('utf-8'),再进行网页解析,不然会出现乱码

延伸阅读:https://www.crifan.com/summary_explain_what_is_html_charset_and_common_value_of_gb2312_gbk_utf_8_iso8859_1/

3.3 爬取动态页面 

source: 淘女郎case

problem: 爬取的内容是从源码取得的,但是在页面中看到了内容,在源码里面却没有,why?

analysis: 这就是动态页面抓取。当我们访问这个网址的时候,浏览器返回给我们的只有一部分信息==> "数据加载中" 实际上,服务器先给我们返回了这个页面,然后又通过ajax技术,请求了另外一个借口。接口返回了淘女郎们的信息,随后浏览器运行javascript代码,将这些信息填充到先前额页面中。因此,我们才在页面中看到了淘女郎们的信息。

(源码页面 -> 检查 -> 网络 -> 内容信息)

3.4 爬虫爬取的图片损坏、无法打开

--> attention:需要用二进制binary格式保存图片,即'wb'

problem:pycharm imge not loaded try to open it enternally to fix format problem

analysis:原因是不能用bref图片网址保存图片,需要用src图片网址保存图片

by the way:我送你解析图片标签过程中,过滤无效img图片的正则表达式

  1. # img_list = soup.select('div .album-wrap')
  2. img_list = soup.select('a>div>img')
  3. # print(img_list)
  4. for img in img_list:
  5. try:
  6. # src = img.find('img').get('src')
  7. src = img.get('src')
  8. if re.match(r'https:(.*)image(.*)auto$', src):
  9. img_urllist.append(src)
  10. except:
  11. continue

至于为啥用soup.select()而不是soup.find_all()? 我个人认为,select()方法兼容方法更多,更关键的是,它支持提取子标签匹配规则,即:'a>div>img'。

by the way: 提取标签中子标签的属性值

src = img.find('img').get('src')

3.5 异常处理

  • SSL: CERTIFICATE_VERIFY_FAILED。因为当使用urllib.urlopen打开一个 https 链接时,会验证一次 SSL 证书。
  1. import ssl
  2. ssl._create_default_https_context = ssl._create_unverified_context
  • 怎么去除抓取数据中的'\xa0\xa0\xa0\xa乱码 --> ''.join(str.split())方法,但是这种方法会删除原有文本中的空格
  1. >>> s ='1室1厅1卫 \xa0\xa0\xa0\xa038㎡'
  2. >>> "" .join(s. split())
  3. '1室1厅1卫38㎡'
  • 如何删除爬取的html网页内容中的NBSP-乱码空格,string.replace(u'\xa0', u' ')
  1. # 删除爬取到html内容中的nbsp:str.replace(u'\xa0', u' ')
  2. row_content = re.sub('\n', '', row_content.replace(u'\xa0', u' '))
  3. br_text_list.append(row_content + '\n')

3.6 如何获取两个不同之间的所有文本

BeautifulSoup_object的previous_sibling、previous_siblings 和 next_sibling、next_siblings方法,可以获取同级标签文本,即兄弟节点的文本。 

source:Python html中一级元素.next_sibling打印为空_beautifulsoup兄弟节点打印空白-CSDN博客Beatifulsoup4 兄弟节点 next_sibling和next_sibling()_bs4 select兄弟节点-CSDN博客 

  1. sibling_soup = BeautifulSoup(sibling_html, 'html.parser')
  2. br = sibling_soup.p
  3. while br.next_sibling != None:
  4. print br
  5. br = br.next_sibling
  6. ---------------------------------------------------------------
  7. for tag in soup.select('div .col-md-4'):
  8. if tag.get_text() == 'Total':
  9. result = tag.next_sibling.get_text()

--> 判断each br in 返回的标签兄弟节点列表 是否是标签,因为有些兄弟节点为空。

  1. for br in i.next_siblings: # 获取人物履历标签后面所有的兄弟标签
  2. # print(br)
  3. if type(br) is bs4.element.Tag: # 判断br是不是一个标签
  4. attrs = ''.join(br.attrs['class'])
  5. if attrs == 'para':
  6. br_text_list.append(br.get_text())
  7. elif attrs == re.compile('para-title level'):
  8. break
  9. else:
  10. continue

source:http://www.voidcn.com/article/p-eqwgopwx-bvx.html

  1. from bs4 import BeautifulSoup
  2. soup = BeautifulSoup("""
  3. <html><div class="lead">lead</div>data<div class="end"></div></html>"
  4. """, "lxml")
  5. node = soup.find('div', {'class': 'lead'})
  6. s = []
  7. while True:
  8. if node is None:
  9. break
  10. node = node.next_sibling
  11. if hasattr(node, "attrs") and ("end" in node.attrs['class'] ):
  12. break
  13. else:
  14. if node is not None:
  15. s.append(node)
  16. print s

参考

[1] 爬虫实战(一) 用Python爬取百度百科https://www.cnblogs.com/wsmrzx/p/10531708.html

[2] python爬虫入门教程(二):开始一个简单的爬虫, python爬虫入门教程(二):开始一个简单的爬虫_python 爬虫-CSDN博客

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/855925
推荐阅读
相关标签
  

闽ICP备14008679号