当前位置:   article > 正文

2021-08-18_etree撖寡情

etree撖寡情

Python爬取站长素材中免费简历模板

1. requests模块

1.1 模块介绍

requests是使用Apache2 licensed 许可证的HTTP库,比urllib2模块更简洁
是python中原生的一款基于网络请求的模块,简单便捷,功能强大,效率高。
  • 1
  • 2

1.2环境安装

pip install requests
  • 1

1.3使用步骤

指定url(同时进行UA伪装和请求参数处理)
发起请求
获取响应数据
持久化存储
  • 1
  • 2
  • 3
  • 4

2.xpath解析

2.1 xpath解析原理:

   实例化一个etree的对象,且需要将被解析的页面源码数据加载到该对象中。
   调用etree对象中的xpath方法结合着xpath表达式实现标签的定位和内容的捕获。
  • 1
  • 2

2.2 环境安装:

    pip install lxml
  • 1

2.3 实例化一个etree对象:from lxml import etree

 将从互联网上获取的源码数据加载到该对象中: etree.HTML('page_text')
  • 1

2.4 xpath表达式

/和//:前者表示一个层级,后者表示多个层级
属性定位://div[@class='city'] tag[@src="value"]
索引定位://div[@class="top"]/li[3] 索引是从1开始的。
取文本:
	 /text() 获取的是标签中直系的文本内容
	 //text() 标签中非直系的文本内容(所有的文本内容)
取属性:/@src  
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

3.format函数的使用

Python2.6 开始,新增了一种格式化字符串的函数 str.format(),它增强了字符串格式化的功能。基本语法是通过 {} 和 : 来代替以前的 % 。
format 函数可以接受不限个参数,位置可以不按顺序。
eg:

	addr="中国{}".format("辽宁大连")
	print(addr)
	#结果:中国辽宁大连
	
	addr1="{2}{0}{1}".format("辽宁","大连","中国")
	print(addr1)
	#结果:中国辽宁大连

	print("国家:{country}, 省份:{pro},城市:{city}".format(country="中国", pro="辽宁",city="大连"))
	#结果:国家:中国, 省份:辽宁,城市:大连
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

4.实例

4.1 导入要用的模块

	import requests
	from lxml import etree
	import os
  • 1
  • 2
  • 3

4.2 创建文件夹

	#创建一个文件夹
    if not os.path.exists('./ResumeLibs'):  # 如果不存在
        os.mkdir('./ResumeLibs')
  • 1
  • 2
  • 3

4.3 确定headers与url

	headers = {
        'User-Agent': 'User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:80.0) Gecko/20100101 Firefox/80.0'

    }
     url = 'http://aspx.sc.chinaz.com/query.aspx?keyword=%E5%85%8D%E8%B4%B9&issale=&classID=864&page={}'
  • 1
  • 2
  • 3
  • 4
  • 5

4.4 主体代码

    for pageNum in range(1,5):  #页码可自己设置(这里取1,2,3,4)
        new_url =url.format(pageNum)
        page_text = requests.get(url=new_url,headers=headers).text #获取响应数据.text返回的是字符串形式的响应数据

        tree = etree.HTML(page_text)
        div_list = tree.xpath('//div[@id="container"]/div')
        print(div_list) #在此打印确认是否爬取到想要的element
        for li in div_list:
            resume_src = 'http:'+li.xpath('./a/@href')[0]  #注意原网站爬取到的属性无"http:"            
            resume_name = li.xpath('./a/img/@alt')[0]+'.zip'

            #对每个简历页面发起请求
            detail_text = requests.get(url=resume_src, headers=headers).text
            tree1 = etree.HTML(detail_text)
            #解析出下载链接
            download_src = tree1.xpath('//div[@class="clearfix mt20 downlist"]/ul/li[1]/a/@href')[0]

            #对下载链接发起请求,  content返回的是二进制形式的图片数据
            down_load_resume = requests.get(url=download_src, headers=headers).content
            down_load_path = './resumelibs/' + resume_name

            with open(down_load_path,'wb') as fp:
                 fp.write(down_load_resume)
                 print(resume_name,'over!!!')

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/924368
推荐阅读
相关标签
  

闽ICP备14008679号