赞
踩
利用Python实现BOOS直聘&拉勾网岗位数据可视化。废话不多说。
让我们愉快地开始吧~
Python版本: 3.6.4
相关模块:
requests模块
pyspider模块;
pymysql模块;
pytesseract模块;
random模块;
re模块
以及一些Python自带的模块。
安装Python并添加到环境变量,pip安装需要的相关模块即可。
本次通过对BOSS直聘,拉勾网数据分析岗数据分析,了解数据分析岗的行业情况
获取BOSS直聘索引页信息,主要是岗位名称、薪资、地点、工作年限、学历要求,公司名称、类型、状态、规模。
一开始是想对详情页分析的,还可以获取详情页里的工作内容和工作技能需求。
然后由于请求太多,就放弃了。索引页有10页,1页有30个岗位,一个详情页就需要一个请求,算起来一共有300个请求。
到了第2页(60个请求),就出现了访问过于频繁的警告。
而只获取索引页信息的话,只有10个请求,基本上没什么问题,外加也不想去鼓捣代理IP,所以来点简单的。
到时候做数据挖掘岗位的数据时,看看放慢时间能否获取成功。
获取拉勾网索引页信息,主要是岗位名称、地点、薪资、工作年限、学历要求,公司名称、类型、状态、规模,工作技能,工作福利。
网页为Ajax请求,采用PyCharm编写代码,轻车熟路。
pyspider的安装很简单,直接在命令行pip3 install pyspider即可。
这里因为之前没有安装pyspider对接的PhantomJS(处理JavaScript渲染的页面)。
所以需要从网站下载下来它的exe文件,将其放入Python的exe文件所在的文件夹下。
最后在命令行输入pyspider all,即可运行pyspider。
在浏览器打开网址http://localhost:5000/,创建项目,添加项目名称,输入请求网址,得到如下图。
最后在pyspider的脚本编辑器里编写代码,结合左边的反馈情况,对代码加以改正。
脚本编辑器具体代码如下
from pyspider.libs.base_handler import * import pymysql import random import time import re count = 0 class Handler(BaseHandler): # 添加请求头,否则出现403报错 crawl_config = { 'headers': { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}} def __init__(self): # 连接数据库 self.db = pymysql.connect(host='127.0.0.1', user='root', password='774110919', port=3306, db='boss_job', charset='utf8mb4') def add_Mysql(self, id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people): # 将数据写入数据库中 try: cursor = self.db.cursor() sql = 'insert into job(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people) values ("%d", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s")' % (id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people); print(sql) cursor.execute(sql) print(cursor.lastrowid) self.db.commit() except Exception as e: print(e) self.db.rollback() @every(minutes=24 * 60) def on_start(self): # 因为pyspider默认是HTTP请求,对于HTTPS(加密)请求,需要添加validate_cert=False,否则599/SSL报错 self.crawl('https://www.zhipin.com/job_detail/?query=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&scity=100010000&industry=&position=', callback=self.index_page, validate_cert=False) @config(age=10 * 24 * 60 * 60) def index_page(self, response): time.sleep(random.randint(2, 5<
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。