当前位置:   article > 正文

Python爬虫+数据分析:采集二手房源数据并做可视化_基于爬虫的房源数据分析

基于爬虫的房源数据分析

今天我们来分享一个用Python采集二手房源数据信息并做可视化得源码

软件使用:

  • python 3.8 开源 免费的 (统一 3.8)

  • jupyter --> pip install jupyter notebook

  • Pycharm YYDS python最好用的编辑器 不接受反驳…(也可以使用)

模块使用:

第三方:

  • requests >>> 数据请求模块

  • parsel >>> 数据解析模块

内置:

  • csv 内置模块

第三方模块安装:

  1. win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车

  2. 在pycharm中点击Terminal(终端) 输入安装命令

如果出现爆红, 可能是因为 网络连接超时, 可切换国内镜像源,命令如下:

pip install -i https://pypi.doubanio.com/simple/ requests
  • 1

代码展示

获取数据:

导入csv模块

import csv
  • 1

创建文件

f = open('data.csv', mode='w', encoding='utf-8', newline='')
  • 1

添加字段名

csv_writer = csv.DictWriter(f, fieldnames=[
        '标题',
        '小区',
        '区域',
        '总价',
        '单价',
        '户型',
        '面积',
        '朝向',
        '装修',
        '楼层',
        '年份',
        '建筑结构',
        '详情页'
])
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

写表头

csv_writer.writeheader()
  • 1

导入第三方模块, 需要安装

import parsel
import requests
  • 1
  • 2

多页采集

for page in range(1, 101):
  • 1

请求链接

    url = f'https://cs.lianjia.com/ershoufang/pg{page}/'
  • 1

伪装浏览器 --> headers 请求头

    headers = {
        # User-Agent 用户代理 表示浏览器基本身份信息
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36'
    }
  • 1
  • 2
  • 3
  • 4

发送请求

    response = requests.get(url, headers=headers)
    html_data = response.text # <Response [200]> 响应对象 表示请求成功
  • 1
  • 2

把获取下来 html字符串数据内容 <html_data>, 转成可解析对象

    selector = parsel.Selector(html_data)
    """
    selector  <Selector xpath=None data='<html class=""><head><meta http-equiv...'> 选择器对象
        selector.css() 根据标签属性提取数据内容
        selector.xpath()
    """
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

提取所有li标签里面房源信息 --> 返回列表, 列表里面元素是选择器对象

    lis = selector.css('.sellListContent li .info')
  • 1

for循环遍历, 提取出来, 然后也可以使用css语法或者xpath语法 提取具体数据内容

    for li in lis:
        """
        get() 获取第一个标签数据内容 <返回字符串>
        getall() 获取所有标签数据内容 <返回列表>
        strip() 去除字符串左右两端空格
        replace('元/平', '') 字符串替换, 把字符串当中 元/平 替换成 '' --> 相当于删除
        split(' | ') 字符串分割犯法, 把字符串以  |  作为切割, 分割成列表

        """
        title = li.css('.title a::text').get() # 标题
        info = li.css('.positionInfo a::text').getall()
        area = info[0].strip() # 列表第一个元素 小区
        area_1 = info[1] # 区域
        totalPrice = li.css('.totalPrice span::text').get() # 总价
        unitPrice = li.css('.unitPrice span::text').get().replace('元/平', '')  # 单价
        houseInfo = li.css('.houseInfo::text').get().split(' | ')
        """
        有年份, 列表元素就是7个, 没有年份列表元素6个
        """
        house_type = houseInfo[0] # 户型
        house_area = houseInfo[1] # 面积
        face = houseInfo[2] # 朝向
        house = houseInfo[3] # 装修
        fool = houseInfo[4] # 楼层

        if len(houseInfo) == 7:
            date = houseInfo[5] # 年份
            house_1 = houseInfo[6] # 建筑结构
        elif len(houseInfo) == 6:
            date = '未知'
            house_1 = houseInfo[-1] # 建筑结构
        href = li.css('.title a::attr(href)').get() # 详情页
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32

保存字典里面

        dit = {
            '标题': title,
            '小区': area,
            '区域': area_1,
            '总价': totalPrice,
            '单价': unitPrice,
            '户型': house_type,
            '面积': house_area,
            '朝向': face,
            '装修': house,
            '楼层': fool,
            '年份': date,
            '建筑结构': house_1,
            '详情页': href,

        }
#         csv_writer.writerow(dit)
#         print(dit)
    #     print(title, area, area_1, totalPrice, unitPrice, house_type, house_area, face, house, fool, date, house_1, sep='|')
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

数据可视化:

import pandas as pd
# 读取数据
df = pd.read_csv('data.csv')
df.head()
  • 1
  • 2
  • 3
  • 4

house_type_num = df['户型'].value_counts().to_list()
house_type = df['户型'].value_counts().index.to_list()
  • 1
  • 2
from pyecharts import options as opts
from pyecharts.charts import Pie
from pyecharts.globals import CurrentConfig, NotebookType
CurrentConfig.NOTEBOOK_TYPE = NotebookType.JUPYTER_LAB
c = (
    Pie()
    .add("", [list(z) for z in zip(house_type, house_type_num)])
    .set_global_opts(title_opts=opts.TitleOpts(title="二手房源户型"))
    .set_series_opts(label_opts=opts.LabelOpts(formatter="{b}: {c}"))
)
c.load_javascript()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
c.render_notebook()
  • 1
house_num = df['装修'].value_counts().to_list()
house_type_1 = df['装修'].value_counts().index.to_list()
  • 1
  • 2
from pyecharts import options as opts
from pyecharts.charts import Pie
from pyecharts.globals import CurrentConfig, NotebookType
CurrentConfig.NOTEBOOK_TYPE = NotebookType.JUPYTER_LAB
c = (
    Pie()
    .add("", [list(z) for z in zip(house_type_1, house_num)])
    .set_global_opts(title_opts=opts.TitleOpts(title="二手房源装修占比分布"))
    .set_series_opts(label_opts=opts.LabelOpts(formatter="{b}: {c}"))
)
c.render_notebook()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
date_num = df['年份'].value_counts().to_list()
date_type = df['年份'].value_counts().index.to_list()
  • 1
  • 2
from pyecharts import options as opts
from pyecharts.charts import Pie
from pyecharts.globals import CurrentConfig, NotebookType
CurrentConfig.NOTEBOOK_TYPE = NotebookType.JUPYTER_LAB
c = (
    Pie()
    .add("", [list(z) for z in zip(date_type, date_num)])
    .set_global_opts(title_opts=opts.TitleOpts(title="二手房源年份占比分布"))
    .set_series_opts(label_opts=opts.LabelOpts(formatter="{b}: {c}"))
)
c.render_notebook()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
df.head()
  • 1

尾语

好啦,本文章到这里就结束拉

有喜欢的小伙伴记得给博主一个三连哦~

希望你在学习的路上不忘初心,坚持不懈,学有所成

把时间和精力,放在自己擅长的方向,去坚持与努力,

如果不知道自己擅长什么,就尽快找到它。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/192374
推荐阅读
相关标签
  

闽ICP备14008679号