当前位置:   article > 正文

用Python实现全国二手房数据抓取+地图展示_参考课堂房产信息获取案例,完成 如下:1)每位同学抓取不同的县市的房产数据:2)

参考课堂房产信息获取案例,完成 如下:1)每位同学抓取不同的县市的房产数据:2)

最近各种政策的出台,导致二手房的价格波动巨大,本文二哥来带领大家通过链家二手房为例,简单分析一下全国多个地区的二手房价格。

【建议先点赞、再收藏】

一、思路❤️

想要获取链家全国二手房的信息,首先我们进入到相关的二手房页面观察一下(以北京为例):
在这里插入图片描述
这里可以看到,我们能够看到北京的二手房信息,但是并没有其他省份和城市的选项,因此回到首页寻找各大城市的选项,通过点击首页左上角的城市按钮,可以进入到相关的省份-城市页面:
在这里插入图片描述
有了省份-城市页面之后,我们就可以通过该页面获取各个城市的url信息,然后再访问各个url进行二手房数据的抓取就可以了。
整体流程如下
在这里插入图片描述

二、获取城市信息❤️

获取城市信息时,我们直接获取到城市页面的HTML进行解析即可,这里因为HTML中有些省份信息的构造不同,因此解析出大部分省份信息使用。
获取城市信息的代码如下:

import random
import time
import csv
import requests
from lxml import etree
import pandas as pd

# 获取各个省份,城市的信息
def city(i, j):
    try:
        p1 = "//li[@class='city_list_li city_list_li_selected'][{}]/div[@class='city_list']/div[@class='city_province']/div[@class='city_list_tit c_b']/text()".format(
            i)
        province = et.xpath(p1)[0]
        cn1 = "//li[@class='city_list_li city_list_li_selected'][{}]/div[@class='city_list']/div[@class='city_province']/ul/li[{}]/a/text()".format(
            i, j)
        city_name = et.xpath(cn1)[0]
        cu1 = "//li[@class='city_list_li city_list_li_selected'][{}]/div[@class='city_list']/div[@class='city_province']/ul/li[{}]/a/@href".format(
            i, j)
        city_url = et.xpath(cu1)[0]
    except:
        return 0, 0, 0
    return province, city_name, city_url


# 生成省份-城市-URL字典
dic1 = {}
count = 1
for i in range(1, 15):
    for j in range(1, 6):
        province, city_name, city_url = city(i, j)
        if province != 0:
            dic1[count] = [province, city_name, city_url]
            count += 1
        else:
            pass
# dic1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36

获取后的结果样例如下:
在这里插入图片描述

三、获取二手房数据❤️

有了各个城市的主页信息之后,我们就可以尝试通过构造二手房的网址来进行多城市的数据获取了,构造二手房网址的时候我们只需要在URL后缀加上ershoufang/pg{}/即可。有了网址我们就能够按照正常的方式进行数据的获取了:

f = open('全国二手房数据.csv', 'a', encoding='gb18030')
write = csv.writer(f)


def parser_html(pr_ci, page, User_Agent):

    headers = {
        'User-Agent': User_Agent[random.randint(0,
                                                len(User_Agent) - 1)]
    }

    for i in range(1, len(pr_ci) + 1):
        province = pr_ci.get(i)[0]
        city = pr_ci.get(i)[1]
        url = pr_ci.get(i)[2] + 'ershoufang/pg{}/'.format(page)
        print(url)
        html = requests.get(url=url, headers=headers).text
        eobj = etree.HTML(html)
        li_list = eobj.xpath("//li[@class='clear LOGVIEWDATA LOGCLICKDATA']")
        for li in li_list:
            title_list = li.xpath(".//div[@class='title']/a/text()")
            title = title_list[0] if title_list else None
            name_list = li.xpath(".//div[@class='positionInfo']/a[1]/text()")
            name = name_list[0] if name_list else None
            area_list = li.xpath(".//div[@class='positionInfo']/a[2]/text()")
            area = area_list[0] if area_list else None
            info_list = li.xpath(".//div[@class='houseInfo']/text()")
            info = info_list[0] if info_list else None

            if info:
                model = size = face = decorate = floor = year = type1 = None
                info_list1 = info.split("|")
                for i in info_list1:

                    if '室' in i:
                        model = i
                    elif '平米' in i:
                        size = i
                    elif '东' in i or '西' in i or '南' in i or '北' in i:
                        face = i
                    elif '装' in i or '毛' in i:
                        decorate = i
                    elif '层' in i:
                        floor = i
                    elif '年' in i:
                        year = i
                    elif '板' in i or '塔' in i:
                        type1 = i
                    else:
                        pass

            else:
                model = size = face = decorate = floor = year = type1 = None
            follow_list = li.xpath(".//div[@class='followInfo']/text()")
            follow = follow_list[0].split(
                '/')[0].strip() if follow_list else None
            time1 = follow_list[0].split(
                '/')[1].strip() if follow_list else None
            price_list = li.xpath(".//div[@class='totalPrice']/span/text()")
            price = price_list[0] + '万' if price_list else None
            unit_list = li.xpath(".//div[@class='unitPrice']/span/text()")
            unit = unit_list[0][2:-4] if unit_list else None

            # 具体的城市+楼房信息
            list1 = [
                province, city, url, title, name, area, model, size, face,
                decorate, floor, year, type1, follow, time1, price, unit
            ]

            write.writerow(list1)
        time.sleep(random.randint(2, 5))


def serve_forever():
    write.writerow([
        'province', 'city', 'url', 'title', 'name', 'area', 'model', 'size',
        'face', 'decorate', 'floor', 'year', 'type', 'follow', 'time', 'price',
        'unit'
    ])
    try:
        for i in range(1, 3):
            parser_html(dic1, i, User_Agent)
            time.sleep(random.randint(1, 3))
    except:
        pass
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85

进行爬取后的数据如下:
在这里插入图片描述

四、绘图❤️

既然我们进行的是对全国数据的抓取,那么最好的呈现方式当然是通过地图展示数据,这里我们通过房源数量的多少作为例子进行地图展示,对于其他的维度进行数据替换即可。
实现方式如下:

from pyecharts import options as opts
from pyecharts.charts import Geo
from pyecharts.faker import Faker
from pyecharts.globals import ChartType
import pandas as pd

ljdata = pd.read_csv("全国二手房数据.csv",encoding = 'gb18030')
pro_num = ljdata['province'].value_counts()
c = (
    Geo()
    .add_schema(maptype="china")
    .add(
        "房源数量",
        [list(z) for z in zip(pro_num.index, pro_num.values)],
        type_=ChartType.HEATMAP,
    )
    .set_series_opts(label_opts=opts.LabelOpts(is_show=False))
    .set_global_opts(
        visualmap_opts=opts.VisualMapOpts(),
        title_opts=opts.TitleOpts(title="Geo-HeatMap"),
    )
)
c.render_notebook()
c.render()

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

运行后的结果如下:
在这里插入图片描述
至此我们的数据获取+可视化就完成了。

❤️点赞呦!❤️

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/192409
推荐阅读
相关标签