当前位置:   article > 正文

手把手教你用Python网络爬虫爬取新房数据

利用pycharm爬取房产数据

击上方“Python爬虫与数据挖掘”,进行关注

回复“书籍”即可获赠Python从入门到进阶共10本电子书

念天地之悠悠,独怆然而涕下。

项目背景

大家好,我是J哥。

新房数据,对于房地产置业者来说是买房的重要参考依据,对于房地产开发商来说,也是分析竞争对手项目的绝佳途径,对于房地产代理来说,是踩盘前的重要准备。

今天J哥以「惠民之家」为例,手把手教你利用Python将惠州市新房数据批量抓取下来,共采集到近千个楼盘,包含楼盘名称、销售价格、主力户型、开盘时间、容积率、绿化率等「41个字段」。数据预览如下:

后台回复「新房」二字,可领取本文代码。

项目目标

惠民之家首页网址:

http://www.fz0752.com/

新房列表网址:

http://www.fz0752.com/project/list.shtml

选择一个新房并点击「详情信息」即可找到目标字段:

项目准备

软件:Pycharm

第三方库:requests,fake_useragent,lxml

网站地址:http://www.fz0752.com/

网页分析

列表页分析

打开新房列表网页,点击「下一页」后,网址变成:

http://www.fz0752.com/project/list.shtml?state=&key=&qy=&area=&danjia=&func=&fea=&type=&kp=&mj=&sort=&pageNO=2

很显然,这是静态网页,翻页参数为「pageNO」,区域参数为「qy」,其余参数也很好理解,点击对应筛选项即可发现网页链接变化。咱们可以通过遍历区域和页码,将新房列表的房源URL提取下来,再遍历这些URL,抓取到每个房源的详情信息。

详情页分析

选择一个新房URL,点击进去,链接如下:

http://newhouse.fz0752.com/fontHtml/html/project/00020170060.html

即这个新房的id为「00020170060」,再点击详情信息,链接变为:

http://newhouse.fz0752.com/project/detail.shtml?num=20170060

即这个新房的「详情信息」的id为「20170060」,我们可以大胆假设这个id就是新房id截取的一部分。多找几个新房点击尝试,很容易验证这个规律。

反爬分析

相同的ip地址频繁访问同一个网页会有被封风险,本文采用fake_useragent,将随机生成的User-Agent请求头去访问网页,将减少ip封锁的风险。

代码实现

导入爬虫相关库,定义一个主函数,构建区域列表(不同区域对应不用的区域id),遍历并用requests去请求由区域参数和页码参数拼接的URL。这里将页码设置50上限,当遍历的某个房源URL长度为0(即不存在新房数据)时,直接break,让程序进行下一个区域的遍历,直至所有数据抓取完毕,程序停止。

  1. # -*- coding = uft-8 -*-
  2. # @Time : 2020/12/21 9:29 下午
  3. # @Author : J哥
  4. # @File : newhouse.py
  5. import csv
  6. import time
  7. import random
  8. import requests
  9. import traceback
  10. from lxml import etree
  11. from fake_useragent import UserAgent
  12. def main():
  13. #46:惠城区,47:仲恺区,171:惠阳区,172:大亚湾,173:博罗县,174:惠东县,175:龙门县
  14. qy_list = [46,47,171,172,173,174,175]
  15. for qy in qy_list: #遍历区域
  16. for page in range(1,50): #遍历页数
  17. url = f'http://www.fz0752.com/project/list.shtml?state=&key=&qy={qy}&area=&danjia=&func=&fea=&type=&kp=&mj=&sort=&pageNO={page}'
  18. response = requests.request("GET", url, headers = headers,timeout = 5)
  19. print(response.status_code)
  20. if response.status_code == 200:
  21. re = response.content.decode('utf-8')
  22. print("正在提取" + str(qy) +'第' + str(page) + "页")
  23. #time.sleep(random.uniform(1, 2))
  24. print("-" * 80)
  25. # print(re)
  26. parse = etree.HTML(re)
  27. get_href(parse,qy)
  28. num = ''.join(parse.xpath('//*[@id="parent-content"]/div/div[6]/div/div[1]/div[2]/div[1]/div[2]/div[1]/div[1]/a/@href'))
  29. print(len(num))
  30. if len(num) == 0:
  31. break
  32. if __name__ == '__main__':
  33. ua = UserAgent(verify_ssl=False)
  34. headers = {"User-Agent": ua.random}
  35. time.sleep(random.uniform(1, 2))
  36. main()

发送请求,获取新房列表网页,并解析到所有新房URL,同时将新房id替换为详情信息id。在程序运行中发现有少数新房URL不一致,因此这里做了判断,修改后可以获取完整的详情信息id,并拼接出对应的URL。

  1. def get_href(parse,qy):
  2. items = parse.xpath('//*[@id="parent-content"]/div/div[6]/div/div[1]/div[2]/div')
  3. try:
  4. for item in items:
  5. href = ''.join(item.xpath('./div[2]/div[1]/div[1]/a/@href')).strip()
  6. print("初始href为:",href)
  7. #print(len(href))
  8. if len(href) > 25:
  9. href1 = 'http://newhouse.fz0752.com/project/detail.shtml?num=' + href[52:].replace(".html","")
  10. else:
  11. href1 = 'http://newhouse.fz0752.com/project/detail.shtml?num=' + href[15:]
  12. print("详情href为:",href1)
  13. try:
  14. get_detail(href1,qy)
  15. except:
  16. pass
  17. except Exception:
  18. print(traceback.print_exc())

打印结果如下:

详情信息URL找到后,定义一个函数去请求详情页数据,同时携带qy参数,最后将其保存到csv中。

  1. def get_detail(href1,qy):
  2. time.sleep(random.uniform(1, 2))
  3. response = requests.get(href1, headers=headers,timeout = 5)
  4. if response.status_code == 200:
  5. source = response.text
  6. html = etree.HTML(source)

开始解析详情页中的各个字段,这里用到xpath进行数据解析,由于需要解析的字段太多,高达41个,限于篇幅,以下仅给出部分字段解析代码。当然,其他字段解析基本一样。

  1. #项目状态
  2. try:
  3. xmzt = html.xpath('//*[@id="parent-content"]/div/div[3]/div[3]/div[1]/div[1]/text()')[0].strip()
  4. except:
  5. xmzt = None
  6. #项目名称
  7. try:
  8. name = html.xpath('//*[@id="parent-content"]/div/div[3]/div[3]/div[1]/h1/text()')[0].strip()
  9. except:
  10. name = None
  11. #项目简介
  12. ps = html.xpath('//*[@id="parent-content"]/div/div[3]/div[5]/div[2]/div')
  13. for p in ps:
  14. try:
  15. xmjj = p.xpath('./p[1]/text()')[0].strip()
  16. except:
  17. xmjj = None
  18. infos = html.xpath('//*[@id="parent-content"]/div/div[3]/div[5]/div[1]/div/table/tbody')
  19. for info in infos:
  20. #行政区域
  21. try:
  22. xzqy = info.xpath('./tr[1]/td[1]/text()')[0].strip()
  23. except:
  24. xzqy = None
  25. #物业类型
  26. try:
  27. wylx = info.xpath('./tr[2]/td[1]/text()')[0].strip()
  28. except:
  29. wylx = None
  30. #销售价格
  31. try:
  32. xsjg = info.xpath('./tr[3]/td[1]/text()')[0].strip()
  33. except:
  34. xsjg = None
  35. ······
  36. data = {
  37. 'xmzt':xmzt,
  38. 'name':name,
  39. 'xzqy':xzqy,
  40. ······
  41. 'qy':qy
  42. }
  43. print(data)

解析完数据后,将其置于字典中,打印结果如下:然后追加保存为csv:

  1. try:
  2. with open('hz_newhouse.csv', 'a', encoding='utf_8_sig', newline='') as fp:
  3. fieldnames = ['xmzt','name','xzqy',······,'qy']
  4. writer = csv.DictWriter(fp, fieldnames = fieldnames)
  5. writer.writerow(data)
  6. except Exception:
  7. print(traceback.print_exc())

当然,我们也可以读取csv文件,并写入Excel:

  1. df = pd.read_csv("newhouse.csv",names=['name','xzqy','wylx',······,'state'])
  2. df = df.drop_duplicates()
  3. df.to_excel("newhouse.xlsx",index=False)

总结

  1. 本文基于Python爬虫技术,提供了一种更直观的抓取新房数据的方法。

  2. 不建议抓取太多,容易使得服务器负载,浅尝辄止即可。

  3. 如需本文完整代码,后台回复「新房」两个字即可获取。

------------------- End -------------------

往期精彩文章推荐:

  1. 反爬虫策略手把手教你使用FastAPI来限制接口的访问速率

  2. 一篇文章带你解锁Python库中操作系统级别模块psutil

  3. 盘点5种基于Python生成的个性化语音方法

欢迎大家点赞,留言,转发,转载,感谢大家的相伴与支持

想加入Python学习群请在后台回复【入群

万水千山总是情,点个【在看】行不行

/今日留言主题/

随便说一两句吧~

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/192558
推荐阅读
相关标签
  

闽ICP备14008679号