当前位置:   article > 正文

2021-05-14_python 爬取安居客某小区的二手房

python 爬取安居客某小区的二手房

                                                                                                    安居客python二手房数据采集

一:对采集数据进行分析

1.这是打开网页的一级页面。对其中的数据进行分析

其中的小区名称,户型,总面积,朝向这些数据都是我们要进行爬取的,诸如此类,可以提取相关的信息。

 

2.打开二级页面。发现还有一些数据可以进行爬取

这些房源信息也是我们需要爬取的,还有相应的房屋唯一编码,方便我们对后续的数据进行预处理以及可视化分析

通过这些整理处理的数据表结构是这样的:编号;区县;片区;小区名称;房屋单价;房屋总价;户型;面积;朝向;装修;建设时间;房屋属性;用途;产权;产权时间;唯一住房;中介公司;挂牌时间;楼层位置;楼层数;首付;月供

 

二:对数据进行爬取

爬取数据我们要用到python的requests库和beautifulsoup还有re

1.用requests库获取网页链接

url = “https://beijing.anjuke.com/sale/”

我们要爬取多页的数据,通过对url进行分析发现网页链接有规律,可以用for循环对网页链接进行一个拼接

如下:strurl = “https://beijing.anjuke.com/sale/p” + str(i)

获取到网页链接后传入下一个参数,用requests库的get方法获取相应网页的text信息,方便后续的数据提取

 

2.通过对网页内容的分析发现,可以用beautifulsoup来获取二级页面的网页链接,查找相应的a标签中href属性

如下:

代码如下: soup = BeautifulSoup(content,"html.parser")     #html.parser是一个网页解析器
     ultags = soup.find("section",class_="list")                        #find和find_all是beautifulsoup的两个查询方法
     dict = {"tongji_tag":"fcpc_ersflist_gzcount","class":"property"}
     litags = ultags.find_all("div",dict)
     for litag in litags:
         detailUrl = litag.find("a")["href"]
         print(detailUrl)

 

3.对链接处理完之后,把这些获取的text传入相应的网页数据获取的函数中

按f12可以发现网页的编写格式以及我们需要获取的网页数据在哪一个节点

对一个数据进行爬取,代码如下:  bianhao = soup.find("div",class_="banner-title-code").getText()  #getText是为了获取文本内容

诸如此类,可以获取到我们需要的数据。

需要注意的是,我们需要打开一个text,把我们的爬取的数据放到一个文本文档中。

如下:   f = open("安居客.txt", mode="a+", encoding="utf-8")

需要用append把我们的爬取数据添加到text中,例:  contentlist.append(bianhao) #contentlist = [ ] 是我们定义的一个空列表,方便我们存爬取数据

重点!!!!!!

(1)                                                                                                                                              (2)

发现有的有唯一住房,有的没有唯一住房,这是我们需要进行对数据进行处理。代码如下:

 

  1. labelTags = soup.find_all("span", class_="houseInfo-main-item-label")
  2.     nameTags = soup.find_all("span", class_="houseInfo-main-item-name")
  3.     if len(labelTags) == len(nameTags):
  4.         labelDict = {}
  5.         for i in range(0, len(labelTags)):
  6.             lable = labelTags[i].getText().replace("\n","")
  7.             name = nameTags[i].getText().replace("\n", "")
  8.             labelDict[lable] = name
  9.         contentlist.append("" if labelDict.get("产权性质") == None else labelDict.get("产权性质"))
  10.         contentlist.append("" if labelDict.get("物业类型") == None else labelDict.get("物业类型"))
  11.         contentlist.append("" if labelDict.get("产权年限") == None else labelDict.get("产权年限"))
  12.         contentlist.append("" if labelDict.get("房本年限") == None else labelDict.get("房本年限"))
  13.         contentlist.append("" if labelDict.get("唯一住房") == None else labelDict.get("唯一住房"))
  14.         contentlist.append("" if labelDict.get("参考预算") == None else labelDict.get("参考预算"))
  15.         contentlist.append("" if labelDict.get("发布公司") == None else labelDict.get("发布公司"))
  16.         contentlist.append("" if labelDict.get("发布时间") == None else labelDict.get("发布时间"))
  17.     strLine = ";".join(contentlist) + "\n"

 

最后爬取数据的结果是这样的:

房屋编码:1904398733534217;龙泉驿;航天片区;御岭春天;11821.0元/㎡;95 万 ;2室2厅1卫;中层(共26层);80.37㎡ ;南;毛坯;2014年竣工/普通住宅            ;商品房住宅;普通住宅;70年产权;满二年;;首付28万,月供3529.33元;永好房产;2021-3-13
房屋编码:1932842576108553;彭州;彭州城区;置信逸都丹郡A区;9955.0元/㎡;88 万 ;2室2厅1卫;中层(共26层);88.4㎡ ;南北;精装修;2012年竣工/普通住宅            ;商品房住宅;普通住宅;70年产权;满五年;;首付26万,月供3269.28元;星业房地产;2021-4-2
房屋编码:1932379485757448;龙泉驿;航天片区;御岭春天;11717.0元/㎡;94.9 万 ;2室2厅1卫;中层(共26层);81㎡ ;南北;毛坯;2014年竣工/普通住宅            ;商品房住宅;普通住宅;70年产权;满五年;是;首付28万,月供3525.62元;北美地产;2021-4-2
房屋编码:1932515569459202;新都;石油大学;我的大学;11760.0元/㎡;99 万 ;2室2厅1卫;中层(共27层);84.19㎡ ;南北;精装修;2009年竣工/普通住宅            ;商品房住宅;普通住宅;70年产权;满二年;;首付29万,月供3677.94元;大唐房屋;2021-4-2
房屋编码:1943849909787655;新都;新都老城区;桂湖名城;12099.0元/㎡;98 万 ;2室2厅1卫;中层(共26层);81㎡ ;南北;精装修;2015年竣工/普通住宅            ;商品房住宅;普通住宅;70年产权;满二年;;首付29万,月供3640.79元;众诚房产;2021-4-10
房屋编码:1950821116945411;新都;新都老城区;桂湖名城;12099.0元/㎡;98 万 ;2室2厅1卫;中层(共26层);81㎡ ;南北;精装修;2016年竣工/普通住宅            ;商品房住宅;普通住宅;70年产权;满二年;;首付29万,月供3640.79元;大唐房屋;2021-4-15

这样我们的爬取过程就结束了

源代码如下:

  1. import requests
  2. from bs4 import BeautifulSoup
  3. import re
  4. headDict = {
  5. "user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.72 Safari/537.36 Edg/90.0.818.42"
  6. }
  7. def parsershouse(webcontent):
  8. soup = BeautifulSoup(webcontent,"html.parser")
  9. f = open("安居客.txt", mode="a+", encoding="utf-8")
  10. contentlist = []
  11. bianhao = soup.find("div",class_="banner-title-code").getText()
  12. jiegou = soup.find("div",class_="maininfo-model-strong").getText()
  13. louceng = soup.find("div",class_="maininfo-model-weak").getText()
  14. mianji = soup.find("div",class_="maininfo-model-item maininfo-model-item-2").find("div",class_="maininfo-model-strong").getText()
  15. zhuangxiu = soup.find("div",class_="maininfo-model-item maininfo-model-item-2").find("div",class_="maininfo-model-weak").getText()
  16. chaoxiang = soup.find("div",class_="maininfo-model-item maininfo-model-item-3").find("i",class_="maininfo-model-strong-text").getText()
  17. zhuzhai = soup.find("div",class_="maininfo-model-item maininfo-model-item-3").find("div",class_="maininfo-model-weak").getText().replace("\n","")
  18. jiage = soup.find("div",class_="maininfo-price").find("div",class_="maininfo-price-wrap").getText()
  19. danjia = soup.find("div",class_="maininfo-avgprice").find("div",class_="maininfo-avgprice-price").getText().replace("\n","").replace(" ","")
  20. div2 = soup.find_all("div",class_="maininfo-community-item")
  21. dizhi1 = div2[0].getText().replace("所属小区","").replace("地理位置","").replace("\n","").replace(" ","")
  22. dizhi2 = div2[1].getText().replace("所属区域","").replace("\n","")
  23. results = re.findall("([\u4e00-\u9fa5]+)", dizhi2)
  24. area = results[0] if len(results)>0 else "未知"
  25. dizhi3 = results[1] if len(results) > 1 else "未知"
  26. contentlist.append(bianhao)
  27. contentlist.append(area)
  28. contentlist.append(dizhi3)
  29. contentlist.append(dizhi1)
  30. contentlist.append(danjia)
  31. contentlist.append(jiage)
  32. contentlist.append(jiegou)
  33. contentlist.append(louceng)
  34. contentlist.append(mianji)
  35. contentlist.append(chaoxiang)
  36. contentlist.append(zhuangxiu)
  37. contentlist.append(zhuzhai)
  38. labelTags = soup.find_all("span", class_="houseInfo-main-item-label")
  39. nameTags = soup.find_all("span", class_="houseInfo-main-item-name")
  40. if len(labelTags) == len(nameTags):
  41. labelDict = {}
  42. for i in range(0, len(labelTags)):
  43. lable = labelTags[i].getText().replace("\n","")
  44. name = nameTags[i].getText().replace("\n", "")
  45. labelDict[lable] = name
  46. contentlist.append("" if labelDict.get("产权性质") == None else labelDict.get("产权性质"))
  47. contentlist.append("" if labelDict.get("物业类型") == None else labelDict.get("物业类型"))
  48. contentlist.append("" if labelDict.get("产权年限") == None else labelDict.get("产权年限"))
  49. contentlist.append("" if labelDict.get("房本年限") == None else labelDict.get("房本年限"))
  50. contentlist.append("" if labelDict.get("唯一住房") == None else labelDict.get("唯一住房"))
  51. contentlist.append("" if labelDict.get("参考预算") == None else labelDict.get("参考预算"))
  52. contentlist.append("" if labelDict.get("发布公司") == None else labelDict.get("发布公司"))
  53. contentlist.append("" if labelDict.get("发布时间") == None else labelDict.get("发布时间"))
  54. strLine = ";".join(contentlist) + "\n"
  55. print(strLine)
  56. f.write(strLine)
  57. f.close()
  58. def parsercontent(content):
  59. soup = BeautifulSoup(content,"html.parser")
  60. ultags = soup.find("section",class_="list")
  61. dict = {"tongji_tag":"fcpc_ersflist_gzcount","class":"property"}
  62. litags = ultags.find_all("div",dict)
  63. for litag in litags:
  64. detailUrl = litag.find("a")["href"]
  65. print(detailUrl)
  66. code, content = urlcontent(detailUrl)
  67. if code != 200:
  68. continue
  69. parsershouse(content)
  70. def downurl():
  71. for i in range(1, 101):
  72. strUrl = "https://chengdu.anjuke.com/sale/p" + str(i)
  73. print(strUrl)
  74. code, content = urlcontent(strUrl)
  75. if code != 200:
  76. continue
  77. parsercontent(content)
  78. def urlcontent(url):
  79. r = requests.get(url,headers=headDict)
  80. r.encoding = r.apparent_encoding
  81. print(r.status_code)
  82. return r.status_code, r.text
  83. if __name__ == "__main__":
  84. downurl()

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/192428
推荐阅读
相关标签
  

闽ICP备14008679号