赞
踩
我选择爬虫作为python期末作业,爬取成都链家租房网站信息。
先说一下我的思路:
1、请求租房首页,获取列表中各个房屋的详情页url
2、请求各个房屋的详情页,爬取其中的房屋详情信息
3、翻页,爬取更多数据
4、保存数据至本地
首先打开我们的目标网站,我想爬的是链家官方的锦江区一居室,七百多条条数据完全够用了。
然后鼠标右键进行检查:
发现href中的url,这是我们第二次请求所需要的
- import parsel
- import random
- import requests
- import pprint
- import csv
- import re
- from bs4 import BeautifulSoup
- import time
-
- user_agents =[
- 'Mozilla/5.0 (Windows; U; Windows NT 5.1; it; rv:1.8.1.11) Gecko/20071127 Firefox/2.0.0.11',
- 'Opera/9.25 (Windows NT 5.1; U; en)',
- 'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)',
- 'Mozilla/5.0 (compatible; Konqueror/3.5; Linux) KHTML/3.5.5 (like Gecko) (Kubuntu)',
- 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.0.12) Gecko/20070731 Ubuntu/dapper-security Firefox/1.5.0.12',
- 'Lynx/2.8.5rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/1.2.9',
- 'Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:10.0) Gecko/20100101 Firefox/10.0',
- ]
- agent = random.choice(user_agents)
- headers = {
- 'User-Agent': agent
- }
-
- response = requests.get(url=url,headers=headers)
- #parsel模块无法直接对字符串数据解析提取
- selector = parsel.Selector(response.text)
- #css选择器,根据标签属性内容提取对应数据
- href = selector.css('#content > div.content__article > div.content__list > div > a::attr(href)').getall()
-
接下来查看房屋详情页,我想要的是标题、月租价格、以及”房屋信息“中的面积、朝向、楼层、电梯、车位、用水、用电、燃气、采暖这些信息。
- for index in href:
- link = "https://cd.lianjia.com"+index
- print(link)
- house_data = requests.get(url=link,headers=headers).text
- selector_house = parsel.Selector(house_data)
- title = selector_house.css('body > div.wrapper > div > div.content.clear.w1150 > div.top_content > div.top_left > p::text').get().replace(" ","").replace("\n","")
- price = selector_house.css('#aside > div.content__aside--title > span::text').get()
- house_info = selector_house.css('#info > ul > li::text').getall()
- area = house_info[1][3:]
- direction = house_info[2][3:]
- floor = house_info[7][3:]
- lift = house_info[8][3:]
- car = house_info[10][3:]
- water = house_info[11][3:]
- electricity = house_info[13][3:]
- gas = house_info[14][3:]
- heating = house_info[16][3:]
-
- info = {
- '详情页': link,
- '标题': title,
- '月租': price,
- '面积': area,
- '朝向': direction,
- '楼层': floor,
- '电梯': lift,
- '车位': car,
- '用水': water,
- '用电': electricity,
- '燃气': gas,
- '暖气': heating
-
- }
- # pprint.pprint(info)
- print(info)
保存至本地:
- f = open('house_data.csv',mode='a',encoding='utf-8',newline='')
- csv_writer = csv.DictWriter(f, fieldnames=[
- '标题',
- '月租',
- '面积',
- '朝向',
- '楼层',
- '电梯',
- '车位',
- '用水',
- '用电',
- '燃气',
- '暖气',
- '详情页'
- ])
- # 写入表头
- csv_writer.writeheader()
记得import csv,以及在info字典后面加上:
csv_writer.writerow(info)
于是变成了这样:
- info = {
- '详情页': link,
- '标题': title,
- '月租': price,
- '面积': area,
- '朝向': direction,
- '楼层': floor,
- '电梯': lift,
- '车位': car,
- '用水': water,
- '用电': electricity,
- '燃气': gas,
- '暖气': heating
-
- }
- # pprint.pprint(info)
- csv_writer.writerow(info)
- print(info)
获取多页:(需要通过观察和尝试,此处不赘述)
学习跳转链接:在万维网爬虫中进行翻页爬取的三种常用方案-CSDN博客
- for i in range(1,27):
- url=f'https://cd.lianjia.com/zufang/jinjiang/ab200301001000pg{i}l0/'
可以跑起来了,但是出现了报错:
打印出错的url地址,发现这个页面的结构和其他的不同
于是把它也加上
- title = selector_house.css('body > div.wrapper > div > div.content.clear.w1150 > div.top_content > div.top_left > p::text'
- or 'body > div.wrapper > div:nth-child(2) > div.content.clear.w1150 > p::text').get().replace(" ","").replace("\n","")
但是仍然会报错,我就把replace删了,最后把七百多条全爬完了,在excel表格里手工修改了一下格式:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。