当前位置:   article > 正文

python二手房使用教程_Python爬虫入门教程03:二手房数据爬取

selector.css('.selllistcontent li')

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

基本开发环境Python 3.6

Pycharm

相关模块的使用requests

parsel

csv

安装Python并添加到环境变量,pip安装需要的相关模块即可。

一、明确需求

87901529b4b3b9706add27b81c387e2b.png

爬取图上所框的内容

二、请求网页

打开开发者工具( F12或者鼠标右键点击检查 )选择 notework 查看数据返回的内容。

b0d76cfeb4352a5e99b2967697b4abf0.png

通过开发者工具可以看到,网站是静态网页数据,请求url地址是可以直接获取数据内容的。url = 'https://cs.lianjia.com/ershoufang/'

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'

}

response = requests.get(url=url, headers=headers)

print(response.text)

如果你不知道,返回的数据中是否有你想要的内容,你有复制网页的内容,在pycharm的输出结果中进行搜索查看。

d65d438096c10227e45f4cfb3c010bdc.png

三、解析数据

既然网站是静态网页数据,那么就可以直接在开发者工具中 Elements  查看数据在哪

bcc8bfcc3ee38b33ae826ab40eb7d00f.png

如上图所示,相关的数据内容都包含在 li 标签里面。通过 parsel 解析库,进行解析提取数据就可以了。selector = parsel.Selector(response.text)

lis = selector.css('.sellListContent li')

for li in lis:

# 标题

title = li.css('.title a::text').get()

# 地址

positionInfo = li.css('.positionInfo a::text').getall()

# 小区

community = positionInfo[0]

# 地名

address = positionInfo[1]

# 房子基本信息

houseInfo = li.css('.houseInfo::text').get()

# 房价

Price = li.css('.totalPrice span::text').get() + '万'

# 单价

unitPrice = li.css('.unitPrice span::text').get().replace('单价', '')

# 发布信息

followInfo = li.css('.followInfo::text').get()

dit = {

'标题': title,

'小区': community,

'地名': address,

'房子基本信息': houseInfo,

'房价': Price,

'单价': unitPrice,

'发布信息': followInfo,

}

print(dit)

当我运行的时候发现报错了。

667056ee519eb9c8dee5e883c0670b64.png

IndexError: list index out of range 超出索引范围了。

遇事不要慌, 取0超出索引范围,说明数据并没有取到,所以我们要看一下 这个信息下面那一个是什么情况。

778784d335608f850b45e290f0b5bcb2.png

搜索发现,这个中间插入了一条广告,也是li标签里面的,所以做一个简单的判断就好了,它是一个广告并没有标题,判断是否有标题就可以了,有就爬取相关内容,没有就pass掉。for li in lis:

# 标题

title = li.css('.title a::text').get()

if title:

# 地址

positionInfo = li.css('.positionInfo a::text').getall()

# 小区

community = positionInfo[0]

# 地名

address = positionInfo[1]

# 房子基本信息

houseInfo = li.css('.houseInfo::text').get()

# 房价

Price = li.css('.totalPrice span::text').get() + '万'

# 单价

unitPrice = li.css('.unitPrice span::text').get().replace('单价', '')

# 发布信息

followInfo = li.css('.followInfo::text').get()

dit = {

'标题': title,

'小区': community,

'地名': address,

'房子基本信息': houseInfo,

'房价': Price,

'单价': unitPrice,

'发布信息': followInfo,

}

print(dit)

3abcbcf1756eea55457e15c1e364db7f.png

这样就不会报错了。

四、保存数据(数据持久化)

和爬取豆瓣的电影信息是一样的,使用csv模块,把数据保存到Excel里面# 创建文件

f = open('二手房数据.csv', mode='a', encoding='utf-8', newline='')

csv_writer = csv.DictWriter(f, fieldnames=['标题', '小区', '地名', '房子基本信息',

'房价', '单价', '发布信息'])

# 写入表头

csv_writer.writeheader()

''''

''''

csv_writer.writerow(dit)

五、多页爬取# 第二页url地址

url_2 = 'https://cs.lianjia.com/ershoufang/pg2/'

# 第三页url地址

url_3 = 'https://cs.lianjia.com/ershoufang/pg3/'

# 第四页url地址

url_4 = 'https://cs.lianjia.com/ershoufang/pg4/'

2827fc26921c8c31434b03e7e64cc7ab.png

通过以上的内容,只需要for 循环遍历 pg的参数 即可多页爬取for page in range(1, 101):

url = f'https://cs.lianjia.com/ershoufang/pg{page}/'

这样就可以进行多页爬取了。

实现效果

6e95744968eaae2bad28f78966f31a37.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/192365
推荐阅读
相关标签
  

闽ICP备14008679号