当前位置:   article > 正文

爬虫xpath实战-----链家二手房交易获取数据_链家user-agent哪里找得到

链家user-agent哪里找得到

爬取前需要安装的库:requests,lxml,csv

安装方式:

pip install requests

pip install lxml

pip install csv

一、需求分析:

目标:熟悉xpath解析数的方式
需求:爬取二手房的房源名称,房源地点,房源单价,房源总价,爬取前5页数据,并保存到csv表格当中

二、前序操作步骤准备:

2.1 找到目标网站的url(长沙二手房房源_长沙二手房出售|买卖|交易信息(长沙链家)

2.2 右键点击查看网页源代码

查看源代码中是否有“北辰经典三房”这一数据,这是用来判断我们此时看到的数据是否是ajax加载的数据,如果是ajax加载的数据那么我们就需要使用别的办法来解决。(按ctrl+F用于快速查找)

 我们可以发现该数据可以在源代码中找到,因此我们就可以直接对该网站进行操作。

2.3 网络请求头查找:

回到网页界面,按F12打开开发者工具,选中“网络”,然后找到网页源代码文档:

点击该文档之后往下划找到User-Agent,这个就是我们需要的请求头参数

 那我们该如何检验该网站是否为我们所需要的那一个网站呢?

我们点击在该文档中点击相应,然后使用快捷方式 ctrl+F 输入北辰经典三房,然后我们就可以在里面看到跟源代码一样的内容,因此这个文档就是我们需要的文档。

 2.4 查看网页源代码的编码格式:

我们在网页源代码中进行查看,找到charset确定其编码格式:

2.5 确定网页的请求方式(很重要)

不同的网站可能有不同的请求方式,因此我们对于一个确定的网站需要找到其请求方式我们才能进行获取数据:

我们通过在标头中找到其请求方法为get请求。

因此我们即可完成对该网站爬取的基本的前序步骤。

三、代码分析展示(以函数的形式):

3.1 确定url以及请求头:

  1. url = 'https://cs.lianjia.com/ershoufang/'
  2. headers={
  3. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36'
  4. }

 3.2 获取网页源代码数据:

  1. def get_data_index():
  2. response = requests.get(url=url,headers=headers) # 获取网页源代码
  3. response.encoding = 'utf-8' # 将编码格式改成utf-8
  4. print(response) # 打印一下看看是否爬取,用于检验,后续我们不需要这个打印结果
  5. return response.text # 返回源代码的文本属性

3.3 解析网页源代码数据(使用xpath解析):

在开发者工具中我们可以找到指定内容在网页源代码的位置,通过这个位置我们就可以获取到网页源代码的内容。

在元素栏中点击那个左上角的标识,然后点击我们需要爬取的内容。

我们找到这个内容之后,右击就可以找到其xpath的路径。 

 

 

 通过以上方法,我们就可以找到我们需要爬取的所有数据以及其xpath路径,这样我们就可以展开我们的代码了。

  1. def parse_data_index(self,response):
  2. html = etree.HTML(response) # 传入response参数,使用etree方法将其转化为文档树
  3. data_list = html.xpath('//*[@id="content"]/div[1]/ul/li') # 找到所有数据的xpath路径
  4. content_data = [['标题','位置','单价','总价']] # 后续进行表格保存的处理
  5. for data in data_list:
  6. add_data = []
  7. try:
  8. title = data.xpath('./div[1]/div[1]/a/text()')[0]
  9. location ='-'.join(data.xpath('./div[1]/div[2]/div/a/text()'))
  10. dan_price = data.xpath('./div[1]/div[6]/div[2]/span/text()')[0]
  11. all_price = data.xpath('./div[1]/div[6]/div[1]/span/text()')[0] + '万'
  12. # print(title,location,dan_price,all_price) # 用于检验是否保存成功
  13. add_data.extend([title,location,dan_price,all_price])
  14. content_data.append(add_data)
  15. except(IndexError):
  16. continue
  17. return content_data

3.4 保存爬取数据到csv表格中:

  1. def write_data_index(content_data):
  2. # 指定保存的文件路径和文件名
  3. filename = 'data.csv'
  4. # 以写入模式打开文件,并创建CSV写入器
  5. with open(filename, 'w', newline='', encoding='utf-8') as csvfile:
  6. writer = csv.writer(csvfile)
  7. # 逐行写入数据
  8. for row in content_data:
  9. writer.writerow(row)
  10. print('数据已成功保存到', filename)

四、全部代码展示(以面向过程的方式):

  1. # -*- coding:utf-8 -*-
  2. import requests
  3. from lxml import etree
  4. import csv
  5. class Lian_Jia(object):
  6. def __init__(self):
  7. self.url = 'https://cs.lianjia.com/ershoufang/pg{}/'
  8. self.headers={
  9. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36'
  10. }
  11. def get_data_index(self,page):
  12. new_url = self.url.format(page)
  13. response = requests.get(url=self.url,headers=self.headers)
  14. return response.text
  15. def parse_data_index(self,response):
  16. html = etree.HTML(response)
  17. data_list = html.xpath('//*[@id="content"]/div[1]/ul/li')
  18. content_data = [['标题','位置','单价','总价']]
  19. for data in data_list:
  20. add_data = []
  21. try:
  22. title = data.xpath('./div[1]/div[1]/a/text()')[0]
  23. location ='-'.join(data.xpath('./div[1]/div[2]/div/a/text()'))
  24. dan_price = data.xpath('./div[1]/div[6]/div[2]/span/text()')[0]
  25. all_price = data.xpath('./div[1]/div[6]/div[1]/span/text()')[0] + '万'
  26. # print(title,location,dan_price,all_price)
  27. add_data.extend([title,location,dan_price,all_price])
  28. content_data.append(add_data)
  29. except(IndexError):
  30. continue
  31. return content_data
  32. def write_data_index(self,content_data):
  33. # 指定保存的文件路径和文件名
  34. filename = 'data.csv'
  35. # 以写入模式打开文件,并创建CSV写入器
  36. with open(filename, 'w', newline='', encoding='utf-8') as csvfile:
  37. writer = csv.writer(csvfile)
  38. # 逐行写入数据
  39. for row in content_data:
  40. writer.writerow(row)
  41. print('数据已成功保存到', filename)
  42. def run(self):
  43. # for page in range(1,6):
  44. response = self.get_data_index(1)
  45. content_data = self.parse_data_index(response)
  46. self.write_data_index(content_data)
  47. if __name__ == '__main__':
  48. spider = Lian_Jia()
  49. spider.run()


 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/659123
推荐阅读
相关标签
  

闽ICP备14008679号