当前位置:   article > 正文

浅学爬虫-python爬虫基础

浅学爬虫-python爬虫基础
介绍与应用

Python爬虫是指利用Python编写程序从互联网上自动获取信息的技术。爬虫广泛应用于数据收集、价格监控、内容聚合、市场分析等领域。其基本原理是模拟浏览器发送HTTP请求获取网页数据,并通过解析HTML来提取所需的信息。

基本工具

Python中有许多强大的爬虫库,最常用的两个库是requestsBeautifulSoup

  • requests: 一个简单易用的HTTP库,用于发送HTTP请求。
  • BeautifulSoup: 一个HTML解析库,用于从网页中提取数据。
第一个爬虫

我们将编写一个简单的爬虫,从一个网页上提取数据。假设我们要爬取一个简单的网站,并从中提取标题和段落内容。

步骤1:安装所需库 首先,我们需要安装requestsBeautifulSoup库。可以使用以下命令安装:

  1. pip install requests
  2. pip install beautifulsoup4

步骤2:编写爬虫代码

  1. import requests
  2. from bs4 import BeautifulSoup
  3. # 目标URL
  4. url = "http://example.com"
  5. # 发送HTTP请求
  6. response = requests.get(url)
  7. # 检查请求是否成功
  8. if response.status_code == 200:
  9. # 解析HTML内容
  10. soup = BeautifulSoup(response.content, 'html.parser')
  11. # 提取标题
  12. title = soup.find('h1').text
  13. print(f"标题: {title}")
  14. # 提取段落内容
  15. paragraphs = soup.find_all('p')
  16. for idx, paragraph in enumerate(paragraphs, start=1):
  17. print(f"段落 {idx}: {paragraph.text}")
  18. else:
  19. print(f"请求失败,状态码: {response.status_code}")

代码解释:

  1. 导入库: 导入requestsBeautifulSoup库。
  2. 目标URL: 设置我们要爬取的网页URL。
  3. 发送HTTP请求: 使用requests.get方法发送请求并获取响应。
  4. 检查请求状态: 检查请求是否成功(状态码200表示成功)。
  5. 解析HTML内容: 使用BeautifulSoup解析HTML内容。
  6. 提取标题: 使用soup.find方法查找标题标签并提取文本内容。
  7. 提取段落内容: 使用soup.find_all方法查找所有段落标签并提取文本内容。
使用代理池

在实际的爬虫应用中,我们可能会遇到IP被封禁的情况,这时我们可以使用代理池来绕过封禁。代理池是指一组代理服务器的集合,通过轮换使用这些代理服务器,可以避免被目标网站封禁。

设置代理池的步骤

步骤1:准备代理池 可以手动收集免费代理,也可以使用一些代理服务提供的API获取代理。

步骤2:编写使用代理池的爬虫代码

  1. import requests
  2. from bs4 import BeautifulSoup
  3. import random
  4. # 目标URL
  5. url = "http://example.com"
  6. # 代理池
  7. proxy_pool = [
  8. 'http://12.34.56.78:9100',
  9. 'http://23.45.67.89:9101',
  10. 'http://34.56.78.90:9102'
  11. ]
  12. # 随机选择一个代理
  13. proxy = random.choice(proxy_pool)
  14. proxies = {
  15. 'http': proxy,
  16. 'https': proxy
  17. }
  18. # 发送HTTP请求
  19. response = requests.get(url, proxies=proxies)
  20. # 检查请求是否成功
  21. if response.status_code == 200:
  22. # 解析HTML内容
  23. soup = BeautifulSoup(response.content, 'html.parser')
  24. # 提取标题
  25. title = soup.find('h1').text
  26. print(f"标题: {title}")
  27. # 提取段落内容
  28. paragraphs = soup.find_all('p')
  29. for idx, paragraph in enumerate(paragraphs, start=1):
  30. print(f"段落 {idx}: {paragraph.text}")
  31. else:
  32. print(f"请求失败,状态码: {response.status_code}")

代码解释:

  1. 代理池: 创建一个包含多个代理的列表。
  2. 随机选择代理: 使用random.choice方法从代理池中随机选择一个代理。
  3. 设置代理: 创建一个字典,包含HTTP和HTTPS的代理设置。
  4. 发送HTTP请求: 使用代理发送请求。
结论

通过以上简单的例子,我们成功编写了一个基础的Python爬虫,并从网页中提取了标题和段落内容。同时,我们学习了如何使用代理池来绕过IP封禁。在接下来的文章中,我们将进一步探讨更多的爬虫技巧和高级应用。

介绍与应用

Python爬虫是指利用Python编写程序从互联网上自动获取信息的技术。爬虫广泛应用于数据收集、价格监控、内容聚合、市场分析等领域。其基本原理是模拟浏览器发送HTTP请求获取网页数据,并通过解析HTML来提取所需的信息。

基本工具

Python中有许多强大的爬虫库,最常用的两个库是requestsBeautifulSoup

  • requests: 一个简单易用的HTTP库,用于发送HTTP请求。
  • BeautifulSoup: 一个HTML解析库,用于从网页中提取数据。
第一个爬虫

我们将编写一个简单的爬虫,从一个网页上提取数据。假设我们要爬取一个简单的网站,并从中提取标题和段落内容。

步骤1:安装所需库 首先,我们需要安装requestsBeautifulSoup库。可以使用以下命令安装:

  1. pip install requests
  2. pip install beautifulsoup4

步骤2:编写爬虫代码

  1. import requests
  2. from bs4 import BeautifulSoup
  3. # 目标URL
  4. url = "http://example.com"
  5. # 发送HTTP请求
  6. response = requests.get(url)
  7. # 检查请求是否成功
  8. if response.status_code == 200:
  9. # 解析HTML内容
  10. soup = BeautifulSoup(response.content, 'html.parser')
  11. # 提取标题
  12. title = soup.find('h1').text
  13. print(f"标题: {title}")
  14. # 提取段落内容
  15. paragraphs = soup.find_all('p')
  16. for idx, paragraph in enumerate(paragraphs, start=1):
  17. print(f"段落 {idx}: {paragraph.text}")
  18. else:
  19. print(f"请求失败,状态码: {response.status_code}")

代码解释:

  1. 导入库: 导入requestsBeautifulSoup库。
  2. 目标URL: 设置我们要爬取的网页URL。
  3. 发送HTTP请求: 使用requests.get方法发送请求并获取响应。
  4. 检查请求状态: 检查请求是否成功(状态码200表示成功)。
  5. 解析HTML内容: 使用BeautifulSoup解析HTML内容。
  6. 提取标题: 使用soup.find方法查找标题标签并提取文本内容。
  7. 提取段落内容: 使用soup.find_all方法查找所有段落标签并提取文本内容。
使用代理池

在实际的爬虫应用中,我们可能会遇到IP被封禁的情况,这时我们可以使用代理池来绕过封禁。代理池是指一组代理服务器的集合,通过轮换使用这些代理服务器,可以避免被目标网站封禁。

设置代理池的步骤

步骤1:准备代理池 可以手动收集免费代理,也可以使用一些代理服务提供的API获取代理。

步骤2:编写使用代理池的爬虫代码

  1. import requests
  2. from bs4 import BeautifulSoup
  3. import random
  4. # 目标URL
  5. url = "http://example.com"
  6. # 代理池
  7. proxy_pool = [
  8. 'http://12.34.56.78:9100',
  9. 'http://23.45.67.89:9101',
  10. 'http://34.56.78.90:9102'
  11. ]
  12. # 随机选择一个代理
  13. proxy = random.choice(proxy_pool)
  14. proxies = {
  15. 'http': proxy,
  16. 'https': proxy
  17. }
  18. # 发送HTTP请求
  19. response = requests.get(url, proxies=proxies)
  20. # 检查请求是否成功
  21. if response.status_code == 200:
  22. # 解析HTML内容
  23. soup = BeautifulSoup(response.content, 'html.parser')
  24. # 提取标题
  25. title = soup.find('h1').text
  26. print(f"标题: {title}")
  27. # 提取段落内容
  28. paragraphs = soup.find_all('p')
  29. for idx, paragraph in enumerate(paragraphs, start=1):
  30. print(f"段落 {idx}: {paragraph.text}")
  31. else:
  32. print(f"请求失败,状态码: {response.status_code}")

代码解释:

  1. 代理池: 创建一个包含多个代理的列表。
  2. 随机选择代理: 使用random.choice方法从代理池中随机选择一个代理。
  3. 设置代理: 创建一个字典,包含HTTP和HTTPS的代理设置。
  4. 发送HTTP请求: 使用代理发送请求。
结论

通过以上简单的例子,我们成功编写了一个基础的Python爬虫,并从网页中提取了标题和段落内容。同时,我们学习了如何使用代理池来绕过IP封禁。在接下来的文章中,我们将进一步探讨更多的爬虫技巧和高级应用。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/909869
推荐阅读
相关标签
  

闽ICP备14008679号