赞
踩
目录
安装requests库:在命令提示符cmd里面进行requests库的下载
网络爬虫的常用功能:如图所示。
获取大量数据,用来做数据分析
公司项目的测试数据,公司业务所需数据
拓展:XML、JSON的在线工具https://www.sojson.com/
模块名及导入urllib.request
urllib 库是 Python 内置的 HTTP 请求库,它可以看做是处理URL的组件集合。
- import urllib.request
- from urllib import request
- req = request.Request(url,headers=headers)
- res = request.urlopen(req)
- html = res.read().decode('utf-8')
Selenium的安装方式非常简单,可以直接使用 pip 命令安装,具体的安装命令如下:
pip install selenium==3.141.0
requests
库:在命令提示符cmd里面进行requests库的下载pip install requests
requests
库:import requests
- url = 'https://example.com' # 替换为你要爬取的网页URL
- response = requests.get(url)
- if response.status_code == 200:
- print('请求成功')
- else:
- print('请求失败')
- html_content = response.text
- print(html_content)
- import requests
- from bs4 import BeautifulSoup
- from selenium import webdriver
- from selenium.webdriver.chrome.options import Options
-
-
- def get_html(url):
- # 使用Selenium模拟浏览器行为
- chrome_options = Options()
- chrome_options.add_argument('--headless') # 无头浏览器模式,避免真实显示浏览器窗口
- driver = webdriver.Chrome(options=chrome_options)
- driver.get(url)
- return driver.page_source
-
-
- def parse_html(html):
- # 使用BeautifulSoup解析HTML内容
- soup = BeautifulSoup(html, 'lxml')
- # 这里可以使用BeautifulSoup的方法来提取你需要的数据
- # 例如,提取所有的电影名称
- movie_names = soup.select('.title')
- # 处理电影名称的文本内容
- for name in movie_names:
- print(name.text)
-
-
- url = 'https://movie.douban.com/'
- html = get_html(url)
- parse_html(html)
经过这一次爬虫的学习,可以说是对老师之前所讲的知识的一个巩固,无论是列表,字典,又或者是字符串的操作,又或者是文件操作,以及爬虫相关的知识全都用上了。同时,这一次也让自己学会了很多东西,比如是自己在做的时候有遇到许多问题,比如是自己因为没有加入时间间隔去访问,会经常503访问异常,同时加入了时间间隔,有时也会出现,就需要我们递归重新调用该函数重新爬取数据。又或者是对文本的处理,对他们保存的格式,让他们看起来更加的方便,以及CSV格式的保存。这一次的爬虫课程设计,不仅仅是一次作业,更是对自己这一个学期以来学习的回顾,也是提高自己python编程能力,以及自己思考问题的方式。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。