赞
踩
网络爬虫(Web Crawler),也称为网页蜘蛛(Web Spider)或网页机器人(Web Bot),是一种按照既定规则自动浏览网络并提取信息的程序。爬虫的主要用途包括数据采集、网络索引、内容抓取等。
爬虫的基本原理
爬虫的分类
通用爬虫
聚焦爬虫
增量爬虫
爬虫的合法性和道德
在编写和运行爬虫时,必须遵循以下原则:
遵守网站的 robots.txt
:
大多数网站都有一个 robots.txt
文件,规定了哪些页面允许被爬取,哪些不允许。爬虫应当尊重这些规则。
避免过度抓取:
尊重版权和隐私:
获取许可:
通过以上方法和原则,可以编写高效、可靠且合规的网络爬虫来满足数据采集的需求。
打开页面
F12 检查定位关键元素
在网络中刷新页面
搜索关键字
查看在页面中的渲染情况是不是我们想要的数据,可以看到这里列出了200首歌那么就是的
在标头中确定数据来源地址及请求方法
- import re
- import os
- import requests
-
-
- filename = 'music\\'
-
- # 如果没有则创建文件夹
- if not os.path.exists(filename):
- os.makedirs(filename)
-
- # 请求网址(如果想要爬取其他的榜单的歌曲内容,只需要改这个 url 即可)
- url = 'https://music.163.com/playlist?id=3778678'
-
- # 伪造请求头
- headers = {
- 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36'
- }
-
- # 发送请求
- response = requests.get(url, headers=headers)
-
- # re.findall
- # 这个函数用于在字符串中查找所有与正则表达式模式匹配的部分,并返回一个包含所有匹配项的列表
- # r 前缀表示这是一个原始字符串,其中的反斜杠不会被解释为转义字符
- # (\d+): 捕获组,匹配一个或多个数字
- # (.*?): 捕获组,非贪婪匹配任何字符(包括空字符),直到遇到 </a>
- html_data = re.findall(r'<li><a href="/song\?id=(\d+)">(.*?)</a>', response.text)
-
- # 正则表达式提取出来的一个内容返回是列表 里面每一个元素都是元组
- for num_id, title in html_data:
- # 调用接口
- music_url = f'https://music.163.com/song/media/outer/url?id={num_id}.mp3'
-
- # 发送请求获取二进制数据
- music_content = requests.get(music_url, headers=headers)
-
- # 保存
- with open('music\\' + title + '.mp3', 'wb') as f:
- f.write(music_content.content)
- print(num_id, title)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。