当前位置:   article > 正文

Python爬取文件的11种方式_python爬虫下载文件

python爬虫下载文件

Python下载文件的11种方式

本文将讲述使用不同的Python模块从web下载文件。说是下载其实就是爬虫啦!!!

废话不多开始正题

使用Requests

你可以使用requests模块从一个URL下载文件。

import requests
url='https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=1618309945,4014036594&fm=26&gp=0.jpg'
myfile=requests.get(url)
open('C:\Users\pytho\Desktop\a.png','wb').write(myfile.content)
  • 1
  • 2
  • 3
  • 4

你只需使用requests模块的get方法获取URL,并将结果存储到一个名为“myfile”的变量中。然后,将这个变量的内容写入文件。

使用wget

你还可以使用Python的wget模块从一个URL下载文件。你可以使用pip按以下命令安装wget模块:

pip install wget
  • 1

我们将使用它下载图像。

import wget
url='https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=1618309945,4014036594&fm=26&gp=0.jpg'
wget.download(url,'C:\Users\pytho\Desktop\a.png',)
  • 1
  • 2
  • 3

在这段代码中,URL和路径(图像将存储在其中)被传递给wget模块的download方法。

下载重定向的文件

在本节中,URL会被重定向到另一个带有一个.pdf文件的URL。

要下载这个pdf文件,请使用以下代码:

imoprt requests
url='https://readthedocs.org/projects/python-guide/downloads/pdf/latest/'
myfile=requests.get(url,allow_redirects=True)
open('C:\Users\pytho\Desktop\a.pdf','wb').write(myfile.content)
  • 1
  • 2
  • 3
  • 4

在这段代码中,我们第一步指定的是URL。然后,我们使用request模块的get方法来获取该URL。在get方法中,我们将allow_redirects设置为True,这将允许URL中的重定向,并且重定向后的内容将被分配给变量myfile。

最后,我们打开一个文件来写入获取的内容。

分块下载大文件(可能有点问题)

考虑下面的代码:

import requests

url='https://ss3.bdstatic.com/70cFv8Sh_Q1YnxGkpoWK1HF6hhy/it/u=1618309945,4014036594&fm=26&gp=0.jpg'
myfile=requests.get(url,stream=True)
open('C:\Users\pytho\Desktop\a.pdf','wb').write(myfile.content,1024)

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

首先,我们像以前一样使用requests模块的get方法,但是这一次,我们将把stream属性设置为True。

接着,我们在当前工作目录中创建一个名为PythonBook.pdf的文件,并打开它进行写入。

然后,我们指定每次要下载的块大小。我们已经将其设置为1024字节,接着遍历每个块,并在文件中写入这些块,直到块结束。

下载多个文件(并行/批量下载)

要同时下载多个文件,请导入以下模块:

import os,requests
from time import time
from multiprocessing.pool import ThreadPool

  • 1
  • 2
  • 3
  • 4

我们导入了os和time模块来检查下载文件需要多少时间。ThreadPool模块允许你使用池运行多个线程或进程。

让我们创建一个简单的函数,将响应分块发送到一个文件:

def url_response(url):
	path,url='C:\Users\pytho\Desktop\a.pdf',url
	r=requests.get(url,stream=True)
	with open(path,'wb')as f:
		for ch in f:
			f.write(ch)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

这个URL是一个二维数组,它指定了你要下载的页面的路径和URL。

urls=[("Event1""https://www.python.org/events/python-events/805/"),
("Event2""https://www.python.org/events/python-events/801/"),
("Event3""https://www.python.org/events/python-events/802/")
("Event4""https://www.python.org/events/python-events/803/")
("Event5""https://www.python.org/events/python-events/804/")]
  • 1
  • 2
  • 3
  • 4
  • 5

就像在前一节中所做的那样,我们将这个URL传递给requests.get。最后,我们打开文件(URL中指定的路径)并写入页面内容。

现在,我们可以分别为每个URL调用这个函数,我们也可以同时为所有URL调用这个函数。让我们在for循环中分别为每个URL调用这个函数,注意计时器:

start=time()
for x in urls:
	url_response(x)
print(f"time to download:{time()-start}")
  • 1
  • 2
  • 3
  • 4

现在,使用以下代码行替换for循环:

ThreadPool(9).imap_unordered(url_response,urls)
  • 1

运行该脚本。

使用进度条进行下载

考虑以下代码:

import requests
from clint.textui import progress
url='http://dol.dr-chuck.com/pythonlearn/EN_us/pythonlearn.pdf'
r=requests.get(url.stream=True)
with open('learnpython.pdf','wb')as f:
	total_length=int(r.headers.get('content-length'))
	for ch in progress.bar(r.iter_content(chunk_size=2391975),expected_size=(total_length/1024)+1):
		if ch:
			f.write(ch)
		
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

在这段代码中,我们首先导入了requests模块,然后,我们从clint.textui导入了进度组件。唯一的区别是在for循环中。在将内容写入文件时,我们使用了进度条模块的bar方法。

使用urllib下载网页

在本节中,我们将使用urllib下载一个网页。

urllib库是Python的标准库,因此你不需要安装它。

以下代码行可以轻松地下载一个网页:

urllib.request.urlretrieve('url','path')
  • 1

在这里指定你想将文件保存为什么以及你想将它存储在哪里的URL,

在这段代码中,我们使用了urlretrieve方法并传递了文件的URL,以及保存文件的路径。文件扩展名将是.html。

通过代理下载

如果你需要使用代理下载你的文件,你可以使用urllib模块的ProxyHandler。请看以下代码:

import urllib.request

myProxy=urllib.request.ProxyHandler({'http':'127.0.0.2'})
openProxy=urllib.request.build_opener(myProxy)
urllib.request.urlretrieve('https//www.python.org/')
  • 1
  • 2
  • 3
  • 4
  • 5

在这段代码中,我们创建了代理对象,并通过调用urllib的build_opener方法来打开该代理,并传入该代理对象。然后,我们创建请求来获取页面。

此外,你还可以按照官方文档的介绍来使用requests模块:

import requests
myProxy={'http':'http://127.0.0.2:3001'}
requests.get("https://www.python.org/",proxies=myProxy)
  • 1
  • 2
  • 3

你只需要导入requests模块并创建你的代理对象。然后,你就可以获取文件了。

使用urllib3

urllib3是urllib模块的改进版本。你可以使用pip下载并安装它:

pip install urllib3
  • 1

我们将通过使用urllib3来获取一个网页并将它存储在一个文本文件中。

在处理文件时,我们使用了shutil模块。

import urllib3,shutil
  • 1

现在,我们像这样来初始化URL字符串变量:

url='https://www.python.org/'
  • 1

然后,我们使用了urllib3的PoolManager ,它会跟踪必要的连接池。

c=urllib3.PoolManager()
  • 1

创建一个文件

filename='text.txt'
  • 1

最后,我们发送一个GET请求来获取该URL并打开一个文件,接着将响应写入该文件:

with c.request('GET',url,preload_content=False)as f,open(filename,'wb')as f2:
	shutil.copyfileobj(f,f2)
  • 1
  • 2

使用Boto3从S3下载文件

要从Amazon S3下载文件,你可以使用Python boto3模块。

在开始之前,你需要使用pip安装awscli模块:

pip install awscli
  • 1

对于AWS配置,请运行以下命令:

aws configure
  • 1

现在,按以下命令输入你的详细信息:

AWS Access key ID [None]:(The access key)
AWS Secret Access Key [None]:(Secret access key)
Default region name [None]:(Region)
Default output format [None]:(Json)
  • 1
  • 2
  • 3
  • 4

要从Amazon S3下载文件,你需要导入boto3和botocore。Boto3是一个Amazon SDK,它允许Python访问Amazon web服务(如S3)。Botocore提供了与Amazon web服务进行交互的命令行服务。

Botocore自带了awscli。要安装boto3,请运行以下命令:

pip install boto3
  • 1

现在,导入这两个模块:

import boto3,botocore
  • 1

在从Amazon下载文件时,我们需要三个参数:

Bucket名称

你需要下载的文件名称

文件下载之后的名称

初始化变量:

bucket='bucketName'
file_name='filename'
download_file='downloadfilename'
  • 1
  • 2
  • 3

现在,我们初始化一个变量来使用会话的资源。为此,我们将调用boto3的resource()方法并传入服务,即s3:

service=boto3.resource('s3')
  • 1

最后,使用download_file方法下载文件并传入变量:

service.Bucket(bucket).download_file(file_name,downloaded_file)
  • 1

使用asyncio

asyncio模块主要用于处理系统事件。它围绕一个事件循环进行工作,该事件循环会等待事件发生,然后对该事件作出反应。这个反应可以是调用另一个函数。这个过程称为事件处理。asyncio模块使用协同程序进行事件处理。

要使用asyncio事件处理和协同功能,我们将导入asyncio模块:

import asyncio
  • 1

现在,像这样定义asyncio协同方法:

async def coroutine():
	await my_func()
  • 1
  • 2

关键字async表示这是一个原生asyncio协同程序。在协同程序的内部,我们有一个await关键字,它会返回一个特定的值。我们也可以使用return关键字。

现在,让我们使用协同创建一段代码来从网站下载一个文件:

import os,urllib.request
async def coroutine(url):
	r=urllib.request.urlopen(url)
	filename='couroutine_downloads.txt'
	with open(filename,'wb')as f:
		for ch in r:
		f.write(ch)
	print_msg='Successfully Download'
	return print_msg
	
async def main_func(urls_to_download):
	co=[coroutine(url) for url in urls_to_download]
	download,downloading=await asyncio.wait(co)
	for i in downloaded:
		print(i.result())
urls_to_download=['https://www.python.org/events/python-events/801/',
'https://www.python.org/events/python-events/802/',
'https://www.python.org/events/python-events/803/',
'https://www.python.org/events/python-events/804/']
eventLoop=asyncio.get_event_loop()
eventLoop.run_until_complete(main_func(urls_to_download))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

在这段代码中,我们创建了一个异步协同函数,它会下载我们的文件并返回一条消息。

然后,我们使用另一个异步协同程序调用main_func,它会等待URL并将所有URL组成一个队列。asyncio的wait函数会等待协同程序完成。

现在,为了启动协同程序,我们必须使用asyncio的get_event_loop()方法将协同程序放入事件循环中,最后,我们使用asyncio的run_until_complete()方法执行该事件循环。

点击进入英文原文

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/409385
推荐阅读
相关标签
  

闽ICP备14008679号