Python实现批量下载文件的示例代码
前言
下载文件是我们在日常工作中常常要做的一件事情。当我们需要从互联网上批量下载大量文件时,手动一个一个去下载显然不够高效。为了解决这个问题,我们可以使用Python编写一个批量下载文件的脚本,让它自动帮我们下载文件。同时,为了避免下载过程中被网站禁止访问,我们也可以运用代理ip。
在本文中,我将会分为以下几个部分来介绍如何使用Python进行批量下载:
- 准备工作
- 批量下载文件
- 添加代理ip
- 处理异常
在本文中,我将使用requests库来进行文件下载和代理设置。我们将会介绍如何通过requests库来下载文件、如何设置代理ip来绕过网站的访问限制,以及如何处理下载过程中可能会出现的异常。
1. 准备工作
在进行批量下载之前,我们需要先确定要下载的文件的URL列表。可以将这些URL存储在一个文本文件中,每行一个URL,例如:
1
2
3
|
http://example.com/file1.zip http://example.com/file2.zip http://example.com/file3.zip |
我们可以使用Python的open函数读取这个文本文件并获取URL列表:
1
2
|
with open ( 'urls.txt' , 'r' ) as f: urls = f.read().splitlines() |
这里我们使用了read函数将整个文本文件内容读入内存,然后使用splitlines函数将每一行的URL转换成一个列表。
2. 批量下载文件
批量下载文件的代码主要分为两个部分,一个是从远程服务器下载文件,另一个是将文件保存到本地。
我们可以使用Python的requests库来下载文件,并且可以通过设置stream=True参数来实现分块下载,有利于下载大文件时减少内存占用。
1
2
3
4
5
6
7
8
9
10
|
import requests def download_file(url, output_path): with requests.get(url, stream = True ) as r: r.raise_for_status() with open (output_path, 'wb' ) as f: for chunk in r.iter_content(chunk_size = 8192 ): if chunk: f.write(chunk) f.flush() |
这个函数接收两个参数,一个是远程服务器上的文件URL,另一个是本地文件路径。内部使用requests.get函数来下载文件,将响应对象以二进制流的方式写入本地文件中。
3. 添加代理ip
有些网站可能会对同一IP地址下载次数进行限制,导致我们无法下载。为了绕过这个限制,我们可以使用代理IP。
代理IP是一种通过转发来实现客户端与服务端间请求、响应的中间服务器。我们可以使用代理服务器来隐藏客户端的真实IP地址,从而绕过某些网站的下载限制。
下面的代码演示了如何设置代理IP:
1
2
3
4
5
6
7
8
9
|
import requests proxies = { 'http' : 'http://127.0.0.1:8080' , 'https' : 'https://127.0.0.1:8080' } with requests.get(url, proxies = proxies) as r: # 下载文件 |
这里我们定义了一个字典类型的proxies,其中key为协议类型,value为代理IP地址。然后在requests.get函数中设置proxies参数即可。
4. 处理异常
在实际使用中,我们可能会遇到诸如文件不存在、网络异常等问题,需要对这些异常进行处理,防止程序崩溃。
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import requests def download_file(url, output_path): try : with requests.get(url, stream = True ) as r: r.raise_for_status() with open (output_path, 'wb' ) as f: for chunk in r.iter_content(chunk_size = 8192 ): if chunk: f.write(chunk) f.flush() except requests.exceptions.RequestException as e: print (f 'Error downloading {url}: {e}' ) |
在代码中,我们使用try/except语句来捕获requests库可能抛出的异常,并使用print语句将异常信息输出到控制台。这样,即使下载文件失败,程序也不会因此停止运行。
完整代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
import requests def download_file(url, output_path): try : with requests.get(url, stream = True ) as r: r.raise_for_status() with open (output_path, 'wb' ) as f: for chunk in r.iter_content(chunk_size = 8192 ): if chunk: f.write(chunk) f.flush() except requests.exceptions.RequestException as e: print (f 'Error downloading {url}: {e}' ) with open ( 'urls.txt' , 'r' ) as f: urls = f.read().splitlines() for url in urls: filename = url.split( '/' )[ - 1 ] download_file(url, filename) |
这是一个基本的批量下载代码,可以从urls.txt文件中读取文件URL列表,并自动下载到当前目录中。
如果你需要使用代理ip下载文件,可以使用以下代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
import requests proxies = { 'http' : 'http://127.0.0.1:8080' , 'https' : 'https://127.0.0.1:8080' } def download_file(url, output_path): try : with requests.get(url, proxies = proxies, stream = True ) as r: r.raise_for_status() with open (output_path, 'wb' ) as f: for chunk in r.iter_content(chunk_size = 8192 ): if chunk: f.write(chunk) f.flush() except requests.exceptions.RequestException as e: print (f 'Error downloading {url}: {e}' ) with open ( 'urls.txt' , 'r' ) as f: urls = f.read().splitlines() for url in urls: filename = url.split( '/' )[ - 1 ] download_file(url, filename) |
这个代码与前面的批量下载代码类似,只是在下载文件时设置了proxies参数。
总结
使用Python编写批量下载代码,可以提高工作效率。本文介绍了如何使用requests库来下载文件,如何设置代理IP来绕过某些网站的下载限制,并且展示了如何处理下载过程中可能会出现的异常。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!