获取免费代理

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
# -*- coding=utf8 -*-
 
import urllib2
import re
import time
import random
import socket
import threading
from user_agents import agents
import sys
 
reload(sys)
sys.setdefaultencoding('utf8')
 
# 抓取代理IP
ip_totle = []
for page in range(1,10):
    # url = 'http://ip84.com/dlgn/' + str(page)
    url='http://www.xicidaili.com/nn/'+str(page) #西刺代理
    headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64)"}
    # proxy_handler = urllib2.ProxyHandler({'http': 'http://'})
    # opener = urllib2.build_opener(proxy_handler)
    # urllib2.install_opener(opener)
    request = urllib2.Request(url=url, headers=headers)
    response = urllib2.urlopen(request)
    content = response.read().decode('utf-8')
    print('get page', page)
    pattern = re.compile('<td>(\d.*?)</td>'# 截取<td>与</td>之间第一个数为数字的内容
    ip_page = re.findall(pattern, str(content))
    ip_totle.extend(ip_page)
    time.sleep(random.choice(range(3, 5)))
# 打印抓取内容
print('代理IP地址     ', '\t', '端口', '\t', '速度', '\t', '验证时间')
for i in range(0, len(ip_totle), 4):
    print(ip_totle[i], '    ', '\t', ip_totle[i + 1], '\t', ip_totle[i + 2], '\t', ip_totle[i + 3])
# 整理代理IP格式
proxys = []
for i in range(0, len(ip_totle), 4):
    proxy_host = ip_totle[i] + ':' + ip_totle[i + 1]
    proxy_temp = {"http": proxy_host}
    proxys.append(proxy_temp)
 
proxy_ip = open('proxy_ip.txt', 'w'# 新建一个储存有效IP的文档
lock = threading.Lock()  # 建立一个锁
 
 
# 验证代理IP有效性的方法
def test(i):
    socket.setdefaulttimeout(5# 设置全局超时时间
    url = "http://www.dianping.com/shop/21143491"  # 打算爬取的网址
    try:
        headers = {
            'Host': 'www.dianping.com',
            'User-Agent': random.choice(agents),
        }
        proxy_support = urllib2.ProxyHandler(proxys[i])
        opener = urllib2.build_opener(proxy_support)
        # opener.addheaders = [("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64)")]
        urllib2.install_opener(opener)
        request = urllib2.Request(url=url, headers=headers)
        response = urllib2.urlopen(request)
        content = response.read().decode('utf-8')
        lock.acquire()  # 获得锁
        print(proxys[i], 'is OK')
        proxy_ip.write('%s\n' % str(proxys[i]))  # 写入该代理IP
        lock.release()  # 释放锁
    except Exception as e:
        lock.acquire()
        print(proxys[i], e)
        lock.release()
 
 
# 单线程验证
# for i in range(len(proxys)):
#     test(i)
# 多线程验证
threads = []
for i in range(len(proxys)):
    thread = threading.Thread(target=test, args=[i])
    threads.append(thread)
    thread.start()
# 阻塞主进程,等待所有子线程结束
for thread in threads:
    thread.join()
 
proxy_ip.close()  # 关闭文件

 

posted @   总要做些什么  阅读(296)  评论(0编辑  收藏  举报
编辑推荐:
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· .NET Core 中如何实现缓存的预热?
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 如何调用 DeepSeek 的自然语言处理 API 接口并集成到在线客服系统
· 【译】Visual Studio 中新的强大生产力特性
点击右上角即可分享
微信分享提示