随笔 - 82  文章 - 2 评论 - 1 阅读 - 29061
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

爬虫有很多的语言可以选择,大部分人会选择使用python,少数人会选择使用php,.关于爬虫使用php也有很多的知识,所以今天我们就通过实例代码给大家介绍了php爬虫简单的添加代理进行数据获取,代码简单易懂,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下

在使用python对网页进行多次快速爬取的时候,访问次数过于频繁,服务器不会考虑User-Agent的信息,会直接把你视为爬虫,从而过滤掉,拒绝你的访问,在这种时候就需要设置代理,我们可以给proxies属性设置一个代理的IP地址,代码如下:

<?php

// 要访问的目标页面

$url = "http://httpbin.org/ip";

$urls = "https://httpbin.org/ip";

// 代理服务器

define("PROXY_SERVER", "tcp://t.16yun.cn:31111");

// 隧道身份信息

define("PROXY_USER", "16YUN123");

define("PROXY_PASS", "123456");

$proxyAuth = base64_encode(PROXY_USER . ":" . PROXY_PASS);

// 设置 Proxy tunnel

$tunnel = rand(1,10000);

$headers = implode("\r\n", [

"Proxy-Authorization: Basic {$proxyAuth}",

"Proxy-Tunnel: ${tunnel}",

]);

$sniServer = parse_url($urls, PHP_URL_HOST);

$options = [

"http" => [

"proxy" => PROXY_SERVER,

"header" => $headers,

"method" => "GET",

'request_fulluri' => true,

],

'ssl' => array(

'SNI_enabled' => true, // Disable SNI for https over http proxies

'SNI_server_name' => $sniServer

)

];

print($url);

$context = stream_context_create($options);

$result = file_get_contents($url, false, $context);

var_dump($result);

// 访问 HTTPS 页面

print($urls);

$context = stream_context_create($options);

$result = file_get_contents($urls, false, $context);

var_dump($result);?>

在代码中的目标网站是检测代理是否访问成功,如果访问成功就会返回代理ip,如果代理返回异常有可能是代理的配置没有正确,那就需要对配置的代理信息进行检查。每家代理的测试效果都会有不同,以实际目标网站实际测试为准,这里推介比较好的代理亿牛云。

posted on   小橙子11  阅读(196)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 周边上新:园子的第一款马克杯温暖上架
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?
· 使用C#创建一个MCP客户端
点击右上角即可分享
微信分享提示