如何跨站抓取别的站点的页面的补充

在实际的应用中,经常会遇到一些特殊的情况,比如需要新闻,天气预报,等等,但是作为个人站点或者实力小的站点 我们不可能有那么多的人力 物力 财力去做这些事情,怎么办呢?  
好在互联网是 资源共享的,我们可以利用程序 自动的把别的站点的页面抓取回来经过处理后被我们所利用。 
  用什么呢,那个战友给的是不行的,其实在Php有这个功能,那就是用curl库。请看下面的代码!  
<?php 

$ch = curl_init ("http://dailynews.sina.com.cn"); 
$fp = fopen ("php_homepage.txt", "w"); 

curl_setopt ($ch, CURLOPT_FILE, $fp); 
curl_setopt ($ch, CURLOPT_HEADER, 0); 

curl_exec ($ch); 
curl_close ($ch); 
fclose ($fp); 
?> 

详细说明:http://php.662p.com/thread-504-1-1.html

posted on 2014-11-05 10:22  chenniuzen  阅读(344)  评论(0编辑  收藏  举报

导航