2009年12月28日

摘要: 普通用户与搜索引擎蜘蛛爬行的区别在于发送的user agent,看网站日志文件能发现百度蜘蛛名字包含Baiduspider, 而google的则是Googlebot, 这样我们可以通过判断发送的user agent来决定要不要取消普通用户的访问,编写函数如下:[代码] return $valid;}在要禁止访问的页面头部引用这个函数来做判断就ok了,如下俩中调用方式:if(!isAllowAcce... 阅读全文
posted @ 2009-12-28 14:14 eleganthqy 阅读(588) 评论(0) 推荐(0) 编辑

导航