2009年5月11日
摘要: 1、什么是robots.txt文件? 搜索引擎使用 spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt 的纯文本文件。您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该网站中不想被robot访问的部分或者指定搜索引擎只收录特定 的部分。请注意,仅当您的网站包含不希望被搜索引擎收录的内... 阅读全文
posted @ 2009-05-11 16:20 李辉明 阅读(274) 评论(0) 推荐(0) 编辑