摘要: 搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。 您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。 robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它... 阅读全文
posted @ 2009-02-27 16:58 编程入门 阅读(643) 评论(0) 推荐(0) 编辑