【转】robots.txt写法

robots.txt是搜索引擎访问网站时第一个抓取文件。它是告诉搜索引擎这个网站上面,哪些文件是可以被收录,哪些不允许被收录的,就好像我们贴在门上的告示一样。

如果你不想让搜索引擎访问自己网站(拒绝收录)

User-agent: *

Disallow: /

如果你希望搜索引擎访问自己网站(允许收录)

User-agent: *

Allow: /

或者新建一个空白robots.txt文件

如果你有一个目录想保密,而其他允许被搜索引擎收录(禁止抓取特定目录)

User-agent: *

Disallow: /特定目录名称/

举例说明:如果禁止抓取特定目录是images话

User-agent: *

Disallow: /images/

如果你不想让搜索引擎抓取自己网站图片(禁止图片抓取)

User-agent: *

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

如果你的网站有动态和静态两种网页,你只允许抓取静态页面(禁止动态页面)

User-agent: *

Disallow: /*?*

通过以上几种robots.txt写法,我们对robots.txt有了大概了解,我这里再对robots.txt各个代码解释下。

User-agent: * //规定搜索引擎名称 *为所有搜索引擎

这里为大家扩招下知识

百度蜘蛛名字:baiduspider

谷歌蜘蛛名字:googlebot

搜狗蜘蛛名字:Sogou+web+spider

Disallow:  //禁止搜索引擎抓取目录或网页

禁止抓取目录

Disallow: /images/

禁止抓取网页

Disallow: /test/test.html  //禁止抓取test.html网页

Allow:   //允许搜索引擎抓取目录和网页

一般设成Allow: / 就可以了,但切记不要和Disallow混用,否则有错误。

在研究完robots.txt写法后,我们还得学会创建robots.txt文件,方法很简单,在桌面上新建一个文本,把代码复制进去,然后重命名为“robots.txt”上传到根目录下,如本站的

http://www.010wangzhanyouhua.com/robots.txt

学会robots.txt写法,你将和搜索引擎进行一场有趣对话。

posted @ 2010-10-19 00:08  ztjake  阅读(1365)  评论(0编辑  收藏  举报