优化重复内容 增加Google流量
虽然Google现在去掉了搜索结果中重复页面的“Supplemental”标志,但是对于重复内容的惩罚Google从来都不会手软。如果一个网站中的重复内容太多,不管是抄袭别人的(应该杜绝),还是站内内容重复,都会影响到SEO的效果,导致流量不佳。
对于Wordpress博客程序来说,分类,Archive,Page,author,标签等页面都会或多或少产生重复的内容。如果这些都被Google索引,那么整个网站就会因为重复问题而受到相应的惩罚,流量也会相应减少。然而这些页面在所难免都会出现这样的问题,解决的办法就是使用robots.txt文件,通过它来禁止搜索引擎索引可能产生重复内容的页面。
Nathan Metzger称,自从在robots.txt中做了相应修改后,网站流量增加了20%。
详见:Get Your Blog Out of the Google Supplemental Index
可以参考一下Nathan Metzger和其他比较著名博客的robots.txt文件:
Nathan Metzger: http://www.notsoboringlife.com/robots.txt
John Chow Dot Com: http://www.johnchow.com/robots.txt
Shoemoney: http://www.shoemoney.com/robots.txt
UPDATES: 今天在robots.txt文件中增加下面两行(07.12.24)
# Disallow all files with ? in url
Disallow: /*?*
Disallow: /*?