2010年6月工作问题总结

      从六月上旬开始,我们网站http://www.apollo.com.cn/ 流量一直下降,后来决定暂停手上的工作,来研究这个问题。通过两个星期的了解、分析、测试。现在把这两个星期来的工作内容总结一下。

     首先是本人搞程序开发的,以前接触SEO方面比较少。加上我们公司设计对这方面也不太了解,导致我们网站基本上就是实现功能,对代码优化,SEO方面做得相当差。

     通过网上搜索,买王通老师的书回来看,对SEO方面有了一些基本的认识。现在把这些自己以后要工作中要注意的东东总结一下。

    1,网站导航问题

        我们现有网站导航是用flash做的,这是一个很严重的问题。以后网站中不能再用flash做导航。在页面中也尽量减少flash的量。

    2,图片问题

        我们网站的图片,alt描述有一部份加了,一有部份没有加。没有一个统一的要求。现在统一,页面上功能性图片加上本身功能性描述。页面内容图片,如果是一张,加上标题做为描述。多张,手动处理,只要是图片,都必须有描述。

        图片链接,因为当时考虑到样式的问题,把图片的链接一部份用js的window.open来弹出窗口。这对搜索引擎是不可见的。        

    3,网站meta 标签的问题

       以前对这个没有太注意,有些有,有些没有。还有些不太合理。现在改为keywords在一到三个,尽量使用长尾关键词,这样对我们权重不高的网站来说,效果会好一些。关键词密度,说是在2%~8%但最好还是能达到4%左右。而且,关键词一定要在标题、描述、导语、文章的前一百个字中出现一次。

      描述跟关键词位置调换,不要写太多的meta,不必要的尽量不要写。

     4,关键词标签的使用

     

      5,锚链接

      文章中的目录用锚链接,可提高文章友好度和提高网友的体验。

      6,标签(h1,h2)

          在文章结构中,最好用H1,H2分清

     7,页面结构要清晰

       

     8,iframe问题

 

     9,尽量减少页面代码量

 

  10,网站地图的更新

 

      11,网站链接分类,域名,二域名,目录,文件

 

  12,网站文件结构要合理、清晰

    

  13,关键词

 

  1. 确定网页的关键词,然后频繁出现在文章内。比如讲述“减肥方法”的网页,就不要在网页内掺和着“瘦身办法”或者“瘦身方法”字眼,而应该把这些词汇都写为“减肥方法”。如果你细心的话,你会发现SEO十万个为什么在这方面做得从不含糊。
  2. 每个网页的关键词不要超过3个,让内容围绕着关键词展开。
  3. 关键词要出现在标题、meta keywords、meta description中。至关重要!
  4. 关键词重点突出。给关键词加黑体、斜体、或者放入H1之间。至关重要!
  5. 适当的时候,把一些关键词连向权威的专业站点。
  6. 网页内容页面通过链接锚文本的形式互相连接。

 

 

关键词位置、密度、处理

  1. URL中出现关键词(英文)
  2. 网页标题中出现关键词(1-3个)
  3. 关键词标签中出现关键词(1-3个)
  4. 描述标签中出现关键词(主关键词重复2次)
  5. 内容中自然出现关键词
  6. 内容第一段和最后一段出现关键词
  7. H1,H2标签中出现关键词
  8. 导出链接锚文本中包含关键词
  9. 图片的文件名包含关键词
  10. ALT属性中出现关键词
  11. 关键词密度6-8%
  12. 对关键词加粗或斜体

内容质量、更新频率、相关性

  1. 原创的内容最佳,切忌被多次转载的内容
  2. 内容独立性,与其他页面至少30%互异
  3. 1000-2000字,合理分段
  4. 有规律更新,最好是每天
  5. 内容围绕页面关键词展开,与整站主题相关
  6. 具有评论功能,评论中出现关键词

导入链接和锚文本

  1. 高PR值站点的导入链接
  2. 内容相关页面的导入链接
  3. 导入链接锚文本中包含页面关键词
  4. 锚文本存在于网页内容中
  5. 锚文本周围出现相关关键词
  6. 导入链接存在3个月以上
  7. 导入链接所在页面的导出链接少于100个
  8. 导入链接来自不同IP地址
  9. 导入链接自然增加
  10. 锚文本多样化(如,SEO和SEO十万个为什么)

提高用户体验:   

  1,用户把你的网站推荐给别人,第一步要做的,就是把网址复制出来,这一步你有没有想过用户会遇到困难呢?去百度知道里搜一下“怎么复制网址”你会发现,有太多用户搞不定这一步了,如果你在网站上加个简单的“复制网址”的功能,就会帮助很多想推荐你网站,却苦无门路的用户。

 

    日志分析,以前从来都没有对网站的日志进行过分析,后来下载了一个工具,不错,对蜘蛛行分析有一点的了解,从来更加重视死链等的要求。

蜘蛛爬行日志记录减少问题分析

1,网站出现死链(包括图片,链接等)可能用xenu工具分析。这是一个很好的工具,可以同时生成sitemap网站地图。

2,网站文章被搜索引擎认为是做弊。

      被认为可能作弊的原因一般有以下几个:网站关键词堆积;网站重复内容多(包括重得标题);网站文章原创和伪原创太少;

 

200 0 64问题分析

  至于64出现的原因,过程是这样的(首先要想到:客户端浏览器具有缓存,各搜索引擎爬虫拥有快照): 客户端发起请求,服务器正常影响产生并记录200状态,客户端收到服务器返回数据后,进行了自身的操作(如,浏览器会依据缓存,判断是否从缓存妈数据还是重新下载,搜索引擎依据自己的标准判断该页面是否需要更新快照),然后,当得到当前数据不需要重新下载后,就主动断开与服务器的此次对话,这时服务器就将标注为64状态(大家知道,64代表指定的网络名不再可用),整个过程就是这样,所以对那些妄言说,64代表被K或者其它言论的人来说,不再要继续误导网友哦。如果想解决这个问题,那就是更新。

   0和64会同时出现在一个网站中间。而我对我自己的几个站的观察都是旧页面一般都是64,而新的页面一般都是0返回,我假设是蜘蛛在抓取的时候,对未出现更新的页面打开而不抓取字节数。从而形成64.对于新页面是打开并抓取,形成0。关于这样猜想我正在试验中
当然,我还想到饿缓存上面去了。我们的计算机不是都有个脱机浏览吗?蜘蛛作为模拟人的访问者。是不是也存在这种缓存的机制。从而打开同一个页面的时候。在缓存没有清除的时候也会去优先使用缓存页面!这个猜想我目前还没有想到试验的方法。

64状态的原因分析

     为什么会是64呢,还为64肯定是在访问页面的时候不正常,查网上分析说是在返回的时候出现超时或其它情况。改善的办法,网上查了,大概有几种

    1,关键词密度问题

        解决办法:减少不太重要的关键词,一篇文章有1~3个关键词就够了,最好先长尾关键词。提高关键词的密度(4%左右)

    2,服务器不稳定问题

        这个原因很多,我们网站我发现是DNS解析有时不稳定,有时出现打不开。找一家稳定点的域名提供商和服务器提供商。 也有可能是你配置的问题,IIS的问题等。

    3,服务器速度问题

        这个解决办法也比较多:启用gzip压缩,开启缓存。提高服务器带宽。申请CDN加速服务。

 

    还有一些说法是:网站被降权了,网站被K了,网站页面删除等。但都没有得到百度官方证实,是网友的分析,但我认为这些都不太可能,因为我们网站出现这状态,首页快照天天更新,网站页面也会有收录,只是放出来的时候比较长,一般会在一个星期后才放出来。

 

      为什么会出现64,基本有两种说法。一种是:与php的apache配置有关,另一种是:当客户端重置链接后得到最后数据包,而不再是一个链接完美关闭。在服务端的IIS已经发送完整响应给客户段,等待从客户端的ACK信息。某些客户端不是发送最后的ACK回服务端,而是重置链接,这就是不能完美链接关闭和出现IIS日志"64"的原因。许多客户端在当他们完成要做的事后重置链接,空出这个套接字"TIME_WAIT/CLOSE_WAIT"代替它的离开,代理服务器更趋向于这样做。

 

 

TIME_WAIT,CLOSE_WAIT,FIN_WAIT1,FIN_WAIT2,ESTABLISHED,SYN_RECV
FIN, WAIT, CLOSE, ESTABLISHED, RECV
TIME_WAIT,CLOSE_WAIT,FIN_WAIT1,FIN_WAIT2,ESTABLISHED,SYN_RECV
 状态:描述
  CLOSED:无连接是活动的或正在进行
  LISTEN:服务器在等待进入呼叫
  SYN_RECV:一个连接请求已经到达,等待确认
  SYN_SENT:应用已经开始,打开一个连接
  ESTABLISHED:正常数据传输状态
  FIN_WAIT1:应用说它已经完成
  FIN_WAIT2:另一边已同意释放
  ITMED_WAIT:等待所有分组死掉
  CLOSING:两边同时尝试关闭
  TIME_WAIT:另一边已初始化一个释放
  LAST_ACK:等待所有分组死掉 

 

 通过以上数据,我们可以看出一个问题,就是出现200 0 64现象的原因取决于3个方面:

  1、百度蜘蛛访问和接受数据的方式。

  2、服务器以及网络实时状况。

  3、被访问页的页面结构和内容。

  百度蜘蛛访问页面时在特定时间内无法完成页面全部数据的接受而最后导致访问页面协议返回正常,但在页面返回全部数据的过程中由于服务器或者网络当时的状况导致失败进而出现了200 0 64现象。而通过我长时间的观察,页面内容越是多的网页,出现这个现象的几率就越大。因此,本人认为解决此类现象的最好方法是通过正确的配置服务器,排除服务器配置原因之后,对网页也要进行适当的优化减肥。这样可以有效的降低出现200 0 64现象,但是要绝对杜绝IIS访问日志中出现200 0 64现象我想没有人能保证。不过大家不用太过在意200 0 64的出现。只要认真、诚恳的做SEO优化就行了。在优化过程中出现的其他的什么现象只是过眼云烟罢了。

 

 

 

      至于64出现的原因,过程是这样的(首先要想到:客户端浏览器具有缓存,各搜索引擎爬虫拥有快照): 客户端发起请求,服务器正常影响产生并记录200状态,客户端收到服务器返回数据后,进行了自身的操作(如,浏览器会依据缓存,判断是否从缓存妈数据还是重新下载,搜索引擎依据自己的标准判断该页面是否需要更新快照),然后,当得到当前数据不需要重新下载后,就主动断开与服务器的此次对话,这时服务器就将标注为64状态(大家知道,64代表指定的网络名不再可用),整个过程就是这样

 

经过差不多一个月的分析和查找数据,测试:

我个人认为,百度蜘蛛应是分类的,一类是IP段是来寻找新的内容,一类是来确认旧的内容。我看到,像我们新的文章,一般是61.135.165段,而且一般的状态返回都是200 0 0正常, 发送和接收数据也正常。但确认蜘蛛220.181.7这个段,状态为200 0 64,发送数据都是240字节,接收也很小,所以这个IP段的蜘蛛分析不是来爬整个页面的,分析为来确认是有一定的可信度的。所以,百度爬行状态为64,是没问题的。

 200 0 1236

       1,当蜘蛛抓取到页面时连接被强制中断。

   2,防火墙软件设置问题

优化,一个基本标准,想要让用户看到的,就要让搜索引擎看到。不想看到的,一点都不能让他们看到。不要为了优化而优化,最终都要从客户体验为出发点。

其实很多问题,以前也都知道,只是没有执行到位,真正落实下去。SEO做的就是仔细,做的就是细节。

 

posted @ 2010-07-14 17:23  heshangwen  阅读(311)  评论(0编辑  收藏  举报