2011年9月

好朋友搬走了 我也要搬走了 房子住了一年了 有点伤感  也有点感情了  希望大家都过的好把 快中秋了 祝大家中秋节快乐!!!
好朋友搬走了

网站被搜索引擎降权的八大原因

 当发现自己的网站被k之后,都会问自己我什么都没做啊,为什么会这样,一个网站被搜索引擎K必然是有原因的,只是你不知道原因在哪。在这里我为大家总结搜索引擎K站的最新原因,希望对大家有所帮助。

原因一、网站的稳定性

1.发现很多网站被搜索引擎降权、抓毛都是网站经常访问不了,打不开造势网站被搜索引擎K掉;所以网站稳定的搜索引擎优化的第一要素,网站都打不开还优化什么呢?当然也有黑心的服务器托管商用robots文件把蜘蛛给屏蔽掉,这也是一原因。

2.网站经常被攻击、挂马,导致蜘蛛无法抓取数据;所以大家在找服务器空间的时候,一定要选择有品牌、有知名度的服务器空间商,因为他们在安全方面做的比较好。

原因二、网站过度优化

 站内网站过度优化只要包含几个方面,标题关键词堆积,关键词密度超过10%,H和STRONG标签使用超过20次,关键词锚链接不自然且过多,这些都是站内过度优化的原因,大家注意就可以了,站外过度优化原因主要是外链接增加过快和过多且不相关,解决办法:建议合理使用H和STRONG标签,一般10次左右就足够,关键词密度在保持语句通顺的同时,最好控制在8%以下,关键词链接不要同时有N个关键词链接到相同的页面。

 原因三、网站过度改版

 网站改版如果超过60%以上,那么搜索引擎会可疑,对于是否对网站降权要看搜索引擎心情了,如果网站改版超过了60%,基本上和原来的主题失去了相关性,建议网站改版尽量每次改一部分,改了之后,马上写原创文章,同时加点外链接,这样就不会被搜索引擎降权了。

网站被降权原因和解决办法网站总结,如果你的网站出现降权情况,请你从上面原因中一条条去找,并且马上修正,如果再不能解决说明搜索引擎已经严重降权了,这需要耐心等待,只要你有一个平淡的心,迟早都会好起来的。

原因四、外链接失去平衡

到底什么是外链接失去平衡,即网站外链接数量超过网站的承受能力,特别是新网站在建设被期,我们没有必要去做过多的不相关外链接,这样只会引起搜索引擎的反感,如果要大量做链接的话,可以每天按一定数量平均增加,不要一天增加100条链接,N天后都没有增加,这个很容易让百度搜索引擎发现,最终引发网站降权,这点对像谷歌搜索引擎随便玩都没事,因为谷歌是以外链接取胜的搜索引擎, 小不点提醒:百度增加外链接要有规律性,并且具有相关性,最好是单向链接,尽量用网站链接,而不是大量论坛和博客。

原因五、网站的友情链接

友情链接的牵连导致降权、被K的,这种情况很常见,所以大家一定要做到每天检查友情链接,一旦发现有被搜索引擎惩罚的网站,要及时做出相应的处理。

原因六、网站出站链接过多

 相信很多朋友对于出站链接这点是降权的一个原因,无论你的网站是新的、老的、还是权重高的,只要你做了大量的全站链接99%会降权,这个原因,至少我已经测试过N次了,所以大家尽量不要做全站链接,同时全站链接对提高别一个网站的权重效果也不好!还有就是友情连接超过50个以上,不降权只能说明搜索引擎还没有找到你,找到你的时候,不要哭爹娘说搜索引擎人工就OK!是你自己违反了搜索引擎的规则,解决办法:标题:要成为游戏的高手,就在游戏的规则内玩游戏,不要等到结束的时候,说游戏不好玩!

原因七、内容与主题相关性差

也许有很多新手没有注意到这点,其实网站内容与主题不相关是一个非常大的弊端,假如,你的招牌店铺是卖LV产品的,用户进去后发现卖的是XX包包,你的顾客会怎么想呢?相信你懂的,搜索引擎也会这样为用户着想。小不点建议,网站要更容易的获得排名,就多数相关文章。

原因八、网站类型被搜索引擎禁止

 什么网站是搜索引擎禁止的呢?如果你是一个有常识的相信你都明白,国家不允许的内容,就是搜索引擎禁止内容,像“去香港生子”,“日本MM电影”,“XX盗版品牌”其它在这里就不多说了,解决办法,小不点建议安分守己只正规站。

更多的希望您能继续关注我们小不点。本文地址: http://xbdsky.cn/down-the-right-site.html

那么网站根目录下的robots.txt是什么呢?

   robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。

   关于robots.txt需要注意以下几点:

  1. 如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。
  2. 必须命名为:robots.txt,都是小写,robot后面加"s"。
  3. robots.txt必须放置在一个站点的根目录下。如:通过http://www.xbdsky.cn/robots.txt 可以成功访问到,则说明本站的放置正确。
  4. 一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。
  5. 观察这个页面并修改为自己的:http://www.xbdsky.cn/robots.txt 
  6. 有几个禁止,就得有几个Disallow函数,并分行描述。
  7. 至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。

补充说明:

User-agent: *  星号说明允许所有搜索引擎收录

Disallow: /search.asp  说明 http://www.xxxx.com/search.asp 这个页面禁止搜索引擎抓取。

Disallow: /default.asp?*   说明类似这样的页面 http://www.xxxx.com/default.asp?  这个?后面的所有的链接都禁止搜索引擎抓取。

用了robots.txt后我们站点的页面减少了很多,这样减少了页面的重复度了,更多的希望您能继续关注我们小不点。本文地址: http://xbdsky.cn/robots-txt.html