当前位置:园子博客 » 网站应用 » 网站被K的解决方案

网站被K的解决方案

1月 14th, 2009 | Filed under 网站应用 | 共有4,403次浏览

相信任何一个站长都不希望自己辛苦半年或者更久的心血在一夜之间被搜索引擎K掉,当然,我们并不能左右这个结果。我们所能做的只是防止这种状况的发生,做真实的内容,不触犯搜索引擎不喜欢的一些东西。如果你不幸被K了,下面园子给你提供的方法可以让你检查一下问题是出在了哪里,以便找到解决方法。

如果被百度K掉了,园子认为现在唯一的方法就是把任何可能涉及作弊的地方调整过来,然后再次去百度提交网址,接下来就是等待,过段时间百度会再次审视你的站点。如果你发现Google在一夜之间K了你的站,那你要做的就是登录 Google 网站管理员中心,选择工具下的请求重新审核,并按照步骤操作即可,接下来你要做的就是等待了。

上面介绍的是针对百度和GOOGLE的解决方案,那么我们究竟要检查哪些地方呢?

  • 检查你的域名
    如果你的域名早期被注册过,在你注册前使用者因作弊遭到搜索引擎封杀,那如果后来你又使用其域名,也要面临危险。你可以点此查询域名历史
  • 检查服务器
    服务器运行是否稳定,当搜索引擎抓取时,服务器有没有正常运行,服务器日志中是否返回是200状态码?如果是200状态码,那就只是个暂时现象,放平心态,等搜索引擎大更新时会自动解封了。关于状态码请看:HTTP状态码一览表。另外如果你用的是虚拟主机,你的IP地址上的服务器正好有很多搜索引擎认为作弊的或者是垃圾网站,你的网站同样也受到牵连影响,被搜索引擎判为作弊网站。
  • 是否触犯了当地的法律法规
    如果你网站的内容不符可国家法制信息,如存在色情、赌博、反动等违法信息,网站会受到处理,因为搜索引擎同样也要遵纪守法,它 不会把违法信息,提供给搜索引擎用户。
  • 网站是否被攻击
    网站是否遭遇黑客攻击,不能打开或者被放置木马、病毒等,一般这种现象不会受到搜索引擎处理,但严重影响了用户体验,如果遭到搜索引擎用户的投诉,会受到搜索引擎人工降权。
  • 检查robots.txt文件
    目前大多数搜索引擎都遵守robots协议,如果在robots写法设置不当,直接影响搜索引擎抓取收录工作,检查robots.txt文件设置是否正确。要详细了解robots.txt设置方法,请看:robots.txt的写法
  • 你是否采用了作弊手段
    网站是否为了排名而采用了作弊手段,比如关键词叠加,标题修改,关键词密度过大,Meta属性修改,网站内容结构,内容作弊等,如果网站内容优化不当,会造成很严重的后果。
  • 是否设置了转向
    网站是不是内容修改,设置了404页转向,或者JavaScript跳转或者服务器301转向302转向等都有可能造成影响网站信任度,受到惩罚处理。
  • 友情链接里是否有不良的网站
    网站交换合作友情链接,如果部分网站被搜索引擎认为作弊,并受到惩罚,而你站正好与之交换链接,有时同样会受到牵连,网站友情链接质量过差,同样面临被搜索引擎K掉的危险。
  • 你的站是否全部是采集的内容
    如果采集内容过多,在搜索引擎上含有大量的重复内容。搜索引擎会认为你的网站是个全靠采集的垃圾站点,也有可能面临被k的危险。
  • 是否采用了信息群发等不良的推广方式
    如果你的网站采用群发信息的方向进行推广,这样有时会造成反面影响,网站乱发信息,被搜索引擎判为作弊,搜索引擎讲究合作的运营推广,如果是大量采用人工,群发软件发送信息不当等,有时网站也会被K掉。
目前还没有任何评论.
您必须在 登录 后才能发布评论.