第一:检查网站robots文件。robots文件中可以阻止蜘蛛抓取网站不必要的内容,以减少蜘蛛来网站抓取的难度,合理的利用robots文件可以更好的让网站被收录,但是如果遇到不会使用robots的站长,可能会错误的写文件,导致蜘蛛无法正常的在网页上进行抓取,长时间的抓取不到内容,蜘蛛会认为这样的网站是作弊的网站,并给与这样网站惩罚。特别是新手站长,在使用robots文件时,不知道文件的写法是否正确,可以用百度站长robots工具,此工具可以帮助站长生成robots文件,谷歌关键词分析工具也可以检测robots文件写法是否正确。因为robots文件写法错误造成惩罚的站长,需要利用工具查出robots的错误,以免造成更大的影响。
第二:检查是否使用作弊跳转。目前百度蜘蛛支持认可的跳转只有301跳转,301跳转可以完全把网址的权重转移到新网址。可以跳转的方式比较多,如302跳转、JS跳转、meta refresh跳转等,百度蜘蛛对于网站使用这些跳转不认同,反而会认为这样的跳转方式是作弊跳转,蜘蛛对作弊的网站惩罚很严重的。站长们要想尽早的跳出惩罚的小黑屋,彻底网站除301跳转以外的其他跳转,不要因为不必要的网站跳转导致网站被惩罚。
第三:检查同服务器上的网站。站长们为了节省成本,购买劣质的服务器,一台服务器上有上百个网站,这些网站的运营情况都会影响你的网站,遇到网站被惩罚时,自己的网站找不出优化问题,这时分析同服务器其他网站显的很重要。同服务器上的网站有被惩罚被降权的网站,或是有违法的网站,网站有作弊现象等,都将会影响到你的网站运营,其他网站被惩罚的现象比较多,站长们要想自己脱离影响,必须要着手更换服务器。不要因为硬件方面的失误,导致网站长时间被惩罚。
第四:检查网站是否优化过度。网站优化过度的现象往往会出现在新站中,新站刚上线为了获取流量排名,会花很大的手笔去优化,导致网站的关键词密度过、网站的内连接建设杂乱、短时间内增加过多的外链等,网站优化是项长期坚持的工作,不是短事件内就能完成的,要想网站不被惩罚,合理的分布网站关键词、寻找高质量的外链、高质量的内容建设、蜘蛛网式的内链建设等,合理的优化程度才不会造成网站被惩罚。