第二:利用站点工具分析一下是不是禁止访问,现在还是有很多网站无法访问,为什么访问被禁止的站点,直接屏蔽或不让蜘蛛爬行,这一个时刻,站长工具上面就可看到,限制访问可能有限制,但是一旦限制访问,我们就知道,怎么样去阻止蜘蛛或禁止访问。
第三:利用robots屏蔽屏蔽网站的页面,查看是不是可以屏蔽百度蜘蛛,如百度蜘蛛可直接抓取到网页中屏蔽百度蜘蛛,所以,这一个时刻站长工具就可以清楚的看到百度蜘蛛是不是可以爬行。
最后:访问被禁止的站点,用robots屏蔽,肯定是有限制的,为何呢?因为百度对于这一个限制网站的抓取会通过网站的设置规则来抓取,禁止抓取网站的链接,否则也不存在百度蜘蛛不能爬行的可能,所以,如果不想让蜘蛛爬行这一个站点,就要做好网站的安全工作,并且恰当的屏蔽对方的链接,以避免被百度蜘蛛发现我们。
经历这些问题的排查和排查,我们就可以大致知道自己为什么不去禁止搜索引擎收录我们的网站,主要包括:
1、网站服务器不稳定,这一个问题是最主要的,服务器不稳定是一个非常致命的问题,如果服务器出现问题,例如网站常常性的打不开或打开很慢,那么蜘蛛就不会去爬行你的网站。
2、网站模板频频撰改,这一个主要是对于搜索引擎来说,频频的撰改网站的模板会导致搜索引擎对网站的抓取频率降低,这样一来,蜘蛛每次爬行都会碰到困难,如果网站常常性的撰改模板,蜘蛛就会降低对你的网站的信任度,自然就不可可以在爬取你的网站了。
3、robots文件,网站设置的robots文件,如果禁止搜索引擎爬行,那么蜘蛛就不会继续爬取你的网站。
4、网站网站内链过多,这一个问题是最最主要的,如果网站内链过多,这一个问题就大了,在这里说明一下,当蜘蛛来抓取你的网站,发现你的内链过多,必然导致蜘蛛没足够的时间去爬行你的网站,当然就不会来爬行你的网站了。
5、网站存在黑链,网站存在黑链,黑链可以很好的帮助应对这一挑战,它可以很好的提高你的网站信任度,从此从此促进网站快照的更新。