这些年SEO技术发展:算法更迭与应对策略
不信?让我分析一下,2021年的算法更迭与应对策略,请采纳本文。
算法更新
8月15日,Google向用户展示了SiteExplorer和Majestic等网站数据,但到今年10月,越来越多的搜索平台(例如亚马逊)开始侧重对数据进行抓取,已经不再单单是对网页进行抓取。
SiteExplorer结果显示,在10月17日以前,有1亿个用户希望在10月后返回索引。
谷歌已经在今年10月12日宣布,对所有的SiteExplorer结果进行了新的更新,包括:不再索引网页,不再索引深度和相关性,不再排名。
12月25日,因为本月某搜索平台对网站进行了更新,例如对网页关键词密度和相关性进行了调整,所以过去一年内的网站都有索引,该算法的目的是为了打击恶意采集行为。
然而,Google不仅强调不收录新站点,而且也惩罚了大站点,但从Google长远来看,即使网站已经有了索引,Google也会进行降权处理,通常情况下,即使在一周内蜘蛛抓取了网站的内容,也不会有太大变化。
针对该算法,Google已经使用了多种策略,例如:
1、算法升级
2、SiteExplorer同时对搜索结果进行了新的抓取,同时还对高质量的、具有一定搜索量的内容进行了抓取。
3、重新定义了爬虫池,其中包括一些类似于Baiduspider、Crawler以及PageSpeed等爬虫程序。
12月26日,Google宣布对站长工具中的spammer进行了更新,同时Google对已经在站长工具中提交的新算法还进行了更新,而没有收录的部分url将不再抓取。
如何保证百度收录效果呢?
从搜索引擎来看,不同网站之间的链接关系是不同的,一个好的网站与一个差的网站链接,虽然百度没有明确的表示已经将robots封禁,但是从站长工具的角度来说,我们可以肯定的是,我们必须得给百度一个抓取通道,这样才能保证蜘蛛不会再进行抓取。
如何知道网站未被抓取?
一、查询域名信息
在sitemap网站地图中,有网站网址sitemap地图,而网站url页面地址的查询,可以查询到该域名的基本信息。
二、查询服务器日志
当我们发现网站数据丢失时,我们可以通过查看服务器日志,看看蜘蛛抓取的页面,是否存在异常,如果存在异常,
我们可以对服务器日志进行分析,看蜘蛛是否已经成功抓取我们的网站页面,是否有被错误的抓取记录,如果有被错误的抓取记录,我们就可以对网站进行相应的调整。