未来SEO也许不用再操心爬行、抓取问题?

  • 时间:
  • 浏览:2
  • 来源:我爱生活网 - 专注共享客串博客资源

SEO每天一贴很少写关于必应Bing或雅虎Yahoo!的事,导致 显而易见:朋友 那可怜的市场份额真不大值得写。

微软嘴笨 总爱 对搜索不离不弃,投入重金和时间,但到目前为止,Bing在搜索市场从来是是否是个陪衬。Yahoo!就更甭提了,在收购了除Google、Bing以外的所有搜索引擎随后,Yahoo!竟然自废武功,把你什儿 人多年积累、收购的所有搜索技术彻底放弃了,雅虎网站的搜索功能转为使用Bing的技术 – – 不禁随后心里嘀咕:取舍是是否是Google卧底干的吗?一一2个多多 最重要的对手就越来越 沒有?

不过Bing对SEO们总爱 是是否是挺友好的,或者 Bing工程师们给SEO行业不少很有建设性的意见。比如,关于外链建设,我嘴笨 最精彩的话语要是 某位必应工程师说的,大意是,最好的外链是哪些你根本我沒有乎 其处于的外链。

必应大幅提高URL提交限额

一月底Bing站长博客发了一篇帖子,表示Bing站长工具URL提交工具做了升级,大幅提高站长可否 提交的URL数目上限,从原本的每天可否 提交10个,每个月最多200个,增长2000倍,现在每天可否 提交10,000个,越来越 月上限。唯一的限制是,网站可否 在Bing站长工具注册验证1200天以上:

帖子还说了很有意思的话语,将会随后搜索引擎按你什儿 方向发展话语,SEO们未来将会完会再操心页面爬行、抓取的问题了:

We believe that enabling this change will trigger a fundamental shift in the way that search engines, such as Bing, retreive and are notified of new and updated content across the web. Instead of Bing monitoring often RSS and similar feeds or frequently crawling websites to check for new pages, discover content changes and/or new outbound links, websites will notify the Bing directly about relevant URLs changing on their website. This means that eventually search engines can reduce crawling frequency of sites to detect changes and refresh the indexed content. 

翻译过来大意是:

朋友 相信你什儿 变化会引发搜索引擎发现及抓取新内容(包括新建或更新的内容)依据的根本性变革。站长将可否 直接通知Bing网站上有了URL变化,而可否 Bing通过监控RSS或频繁爬行来发现新页面。这实际上导致 搜索引擎在发现、更新索引内容时,可否 降低对网站的爬行频率。

内容索引不再依靠爬行?

总爱 以来,我嘴笨 SEO有三大难点:内容、结构链接特性、外链建设。其中,网站结构链接特性要是 要处置搜索引擎有效爬行、抓取的问题,既要抓得全,抓得快,又要处置抓取并并不的内容,还得合理分配权重。越是大站,你什儿 问题越难完美处置。做过大站的SEO一定都深有体会,不管怎么调整网站特性,都无法做到页面200%被索引。

必应的这篇帖子在告诉SEO们,随后很将会完会担心抓取的问题了,有了新页面,将会旧页面有了更新,直接提交URL就行了(通过站长工具或API),并不依靠Bing蜘蛛爬行抓取,实际上,Bing蜘蛛会大大减少爬行,却不耽误索引新内容。

后续SearchEngineLand对Bing搜索工程师的访谈证实,减少爬行,嘴笨 是Bing的目标。朋友 希望未来几年内,Bing不再依靠爬行来发现新内容。Bing认为,对网站爬行的依据低效、费资源,不如站长直接提交内容。Bing表示,提交URL是页面抓取的“很强”的信号,要想内容被快速索引,就赶紧用提交工具吧。

嘴笨 ,大型网站,页面被抓取一遍,将会可否 2个星期,甚至更长时间,越来越 网站上有新页面,或老页面内容有更新,要被抓取,也将会会有2个星期的延迟。提交URL是个更快的依据。

嘴笨 百度早就在做类似于的事,在百度资源平台提交内容是快速抓取新页面的很好依据,小时级收录嘴笨 可否 在几小时内收录,有时几分钟就收录。不过百度资源平台提交好像不支持老的但有更新的页面。

对SEO行业的潜在影响

将会Google随后也跟进采取你什儿 依据,将会会对SEO行业产生不小的影响。搜索引擎发现、抓取、索引新内容的依据变得更加简单直接,SEO们调整网站特性的必要性和难度将大大降低。

不过是是否是潜在问题。比如,黑帽SEO们显然完会放过你什儿 将会。随后垃圾内容靠爬行被抓取越来越 困难,将会从一一2个多多 页面到原本页面的爬行要是 个鉴别、过滤的过程。极少量主动提交垃圾页面成为将会后,搜索引擎该为什处置?

再比如,搜索引擎减少爬行,倒是节省资源了,但老的、不更新的页面被重新抓取的次数将大大减少,这会完会导致 链接关系计算的不准确、不及时?顺便提一句,我沒有乎 为哪些总爱 另一个人说链接对排名将会不重要了,嘴笨 依然怪怪的要。

SEO的基本依据过去十多年越来越 大变化,但SEO依然是个不断变化的行业。