为什么谷歌引擎突然用不了,搜索引擎为什么不再好用
网上有很多关于为什么谷歌引擎突然用不了,搜索引擎为什么不再好用的知识,也有很多人为大家解答关于为什么谷歌引擎突然用不了的问题,看百科为大家整理了关于这方面的知识,让我们一起来看下吧!
本文目录一览:1、为什么谷歌引擎突然用不了
为什么谷歌引擎突然用不了互联网孤岛化
现如今我们需要买什么东西时,习惯在京东或淘宝这样的电商平台上搜,而不会首先打开搜索引擎。即便你用搜索引擎搜,很多时候也是搜不到的。
这种现象当然不限于在淘宝、京东,也一样存在于很多以内容见长的 App,比如今日头条、抖音、快手,当然还包括拥有大量公众号文章的微信等等。
互联网上的全部信息都可以通过搜索引擎搜到的年代早已过去,许多内容来源都形成了对搜索引擎封闭的信息岛。现在有人管这个现象叫做“互联网孤岛化”。
想要说清楚互联网的孤岛化,我们得先回顾一下,在从前的互联网中搜索功能是怎么实现的。
最基础的元素叫作“爬虫”。它工作起来和正常人上网很像,会向每个可以访问的页面发出“看”的请求,然后得到页面的信息。
这个页面在早期是静态的,获取信息简单直接,后来动态网页越来越多,还需要配合浏览器的渲染工具才能让爬虫获取页面信息。当然,爬虫不光要获取页面信息,还需要记录和当前页面有超链接的页面。这个是非常有用的。
因为搜索结果谁排第一页、谁排第二页,第一页里哪些靠前、哪些靠后,都需要通过巨大、复杂的连接关系计算得到。排序的方法价值连城,今天的谷歌公司就是建立在这个核心价值上的。
为什么今天有那么多互联网的内容搜不到了呢?
因为那些本可以访问的内容大节点拒绝了爬虫的访问。实际上,爬虫访问网页和人用浏览器看内容还是有些区别的。它在访问前会先去读 robots协议。这个协议里规定了哪些内容可以由爬虫收集、哪些不能,以及哪些搜索引擎的爬虫可以来这里收集内容。
举个例子,今天规模比较大的搜索引擎,比如谷歌、百度、搜狗的爬虫可以,如果我写了一个爬虫呢,按说就是不可以的。比如,微信公众号的 robots协议就禁止了几乎所有网站的爬虫,只有一个例外,就是腾讯收购的搜索引擎——搜狗。
所以,即便在网页浏览器,只要你使用的是搜狗搜索,那么在搜索结果的分类选项里除了大家常见的“网页”“图片”“视频”之外,还会有一个“微信”的分类。
其他已经成为信息孤岛的内容大节点也都做了类似的规定,基本只允许自家的爬虫收集内容。
回到刚刚那个特例,假如我自己写了一个爬虫,能不能搜集到各网站的内容呢?
按说是不能的,但实际上也还是可以不遵守 robots 协议任性地去搜集页面的内容。因为搜集页面内容的整个过程,和我们访问一个网站是非常类似的,没法从动作上禁止。只不过今天很少有大网站会去这样做。
因为在过往出现过的法律纠纷中,只要不经过站点同意就任性地去爬人家的信息,这种做法都会被判违反商业惯例,输掉官司。所以,今天要长远发展的公司,不会无视 robots 协议的限制。
而且,甚至有些公司遵守了 robots 协议,但却把爬虫获取的信息做了二次加工,商业变现了,也依然会输掉官司。
比如说,百度就爬过大众点评的商家店铺信息,然后把这些信息填补到百度地图对应的地点里,后来输了官司赔了几百万。
为什么“爬虫”不再被欢迎?
其实,在 2010 年之前,很少有网站或者应用拒绝搜索引擎的爬虫,反而是大都特别愿意爬虫来收集页面信息。
当时,很多互联网运营的核心技能就是 SEO,叫作“搜索引擎优化”,目的就是让自己网站的相关内容被搜到的时候,在搜索结果上能往前排。
通过这种技巧,从搜索引擎的结果里导入到网站的流量,好多时候可以占到全站流量的一半以上。而另外一半流量,是用户通过导航站,或者收藏夹里的链接直接访问的。
在那个年代,如果一个网站拒绝了爬虫的访问,相当于自废武功。拒绝了爬虫就相当于拒绝了流量,拒绝了流量就相当于拒绝了广告费。
那为什么今天又有那么多的内容大节点拒绝爬虫了呢?
因为赚钱的方式变了。现在,一个内容节点完全可以凭借自己的能力获得巨大的利润。当搜索引擎带来的利润远远低于自营带来的利润时,被爬虫就相当于被平白无故拿走了有价值的东西。
这个变化,最早出现在 2008 年的淘宝网和百度之间。今天,我们在百度里搜索不到淘宝的商品,大家认为再正常不过了,但其实在十几年前是可以搜到的。
这是因为淘宝的模式成熟后,店铺的佣金成了最主要的收入来源,而后续又有了巨大的广告收入和支付宝带来的金融收入。
于是在此基础上,淘宝评估了来自搜索引擎的流量带来的收入,发现这个收入微不足道,于是就禁止了百度的爬虫。
这个逻辑很好理解。因为此前的互联网产品,大都是基于信息的展示来盈利的,说白了就是靠广告挣钱,只有淘宝这样目的是促成交易的平台例外。
因为淘宝就相当于线上的临街铺面,靠卖货就能挣钱,不用靠广告。功能的不同,导致两者利润来源上的差异。
而最近几年,另外一个利润来源的差异也出现了,那就是数据。
我们知道,数据本身就是很值钱的。哪怕主要是提供信息展示的新闻 App,只要做大了也一样可以通过各种算法,利用自家的数据赚钱,方法就是利用这些数据精准的给用户推送广告。
这时候,单位流量产生的利润,远高于百度这样未经算法加工的流量产生的利润,于是这些内容大节点做到了仅凭自己就能获得巨大利润这一点。
而与此同时,数据对谁都是有价值的。如果数据被搜索引擎抓走,经过百度的算法加工后价值也很高。
所以,各家都认为自己的数据不能白送给百度,于是当一个内容大节点做大了以后,往往会选择拒绝爬虫。
这时,这些内容大节点更适合的称呼其实是“数据大节点”。
拒绝爬虫,就造成了信息和搜索都是孤岛状的。找东西再也不能像之前那样,只用搜索引擎就能把 80% 可用的东西找出来了。
2023 年 1 月 9 日,微信举办了这一年度的公开课。虽然张小龙没有出席,但产品负责人还是介绍了很多新内容。
其中微信的“搜一搜”被定位为“微信生态连接器”。除了最初的联系人,聊天记录可以搜,公众号、小程序、百科、读书、问答,甚至表情包也能搜。而这些子项目,都是微信这个数据大节点在最近十年积累的存量内容。
与此同时,公开课还分享了几个内容,一个是“搜一搜”的月活,已经从 2023 年的 5 亿上升到了 7 亿。而作为竞争对手的抖音,视频搜索的月活是 5.5 亿,快手的视频搜索功能月活是 2.5 亿。
我们普通用户有哪些需要留意的呢?
如果你是搜索功能的使用者,那你要留意,如果这个问题对你很关键,那么最好在最大的几个 App 里都搜一遍而不要偏信一个 App。
以上就是关于为什么谷歌引擎突然用不了,搜索引擎为什么不再好用的知识,后面我们会继续为大家整理关于为什么谷歌引擎突然用不了的知识,希望能够帮助到大家!
随便看看:
相关推荐:
网友评论:
推荐使用友言、多说、畅言(需备案后使用)等社会化评论插件