一个想法,不一定对:随着 ChatGPT 技术的大跃进,Web 3 可能在随后的一段时间也出现应用革命。而原因,恰恰是由于分布式技术与之前 AI 的几乎完全不兼容。
前情提要是我之前发了一条即刻,内容是:
对于非技术人如何在ChatGPT引发的下一次工业革命中获取优势,我和很多人的看法可能相反,不要积极转码,不要绞尽脑汁的去想GPT在你擅长领域的应用。
因为既然你已经是非技术人了,在向前跑这件事上,你的起跑线已经比那些占有优势的人靠后。所以,正确的做法是反着跑,向后跑。
现在“生产力”又上了一个台阶,因生产力稀缺而被淘汰的东西,会因生产力剩余而重新返场。
就像当我们不再需要穿打补丁的衣服之后,缝纫、编制、手工艺以娱乐性生产的方式重新返场。粮食不再危机之后,休闲农业以体验式旅游的名义重新返场。从项飚、田丰和严飞的社会学作品中寻找商业机会,找到那些在上一个时代因为“生产力”不够而被丢弃的社会生产与社会关系。重建附近,重建在场,重建当下。
对于不擅长应用新技术的人来说,这才是最容易抓住的机会。
2023-03-27 11:30
在这条即刻下面,我和一位评论者展开了非常友好的评论,并且它提醒了我关键的一点: Web3 也是那个“被时代抛弃的手艺”:
长期以来,Web 3 或者我们不帖标签的说“分布式网络技术”从实验室技术到大规模应用的平静有许多,其中之一就是推荐算法,甚至搜索排序算法的难以应用。
Web 2 或者说大众所熟悉的中心化互联网产品,在过去几十年中建立了一套非常完善的“存储-计算-展示”为一体的产品体验。我们以同一日我在另一条 Suji Yan 的即刻所讨论的抖音为什么没法去中心化为例:
理论上来讲,我们不谈字节及张一鸣本身的偏好问题,如果只讨论字节是否能够通过分布式技术解决监管问题似乎是可以的。因为,Mastodon、nostr 和 Lenster 已经展示了分布式技术已经可以在用户端的体验推进至 2015 年,也就是移动互联网初步普及期的用户体验水平。
在一个分布式的平台上,发布与浏览内容,与其他用户公开或私密的互动,这些都已经不再是问题。甚至说得夸张一些,如果你是一个极度厌恶广告的人,甚至会觉得 Mastodon 的用户体验比 Facebook 和微博还要好。
然而,问题是抖音与 Facebook 或 Twitter 类以关注(及双向关注)型产品有本质区别。关注类产品遵循一个基本的,清晰的,无黑箱的分发机制建立,即你关注了某个账号(或者和某个账号成为双向好友),你就可以在自己的界面中看到它发布的内容。
我们甚至可以将这个规则理解为一种协议,而既然是一种协议,那么它天然就具有去中心属性。我们之所以在过去的一段时间里只看到了 Facebook、Twitter 和微博这样的中心化产品,是由于在商业竞争的压力下,市场内的信息交换趋于“最低成本,最高效率”。那么,既然市场内所有的产品都遵循一个协议,那么实际上是市场内只有一个产品,所有信息在一个产品内交换是最快的。
因此,Facebook 和 Twitter 与其说是一个产品,不如说他们是一群遵循一个协议的产品进行商业竞争结果后留下的最后一个产品,其产品自身就带有一种协议属性。
这同样意味着,崇尚“协议”思维的 Web 3 只要解决前端用户体验和商业竞争上的问题。理论上,确实可以取代这些巨头。
我们完全可以想象,如果发生天降陨石毁灭 Twitter 这种意外,大部分 Twitter 都可以几乎无损的转移到 Mastodon 网络上。从而实现社交网络的去中心化。
然而,放到抖音或 Tiktok 上,情况则完全不同。
我们当下所理解的短视频产品,无论是抖音、Tiktok、快手还是其它各类 App 里的推荐视频流,其得以成立的前提并非是视频技术的大规模进步,而是推荐算法在实践领域的大规模应用。这种大规模应用延续自 Youtube 2008 年开始的推荐系统革命,其详细的历史沿革可以在这篇《深入理解YouTube推荐系统算法》中找到。
我们简化、白话来说,为什么推荐系统才是视频网站的关键:
因为在过去相当长的一段时间里,视频的信息难以被搜索,每个视频只有简要的一些标题和简介,这些文字内容和视频内部所承载的信息相比差异巨大。
这意味着如果你拥有 1000 个网页,你可以很快速的找到你想要的那个页面,这便是搜索引擎。而当你有 1000 个视频,你将很难从中找到你想看的那段视频。
视频网站最初通过一个名为协同过滤算法的机制,来解决了这个问题,并最终演化出了构成如今抖音体验的主要部分——推荐信息流。
推荐流的工作机制,是通过搜集不同人对不同视频的行为数据,来将视频分发给不同的人。简单来说,当你上传一段视频的时候,它并不是先内容识别一些发现这个是小姐姐跳舞,然后定向推给一些 LSP。而是反过来,它试着将一段视频推给 10 组各自行为相似的人,每个组里有 10 个人。其中有一个组不仅看完了,点赞了,还收藏了,最后还转发了。于是,系统将视频推给更多属于这个组里的人。
直到最后,我们人类反向看一下,发现原来这个视频是个擦边视频,这组人的行为就是老点赞擦边视频,所以我们管他们叫 LSP。
这个工作机制与“协议”有非常大的区别,首先它的工作过程并不完全清晰,因为训练好的模型并不如我刚才的文字那样明白。几亿用户的推荐系统,就像是 ChatGPT 本身一样,是一个你无法解释它为何在此时把某视频分给某人的系统。
在有一个,就是这种建模需要中心化——你只有几亿用户的行为数据都存储在一处,协同过滤算法才能通过“别人”猜出“你的喜好”。如果每个人都从不同的入口接入网络,行为数据、视频数据也都各自分散在各自不同的节点上,我暂时还不知道这应该怎么做推荐算法。Suji Yan 在原帖里说这个问题可能会在 3 年内解决,我们可以等等看,但我保留态度。
因此,我们可以看到,Web 3 和 Web 2 巨头在过去 5 年里大规模应用的推荐算法可以说是完全不兼容,这也是卡住 Web 3 走向应用的重要原因。毕竟,应该没人想要一个关注制的抖音,我们喜欢的就是每次上划给我打来的那种“击中我喜好,但却从未见过”的惊喜。
更别提,在时间维度上距离 Web 太远的短视频产品,早已将内容的制造、加工和分发也拧成了一股绳。你会发现,某些视频平台甚至会因为缺少某些滤镜而在商业竞争中落败。这种从生产到消费,从存储到分发都高度一体的产品模式,很难被单一 Web 3 协议,或协议群所取代。
直到 AIGC 的出现,改变了这一点。
如果你之前没有看过我《鼠巢,AIGC,可颂猫,短视频》这篇博客,那么可以先预习一下这个观点:
AI 取代人,不是以 AI 能做好人的那份工作实现,而是以人做的工作不再被人类喜欢实现。
就像是如果没有短视频平台,也就不会有抽象文化的崛起,媒介形式本身就在塑造信息内容。而如果比起抽象文化,可没有任何一个人能比 AI 抽象。甚至某种程度上,喜闹笑话的文心一言甚至比 Midjourney 更懂抽象文化。
当然,这是个玩笑话。我们话说回来,AIGC 的革命是生产力的革命,它和此前的所有自媒体模式都不相同。此前所有自媒体的兴起,无论是长图文的(公众号、Medium、Newsletter),短图文的(微博、Twitter),长视频的(B站、YouTube),短视频的(抖音、快手),音频的(播客),都是分发门槛的降低,不是生产门槛的降低。
而 AIGC 是改变了这一点的,AIGC 在某种程度上将会进一步激发内容生产的总量,从而实现真正的千人千面而非抖音和今日头条那种假的千人千面。
我们来更进一步的解释一下:
在旧有的推荐模式下,供应量有限,消耗量无限(对应所有用户)。需要解决的问题是将有限的供应分配给无限的群体。因此,协同过滤算法实际上是一种化无限为有限的方法,它通过将总用户切割成不同的群组(大众口中的标签),将合适的内容递到同一个群组中。这个系统我们大众口中称为推荐算法。
在 AIGC 的模式下,供应量无限,消耗量有限(对应单个用户)。需要解决的问题是精准生成每个用户此时此刻需要的内容。
你发现问题了吗?
个性化推荐不存在了,因为所有内容从最初的生产就是为你量身定制的。
如果你亲自玩过 ChatGPT 和 Midjourney,你就能够感受到个性化生成和个性化推荐作为两种交互系统的微妙差异。
在抖音上,你通过不断滑动、点赞和评论来协助系统为你推荐更好的内容,但这个过程往往并不直观,它的速度更慢,你需要长时间使用才能获得一个懂你的抖音,而且抖音也无法懂“现在的你”,比如你一直是一个 LSP,但是突然开始爱好钓鱼了,如果你没有主动搜索,那可能抖音要一周才会发现你有了新的兴趣。它的精准度也不足,即便是发现了你是个 LSP,也需要花几个月的时间才能理解你到底是喜欢鹅蛋脸还是锥子脸。
但在 AIGC 中,这种对用户的需求反馈是非常实时的。在使用 AIGC 的过程中,我们可能也需要几个来回,比如在现阶段我们可能也需要对 prompt 进行改进,要给 Midjourney 生成的图片点赞或让它重试等等。但它在单一需求上的进步速度是神速的,你能够看到它每一次改进都距离你的需求更近了一步。
如果我们再进一步,当多模态的 AIGC 得到普及的时候,我们会遇到什么情况。你在基于过去的基于推荐算法的短视频上,有了新的钓鱼这个兴趣,系统要用一周的时间才会发现你喜欢钓鱼,而更糟糕的是,由于压根没有创作者往这个方面想,所以你可能要一两年都等不到美女和帅哥钓鱼的视频。
但在 AIGC 的真·个性化内容平台上,当你说你想看看钓鱼视频的时候,它发现你过去 3 年都是看美女视频的,于是直接生成的就是美女虚拟主播钓鱼。
在视频领域,这个理论和现实的差距可能还有一些。但在长图文领域,一个架空推荐算法的内容产品可能很快出现,而这与 Web 3 可以是非常相关的,因为它去除了目前互联网产品中最不能被去中心化的分发环节。
我们可以设想这样一个业务流:
分布式的用户→通过分布式前端(客户端)接入→邦联式的节点存储行为数据和数据清洗以保持与大众兴趣的一定拟合→定期的在不同的 LLM 节点生成独立 fine-tune 模型→放在分布式节点进行每次信息访问
这个流中不存在类似于“必须通过海量别人的行为数据,来生成你的推荐流”这样会显著引发中心化的技术环节。
嗯,最后的问题就是 LLM 能不能去中心化了。这个完全取决于 CloseAI 什么时候真的打算做 OpenAI。
精选评论
我觉得有道理,但是很难想象落地场景
不过一个问题是,我如何表述现在的我的诉求?如果我一直是个lsp,突然喜欢钓鱼,那我可以对ai说,给我推荐点钓鱼内容。但是更多情况下, 我自己都不知道自己想看什么,无法表述自己的需求。而抖音的机制根据算法推荐给「我最可能感兴趣的」,相当于他帮我做了一层筛选。对于ai来说,这层筛选没有了,可能也是一个问题
抖音相当于通过行为来理解你的喜好,观看、搜索、停留、收藏、点赞、转发,还有添加的好友的喜好数据。
chat是通过你发送给他的文字来判断此刻的你需要什么样的信息。这需要你自己懂得提问的艺术。
知道自己真正想要的是什么,这不就是一个成年人必备的素养?
现实中很多人确实不知道自己想要什么,所以我的感觉是个性化内容生成,在初始阶段也是靠猜的,只是这里面用户会有更多的主动空间,生成系统也能比推荐系统更快地对需求进行响应。
推荐系统无法为用户推荐它想要,但无人生产的内容。而个性化生成的优势是无需等待内容创作者“发现潜在用户需求”,可以凭空生产满足极小众用户的需求。
“需要解决的问题是精准生成每个用户此时此刻需要的内容。
个性化推荐不存在了,因为所有内容从最初的生产就是为你量身定制的。”
创业者应该考虑的就是这个问题我觉得,现在好多公司招人也是做的这些工作。
顺着这思路再大胆点,未来手机算力就能支持大模型,人手一个本地AIGC,彻底去中心化了。
只需要定期的从互联网上同步一下知识。
有几个问题:
目前来看,AIGC只是解决了生产问题,但对内容质量并没有任何想法,它并不知道什么是好的东西。基本你给一个二舅视频的文案,它依然还是会按照你想法,把它改成文言文之类的。这个问题直接影响到了文章中所提到的内容消费。而且内容消费完全不是你所的lsp的那个逻辑,大部分人看任何内容是没有明确目的,这个可以是各种内容平台的搜索流量占比就可以知道的。
现在在ai领域有内容消费的,其实是虚拟对象,replika这个产品,但这个产品好在限定了ai设定,在写日记和情感上这个相对模糊而领域可以发挥作用。
不过,这也并不代表个性化推荐没有,但还是抛不开可能性推荐的逻辑,让用户去选择。只是这个选择范围比较小,也相对准确。但核心逻辑在于,你把你的数据库给到了ai,而不仅仅你在某个平台的数据行为。