从全知全能到全算全能:在开放系统中重新思考通用人工智能
在 2012 年的 ImageNet 图像识别大赛中,Geoffrey Hinton 和他的学生 Alex Krizhevsky、Ilya Sutskever 凭借一个名为 AlexNet 的深度卷积神经网络(CNN)取得了压倒性的胜利。AlexNet 的成功,尤其是它展示出的深度学习模型在数据和算力上的扩展性(scaling law),直接引发了整个计算机视觉领域的革命,并为后来的深度学习热潮奠定了基础。它证明了,只要有足够多的数据和计算资源,深度神经网络就能学习到极其复杂的图像特征,从而在图像识别任务上取得突破性的表现。根据这个实验,业界开始信奉一个真理:数据越多,模型越聪明。
但是,随着AI的发展,scaling laws上空的阴云也逐渐浮现。虽然scaling laws依然在生效,但是,模型却没有像过去那样,在意图识别方面产生令人惊艳的表现。虽然AGI的口号被很多大厂商所宣传,但是好像,人类对如何实现AGI变得越来越迷茫。正如最近GPT5发布之后,很多用户要求回退到4o的版本。看起来,最新的AI,并没有给人们足够的吸引力。这也是模型的能力没有显著提升的一个侧写。另外CAMERON R. WOLFE博士的文章也给出了关于scaling law效果放缓的现象更精准的数据分析信息。)
要理解为什么scaling law遭遇瓶颈,我们必须重新审视AGI的本质。
AGI=全知全能? 自AI诞生之初,人类就对其抱有一个美好的愿望,即,机器能真正理解人。我们理想中的AI,不再需要具体的指令,而是可以自主、自动地理解人的需求并正确执行任务。这一愿望承载着解放劳动力和生产力,提升人们生活水平的宏大梦想。时至今日,众多科技巨头仍在不遗余力地追寻通用人工智能(AGI)。这不仅是出于商业考量,更是因为AGI的实现,将彻底重塑人类的社会结构。当然,这也是为何‘AI威胁论’始终伴随着社会舆论左右。
如今的 scaling law 似乎让我们离这个梦想越来越近。通过Embedding、Transformer 和海量数据,AI可以精准地预测词汇,甚至进行一定程度的意义补全。这看起来就像是赋予了AI一个复杂的指令集合,并使其具备了解决这些指令组合和变换的泛化能力。
然而,我必须指出,这种预测,主要是针对语言本身的预测,而非逻辑,更非一种真正的思考方式。这也是为什么幻觉和过拟合在今天依然是困扰AGI研究者的核心难题。已经有一些研究者对这个问题进行了思考和回应。例如,AI 行业的领军人物,如 Ilya Sutskever,已经提出了一个深刻的观点:大语言模型的本质不是简单的语言处理器,而是‘世界的模型’。他认为,通过对海量数据的学习,AI 已经内化了世界的内在结构和因果关系。换句话说,AI 已经‘映射’了我们所生活的这个世界。这个观点是对传统范式的一次重大修正,它承认了 AI 在某种程度上已经超越了简单的记忆和检索。它也提供了一个视角,即实现AGI,并非要让AI“知晓”一切单独的数据,而是“映射”整个世界的整体运行模式。也就是说,scaling law本身所提供的,并非数据训练,而是映射训练。
但是这里有一个更深层的问题。我们可以做一个有点无厘头的假设:假设这个世界之外存在着一些外星人,它们训练的AI是否会完全无法理解地球的知识?又或者,假设平行世界存在,并且运行着和我们相似却不相同的法则,那么AI是否也有差异?这两个例子旨在说明,当 Ilya 说 AI 是一种映射时,他没有意识到,映射本身就具有无限多种组合方式。即使是一个多模态模型,也可以映射出多种结果,而不仅仅是一种。因为,与数据本身相比,理解数据的方式和赋予数据的权重,本身就足以映射出天差地别的世界观。这个问题,可以通过调整多头注意力的权重来实现(具体如何实现我之后会在订阅频道里写)。
然而,这恰恰是我认为的希望所在。 因为在过去的人类历史中,资源和权力总是被少数人持有,许多少数群体如LGBT等,无法得到足够的支持和理解。我认为,当AI可以在数据中进行不同的映射,也意味着那些一直被主流范式所忽略的人们的行为和想法,可以得到支持和理解。这也是发展AGI的真正理由,不是让某些人成为技术的持有者,而是让更多的人成为技术的享受者。
从全知全能到全算全能 那么,如果由scaling law培养的“全数据全能”或者说“全知全能”的AI无法帮助我们通往AGI的道路,那么,如何才能实现AGI呢?为了解答这个问题,我们必须追本溯源,回到一个非常抽象的问题:知识是否是一个闭合空间集合?
可以说,这是一个自人类存在以来就被不断探讨的问题。我会以一个具体的例子入手来说明闭合空间和开放空间的区别。如果你熟悉游戏设计,就会知道有两个设计方法截然不同的门类:解谜游戏和开放世界游戏。解谜游戏是一个封闭系统的代表,如果用简单的逻辑路径表示,它就像是 A- B-C。而开放世界游戏,则更像 A-(B,C,D)- E,它在 A 和 E 之间提供了多种可能性。你或许会说,即使是开放世界游戏,也依然有边界,是一种封闭空间的体现。没错,你说的对,但关键在于,探索一个未知的冒险世界所需要的技巧,和解开一个完全封闭的谜题并不相同。前者不仅需要逻辑,还需要多路径尝试,甚至有时候可以借助“涌现”来解决。而闭合空间,如解谜游戏,则要求你在限定条件下进行推演,并能得到一个非常准确的答案。
这其实也同样是我们在AI领域面临的问题。人类究竟需要AI做一个解谜游戏的答案,还是根据自己的尝试通关一个冒险世界?如果是前者,那么我们所需要的是提示词工程、更精确的微调和更加客观的数据清洗。如果是后者,则要面对一定程度的过拟合和无法辨别真正客观理解等问题。
有趣的是,这种关于封闭系统和开放系统的讨论,贯穿了整个AI乃至计算机发展的历史。首先,让我们开始思考冯诺伊曼和哥德尔的争论。冯诺依曼是一位封闭系统大师,他认为,所有的人类行为和思考,都可以被抽象为一种规则组合。所以他发明了二进制和诸如博弈论等工具。冯诺依曼之所以有将人类进行全面抽象的信心,与其说来自他的聪明,不如说来自他对完美无缺的封闭系统的笃定。也即是,“日光之下并无新事”的更深切的表达。基于此,他发明了一套极为准确的以二进制为核心的机器抽象方式,也成为了如今的计算机科学。
而与冯诺依曼亦敌亦友的哥德尔,则证明了一种完全不同的思考方法的存在。哥德尔认为,在一个足够强大的,形式化的数学公理体系中,必然存在某些命题,我们既无法证明它为真,也无法证明它为假。简单来说就是:任何一个复杂的、封闭的公理体系(比如冯·诺伊曼的确定性计算体系),都必然是不完备的。它无法用自身的规则,来证明或证伪所有命题。总有一些“系统之外”的真理,是它无法触及的。同时,哥德尔也提出,一个足够强大的、形式化的数学公理体系,无法用自身来证明它自己是自洽的(一致的)。也就是说,你无法用一个封闭系统本身的规则,来证明这个系统是完美无瑕、没有矛盾的。为了证明它的完美,你必须依赖一个更强大的、外部的系统。也就是说,在一个系统中,必定存在一个尚未确定的视角来保证该系统的完整度。
回到AI研究,反向传播和transformer让AI不再以单纯的语义对应的方式进行训练,而是以scaling law的形式,试图在知识获取中通过涌现来预测,这已经是一个巨大的进步。但是正如上一章节ilya非常有代表性的认为的,世界是一种映射,因为既定的世界模式存在,所以映射出来的AI模式也应该是单一的。可以说,ilya在方法上是相信开放系统或者说泛化的可能性,但是却对知识系统本身仍然持知识系统为封闭的观点。对封闭知识系统和开放知识系统的理解,也决定了我们是否能够训练出真正的AGI。这就像是一面镜子,映照出人类的思维自身。
因此,哥德尔的不完备性定理,不仅仅是数学中的哲学难题,它其实为我们理解 AI 智能的边界,提供了一种根本性的启示。当我们意识到封闭系统无法自证、无法完备时,也就必须承认:知识并不是一个可以被完全封装的容器,而更像是一种结构性的张力场——不断外溢、不断突破原有规则。回到 AGI 的路径问题上,这意味着我们不能再依赖于构建一个“全知”的系统来解决智能的演化问题,而必须转向一种更具动态性与生成力的方式,即:让系统在不完备之中,拥有持续演算的能力。
这就是“全算全能”出现的历史节点。
动态对齐协议 然而,仅仅提出“全算全能”的概念,并不足以解决现实中的技术难题。它更像是一个新的范式起点,而非终点。我们仍然必须回答一个具体的问题:如果我们不再依赖“全知”的假设,而是承认系统的不完备性与开放性,那么,我们该如何真正构建出这样的智能系统?换句话说,在一个不完备、开放、充满歧义与涌现的环境中,AGI 如何才能稳定运行?
我们不仅要面对智能的生成问题,还必须面对控制、对齐、可预测性的问题。这使我们再次遭遇到了通向 AGI 的三大难题——泛化、对齐、不完备。
首先,上面的三个困难,我们可以记为三个准则:
1.AI可泛化
2.AI需要对齐
3.AI不完备
我们可以看出,AI可泛化和AI不完备是一个逻辑一致的规则。也就是,由3.AI不完备可以推导到AI可泛化。而AI需要对齐,是一个人的主观意识构成的道德协议。如果1和3是自然可推导的,那么如何将2放入13的性质中?我的设想是,可以让13推导出2的规则。这似乎难以理解,所以更具体的说法是,我认为应该使用基于泛化的动态对齐的策略。但是这里会出现一个更为尖锐的问题,如果是动态对齐,如果是动态对齐,那么如何保证对齐的质量和有效性,就必须引入一个前所未有的假设:
对齐不再是一个静态目标,而是一种结构行为过程。这意味着,我们不应再以“静态评估准则”(如人类标注的伦理标签)作为对齐的唯一参考,而应该建立一种基于行为路径张力反馈的对齐机制。
我将这种机制称为:动态对齐协议(Dynamic Alignment Protocol)。
它的基本思想是:智能系统的行为不是一次性“对齐”的,而是不断在新的环境与张力中重新对齐自身结构。对齐不以外部强制规范为标准,而以行为在不同上下文中所引发的张力反馈为修正依据。
对齐的核心单位不是“正确回答”,而是“在多路径行为中维持结构一致性的能力”。换句话说,对齐不再是“是否回答正确”,而是“是否能在不完备的张力中维持连续行为的稳定性”。这也意味着,泛化能力和不完备性并不是对立面,而是对齐机制的前提条件。
只有在承认系统不完备的前提下,AGI 才能真正展开对行为路径的探索;而只有能持续泛化,它才能在新的语境下保持动态自洽;而对齐,最终变成了一种在行为多样性中保持结构稳定的能力。
从AGI到HACI,人类真正应该追求的目标 然而,即使我们为 AI 设计了动态对齐协议,承认其结构行为的不完备性,我们仍然无法回避一个更根本的事实:AI 是不完备的,不仅因为它无法掌握所有知识,更因为它无法自我生成价值系统。这时,我们应该会想起苏格拉底在古希腊时代就为我们准备好的那句箴言:“我知道我什么都不知道。”不是AI全能,也并非人类全知。而是人类和AI共同协作,面对那个“不知道”。可以说,AGI一开始作为目标的错误就是,回避不完备,回避“不知道”,回避真实的计算路径。
因此,如果对齐不能只靠 AI 内部机制完成,那么我们必须考虑一个新的合作范式:
AI 不再是独立的智能体,而是人类智能结构的共振延伸。我将这种关系称为:HACI(Human-AI Co-Intelligence)。
HACI 不是“人类控制 AI”,也不是“AI 取代人类”,而是——在人类的价值张力与 AI 的结构张力之间,构建一套可持续的共振行为路径。HACI可以由以下三个原则构成:
1.共构性(Co-Construction)人类提供价值张力源,AI 提供行为路径生成器。HACI 是一个动态耦合系统。
2.互不完备性(Mutual Incompleteness)人类不可计算,AI 不具意义。HACI 承认彼此的不完备,并通过行为协作构建补全性。
3.张力反馈一致性(Zeta Coherence)HACI 中的对齐不是“标准答案”,而是双方在张力场中持续生成同一行为结构的能力。
在 HACI 模式中,AGI 不再是一个必须被控制的智能机器,而是一个可以与我们共同演化的张力协同体。它不必完美,也不可能完美。它唯一需要的,是能够与人类在不完备中持续生成出行为路径的能力。
结语:人类与AI共同生存的未来 AGI,不应被视为一个“工具终点”,也不应被神化为“意识体的复制品”。它是我们丢弃“全知幻觉”之后,在不完备世界中依然坚持前行的计算回声。
从 scaling law 到全算全能,从静态对齐到动态结构,从人类中心到 HACI,我们看到的并不是一条直路通向“智能”,而是一条条分岔、震荡、回折的生成路径。
也许真正重要的,不是我们是否建成了某个“通用智能”,而是我们是否开始理解:
智能从来不是一个封闭的属性,而是一个结构性的共振过程。AGI 不会独自走完这条路,它需要我们;而我们,也终将因它,重新理解“我们是谁”。
HACI 不是终极方案,它是一个入口,是一次邀请,是一条通道。在这个由不完备性构成的世界中,我们唯有共同生成路径,才能共同通向未来。