DeepMind 创始人大卫·希尔弗 11 亿美元押注自主学习 AI
前 DeepMind 研究员大卫·希尔弗创办的英国 AI 实验室 Ineffable Intelligence 近日完成 11 亿美元融资,估值高达 51 亿美元。该公司致力于研发无需人类标注数据即可自主学习的人工智能系统,旨在打破当前大模型对海量人类监督数据的依赖。这一举措标志着 AI 行业正从依赖人类反馈的强化学习范式,向更接近生物智能的自主进化路径转型。此举被视为 AI 发展路线的一次重大分歧,引发了业界对通用人工智能未来形态的深刻反思与重新布局。
人工智能领域近期发生了一起震动行业的标志性事件。前 DeepMind 首席研究员、AlphaGo 之父大卫·希尔弗(David Silver)离开 Google DeepMind 后,其创办的英国 AI 初创公司 Ineffable Intelligence 宣布完成了一轮高达 11 亿美元的巨额融资,公司估值随之飙升至 51 亿美元。这一融资规模不仅在当前的 AI 初创圈中名列前茅,更因其鲜明的技术主张而备受瞩目。Ineffable Intelligence 的核心愿景是构建一种完全不需要人类标注数据或示范数据即可自主学习的人工智能系统。这与当前主流的大语言模型和强化学习框架形成了鲜明对比。在传统的 AI 开发流程中,无论是预训练阶段的海量文本清洗,还是微调阶段的 RLHF(基于人类反馈的强化学习),人类数据的介入几乎是不可或缺的环节。然而,希尔弗及其团队认为,这种对人类数据的过度依赖不仅成本高昂、扩展性受限,更在本质上阻碍了 AI 向真正通用智能的进化。此次融资的成功,意味着资本市场和顶级技术专家正在押注一条截然不同的技术路线,即让 AI 像生物体一样,通过与环境的直接互动和自我探索来构建对世界的认知,而非仅仅作为人类知识的被动记录者。这一事件发生的时间点也颇具深意,正值全球 AI 巨头们在算力竞赛陷入瓶颈、数据资源日益枯竭的背景下,行业急需寻找新的增长引擎和技术突破口。Ineffable Intelligence 的崛起,恰逢其时地提供了一个关于 AI 未来形态的全新叙事。从技术原理的角度深入剖析,这一路线的转变触及了人工智能最核心的学习机制问题。当前占据主导地位的大模型范式,本质上是一种统计学的奇迹,它通过预测下一个 token 的概率分布来模拟语言和理解世界。虽然这种范式在自然语言处理、代码生成等领域取得了惊人的效果,但其局限性也日益显现。模型缺乏真正的因果推理能力,容易产生幻觉,且其知识边界严格受限于训练数据的截止时间和质量。更重要的是,这种“被动学习”模式无法支持 AI 在开放、动态的环境中进行持续的自我改进。相比之下,Ineffable Intelligence 所追求的自主学习路径,更接近于认知科学中的“具身智能”或“世界模型”概念。其技术核心可能涉及无监督强化学习、自我博弈以及基于模型的规划算法。在这种架构下,AI 不再依赖人类提供的“正确答案”,而是通过在一个模拟或真实的环境中不断尝试、犯错、调整策略,从而建立起对物理规律和社会交互的内在理解。例如,一个自主学习的机器人不需要人类预先教导它如何抓取物体,而是通过数百万次的虚拟尝试,自行发现重力、摩擦力和物体刚体的特性。这种学习方式虽然计算成本极高,且训练周期漫长,但其带来的泛化能力和鲁棒性是传统监督学习难以企及的。希尔弗在 DeepMind 期间积累的深厚技术底蕴,特别是在强化学习领域的开创性工作,为这一愿景提供了坚实的理论基础。他深知,要让 AI 摆脱对人类数据的依赖,必须在算法效率、探索策略和环境建模上取得突破性进展。因此,Ineffable Intelligence 的研发重点很可能集中在如何高效地构建高保真的模拟环境,以及如何设计能够自动评估进步并自我修正的学习算法。这种技术路线的可行性虽然尚待验证,但其潜在回报是巨大的。一旦成功,AI 将不再受限于人类知识的存量,而是能够像人类儿童一样,通过探索未知来不断扩展自己的能力边界,从而实现真正的通用人工智能。从行业影响和竞争格局来看,Ineffable Intelligence 的巨额融资不仅是对单一技术路线的押注,更是对现有 AI 产业生态的一次挑战。目前,全球 AI 竞争主要集中在算力基础设施、数据资源垄断和模型规模竞赛上。OpenAI、Google DeepMind、Anthropic 等巨头凭借庞大的资金和数据优势,构筑了极高的壁垒。然而,随着数据资源的边际效益递减,以及人类标注成本的指数级上升,现有的增长模式正面临严峻的可持续性危机。Ineffable Intelligence 的出现,为行业提供了一条潜在的“弯道超车”路径。如果自主学习技术能够取得实质性突破,那么拥有高质量人类数据的公司优势将被削弱,而拥有强大算法能力和模拟环境构建能力的公司将获得新的竞争优势。这将迫使现有的 AI 巨头重新评估其技术栈,加速向无监督学习和自主探索方向的转型。对于投资者而言,这一事件释放了明确的信号:资本正在从单纯的规模扩张转向对底层技术范式的创新投资。未来,那些能够解决“如何让机器在没有老师的情况下学会思考”这一问题的公司,可能会获得比现有巨头更高的估值溢价。此外,这一趋势也可能引发伦理和安全层面的新讨论。自主学习 AI 的行为具有更高的不可预测性,如何确保其在没有人类监督的情况下依然符合人类价值观,将是技术落地前必须解决的关键难题。展望未来,Ineffable Intelligence 的发展轨迹将成为观察 AI 技术演进的重要风向标。短期内,市场将密切关注其技术原型的进展,特别是其在复杂任务中的自主学习能力是否超越了传统强化学习算法。中期来看,如果该技术路线被证明可行,可能会引发新一轮的 AI 创业浪潮,吸引更多顶尖人才和资本涌入自主学习领域。长期而言,这可能标志着 AI 发展进入一个新的阶段,即从“模仿人类”转向“超越人类”,AI 将不再仅仅是人类知识的复制品,而是具备独立认知能力的智能体。值得注意的是,这一过程不会一蹴而就,面临着巨大的技术挑战和不确定性。但无论如何,大卫·希尔弗的这次豪赌,已经为 AI 的未来描绘了一幅充满想象力的蓝图。它提醒我们,人工智能的终极目标不是更好地预测下一个词,而是更好地理解和适应这个世界。在这一探索过程中,任何偏离主流范式的尝试都值得被认真对待,因为它们可能蕴含着通向真正通用智能的关键钥匙。对于整个科技行业而言,保持开放的心态,鼓励多元化的技术探索,将是确保 AI 技术持续进步的重要保障。Ineffable Intelligence 的故事才刚刚开始,但其引发的思考已经深远地影响了我们对智能本质的理解。