哈萨比斯最新访谈:通往AGI需突破单纯的上下文窗口扩容,建立持续学习与记忆机制

日期:2026-05-03 22:51:33 / 人气:2


4月29日,谷歌AI掌门人、DeepMind CEO Demis Hassabis(哈萨比斯)接受了YC访谈,披露了他关于AGI(通用人工智能)、大模型演进路径、AI驱动科学发现与科技创业的最新思考。作为AGI领域的先驱者,哈萨比斯的职业路径在科技界极为罕见:他早年是国际象棋神童,17岁主导设计畅销电子游戏《主题公园》,此后重返学术界获得认知神经科学博士学位,其关于大脑记忆与想象力运作机制的研究成为该领域基础性成果;2010年联合创立DeepMind,带领团队实现AlphaGo战胜人类围棋世界冠军、AlphaFold攻克蛋白质结构预测难题等重大突破,凭借后者获得去年诺贝尔化学奖,如今正带领Google DeepMind团队开发Gemini模型,持续推进AGI目标。
此前,哈萨比斯曾提出一个硬核AGI判定标准:「一个训练数据截止到1911年的模型,能不能自己推导出爱因斯坦1915年提出的广义相对论?」而GPT之父Alec Radford等人近期推出的Talkie模型(130亿参数,训练数据截止1931年),正是对这一问题的初步探索。此次访谈中,哈萨比斯进一步深化了对AGI的认知,梳理出其核心观点与未来方向,以下是访谈重点内容解读。
01 核心论断:通往AGI,需突破上下文窗口扩容的「暴力模式」
当前AI行业的普遍做法是不断扩大模型上下文窗口,试图通过提升“工作记忆”容量来优化模型表现,但哈萨比斯认为,这是一种计算成本极高的暴力做法。即便拥有千万级Token的上下文,检索特定信息的成本也高得不切实际——将所有有用、无用甚至错误的信息全塞进工作记忆,不仅效率低下,还无法适配长期场景需求。
他强调,真正的AGI系统需要具备持续学习能力,能够优雅地将新知识融入现有知识库中,并在合适的场景精准调用,而不是每次都从头读取冗长的历史记录。这一观点与他博士期间的研究高度相关:他曾深入研究海马体如何运作并进行记忆整合,而大脑正是在睡眠期间(尤其是快速眼动睡眠阶段),通过回放重要片段完成知识巩固,DeepMind早期的Atari游戏AI程序DQN,就借鉴了这一思路,通过经验回放训练模型精通游戏。
哈萨比斯坦言,目前行业对模型记忆系统的探索仍有巨大创新空间,现有技术更像是“用胶带勉强拼凑”,尚未形成成熟的持续学习机制,而这正是实现AGI的关键缺失环节之一。
02 技术路径:强化学习将重塑大模型的内省与推理能力
在访谈中,哈萨比斯明确表示,强化学习在迈向更高维智能的道路上被严重低估。他指出,当前前沿大模型展现的思维链推理,本质上是AlphaGo和AlphaZero理念在大规模基础模型上的复现——DeepMind自成立以来,就通过Atari游戏、AlphaGo、AlphaStar等项目深耕智能体系统,核心就是强化学习与搜索技术的结合。
他认为,目前的大模型在推理时往往缺乏内省能力:即便意识到自己选错答案,也会盲目重试,陷入思维循环。对此,DeepMind正重新引入蒙特卡洛树搜索等经典算法,将强化学习与大模型深度融合,以此打破当前模型推理能力的天花板。
哈萨比斯以国际象棋对弈为例,观察到领先基础模型在游戏中的表现较差,即便能解答极难的国际数学奥林匹克竞赛题目,也可能在基础初等数学推理上出错,这正是因为模型缺乏对自身思维过程的反思能力——而强化学习,正是解决这一问题的关键。
03 部署趋势:端侧小模型与开源战略成必然选择
谈及模型部署,哈萨比斯表示,通过模型蒸馏技术,极小参数量的模型已能达到前沿大模型90%至95%的性能水平,且具备极高的速度和成本优势。未来计算的主流形态,将是“云端大模型统筹+端侧小模型落地”:云端大模型负责复杂决策与统筹,运行在手机、智能眼镜或家庭机器人上的端侧模型,处理本地隐私数据,兼顾效率、隐私与安全。
对于开源战略,他解释道,端侧模型一旦部署到物理设备上,其技术极易被提取,因此直接将其完全开放是战略上的必然选择。DeepMind近期发布的Gemma开源模型,在短短两周半内下载量就达到四千万次,正是这一战略的实践——通过开源边缘模型,吸引更多开发者参与,同时巩固自身在端侧领域的优势。
他还提到,目前尚未看到模型蒸馏的理论极限,随着技术迭代,未来小型模型有望逐步接近前沿大模型的能力,而速度和成本优势,将让小模型在日常工作负载中发挥更大价值。
04 科学探索:AI需跨越模式匹配,实现「爱因斯坦测试」
哈萨比斯始终认为,AI的终极价值之一是作为科学研究的工具,而科学发现不能仅停留在对已有数据的插值计算——AI不仅需要完美解决现有问题,更需具备发明新规则、提出全新假设的能力。这一观点,与他此前提出的AGI判定标准一脉相承。
他提出了衡量AI科学发现能力的“爱因斯坦测试”:仅输入1901年之前的物理知识,让AI跨越模式匹配,独立推导出狭义相对论。目前,DeepMind正在推进从“细胞核”切入,目标在未来十年内构建完整的“虚拟细胞”——通过模拟细胞扰动与输出,跳过大量实验搜索步骤,为生物学、药物研发提供支撑。
他坦言,目前AI尚未实现真正意义上的重大科学发现,但已非常接近:前沿实验室正在开发Co-Scientist、AlphaEvolve等系统,试图突破现有模式匹配的局限,实现类比推理与全新假设提出。他认为,只要解决这一核心问题,AI将能在黎曼猜想等深奥科学难题上发挥关键作用。
05 创业启示:构建专业化垂直系统,协同AGI发展
针对科技创业者,哈萨比斯给出了明确建议:科技企业的成长周期通常需要十年,而AGI大概率会在2030年左右实现,恰好处于当前创业周期的中途。面对这一确定性变量,创业者不应试图将垂直领域的复杂参数强行塞进通用大模型中——这会破坏通用模型的效率和其他能力。
他认为,合理的路径是构建高度专业化的独立工具系统或基础设施,未来顺应通用AGI作为“大脑”,自主调用这些垂直系统的协作关系。比如AlphaFold作为专业的蛋白质结构预测工具,未来将被Gemini等通用模型调用,而非被整合进通用模型本身。
同时,他强调,真正推动前沿发展的初创公司,与“仅在基础模型上封装API”的公司的核心区别,在于是否将AI与深科技领域(如材料学、医学)深度结合——这类跨学科结合的项目,难以被基础模型的更新所颠覆,能创造更持久的价值。
06 延伸思考:Talkie模型与AGI探索的契合点
哈萨比斯提出的“爱因斯坦测试”,与近期Alec Radford等人开发的Talkie模型,形成了奇妙的呼应。Talkie作为训练数据截止1931年的13B模型,被切断了所有现代知识污染,恰好为“AI能否凭借过往知识推演未来”提供了理想的实验载体——正如哈萨比斯所追问的,一个只掌握过去知识的模型,能否自主推导出后续的科学理论与发明?
目前,Talkie的实验仍在推进,其在编程测试中展现出的抽象概念理解能力(如掌握“逆函数”逻辑),或许正是AGI所需的基础能力之一。而哈萨比斯强调的持续学习、记忆机制,也为Talkie等复古模型的优化提供了方向——未来,若能为这类模型加入持续学习能力,或许能更接近“爱因斯坦测试”的目标。
07 总结:AGI的未来,在突破与协同中前行
哈萨比斯在访谈中明确,当前大模型的技术组件(大规模预训练、RLHF、思维链等),都将成为AGI最终架构的一部分,但还需攻克持续学习、长期记忆、内省推理等1-2个关键难题。他认为,AGI的实现并非遥不可及,预计在2030年左右落地,而其发展路径,将是通用模型与专业工具协同、云端与端侧互补、强化学习与基础模型深度融合的过程。
从AlphaGo到AlphaFold,从Gemini到Talkie,AGI的探索之路从未停止。哈萨比斯的思考,不仅为行业指明了技术方向,也让我们意识到:AGI的终极目标,不仅是构建一个“聪明”的系统,更是打造一个能持续学习、自主思考、助力人类突破认知边界的终极工具。

作者:星辉注册登录平台




现在致电 8888910 OR 查看更多联系方式 →

COPYRIGHT 星辉娱乐 版权所有