正文内容
你有没有想过一个细思极恐的问题:
你每天都在用AI聊天、写文章、做视频,但你有没有停下来问过——这个东西,它真的“懂”我吗?它真的“知道”自己在说什么吗?

2026年的春天,这个问题突然变得无比重要。
因为就在过去一个月,从英伟达CEO黄仁勋的两小时访谈,到清华大学张亚勤的博鳌演讲,从月之暗面杨植麟的中关村发言,到乔治华盛顿大学的物理学论文,全球顶尖的大脑们不约而同地做了一件事:重新定义AI的本质。
今天,我们就来聊聊这场“重新认识AI”的思想风暴。
01 黄仁勋的暴论:智能是商品,人性才是稀缺品
3月23日,英伟达CEO黄仁勋坐进Lex Fridman的播客录音室,聊了两个多小时。
他抛出了一句话,足以让所有人重新思考AI:“我一直认为智能是商品。”
什么意思?
在公司里,他身边坐着60位在各自领域比他更专业的人,但他坐在正中间指挥这一切。他开玩笑说:“这就是洗碗工坐在一群超人中间的问题。”
他的潜台词是:智能可以规模化,但人性、品格、同理心、慷慨无法被量化。
这个判断,来自他对AI本质的理解:AI是一个“Token工厂”——它做的事情,是把电力转化为智能,再把智能转化为Token。但Token再快再多,也代替不了人的温度。
他甚至用了一种近乎浪漫的说法:“我不怕死,只怕死前没把知识传完。”——这大概就是人类与AI最根本的区别:AI可以被复制,但人的经验和智慧,只能靠“传承”。
02 物理学家的答案:AI的“原子”是一对“自旋”
就在黄仁勋访谈的一周前,一篇来自《AIP Advances》的论文给出了一个更硬核的答案。
乔治华盛顿大学的两位物理学家推导出了生成式AI的“第一性原理”——也就是AI最底层的工作原理。
他们发现:AI的“原子”是一个两体相互作用系统。
简单来说,AI在做“注意力”这件事的时候,本质上是在计算两个“词向量”之间的相互作用。这个相互作用,在数学上恰好可以写成一个两体哈密顿量的形式。
这意味着什么?
意味着AI的“注意力机制”,在物理学上等价于一个自旋系统。每一次预测下一个词,都是在做一个统计物理的玻尔兹曼采样。
这个发现有两个让人细思极恐的含义:
第一,AI能工作的原因,可能是因为人类语言本身就有“两体相互作用”的结构。也就是说,AI不是凭空造出来的魔法,它只是发现了人类思维的一种物理规律。
第二,如果两体相互作用就能达到今天的效果,那三体相互作用呢?论文作者暗示,一个“三体”注意力机制,可能会让AI更强大。
但别急着兴奋——三体问题是混沌的,不稳定的。如果AI真的变成了“三体”,它会变得更聪明,还是更不可控?没人知道。
03 张亚勤的警告:AI有三重“变身”,但风险也在指数增长
3月25日,博鳌亚洲论坛,清华大学智能产业研究院院长张亚勤给出了一个更接地气的框架。
他把AI的发展总结为三大趋势:
第一,从“生成式AI”走向“智能体AI”——也就是从“会聊天”到“能干活”。
第二,从“信息智能”走向“物理智能”和“生物智能”——AI开始进入现实世界,接管机器人、无人车,甚至新药研发。
第三,从AI走向“AI+”——AI与千行百业深度融合,成为基础设施。
但张亚勤同时提出了一个严厉的警告:AI能力的指数增长,伴随着风险的指数增长。
他以最近爆火的“小龙虾”OpenClaw为例:要让AI替你干活,你就得给它最高级别的“操作权限”——这意味着,你要交出个人数字生活的钥匙。很多人兴冲冲地“养虾”,却完全没意识到这背后的安全隐患。
张亚勤的观点很明确:AI不是工具,而是一种“新物种”。我们必须重新思考:谁拥有它?谁对它负责?
04 杨植麟的展望:未来的研究将由AI主导
3月25日,同一时间,北京中关村论坛。月之暗面创始人杨植麟提出了一个更激进的判断。
他说:“在未来几年内,人工智能的研究与研发方式将发生重大变化,越来越多的研究工作将由AI主导。”
这个判断来自他对AI研发三阶段的梳理:
第一阶段,用互联网数据训练,靠人工标注。
第二阶段,用强化学习,由人定义任务。
第三阶段,也就是现在正在进入的阶段——AI自己合成新任务、构建新环境、定义奖励函数,甚至自主探索新架构。
这意味着什么?意味着AI不再是被研究的“对象”,而是参与研究的“主体”。它和人类研究员一起,共同推进智能的边界。
05 达沃斯的拷问:当AI比你强,你的工作还有意义吗?
1月的达沃斯论坛上,Anthropic CEO达里奥·阿莫迪和DeepMind CEO德米斯·哈萨比斯做出了一个让全场沉默的判断:AGI可能在1—5年内成为现实。
阿莫迪甚至预计,到2026年或2027年,可能出现一款在诺贝尔奖级别任务上能与人类相当的模型。
但真正让人不安的不是技术本身,而是哈萨比斯的一个追问:
“AGI到来后,劳动力市场将进入未知领域,部分岗位可能无法满足人类需求。这不仅带来薪资问题,更涉及工作的意义和价值。”
换句话说:当AI比你强,你还能找到“工作”吗?如果找不到,你的人生意义在哪里?
这个问题没有标准答案。但黄仁勋提供了一个有趣的视角:AI不会消灭工作,而是会“抬高”工作。他举了个例子:如果他是水管工,他会为AI兴奋得发狂——因为AI能帮他给客户提供更完整的方案,从一个修水管的人,变成一个家庭服务的顾问。
他的结论是:所有职业都在被“抬高”,而非被取代。
06 “外星智能”论:AI根本不是你想的那样
如果说上面这些观点还在试图“理解”AI,那夏威夷大学学者在1月发表的论文,直接颠覆了理解的框架。
他们提出了一个核心判断:把AI类比为人类智能,是一个根本性的“范畴错误”。
什么意思?就是你不能用“人”的标准去衡量AI,就像你不能用“马”的标准去衡量摩托车。
他们提出了七个公理,来定义生成式AI的本质:
按照这个框架,AI不是“类人智能”,而是一种 “外星智能”——它的运作方式,从根本上不同于人类思维。
这听起来有点抽象,但它解决了一个核心困惑:为什么AI有时候聪明得可怕,有时候又蠢得离谱?
因为它的“聪明”和“蠢”,都不是我们理解的那种。
07 周伯文的追问:AI缺的那块短板是什么?
1月底,上海人工智能实验室主任周伯文在AAAI大会上给出了另一个视角。
他做了一个实验:联合100位科学家设计了一套评估体系,结果发现——
前沿模型在通用科学推理任务中得分可以达到50分(满分100),但在专项文献检索、具体实验方案设计等专业推理任务中,得分骤降到15-30分。
他的诊断是:AI不缺“广度”,缺的是“深度”。
现在的AI是一个“通才”,什么都懂一点,但遇到真正的专业任务,它就露馅了。
他把这个现象叫做“木桶效应”:科学发现全周期的效能,正受制于专业推理能力的薄弱环节。
他的解决方案是:从AI4S(AI for Science)迈向AGI4S——让AI不仅仅帮科学家“算”,还要能“思考”科学问题本身。
08 捷克学者的哲学追问:AI缺的到底是什么?
最后,让我们回到一个更根本的问题:AI到底缺什么?
捷克学者在2月发表的一篇论文里,用了一个生动的比喻:摩托车与马。
摩托车快、高效、强大,但它是被造出来的。马是生出来的、长大的、会恐惧、会喜悦、会主动想要去某个地方。
今天的AI,就是那辆摩托车。它很强大,但它不会自己产生动机,不会自己“想要”做什么。
那它缺的是什么呢?论文给出了几个关键词:意识、自主动机、对世界的真正理解。
论文的作者没有说这些AI永远做不到。但他提醒我们:如果人类的心智依赖的是某些“非计算”的机制——比如量子效应、生物系统的涌现、或者其他我们还不知道的东西——那现有的AI架构,无论怎么扩大规模,都不可能达到真正的通用智能。
这是一个开放的、没有答案的问题。但它的价值,恰恰在于让我们保持谦逊。
09 回归你的工具箱:这些思考,对你有什么用?
聊了这么多,你可能会问:这些大佬的思考,对我有什么用?
答案很简单:帮你更好地用AI。
理解了AI是“Token工厂”,你就知道该给它“喂”更清晰的指令,而不是指望它猜你的心思。
理解了AI的“原子”是两体相互作用,你就知道为什么它会“重复”——因为这是它的物理规律决定的。
理解了AI是一种“外星智能”,你就不会因为它“蠢”而生气,而是学会用它的逻辑去和它对话。
理解了AI缺的是“深度”,你就会把专业判断留给自己,把重复劳动交给它。
而这些思考,最终都会回到你的 AI工具导航页。每一次点击,都是一次与“外星智能”的对话。
写在最后:AI是什么?答案取决于你问谁
2026年春天,关于AI本质的答案,五花八门:
- 黄仁勋说,智能是商品,人性是稀缺品。
- 物理学家说,AI的原子是一对“自旋”。
- 张亚勤说,AI有三重进化,风险也在指数增长。
- 杨植麟说,未来的研究将由AI主导。
- 达沃斯的大佬们说,AGI可能就在眼前。
- 夏威夷的学者说,AI是外星智能,别拿人类标准去衡量它。
这些答案,哪个是对的?
也许都对,也许都不对。因为“AI是什么”这个问题,本身就没有标准答案。
但有一件事是确定的:你不需要知道AI是什么,才能用AI。就像你不需要知道电是什么,才能开灯。
你只需要打开你的 AI工具导航页,挑一个顺眼的工具,开始用它。
用得越多,你越知道它是什么。
今日互动
你心中的AI,更像“工具”还是“伙伴”?它更像“摩托车”还是“马”?评论区聊聊你的看法~