朱松纯:“中国的AI叙事” 存在认知偏差

作者 |李海伦

来源   |   腾讯科技  管理智慧 AI+

咨询合作 | 13699120588

转自赛先生,版权属于原作者,用于学术分享,文章仅代表作者本人观点

导读:

3 月 29 日,在 2025 中关村论坛通用人工智能论坛上,北京通用人工智能学院院长,北京大学人工智能研究院、智能学院院长朱松纯表示,目前,行业对 AI 的讨论几乎被大模型能力所占据,而基础学科、原始创新与智能本质的研究却被边缘化,甚至遭到部分舆论的否定。更有甚者,形成了某种 " 技术投机 " 的氛围,仿佛只有少数企业能代表中国 AI 的水平,而长期支撑 AI 发展的基础学术群体、理论工作者、认知科学研究者则被忽视。这种认知偏差,正在让我们离真正的 AI 创新越来越远。

过去一年,中国人工智能领域在轮番迭代的热潮中快速演化。大模型公司如 DeepSeek、Manus 等频频成为市场与媒体的关注焦点。随着资本、技术、政策相继涌入,几乎形成了 " 押宝大模型即押宝未来 " 的共识。

然而,北京通用人工智能学院院长,北京大学人工智能研究院、智能学院院长朱松纯对此表示担忧:伴随这一轮技术热潮而来的,是我们需要谨慎关注社会和政策对 AI 的认知。

图:北京通用人工智能学院院长,北京大学人工智能研究院、智能学院院长朱松纯

以下为朱松纯的分享精华整理(在不改变原意的情况下,有所删减。):

我特别重视与行业、媒体的交流和沟通,原因在于我深知行业的 " 叙事逻辑 ",对于社会认知的重要性。

人工智能从最初的学术问题,已经全面转向一个社会性、政策性的问题。我们面对的大多数决策者、机构、媒体,普遍并非人工智能专业出身,但又被迫在短时间内学习、理解、决策甚至向公众宣传 AI,这给准确传播带来了极大困难。

所以,我们必须清楚地建立正确的叙事逻辑,尤其对媒体来说,责任重大。为了避免一些错误的舆论影响了决策,甚至让自媒体牵着走,导致大众和决策者对人工智能的认知混乱。

这里我要讲一下人工智能的全球叙事与误区:

AI 存在炒作、泡沫和盲目跟风

从 2019 年甚至更早,美国通过 AI 重新确立了技术霸权。全球资本过去 7~8 年都流向美国,围绕的核心叙事是:大数据 + 大算力 + 大模型,最终通向通用人工智能(AGI)。

随后,"AGI 带来人类生存危机 " 的话题被广泛炒作,形成全球范围的焦虑。事实上,这就是一种媒体主导的叙事。过去十年,媒体和投资圈反复宣扬 " 大数据、大算力、大模型 " 三位一体的路线,仿佛这就是 AI 的唯一未来。

2015~2016 年,AlphaGo 引发了第一次人工智能的热潮,但冷静下来 8 年后回头看,当时吹得神乎其神的 AlphaGo 及其相关产业,除了一些计算机视觉公司(所谓 " 四小龙 ")被抬高了估值,最后实际并没有形成产业化、社会化的广泛影响。很多 AI 初创企业最后都走向了衰退。

目前,行业流行的 "AIforScience(科学研究新范式)" 说法,其实也存在认知偏差。AI 的主要研究方向仍集中在视觉、语言、机器人等智能感知和行动能力上,严格来说,这些并不直接等同于 "Science(科学研究)"。真正推动科学研究的是 DeepLearningforScience,也就是利用深度学习等工具辅助科学建模和数据分析,而不是 AI 本身作为科学的内在组成部分。

我曾经写过一篇文章,提到了 " 乌鸦与鹦鹉的范式 "(指当前 AI 多停留在 " 鹦鹉式 " 的大规模模仿,距离 " 乌鸦式 " 的认知与推理仍存在本质差距),批评过这种 " 泡沫化的融资神话 ",今天看,很多现象依然在重演。

AI 热潮下,很容易在 AI 平台、算力中心上形成过剩。很多平台根本租不出去,实际使用率只有 15%~20%。更荒诞的是,现在在一些区域,电价都已经负了,电都卖不出去,怎么会有能源危机呢?

但当时,为何还有那么多地方 " 跟风上马 "?根本原因是舆论叙事的问题,可能有的地方决策者会受到一些受舆论压力,加上媒体的 " 过度渲染 " 起到了推波助澜的作用。

国内人工智能的现状与困惑

这就是现在国内 AI 领域的现状:表面热闹,实质混乱。

中国这几年成立了大量 " 人工智能学院 ",但讽刺的是,很多 AI 学院的院长甚至都不是搞人工智能的。例如,某高校人工智能学院请了一位颇具名望的计算机理论专家担任兼职院长,却从未在人工智能领域有过正式论文发表。还有的学校干脆由数学、艺术学院的老师 " 兼职 "AI 学院院长。

类似前几年," 纳米 " 概念泛滥,什么纳米鞋垫、纳米高压锅,现在又出现了 " 伪 AI 热潮 "。再比如一些大模型公司自诩 " 六小龙 ",但很多根本无法盈利,估值虚高,风险巨大。

常有人说,我们 " 被卡脖子了 ",但我认为,真正 " 卡住 " 我们的,是我们自己的认知。

当下,政府机构、公众、甚至媒体,对人工智能的理解严重不足,跟着西方叙事亦步亦趋,最后只能得出 " 我们被卡了脖子 " 的结论。而实际问题是,我们的认知水平远不足以指导正确的创新与战略。

什么才是人工智能的创新?

我长期总结,AI 的创新有 5 个层次:

最下面底层的是,哲学层面:探讨 " 智能 " 的本质。事实上,智能的本质是 " 主观的 ",每个人的决策都基于自己对世界的认知与价值体系。这些认知未必客观,却决定了行为。

第二层,理论层面:建立认知的数学框架,如逻辑学、统计建模、概率计算。

第三层,模型层面:根据框架构建具体模型,如判别模型、生成模型、大模型等。

第四层,算法层面:在具体模型下,开发优化算法,提高计算、推理、训练的效率。

第五层,工程与部署:把模型落地到硬件、平台,优化存储、计算,形成可用的产品和系统。

目前很多所谓的创新,仅仅停留在第 4 层(算法)或第 5 层(部署)层面,连理论框架都不具备,却在吹嘘 " 颠覆 "。而我们现在真正缺的是对智能本质、认知建模的原创性突破。

当前社会存在严重误区,仿佛只有 DeepSeek 等这样的企业做出了成果,甚至有人极端认为,学术界、研究机构的工作都是 " 吃白饭 ",这种情绪化、非理性的舆论正在误导大众。

我们必须澄清,DeepSeek 在工程落地、API 产品化、算力优化等方面确实取得了成绩,但主要集中在工程部署层面,并未解决人工智能的核心难题——比如认知建模、智能理论、学习机制等。

支撑今天所有 AI 应用的底座,正是学术界数十年在哲学、理论、建模、算法等基础层面的持续投入。若因短期的产品化成效,就否定基础研究,甚至鼓吹 " 学术无用论 ",不仅荒谬,也极其危险。

以美国的创新为例,很多集中在最底层的硬件(芯片、架构)、大模型,以及算法优化。我们如果想在中美竞争中取得突破,关键要在于第四层和更高的哲学与理论创新。

如果只是重复美国的老路——算力、算法、部署,我们永远都是追随者。

未来 AI 的前沿在文科

未来最难解决的问题,恰恰在于文科所关心的社会复杂系统,比如人口、政策、文明演化、价值体系。这些问题目前无法建模,无法实验,学界长期靠 " 口头解释 " 和 " 事后分析 " 在 " 事后诸葛亮 ",预测能力接近于零。

但今天,大规模仿真(模拟)实验和智能体(Agent)建模的能力让我们有可能让文科第一次变成一门可实验的科学。AI 的真正前沿,是通过模拟与建模,让文明、社会、经济与政策等可以进入可验证的科学范畴,而非止步于图像、语音和对话的优化。

我们真正的工作重点

我们现在已经基本完成了在智能哲学、理论框架、模型的初步构建,正在向算法优化和工程部署推进。

下一步的重点是:

快速规模化。

完成模型的工程化和商业化。

与行业、应用深度适配。

建立通用智能体(AGIAgent)工厂。

我们和大模型的关系并不是 " 对抗 ",而是共生。大模型像人类的潜意识,为我们提供了感知和记忆的底座;而我们要做的,是在其上构建通用智能体的认知与决策体系。

总结和呼吁

人工智能不是 " 神话 ",更不是 " 安全危机 "" 生存危机 " 的代名词。它是真正关系到人类文明未来演化的工具。

而认知的欠缺、叙事的误导,才是真正的 " 卡脖子 "。

我呼吁媒体、政府机构、研究者们,尤其要关注 AI 的顶层逻辑与原始创新,不要盲目跟随已有叙事,而要思考:中国,到底要怎样的人工智能?