马毅:揭开模型黑盒走向自主智能,推动智能技术的进化之跃

关注
我们正处在从第一阶段到第二阶段的临界点上。

“知识是智能的积分,智能是知识的微分。”

“一个智能的系统必须要有自主改进增加自身知识的机制,即能自学习的机制。所以一个系统,即使有知识,但只要它不能做到自我改进,无论它规模多大都是没有任何智能的。”

“过去 10 年我们做的事情包括生成模型、识别,就是 1956 年达特茅斯会议说不做的事情,是动物层面的智能,跟真正的‘人工智能’其实是不一样的。”

“真正的人工智能是指要让机器拥有人独有的智能,比如抽象能力、符号能力、逻辑能力,但这些都是现在大模型机制里没有的。”

……

大模型的狂飙让许多人看到了人工智能从理论变为现实的希望,虽然现在我们还并不清楚模型生成内容的具体机制,但围绕其生成能力的应用想象和商业实践已经策马先驰。在这幅由企业家雄心勾勒,充满乐观与浪漫意味的未来图景里,“通用人工智能”是势必抵达的终点。

不过在科学和商业的交汇之地,仍然有不少人保持克制与谨慎。他们徐徐加入这股汹涌的浪潮,为人工智能的商业探索注入稀缺的冷静与深思。忆生科技创始人,全球著名计算机视觉、人工智能、统计与应用数学专家马毅便是其中之一。

8月22日,2024AGI商业趋势大会在深圳举办。活动由创业邦主办,南山区科技创新局、西丽湖国际科教城融合创新中心、深圳市“模力营”AI生态社区为支持单位,揽胜运动为大会指定用车,搜狐为战略合作媒体。会上,我们有幸邀请到马毅教授带来他关于智能科技范式变革的深度分享,现场金句频出令人备受启发。

以下为现场演讲内容,经创业邦整理后发布:

今天的人工智能还处在相对原始的阶段

春节前后,我们成立了一家公司叫忆生科技。今天是我第一次代表忆生科技来与大家分享。过去这几年,人工智能,主要是大模型方向非常热。但其实,成立公司是在我个人研究经历基础上发展出来的一个自然而然的结果,和眼下的这场热浪并没有直接联系。

曾国藩讲过一句话,“众争之地勿往,久利之事勿为”。但不巧的是,AI就是我一直在做的领域,躲不掉的,现在发展到这个阶段,种种原因让我必须踏足到这个“众争之地”。

我是清华自动化系毕业的,加入伯克利就是在智能系统实验室。李泽湘是我的同门师兄。我们都是学控制的,他的方向偏机械控制,我偏感知,做计算机视觉方向。从理论的角度来看,控制和感知正好是一个完整的闭环系统的两个方向,也就是智能的认知和决策。

图片

我写的第一本书就是计算机3D视觉相关的。视觉信号是海量高维的数据,里边有用的信息都在数据的一些低维结构上,是信息的载体。它的本质是针对这些高维数据里面的低维结构,包括子空间、稀疏表达、压缩感知,怎么开发出非常高效的算法,将信息提取出来。这就是我博士毕业以后,包括在微软研究院时侧重做的基础理论和算法的工作。

后来随着深度网络的发展,它逐渐成为了人工智能最基础的工具。再后来,我们发现深度网络也在做与压缩感知同样的事情,也是从高维数据里面提取这些有用的低维结构的一个手段而已。

接着就是过去大概六到七年,我主要的工作是想把深度网络背后的基本原理搞清楚。将其彻底由黑盒子变成白盒,开环变成闭环。

去年到港大以后,我开始重新梳理人工智能的科研体系和教学体系。这也正是现在港大成立计算与数据学院的原因所在。因为今天,人工智能已经不是一个单一的学科,实际上已经把控制理论、信息理论等等集成到一起。我们需要整合多学科的资源和理论,比如统计学、数据科学、计算机科学等等,同时还要引入更多学科的视角,才能进一步了解智能的机制,找到未来发展的方向。这个趋势在全球范围都比较明显:伯克利、斯坦福、MIT、港大……不少学校都在开始成立 AI 学院,或者是将统计系、计算机系,甚至更多的系整合起来。同时,我也正在准备一本新书,希望能帮助大家更好地看清楚智能的原理和本质。

以上是我在学术研究和学科建设方面的主要工作,基本都是围绕着智能机制展开的。

图片

为什么要成立忆生科技这家公司呢?

前面我提到,我们并不是看见了大模型的爆发才开始行动,但最终的目标其实与大模型并不矛盾,反而是和当前的模型生态有很多互补的地方。我们的底层逻辑是因为看到了智能发展的阶段性机会,它基于一个非常严格的理论基础——对智能的原理的理解,同时在工程层面也看到了已经被验证的能力和效果。

过去 10 年,虽然人工智能的工程技术蓬勃发展,但是在理论方面一直滞后,大家都并不清楚它的具体机制,将其视为神秘的黑盒子。但,就和物理学的发展历史一样,实验可以先走但理论一定要跟上。

我很喜欢我们计算机领域一位先驱Knuth(高德纳)的话“最好的理论来自于实践,最好的实践来自于理论”。而且过去 10 年这么多的实践成果,后面一定有了不起的理论。过去几年我一直很兴奋,因为看到了在理论层面突破的机会,这是一生难得一次的令人振奋的机会。

图片

智能到底是什么?

大家都在讲人工智能。如果打开最近一年多来的媒体报道,总是能发现“智能”两个字前面不断被加上非常多的形容词——人工智能、通用智能、超级智能等等。大家有兴趣可以想一想,你们真的清楚这些形容词各自究竟指的是什么吗?我反正是不太清楚的。

过去几年里,我投入了大量精力研究智能机制这件事情,逐渐形成了对智能的认识:智能分成各种不同的层次、不同的概念的子集。从某种意义上说生命就是智能的载体,之所以有生命是因为有智能。我们可以看到生物的进化,从生物起源开始,最早的智能模式是物种进化,通过 DNA 遗传,但是自身也不知道怎么改进,只能随机变异、物竞天择、适者生存。

图片

后面神经、大脑相继出现,个体开始能适应环境,才有了个体层面的智能,然后演化到出现人类,有了人的个体智能。

大概 5 亿年前,神经系统出现了、大脑开始出现了,个体可以通过试错学习了。到了近寒武纪和寒武纪期间,有两件事情先后发生,先是出现了大脑,然后寒武纪早期眼睛出现了,继而发生了物种大爆炸。动物从此开始感知到了更大范围的外部环境并且能通过智能机制与外部环境互动。可以看到,最重要的分水岭正是大脑的出现。

图片

从科学来讲,我们今天的机器智能技术就在这个(指向DNA和LUCA)阶段。这当然有用,生命出现了,非常了不起,但是相比真正的高级的智能,现在还处在非常早期。

今天,很多人经常把智能和知识这两件事情混淆,包括全球业界的“顶流”人物。

迈向更自然的智能:从知识的“遗传”到知识的自主更新

什么叫智能?知识不是智能,知识只是智能活动的结果。

一个智能的系统必须要有自主改进并增加自身知识的机制,即能自学习的机制。所以一个系统,即使有知识,只要做不到自我改进,那么无论它多大都是没有任何智能的。

一个黑盒子的 GPT4 和一个婴儿谁有智能?谁有知识?

大模型有知识,有继承我们“遗传”给它知识,但是没有智能。婴儿有智能,还没有知识,但他有获取知识的能力甚至发现全新的知识。所以知识与智能是两个相关但不同的概念。

所以,大家如果学过微积分可以记住这个类比:知识是智能的积分,智能是知识的微分。

图片

从机器发展的起源,人类就在模拟大脑,向大脑学习,而不是向 DNA 学习。研究的是模拟神经元是怎么工作的,以及我们的大脑是怎么工作的,包括卷积神经网络,就是从这里来模拟,两次诺贝尔奖以及他们启发的两次图灵奖都是在做这个事情。

为什么我们过去几年要把黑盒子变成白盒子?这已经不仅仅是科学探索的问题,而是变成一种责任。一件事情一旦变成黑盒,大家不理解就会有神秘感,这会带来很多问题。以前我们没有天体物理学,不知道是什么在对天上的日月星辰起作用,就会产生宗教、迷信以及神秘主义的东西。现在对于大模型、深度网络,我们也认为它是黑盒子,大家通过试错去做,不理解其中的机制,好像很神秘。所以很多人觉得它什么都能干,认为现在的AI已经完全超过人类了,很恐慌。但是真正对机制和原理了解之后,就跟有了牛顿力学、开普勒定律之后的天体研究一样,天体运动不再神秘了,一目了然。

图片

要弄清其机制,必须搞清楚智能或者学习本身到底在干什么,它的目的是什么,怎么去学。深度网络到底在干什么,怎么把它做对。这是我过去五六年一直在研究和探索的事情。

在过去几年,大家都在做很多的模型,Transformer是通过经验设计出来的,好像还挺好用,也能 scale ,有很多神奇的现象出现。

那么现在,能不能通过第一性原理,把更简洁、可控的结构推导出来?其实可以的。搞清楚以后,得到的将是数学上可解释的模型,其结构将真正带有几何统计或者语义上的信息,而不再是黑盒子。

我们看最近这十年,前五年在做人脸识别、物体识别、目标检测,后五年又在做生成模型。但,如果站在整个智能研究历史的时间尺度上,从智能的机制角度去思考,就会发现,我们最近十年在做的事情是非常碎片化的。我们的大脑是一个系统,识别是一个方向,生成预测是另一个方向,它们都只是我们大脑功能的一个碎片而已。

大脑系统这两个方向的功能,是对外部世界建模的统一的、完整系统的局部功能。

实际上,这件事情学界早就明白,难在怎么去实现它。现在有些传播很广的概念,相信在座的大家多少也听说过,比如说看到大模型在做压缩,在优化 complexity,然后就以此宣称智能的本质就是压缩。我不评价对错,但是的确是缺乏历史认知的,比较浅的。如果仔细研究了过去 80 年的智能理论和实践的发展到底经历了什么,前人为了实现智能都做过什么,就不会轻易地下结论。

图片

这些年来,从不可计算的压缩的概念,到可计算的,到高效的,再到可规模化的实现,这是非常漫长的历程,有很多人作出了重要的贡献。

到了今天,我们是时候去重新学习和研究自然界是怎么实现智能的,以及好好思考有没有可能更加好地去实现它?我这里给出的答案是闭环反馈机制,就像维纳说的学习自然界的闭环反馈机制,从而更自然地实现智能。它也许不是那个终极的答案,我甚至不知道有没有所谓终极的答案。但是至少,应该向着更加自然的方向去探索。

通过白盒化与自主智能,推动智能技术的进化之跃

在我看来,未来智能技术本身的发展也将会跟生物发展的历程相似。

第一个阶段就是通过 DNA 遗传,把上一代学到的知识传授给下一代,现在的模型其实客观上来说就是在做这件事。人类所有的语料、科学发展的知识,训练给大模型,通过监督学习,传给下一代,通过强化学习改进。但是,现在的模型系统有真正的“大脑”吗?是没有的。

第二个阶段是具有自主学习能力的个体系统具备了获取新知识的能力。这会带来生产力的进一步巨大提升。

第三个阶段才能到真正的通用的“人工智能”。

图片

大家如果想把历史看清楚,最好是找第一手的信息和资料去看,不要道听途说。

过去 10 年我们做的事情,包括生成模型、识别,正是 1956 年达特茅斯会议明确说了不去做的事情,是动物层面的智能,跟真正的“人工智能”甚至是 180 度反过来的。

真正的当年提的出“人工智能”代表是人的智能,是抽象能力、符号能力、逻辑能力,这是现在大模型机制里没有的。

认清楚这个事情,才知道技术到底该怎么走。实际上我们还处在第一个阶段到第二个阶段的发展过程中,在那个临界点上。忆生科技是希望推动实现这个跳跃,从第一阶段到第二阶段。第三个阶段还不知道,有人在尝试一些零星的方法,但是目前不够系统。

我们希望能推动第二阶段更快到来:从知识的“遗传”到知识的自主更新,从经验试错到原理演绎,从黑盒子到白盒子,从语言模型到世界模型。

语言承载的其实并不是每个人学到的全部知识,而仅仅是是我们人类可以共享出来的知识。人的大脑处理语言的区域是很小的,大部分在处理的是语言之外的信息。如何处理视觉信号、触觉信号、声音信号、嗅觉等等这些都是大脑更广阔的区域。所以,今天的智能技术还有非常广阔的前景等着我们去研究和探索。

我们正在做这方面的努力,至少有了很好的基础。现在对深度网络这个学习机制的主干有了很好的数学的理解,完全可以通过白盒来设计这样的网络,知道学习在做什么,而且得到的网络结构在数学上完全可以解释。

从技术上看,白盒有很大的优势,因为不用再通过经验试错,全世界太多的团队都在试,浪费太严重了。这和生命早期是一样的,就是在靠“变异”,大家自己也不知道怎么改。百模大战,最后就是靠外部环境来选择,不是不能进步,但是代价巨大。

过去半年,我们团队内部的改进结构已经迭代了好几代。现在有了原理,就可以去判断目前的这些经验的结果,哪些是必要的,哪些是不必要的,然后就可以设计最优的构架,去高效落地、规模化。

这也就是我们成立公司的原因,在学校验证好的东西,要把它工程化、规模化。因为我们已经意识到这种技术未来对产业将会产生很大的价值。

在过去,一个实验室阶段的成果要产品化、商业化周期是非常长的。但很幸运,在人工智能领域,我们明显地看到——从一个实验室阶段的成果到现象级的工具和产品,周期越来越短。最早的 reinforce learning、阿尔法狗做了 10 年;GPT4 ,8 年;diffusion model 2 年;Sora 半年。因为软件、数据、算力的平台越来越建全,我们想积极促成这件事。好的思想和方法,应该通过一个产业的方式来尽快地转化,所以我们必须踏入这个 “众争之地”,顺应这个潮流。

大家也都看到了像伯克利、斯坦福的学生创业,团队越来越小,年纪越来越轻,估值越来越高。去年我跟硅谷的创投老总们吃饭,聊到他们很苦恼的一个事情——现在投AI 都快看不懂了,大量的项目来自年轻一代的人才。所以我们在工程技术层面也一直持续地迭代,把技术的实现和落地做好。

图片

最后,希望大家能用科学的、历史的眼光和视角来看待今天的技术。理解和创造一定是高度相关,相辅相成的,只有这样,我们才能真正地创新,并且超越!谢谢大家。

图片

9月19-20日,2024DEMO CHINA邀你共赴成都。80余家早期科技企业,200+知名投资机构,16家产业大公司集中亮相、资源链接。点击此处即刻报名

图片

反馈
联系我们
推荐订阅