科技六巨头共话AI之际,我们对智能体也有一些思考

关注
黄仁勋描述了未来AI的两大重要方向:智能体AI和实体AI。

编者按:本文来自微信公众号 硅谷101,创业邦经授权转载。

创新的速度比以往任何时候都快,人工智能过去两年所取得的进展,比前十年加起来还要多。

在西雅图10月15日的联想科技创新大会上,罕见地汇聚了当前硅谷芯片三巨头,包括最近风头正盛的英伟达CEO黄仁勋、AMD CEO苏姿丰,以及英特尔CEO帕特·基辛格;另外,Meta CEO马克·扎克伯格、微软CEO萨提亚·纳德拉和高通CEO安蒙也通过远程连线的方式参与到活动中来。

英伟达CEO黄仁勋认为,这轮机器学习创造了最大的工业革命。黄仁勋描述了未来AI的两大重要方向:智能体AI和实体AI。智能体AI是信息领域的机器人,而实体AI则是物理世界的机器人。他提出了未来会有数以百万计的“小Jensen玩偶”(Toy Jensens),AI智能体,能够协助企业和个人完成各类任务。

联想集团董事长兼CEO杨元庆很早就提出了AI PC战略,并在联想笔记本电脑上植入了AI智能体AI Now,根据IDC的数据预测,到明年,AI PC就将占据市场的一半份额。到2030年,这一比例将达到100%。杨元庆在会后采访中提到:“AI PC是今天的主导者未必是明天的主导者,更不用说个人智能体变化就更大。可能今天的操作系统就会被颠覆掉,像Windows拿着鼠标在点icon去打开,打小叉叉去关闭,那些东西都已经不符合操作的习惯了。将来的操作系统、模型会整合,会有新的主导者出现。”

另外,Meta创始人兼CEO马克·扎克伯格在远程连线中再次强调了开源打法以及Meta最近发布的开源多模态模型。他提到联想搭载在个人PC上的AI智能体AI Now正是基于Meta的模型创建的:“这也是我们开源 Llama 的一个重要原因,像联想这样的公司可以对大型语言模型进行微调,优化其在特定使用场景中的表现。” 他也更新了最近Meta的最新进展,比如发布的开源多模态模型 Llama 3.2,以及发布的110亿和900亿参数的模型,以及更小的、专为在设备上运行而优化的10亿和30亿参数的模型。

大会的另一大看点是英特尔与AMD这两个纠缠了几十年的芯片届的宿敌,史无前例地宣布合作,组建X86生态系统咨询小组,确保互操作性和接口一致性,并为开发者提供标准的架构工具与指令集。

基辛格在活动上亮出了他与杨元庆年轻时候的照片,X86架构是英特尔与联想几十年合作的基石,并且认为他们面前将迎来X86架构最重要的创新时期之一。基辛格生动地说道:“为此,Lisa(苏姿丰)和我达成了一致,我们真的认为现在是最佳时机,无论是Lisa还是我,还有什么比联想的舞台更适合宣布这件事呢?”

苏姿丰也提到合作的基础正是人工智能带来的时代转折点:“最令人惊叹的是,我们依然处于非常非常早期的阶段,但我们所看到的是创新的速度比以往任何时候都快。坦率地说,我们可能在过去两年所取得的进展,比前十年加起来还要多。”

在这次巨头云集的活动上,联想展示了全面的人工智能解决方案、服务和设备组合,包括:推出面向企业的联想Hybrid AI Advantage(混合式人工智能优势集);与英伟达联合开发的新一代联想Neptune海神液冷服务器;最新ThinkPad X1 2合1 Aura Edition AI PC、联想AI Now、联想Learning Zone(AI学习)软件平台;以及通过人工智能对社会影响的概念验证。

在这次大会活动前特别设立的直播间里,硅谷101创始人泓君主持了一场与硅星人&品玩的创始人骆轶航以及热AI Next的主理人陈庆春关于当下人工智能如何落地的讨论,一起组成了“AI观察团”,聊了聊活动上热议的AI智能体与联想这次重点强调的无处不在的混合式AI。

以下是部分访谈精选

AI落地场景与混合式AI

泓君:最近硅谷流传着一个说法,说的是每次OpenAI模型升级,就会有创始人抱怨说,OpenAI把他们价值300万美元的创业公司给整没了,然后只给了他们一张价值500美元的OpenAI API接口优惠券。那么,AI究竟应该如何落地呢?因为AI的繁荣最终依赖于大量的创业公司,它们能够把AI做成,并且能够有很好的生长。所以,你们认为AI热潮是不是一场虚火,大家怎么看?

骆轶航:这个段子听上去很惨,但真是这样吗?我感觉现在硅谷 AI 创业公司,特别是针对具体场景的应用越来越多了。我见过为诊所、宠物诊所提供问诊的 AI 工具,还有法律和保险类的工具,比如 Harvey 是最大的法律 AI 之一,还有一些编程辅助工具。

如果我们认为这个世界就是由 OpenAI 和其他公司构成的,那 OpenAI 的节奏慢了,但好像虚火就来了。如果我们认为这个 AI 生成的世界实际上是很多样性的,它就不存在这个问题。

我还注意到一个数据。上周是旧金山 Tech Week,然后有一位Pitchbook的人做了一个分享,他说过去这 5 年,整个美国创业公司的平均估值是被拉低了,但是 2023 、24 年之后有所增长,那怎么增长?靠AI 。这一波之前,可能是消费类、 Web 3 类的等公司被拉低了,这两年增长靠的就是 AI 。很多 AI 创业公司,特别是那些专注于 B2B 的公司,早已关注 ARR(年度经常性收入)。我认为不虚的原因是因为大家在追求非常实际的东西。

同样的,在中国,我也认为情况并不虚。尽管大家觉得有卡住的地方,但是最近一两个月,AI 应用很能拿到钱了。比如跃然创新,就是将Mini Max音频大模型集成到了儿童玩具狗中。还有PPT类、公文写作类的AI产品卖得很好。新华社的新华妙笔一年卖700多块钱,几万基层公务员都在买。这说明AI应用对公司而言是好事,非常有意思。

陈庆春:我与骆老师的看法一致,不认为AI是虚火。人们之所以认为AI可能存在泡沫,是因为我们对它的期望过高,总是用未来十年的预期来衡量现在,这是不切实际的。

回顾过去几年,AI取得了巨大进步,成为推动实体产业发展的重要范式变革。联想自2017年开始智能化转型,受益于AI的驱动,供应链得到极大提升,在Gartner排名中连续两年位居亚太第一,这是AI实际应用的例证。此外,国内大模型厂商如Mini Max和智谱AI在B端的应用也非常成功,智谱AI的表现很突出,这些落地案例证明了AI不是虚火。

泓君:我们在说到混合式AI的时候,大家的定义还不太一样,要不要先解释一下什么是混合式人工智能?

陈庆春:联想发现当大模型刚刚落地的时候,因为第一个阶段我们就要想这个大模型来了该怎么去用它。我相信大家去年这个时候可能都在讨论的是怎么去把大模型用好。因为联想当时是比较有经验的,所以去年联想就第一次提出来,其实如果想把这个大模型用起来,就需要混合式人工智能这样一个做法。

泓君:所以它这个混合指的是什么?

陈庆春:混合大模型的概念源于当时OpenAI推出的ChatGPT基础模型3.5的技术模型。随着基础大模型的增多,人们却不知道怎么使用它们,尤其是对ToB企业来说,这些模型显得非常陌生。对于个体用户,他们可以通过ChatGPT或聊天对话框来体验和感受大模型。但对于企业来说,如何使用这些模型就成了一个问题。

因此,就需要让大模型具备垂直行业的专业知识库,即垂直模型。混合式人工智能就是指基础大模型和私有大模型的结合。对于企业而言,这意味着需要基于企业所在垂直行业的特定知识库进行预训练,以获得一个更了解该行业和企业需求的模型。这个模型可能没有几万亿的参数,可能只有几百亿参数,规模较小,但它会更懂这个行业,更明白企业自身的需求。这就是混合式人工智能,即公共大模型和私有大模型的混合使用,以推动混合AI的发展。

骆轶航:混合人工智能可以从两个维度来理解。第一个维度是关于基础大模型,也就是所谓的foundation model。我们不认为存在完全独立的小模型,而是认为基础大模型具备通用性,拥有强大的泛化能力、处理问题的能力、理解能力和推理能力。这是混合模型的一部分。在基础大模型的基础上,通过后训练或微调,可以得到一个专业知识模型。这个模型结合了前者的通用能力和后者的专业知识,可以取得更好的结果。

第二个维度是将这两个模型放入一个物理容器中。通常,专业的模型由于数据的隐私性,更垂直、更专业,可能不适合与其他数据结合,且使用的数据量和训练资源相对较少,因此在很大程度上是一个端模型。这种模型可以放在PC、手机或一体机上,通常在端侧运行,不需要从云端传输数据,运行速度更快,即使在没网的情况下也可以。

所以混合式人工智能其实是一个强大的基础模型与垂直专业模型的混合,也是一个基于云端的大模型与在端侧发挥更多计算和推理功能的小模型的混合。这两种混合通过镜像对应起来,我觉得这是一个非常重要的事情。

华人,尤其是中国人,特别擅长开发端侧模型,因为这个领域依赖巧劲,然后中国人又擅长搞硬件。所以我挺乐观的,都想下场去投类似的早期公司了。

泓君:总结一下,刚刚我们提到的混合式人工智能其实有两类,一类是大模型加垂直模型,另一类是端侧加云端的模型。而在垂直模型中,主要有几种方法:微调、Rag以及对基于开源模型如Llama进行训练得到的。

还有数据也是一个非常重要的因素。不管采用哪种调优方式,都是基于企业的数据来调整,调出更符合行业规律的模型。所以在谈到混合式模型时,能不能给大家举一个具体的例子,比如联想是如何通过大模型加垂直模型、云端加端侧的方式,把这些复杂的技术整合到一起,得到一个好的结果的?

陈庆春:联想的主要核心竞争力在于能够将这些最前沿的技术非常定制化地提供给每个ToB企业。这并不是说任何人都可以随意裁剪垂直行业的技术,然后稍作调整就能变成企业使用的大模型。联想会根据企业所在行业的垂直行业know-how,提供针对性的解决方案。

举个例子,联想在制造行业拥有丰富的know-how,特别是在供应链管理方面。元庆在去年Tech World上提到,合肥的工厂通过公共大模型进行气象预测,能提前七天预报暴风雨的到来。这样的大暴风雨对工厂的生产影响非常大,因为一台PC涉及2,000多个上游供应商,而联想没有庞大的零部件仓库,一切都依赖智能计算来进行排产。当大模型预测七天后会有暴风雨,联想的私有大模型就会基于行业知识库和过往经验,迅速做出决策。比如,它会通知供应商提前三天交货,以避开天气影响。

整个过程非常智能化,不仅能为供应链上的厂家配置零部件,还包括场内物流和场外物流的调度。以往需要几天时间完成的智能排产流程,现在在AI的加持下,可能只需几十分钟甚至更短时间。这种速度使整个供应链管理和排产系统得以快速高效地完成。这就是公共大模型和企业私有大模型互相配合的完整流程,虽然看起来只需短短几十分钟,但背后涉及许多复杂的操作。

泓君:其实是把供应链系统打通了,然后把数据也打通了。

陈庆春:对,比如说在建立私有大模型时,首先要考虑的是数据,这些数据基于联想以往所有的排产经验,这是联想独有的。其他企业如A企业、B企业,或者任何一家创业公司,都无法做到这一点,因为它们没有这种经验和know-how。

其次,联想的生产定制化非常强。一台笔记本与另一台笔记本的定制化需求完全不同,生产线上可能同时处理多种型号。因此,当生产一台ThinkPad X1时,它的零部件需求和物流调配与YOGA系列可能完全不同。联想必须快速知道如何处理这些差异,进行零部件管理和物流调度。这些关键知识是其他创业公司无法获得的。

AI智能体三要素:回报率、好用、专业

骆轶航:我见到的很多场景其实都是混合式的,只要你在做某个项目,基本上都是混合的。我想延伸一下,刚才讲到了自动化决策在物流体系中的应用,像一个agent。其实,什么是agent?有时候大家会把几个词混淆。前两天我和一个创业者聊天,他从事了4年研究科学家工作,现在出来做AI agent。我们讨论了什么是AI agent,发现大家的理解各有不同。

但我们总结出一句话:AI agent不是你,但它可以代替你,帮助你自动解决和处理问题。

陈庆春:对,在联想就叫做你的“个人智能体”,你的个人的双胞胎。

骆轶航:最近有一个特别有意思的趋势,硅谷许多原本声称解决垂直领域问题的AI公司,现在都在搞AI陪伴。但这种AI陪伴并不是简单的逗趣聊天或情感互动,而是具有知识和情绪,帮助你处理每个问题。比如,一些公司专注于降低客户流失率、提升客服体验,或是针对保险、教育等行业的AI平台,甚至包括会议管理的AI平台,这些应用都开始出现了。

AI智能体和深度场景的结合是一个明显的趋势。比如,像友邦这样的公司,是否会把客户数据提供给ChatGPT等AI模型?这带来了很多值得思考的问题。未来,销售经理可能会管理多台没有屏幕的一体机,每台设备都有一个智能助理,帮助他处理复杂的销售管理工作,满足几十到上百个客户的需求,管理情绪等复杂任务。这样的AI agent实际上是微调过的小模型分身,也就是原生的ToB或未来的ToC AI应用。

原生AI应用这个词有点像是对软件的这种说法,而agent就是这种进化逻辑的体现。agent本身是一个混合体,融合了你的个人数据、经验、偏好等等。

陈庆春:说到agent,我还是要重新回到混合式人工智能的理解上。混合式人工智能最开始是在去年这个时候元庆提出来的,目的是为了让大家知道怎么去用这个大模型。

现在我们讨论的就是如何用好大模型。经过这一年的发展,我们可以看到AI本身也获得了很大的进展,这个进展包括预训练模型的性能提升非常快,比如Llama 3.2以及国内的千问2.5,这些大模型的预训练能力都有了很大的提升。在之前的半年,我还记得骆老师您主持了一个论坛,大家讨论的是我们到底是ToB还是ToC。最终我们发现,现在大家已经达成了共识,都是要用的。那么为什么会达成共识呢?因为当时讨论的一个点是幻觉太严重了,大模型的幻觉问题很突出。但在接下来的这两三个月中,我们取得了非常大的进展,特别是在推理能力方面有了显著提升。

泓君:如何用混合式人工智能的方法来避免在精准问题上出现幻觉问题呢?比如说,如果我用一个agent来帮我订机票和酒店,它不能把我的预订搞错。

陈庆春:混合式人工智能现在不仅是公共大模型和私有大模型的混合,未来可能还会是多个agent之间的混合,也就是agent与agent之间的对话。

骆轶航:对,最早的斯坦福小镇项目就是这样做出来的。Google以及斯坦福的团队,在斯坦福小镇一起合作,愉快地生活在一起。最近,面壁智能也有类似的公司内部项目。他们通过agent之间的协作,这种方式显然会越来越普及,尤其是在一个组织内部。

陈庆春:现在的混合式人工智能,其实混合能力要更强一些。首先,它涉及公共大模型与私有大模型之间的混合调用。其次,多个agent之间的调用也至关重要。这些agent会为你进行知识分析,最终联想的这些智能体会嵌入到每个硬件中,形成一体多端的结构。

每个智能体会帮助你进行分析,并需要调用多个大模型和agent。在后台,它们会先召开会议,讨论如何满足需求。比如你提出一个需求,作为联想的AI Now,后台就开始运作,调动多个agent来共同协作。就像公司开会一样,老板提指示,其他人、秘书协调好各方事宜。关键是,这个智能秘书就像你的双胞胎,十分了解你,就像看到镜像中的你一样。

泓君:你们觉得这个秘书最合适落地在哪些设备上?例如,这个秘书可以出现在眼镜、手机,或平板电脑上。联想去年提出过一个AIPC战略,认为PC是AI落地的第一终端。PC是否真的是AI落地的第一终端?

骆轶航:比如说Ray-Ban Meta眼镜,我玩得很开心,但我认为它绝对不是第一终端。至少现在不是,五年或十年之后它可能会有变化,但那时的演进形态也可能不同。AR形态可能会进一步演化,所以我觉得这款眼镜是一个实验性和过渡性的产品,虽然具备了一些AI功能,但绝对不能算作第一终端。

我认为手机和PC都有可能成为AI第一终端,这取决于使用它的人要做什么。如果这个人不创造生产力,那么手机可能是他们的第一终端。因为人们一天到晚离不开手机,刷手机的频率远高于刷电脑的频率。你很少见到家里60岁的老人刷电脑,除了炒股票。

泓君:但现在大家的很多生产力还是发生在电脑跟手机上,对不对?

骆轶航:是的,我觉得其实手机上干活是比较少的。如果是闲着没事、半工作半休息的状态下用手机干个活没问题。我也不是没有在手机上写过文章,但要处理比较复杂的事还是不行。所以我认为电脑还是这个事的变革中心。

最近我参加了华源活动,我跟嘉宾的互动环节结束之后,我就把这些资料后贴到一个Google Docs做总结,直接推给一个AI,然后邮件就能发过去,全部AI完成。你能看到鼠标和键盘自己在动。这个东西是我觉得它就是一个生产力变革。手机上是不能干这些事的,而且你还要跨平台整合这个问题,各家的产品都要用,所以我觉得这个是一个特别有意思的事。

陈庆春:现阶段AIPC肯定是AI大模型落地的第一终端。无论是从背后的逻辑、算力,还是从本地知识库需要处理的大量数据来看,你都需要一个存储设备。因此,仅从这两点来看,PC是必然的选择。而如果选择其他设备,比如刚才你的智能眼镜,可能就有无法正常工作的情况。

泓君:我们说到AI和PC结合的时候,联想在这方面做了整合了哪些AI来提升工作效率?

陈庆春:联想是一个非常开放的生态,在基础大模型的选择上非常丰富。国内的一线大模型厂商,比如千问和Kimi,都与联想有合作;在国外,像Llama这样的模型也与联想有深度合作。联想不会拒绝任何大模型的合作方式,强调的是混合式人工智能,即谁好用、谁对你有帮助,就用谁。现在大模型的特点越来越明显,比如Kimi擅长处理长文本,MiniMax则擅长语言大模型。

每个大模型的优势不同,而联想的优势在于“谁强谁上”,就像开会时发现谁擅长某方面,就让他来解决问题。联想的AI Now会集成所有大模型,并针对每个大模型进行本地化调优,综合实现AI能力。这也体现在每个AIPC上,都有一个AI Now来调用和优化大模型,为用户提供更好的服务。

扎克伯格介绍Llama与联想的合作,图源:联想

泓君:AI Now 它是怎么样调用这些程序的?可以在哪些细节上帮助到大家?

陈庆春:这确实非常丰富,具体看你需要什么功能。比如说你现在需要做一个PPT,可以直接调用AI来帮助你快速生成一整套PPT,这是每个打工人最大的痛点。还有像绘图,你只要通过对话的方式告诉AI,它就会帮你完成任务,就像和一个机器人对话一样,这个机器人能帮你解决很多问题。

在办公方面,因为大部分人在Windows、PC上使用微软的办公软件,如果你可以的话还可以直接调用Copilot,一键完成操作,提升办公生产力。

最好的商业模式在B端

泓君:AI怎么样去跟跟企业的这个数字化、智能化的这波转型相结合,大家是怎么看这个问题的?

陈庆春:刚才我们聊到的混合式人工智能的关键应用点就是企业AI的建立。因为在企业AI中,你需要构建一些公共大模型,还有企业自身的私有大模型,特别是在端云网的混合应用上。比如,联想具备小样本学习的能力,它能够在边缘端进行学习和推理,不需要推到云端再做训练,这样的能力非常强,也非常及时。这种能力经常用于智慧交通、智能驾驶等领域,是非常好的例子。

对于企业AI来说,这种混合应用能力是非常重要的。比如什么时候使用公共大模型,它可以用来做一些研究分析,特别是在高性能计算领域。联想为吉利打造了一套高性能计算中心,利用公共大模型进行推理和计算,帮助进行车型设计,通过这些能力来确定哪种车型最好。这实际上是一个虚拟数字化的过程,

泓君:大家可以猜一下,现在在所有AI应用中,最赚钱的美国公司是谁?

其中一个公司就是埃森哲,这是我跟很多在硅谷创业的AI创业者交流时,今年第一季度它的财报收入是6亿美元,第二季度达到了9亿美元。而且它也是OpenAI最重要的客户之一。

现在很多B端企业想要转型,首先就要了解这个大模型该怎么做,如何部署,如何实现Rag,如何适配垂直行业的需求。而埃森哲实际上就是在帮这些大公司,尤其是那些特别有钱的创业公司,去做整个公司的AI化设计。我觉得这是美国一个特有的生态系统。但如果对应到中国,类似的企业就是联想,甚至字节、阿里这样的公司,他们也在做类似的事情。

所以从整个应用市场来看,能够帮助企业把这一整套AI真正落地,并且转换成生产力工具的方向,正如大家刚才提到的,确实是这一波AI浪潮中非常流行的一个趋势。

骆轶航:这里边我觉得也有一个很有意思的一个事,就是中美的 AI 焦虑,美国的 AI 焦虑来自于很多过去不是在前沿 AI 领域的大公司担心掉队,中小商家是因为要降本增效。甚至有很多做电商做这种传统 SaaS 的公司都想用AI,这个是美国。中国是全面焦虑。那他们的焦虑其实最直接的转化成了订单。

陈庆春:对,因为他的痛点在于如何快速地使用好这些工具,并且看到投资回报率,所以这是第一个最大的诉求。

第二个诉求是在整个过程中,不能要求我再投入100个工程师去服务、去学习如何使用这些工具。这样投入就又增加了,所以他希望这些工具是傻瓜式操作,任何人都能打开就用。比如今天我要生产100台PC,只需简单操作就能排产。

骆轶航:我觉得聊天语言应该是自然的,作为输入的方式,但输出不应该是唯一的。它应该能给出一个决策结果。比如,机器人的模型中,输入是语言,而输出则是识别、抓东西、踢球等行为。

陈庆春:所以第二个需求就是要好用,一般的用户都可以把它用起来。这样就能省去再投资和雇佣一百个程序员的成本,否则就是不划算了。第三,你就要专业,比如说有些大模型厂商为一些专业企业提供的服务就不够专业,因为他们根本没有办法完成定制化,也没有相关的知识输出。从这一点来看,企业使用起来就会很费劲,最后的结果可能会产生很大的偏差,准确率也会很高。因此,这些就是企业需要关注的:要把投资回报率做起来,要好用,还要专业。

算力与能耗:AI发展的双重挑战

泓君:谈到落地,模型的三要素是算力、算法和数据。企业通常是自己拥有数据的。而算法则是训练模型的部分。我了解到联想在算力方面也有布局。庆春能否和大家解读一下联想在算力方面的布局?

陈庆春:对,联想在算力方面的布局主要体现在其 ISG 基础设施方案业务集团,这个集团是专门为整体 AI 基础设施而设立的。算力的布局实际上是分得非常细的,它并不是简单地依赖一台服务器或者一个 GPU 来完成整个 AI 的任务。算力需要有服务器、存储能力,如果没有存储能力,就无法进行大数据分析。

其次,数据网络也是非常重要的,因为一台服务器是无法承担很多工作的。就像英伟达的黄仁勋前几天提到的,Meta 用了 19 天建立了 10 万个 GPU 集群,那么这些集群之间如何连接,就非常考验数据网络的能力。联想在这方面也有很强的技术能力。

此外,还有虚拟化的能力,比如算力池。还有数据化的能力,以及非常强的可持续发展能力。也就是说,不能消耗过多的电力,过多的消耗会造成浪费。

这个大的算力架构并不仅仅是一个 GPU 的能力,而是一个非常全面的能力。只有当这些全面的能力都建立起来后,才能实现一个非常稳定和可持续发展的算力能力。

泓君:那就是既要算力,还要省电。我记得今年 Sam Altman 一直提到,未来大模型的训练不仅仅受到算力的限制,更重要的是能源的限制。大家怎么看?你们认为未来 AI 的训练和数据中心会面临能源方面的瓶颈吗?

骆轶航:长期来看,它确实会的。因此,现在替代性能源的选择越来越多。我觉得,AI 这一波发生了一个非常有意思的变化,它改变了很多公司的角色。例如,过去我们把芯片制造商称为代工厂,但现在你会发现一些比较强大的芯片制造商已经不仅仅是代工厂,而是某种意义上变成了基础设施,变得像云一样,地位提升了。

电这一点,过去哪个行业没用电?托马斯·爱迪生发明电已经150多年了,谁都在用电。但是你会发现,电作为一种基础设施,其基础性已经达到了这样的程度。以至于你必须考虑派生和可控核聚变这种投资,其实我觉得接下来可能各地都会去搞。

所以,我认为,AI 这一波作为计算革命、生产力革命的一个范式变化,它直接重组了很多东西,抬升了许多产业链中模块的地位。

泓君:因为我们之前在播客中专门聊过一期关于 AI 能耗的内容,并请教了很多电力学专家。他们有一种观点认为,过去中国和美国在电力问题上的情况是非常不一样的。美国的电力一直属于一种非常稳定且平衡的状态,稳定的表现是每年大约 0.5% 的增长率,而美国的 GDP 增长并不依赖于电力,而是依赖于服务型行业。

所以,现在美国AI数据中心当前的耗电量其数据能耗相当于一座纽约市。然而,美国的基础设施大家都知道进展非常缓慢,电力建设无法跟上未来 AI 产生的能耗增长,而且首先要保证居民的用电需求。这个问题在美国非常严重,而在中国却不是一个特别大的问题。因为中国的电力建设,包括基础设施建设,做得可以说是非常好的。

骆轶航:基础设施这东西原本不值钱。所以我们那时说互联网公司就像水电、煤一样,我们说它估值就上不去了,市值上不去了。但是,作为一种稀缺的基础设施,它就值钱了。我觉得未来可能会出现这种新的电力和可替代能源的公司,它们直接因为变得稀缺而提升价值。这可能是一个非常大的变化。

泓君:如果能节省一点点能耗,这对所有在 GPU 上进行训练的公司来说,都是一个巨大的资源节省,同时对社会也是一种巨大的资源节省。我记得刚刚庆春在跟我们分享的时候,提到联想在降低能耗方面进行了一些尝试,可以整体展开一下吗?

陈庆春:刚才两位老师提到的观点是,做一些大型集群的算力必然会耗电。过去耗电的原因有两个:一个是散热,另一个是电力消耗。

我不知道大家是否去过数据中心,那种服务器特别多的数据中心,第一个特点就是噪音特别大。这个噪音并不是来自于服务器本身,大家可能会记得,第一代电脑的声音很大,主要是因为散热风扇的噪音。同样地,当你看到一个数据中心时,最先看到的不是服务器,而是一群空调外挂机。这么多空调外挂机是因为大量的服务器和存储在一起产生的热量会很高,如果不降温就可能导致宕机。因此,需要用空调来保持数据中心的平稳运行。

这就使得数据中心具有了这样一个不好的属性。那么,我们如何在这个不利条件下去改善呢?联想因为做服务器已经很多年,所以在十几年前就发明了海神液冷技术,来帮助服务器降温和节能。现在,这项技术已经发展到第六代了。

我可以举个例子,联想为北京大学建立的高性能计算中心,节省了50%的智能散热成本,每年算力可以节省60万度电。

所以无论是高性能计算中心还是GPU计算中心,在散热和降低能耗方面都有天然的需求。目前,关键在于哪个厂家更有能力将这部分费用降低。这可能是一个非常有竞争力的优势,现在几乎所有数据中心,无论是国内还是国外,都优先考虑节省成本。他们会关注你能为我节省多少电力成本,毕竟工业用电成本也相对较高。

泓君:今天整体的讨论中,我还是想了解AI是不是真的创造了一些社会价值,它是如何帮助人的,尤其是如何帮助一些特殊群体。大家有没有相关的案例想要分享?

陈庆春:举个例子,联想非常关心残障人士的需求,比如聋哑人只会通过手势沟通,那么他们对着PC比划手语时,PC可以识别手势并进行翻译,把手语转换成文字或语言,帮助他人理解。这种技术能够将社会中的每一个弱势群体都考虑在内。

泓君:这个案例确实非常好,特别是在硅谷,我对AI在科学领域的应用感触很深。比如说“AI for Science”这个方向,像今年诺贝尔化学奖的颁布就特别有代表性,一共三位获奖者,其中两位获奖者是来自DeepMind,他们通过AlphaFold在蛋白质结构预测方面取得了重大突破。这类AI的进展不仅推动了基础科学的突破,同时也为社会带来了巨大的益处。

陈庆春:联想之前在公益事业方面也做了很多工作,其中一个例子就是利用AI技术帮助复刻应县木塔。大家可能知道,应县木塔是中国非常重要的古建筑之一,由于年久失修,现在已经无法让游客近距离接触或登上高层去观察其细节。为了让更多人能够感受到这座古塔的原貌,联想通过AI技术对木塔进行复原。通过AR和VR的方式,人们可以在电脑上以近距离的视角来观看和了解这座古建筑的结构和细节。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。


反馈
联系我们
推荐订阅