2025年10月3日,英伟达总裁黄仁勋与富士通总裁时田隆仁,在东京的帕雷斯酒店面对100多名记者,宣布英伟达与富士通进行战略合作。这一新闻迅速占满了翌日东京各大媒体的头版。
英伟达总裁黄仁勋与富士通总裁时田隆仁宣布战略合作(图片出自富士通发布的记者会视频)
英伟达是引领人工智能(AI)浪潮的弄潮儿。英伟达在全球AI计算和数据中心GPU市场占据绝对主导地位,份额远超90%;在PC独立显卡市场,它也占据领先地位,份额约80%-85%。
富士通是日本国内有名的IT企业,在日本国内根基深厚、备受信赖。但在AI领域的全球知名度并非很高,其云计算领域的城堡,在全球云巨头的围攻下,逐渐收缩。
那么,为什么英伟达会选择富士通作为战略合作伙伴呢?
富士通的新闻通报这样写到:
本公司将与英伟达扩大战略合作,旨在构建一个整合了AI 智能体的全栈AI基础设施,以便在维持企业在AI应用中的自主性的同时,助力企业通过AI提升竞争力。在本次合作中,双方将共同开发并提供面向医疗保健、制造、机器人等特定领域的行业AI智能体平台,以及通过“英伟达NVLink Fusion”技术,共同开发将“富士通-MONAKA”CPU系列与英伟达GPU无缝集成的AI计算基础设施。通过整合AI智能体平台和AI计算基础设施,将实现一个由持续学习和进化的AI智能体驱动的全栈AI基础设施,从而加速AI产业革命。此举将克服传统通用计算系统的局限,使构建一个跨行业、能自主进化的全栈AI基础设施成为可能。本公司通过这一举措,首先将推动日本的产业变革,让AI从日本普及至社会的各个角落,引领所有产业提升竞争力,推动可持续社会的实现。
这里有两个概念需要说明。
首先,什么是“AI智能体(AI Agent)”?AI智能体不再是简单的聊天机器人或执行单一任务的工具。它指的是一个能够感知环境、进行推理、制定计划并自主执行复杂任务的AI系统。譬如,为你规划一个周末出行的省钱的旅行计划,制作一份你要求的PPT文本,等等。
其次,什么是“全栈AI基础设施”?“全栈”意味着提供从底层到顶层的完整的、一体化的技术堆栈。打个不恰当的比方,就像盖房子,你不能只有砖头(芯片),还需要水泥(软件)、图纸(框架)、管道(网络)和施工队(系统)。
对于AI来说,“全栈AI基础设施”就是为AI的诞生和运行提供一切所需的技术层。主要包括:计算硬件层,硬件系统与网络层,软件与框架层,AI智能体框架,以及模型与服务层。
在计算硬件层,英伟达拥有强大的AI计算芯片,主要是GPU(如英伟达的H100/H200)和专用的AI加速卡。在硬件系统与网络层,英伟达有高速网络链接技术NVLink。在软件与框架层,英伟达的CUDA、cuDNN提供了底层驱动与计算库。全球AI工程师都在使用这些框架与库文件,形成了一个庞大的生态系统。
因此,“AI智能体的全栈AI基础设施”指的是一套完整的、从芯片到系统再到软件的技术体系,其唯一目的就是为大规模开发、部署和运行复杂的AI智能体提供所需的全部能力和环境。如果将AI智能体比作一个自动驾驶出租车车队,那么,全栈AI基础设施就是为这个车队服务的整个城市交通生态系统。
一项简单的AI应用(如文本生成)可能只需要调用一个API。但未来,真正变革行业的将是能够自主处理复杂工作流的AI智能体。运行这些智能体需要极其庞大、复杂且协同优化的技术栈,任何单一公司都难以独立构建。
英伟达正是看准了这一趋势,其战略目标就是成为这个“未来AI智能体世界”的“国家电网”和“道路交通部”——提供从发电(GPU算力)到输配电(网络/系统)再到用电标准(软件/生态)的全栈基础设施。它与富士通的合作,正是为了在全球范围内铺设和推广这套基础设施。
那么,被英伟达相中的富士通有什么优势呢?
首先,富士通是ARM阵营的“隐形冠军”。富士通虽然总体CPU市场份额小,但在高性能ARM架构CPU领域是世界级的领导者。其设计的“A64FX”CPU被用于曾经是全球最快的超级计算机“富岳”上,证明ARM架构在极致性能上的潜力。富士通的ARM CPU已经发展到第二代以省电为特征的MONAKA,可谓是同行中最先进的技术。
其次,富士通拥有“定制化能力”与“垂直整合”的独特价值。富士通拥有强大的ASIC(专用集成电路)和CPU设计团队。他们不是简单地使用ARM的公版设计,而是能进行深度定制,针对高性能计算、AI等特定工作负载进行优化。
富士通不仅仅可以设计CPU,它是一家完整的IT解决方案提供商。从硬件(服务器、存储)、网络(5G设备)到软件和服务都能提供。
我们再来看看GPU与CPU的关系。
GPU是AI系统强大的“引擎”,但要让这台引擎在复杂的AI任务中发挥全部威力,需要一个与它完美协同的“底盘和传动系统”。这个角色,正是ARM架构CPU所要扮演的。英伟达的GPU固然强大,但正是通过与ARM架构CPU的结合,它才能从一家“顶级芯片供应商”蜕变为“未来计算平台的定义者”。
在传统的x86服务器中,CPU和GPU是独立的两个部件,主要通过PCIe总线连接。这就像两个顶尖的专家被关在不同的房间里,只能通过一个小窗口传递纸条(数据)来协作,效率低下。其瓶颈在于,当GPU进行大规模并行计算时,需要不断地从CPU和内存中获取数据。PCIe通道的带宽和延迟成为了巨大的瓶颈,GPU常常需要“等待”数据,其强大的算力被闲置。
ARM架构的革新之处在于超高速互联。它们采用NVLink-C2C等先进互联技术,将CPU和GPU紧密地连接在一起。这相当于让两位专家坐进了同一个“作战指挥室”,可以实时、无障碍地交流。CPU和GPU可以共享一个巨大的、统一的内存空间。这意味着它们可以直接访问同一份数据,无需在两者之间进行缓慢的复制和搬运。
GPU和CPU的结合,使得数据流动的延迟极大降低,带宽极大提升,GPU的算力得以被100%地被释放出来,甚至120%地被增强。这对于需要处理海量不规则数据(如推荐系统、图神经网络)的AI智能体至关重要。
还有一个重要的因素,是被称为计算领域“新货币”的“能效比”。
在AI时代,算力的最大限制不再是晶体管数量,而是电力。数据中心的电力和冷却成本已经成为天文数字。
x86 CPU为了保持向后兼容性,继承了大量的复杂指令集和架构,这导致其在执行特定任务时,功耗较高。ARM采用精简指令集,架构更简单、更模块化。这使得ARM CPU可以根据特定工作负载(如AI、HPC)进行深度定制和优化,实现极高的“性能功耗比”。
MONAKA是富士通继非常成功的A64FX(曾驱动“富岳”超算登顶世界第一)之后的新一代ARM架构服务器CPU,它有极致的高性能与高能效比。MONAKA的目标是提供比竞争对手高2倍的能效。MONAKA从一开始就设计为与英伟达GPU通过NVLink-C2C技术进行高速互联。这意味着CPU和GPU之间的数据交换延迟极低、数据带宽极高,能极大缓解在传统x86架构中常见的“数据搬运瓶颈”,从而充分发挥GPU的AI算力。因此,MONAKA不是要做一个在所有场景下都最强的通用CPU,而是要做一个在特定HPC和AI场景下,能效最高、与英伟达GPU协作最无缝的“特长生”。
当然,富士通不仅有先进的ARM架构CPU,富士通还提供AI应用服务,其AI解决方案涵盖了制造业、零售业、与医疗领域。
英伟达通过与富士通的合作,可以打造出从芯片到系统、再到行业解决方案的完整“交钥匙”方案,而不仅仅是卖GPU芯片。
过去的英伟达就像一家世界顶级的发动机(GPU)制造商,它的发动机性能无敌,但需要安装在别人家的车架(x86服务器)上。现在的英伟达,则正在成为一家顶级高性能跑车的整车制造商。通过优化底盘、传动系统(ARM CPU),并将其与自己的无敌发动机(GPU) 完美整合,打造出一台在赛道上所向披靡的完整赛车。
英伟达与富士通的战略合作,站在英伟达的立场,可以帮助英伟达实现从“发动机供应商”到“整车制造商”的战略转型。站在富士通的立场,可以得到最先进的AI算力,有英伟达的全球AI开发生态系统的加持,富士通的AI解决方案将如虎添翼。
在越来越竞争激烈的AI全球市场,英伟达与富士通的战略合作或许会成为一个互补、双赢的范例。
在该战略合作中,英伟达提供全球最强的GPU加速计算能力和近乎垄断的CUDA软件生态。富士通提供世界级的高性能ARM CPU设计、强大的服务器制造能力、深厚的5G网络技术,以及在日本和特定行业(如制造、金融)的市场渠道。
双方的能力高度互补,几乎没有重叠,是纯粹的“1+1>2”增益。
供稿 / 戴维
编辑修改 / JST客观日本编辑部
注)有关英伟达市场份额的数据可参阅Jon Peddie Research,IDC,Gartner等市场调查报告。

