全球半导体产业迎来一场出乎意料的“联姻”——英伟达与英特尔宣布达成合作,双方将共同开发多代定制化的数据中心和个人计算产品,以加速超大规模计算、企业级及消费级市场的各类应用与工作负载的处理,双方将通过 NVIDIA NVLink 技术实现架构无缝互连。 根据已公布的协议,英特尔将利用NVIDIA NVLink设计和制造定制化的数据中心和客户端 CPU;英伟达将投资50亿美元购入英特尔普通股。 英伟达的投资将以每股23.28美元的价格进行,较英特尔前一日收盘价约有6.5%的折让。截至交易前,英特尔市值约为1160亿美元,这意味着英伟达此次投资后将持有英特尔不足5%的股份,不会改变两家公司的独立发展战略。 “此次历史性的合作将英伟达的AI和加速计算堆栈与英特尔的CPU和庞大的x86生态系统紧密结合,实现了两大世界级平台的融合。我们将携手扩展彼此的生态系统,为下一个计算时代奠定基础”,英伟达创始人兼CEO黄仁勋表示。 英特尔CEO陈立武第一时间在社交平台分享了和黄仁勋的合影,表示非常兴奋能和挚友携手。他谈到,“英特尔先进的数据中心和客户端计算平台,结合我们在制程技术、制造及先进封装领域的实力,将与英伟达在AI和加速计算领域的优势形成互补,共同推动行业实现新的突破。”
打破“数据瓶颈”,迈向全面异构计算
半导体行业两大巨头的历史性合作,不仅是一场资金与技术的联姻,更是AI计算时代下产业格局重构的重要节点。此次合作最核心的价值在于,它有望从根本上解决长期制约计算性能提升的“数据通信瓶颈”问题。这并非简单的商业结盟,有可能掀起打通两大计算架构“任督二脉”的技术革命。 英伟达和英特尔的合作内容主要聚焦两大核心领域: 在数据中心领域,英特尔将为英伟达定制x86处理器,这些处理器将被集成至英伟达AI基础设施平台中,并推向市场。这一技术合作的核心在于:通过英伟达的NVLink技术实现两家公司架构的无缝连接,将英伟达的AI和加速计算优势与英特尔的CPU技术和x86生态系统相结合。 在个人计算领域,英特尔将面向市场推出集成英伟达RTX GPU芯粒 (Chiplet)的x86系统级芯片(SoC)。全新的x86 RTX SoC“新物种”,将用于驱动需要先进CPU与GPU集成解决方案的各类PC产品。 北京时间9月19日凌晨 1 点,双方共同召开新闻发布会,对合作细节进行了进一步说明。根据黄仁勋的解释,在以往的系统架构中,x86 CPU 是以“独立服务器+基于PCIe重定时器(retimer)连接 GPU”的方式存在的,这种架构无法扩展到大规模的基于NVLink构建的计算集群中。而未来,英伟达可直接采购英特尔为其打造的定制化x86 CPU,并整合为计算节点,从而构建机架级的AI超级计算机。 在消费级PC方面,英伟达将向英特尔提供GPU芯粒,由英特尔封装成SoC芯片。用黄仁勋的原话就是:“我们一边采购服务器芯片,一边出售GPU技术,最终实现双方市场的共同拓展。” 陈立武则进一步强调,“新英特尔将以工程为中心,和英伟达在 x86、GPU、AI方面深度协作,共同推出最佳解决方案,将加速把‘AI+x86+NVLink’ 打造成新的计算平台。” 英伟达和英特尔这种深度整合,意味着未来我们可能会看到更高效的异构计算平台,x86 CPU和GPU之间的数据通信瓶颈将得到显著改善,从而提升整体计算性能和应用体验。
从互联创新到生态革命——一场战略性的转身
早在2010年左右,黄仁勋就看到了CPU和GPU之间的通信瓶颈。而英伟达为了解决通信瓶颈所做的事情,正是他们从一家图形芯片公司发展为AI计算巨头的战略路线图。 传统上,GPU通过PCIe总线与CPU连接。尽管PCIe在不断迭代,但其带宽增长速度远落后于GPU计算能力的增长。这就好比拥有了一个超级高效的“厨房”(GPU),但食材(数据)只能通过一条狭窄的“小巷”(PCIe)送进来,导致厨师经常闲着等食材。 不过这种延迟也是必然,毕竟PCIe是通用标准,并非为GPU与CPU或GPU与GPU之间的紧密协同而设计。数据在系统内存和GPU显存之间移动需要进行多次拷贝和协议转换,因此会带来显著的延迟。 在解决通信问题的破局之路上,英伟达掀起了从互联技术到生态打造的全面革命。通过“硬件+软件+生态”的一套组合拳,不仅在修更宽的“路”,更在重新规划整个“交通系统”。 2014年首次推出的NVLink,就是英伟达在硬件层面打造的“超高速专用车道”。作为一种高性能点对点互连协议,其带宽远超同期PCIe标准,且延迟极低。 并且,为了将NVLink的能力扩展到多个GPU,英伟达还开发了NVSwitch芯片。它可以连接多个GPU,形成一个巨大的高速计算网络,让所有GPU能够像单个巨型GPU一样共享内存和协同工作,这正是现在DGX超级计算机和超算的核心基础。 当发现传统x86 CPU在能效和内存带宽上成为新的瓶颈时,英伟达迈出了最激进的一步:推出Grace CPU。 收购Arm未果,并没有阻止英伟达打造AI基础设施CPU的雄心。2022年GTC大会上,英伟达宣布了首款基于Arm Neoverse架构的数据中心专用CPU——Grace CPU。根据当时的介绍,Grace CPU与英伟达GPU相结合,可以使计算机系统的性能达到当时最先进的DGX系统的十倍(该DGX系统基于x86 CPU)。 更值得关注的是2023年推出的GH200 Grace Hopper 超级芯片,其革命性在于通过NVLink-C2C芯片互连技术,实现了Grace CPU与Hopper GPU直接相连,这意味着CPU和GPU可以访问同一内存池,实现了真正意义上的统一内存。 英伟达在提升互联性能方面的一系列努力无疑是成功的,但也由此付出了巨大的代价:主要被诟病的就是生态壁垒和高成本。对于长期基于x86生态打造方案的客户来说,要享受英伟达顶配的高性能红利,就必须购买其全套方案(Arm CPU+GPU),这在一定程度上也限制了它的市场覆盖面。 为了进一步扩大NVLink的生态影响力,英伟达在今年的Computex上宣布推出了NVLink Fusion架构,将其专有的高性能互连技术NVLink向业界开放。NVLink Fusion提供两种主要配置,一是将第三方的定制CPU与英伟达GPU通过NVLink互连,二是将英伟达自研的Grace系列CPU与非NVIDIA定制加速器互联,以满足不同场景下的算力需求。 而本次与英特尔的合作,最初的突破口很有可能就是第一种配置方式:英特尔完全有可能在其定制化x86 CPU中,原生集成NVLink IP,与GPU实现前所未有的高速直连。这就意味着:物理上CPU和GPU之间通过NVLink直接相连,协议上消除了PCIe协议转换带来的延迟和开销,从而实现带宽性能的数量级飞跃,延迟大幅降低。这相当于为x86企业客户打开了一扇通往“最先进AI基础设施”的新大门,而不必被迫离开x86的“舒适区”,还可以根据实际需求选择最合适的处理器组合,优化能效比和成本效益。 这也意味着算力世界两大顶尖生态的直接对接:顶尖的加速计算能力牵手业界主流的x86生态,对于客户来说,有望减少在"极致性能"与"生态兼容性"之间的艰难抉择。这种深度协同将可能重新定义异构计算的产业格局,让两条技术路线产生更多、更深层的交集,为整个行业带来更多可能性。50亿美元,引爆AI芯片产业的“多米诺”效应?
在过去几个月中,英特尔已经获得了日本软银20亿美元的战略投资、美国政府约10%的持股支持。英伟达的投入,将进一步稳固了这家老牌芯片巨头的资金链,同时也彰显了英特尔制造能力对美国半导体产业的重要性。 对英特尔而言,此次合作的价值远不止50亿美元的资金注入。更重要的是,英特尔得以将其x86架构的核心价值延伸到AI计算的最前沿领域,确保了在新计算时代的技术话语权。 对英伟达来说,虽然已经凭借高性能加速计算占据了市场领先地位,但仍然需要与x86生态系统保持紧密联系,以确保自身技术在不同计算场景中的广泛应用,以及支持客户的多样性选择。 两大巨头联手可能促进庞大生态的共融与交流,带来更为多样的方案,为中国芯片企业提供更多的合作空间和技术接入点。但潜在影响也不容忽视:中美算力差距可能进一步扩大。英伟达和英特尔的强强联合将加速AI计算技术的迭代发展,使中国在传统芯片领域的追赶更加艰难。 这也提醒中国算力产业,需要持续加强自主创新和生态建设,多元化的技术路径和开放合作对中国半导体产业发展至关重要。 50亿美元投入后,产业的多米诺效应或许将逐个浮现。不管怎样,这也再次凸显了半导体产业从单纯竞争走向竞合的新趋势。特别是在AI计算需求持续增长的背景下,异构计算成为大势所趋,没有任何一家公司能够独立提供所有解决方案。写在最后
双方合作的消息公布后,英特尔股价在盘前交易中一度暴涨超过30%,英伟达的股价也有小幅上涨。市场用真金白银表达了对这一合作的认可。 不过,更宏大的故事在于未来:两巨头将如何通过NVLink无缝连接彼此架构?将如何为从数据中心到PC的各类计算场景提供更强大的AI算力支持?全球AI算力产业将走向何方? 在这个AI重新定义计算的时代,没有什么是一成不变的,只有创新是永恒的。
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com