3 月 19 日消息,当地时间周一,英伟达在美国加州圣何塞(San Jose)举办的全球开发者大会上,隆重发布了最新一代人工智能专用 GPU 芯片以及运行人工智能模型的软件,意图进一步巩固其作为人工智能领域首选供应商的地位。
英伟达推出的新一代人工智能 GPU 架构命名为 Blackwell,首款基于该架构的 GB200 芯片预计将在今年晚些时候推出。尽管当前市面上如 Hopper 架构的 H100 芯片等旧款产品依然供不应求,英伟达仍通过推出更高性能的新芯片来吸引客户,鼓励他们持续下单。
自 2022 年底,随着 OpenAI 推出聊天机器人 ChatGPT,掀起了一股人工智能热潮,英伟达股价随之飙升五倍,营业收入也增长了逾两倍。英伟达的高性能 GPU 对于训练和运行大型人工智能模型至关重要。像微软、Meta 这样的科技巨头,都斥资几十亿美元购买这种芯片。
英伟达首席执行官黄仁勋在大会上表示:“Hopper 架构固然出色,但我们追求的是更加强大的 GPU。”
英伟达股价在周一盘后交易中微跌超过1%。
为了让客户在面对日益增多的竞争产品时更倾向于选择英伟达芯片,公司还推出了一款名为 NIM 的付费软件,使得部署人工智能变得更加简单。
英伟达高管表示,公司正从单一芯片供应商转型为类似于微软或苹果那样的平台提供者,其他公司可以在其平台上开发软件。
黄仁勋坦言:“Blackwell 不仅仅是一款芯片,它代表的是一个平台。”
英伟达企业计算部门副总裁马努维尔·达斯(Manuvir Das)在接受采访时表示:“最畅销的商业产品仍是 GPU,软件则是为了帮助用户以不同的方式使用 GPU。”他补充道:“当然,我们依然在致力于产品的创新。但现在,我们真正实现了转变,已经发展出了自己的商业软件业务。”
英伟达新软件能让在所有英伟达 GPU 上运行程序变得更加简便,即便是对于那些老款 GPU,它们虽更适合于部署人工智能应用,而非开发,也能轻松应对。
达斯说:“如果您是开发者,手中有一个备受期待的模型,希望能让更多人采用,只需将其部署在 NIM 上。我们承诺将兼容所有英伟达 GPU,确保模型能触及广泛用户群。”
Hopper 架构的继任者 Blackwell
每隔两年,英伟达都会更新其 GPU 架构,从而实现性能的显著跃升。在过去一年中,众多发布的人工智能模型均在 2022 年宣布的 Hopper 架构基础上进行训练,此架构涵盖了包括 H100 在内的多款芯片。
据英伟达介绍,基于 Blackwell 架构的 GB200 芯片将为人工智能领域公司带来性能上巨大的飞跃,其人工智能计算能力可达每秒 20 千万亿次,远超过 H100 芯片的每秒 4 千万亿次。这一强大的计算力将使企业得以训练规模更大、复杂度更高的人工智能模型。
GB200 芯片还特别集成了英伟达的高性能 Transformer 推理引擎,该技术专为运行基于 Transformer 架构的人工智能设计,正是构成流行聊天机器人 ChatGPT 核心技术的关键部分。
Blackwell 架构的 GPU 芯片体积庞大,实际上是由两块独立制造的芯片集成于一块台积电代工的芯片上。英伟达同时推出了配套的 GB200 NVLink 2 服务器,内置 72 块 Blackwell 架构 GPU,以及其他用于人工智能模型训练的专业组件。
知名云服务提供商,包括亚马逊、谷歌、微软及甲骨文等,均将提供 GB200 芯片的云服务。每套 GB200 系统由两块基于 Blackwell 架构的 B200 GPU 和一块基于 ARM 架构的 Grace CPU 组成。英伟达透露,亚马逊网络服务(AWS)计划建立一个包含 2 万套 GB200 系统的超级计算集群。
英伟达表示,亚马逊的服务器集群能够部署达到 27 万亿参数的人工智能模型,规模远超目前已知最大的 GPT-4 模型,后者拥有 1.7 万亿个参数。许多人工智能研究人员认为,拥有更多参数和数据的超大模型能够展现出更为强大的能力。
虽然英伟达未公布 GB200 芯片及其系统的具体售价,但根据分析师估计,参照 Hopper 架构 H100 芯片的售价范围(每块约 2.5 万至 4 万美元),一整套 GB200 系统的成本可能高达 20 万美元。
英伟达的推理微服务
英伟达还宣布,在其企业软件订阅服务中新增了一款名为 NIM 的产品,即英伟达推理微服务(NVIDIA Inference Microservices)的缩写,旨在简化使用旧型号 GPU 进行人工智能推理和软件运行的过程,使企业能够继续利用现有的数亿块英伟达 GPU 资源。相较于训练新的人工智能模型,推理计算所需的计算资源更少,因此,企业可以通过 NIM 更加便捷地运行自己的人工智能模型,而不必依赖于 OpenAI 等公司提供的计算服务。
作为其战略的一部分,英伟达鼓励购买其服务器的客户订阅英伟达企业服务,并按每块 GPU 每年 4500 美元的标准收取许可费。此外,英伟达将与微软、Hugging Face 等领先的人工智能企业合作,确保它们开发的人工智能模型能够在所有兼容的英伟达芯片上顺畅运行。开发者可通过 NIM 服务,无需复杂配置,就能在自己的服务器或基于云的英伟达服务器上高效地运行模型。
“在原本调用 OpenAI 服务的代码中,仅需替换一行代码,即可将其连接至英伟达提供的 NIM 服务,”达斯解释说。
英伟达表示, NIM 软件不仅能在云服务器上运行,还能使配备英伟达 GPU 的笔记本电脑上顺畅运行人工智能应用,进一步扩展了 NIM 服务的应用场景。(辰辰)