今年是Nvidia时隔五年,首次将一年一度的GTC线下。这也是一个人工智能事件,此前的分析师认为,英伟达将“展示一些真实的东西”。将在其企业软件订阅中添加一个名为NIM的新产品。NIM让使用较旧的Nvidia GPU进行推理变得更容易,并允许公司继续使用已有的数亿个Nvidia GPU。该产品将使新的人工智能模型的初始训练推理需要更少的计算能力。该公司的策略是让购买Nvidia服务器的客户注册Nvidia企业版,每GPU每年收费4500美元。黄表示,该软件还将帮助在配备GPU的笔记本电脑上运行人工智能,而不是在云服务器上运行。
此外,NVIDIA CEO黄延森宣布推出下一代人工智能超级计算机,NVIDIA还发布了6G研究云平台,利用人工智能技术推进无线通信。据外媒报道,英伟达周一宣布推出用于运行人工智能模型的新一代人工智能芯片和软件。英特尔是在美国圣何塞举行的开发者大会上宣布这一消息的。目前,英特尔正寻求巩固其作为人工智能公司首选供应商的地位。新一代的人工智能图形处理器命名为Blackwell。第一个布莱克威尔芯片被称为GB200,并将在今年晚些时候出货。英伟达正在用更强大的芯片吸引客户,以刺激新的订单。不过,英伟达股价在周一盘后交易中下跌逾1%。该公司还推出了名为NIM的创收软件,该软件将简化人工智能的部署,在越来越多的竞争对手中,为客户提供了另一个坚持使用英伟达芯片的理由。英伟达的高管们表示,该公司正在从一家逐利的芯片供应商转型为一家更像微软或苹果的平台提供商,其他公司可以在此平台上开发软件。
英伟达的新软件将使程序更容易在任何英伟达GPU上运行,即使是更适合部署而不是构建AI的老款GPU。“如果你是一个开发人员,你有一个有趣的模型,你希望人们采用它,如果你把它放到NIM我们会确保它在我们所有的GPU上运行,这样你就可以接触到很多人,英伟达每两年更新一次GPU架构,以实现性能的飞跃。过去一年发布的许多人工智能模型都是在该公司的Hopper架构上进行培训的。Blackwell-powered GPU包含一个用于可靠性、可用性和可维护性的专用引擎。此外,Blackwell架构还增加了芯片级功能,利用基于人工智能的预防性维护来诊断和预测可靠性问题。这可最大限度地延长系统正常运行时间,并提高大规模人工智能部署的弹性,使其能够连续运行数周甚至数月,并降低运营成本。安全的人工智能:先进的机密计算功能可在不影响性能的情况下保护人工智能模型和客户数据,并支持新的原生接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。解压缩引擎:专用的解压缩引擎支持最新的格式,加快数据库查询速度,为数据分析和数据科学提供最高的性能。未来几年,企业每年花费数百亿美元的数据处理将越来越多地被GPU加速。
Blackwell GPU体积庞大,将两个单独制造的芯片组合成一台积电制造的单一芯片。它还将作为一个完整的服务器提供,称为GB200 NVLink 2,它结合了72个Blackwell GPU和其他Nvidia部件,旨在训练人工智能模型。亚马逊、谷歌、微软和甲骨文将通过云服务提供对GB200的访问。GB200将两个B200 Blackwell GPU与一个基于ARM的Grace CPU配对。英伟达表示,亚马逊网络服务公司将建立一个包含20000 GB200芯片的服务器集群。英伟达没有提供有关新GB200的成本或它使用的系统的信息。分析师估计,NVIDIA公司基于Hopper的H 100芯片的成本在25,000到40,000美元之间,整个系统的成本高达200,000美元。
NVIDIA还宣布,将在其NVIDIA企业软件订阅中增加一款名为NIM(NVIDIA Inference Microservices)的新产品。NIM让使用较旧的Nvidia GPU进行推理(或运行AI软件的过程)变得更容易,并允许公司继续使用已有的数亿Nvidia GPU。推理比新人工智能模型的初始训练需要更少的计算能力。对于那些希望运行自己的人工智能模型而不是从OpenAI等公司购买人工智能结果作为服务的企业来说,NIM无疑是他们的得力助手。英伟达的策略是吸引购买英伟达服务器的客户注册英伟达企业版,每GPU每年的许可费为4500美元。英伟达将与微软或Hugging Face等人工智能公司合作,以确保它们的人工智能模型可以在所有兼容的英伟达芯片上运行。然后,开发人员可以使用NIM在自己的服务器或基于云的NVIDIA服务器上高效地运行模型,而不需要繁琐的配置过程。在我调用OpenAI的原始代码中,我只替换了一行代码,将其指向我从NVIDIA获得的NIM。该软件还将帮助人工智能在配备GPU的笔记本电脑上运行,而不是局限于云服务器。