财联社3月19日讯(编辑 史正丞)北京时间周二清晨,英伟达GTC 2024会议中最重要的一项日程——创始人兼CEO黄仁勋的主题演讲刚刚结束。如同市场预期的那样,全球资本市场刚刚见到了新的算力芯片/服务器,以及一堆AI软件层面的应用。
与过往一样,截至发稿,从黄仁勋开始讲话起,英伟达已经洋洋洒洒发布了40篇新闻稿,本文将着重概述一些今天早晨的重点进展,供投资者参考。
更大的GPU——Blackwell架构如期登场
虽然事前全市场都知道今天会有一款新旗舰算力GPU登场,但黄仁勋在演讲中并没有把名字讲清楚——仅表示推出了一款更大、更强的Blackwell架构GPU,一度引发媒体的混乱。但从官网的数据来看,今天老黄手里拿的应该是B200芯片,官网上也列出Blackwell架构存在B100芯片。英伟达并没有披露售价,仅表示将在年内向合作伙伴发货。
英伟达披露,新的B200芯片拥有2080亿个晶体管,采用台积电定制的4NP工艺制造。值得一提的是,这次的芯片将两个die连接成一个统一的GPU,die之间的通信速度可以达到10TB/秒。不出意外,这款芯片使用是192GB的HBM3E内存。
而GB200 Grace Blackwell超级芯片,是由2个B200芯片(4个die)和Grace CPU组合而来。相较于H100,大语言模型性能提升30倍,同时能耗只有25分之一。
老黄在演讲中举例称,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。但如果使用GB200 Blackwell GPU,只需要2000张,同样跑90天只消耗四分之一的电力。不只是训练,生成Token的成本也会随之显著降低。
配合这一套新芯片,英伟达还推出了第五代新NVLink芯片,以及GB200 NVL72服务器、X800系列网络交换机、下一代人工智能超级计算机NVIDIA DGX SuperPOD等一系列产品。
开发软件新方式:NIM微服务
讲完硬件更新后,黄仁勋也将剩下的时间投入软件生态。除了地球气候数字孪生、医药开发AI外,英伟达也在AI Enterprise 5.0中推出了一系列“微服务”,包括简化企业将AI模型部署到生产环境中的NIM。
黄仁勋说到:“以后公司将不再需要编写软件,而是组装AI模型,给它们提出任务,还有工作产品的示例,审查计划和中间结果。”
英伟达介绍称,NIM微服务通过打包算法、系统和运行优化,并添加行业标准的API,简化了AI模型部署过程。这使得开发人员可以将NIM集成到现有的应用程序和基础设施中,而无需进行大量定制或专业知识。