黄仁勋强推「最划算」生成式AI处理器, 预言未来「人人都是程序员」

黄仁勋强推「最划算」生成式AI处理器,  预言未来「人人都是程序员」

“生成式AI的意义是什么?它让计算机语言走向民主,未来几乎所有的事物都会有一个大语言模型,人类语言将成为新的编程语言,人人都可以是程序员。”

在昨晚英伟达举行的计算机图形年会SIGGRAPH上,黄仁勋进一步阐释了“生成式AI是AI的iPhone时刻”的看法,并甩出一些系列重磅产品持续为生成式AI提供支持。

包括发布为加速计算和生成式AI而生的处理器GH200 Grace Hopper超级芯片;宣布与初创企业Hugging Face一起为数百万开发者提供生成式AI超级计算,帮助构建大模型等高级AI应用;对Omniverse进行升级,加入对生成式AI和OpenUSD的支持以实现工业数字化等。

在努力推动生成式AI成为新一代计算平台的路上,英伟达每一次都很用力。

配备最快内存,GH200降低大模型推理成本

“买得越多,省得越多”,黄教主在SIGGRAPH上多次重复这一销售金句,向全世界推销英伟达最新打造的新一代Grace Hopper超级芯片NVIDIA GH200,并称其为生成式AI而生。

根据黄仁勋的介绍,Grace Hopper超级芯片NVIDIA GH200由72核Grace CPU和4PFLOPS Hopper GPU组成,并配备全球最快的内存HBM3e,内存容量达到141GB,提供每秒5TB的带宽,每个GPU的容量能够达到NVIDIA H100 GPU的1.7倍,带宽达到H100的1.55倍。

与当前一代产品相比,双配置的内存容量增加了3.5倍,带宽增加了3倍,包括一台具144个Arm Neoverse核心、8PFLOPS计算性能的GPU、282GB HBM3e内存技术的单服务器,如果将连接到CPU的LPDDR内存包括在内,那么总共集成了1.2TB超快内存。

GH200是组建面向生成式AI服务器的基本单元,每个GH200芯片配备NVIDIA BlueField-3和ConnectX-7网卡、8通道4.6TB高速内存,组成一个Grace Hopper机架,16个机架组成一个NVIDIA DGX GH200,并通过NVLink Switch系统连成集群。

黄仁勋强推「最划算」生成式AI处理器,  预言未来「人人都是程序员」

由256块GH200组成的NVIDIA DGX GH200 SuperPod,拥有高达1EFLOPS的算力和144TB高速内存。

多个DGX SuperPod高速互联,即可组建成面向生成式AI的Grace HopperAI超级计算机,与其他数据中心比起来,购买Grace Hopper AI超级计算机,客户可以用更低的成本获得同等算力。

以1亿美元能够买到的数据中心为例,在过去1亿美元能够买8800块 x86 CPU组成的数据中心,功耗是5MW,但如今1亿美元能够买2500块GH200组成的Iso-Troughput数据中心,功耗是3MW,且AI推理能力能够达到过去CPU系统的12倍,能效达20倍。

如果要实现过去1亿美元能够买到的x86 CPU数据中心所实现的AI推理性能,Iso-Troughput数据中心只需要用到210块GH200,功耗为0.26MW,花费800万美元即可。

黄仁勋表示,领先的系统制造商预计将在2024年第二季度交付基于该平台的系统。

服务百万开发者,企业握住属于自己的AI命脉

除了推出新一代处理器,英伟达还宣布了与Hugging Face建立合作伙伴关系,为数百万开发者提供生成式AI超级计算服务,帮助其构建大语言模型(LLM)和其他高级AI应用。

黄仁勋强推「最划算」生成式AI处理器,  预言未来「人人都是程序员」

Hugging Face 平台让开发者能够利用开源资源构建、训练和部署最先进的 AI 模型。目前有超过 15,000 家企业机构正在使用 Hugging Face,社区共享了超过 25 万个模型和 5 万个数据集。

基于此次合作,开发者能够使用Hugging Face平台内的NVIDIA DGX Cloud AI超级计算为高级AI模型进行训练及调优,借助为智能聊天机器人、搜索、摘要等特定行业应用的业务数据定制的大语言模型(LLM),推动生成式 AI 在各个行业中的应用。

NVIDIA 创始人兼首席执行官黄仁勋表示:“研究人员和开发者是正在改变每个行业的生成式 AI 的核心力量。Hugging Face 与 NVIDIA 正在将全球最大的 AI 社区与 NVIDIA 在全球领先云环境中的 AI 计算平台相连接。通过双方的合作,Hugging Face 社区用户只需要点击一下鼠标,就可以使用 NVIDIA AI 计算。”

作为合作的一部分,Hugging Face 将提供一项名为“训练集群即服务(Training Cluster as a Service)”的新服务,用以简化企业创建新的自定义生成式 AI 模型的过程。

该服务由 NVIDIA DGX Cloud 提供支持,每个 DGX Cloud 实例均配备 8 颗 NVIDIA H100 或 A100 80GB Tensor Core GPU,每个节点的 GPU 总内存为 640GB,附加英伟达专家支持,且将在未来几个月内推出。

Omniverse升级,实现更复杂的3D模拟

英伟达同时也在Omniverse方面做出重要更新,让开发者能够通过OpenUSD,利用生成式AI来加强自身工具,并让企业能够构建更大、更复杂的世界级模拟,以此作为其工业应用的数据测试场。

黄仁勋强推「最划算」生成式AI处理器,  预言未来「人人都是程序员」

OpenUSD起源于皮克斯动画工作室,原本是一项高性能3D场景描述技术,能够为各种数据和工作流带来了强大的可操作性。英伟达、苹果、Adobe 和 Autodesk在近期联合成立OpenUSD联盟以统一OpenUSD规范,用以推动构建虚拟世界。

此次大会上,英伟达发布了四款全新的Omniverse Cloud API,帮助开发者更加无缝地实施和部署OpenUSD流程与应用。

面向开发人员的大型语言模型 (LLM) copilot工具ChatUSD,可以回答USD知识问题或生成 Python-USD 代码脚本;

RunUSD将OpenUSD文件转换为完全路径跟踪渲染的图像,并使用Omniverse Cloud生成渲染;

DeepSearch可在海量无标记资产数据库中进行快速语义搜索;

USD-GDN Publisher可以助力企业和软件制造商发布基于OpenUSD 的高保真体验,并实时传输到网络浏览器和移动设备。

面对工业应用对3D框架提出的不同要求,英伟达正在开发NVIDIA Omniverse(用于开发应用程序的OpenUSD原生软件平台),以及地理空间数据模型、度量组件、SimReady、OpenUSD 规范等,以支持高度复杂的工业与感知AI工作负载。

目前,可以同NVIDIA OpenUSD开发者计划抢先体验 OpenUSD 服务、资源和工具。

当然,英伟达为推动生成式AI做出的努力远不止如此,其中还包括在此次SIGGRAPH上发布的三款专业级桌面显卡RTX 5000、RTX 4500和RTX 4000,为专业人士提供最新的AI、图形和实时渲染技术,以及发布NVIDIA OVX服务器,用于帮助加速计算密集型应用,包括AI训练与推理、3D 设计与可视化、视频处理以及工业数字化等……

“人人都是程序员”的时代,已近在眼前。

本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!

(0)
AIIAW的头像AIIAW本站编辑
上一篇 2023-11-29 09:10
下一篇 2023-12-01 09:03

相关推荐