史上最强芯片来了英伟达B200破摩尔定
“切勿错过AI的决定性时刻!” 当黄仁勋在英伟达GTC上提出这个观点时,可能很多和我一样的普通人并没有把它放在心上,毕竟当时的AI应用少之又少,懂得在家里部署本地AI绘画的只有极少数数码爱好者,而相对大众的大语言模型给人们带来的也只有一时的新鲜感。 当然,现在看来,那个时间点可能确实是AI的决定性时刻。 今天凌晨,被誉为AI风向标的英伟达GTC4在加州圣何塞SAP中心正式举行,万众瞩目的英伟达创始人兼执行长黄仁勋登台发表主题演讲《见证AI的变革时刻》。老黄诚不欺我,我们确实见证了一场AI的变革时刻。 (图源:techovedas) 在这场两个小时的演讲中,黄仁勋公布了该公司迄今为止最强的AI加速卡——BlackwellGB超级芯片系统,预先配置好整套系统的完整版GB服务器,以及英伟达在AI软件(NIM微服务)、Omiverse云(模拟地球)、具身智能(机器人)等技术方面的最新进展。 老黄带来的这一波AI芯片基础设施到底有多强大?将给AI大模型产业带来什么改变?一起来看。 BlackwellGB:最强AI加速卡在人工智能领域,计算速度是至关重要的。为了在最短的时间里,完成大量同质化数据的并行运算,就需要给GPU投喂大量的数据,训练出一个复杂的神经网络模型,可以说GPU就是AI大模型训练平台的基石,甚至是决定性的算力底座。 因此,本次演讲的主角自然是英伟达的老本行「BlackwellB」GPU芯片。 (图源:英伟达,现场对比Blackwell架构和GraceHopper架构的GPU) 作为NVIDIABlackwell架构首款新产品,BlackwellB基于台积电的4nm工艺打造,采用了将两个die连接成一个GPU的双芯设计,因此每个GPU芯片上拥有亿个晶体管。 比起上一代GHGPU上的亿个晶体管,BlackwellBGPU算是一次相当大的突破,甚至还契合了摩尔定律,即「集成电路上可容纳的晶体管数目大约每隔18个月便会增加一倍」。 (图源:英伟达) 黄仁勋表示,在这样的架构升级下,BlackwellB的AI性能可达20PFLOPS,而H仅为4PFLOPS,理论上可以为LLM(大语言模型)的推理提升0倍的工作效率,额外的处理能力将使人工智能公司能够训练更大、更复杂的模型。 更离谱的是,在B的基础上,老黄还推出了完全体AI芯片组——BlackwellGB,由两个BlackwellBGPU和一个基于Arm的GraceCPU组成。 在参数为亿的GPT-LLM基准测试中,英伟达称GB的性能是H的7倍,而训练速度是H的4倍。 (图源:英伟达) 这AI性能,已经形成代差水平了。 当然,如果GB还不能满足你的需求的话,英伟达还准备了一系列由BlackwellGB组成的服务器阵列,最高可以实现由72片BGPU组成的GBNVL72系统,FP8精度的训练算力高达PFlops,达到了可以和前代DGXSuperPod超级计算机集群的水平。 (图源:英伟达) 更重要的是,与H相比,它可将成本和能耗降低到原来的25分之一。 在今年年初的时候,美国知名杂志《纽约客》报道,ChatGPT每日耗电量或超过50万千瓦时,相当于美国家庭平均用电量的1.7万倍。正如马斯克所说,在可以预见的未来,电能短缺将成为制约AI发展的主要因素。 (图源: |
转载请注明地址:http://www.shenghesaia.com/shszf/12693.html
- 上一篇文章: 周四足球赛事勒沃库森VS格拉斯哥流浪者
- 下一篇文章: 没有了