宝德昇腾AI服务器PR420KI G2创新大模型算力底座

2023-07-26 17:51   来源: 互联网

      随着ChatGPT的出圈爆火,AIGC技术已开启了快速发展模式,不少企业纷纷发力布局AI大模型领域,多个AI大模型如雨后春笋般涌现,呈现“百模齐放”之势。而AI大模型千千万,但是能走进千家万户、赋能千行百业才是硬道理。

      算力作为人工智能发展的引擎,更是AI大模型的重要驱动力。AI大模型的参数量和计算量庞大,要训练出优秀的AI模型并真正应用于各行各业,需要巨大的算力支持。因此,百模齐发之时,能为大模型训练提供强劲运算能力和高效安全的底座的AI算力成为各路必争的利器。

      作为中国AI服务器TOP3企业,宝德创新升级,重磅推出了自强®系列昇腾AI训练服务器PR420KI G2,助力大模型赋能千行百业。该服务器面向深度学习模型开发和AI训练服务场景,专为大模型训练而生,具有更高算力密度、超高能效与高速网络带宽等优势,提供丰富的算力资源,能加速处理运算,满足大模型训练的海量算力需求。


更高算力密度,高效加速AI应用

      宝德自强®训练服务器PR420KI G2基于鲲鹏+昇腾处理器打造,在4U空间内提供2.5PFLOPS FP16超强算力,最高提供0.65PFLOPS FP32业界领先算力,具有海量数据并行计算能力,可轻松应对大模型沉重的计算压力。同时搭载8颗超强算力的昇腾处理器,其内部集成了图像&视频预处理器,外部通信模块、硬件加速器、芯片管理核等模块,提供完整的SOC功能,能高效加速AI应用。


高速网络带宽,加速大模型技术升级落地

      AI大模型一方面需要强大的计算能力,另一方面也需要高速可靠的网络让数据及时流动。而模型参数量越大,对带宽的需求就越高。PR420KI G2提供高速网络带宽,延时低,可有效减少大模型训练的时间成本。它具有8*200G RoCE v2高速接口,8路NPU通过HCCS Full mesh互联模式,双向互联带宽可达392GB/s,全面提升大模型的训练效率。同时整机HBM缓存512G,带宽达1600GB/s,进一步释放 AI 潜能,助力大模型算力瓶颈突破,加速大模型技术的迭代升级和落地应用。


极致能效比,兼顾高算力低能耗

      碳中和背景下,大模型追求高算力的同时也要兼顾节能减排。PR420KI G2配置高效节能电源、动态冷却机制,提供2.5PFLOPS/5.2kW超高能效比,在保持其性能的同时,大大节省运营费用,降低训练成本;同时,还采用智能散热系统,根据热关键器件温度综合调节风扇转速,节能的同时降低了噪音并提高风扇的可靠性。

      此外,PR420KI G2还采用2+2 冗余电源设计,提供多种 RAID 保护级别,具备数据处理性能和保护数据功能,为服务器的运行安全提供更高的安全保障。它可广泛适用于大模型训练、智慧城市、智慧医疗、天文探索、石油勘探、高性能计算(HPC)等需要大算力的应用场景,为加速更多AI落地和应用提供澎湃动力。

      当前AI大模型正不断向纵深发展,在国家政策的影响下,高算力、高带宽、低能耗的AI算力基础设施将更受青睐。未来,宝德将继续充分发挥自身AI服务器领域的技术优势和市场经验,加速大模型与实体产业的深度融合,助推更多大模型场景落地和应用,促进千行百业数字变革,为我国人工智能产业的发展注入强劲的动力。


责任编辑:prsky
分享到:
0
【慎重声明】凡本站未注明来源为"中国财讯新闻网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!