首页 >> 小米手机

浪潮信息互联网公司加速布局人工智能ai服务器受追捧转换插座

时间:2022/12/20 10:33:22 编辑:

2018年,人工智能热度依然不减,可谓年度it关键词之一,随着将人工智能上升为国家战略,我国的人工智能行业便如火如荼地展开。互联网行业和传统的制造业将经历一场大的变局,为了在这场变局中生存,各大互联网公司纷纷在人工智能方面布局,抢滩ai时代的制高点。

bat三巨头有百度的自动驾驶,阿里的城市大脑,还有腾讯基于自己软件应用场景做的各种智能化尝试;新兴的人工智能巨头如科大讯飞的智能语音,今日头条的智能推荐等等,都在改变着人们的生活方式。而实现这一切的背后,离不开强大的ai服务器。

浪潮信息agx-2(nf5288m5)是目前全球唯一可在2u空间支持8颗nvlink2.0高速互联gpu加速计算的ai服务器,能满足ai云、深度学习模型训练和线上推理等各类ai应用场景对计算架构性能、功耗的不同需求。每u搭载4颗gpu的密度、960tflops的性能、ns级的延迟等强大性能的背后,必然对功耗、密度、稳定性带来极大的挑战,这背后又有哪些黑科技呢?

ai计算加速器agx-2

为了提升计算效率、满足多样化ai场景需求,agx-2变异构为同构,消除了异构通信带来降低计算效率的烦恼。为了更大幅度地提升服务器计算效率,满足ai应用对计算力的需求,agx-2在架构设计中将计算密度做到了极致。而为了满足客户对弹性架构平台的需求,agx-2创新地采用pci-e连接资源,实现更加灵活的拓扑。

浪潮信息ai服务器agx-2

极致效率、异构变同构:agx-2抛弃传统异构计算架构模式,在2u空间内支持部署8块nvlink或pci-e 接口的nvidia? tesla? p100 gpu,可以在不依赖cpu的前提下,实现机内点到点通讯,减少了异构通讯的次数;并在业界率先支持nvlink 2.0和最新发布的nvidia? tesla?系列gpu,可以实现gpu间高达300gb/s的互连带宽,并提供极低的延迟,让多块gpu并行的效率大幅提升超过60%。将gpu同构,把agx-2的并行计算效率尽可能推到极限。

极致密度、更高计算力:与浪潮信息支持2u4卡的nf5288m4对比测试,agx-2采用p100的linpack浮点运算性能达29.33tflops,是同样采用p100 nf5288m4的2.47倍;在ai深度学习模型训练上,当采用tensorflow框架和 googlenet模型,agx-2处理速度为每秒1165幅图片,是搭配4片tesla? m40的nf5288m4性能的2.49倍。在实现了性能和效率双提升的同时,机箱仍然保持了和上一代一样的2u高度,实现了最高的gpu卡部署密度。在超大规模ai训练集群或hpc集群引用时,可以帮助客户节省数据中心的基础设施资源,更有利于数据中心的空间分配。

极致灵活、弹性计算拓扑:agx-2采用pci-e线缆的方式连接cpu和gpu资源,可以灵活调整cpu的连接带宽和连接数量,在应对不同的ai应用时,更好的做到pci-e资源按需分配。灵活的计算架构可以让一颗或两颗cpu管理8颗gpu,也可以通过gpu扩展box的方式,实现最大16gpu的纵向扩展。而服务器提供的pci-e i/o,8个u.2插槽, 或多达4块100gbps infiniband网卡,都可以根据计算灵活调整拓扑。agx-2弹性的异构平台,足以支撑多样化的ai场景。

极致设计背后带来的极限挑战

agx-2通过优秀的设计,实现了性能、灵活性和密度的多维度增强,然而这背后带来的却是对互连、供电和散热设计的三大极限挑战。如何在一个系统中实现gpu卡的灵活配置,满足高达3000w的供电需求,并在有限的空间内解决散热,成为了开发这款产品的三大难题 。在此就给大家一一揭秘agx-2是如何做到的。

300gb/s聚合带宽的cube mesh拓扑

互连挑战:有别于业界异构服务器cpu和gpu紧耦合的互连方式,agx-2采用解耦式设计,不但提供灵活性,同时还支持高达300gb/s的nvidia? nvlink?gpu互连带宽。浪潮信息

结合刀片服务器的设计思路,把这些组件紧凑的布局到2u空间中,并基于8路服务器的设计经验,确保nvlink?的走线长度、信号都处在最佳状态,以保证gpu的性能发挥。

供电挑战:8块功耗高达300w的gpu,以及服务器内其他的计算、存储和i/o资源,整机的功耗需求达到3000w,供电如何走线成为最大的挑战。agx-2借鉴了浪潮信息在整机柜服务器的供电设计方式,对单服务器内部采用无线缆供电设计,减少了供电线缆对空间的占用以及对散热气流的影响。在保证供电能力的同时,对空间、散热的影响降到最低。

散热挑战:3000w的供电,意味着3000w的峰值发热量,6倍于传统的2u服务器,散热成为一个绕不过的难题。agx-2在设计之初,从布局、风道和气流多个方面统筹进行考虑。低发热量组件前置,高发热量组件后置,避免局部热点,让空气在服务器的内部均衡的升温,再通过高速风扇将热量快速带出服务器,最终agx-2可以和传统服务器一样工作在35℃的环温下。并且为了支持低pue数据中心,还可以配置气液混合散热,甚至可以支持45℃的高环温运行。

100%的计算密度提升、960tflops的计算力、200倍的单机ai训练性能,agx-2无愧是一款最高密度、最高性能的ai服务器,无论是在面向人工智能训练还是hpc应用时,都将为用户提供极致性能体验。和传统概念的高性能集群相比,gpu同构、灵活拓扑和超高密度的整体架构,让应用和硬件的结合,变得更为高效和紧密。

(免责声明:此文内容为本网站刊发或转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。)

编辑:heping

长沙单纯糠疹医院

合肥男性尿失禁医院

安徽色汗症医院

上海新医联门诊部动态

哈尔滨蓝痣医院

相关资讯