今年6月,AMD在美国旧金山公布了新一代AI/HPC加速器Instinct MI300系列,包括全球首款APU加速器MI300A和新一代GPU加速器MI300X。
当时AMD只公布了一些技术细节,并未提及CPU/GPU核心数、性能/功耗/能效等指标,也缺乏足够的应用案例。
现在,魔术师终于揭开了他所有的秘密。
北京时间12月7日凌晨,在美国加州圣何塞举行的AMD Advancing AI大会上,AMD正式公布了Instinct MI300系列加速器的详细规格和性能以及众多应用部署案例,将AI人工智能和HPC高性能计算提升到了一个新的高度。
AI人工智能的概念诞生至今已近70年。经过长期的演变,已经渗透到人们工作生活的各个角落,但很多时候感知并没有那么强烈。更多的时候,人们是通过一些节点时间来感受AI的力量。
早期就像IBM的深蓝超级计算机打败了国际象棋大师卡斯帕罗夫。最近就像AlphaGo和李世石、柯洁的围棋比赛。当然,最近最火的还是大语言模型和ChatGPT引发的生成式人工智能浪潮。
坦率地说,大语言模型目前看似过热,但从技术和前景来看,AI绝对是未来。无论采取什么情况,都是大势所趋,市场巨大,尤其是对计算能力的需求空。
一年前,AMD内部预计2023年全球数据中心AI加速器市场规模将达到300亿美元左右,未来年复合增长率将超过50%,到2027年价值将超过1500亿美元,不可限量。
现在看来这个数据太保守了。AMD将数据中心AI加速器的市场规模分别提升至2023年和2027年的400亿美元和4500亿美元,年复合增长率超过70%。
作为解决方案最完整的厂商,AMD可以从各个角度满足AI,尤其是生产AI对超强计算能力和广泛应用的需求:
CPU有世界领先的EPYC处理器,GPU有growing Instinct加速器,网络有Alveo、Pensando等技术,软件有ROCm开发平台,从而形成一个有机完整的解决方案。
AMD早期的计算加速器技术都来自于与游戏显卡相同的RDNA架构,明显缺乏针对性,于是诞生了一个专门针对计算的CDNA架构。
第一代产品Instinct MI100系列是AMD第一款可以加速FP32/FP64 HPC负载的专用GPU,而第二代产品Instinct MI200系列则迅速进化,在很多超级计算系统中占据了一席之地。
第三代Instinct MI300系列基于CDNA3架构,分为数据中心APU和专用GPU两条路线,重点提升统一内存、AI性能和节点网络的性能,加上先进的封装和更高的能效,满足生成式人工智能的强劲需求。
标签: AMD AMD Instinct Instinct MI300X Instinct MI300A 加速器 人工智能