再次霸榜“AI界奥运会”MLPerf™,浪潮的AI硬实力如何?(4)
发表于2022-09-19 20:28:44

作者|小葳

出品|智能进化论 公众号:AImatters

9月9日,全球权威AI基准评测MLPerf™V2.1推理最新评测成绩公布,浪潮交出了一份亮眼的成绩单:获得固定赛道超半数任务冠军。

在最受关注的固定赛道全部30项任务中,浪潮AI服务器获得19项最高成绩,其中在数据中心16项任务中斩获12项冠军,边缘14项任务中获得7项冠军,同时刷新了11项性能记录,并将BERT、3D-UNet等重要任务的性能提升约100%。

在AI业界,MLPerf™基准评测的含金量有多少?提起浪潮,很多人的印象还停留在老牌硬件厂商的层面。在人工智能时代,浪潮的AI实力又如何呢?

1 顶尖大厂同台竞技的“AI界奥运会”

提到性能标准,很多人都不陌生。比如手机的性能可以从CPU、内存等核心配置中判断,超算(HPC)的性能以PFlops(每秒浮点运算次数)来衡量,数值越大性能越强。

那么,AI性能有没有一套权威客观的评测标准呢?尤其是当企业采购AI产品或服务时,怎样判别产品的技术实力?

AI性能的衡量逻辑不是单一维度,其表现受到芯片等硬件、技术架构、算法、场景等多重因素影响。以场景为例,自然语言处理和计算机视觉对性能的要求千差万别,好比我们无法比较举重冠军和短跑冠军哪个更强一样。因此, AI性能评测必须按场景,分赛道。

MLPerf™基准评测正是为客观衡量AI性能而生,它由图灵奖得主大卫·帕特森(David Patterson)联合谷歌、斯坦福大学、哈佛大学等共同成立,是国际上最权威、最有影响力的基准测试之一,被誉为“AI界奥运会”。

MLPerf™还是一个更新频率很高的榜单。MLPerf™的组织方非盈利性机器学习开放组织MLCommons每年组织2次MLPerf™AI训练性能测试和2次MLPerf™AI推理性能测试,就是为了快速跟进AI技术的飞速发展。

MLPerf™竞赛内容分为固定任务(Closed)和开放优化(Open)两大类。固定任务中,参赛各方必须使用相同模型和优化器完成任务,相当于各厂商要完成同一个命题作文。因此固定任务也是竞争最激烈的赛道。

投稿:99it.com.cn
Copyright © 2002-2022 99科技网