新闻 图说CPC赛事通知新网直通车 新网会客厅

初赛晋级:第二届国产CPU并行应用挑战赛晋级决赛16强名单

浏览次数:863 发布时间:2018-08-28-07:08:00

8月26日,由中国计算机学会主办,中国计算机学会无锡分部、国家超级计算无锡中心、国家超级计算济南中心、北京并行科技股份有限公司共同承办的第二届国产CPU并行应用挑战赛(简称CPC2018)初赛评审会在国家超级计算济南中心圆满举办。

出席本次评审会的有大赛指导委员会共同主席江南计算技术研究所漆锋滨研究员,评审委员会主席中国科学院计算技术研究所张云泉研究员、评审委员会副主席国家并行计算机工程技术研究中心陈德训研究员、组织委员会副主席国家超级计算济南中心潘景山副主任,评审委员清华大学付昊桓研究员、北京大学陈一峯教授、中国科学院计算技术研究所冯晓兵研究员、西安电子科技大学张玉教授、华中科技大学石宣化教授、华南理工大学陈虎教授、国家并行计算机工程技术研究中心刘鑫研究员、国家海洋局海洋一所宋振亚研究员、澎峰科技总经理张先轶博士、北京并行科技股份有限公司CTO吕昇亮先生、国家超级计算无锡中心孟虹松工程师等行业专家,由衷的对以上专家领导表示诚挚感谢。

评审现场

漆锋滨研究员

大赛共同主席漆锋滨研究员在评审会致辞中提到:“本届大赛共收到来自全国各地63家参赛单位共168支队伍报名参赛,相对去年提升了15%,这说明越来越多高校和科研单位正加入了解和使用国产CPU的队伍中来,这对加快我国国产CPU生态的建立和实现核心技术的自主权具有重大意义。在本届参赛队伍当中,惊喜的发现更多的一流高校组队加入大赛角逐,一些国际大赛的获奖优胜队也加入了比赛。非常欣慰的看到大赛不仅在国内,在国际上也有了一定影响力。”

张云泉研究员

大赛评审委员会主席张云泉研究员在致辞中提到:“这是我第二次参加大赛的初赛评审会,惊喜的看到大家的参赛水平越来越高,也说明大赛对培养国产CPU应用人才的培养起到了较为明显的效果,大家通过互相交流学习对国产CPU的基础知识、使用环境、编译系统、使用方法等知识技能有了较大提升,相信本届大赛的作品会给大家带来更多惊喜!”

评审现场,经过评审专家严格的作品评审与激烈的讨论,最终有16支队伍脱颖而出,成功晋级决赛,名单公布如下(按照参赛编号排名)

CPC028 成都信息工程大学 耦合队

CPC043 中国地质大学(武汉)地大之光超算2

CPC050 中国地质大学(武汉)地大1

CPC051 清华大学 Victorization

CPC055 清华大学 cjoier

CPC064 山东科技大学 first_blood

CPC071 山东大学 多喝热水多看文档队

CPC091 中国科学技术大学 鲲鹏队

CPC092 北京理工大学 BIT Faster

CPC107 成都信息工程大学 Quantum

CPC124 华东师范大学 ECNUCC

CPC125 中科院计算机网络信息中心 Hello World

CPC132 清华大学 四个程序员队

CPC145 西北工业大学 高性能计算中心队

CPC148 中山大学 香港中文大学 喵队

CPC152 中山大学 SYSU_ASC


专家点评

本次CPC初赛赛题采用了格子玻尔兹曼方法简称LBMSWLBM是一套基于LBM的计算流体求解程序,LBM是一种以速度分布函数为基本求解变量的介观数值模拟方法,通过碰撞迁移步骤来模拟流体的演化过程。SWLBM使用的LBM模型采用的是D3Q19模型。
参赛队伍对申威26010芯片进行了细致的研究,充分利用异构体系结构,将计算数据加载到从核阵列上进行了高效的加速计算,通过设计和实现与SW26010处理器架构紧密结合的优化方法,发挥了申威CPU的超强计算能力。本次参赛队伍水平很高,他们提交的参赛作品技术亮点有:


①使用多种平台工具对程序进行了详尽的性能分析,快速找到程序性能瓶颈并实施相应的优化设计和实现高效的MPI并行通信算法,有效提高了数据交换的效率,内外格点划分实现计算通信重叠;

②使用AthreadOpenACC等方式重构原代码,将核心计算部分加载到从核阵列,实现MPI+众核加速的多级并行方案;

③设计合理的从核数据划分方式,使从核阵列负载均衡并降低访存开销;设计异步DMA传输方案,实现计算和访存时间相互隐藏;

④使用神威平台提供的SIMD接口,提高并行计算效率;

⑤优化程序核心计算算法,使用除法等价替换等方式提高计算效率。


专家评审团合影

初赛赛题简述

SWLBM是一套基于格子玻尔兹曼方法(LatticeBoltzmann Method)计算流体求解程序。采用LBM模型为最常用的LBGKD3Q19模型,速度空间被分为19个方向分量。

流场演化求解过程分碰撞迁移两个过程。

碰撞步方程:主要完成计算格点内部的信息演化。

迁移步方程:主要完成格点上信息与相邻节点信息的交互。

算例:1000*500*500网格的圆柱绕流模拟

•MPI划分:MPI采用xy平面二维划分(笛卡尔拓扑)方式

热点函数:迁移函数Stream , 碰撞函数Collide, 边界通信函数bounce*

祝贺以上16支队伍成功晋级决赛!组委会后续将发布决赛题目,请已经进入决赛的队伍再接再厉,挑战自我,取得更加优异的赛绩!对于决赛相关问题,请联系CPC组委会官方邮箱:cpc@paratera.com


版权所有 国产CPU并行应用挑战赛