英特尔平衡HPC多样化需求

时间:2011-12-25   来源:   网友评论:0   人气: 210 作者:

至强满足多样化需求

作为我国最早开展HPC研究的单位之一,清华大学早在2005年就开始自建HPC平台,如今,该校HPC平台二期工程也于今年4月正式投入使用。据清华大学副教授张武生介绍,清华大学HPC平台具有一百万亿次浮点计算能力,共使用740台基于英特尔至强5600的刀片服务器,总CPU核数达8880个,存储容量1PB,通过22个IO节点与集群相连。

“由于多个院系共享一个HPC平台,上面跑的HPC应用种类繁多,各个科研用户对HPC计算环境的需求也不一样,可以说是‘众口难调’。因此,我们这种高校计算中心普遍面临的问题就是如何解决不同用户作业的个性化控制难题,如何在兼顾公平的同时,服务好重点应用。”张武生说。

客户所面临的难题也是英特尔倡导去寻求“平衡计算”的初衷。英特尔(中国)服务器平台产品经理张振宇表示,“Pegaflop和LinPack只是衡量高性能计算系统的一个方面,我们更多地需要关注到用户的多样化需求。HPC客户往往面临着许多挑战,比如在构建一套系统时,如何满足性能成本比、性能能耗比、性能空间比等。这需要根据应用的实际特征进行分析。不同的应用对于主频、内存、带宽,或者是网络时延的需求不同,这决定了HPC发展的多样性。”

正是基于HPC用户的不同需求,英特尔也提出了全面的HPC解决方案,包括目前被客户广为应用的至强5600系列;针对高度并行的应用所推出的MIC架构;针对大内存需求的应用和Shared Memory编程模式,以及推出了EX平台和基于Sandy Bridge的 EP、E5系列四路平台。

众核开启低耗未来

从应用的角度来看计算、内存、能耗、成本、资源等五大因素,是当今高性能计算面对的主要性能挑战。张武生认为,未来的高性能计算系统随着计算性能的攀升,会带来不可避免的高能耗。而要避免CPU堆叠带来的过高耗能,只有采用协处理加速的方式。目前的GPU+CPU解决方案存在的弊病在于编程困难,对于高性能计算来说,需要重新编写很多代码。

其实,英特尔也早已发现,未来的高性能计算系统已经不可能纯粹靠CPU来堆,过高的功耗是用户难以承受的——最新TOP500第一名的日本K超算系统功耗高达10MW(每小时10万度电)。而英特尔早在ISC2010上宣布的MIC众核计算架构,则可以大幅度地减少超级计算机在达到相同性能情况下的能耗。对于其他没有需求要用这么多计算能力的HPC用户,在逐步开始使用MIC架构加速产品的过程中,可以面向未来尽早地减少自身计算集群的功耗。

最为重要的是,针对MIC的并行程序优化非常简单,只需要在原有至强并行加速代码之前加一句MIC的调用语句即可。而英特尔针对多核与众核的Parallel Studio系列并行优化编程套件,也可以帮助用户将自身的程序有针对性地优化。在张武生看来,GPU需要用新的架构来编程,对于自主研发的软件难度也很大,需要有专门的队伍,而MIC兼容传统的CPU编程模式,软件移植与优化更容易。另外,由于MIC完全采用了x86内核设计,未来清华大学HPC平台的迁移就会变得非常容易。

如今,还有不少学校或科研机构正在尝试用云计算的方式提供HPC服务,去年成都建成了国内第一家商用的高性能计算云中心,北京工业大学的“科教云”和北京计算中心的“工业云”也均属于“HPC云”。而英特尔也在努力为云计算的成熟营造技术基础。例如,英特尔一直研究硬件辅助虚拟化技术。“我们希望将Hypervisor(虚拟机管理程序)变得越来越薄,甚至完全消失掉,从而最大程度地减轻虚拟机的开销。” 张振宇说

文章评论