异构计算:Exascale时代的新模式

时间:2011-11-17   来源:IT168   网友评论:0   人气: 356 作者:

全球高性能计算(HPC)市场进入千万亿次级时代已经有三年多了 (2008年6月至今),在这个十年结束之前, 有望大踏步迈进百亿亿次级时代。这种趋势是全球性的。IDC预计,由于百亿亿次级计算将极大地推动科学进步,增加各国的工业和经济竞争力,改善人们的生活品质,因此美国、欧盟、日本、中国、俄罗斯将在该领域展开激烈竞争,以便享受这种技术带来的巨大实惠。

  但是很多高性能计算专家也指出,只有在现有技术和手段的基础上进行革命性的开拓,我们才能从容应对一系列巨大的挑战,从而在这个有限的时间框架内实现合理的百亿亿次级性能。这些挑战包括但不限于以下内容

  系统成本(每秒浮点运算次数/美元)。二十年前,全球领先的高性能计算机构花了两千五百万至三千万美元,用于购置当时最强大的超级计算机。如今购买千万亿次级超级计算机的费用通常在一亿美元以上。早期千万亿次级系统的单台售价在5亿至10亿美元之间。这种成本的上升是难以维持的。人们欢迎任何可增加每秒浮点运算次数/美元比值的技术。

  应用性能 (时间/解决方案)。随着高性能计算用户日益寻求为自己的应用寻求更新、更大的超级计算机系统,这种长期挑战也会随之增大。由于时钟频率难以继续增加,未来的性能提升潜力几乎都来自于日益增加的并行性,这进而导致了对百亿亿次级计算的巨大并行性需求。1GHz主频的机器每个时钟周期将需要执行十亿次独立运算。随着时间的推移,人们有望用这种级别的系统解决一些重大科学难题。此外,一些缺乏必要的单次运行并发性的其他问题就可以利用百亿亿次级计算系统来进行整体运算。比如,在解析每次运行操作时,汽车设计工程师们已经显著增加了参数运行的数量,这会发生于设计周期的分配阶段。

  空间和计算密度需求 (每秒浮点运算次数/平方英尺)。一项全球性的IDC研究表明,绝大多数高性能计算机构都极大地受限于数据中心的占地面积。其中三分之二的机构正在计划扩建或修建新的高性能计算数据中心。其中一半的机构已规划,或已开始将高性能计算资源分布到多个地点。

  计算和数据移动的能源成本 (每秒浮点运算次数/瓦,字节/瓦)。最后但同样很重要的是,功耗已成为一个显著的设计约束,并在总拥有成本中占有巨大的份额。随着电压的增长速度显著下降,当我们按照摩尔定律增加晶体管总数时,能耗不再是一个一成不变的制约因素,这使得如今的处理器受限于能耗,当每一代新的IC芯片面世时,情况也日益如此。

  这个时代的计算性能主要取决于能源效率,因此系统设计方面的主要挑战就是在不过度降低性能的前提下让处理器和数据移动变得更加节能。高性能计算系统领域的巨大进步对能源效率提出了更高的要求。如今,规模最大的高性能计算数据中心所消耗的电能和一个小城市消耗的电能相当,多个千万亿次级和百亿亿次级数据中心所消耗的电能注定还要更多。尽管能源价格相对于2008年的高位水平已回落了不少,但是相比于历史水平它仍然显著增加了很多。这场“完美风暴”所暴露出来的另一个问题是,人们日益关注碳排放和全球气候变化,而高性能计算数据中心对能耗和冷却的要求却与日俱增。最终,一些规模最大的高性能计算中心会担心当地的电力公司未来可能不会全力满足其需求。其中有一家打算修建一个能耗为250兆瓦的数据中心,不过它恐怕无法使用电网,而必须要自行修建一个小型核反应堆。

  异构计算模式

  过去十年间,利用x86架构处理器的经济性优势的机群成为高性能计算系统的主流机型,全球高性能计算服务器市场的规模从2000年初的50亿美元倍增至2010年的95亿美元。主导模式已经变为通过部署包含更多标准x86中央处理器内核的规模更大的机群来达到更高的峰值性能。

  但是从设计角度讲,x86处理器根本无法良好地处理所有的高性能计算应用,并且散热和功耗在数年前就已经制约了x86单线程的性能。人们日益认识到,虽然x86处理器路线图展现了巨大的进步潜力,但是单纯依赖x86处理器的模式无法有效地应对这十年中与实现百亿亿次级计算相关的挑战。


 

文章评论