扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在本页阅读全文(共2页)
3. 麻省理工的插头式电脑集群
对于传统的集群或超级计算机来说,其设计目的是要一次运行众多的应用或“任务”,因此需要有速度非常快的共享内存、高速网络以及高速磁盘访问。
然而在很多时候,一台超级计算机或者HPC集群只有一项任务要运行,比如说运行一次网络测试,而且只需要高速的单精度浮点格式,而不需要双精度数据传输率和共享内存。
麻省理工的研究人员就发现,他们可以利用一个“插头式”电脑构成的集群,以非常低的功率运行网络测试任务。实际上,所谓插头式电脑就是一台迷你的裸服务器。目前比较流行的插头式电脑有出自迈威尔(Marvell)科技的SheevaPlug或GuruPlug,其他还有基于这些平台开发的产品,比如QuadAxis的QuadPlug等。
迈威尔科技研制的插头式电脑SheevePlug
麻省理工的集群利用标准Wi-Fi进行连接,整体功耗仅为100W,帮助设计该集群项目的麻省理工系统管理员Kurt Keville说。
“我们的集群目前最大的拥堵点就是内存、网络带宽和延时,”Keville说。目前,麻省理工将一个任务在无线网络上进行分解,分配给多个独立核心,采用了多路径网络设计。这种设计要求部署较少的全局无线热点,而每个核心要求配置较多的热点。这就是说,可以为特定的零星应用构建多个低成本集群。
麻省理工设计的插头式电脑集群,可用于单一任务处理
该团队还采用这一集群为学生提供低成本、太阳能供电的无线网络。
Keville称,他没有构建通用集群的计划,因为部署更多功能齐全的处理器需要消耗太多的电力,成本也过高。而采用共享内存进行复杂计算任务也行不通,因为插头式电脑缺乏足够的内存,同时处理多个任务时,单个核心的处理速度也跟不上。
4. Sandia国家实验室的无硬件集群
最后一种集群选择方案也可以考虑:那就是根本没有传统的硬件节点。Sandia国家实验室的研究人员Ron Minnich已经研制出了这样一个由上百万个虚拟机组成的集群,他们今年的目标是要将这一系统扩张至1000万个虚拟机。
每个虚拟机由1个在该实验室的雷鸟超级计算机上运行的Linux内核构成。颇有意思的是,雷鸟超级计算机本身就是一个集群,由将近5000台相互连接的戴尔电脑构成。为了创建百万节点的集群,Minnich在每个戴尔节点机上生成250个虚拟机。而要想扩展至千万个节点,他就得在现有的每个戴尔节点机上生成更多的虚拟机。
Minnich和他的团队正利用这个虚拟机集群模拟僵尸网络如何感染计算机,分析互联网如何工作,帮助开发下一代操作系统和安全软件。
他说,这一集群的规模最终将能够和一个小国家的国家网络相匹敌,甚至可以和全美的网络相匹敌,可以虚拟网络攻击或者监视网络攻击。换句话说,他想要在实验室里创建一个网络攻击的虚拟模型。
“一些很紧迫的现实问题,例如气候变化模型的研究、研发新药和研究更有效的能源生产等,都需要越来越多的计算资源,”他说。此外,虚拟化还能在大规模系统的研发中发挥越来越重要的作用,因为它具备可在单一平台上生成多个操作系统的能力。
总而言之,集群计算仍在发展中。麻省理工的Keville预测,在不远的将来,占地面积庞大的巨型超级计算机集群有可能会走向没落。研究人员不会再提前进行批量任务的调度,相反,他们会抓来几个插头式电脑构建自己的计算集群。
“我们需要重新思考科学计算的方法,鉴于新产品的层出不穷和电力成本的居高不下,我们需要为更多的问题寻找更多的答案,”Keville说。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者