ZD至顶网服务器频道 08月27日 编译:英特尔集中了旗下所有内部和外部可汇合的网络专业人员,打造出一款坊间人士认为是多代互连结构,可扩展到任何规模的数据中心或超级计算机阵列里。该结构名为全路径架构(OPA),是在8月26的IEEE2015年度热互连研讨会(美国加利福尼亚州圣克拉拉市)上宣布的,OPA是一个开放源代码架构,专攻高性能计算(HPC )和服务器。
OPA不仅可以是使每条链路的速度达到每秒100千兆比特,而且设有全程内置纠错码(ECC),可提高链路层次上的可靠性。OPA内置高质量的服务质量(QoS)机制,允许优先级数据包抢先,以确保高级别的优先级数据包的传送在短时延内完成,而同时又确保在带宽公平性的原则下传送正常的数据包。其主机光纤接口(HFI)每秒可以处理1.6亿个消息,交换延迟低于110纳秒。英特尔表示,各方面的改进仍然保持了与现有软件生态系统的兼容性,并且还允许应用程序接口(API)下的用户层次的创新。
市场营销和产业发展主任Hugo Salem告诉记者,“每一个组件(从交换到电缆)都是由英特尔设计的,整合了英特尔自己的知识产权或是收购的知识产权,我们现在拥有一个灵活的终端到端到端连接结构蓝图,包括小集群和内部部署云。”
英特尔采用的新全路径架构(OPA),其可扩展性设计适用于商业数据中心和超级计算机
据Salem介绍,每个开关可处理48个每秒100千兆比特的信道,其可行性已经在原始设备制造商(OEM)设计中得到证明,有些OEM用到超过100000个或节点,而且这个数字还在增大。
全方位路径架构首席系统架构师Phil Murphy告诉记者,OPA的结构设计“比其他HPC结构便宜25%至40%,同时还为Infiniband提供了另一个优势,OPA可服务于数据中心,并不需要被塞到HPC环境里”。
Murphy称,英特尔已经在着手研究第二代OPA,会将主机功能整合到CPU里,并将受益于专门为HPC重新设计的协议。
第二代的目标是要在毛性能和密度方面寻取价值,无需适配卡,每块板上的的组件更少。第一代则是将Xeon Phi与多芯片封装主机结构(在第二代里将被整合成单个芯片)整合到一起。
Murphy告诉记者,“OPA将利用目前Infiniband用的API支持开放整合,无需重写代码,除非你想加速。”
Intel的 OPA还支持名为开放式光纤接口(Open Fabric Interface)的开源项目,可以很容易地扩展到数千个甚至数万个节点。
Murphy表示,“最大的区别是开源——那些与结构相关的工具,它们可以如大海捞针般地解决性能提高方面的问题。”
OPA结构的架构还引入了一个全新的1.5 I/O 传输层(1.5 I/O transport layer),1.5 I/O 传输层是英特尔收购Cray公司获得的技术,其获得可扩展性和提高性能的方法是通过优化数据包大小、但用了第二层,第二层利用16 个浮动控制数字(FLIT)和一个附加的用于纠错的14比特拆开FLIT[65位]。
Murphy表示,“另外还有一个新技术,名叫杂混(Scrambling),杂混的目的是加快结构的时钟频率,以精确地补偿CRC [循环冗余校验] 所需的数量,保持与Infiniband相同的误差率,即10的负12次方。”
利用将数据包拆成FLIT的方法,英特尔可以将高优先级的数据包置于低优先级的数据包之中,通过交织FLIT,可处理高达32个数据流,全部都可以在同一时间看到数据包。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。