ZD至顶网服务器频道 08月27日 编译:英特尔集中了旗下所有内部和外部可汇合的网络专业人员,打造出一款坊间人士认为是多代互连结构,可扩展到任何规模的数据中心或超级计算机阵列里。该结构名为全路径架构(OPA),是在8月26的IEEE2015年度热互连研讨会(美国加利福尼亚州圣克拉拉市)上宣布的,OPA是一个开放源代码架构,专攻高性能计算(HPC )和服务器。
OPA不仅可以是使每条链路的速度达到每秒100千兆比特,而且设有全程内置纠错码(ECC),可提高链路层次上的可靠性。OPA内置高质量的服务质量(QoS)机制,允许优先级数据包抢先,以确保高级别的优先级数据包的传送在短时延内完成,而同时又确保在带宽公平性的原则下传送正常的数据包。其主机光纤接口(HFI)每秒可以处理1.6亿个消息,交换延迟低于110纳秒。英特尔表示,各方面的改进仍然保持了与现有软件生态系统的兼容性,并且还允许应用程序接口(API)下的用户层次的创新。
市场营销和产业发展主任Hugo Salem告诉记者,“每一个组件(从交换到电缆)都是由英特尔设计的,整合了英特尔自己的知识产权或是收购的知识产权,我们现在拥有一个灵活的终端到端到端连接结构蓝图,包括小集群和内部部署云。”
英特尔采用的新全路径架构(OPA),其可扩展性设计适用于商业数据中心和超级计算机
据Salem介绍,每个开关可处理48个每秒100千兆比特的信道,其可行性已经在原始设备制造商(OEM)设计中得到证明,有些OEM用到超过100000个或节点,而且这个数字还在增大。
全方位路径架构首席系统架构师Phil Murphy告诉记者,OPA的结构设计“比其他HPC结构便宜25%至40%,同时还为Infiniband提供了另一个优势,OPA可服务于数据中心,并不需要被塞到HPC环境里”。
Murphy称,英特尔已经在着手研究第二代OPA,会将主机功能整合到CPU里,并将受益于专门为HPC重新设计的协议。
第二代的目标是要在毛性能和密度方面寻取价值,无需适配卡,每块板上的的组件更少。第一代则是将Xeon Phi与多芯片封装主机结构(在第二代里将被整合成单个芯片)整合到一起。
Murphy告诉记者,“OPA将利用目前Infiniband用的API支持开放整合,无需重写代码,除非你想加速。”
Intel的 OPA还支持名为开放式光纤接口(Open Fabric Interface)的开源项目,可以很容易地扩展到数千个甚至数万个节点。
Murphy表示,“最大的区别是开源——那些与结构相关的工具,它们可以如大海捞针般地解决性能提高方面的问题。”
OPA结构的架构还引入了一个全新的1.5 I/O 传输层(1.5 I/O transport layer),1.5 I/O 传输层是英特尔收购Cray公司获得的技术,其获得可扩展性和提高性能的方法是通过优化数据包大小、但用了第二层,第二层利用16 个浮动控制数字(FLIT)和一个附加的用于纠错的14比特拆开FLIT[65位]。
Murphy表示,“另外还有一个新技术,名叫杂混(Scrambling),杂混的目的是加快结构的时钟频率,以精确地补偿CRC [循环冗余校验] 所需的数量,保持与Infiniband相同的误差率,即10的负12次方。”
利用将数据包拆成FLIT的方法,英特尔可以将高优先级的数据包置于低优先级的数据包之中,通过交织FLIT,可处理高达32个数据流,全部都可以在同一时间看到数据包。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。