ZD至顶网服务器频道 02月03日 编译:前不久,欧洲ExaNeSt HPC的试点项目已经起步,此项目仅用到1000个内核,同时所用到的内核并非英特尔制造。
欧洲的ExaNeSt项目组建的初衷,就是想利用1000万个ARM处理器来完成,用来支持项目里的超级计算的项目。
除此之外,ExaNeSt称之为“稻草人原型”的一系列处理将采用液体冷却,并使用处理器结构里的闪存,而且这一系列处理将采用“创新的快速互连”,以避免拥塞。
该原型不会拥有接近百万个处理器:它只有1000个处理器内核,采用64位ARM赛灵思Zynq Ultrascale+处理器,16 Gbps互连以及每个母板上的16 GB低功耗内存。
该项目于2015年12月举行了启动仪式,同时还宣布了欧盟提供850万英镑的资金支持项目的三年设计项目的消息。
该项目预计最终可找到所需的冷却技术以运行每个机架高达240千瓦的计算功率,但在今年一月的一次讲演里,Crete大学的Manolis Katevenis和 Nikolaos Chrysos却提出,互联是超级计算机器的最大障碍。
其原因是由移动数据成本导致的,移动数据成本以pici焦耳计算,互连移动数据成本要高于处理成本,而且这一发展形势还在上升。
ExaNeSt的商业合作伙伴ExaNoDe将设计基于ARM的“微服务器HPC”实现,据悉,项目的其他贡献者包括EuroServer(处理器间通信设计)、Ecoscale(可编程硬件加速器)、赛灵思(FPGA和通信)、美光(低功耗内存和存储)和Kaleao(产品化)。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。