ZD至顶网服务器频道 11月01日 新闻消息:微软认为Open Compute Project(OCP)发展得太慢了,所以放弃了一些不完善的服务器设计,以图加快速度。同时,微软也认为开源硬件就像开源代码一样需要Alphas的参与。
微软谦虚地将“奥林巴斯项目”( Project Olympus)称为新的努力,它“既是我们下一代超大规模云计算硬件设计,也是一种和OCP社区一起进行开源硬件开发的新模式。”
新模式优先:微软之前同OCP的合作使该公司相信“目前开源硬件开发不像开源软件那么灵活和快速迭代。”
Azure Hardware Infrastructure的总经理Kushagra Vaid曾经写道,“开源硬件开发当前的流程是贡献已经做好产品化准备的设计。在这个阶段,设计已经基本上完成了——几乎是100%完成了——而最新的贡献拖慢了衍生设计的开发,限制了交互式社区参与和使用,拖慢了整体交付进度。”
因此,微软决定发布其新的服务器设计,Vaid表示它“大约完成了50%。”
微软认为其他的OCP参与者将采用它的设计,找到尽可能最好的方式,让该项目下一版的规范能够反映新设计上所有的裁减。
现在对于服务器来说,这就看起来很有趣了。
微软表示,Olympian服务器将提供“一个新的通用主板、包含电池的高可用性电源、1U/2U服务器机箱、高密度存储扩展、一个新的针对全球数据中心互操作性的通用机架PDU以及符合标准的机架管理卡。”
这个购物清单上所有的东西都将是模块化的,这样系统的构建者就可以自己发挥了。
微软将把Olympus服务器机箱接口、通用主板和PDU放在GitHub以及该公司承诺将很快发布的全机架规范中。
微软愿意这么早就公开自己的硬件思路,表明该公司相信云计算的差异化在于软件和操作技能,而不是硬件。AWS和谷歌也加入了OCP,因此可以假设会有很多产品看起来很相似。无论如何,至少是其中一部分会看起来非常相似:AWS正在为机架式模块计算单元申请专利,这并不是OCP鼓励的做法。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。