至顶网服务器频道 10月20日 新闻消息(文/Simon Sharwood with Chris Mellor):HPE宣布不再继续为大型云运营商提供定制服务器的业务。
读过笔者10月5日文章的读者可能会感到惊讶。其时HPE的Carlo Giorgi告诉记者,云服务器业务“……正在重新被打造及被打造成更适合目标用户的业务。云服务器业务仍将为服务提供商提供定制产品,但不会只具有标准的SKU,而且产品结构将取决于计算类型的需要。”
但现在HPE却发布了HPE总裁Antonio Neri本周提交的给金融分析师的幻灯片。他的第三张幻灯片判了服务器的死刑,见下图。
至于HPE为大型云提供的“高利润产品”是什么则没有明说。但如果说是完全新的东西的话,笔者会感到吃惊,因为Neri幻灯片里的第五张概述了HPE公司产品、地点和语言的大幅度整固。这可能也解释了为什么坊间会有HPE计划砍掉5000个工作岗位的 流言。
整套幻灯片在HPE公司未来的发展方向上给出了一些提示,幻灯片提到的计划包括:名为“Project New Stack”的项目,旨在提供“跨云混合即服务平台应用、数据及基础架构组合”;扩展Aruba平台,在云管理网络领域挑战思科的Meraki;作为Aruba解决方案的一部分开发SD-WAN功能,为客户提供单一控制点的Wi-Fi、交换和广域网;扩展Aruba OS下一代校园聚合交换的可编程性。
笔者曾要求HPE澄清其服务器计划,如果HPE这样做的话,笔者会更新此文或发一篇新的文章。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。