IBM系统部的差异化价值之PowerSystems
IBM系统部的PowerSystems业务,在2015年第一季度获得了1%的同比增长,虽然只有1%,但要知道这是11个季度以来第一次正向增长,难能可贵。
对于这个成绩,Tom Rosamilia认为,这验证了IBM在两年前作出战略转型的一个结果,这个转型就是OpenPOWER生态系统,这其中尤为重要的是,OpenPOWER进一步丰富了POWER架构横向扩展的产品。如果说,System z13代表了IBM在Scale-Up架构中的极致能力,那么OpenPOWER也将为业界展示IBM极致的Scale-Out的能力。对于OpenPOWER的发展,Tom Rosamilia很有信心,“两年前,我们创建OpenPOWER联盟时,最初创始成员是5家,18个月前我们成立OpenPOWER基金会时,当谷歌是主席地位。今天我们OpenPOWER基金会已经发展到129家成员,其中有19家来自中国。我这次来北京,就准备会见其中一家,探讨业务的发展计划,而在6月上旬,我们还要在北京举办中国本地的OpenPOWER峰会,届时将会有更多的新成果展现。”
而在Scale-Up方面,POWER架构的传统优势仍然继续保持,5月份IBM发布了新的E850与E880服务器,前者为4插槽配置,后者为16插槽,进一步补齐了POWER8服务器的产品线,也让新一代POWER服务器家族终于覆盖了所有传统业务平台,这毕竟是IBM系统的根基。
不过,谈到POWER就不能不谈到它的主要竞争对手x86,更确切的说则是英特尔的x86平台。对此,Tom Rosamilia并不回避,直接表示,“我们一直在与英特尔的x86平台进行竞争,但我们觉得POWER处理器与PowerSystems是一个非常强有力的工具,随着产品线的日益丰富,将会为用户带来更有竞争力的选择。”
综合而论,PowerSystems的传统在于Scale-Up平台,这也就是现在的E系列的所继承的。当市场的主流需求向Scale-Out架构转移时,PowerSystems推出了所谓的低端产品S系列,而配合OpenPOWER与OpenStack,IBM希望能从Linux应用环境以及开源云平台层面,为POWER架构带来更强大的生态体系。当然,从根本上讲,就纯粹的处理器性能而言,POWER仍然有优势,尤其是具备缓存一致性的CAPI接口,为用户提供了外围组件直连CPU的能力,比如FPGA、GPU以及网络控制器,可以共享CPU主内存,提供了可观的平台加速能力。Tom Rosamilia就此强调POWER已经比英特尔的x86更开放,从芯片设计到平台集成,为合作伙伴提供了更大的可发挥空间,而且最重要的是,POWER9也已经在路上。
IBM与NVIDIA联手,将基于POWER9处理器和NVIDIA的GPGPU,为美国橡树岭国家试验室和劳伦斯·利弗莫尔国家实验室打造两款超级计算机,IBM获得的订单金额达到了3.25亿美元
在不久前,IBM与NVIDIA联合宣布,将结合各自的POWER9通用处理器与VOLTA GPGPU,联手为美国橡树岭国家试验室(ORNL,Oak Ridge National Laboratory),以及是劳伦斯·利弗莫尔国家实验室(LLNL,Lawrence Livemore National Laboratory)分别打造两台超级计算机:SUMMIT与SIERRA,前者计算节点超过3400个,峰值性能达150-300PFLOPS,后者性能大于100PFLOPS,主攻分子动力学,宇宙学,计算流体动力学,燃烧模拟等领域,其中更高性能的SUMMIT预计2017年上线,2018年正式投入使用。
Tom Rosamilia相信,随着业界对于POWER架构和OpenPOWER产品的认知不断加深,以及新品的陆续跟进,PowerSystems的业绩将会更有起色。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。