ZDNet至顶网服务器频道 10月08日 新闻消息(文/赵效民): 在出售了x86业务之后,IBM服务器产品线中,就剩下了PowerSystems与System z,而IBM对于整体硬件业务的态度也一直是业界津津乐道的对象。就在一周前,联想正式宣布收购IBM x86服务器业务完成,也预示着IBM服务器业务的新篇章,而今年的Enterprise大会也正是在这一背景下举行的。
与往年一样,本次大会以乐队开场(我没认出来),鼓点很带感,印象中比去年的更年轻、更现代一些,乐队也更有激情,这难道是IBM想要传达给听众的感觉?而大会也将一周的时间安排得满满的,Keynote更是安排在早上8点就开始,似乎主办方IBM STG部门有说不完的话……
第一个做主题发言的就是IBM系统与科技部(STG)、集成供应链高级副总裁Tom Rosamilia。他从趋势入手指出了企业IT面临的新压力与新转变,其中主要的4个因素就是移动/社交、大数据与云计算。而根据IBM的调研显示,越来越多的企业因为上述4点而开始重新审视并加大对基础设施的投资。
IBM也根据移动/社交(2015年将有30亿个互联设备)、大数据(目前每天全球产生25亿GB的数据)、云(2015年70%的企业将采用混合云)的演进,提出了自己的应对逻辑,核心是三大系统(SOR-记录系统、SOE-交互参与系统、SOI-洞察系统),其撑起外层的云,而最外层则是主动安全智能防护。
对于整体堆栈,就是为两种方案服务——针对CxO的商务方案和针对CIO的基础架构方案,它集成了基础设施、运行环境、中间件、技术服务、应用与方案以及咨询与整合服务,而这也正是IBM所能提供的完整组合与优势。而对于基础设施,开放、安全、可靠、可用、可扩展与灵活性则至关重要。
好文章,需要你的鼓励
这项研究揭示了大语言模型在学习推理时对噪声奖励的惊人适应力。研究表明,即使有40%的奖励信号被故意颠倒,Qwen-2.5-7B模型仍能将数学题准确率从5%提升至72%。更惊人的是,仅奖励模型使用关键推理词组(如"首先,我需要..."),而不验证答案正确性,也能达到70%以上的准确率。研究者提出的推理模式奖励(RPR)不仅能让模型在数学任务中表现出色,还能有效校准开放性任务中的噪声奖励模型,提升较小模型的推理能力。这表明大模型在预训练阶段已掌握了推理能力,强化学习主要帮助它探索有效的推理模式。
大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mary Meeker)发了一份340页的《人工智能趋势报告》,粗粗看了一下,并没有非常轰动的观点,但是数据比较全面
Yale大学自然语言处理实验室研发的Table-R1模型突破性地将推理时间缩放技术应用于表格推理任务。研究团队通过两种方法提升模型能力:从DeepSeek-R1模型的推理过程中学习,以及利用可验证奖励进行强化学习。实验表明,即使使用仅有7B参数的模型,Table-R1-Zero也能在13个表格推理基准测试中媲美甚至超越GPT-4.1等大型模型。该研究不仅证明了中小规模模型通过适当训练也能实现出色表现,还为数据分析、科学研究和决策支持系统等实际应用提供了新可能。