让更多的最终用户满意 让自己更好的活下去
不管怎样,我们都必须承认,OpenPOWER基金会两年来的成就是有目共睹的。无论IBM的自身原则如何,它都极大增强了IBM POWER的生态系统。尤其在中国市场,POWER获得了更多的重视,这显然是IBM喜闻乐见的,虽然随着CP系列处理器的不断发展,IBM自己的POWER产品在中国市场的收益必然会受到影响,但从长远的生态建设来讲,这是值得的。
另一方面,CAPI在组件级领域的生态聚集效应也正在增强,这对于POWER系统的多样化设计也是非常有利。在这一点上,英特尔的处境反应有点像之前在服务器市场中的IBM,毕竟自己不可能做出非常丰富的外围加速设计,这方面的确落在OpenPOWER的后面。这也正是OpenPOWER开放策略的一个亮点,也是英特尔“半成品”战略的一个负作用。
不过,英特尔收购ALTERA也给我们提了一个醒——它是非常善于自我修正的公司。从早期Pentium 4架构回归Pentium M架构,以及在64位处理器竞争中转败为胜的历史中,我们可以看到英特尔自我修正的能力。不久的将来我相信会看到来自英特尔类似于CAPI的设计,但我同样相信,“半成品”的策略并不会因此改变。
归根结底,聪明的公司会不断吸取外界的经验来完善自己的生态,努力适应竞争与市场的需求,但是每家公司也都有自己的主线或不会轻易动摇的原则。不管是英特尔还是IBM或是ARM,大家其实都在不同领域与层次上相互借鉴,在保证自己核心利益的基础上,做出适当的调整。而这种相互的竞争,也会让最终的解决方案更贴近需求,让最终用户获益。
因此脱离现实的需求,单纯的讨论谁更开放,或者说谁的开放策略是更好的,并没有太多的实际意义(比如在需求相对单一的年代,封闭的RISC小型机也活得很好呀)。而真正的衡量标准一直存在,且恒久不变,那就是——让更多的最终用户对你主导的架构满意,从而让自己更好的活下去!
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。