ZDNet至顶网服务器频道 10月01日 编译:在上周日举办的OpenWorld大会上,甲骨文公司CTO Larry Ellison进行了主题演讲,并在其中利用大段时间探讨了该公司所推进的云发展战略。此举显然是为了提醒与会者们,这位数据库巨头在硬件业务领域同样声名显赫——更具体地讲,是在芯片领域。
甲骨文公司的许多“工程技术系统”由英特尔处理器作为性能支撑方案——而英特尔公司总裁Renee James还担当了上周日Ellison主题演讲的开场嘉宾。不过甲骨文从来没有放弃对Sparc处理器技术的投入与研发,这套于2010年通过收购Sun Microsystems所获得的技术方案在甲骨文这片土地上受到了大力培植。
作为该技术家族中的最新成员,Sparc M7芯片因此获得了极大重视、并将在明年年内正式与广大用户见面——不过确切日期目前仍未敲定——而且根据Ellison的说法,它“是我们涉足芯片研发领域以来最重要的产品,甚至可以说是公司有史以来最重要的产品。”
甲骨文系统业务副总裁John Fowler最初是在今年八月的Hot Chips大会上谈到这款全新CPU的。他将其描述为一款拥有32核心、64MB内置三级缓存的芯片,而且能够轻松通过32路SMP架构实现总计1024个计算核心与8192个处理线程——内存总量则最高可达64TB。
不过根据Ellison于上周日的发言,真正让M7显得卓而不群的特性在于该芯片当中搭载的、专门用于提升甲骨文应用程序运行速度的“加速引擎”。
“我们已经切实将数据库加速引擎纳入到我们的微处理器当中,并借助这一设计成功将查询性能表现提高到现有水平的十倍,”Ellison指出。
这位甲骨文公司执行主席表示,M7处理器之所以能够达到如此出色的实际表现,原因之一在于芯片内采用的特殊压缩机制——特别是在解压方面。
“当用户将数据载入内存时、它会对相关内容进行压缩,而在用户读取并处理这些数据时,这部分内容又会被解压,”Ellison解释称。“这样一来数据的读取速率与解压处理次数将十倍于数据载入内存所带来的数据压缩次数。因此,真正让速度产生质变的魔法并非源自压缩、而是解压。”
这样一来,Ellison指出,M7处理器就能够以每秒120GB的惊人速度行云流水般处理数据库查询——这位甲骨文公司创始人同时强调,其性能表现可以达到传统硬件与软件管理方案的十倍以上。
但Ellison进一步指出,M7处理器当中最为重要的创新还在于其全新内存保护功能——旨在避免应用程序染指其不应涉及的区域,从而尽可能预防某些令人抓狂的软件缺陷的发生。
“这类故障往往会间歇性发生; 它们非常难于追踪,同时也极难加以定位,”Ellison表示。“在内存保护机制的作用下,大家可以真正在开发早期发现这些漏洞,从而将资源节约下来以探寻那些真正不易解决的难题。不过最让人兴奋的一点是,由于内存保护机制通过硬件自身实现,因此我们可以在无需作出任何性能妥协的前提下拥有保护效果。”
而在今年的OpenWorld大会上,甲骨文还针对云计算放出了一系列相关消息。Ellison强调称,对于现代云技术而言、最重要的工作就是保护数据并及时中止恶意软件的肆虐。
我们目前已经可以期待上述积极成效在实际服务器产品中切实出现,不过Ellison此次对该设备的上市日期仍然语焉不详——Fowler在八月的声明中对此同样未有提及——仅仅表示Sparc M7将在2015年年内面世。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。