ZDNet至顶网服务器频道 10月01日 编译:在上周日举办的OpenWorld大会上,甲骨文公司CTO Larry Ellison进行了主题演讲,并在其中利用大段时间探讨了该公司所推进的云发展战略。此举显然是为了提醒与会者们,这位数据库巨头在硬件业务领域同样声名显赫——更具体地讲,是在芯片领域。
甲骨文公司的许多“工程技术系统”由英特尔处理器作为性能支撑方案——而英特尔公司总裁Renee James还担当了上周日Ellison主题演讲的开场嘉宾。不过甲骨文从来没有放弃对Sparc处理器技术的投入与研发,这套于2010年通过收购Sun Microsystems所获得的技术方案在甲骨文这片土地上受到了大力培植。
作为该技术家族中的最新成员,Sparc M7芯片因此获得了极大重视、并将在明年年内正式与广大用户见面——不过确切日期目前仍未敲定——而且根据Ellison的说法,它“是我们涉足芯片研发领域以来最重要的产品,甚至可以说是公司有史以来最重要的产品。”
甲骨文系统业务副总裁John Fowler最初是在今年八月的Hot Chips大会上谈到这款全新CPU的。他将其描述为一款拥有32核心、64MB内置三级缓存的芯片,而且能够轻松通过32路SMP架构实现总计1024个计算核心与8192个处理线程——内存总量则最高可达64TB。
不过根据Ellison于上周日的发言,真正让M7显得卓而不群的特性在于该芯片当中搭载的、专门用于提升甲骨文应用程序运行速度的“加速引擎”。
“我们已经切实将数据库加速引擎纳入到我们的微处理器当中,并借助这一设计成功将查询性能表现提高到现有水平的十倍,”Ellison指出。
这位甲骨文公司执行主席表示,M7处理器之所以能够达到如此出色的实际表现,原因之一在于芯片内采用的特殊压缩机制——特别是在解压方面。
“当用户将数据载入内存时、它会对相关内容进行压缩,而在用户读取并处理这些数据时,这部分内容又会被解压,”Ellison解释称。“这样一来数据的读取速率与解压处理次数将十倍于数据载入内存所带来的数据压缩次数。因此,真正让速度产生质变的魔法并非源自压缩、而是解压。”
这样一来,Ellison指出,M7处理器就能够以每秒120GB的惊人速度行云流水般处理数据库查询——这位甲骨文公司创始人同时强调,其性能表现可以达到传统硬件与软件管理方案的十倍以上。
但Ellison进一步指出,M7处理器当中最为重要的创新还在于其全新内存保护功能——旨在避免应用程序染指其不应涉及的区域,从而尽可能预防某些令人抓狂的软件缺陷的发生。
“这类故障往往会间歇性发生; 它们非常难于追踪,同时也极难加以定位,”Ellison表示。“在内存保护机制的作用下,大家可以真正在开发早期发现这些漏洞,从而将资源节约下来以探寻那些真正不易解决的难题。不过最让人兴奋的一点是,由于内存保护机制通过硬件自身实现,因此我们可以在无需作出任何性能妥协的前提下拥有保护效果。”
而在今年的OpenWorld大会上,甲骨文还针对云计算放出了一系列相关消息。Ellison强调称,对于现代云技术而言、最重要的工作就是保护数据并及时中止恶意软件的肆虐。
我们目前已经可以期待上述积极成效在实际服务器产品中切实出现,不过Ellison此次对该设备的上市日期仍然语焉不详——Fowler在八月的声明中对此同样未有提及——仅仅表示Sparc M7将在2015年年内面世。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。