在云方面,IBM的创新的努力方向在于,如何让企业在自己的IT环境中安心保存数据,而又通过云来自如的获得相应的IT能力。在“安全”方面,通过数据环境分析(基于大数据的多层监控)、行为感知模型(风险管理与防御规划)、自适应(优化响应)三个领域的突破来实现最新的安全智能。
认知计算通过模拟人类对外界的认知行为,以求真正实现人工智能,这对人类探寻未知世界极为重要(比如基因、神经、自动对话)。但模拟人类很简单的认知行为(如触觉)的计算量都是十分巨大的,当前的Watson只算是一个开始。所以在David看来,认知计算才是计算系统最终的决胜关键。
在讲演的最后,David强调了IBM STG与IBM研究院之间密切的关系——为实现上述5个计算创新而联合协作。IBM研究院负责技术前沿的方向把握与理念实现,而STG则将把研究院的成熟成果变成可用的商业化产品提供给最终的用户。显然IBM研究院将是STG产品保持领先地位的“技术基因”。
在David之后,IBM PowerSystems总经理Doug Balog给我们带来了新的PowerSystems发布,不过在此之前他仍然简要回顾了一下基于POWER8的最新PowerSystems的关键特色——出众的云生态、开放创新的平台、为大数据而生,这其中与开源平台的结盟(如Linux、OpenStack、Hadoop)功不可没。
不久前的IBM与NVIDIA的联合发布,是PowerSystems在开放与大数据方面的重要收获。NVIDIA将Tesla GPGPU加速卡与PowerSystems S824L(双插槽、Linux环境)相结合,专门为大数据处理而优化,不过这次并没有用CAPI连接,未来NVIDIA将会采用自己的NVLink实现与POWER8处理器的内存共享。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。