英特尔在2018年国际消费电子展(CES 2018)上宣布就人工智能同法拉利展开合作,双方的合作将涉及通过无人机拍摄空中素材,然后对这些素材进行混合和剪辑,以创建个性化的内容。
作者:Corinne Reichert
2018年1月11日——格林尼治标准时间15:52(东八区标准时间23:52)
英特尔表示,该公司同法拉利的合作将推动人工智能(AI)的到来,“从根本上”改变体育转播内容的创作和发行。
英特尔公司的首席执行官Brian Krzanich在2018年国际消费电子展(CES 2018)上的主题演讲中宣布,与法拉利北美公司建立了为期三年的合作关系,就英特尔的人工智能技术——包括Intel Xeon可扩展平台和Neon Framework,以及英特尔无人机拍摄的空中镜头——进行合作。
英特尔人工智能产品部门(AIPG)的副总裁兼总经理Naveen Rao对ZDNet表示,英特尔意识到了从法拉利北美挑战赛的汽车上收集到的数据可以成为一个数据源,提供“新奇的”见解,在此之后,英特尔于去年开始着手建立与法拉利的合作伙伴关系。
Rao表示:“我还没见过有人这样应用人工智能技术,而我们有一个愿景,就是说,‘你知道吗?我们其实可以从根本上颠覆赛车运动’。”
这个项目始于英特尔将目光盯在了赛车运动现在仍然在电视转播中采用的“过时”方式以及在整个比赛日程中,在每条赛道上部署固定摄像头固有的基础设施成本上。
Rao向ZDNet解释说:“我们说,‘我们能够如何通过使用无人机,然后再对它使用人工智能,让这个成本变得更低?而且更重要的是,我认为我们实际上可以开始推动个性化新闻之类的新体验。’
“如果你关心某一位特定的车手,我们实际上可以为你制作针对个人的内容,里面会剪辑一些关于这个车手、现场状况或者这个车队的非常有趣的东西,这些东西是与众不同的。所以我认为这是一个新颖的、真正有趣的人工智能应用。”
多个无人机摄像机拍摄的镜头将会以流的方式进入中央数据源,然后由人工智能将它们混合在一起,并对其进行切割。
他补充表示:“会有一个人工智能系统实际上对它们进行监控,并说‘这个很有趣,那个很有趣’,然后对它们进行剪辑。我们希望让整件事变成自动化的,最终所有的这些源都会以流的方式,传输至一个数据中心,然后你就可以找到你认为有趣的东西——它会为你定制个性化的内容。”
双方的合作还将为法拉利车队提供比赛中的实时分析洞察。
在谈到英特尔的Nervana神经网络处理器的时候,Rao表示,英特尔希望解放“所有的聪明人”,无论是在内部还是紧密合作伙伴——包括脸书(Facebook)——那里的聪明人,让他们致力于改进这个系统,而这个系统是他称之为“良性的工程循环”的一部分。
他表示:“我们用Nervana做的不仅仅是一个芯片,它是一个完整的堆栈。它允许外部和内部人员访问这些工具,并立即为他们的问题增加价值。”
“即使在内部,我们也正在与IT部门合作以提供资源,使数据集变得可用,因为最终,我们希望所有英特尔的聪明人能够解决这个问题,并且希望他们能够打造出更好的产品。”
“我们今天有多个(Nervana)世代正在筹备之中。”
英特尔目前也正在接洽美国政府,商讨使用人工智能技术,并正在积极与国会商谈,以确保其了解潜在的趋势以及可以期望的结果。
不过,Rao表示说,很多基础的人工智能技术还需要花上五年的时间才能够实现,并应用于产品。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。