ZD至顶网服务器频道 11月15日 新闻消息(文/董培欣): Intel完成对于 Altera 收购后,原 Altera SoC (片上系统 SoC:System on a Chip)开发人员论坛 (ASDF) 更名为Intel SoC FPGA 开发人员论坛 (ISDF),于2016年11月8号在北京举行。值此盛会,Intel公司可编程解决方案事业部嵌入式处理营销资深总监Chris Balough与大家共同分享了Intel在 SoC FPGA 方面的最新进展及未来发展方向。
在亲身参与了Intel SoC FPGA 开发人员论坛后才发现,现在我们已经被FPGA所环绕了。无论是工业制造、汽车仪表、航空航天、无线通讯还是在广播电视、视频分析、高清视频乃至于在数据中心的存储系统和万物互联的物联网中都有着FPGA的身影。
Altera在被Intel收购之后,会把Altera的FPGA产品带到他的Core还有Atom这些不同系列的CPU当中,还是FPGA会成为一个比较独立的产品线?产品生命周期会不会缩短?技术支持能力会不会降低?芯片内核会不会发生变动?在论坛采访活动中,Intel公司可编程解决方案事业部(Intel PSG)SoC FPGA产品营销资深总监Chris Balough向大家详细解答了这方面的问题。
Intel公司可编程解决方案事业部(Intel PSG)SoC FPGA产品营销资深总监Chris Balough
核心不变 协手Intel 做大做强
Intel并购Altera是为了不断扩大Altera的市场份额,利用Intel在芯片制造方面的技术优势,更先进的制造工艺,生产出更好的可以为客户带来更大价值的FPGA产品。从而不断地来扩大我们的市场份额,这是Altera与Intel并购的一个最主要的目的所在。
FPGA芯片的产品周期都是比较长的,一般都是15年,Intel在大家的印象中,是面向消费者的,它的产品生命周期会短一些,有一些传统的客户担心Altera并入了Intel之后,像Intel这种可编程解决方案事业部,产品生命周期是不是会有所缩短。可能大家根本没有意识到,Intel产品实际上的平均寿命周期已经达到12年。而且Inte也明确告诉参会的与会者,Intel实际上进入到嵌入领域已经有30年的时间了,所以他们也知道在嵌入领域长生命周期的重要性。在FPGA产品中,Intel只会利用现在所有的优势帮助我们增强竞争力,能够在市场上不断地获胜,获得更多的市场份额。
在服务和技术支撑模式上,FPGA的销售和支撑部门还隶属于Altera,就是现在的PSG事业部门,仍然是全力的关注,给Altera这个产品来提供服务和支撑,所以我们在服务和支撑方面的这些承诺是不会改变。
关于SoC FPGA使用的是什么内核,什么处理器,大家都知道Altera的FPGA使用的是ARM内核。所以这些客户,他自然会有一些担忧和关切,害怕Intel会要求我们使用Intel的架构,而不是使用我们原有的ARM的架构。
在这里Chris Balough强调,现在Altera就变成了Intel的PSG事业部,现在所开发出来的这些SoC,它默认的处理器是ARM架构,从Intel角度来说,它传统的这些处理器会逐渐增加FPGA的功能,所以从公司角度来说,Intel能够给市场或者给客户提供最广泛的SoC FPGA的产品。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。