ZD至顶网服务器频道 09月06日 编译:上周在微处理器世界里,默默无闻的飞腾(Phytium)信息技术有限公司陡然间成了大明星。中国的飞腾公司在IEEE一个名为Hot Chips的年度活动上披露了自家芯片火星(Mars)的设计细节,该芯片目前是最先进的基于ARM的服务器SoC芯片之一。
活动结束后,记者电话采访了飞腾研究技术总监Charles Zhang,飞腾公司的主页颇为简陋,记者想通过采访更多地了解这家公司。
飞腾是一家新公司,据传与中国电子信息产业集团有限公司(以下简称“中国电子”,英文缩写CEC)有关联。中国电子是一家历史悠久、规模宏大的国营企业。该公司拥有员工70000余人,开发过包括军事和航天电子产品、消费电子设备和教育软件等各类产品。
中国电子建有国内第一家深亚微米集成电路技术研发中心和第一条8英寸加工线,公司的主页登着过去由公司生产的产品图片。
在中国芯片设计和生产的洪流中,中国电子在飞腾身上投下数亿元的人民币,飞腾的处理器设计团队有约300名工程师,全部来自中国。飞腾于2012年在广州创立,后来陆续有一些曾在中国著名芯片设计公司(包括海思、龙芯和展讯)工作过的处理器设计师加入。
Charles Zhang表示,“我们的设计团队全部来自中国,在最近几年时间里,我们的公司发展迅猛,又雇用了许多有经验的设计师,特别是那些来自研究院和高校的人。”
飞腾公司的英文名为Phytium,是采『物理 Physics』和『科技Technology』与因特尔品牌常用的后缀-ium的组合之意,例如,英特尔品牌里有Itanium(安腾)。
Charles Zhang表示,“英特尔在这个领域是大公司,我们借此向其致敬。”不过他也提到,“我们并不是将自己与英特尔相比,英特尔是大公司,成绩显赫,历史悠久。我们是个刚建立3年的新公司。”
确实,中国服务器厂商飞腾的立足点是自己的新火星芯片系统,并希望在当地市场销售这一类系统。
Charles Zhang说,“我们与中国服务器提供商有多次沟通,根据他们的意见,我们也做了一些评估——我认为他们对结果是满意的,服务器提供商基于我们的模型做了评估,我们相信我们的产品可以满足他们对未来的服务器产品的需求。”
中国服务器市场规模相对较小,但增长速度超过全球平均水平,并且主打国内OEM市场。国内市场是飞腾起步的好地方,据市场研究公司Gartner的资料显示,由诸如浪潮、联想、华为、曙光等本地厂商雄踞的中国服务器市场,占全球服务器收入的份额略大于10%,但增长速度高于整体市场。
中国的服务器厂商和其美国同行一样,现时的重点放在来自英特尔和AMD的x86芯片。但是,“作为商业性的公司,他们希望有多种选择,可以进军许多细分市场,因而高效的ARM系统是一个非常不错的选择。”
并补充称,“经过一番评估后,我们对ARM在未来高性能市场的发展有信心,功率效益对产品设计影响很重要,而ARM用到的是开放业务模式。”
尽管飞腾起步于中国市场,但并不一定止步于此。
Zhang表示,64核火星芯片“只是一个开始”。该SoC芯片的目标是纵向扩展系统,接着会推出“地球”(Earth)芯片,目标是横向扩展系统,目标为诸如阿里巴巴和百度等公司运行的大型数据中心。Zhang虽然没有提供细节,但他提到飞腾计划发展家用SoC,对象是包括冷存储服务器在内的各种系统。
Zhang表示,“在接下来的几年里,我们将降低我们的芯片功耗和大小,同时增加芯片的内存带宽和单核性能,我们将设计推出几代内核,以支持纵向扩展和横向扩展的服务器。”
飞腾公司推出的第一个ARMv8定制核代号为小米,2GHz的功耗为近1W。“这对于在横向扩展服务器上用有点高,”Zhang说。
顺便说一句,小米核和中国流行的智能手机公司并无关联。小米是设计团队里一名成员的孩子的昵称。“我们像喜欢我们的孩子一样喜欢这个核,”Zhang开玩笑得说到。
飞腾的下一个重大里程碑是完成28纳米芯片火星的物理设计,并希望能在年底前完成相应的流片。Zhang不愿说在哪里进行,只是说地点不在中国,至少开始的时候不会。
“中国现在的28纳米技术还不是很成熟,也许明年,”他说。
火星和地球芯片用的是一种28纳米工艺制造技术,飞腾认为用到的技术已成熟,可以交付一款高性能、低功耗的SoC。飞腾将来的目光放在16纳米节点的设计上。
有些分析师表示,利用批量640mm2火星来获得良好的收益率短期内具挑战性。
Zhang表示,“我们已经考虑到了这种情况,并做了一些设计,针对制造”方面的事力求解决这个问题。“也许批量生产比其他芯片需要的时间更长,”他补充说,也预计到有可能需要对缺陷样品做再次处理。
从长远来看,Zhang知道国内基于ARM服务器的生态圈还很不成熟,服务器SoC的设计也同样很不成熟。他谦虚地说,“中国和美国、欧洲的竞争对手之间还存在很大的差距,所以我们必须努力工作,向巨人学习。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。