AMD的EPYC和Ryzen处理器嵌入式版本日前出台,从而将Zen架构带入了新的领域,也丰富了AMD公司的处理器产品组合,给英特尔带来更大的压力。
AMD在过去的一年左右的时间里一直都忙得很。2016年8月推出Zen后,我们还看到各种产品的发布:2016年12月的Ryzen; 2017年6月的EPYC和Radeon Vega Graphics; 2017年8月的Ryzen Threadripper; 2017年10月第一款配备Vega Graphics移动部件的Ryzen以及本月早些时候带Vega桌面部件的Ryzen。而且其发展势头在2018年里得以保持。
尽管AMD各种芯片很好地覆盖了桌面电脑、笔记本电脑和服务器市场,但总还是存在未被完全覆盖的空间。总部设在加州桑尼维尔芯片制造商AMD推出EPYC和Ryzen处理器嵌入式版本填补了这些空白。嵌入式版本将这些芯片扩展到娱乐场和街机游戏、瘦客户端、5G蜂窝网、医疗成像、物联网网关和路由器等不同领域。
让我们先来看看新的嵌入式EPYC产品:EPYC 3000系列产品。各种亮点令人印象深刻:
所有这些都集成在一个SoC包里,这意味着并无芯片组,而且还内置了安全内存加密(根据AMD的说法,只会增加1%到2%的开销)、安全加密虚拟化和硬件信任根(Root-of-Trust)。
该系列的功率范围涵括了35瓦TDP的低功耗4核/4线程及怪物级的100瓦特TDP的16核心/32线程规格,后者旨在应付一些重重量级数据。
EPYC 3000系列处理器的完整产品阵容非常强大,可以满足各种价格和性能要求:
如果将嵌入式EPYC 3451和3251与英特尔的至强D-1587和D-1540(旧款Broadwell,英特尔在过去几周内重新调整了产品阵容)放在一起比较,AMD系列的性能要高50%,而AMD系列的单位美元性能则要高2.7倍。
即便是与英特尔的新Skylake芯片相比,将嵌入式EPYC系列与英特尔硬件比,譬如嵌入式EPYC 3451对至强D-2191(800美元对2407美元)或嵌入式EPYC 3301对至强D-2152IT( 450美元对438美元),AMD系列都能以相同价格或更低价格在性能方面提供更多内容,如内核、高速缓存、内存容量、内存速度、PCIe通道以及更多10GB以太网端口。
AMD主打方向仍然是:更多规模,更多的扩展,更多的内存带宽。
嵌入式EPYC系列支持广泛的操作系统,如红帽(RedHat)的RHEL、Canonical的Ubuntu、Mentor的MEL、Wind的WindRiver及Yocto Project的Yocto。
接下来再来看看嵌入式Ryzen芯片:Ryzen V1000系列APU。
亮点如下:
这些APU还配有安全内存加密、安全加密虚拟化和安全启动的功能。
V1000系列在基准测试(Cinebench nT和3DMark 11 P)方面与同等英特尔硬件的比较,其多线程性能高多达46%(尽管高端方面的差别类似于V1807B与英特尔的i7- 7700HQ的比价),而GPU性能则高出三倍。
嵌入式Ryzen V1000系列芯片支持以下平台:微软的Windows 10、Canonical的Ubuntu、Mentor的MEL、Wind的WindRiver Linux和Yocto Project的Yocto。
笔者前几天曾碰到诊断超声系统制造商Esaote的首席技术官Andrej Dvorak,与他聊了一会儿。Esaote是AMD的合作伙伴之一,已采用嵌入式Ryzen芯片。笔者想知道新芯片在什么地方对Esaote有吸引力。Dvorak对医疗设备有着深入的了解,对于为什么Esaote在旗下新推出的MyLab 9平台上用了AMD的Ryzen Embedded V1000 APU,他毫无困难地给出了一个长长的、含有各种原因的表:
Dvorak表示,“Esaote是一家全球顶级的诊断超声系统供应商,Esaote必须与研发先进的信号和图像处理技术科技领导者合作,这些技术可以帮助医生和技术人员做出关键的诊断决策,新的嵌入式AMD Ryzen V1000不仅能使我们提供性能属于世界一流的、清晰的诊断图像,而且其整合程度也令我们能够开发更紧凑的超声系统,从而可以将更好的性能整合到大型机器里,可以为我们的客户和患者改善TCO及为医生和医务人员提供的更好体验。“
还有不少其他客户和合作伙伴也用上嵌入式Ryzen产品,包括希捷、华擎、华硕和Sintrones等等。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。