英特尔今天预览了一个新的至强服务器处理器系列,提供多达48个核心,英特尔声称其性能超过了竞争对手AMD。
Cascade Lake AP系列基于与英特尔目前的Xeon SP系列完全不同的设计,该系列最多包含28个核心。每个处理器不是单个单片单元,而是由彼此硬连线的多个集成电路组成。这与AMD在其Epyc系列服务器芯片上采用的方法相同。
英特尔声称Cascade Lake AP明显速度更快。据英特尔称,在基于主流处理器基准测试的内部测试中,Cascade Lake AP的性能比AMD Epyc 7601高3.4倍。在运行某些任务时,该系列新芯片的速度也比英特尔当前的Xeon SP高出83%。
当涉及到人工智能工作负载时,差异则更加明显。英特尔为Cascade Lake AP配备了新的AVX512指令,该指令是对芯片用于表达处理任务的机器语言的一种扩展,专门针对神经网络进行了优化。英特尔表示,Cascade Lake AP处理器使AI模型能够以比Xeon SP快17倍的速度分析图像。
数据中心设备制造商可以选择在一台服务器中配置最多两个Cascade Lake AP芯片,最多96个核心。由于每个处理器中包含12个DDR4通道,这样的设置可以容纳多达3TB的高速内存。
英特尔表示,Cascade Lake AP瞄准的是“最苛刻的高性能计算、人工智能和基础设施即服务工作负载”,英特尔预计将在2019年上半年开始出货Cascade Lake AP。
除了Cascade Lake AP,英特尔还推出了另一款新的14纳米处理器家族Xeon E-2100,后者针对低端服务器和某些工作站。该系列提供最多6个核心,基本频率为3.8千兆赫,可支持12个线程,目前已经上市。
这两款芯片系列的推出,正值英特尔开始批量生产全新一代10纳米芯片。经过一再拖延,英特尔在今年承诺将于2019年假日季及时发布该处理器。
好文章,需要你的鼓励
构建云边端协同的多元化算力体系已成为企业实现大模型规模化落地的关键路径,Arm正助力从云到端的大模型部署与高效运行,满足企业对更高性能、更高能效以及更强本地处理能力的迫切需求。
尽管市场上频繁出现所谓的自主代理 AI,但目前尚无统一定义,多数产品不过是 LLM 的简单包装,这让 CIO 在采购时面临风险与困惑。
最新研究发现,AI生成的代码常错误引用虚构依赖库,为供应链攻击提供契机,可能导致数据泄露、植入后门等恶意行为,严重威胁系统安全。
本文讨论了 IT 自动化过程中容易忽视的流程问题、数据质量、整合难题、成本误区以及 AI 融入后带来的监管与创新挑战。