英特尔今天预览了一个新的至强服务器处理器系列,提供多达48个核心,英特尔声称其性能超过了竞争对手AMD。
Cascade Lake AP系列基于与英特尔目前的Xeon SP系列完全不同的设计,该系列最多包含28个核心。每个处理器不是单个单片单元,而是由彼此硬连线的多个集成电路组成。这与AMD在其Epyc系列服务器芯片上采用的方法相同。
英特尔声称Cascade Lake AP明显速度更快。据英特尔称,在基于主流处理器基准测试的内部测试中,Cascade Lake AP的性能比AMD Epyc 7601高3.4倍。在运行某些任务时,该系列新芯片的速度也比英特尔当前的Xeon SP高出83%。
当涉及到人工智能工作负载时,差异则更加明显。英特尔为Cascade Lake AP配备了新的AVX512指令,该指令是对芯片用于表达处理任务的机器语言的一种扩展,专门针对神经网络进行了优化。英特尔表示,Cascade Lake AP处理器使AI模型能够以比Xeon SP快17倍的速度分析图像。
数据中心设备制造商可以选择在一台服务器中配置最多两个Cascade Lake AP芯片,最多96个核心。由于每个处理器中包含12个DDR4通道,这样的设置可以容纳多达3TB的高速内存。
英特尔表示,Cascade Lake AP瞄准的是“最苛刻的高性能计算、人工智能和基础设施即服务工作负载”,英特尔预计将在2019年上半年开始出货Cascade Lake AP。
除了Cascade Lake AP,英特尔还推出了另一款新的14纳米处理器家族Xeon E-2100,后者针对低端服务器和某些工作站。该系列提供最多6个核心,基本频率为3.8千兆赫,可支持12个线程,目前已经上市。
这两款芯片系列的推出,正值英特尔开始批量生产全新一代10纳米芯片。经过一再拖延,英特尔在今年承诺将于2019年假日季及时发布该处理器。
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。