未来经济的核心是数字经济,数字经济的核心之一无疑是人工智能。人工智能已成为国际竞争的新焦点,是引领未来的战略性技术。作为新一轮产业变革的核心驱动力,人工智能进一步释放了历次科技革命和产业变革积蓄的巨大能量,并创造经济发展的新引擎。
我国高度重视推动人工智能发展,促进人工智能和实体经济深度融合。人工智能在教育、医疗、养老、环境保护、城市运行、司法服务等领域广泛应用,极大地提高公共服务精准化水平,在智能制造、科技金融、数字内容和新媒体、新零售、智能安防等多个应用领域也引发了重大变革,为新旧动能转换和国民经济高质量发展提供了有力支撑。
众所周知,算力、算法和数据是人工智能发展的三要素,宝德服务器为人工智能的快速发展提供智慧计算的平台——强大的算力,并携手英特尔等卓越合作伙伴,加速智能+的各领域应用。本次发布会上宝德联合英特尔推出了新型AI推理系统,基于支持加速int8推理的英特尔®深度学习加速技术——矢量神经网络指令集的第二代英特尔®至强®可扩展处理器的宝德AI推理服务器,大大加速人工智能的推理负载,性能整整提升了3倍!
第二代英特尔®至强®可扩展处理器,最高配置56核心112线程,使用英特尔®睿频加速技术2.0,且提供内存子系统增强功能,支持英特尔®傲腾™DC持久内存单条512GB以及单条插槽最高性能至2933 MT/s 16Gb颗粒的DDR4内存。这一代处理器专门用来提高在现有工作负载所在硬件上运行复杂AI工作负载时的灵活性,同时借助新的AI加速功能进一步提升嵌入式AI的性能,包括新的Intel® Deep Learning Boost Technology(英特尔®深度学习加速技术),它就是专门设计用于加速AI/Deep Learning应用 ,例如图片分类、语言识别、语言翻译、对象检测等。
宝德AI推理服务器采用英特尔C620系列高性能芯片组和第二代英特尔®至强®可扩展处理器,采用英特尔FPGA芯片和英特尔®傲腾™DC持久内存,支持Infiniband、Omni-Path高速网卡,在高集成度的有限空间内带来强劲的性能表现以支撑推理任务的顺畅运行。宝德AI推理服务器支持英特尔通信加速技术和英特尔高级矢量扩展指令集,采用智能散热系统,有效降低噪音污染,营造箱体恒温空间;采用全屏蔽防电磁辐射,抗干扰,防静电(EMI)设计;支持降频功能,可在低负载时降低系统能耗;支持PDCM(能效管理器)提供自动化服务器功耗控制,有助于以更少的资源完成更多任务;还可以根据热关键器件温度综合调节风扇转速,节能的同时降低了噪音并提高风扇的可靠性。
宝德AI推理服务器之PR2710P
如今,AI产业风发泉涌。你会发现,智能助手正有条不紊的接听回复电话、预约饭店等;医生们正用视觉模式识别和检测皮肤癌;无数摄像头组成的“城市大脑”正在指挥交通、检测和抓捕暴力、追捕罪犯、预报火警等;顾客正在智能超市中“刷脸”支付;士兵通过了面部识别技术的配对后开始使用微型导弹或微型无人机……庞大的机器学习系统正在带来算法训练的大规模应用,专为满足急剧增长的AI推理处理需求而设计的宝德-英特尔新型AI推理系统应运而生,它能够基于所有的框架,为诸如图像和语音识别、自然语言处理、神经机器翻译、视觉搜索、情感分析、推荐系统和个性化建议等各种人工智能工作负载提供快速且高效的推理运算。
人工智能的推理运算正在惠及人类生产生活的方方面面,宝德-英特尔新型AI推理系统将全面满足这些智能+应用的运算需求,加速人工智能应用的普及,共同助力中国数字经济的落地!
附:演讲人信息:
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。