近日,DeepSeek发布Janus Pro模型,其超强性能和高精度引起业界关注。英特尔® Gaudi 2D AI加速器现已针对该模型进行优化,这使得AI开发者能够以更低成本、更高效率实现复杂任务的部署与优化,有效满足行业应用对于推理算力的需求,为AI应用的落地和规模化发展提供强有力的支持。

作为一款创新性的AIGC模型,DeepSeek Janus模型集成了多模态理解和生成功能。该模型首次采用统一的Transformer架构,突破了传统AIGC模型依赖多路径视觉编码的限制,实现了理解与生成任务的一体化支持。在此基础上,Janus Pro通过优化训练策略和扩展模型规模,显著提升了文生图等功能的性能与稳定性,并提供了10亿参数和70亿参数两个版本,在性能与精度上展现了较强的竞争力。

在Janus Pro统一的Transformer架构下,文生图模型的吞吐量高低已经从依赖加速器的高算力向充分利用HBM内存高带宽和大容量转换。英特尔® Gaudi 2D凭借 2.45TB/秒的高带宽和 96GB HBM大容量内存,为Janus Pro模型提供了强大的计算支持,使其在生图批处理任务中,随着批量大小(Batch Size)的增加,吞吐性能得到显著提升,大幅缩短任务处理时间。
与此同时,结合英特尔Optimum-Habana框架的优化,英特尔® Gaudi 2D显著提升了文生图任务的吞吐性能和推理效率,仅需约10秒即可生成16张高质量的图片,性能表现卓越。而且,开发者仅需调整数行代码,即可实现这一结果,极大降低了开发门槛和迁移成本,为 AI 应用的高效部署提供便利。

此外,DeepSeek的蒸馏模型在至强和Gaudi平台上也得到了支持,能够为客户创造更好的总体拥有成本(TCO),推动AI的普惠。
一直以来,英特尔始终秉承开放的态度,并通过软硬件相结合的方式推动AI应用落地。目前,英特尔丰富的AI产品组合,包括英特尔®至强®处理器、英特尔®酷睿™ Ultra处理器和英特尔锐炫™显卡等,已经针对业界超过500个开源AI模型提供支持,广泛涵盖DeepSeek、Llama 3.1和通义千问等。同时,英特尔深耕开放生态,不仅以开放生态系统软件实现针对性优化,也通过打造企业AI开放平台(OPEA)为这些模型提供支持。
好文章,需要你的鼓励
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
微软正式确认配置管理器将转为年度发布模式,并将Intune作为主要创新重点。该变化将于2026年秋季生效,在此之前还有几个版本发布。微软表示此举是为了与Windows客户端安全和稳定性节奏保持一致,优先确保安全可靠的用户体验。配置管理器将专注于安全性、稳定性和长期支持,而所有新功能创新都将在云端的Intune中进行。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。