近日,DeepSeek发布Janus Pro模型,其超强性能和高精度引起业界关注。英特尔® Gaudi 2D AI加速器现已针对该模型进行优化,这使得AI开发者能够以更低成本、更高效率实现复杂任务的部署与优化,有效满足行业应用对于推理算力的需求,为AI应用的落地和规模化发展提供强有力的支持。
作为一款创新性的AIGC模型,DeepSeek Janus模型集成了多模态理解和生成功能。该模型首次采用统一的Transformer架构,突破了传统AIGC模型依赖多路径视觉编码的限制,实现了理解与生成任务的一体化支持。在此基础上,Janus Pro通过优化训练策略和扩展模型规模,显著提升了文生图等功能的性能与稳定性,并提供了10亿参数和70亿参数两个版本,在性能与精度上展现了较强的竞争力。
在Janus Pro统一的Transformer架构下,文生图模型的吞吐量高低已经从依赖加速器的高算力向充分利用HBM内存高带宽和大容量转换。英特尔® Gaudi 2D凭借 2.45TB/秒的高带宽和 96GB HBM大容量内存,为Janus Pro模型提供了强大的计算支持,使其在生图批处理任务中,随着批量大小(Batch Size)的增加,吞吐性能得到显著提升,大幅缩短任务处理时间。
与此同时,结合英特尔Optimum-Habana框架的优化,英特尔® Gaudi 2D显著提升了文生图任务的吞吐性能和推理效率,仅需约10秒即可生成16张高质量的图片,性能表现卓越。而且,开发者仅需调整数行代码,即可实现这一结果,极大降低了开发门槛和迁移成本,为 AI 应用的高效部署提供便利。
此外,DeepSeek的蒸馏模型在至强和Gaudi平台上也得到了支持,能够为客户创造更好的总体拥有成本(TCO),推动AI的普惠。
一直以来,英特尔始终秉承开放的态度,并通过软硬件相结合的方式推动AI应用落地。目前,英特尔丰富的AI产品组合,包括英特尔®至强®处理器、英特尔®酷睿™ Ultra处理器和英特尔锐炫™显卡等,已经针对业界超过500个开源AI模型提供支持,广泛涵盖DeepSeek、Llama 3.1和通义千问等。同时,英特尔深耕开放生态,不仅以开放生态系统软件实现针对性优化,也通过打造企业AI开放平台(OPEA)为这些模型提供支持。
好文章,需要你的鼓励
Scale Computing 正在将其 SC//Platform 与 Veeam Data Platform 深度整合,扩展 Veeam 不仅限于数据备份恢复,还提供数据管理和网络韧性能力。此次合作结合了 Scale Computing 无缝自动化的 IT 基础设施与 Veeam 业界领先的数据保护平台,通过 SCRIBE 快照技术,实现近乎即时、全方位虚拟机备份及跨环境迁移,预计 2025 年 Q4 上线,现场演示将在 VeeamON 2025 展会呈现。
本文回顾了 Pure Storage 如何利用其元数据引擎、拆分架构及并行处理优势研发 FlashBlade//EXA 系统,实现性能线性扩展,满足高 GPU 训练需求。
切换大型语言模型不仅仅是更换API键。分词方式、上下文长度、指令、格式偏好和输出结构的差异都可能引发意外问题,需精心调试和评估以确保顺利迁移。
本文讨论了企业推进 AI 项目中存在的八大问题,包括用户采纳不足、指令模糊、后续维护缺失、AI 替代人力、AI 洗白、伦理忽视、安全防护不足及缺乏明确政策。