近日,DeepSeek发布Janus Pro模型,其超强性能和高精度引起业界关注。英特尔® Gaudi 2D AI加速器现已针对该模型进行优化,这使得AI开发者能够以更低成本、更高效率实现复杂任务的部署与优化,有效满足行业应用对于推理算力的需求,为AI应用的落地和规模化发展提供强有力的支持。
作为一款创新性的AIGC模型,DeepSeek Janus模型集成了多模态理解和生成功能。该模型首次采用统一的Transformer架构,突破了传统AIGC模型依赖多路径视觉编码的限制,实现了理解与生成任务的一体化支持。在此基础上,Janus Pro通过优化训练策略和扩展模型规模,显著提升了文生图等功能的性能与稳定性,并提供了10亿参数和70亿参数两个版本,在性能与精度上展现了较强的竞争力。
在Janus Pro统一的Transformer架构下,文生图模型的吞吐量高低已经从依赖加速器的高算力向充分利用HBM内存高带宽和大容量转换。英特尔® Gaudi 2D凭借 2.45TB/秒的高带宽和 96GB HBM大容量内存,为Janus Pro模型提供了强大的计算支持,使其在生图批处理任务中,随着批量大小(Batch Size)的增加,吞吐性能得到显著提升,大幅缩短任务处理时间。
与此同时,结合英特尔Optimum-Habana框架的优化,英特尔® Gaudi 2D显著提升了文生图任务的吞吐性能和推理效率,仅需约10秒即可生成16张高质量的图片,性能表现卓越。而且,开发者仅需调整数行代码,即可实现这一结果,极大降低了开发门槛和迁移成本,为 AI 应用的高效部署提供便利。
此外,DeepSeek的蒸馏模型在至强和Gaudi平台上也得到了支持,能够为客户创造更好的总体拥有成本(TCO),推动AI的普惠。
一直以来,英特尔始终秉承开放的态度,并通过软硬件相结合的方式推动AI应用落地。目前,英特尔丰富的AI产品组合,包括英特尔®至强®处理器、英特尔®酷睿™ Ultra处理器和英特尔锐炫™显卡等,已经针对业界超过500个开源AI模型提供支持,广泛涵盖DeepSeek、Llama 3.1和通义千问等。同时,英特尔深耕开放生态,不仅以开放生态系统软件实现针对性优化,也通过打造企业AI开放平台(OPEA)为这些模型提供支持。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。