SUSE Linux Enterprise Server for SAP Applications是首个针对Intel Optane DC Persistent Memory与SAP HANA工作负载进行了优化的Linux平台
2019年1月16日——德国纽伦堡——SUSE宣布支持Intel Optane DC Persistent Memory与SAP HANA。现在,SAP HANA用户在SUSE Linux Enterprise Server for SAP Applications上运行时,可以发挥数据中心Intel Optane DC Persistent Memory高容量的优势。通过在距离处理器更近的地方移动和维护更大的数据量,用户可以优化其工作负载,并最大限度地减少维护期间从系统存储中获取数据的较高延迟。为了帮助客户进行IT基础设施转型以降低成本、提升性能、提高效率并增强竞争力,SUSE目前还通过多家云服务提供商和硬件供应商提供对Intel Optane DC Persistent Memory测试版本的支持。
“Persistent Memory技术将会催生新的数据访问和存储应用程序。”SUSE首席技术官Thomas Di Giacomo说道,“通过提供基于Inte lOptane DC Persistent Memory获得完全支持的解决方案,企业可以更好地发挥SAP HANA的性能优势。SUSE持续与SAP和Intel等公司开展合作,服务于世界各地希望通过IT基础设施转型来推动增长的客户。正是他们的需求指引了我们创新方向。”
Intel非易失性内存和存储解决方案部门副总裁兼总经理AlperIlkbahar说道:“Intel Optane DC Persistent Memory代表了一类专为数据中心使用而设计的新型内存和存储技术。此类新型内存旨在高性价比、大容量的内存数据库解决方案,有助于延长系统正常运行时间和加快上电后的恢复速度,以及提升云端规模应用程序的性能。我们与SUSE和SAP合作将这项革新技术带给客户,由此可以帮助他们利用新一代应用程序和服务,在这个以数据为中心的时代实现革命性功能。”
SAP HANA技术创新网络的Martin Heisig说道:“能够为SAP HANA提供PersistentMemory,是我们与SUSE和Intel的长期合作关系中一座意义非凡的里程碑。SAP数字核心的基础理念是简化基础架构以提高工作效率和实时洞察。”
SAP HANA为大小企业提供适用于其SAP应用程序的高性能数据库解决方案。使用SUSE Linux Enterprise Server for SAP Applications运行集成Intel Optane DC Persistent Memory的SAP HANA工作负载,有望帮助客户节省基础设施成本并降低管理开销。由于SAP HANA工作负载在Linux上运行,SUSE Linux Enterprise是目前唯一能够为SAP HANA和Intel Optane DC Persistent Memory提供支持的解决方案。
SUSE Linux Enterprise 12 ServicePack 4包含了对SUSE Linux Enterprise Server for SAP Applications上运行Intel Optane DC Persistent Memory与SAP HANA工作负载的支持,该ServicePack现已在全球范围发布。
好文章,需要你的鼓励
大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mary Meeker)发了一份340页的《人工智能趋势报告》,粗粗看了一下,并没有非常轰动的观点,但是数据比较全面
北京大学与小红书公司联合研究团队提出的Uni-Instruct框架,成功统一了10多种现有单步扩散蒸馏方法。该框架基于新颖的f-散度扩散扩展理论,通过可计算的等价损失函数训练单步扩散模型。实验表明,Uni-Instruct在CIFAR10和ImageNet 64×64数据集上创造了新的单步生成记录,FID分别达到1.46和1.02,甚至超越了其79步教师模型。研究还成功将该方法应用于文本到3D生成任务,展示了统一框架在提升生成质量和效率方面的巨大潜力。
毫无疑问,Agent,也就是智能体已经预定了今年的最火AI关键词。不知道明年会不会是AGI呢,既然OpenAI和Anthropic的预测都是在2027年左右。而在Agent领域,非常有发言权的一位就是吴恩达。LangChain前不久的开发者活动Interrupt上,LangChain创始人Harrison Chase邀请了吴恩达专门做了一场对话
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。