众多使用IBM Z大型机的组织机构将其视为处理任务关键型工作负载最值得信赖的平台,这也是包括银行、保险公司在内的众多世界顶级金融机构,航空公司,政府机构和医疗组织使用IBM Z运行业务的原因所在。
但是,IBM Z能够应对如今最重要的商业挑战吗?例如,如何在多云的世界中实现云的扩展和安全交付?如何防范日益严重的网络安全威胁?如何利用人工智能(AI)和区块链进行创新以更迅速地对市场和客户期望做出反应?又或者如何提供始终在线且具有弹性的基础设施?
2月12日至15日,在旧金山举行的Think 2019大会探讨了IBM Z大型机如何应对当今和未来的挑战。通过汇集来自全球的行业思想领袖,Think 2019带来了包括研讨会、技术会谈、智库、实践实验室在内的各类不同的精彩体验,企业首席信息官、新的应用程序开发人员和其他相关人员获得了加速灵活的数字化转型、利用安全功能应对威胁、以及在专用基础设施上部署现代工作负载等方面的真知灼见。而这些都离不开弹性多云策略的核心——IBM Z。
为了应对客户不断增长的需求, 许多组织机构都在对其IT基础架构和流程进行转型, 以增强灵活性并加快新型数字交互的交付。IBM Z将在这些数字变革中发挥核心作用。无论客户是在IBM z/OS或Linux上构建新的应用程序,还是扩展/更新现有应用程序,IBM Z都提供了一系列旨在加快和简化开发的工具,例如:
对于许多组织机构而言,数据是最宝贵的资产。随着安全威胁的数量和种类的持续增长,用户合规性和监管要求也更加严格。企业需要更全面的方法来保护有价值的数据,并防止出现危及企业声誉,侵蚀客户基础的风险。
IBM Z的普遍加密(Pervasive encryption)功能可以帮助用户显著降低风险并简化合规性。无论数据位于应用程序、数据库或云服务还是其他地方,这一创新技术都能对正在使用或存储的所有数据进行加密。IBM Z平台在设计时充分考虑并融入了安全功能,并且通过与一整套全面的解决方案(如针对z/OS的IBM多因素身份验证),或者与包括IBM Hyper Protect Services在内的Z即服务(Z-as-a-service)进行结合,进一步增强了安全性。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。