2020年2月14日,北京——IBM正式宣布,IBM Z和IBM LinuxONE已经可以全面支持Red Hat OpenShift容器平台。红帽(Red Hat)是混合云和企业级Kubernetes的领导者,已有1000多家客户使用红帽OpenShift容器平台。随着OpenShift 对IBM Z和LinuxONE的全面支持,容器和Kubernetes组成的敏捷云原生世界,将因IBM企业服务器的安全特性、可伸缩性和可靠性的加持,而如虎添翼。
IDC研究总监Gary Chen表示:“容器是新一代的软件定义计算,企业可以利用容器加速自身的数字化转型。IDC估计目前有71%的企业正在实施或者已经在定期使用容器和编排,并且IDC预测,全球容器基础设施软件的5年复合年增长率将达到63.9%,到2022年收入将超过15亿美元。”
不管是对混合多云还是企业计算而言,IBM Z和LinuxONE对OpenShift的全面支持都是一个重要的里程碑。OpenShift支持一次构建以及任意环境部署的云原生应用,如今则扩展到IBM Z和LinuxONE企业服务器上。这是 IBM 与红帽开发团队共同协作,并与早期客户密切探讨的成果。
如今,企业都希望以更快和更高效的方式将业务创新成果推向市场。容器可以将应用及其软件依赖项封装在一起,而Kubernetes可以提供功能强大的工具,用以管理大量容器并编排整个应用生命周期。
OpenShift则将Linux、容器和Kubernetes的核心开源技术相结合,增加开发人员工具和注册表等其他开源功能,并对用于企业生产的软件进行强化、测试和优化。
IBM Systems还与IBM Hybrid Cloud携手绘制了将企业软件生态系统引入OpenShift平台的可靠路线图。IBM Cloud Pak将关键的IBM和开源软件组件打包在一起,帮助实现更快的企业应用开发与交付。今天,IBM也同时宣布IBM Z和LinuxONE将支持IBM Cloud Pak for Applications,以支持企业实现现有应用的现代化和构建新的云原生应用。此外,正如去年8月宣布的,IBM还计划为IBM Z和LinuxONE提供额外的Cloud Paks功能。
通过将Red Hat OpenShift和IBM Cloud Paks的敏捷性和可移植性与IBM Z和LinuxONE的安全特性、可伸缩性及可靠性相结合,企业将拥有构建全新云原生应用的工具,同时也可以实现现有应用的现代化。在IBM Z和LinuxONE上部署Red Hat OpenShift和IBM Cloud Paks,不仅可以增强核心优势,还能带来以下益处:
IBM Z/OS Cloud Broker可以帮助OpenShift应用与IBM Z上的数据和应用进行交互。IBM z/OS Cloud Broker是首个通过更广泛的开发社区提供z/OS服务访问的软件产品。
在IBM Z和LinuxONE上使用OpenShift的客户还可以授权IBM Cloud Infrastructure Center来管理基础架构集群。Cloud Infrastructure Center是一款基础设施即服务(IaaS)产品,可简化基础设施管理,支持IBM Z和LinuxONE上基于z/VM的Linux虚拟机。
作为此次重要发布的补充,IBM还为您整理了如下资源作参考:
2020年上半年,IBM还将在SHARE、Red Hat Summit和IBM Think等一系列活动中,进一步探讨拥有面向IBM Z和IBM LinuxONE的Red Hat OpenShift与IBM Cloud Pak的企业混合多云环境,敬请关注。
IBM认为,Red Hat OpenShift对IBM Z和LinuxONE的支持对于企业级计算平台和混合多云来说,都是一个激动人心的时刻,因为它将两者紧密地结合在一起。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。