近日,联想着力打造企业级服务升级计划,其中,高效稳定的专业系统搬迁服务为某研究院提供了量身定制的解决方案,包括项目组织管理、数据备份、设备拆卸、配件标签、场地检查确认、装机、操作系统确认/恢复、系统重配置等一系列工 作,充分保证了某研究院的IT设备投资,确保新工作环境的有效操作;灵活的搬迁解决方案满足了某研究院特定的业务需求。另外,联想全程的统一协调大大节省 了迁移时间,降低了财务风险。
某研究院是以先进航空动力技术预先研究、产品研制开发和整机鉴定试验为主业的航空科研事业单 位,隶属于中国航空工业集团公司。其IT基础架构系统有小型机、存储、服务器、磁带库、网络等各种设备约110台,设备品种繁多、设备部署应用和管理模式 多样,其上运行着研究院所有主要应用和业务系统,各种应用和设备之间关联非常复杂。此次搬迁工程涉及两大机房,所有业务系统、SAN存储网络系统、网络安 全系统及相关设备需要由A市中心机房迁至C市新中心机房,由B市中心机房迁至C市新屏蔽机房,工程量大且稳定性要求高。
在对研究院系统搬迁需求进行仔细分析之后,联想咨询组制定了完整搬迁策略。首先整理现有IT设 备和系统相关信息,形成有参考价值的勘察报告;然后从组织、技术、流程等方面入手,对系统、网络、备份系统进行整合优化;合理规划新机房,满足现有设备搬 迁运行需求并考虑较长时期内业务发展需求;制定安全有效的整体搬迁策略,使得业务能平稳迁移;充分利用现有设备,控制新投入设备费用,降低风险;在可控的 范围内尽量缩短新老机房并行周期。
而基于风险可控、业务影响最小、先易后难的项目原则,联想给出了具体的搬迁方案。某研究院通过新购部分存储、网络、服务器设备,在新机房搭建新的SAN网络,并将网络服务器区和客户端区延伸到新机房。在新机房所有关键基础设施不存在单点故障的前提下, 再对应用系统进行逐一搬迁。对于不同特性的业务系统,迁移的策略也做出了相应地调整。虚拟机环境下的24*7核心业务系统采用在线迁移,24*7核心业务 系统采用冗余环境分批搬迁,重要的非24*7业务系统采用搭建临时环境迁移,而其他非24*7业务系统则采用物理搬迁。整个方案中值得一提的是对数据保护 的重视。军工行业数据的价值和重要性不言而喻。虽然研究院小型机的系统和数据已经在日常的维护中利用内置磁带机和磁带库定期进行系统和数据备份,PC服务 器和刀片服务器的数据部分通过磁带库进行了备份,但磁带备份很难做到及时有效的数据恢复。因此,联想有针对性地给出了不同的数据保护策略:小型机系统(含 APP)用内置磁带机备份操作系统,数据通过存储复制工具进行在线迁移,视情况购买或临时租借存储和License;PC服务器和刀片服务器系统采用备份 软件对重要文件系统、操作系统进行备份,拷贝放置在存储空间,连接存储的数据保护与小型机数据保护策略一致,未连接存储的数据保护与系统保护策略一致。
某研究院利用联想有效的搬迁策略和专业的服务,将IT生产系统快速的、安全的从旧机房搬迁到新机房,减少业务停业时间和中断次数,最大限度地降低了对业务的影响。联想在对研究院IT系统和应用系统现状的梳理之后,帮助其建立了一套规范、准确、全面的IT资产清单,使得研究院的机房运维管理更加规范,并且符合军工行业的标准。通过此次搬迁,研究院还实现了系统在新机房的重新部署,优化系统和运维服务流程,并形成全套规范的系统设计、集成部署文档及全面的设备档案,提高系统的可管理性和可维护性,保障系统在新机房高效稳定运行。
在整个项目实施过程中,联想发挥自身在系统搬迁业务上的全球领先优势,深入理解某研究院的业务 需求和IT环境,运用成熟的实践经验和周密的项目管理,利用充足的实施资源和技术储备,依靠丰富的咨询知识、专业化的技术和搬迁团队,确保了搬迁的顺利完 成,系统运行的平稳过渡。这是联想企业级服务在军工行业领域里一次成功的实践经验,也将为挖掘更多的联想企业级服务如整体维保、数据安全保护等提供支持。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。