ZD至顶网服务器频道 04月05日 新闻消息(文/邹大斌): 尽管由于手续和流程方面的原因,新华三还没有正式宣布成立,但透过旗下的紫光华山和杭州华三通信的市场行为,我们看到其市场战略却已经清晰地显露出来:新华三将采用HPE和H3C的双品牌,并坚持以国际并购带动自主创新的市场战略。
新华三集团将由紫光华山和杭州华三通信两家下属公司共同组成。其成立源于2015年5月21日紫光集团与惠普公司达成的协议:紫光集团收购中国惠普公司旗下“新华三”51%的股权,HPE全球会占49%的股份。交易完成后,紫光华山(原中国惠普公司企业业务集团)与华三通信将成为新华三集团下属公司。
“新华三将采用HPE和H3C的双品牌战略,坚持以国际并购带动自主创新,这也将成为未来新华三的竞争优势。”紫光华山CEO叶健在日前的媒体沟通会上表示,在业务分布上,紫光华山是HPE品牌与H3C品牌服务器、存储、技术服务在中国市场的独家提供者, 而华三通信是网络、安全、无线及相关技术服务的提供者。
他说,成立之后的新华三将成为能够给客户提供最全面的产品和解决方案的公司:从最底层的数据中心基础设施到IT基础架构及相关服务,包括设计、实施、运维全生命周期的服务,这是其他竞争对手所不能比的优势。
实际上,这种战略布局早就已经开始运作。就在不久前,紫光华山宣布推出四款H3C品牌全新的服务器和2款H3C的存储产品,包括面向计算密集型和数据密集型的大型企业应用的4U机架服务器H3C R6800 G2和2U机架服务器H3C R6600 G2,以及面向大型数据中心主流应用的2U机架服务器H3C R4800 G2和1U机架服务器H3C R4600 G2;以及2款全新H3C品牌的存储产品H3C ConvergedFabric 8800 Storage系列存储系统和H3C ConvergedFabric 22000 Storage系列存储系统。
“紫光华山是HPE与H3C的服务器、存储、技术支持服务在中国唯一的提供者,也是技术咨询服务的提供者,我们会继续提供HPE的技术支持服务。同时,我们也会在中国推出H3C品牌服务器、存储以及相关的技术支持服务。”叶健介绍。
这就意味着现在紫光华山将同时拥有HPE品牌的服务器、存储和H3C品牌的服务器和存储,那么,这两个品牌之间市场定位如何区隔?
HPE中国区副总裁、紫光华山存储产品事业部总经理黄强对此解释说,“其实双品牌的定位还是非常清晰的。如果一个客户希望拿到原汁原味的全球性的产品可以选择HPE品牌——现在中国市场HPE品牌的服务器、存储确实跟美国市场销售的完全一模一样;而市场上H3C品牌的服务器和存储,则是完全针对中国市场规划设计制造的品牌。”
黄强表示,HPE和H3C品牌之间将形成良好的市场互补关系而不会是市场竞争关系。“以前,我们就发现中国本地的客户会有一些本地的需求,比如配置、价格和服务等。当时只有HPE品牌,我们没法充分满足客户这样的需求。而现在我们有了双品牌策略,其中的H3C品牌就是希望弥补原来无法满足的需求,为本地的客户提供更多样化、弹性化、灵活的产品和服务。”
据悉,负责新H3C品牌服务器与存储产品设计的是新华三旗下的华三通信,其拥有三千多人规模的本土研发团队,由于长期与HPE全球研发力量保持着协同研发的紧密关系,所以具备强大的科技研发实力、全球化的研发视野,以及与HPE同等级甚至更高的测试、品控标准。这个研发部门将为紫光华山和华三通信共同研发产品。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。