惠普Gen8系列对于服务器产品的革新意义让人记忆犹新,惠普工业标准服务器产品部业务发展经理在Gen8产品及刀片工作站座谈会上就Gen8的性能优势及惠普刀片工作站的革新进行了详细介绍。
传统工作站的不利因素
传统工作站在布局上保障了客户数据的安全性,使企业的核心数据在客户“脚下”,也使传统工作站在一定意义上成为无可替代的一种产品。但由于体积、管理、性能等原因,传统工作站也有弊端。
一是约70%的员工在需要离开公司办公时,会带走他们的数据以防泄密,而在数据转移的过程中,势必 降低了数据的安全性;二是传统工作站管理效率很低,如果后台出现问题,解决起来非常麻烦,甚至会直接造成无法解决的严重后果;三是传统工作站的图形处理能 力有限,有时难以满足高要求的图形计算。
惠普刀片工作站的优势
基于以上传统工作站的几个弊端,反观惠普推出的全新Gen8刀片产品,如HP ProLiant BL660c Gen8刀片服务器。新式刀片工作站可以将复杂的图形计算能力从客户端转移到数据中心里,由数据中心来承担高性能的计算需求,实现了产品形态上的革新。
同时,数据中心的安全性最有保证,所以用户只需从数据中心进行调用,最大限度地保证了数据不会受到损失。
此外,目前的客户端多种多样,PC机、一体机、笔记本、以及平板电脑等都能成为终端设备,所以刀片工作站的革新同时实现了用户数据的后移。比如客户通过网络传输协议传输图片,就可以让一切实际工作都在后台数据中心中运行,实现了高效管理,也能提升处理效率。
惠普的刀片工作站能在10U的空间内集成16片双路图形工作站,每个刀片上分别设有独立的电源和风 扇,整个工作站的散热系统都在10U的空间内进行设计,从而缩小了工作站的体积,也使管理变得更加简洁。而其使用方式又可以和传统工作站相同,真正实现了 节能与高效的共存。
惠普刀片工作站的应用
目前,企业在选购单台服务器产品时多数会选择机架式,而需要做到集群的时候,刀片就有了较大的发展空间。长期以来,惠普也实现了横纵向的多种合作,比如与SAP的结盟深化市场合作,并得到了SAP IS认证,为惠普的生意开展打下良好基础。
就像之前人们逐渐从塔式服务器认识机架式服务器一样,在服务器市场中,刀片产品也越来越受到人们的重视,这种更新换代的市场规律也将持续。惠普的刀片产品也正在遵循一个“刀片系统——虚拟化——云计算”的历程,最终将应用落在云端。
惠普表示,如今的互联网行业多数选用高密度的服务器产品,并有使用刀片的趋势。刀片产品首先能够节省能源消耗,其次还利于管理。
互联网公司对于设备性能和维护成本的重视可以理解为三七开,设备的性能占三成,而后期的维护则占到了七成,正因如此,更能节省后期维护开支的刀片服务器,将在未来的互联网行业中扮演更加重要的角色。
惠普刀片工作站的前景
从推出首台x86架构服务器,到推出首台刀片服务器,惠普一直走在服务器发展的前端。全新的刀片工 作站实现了速度与功能上的平衡,智能管理技术能够提示硬盘寿命;特殊的指示灯防止服务器意外当机;整个阵列卡采用无电池技术,却也能使RAID具有记忆功 能。一系列的创新设计都体现出惠普刀片工作站的良好前景。
惠普表示,刀片工作站对于他们来说并不是单一产品,而是对整个惠普工作站的有力补充,也是对整个跨部门解决方案的有力补充。随着技术的不断革新,惠普刀片工作站将成为市场中新的增长点。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。