至顶网服务器频道 08月08日 新闻消息: 经过几个月的使用和评估,我们决定将华为的FusionServer纳入我们全球采购目录,让华为成为我们的一个主要硬件供应商。所以自2016年初以来,我们在美国,欧洲和亚太地区持续采购华为服务器……华为提供构建强大数据中心所需的全系列产品。我们可以从一个供应商处购买到模块化集装箱、服务器和网络交换机,这一点对我们来说非常有吸引力。
客户背景
全球科技公司Criteo成立于2005年,通过在全球范围内进行个性化宣传,为广告客户带来更多的销售。通过自行研发的预测算法,Criteo能够在正确的时间向正确的用户提供关于正确产品的广告。通过测量点击后销售的回报率,Criteo使投资回报率变得透明和易于测量。这是一项由近17万台服务器支持起来的数据密集型业务。
Criteo网络的运营核心,是世界上最大的私有Hadoop平台。这个开源软件框架负责存储"大数据",在商用硬件集群上运行应用程序,支持所有类型数据的海量存储,具有强大的处理能力,理论上可以处理几乎无限数量的并发任务和作业。在Criteo,该平台每天处理的工作多达85,000项。
业务挑战
随着在线零售业的不断普及,Criteo解决方案的需求量大幅增长。处理数据的也不断增加。2015年1月,Criteo开始考虑构建一个新的Hadoop集群。 Criteo基础设施业务工程总监Matthieu Blumberg解释说:
"我们通过大数据发现,当我们拥有的数据越多时,想要的也就越多,需要的也就越多。对我们来说,这意味着我们现有的Hadoop集群,相对于现有的需求来说,已经太小了,所以我们决定建立一个新的。这使得我们有机会挑战整个基础架构堆栈领域,并了解其他硬件供应商。"
解决方案
Criteo将请求提案(RFP)发送给六家公司,其中包括了华为和Criteo目前的供应商。根据这些公司的回复情况,Criteo选择了三个候选解决方案进入名单。华为就是在这个时候开始引起Criteo注意的。Matthieu Blumberg继续说道。
"华为对RFP的回应令我们印象深刻。华为显然事先做了足够的功课,他们已经深入地解了我们用Hadoop所做的工作。他们给出的解决方案紧密贴合我们的业务,而且还针对服务器的电源提供了替代方案,这清楚地表明他们完全了解Hadoop集群是如何运行的。"
华为提供的解决方案基于新一代2U双插槽机架式服务器FusionServer开发完成。该解决方案提供灵活的资源扩展能力以及强大的计算性能,是互联网,大数据,云计算和关键企业应用的理想选择。
在评估过程中,Criteo从三家供应商中分别购买了十台服务器,并在每组中建立了一个小型Hadoop集群,进行性能对比。这个标杆活动评估了设备性能,Linux功能,电源使用和驱动程序支持。最后华为得分超过其他供应商,因此Criteo选择了华为。Matthieu Blumberg补充说:
"FusionServer超过了我们设定的所有标准。但是真正令我们印象深刻的是华为愿意帮助我们,愿意回答我们的问题。例如,我们想要深入检查系统的硬盘,其他供应商不准备让我们这么干,但是华为给我们提供了支持。短短几天之内,华为就向我们提供了检测所需要的工具。"
客户收益
与其他厂商产品相比较,FusionServer提供了最高的硬盘驱动器密度,每台服务器支持16块硬盘,比最接近的厂商多一块。功耗却比其他厂商低20%,优势明显。关键的是Criteo现在可以用合适的价格提供客户所需要的所有服务。
"经过几个月的使用和评估,我们决定将华为的FusionServer纳入我们全球采购目录,让华为成为我们的一个主要硬件供应商。所以自2016年初以来,我们在美国,欧洲和亚太地区持续采购华为服务器。"Matthieu Blumberg说。
展望未来,Criteo认为,现代化数据中心运行需要许多设备的支持,而华为已经被Criteo视作一个潜在主要供应商。Criteo已经购买了更多的网络设备,Matthieu Blumberg总结说:
"华为提供构建强大数据中心所需的全系列产品。我们可以从一个供应商处购买到模块化集装箱,服务器和网络交换机,这一点对我们来说非常有吸引力。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。