ZDNet至顶网服务器频道 03月23日 编译:ARM公司于上周二在台湾召开的会议上向各投资者作出承诺,将在2020年占据服务器芯片市场中20%的份额,这一承诺通过亚洲各大媒体将声音传播到了全世界。
一份小规模调查显示,此次20%市场份额的发展目标早在今年二月中旬的一次投资者沟通活动就已经被提及,ARM公司同时通过以下图表以说明达成这一目标的具体步骤:
在这份演示资料的其余内容中,ARM公司还明确表示了进军核心数据中心工作负载的壮志,特别是在超大规模数据中心领域。演示资料同时指出,截至2020年ARM公司的芯片产品将出现在约20款设备当中,这意味着该公司将主要面向白盒运营商以及供应商的利基服务器产品。
ARM公司对于数据中心市场的拓展信念源自其芯片出色的低功耗水平与平易近人的冷却要求,外加适合超大规模环境下高密度设备运行效率需求的各理想特性。Cavium等厂商已经开始构建48核心ARMv8芯片以支持ARM的发展规划,并确保此类产品能够与Xen虚拟机管理程序协作良好,这无疑将进一步推动ARM芯片在服务器市场上的普及。
不过坏消息同样存在,ARM公司的投资者们也需要为英特尔此前刚刚公布的至强D处理器做好准备,这是一套专门面向超大规模运营体系所打造的完整至强设计方案。
系统平台的成功与失败往往取决于运行在其上的软件产品,ARM公司将赌注押在将有大量开源平台支持其计算架构这一未来可能性上,只有这样各类应用程序才能将ARM作为x86之外的一大重要备选平台。
ARM公司确实吸引到了相当程度的关注,但是否足以支持其在2020年占据高达20%的服务器市场份额恐怕还是个未知数。ARM公司投资者关系副总裁Ian Thornton曾在报道中指出“这是一块即将迎来增长的新兴市场。”不过达成这一目标的前提在于,ARM公司确实做出了准确可信的预期。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。