ZDNet至顶网服务器频道 01月13日 新闻消息:提到ARM,总免不了要提到Calxeda公司,这家公司成立于2008年,是最早研究ARM服务器芯片的厂商之一。在很多芯片公司刚刚开始研究如何将ARM用于数据中心的时候,Calxeda已经拥有了面向高密度、多核环境的32位SoC和架构技术,堪称一家行业先锋。
不过Calxeda命途多舛,即便是有了产品和技术,但市场似乎还没准备好。去年12月,Calxeda花光了融资,其CEO Barry Evans不得不关掉公司,遣散大部分员工。
一年之后,事情出现了一些变化。一家名为Silver Lining Systems(SLS)的公司利用Calxeda的SoC及架构技术开始研发计算和存储服务器,并将在2015年正式推出——已经淡出我们视线的Calxeda,将改头换面,以另一种方式重新加入市场竞争。
Barry Evans将担任SLS公司的顾问,他很乐于见到Calxeda的技术重焕生命力:“一年之后,它仍将是一个伟大的产品,一个伟大的技术。”
SLS是主营云游戏业务的AtGames Cloud Holdings公司的云计算子公司,AtGames去年开始开发基于Calxeda技术的系统,在Calxeda倒闭之后,AtGames仍旧希望继续Calxeda系统的开发,于是购买了Calxeda的资产,并在子公司SLS设立了专门的部门从事大规模云计算技术的研发,同时SLS还在与ARM和富士康合作。
如今,SLS已经成功研发了基于Calxeda技术的原型系统,将在2015年早些时候问世。
Calxeda是ARM服务器芯片的最早参与者,成功研发了32位ARM服务器芯片,并与HP和Dell等服务器OEM进行了合作。但随后ARM向合作伙伴公布了64位ARMv8架构,而此时花光融资的Calxeda已经无力再转投64位ARM的研发,无奈关门。
2014年,很多芯片制造商如Applied Micro、Cavium、AMD和Marvell等均发布或者开始准备64位ARM芯片,芯片巨头高通也宣布将研发ARM架构服务器SoC,其他一些系统制造商,如超级计算机制造商Cray也表示开始评估ARM架构。
SLS网站公布了一些技术细节,SLS不仅应用Calxeda技术来开发芯片,同时还包括二层交换架构、互联技术和管理功能等。在一个多核心环境中,互联架构是保证核心效率的关键。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。