这家初创企业拥有强大的支持者帮助其占领中国市场。
GPU加速分析企业SQream公司刚刚在其B轮融资当中筹得2640万美元。此轮融资由中国跨国企业阿里巴巴牵头,而就在今年早些时候,阿里巴巴还曾为其另一家云合作伙伴豪掷资金。
SQream 公司推出的数据仓库方案DBMS能够在英伟达GPU之上运行重复性底层代码,从而加快分析速度。
今年2月与中国巨头企业阿里巴巴的正式签约,意味着阿里方面的客户将能够通过阿里云访问SQream,从而实现对数据的设置、访问与分析。
来自Oracle及SQL Server等原始数据库的数据,将通过现有ETL工具进入SQream。当然,用户也可以根据需求选择其它新型数据流工具。
SQream所支持的硬件类型包括一切配备有英伟达Tesla、V100、P100以及K80 GPU的服务器。运行有Linux的戴尔、HPE以及IBM Power服务器皆可供SQream客户选择。其使用的存储系统则来自DDN、戴尔-EMC、IBM、NetApp以及X-IO,当然亦支持软件定义存储。
那么E8与Excelero推出的NVMe-oF存储能否受到支持?公司CEO兼联合创始人Ami Gal对此无法发表评论。不过将两家产品的快速访问阵列与SQream的数据库相对接似乎是个相当顺理成章的决定。
SQream公司在北美拥有直销机构,目前亦在其它地区寻找合作伙伴。其已经与印度的ACL Mobile以及泰国的AIS建立合作关系。Gal表示:“我们觉得自身在亚洲领域可能不会获得太大的成功。”
“我们当然希望在中国占得一席之地……不过考虑到阿里巴巴迅猛的发展态势与扩张步伐,我们打算转移至其它市场。”
其它数据仓库厂商与分析数据库供应商可能也将因此得到启发,并要求其工程师及技术架构师着力推动GPU对接能力。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。