富士通实验室正在努力满足在处理分析工作负载的大数据系统中加快处理速度的需求。
近日富士通表示,已经开发了一项新技术可以帮助在分布式存储系统中高速处理大数据,并且信息是保存在多个驱动器中的。这项新技术是在开源Ceph分布式存储框架上实现的,富士通认为它可以很好地运行以消除服务器尝试从这些存储系统读取数据时出现的瓶颈。
富士通工程师在博客文章中谈到了所谓的“Dataffinic Computing”技术,他表示,存储和服务器之间流动的大量数据是分析系统延迟的主要原因。但是通过在存储中处理这些数据,他们认为这样可以加快速度,因为不需要先移动数据。
Dataffinic Computing通过网络连接多个服务器,同时保持原始存储功能。富士通说,这种方法分解了非结构化视频和日志数据,让所有数据都更容易访问和压缩。
“这意味着分散于分布式存储中的数据可以单独处理,保持访问性能的可扩展性,并提高整体系统性能,”富士通的工程师声称。
富士通的系统还可以预测在分析数据时维护数据所需的存储资源需求。
“存储节点面临各种系统负载以安全地维护数据,包括错误后的自动恢复处理,添加更多存储容量后的数据重新分配处理,以及作为预防性维护一部分的磁盘检查处理,”富士通的工程师写道。“该技术模拟了存储系统中出现的系统负载类型,预测了不久将来所需的资源。基于此,该技术控制数据处理资源及其分配,而不会降低系统存储功能的性能。”
富士通表示,Dataffinic原型系统包括5个存储节点和5个服务器,由一个千兆网络连接。工程师们通过从50GB视频数据中提取出例如人和车等对象来测量其数据处理性能。
工程师表示,Dataffinic系统可以在50秒内处理这些数据,这比使用传统方法处理数据所花费的500秒缩短了10倍。
“这项技术可以实现对爆炸式增加的数据进行可扩展和高效的处理,”富士通工程师这样表示。
Constellation Research分析师Holger Mueller表示,富士通的这项新技术可能很有用处,因为存储对于依赖大数据的下一代软件应用来说至关重要。
Mueller说:“企业需要坚持数据进行时间分析、记录保存和法定监管。因此,存储硬件制造商必须创新,应对必须存储和处理的越来越多的数据。很高兴看到研发投资带来了新的高性能存储选择。”
下一步将是通过商业应用验证该技术。如果运行可靠的话,富士通计划在2019年之前将基于该架构的新产品推向市场。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。