国内领先的高性能服务器厂商,成立于2014年,是华胜天成集团旗下控股子公司。致力于IBM Power服务器的生产制造、国产化和相配套的系统平台与生态环境建设,投入大量研发力量在服务器、数据库、中间件、虚拟化、云计算、大数据等领域,与众多业内顶尖公司签署战略合作协议,力争打造一个完整的生态产业群。
FPGA:
可编程逻辑器件,赛灵思All Programamble旗舰产品系列之一。
All Programmable 器件通过软件和硬件全可编程的优势,可以加速处理,提高吞吐量,有助于创建全新类型的服务器、存储设备和网络解决方案,而且能随着数据中心技术的持续发展灵活地支持虚拟和服务。同时,赛灵思特别为数据中心应用打造了SDAccel软件定义加速器设计环境,为数据中心应用提供了类似GPU和CPU的编程体验,而性能功耗比提升25倍。
CAPI:
即一致性加速器处理器接口,主要用于提升IBM POWER8系统的性能。
CAPI+FPGA:让性能功耗比提升25倍
现代系统有难言之隐,功耗高性能低,
多核系统不能伸展拳脚发挥威力……
然而OpenPOWER基金会早已看穿了这一切,
致力于为成员企业打造一个开放创新的合作平台,
集众之力突破软硬件之间的藩篱。
这让CAPI与FPGA两个小伙伴走到了一起。
▼
一个是IBM向OpenPOWER基金会成员贡献的硬件技术
它提供了高性能一致性的存储接口,
将共享存储空间扩展到1TB,
并简化加速板卡设计,
它并简化了与处理器的集成,
以Memcached应用为例,
节省了800行代码与13500条指令,
工作量缩减到原来的1/20,
它还拥有自由的功能分割,
更便于在基础加速平台上通过处理器提供功能扩展。
▼
一个是赛灵思提供的超级加速器
在计算领域,
图像搜素处理能力提升8倍,
视频转码处理能提升20倍,
图像处理能力提升50倍,
在网络领域,
10倍加密速度,
10倍连接个数,
自由选择协议,
安全处理延迟小于5微秒,
TCP终接延迟小于2微秒,
包交换延迟小于100微秒,
在存储领域,
混合内存提供10倍节能性能,
键值存储将每瓦处理能力提升36倍
延迟则缩减40—100倍,
还支持用户私有算法。
▼
它们齐“芯”协力,
打破软硬件技术之间的界限,
实现软硬结合的异构计算,
也称之为第二代分布式计算的加速,
IBM OpenPOWER新平台应运而生。
这种异构计算在广泛的应用中展现出巨大的优越性,
性能强悍功耗最低,
即使高计算强度算法,
如Smith-Waterman性能仍可提升两倍以上,
FPGA将Power8系统单位能耗效率提升亦超过两倍。
不仅如此,
OpenPOWER与赛灵思
使全C语言设计开发环境变为可能,
更适用于云端开发与测试环境
让大数据、云计算等新兴技术的研发能力
更上一层楼!
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。