2017年8月21日,北京——软件定义存储平台和解决方案业界领先的颠覆性的创新者Bigtera(大兆科技)于近日宣布,推出软件定义存储产品全新版本VirtualStor 6.3,并联合七牛、天云、爱数、灵犀智数、烽火超微等战略合作伙伴,于2017北京国际广播电影电视设备展览会(BIRTV 2017)上,展出该广电行业媒体融合的全方位解决方案和成功案例。
据悉,本届BIRTV 2017的展览主题为“融合媒体智慧广电”,这是当前广电行业最热门的技术,特别在多网融合、高清和4K视频的需求持续上升的市场环境下,如何提高存储容量和扩展性已然成为业界的一项重大技术挑战。为了更好地支撑智慧广电业务的灵活应用,一套存储基础架构需要针对不同业务支持各种类型的数据存储和访问:如海量短视音频文件,图片文件、关键帧文件,大型高清及4K的媒体文件,以及云媒体平台中的各种业务虚拟机的虚拟磁盘文件等。Bigtera存储基础架构平台率先采用了控制平面与数据平面分离及软件定义存储技术,实现了可横向扩展的海量文件存储技术,完美解决了广电行业尤其是新媒体行业数据量爆发式增长的问题。而文件系统数据秒级共享,大大节省了系统间数据共享的时间,进一步提升了业务效率。该平台同时支持两地三中心、最小应急系统、API拷贝等多种数据管理和访问方式,不仅大幅降低了系统病毒扩散的威胁,还有效的保证了数据的可用性及安全性。
本次,Bigtera携手多家战略合作伙伴,为广电媒体业设计完整且融合的解决方案:包括与七牛合作“超融合架构云转码一体机”、与天云合作“云存储解决方案”,与爱数合作“超融合架构网盘容灾备份”,与灵犀智数合作“智存融合媒体大数据一体机”,并基于烽火超微提供的高品质,高性能存储服务器,共同营造了一个“广电+”的应用平台,为专业的广电用户提供更加专业、高效、安全稳定的解决方案。
Bigtera全系列产品,包括VirtualStor Scaler,VirtualStorConverger与VirtualStor SDS Controller ,还可搭配大兆科技独家研发的BigteraStore软件存储引擎。BigteraStore针对传统的分布式横向扩充存储(Scale-Out Storage)不擅于处理随机读取的弱点,利用高性能的SSD做为缓存,配合其独有的IO调度算法,突破了性能上的瓶颈,和其他的软件定义存储系统相比,使用BigteraStore技术的VirtualStor全系列产品每秒随机读写次数(IOPS)提高达10倍以上,大幅缩短了数据访问的时间。
北京大兆科技副总经理游宗霖先生表示:“Bigtera作为初创的软件公司,一直努力不懈地深耕软件定义存储(Software-Defined Storage, SDS)技术,致力开发适合于广电媒体、中大型企业、数据中心的软件定义存储,以协助企业简化管理,降低整体拥有成本,及确保企业永续营运能力。VirtualStor可整合多样的媒体应用,成为融合媒体存储平台,这是我们的最新研发成果,也欢迎更多的用户及合作伙伴加入我们的广电生态圈。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。