金秋九月,要说最热闹的地方,一定少不了陆续开学的大学校园,今年被录取的新生从五湖四海赶来,正式开启了大学生涯。宏杉科技这位企业级存储“专业”的“学生”此前也已经被众多高校“录取”,在智慧校园建设中贡献数据存储力量,助力提升高校数字化水平。
01 北京大学医学部——为校园关键数据安上“双保险”
北京大学医学部前身为国立北京医学专门学校,是中国政府依靠自己的力量开办的第一所专门传授西方医学的国立医学校。百余年来,医学教育薪火相传。
为了更好地满足日益增长的业务数据“存管用”需求,宏杉科技为北大医学部数据中心提供“双活+复制”的数据存储解决方案——一方面,通过构建高端存储双活架构,既能够充分发挥高端全闪MS7000系列的性能优势,为邮件系统、教务系统、OA、门户网站等虚拟化业务高效运行提供强有力的支撑,又能凭借双活特性实现无感知情况下的系统自行切换,保障在任意一台设备发生故障时业务不中断;另一方面,为充分保障数据安全,宏杉科技还通过复制方式将虚拟化平台数据进行备份,为校园关键数据安上“双保险”。
02 北京师范大学——全方位保障数据中心各项业务高效运行
北京师范大学是中国历史上第一所师范高校,以教师教育、教育科学、文理基础学科为主要特色,秉承着“学为人师、行为世范”的校训精神,为我国培养了众多人才。
宏杉科技全面参与了北师大数据中心的升级项目,以“集中式存储+分布式存储+备份”的一站式解决方案,为数据中心构筑了坚固底座。项目建设包含紧耦合四控集中式存储MS9000G2、万象分布式存储、备份一体机等核心设备,支撑全校数据库及虚拟化平台关键业务高效稳定运行,可满足各业务系统未来5年数据增长的需求。
03山东大学——携手打造新一代校园云数据中心
山东大学作为教育数字化的先行者,秉承“为天下储人才,为国家图富强”的办学宗旨,贯彻教育数字化战略,全面推进智慧校园建设。
宏杉科技以“保证架构健壮、数据可靠”为基础思路,为山东大学新一代云数据中心建设提供完整的一站式数据存储解决方案。项目建设以存储双活及CloudSAN为基础架构,涵盖全闪存、高中端SAN存储、万象分布式存储等产品,支撑校园一卡通、邮件系统、公共信息服务平台、财务系统等10+核心应用,让山东大学数字校园更可靠,关键应用更高效、数据管理更统一。
04 西南交通大学——为图书馆插上“数字翅膀”
西南交通大学图书馆(三校区)纸质图书藏书量逾311万册,各类型中外文电子数据库141个,电子资源(折合)馆藏量1540余万册,各校区图书馆之间实现了纸本文献的通借通还和电子资源的共享。
为满足日益增长的电子资源对存储空间的需求,保障图书馆各项应用稳定运行,宏杉科技为西南交大图书馆提供“高端存储双活+灾备”解决方案以实现数据管理转型升级。一方面,在犀浦校区以2套具备业界最高可靠性的紧耦合四控高端存储MS9000G2对原已服务7年之久的宏杉MS7000系列存储进行升级,承载借阅系统、移动图书馆、电子数据库、电子资源等核心系统,并通过双活架构保障业务运行的稳定性;另一方面,在九里校区部署一套宏杉中端存储,通过专线链路实现跨校区的远程容灾备份,为核心数据安全保驾护航。
党的二十大报告提出要推进“教育数字化”。截至目前,宏杉科技的产品与解决方案已广泛应用于千余所教育行业相关机构,其中包含80余所“双一流”高校。十年树木,百年树人。面向未来,宏杉科技将持续深耕教育行业,为智慧校园贡献更多数据存储与管理方案,让校园数字化建设行稳致远。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。