至顶网服务器频道 05月30日 新闻消息(文/邹大斌):HPC(超算中心)正在成为越来越多高校的标配,南方科技大学也不例外。尽管建校时间不长,但在超算中心这件事上丝毫不含糊,不到两年先后完成了超算中心的初建和扩建,为学校的教学和科研提供了非常好的支持。特别是去年下半年,在南方科技大学、英特尔、联想共同努力下,南方科技大学超算中心二期完成,荣登2018年下半年的全球超算TOP500强,在支持科研和教学之外,还提升了大学的知名度。
南科大超算中心二期
身处改革开放前沿深圳的南方科技大学(以下简称南科大)是一所新兴的大学,2012年才正式建成,不过科技实力并不弱,在中国众多的大学综合科研实力排名也比较靠前。对于一个新成立的大学科研实力能快速挤进高校前列,与南科大拥有一支高水平的教学和科研队伍分不开,同样也与南科大为这些一流人才创造的良好科研条件密不可分,超算中心的建立就是其中之一。
“我们学校的教授有80%都是从国外请来的,他们要进行科研,对计算资源的需求量在不断增长。还有我们的大学生、博士后等,对计算的要求都比较高。超算中心的建立就是为了满足这些需求。”南方科技大学副校长鲁春在接受采访时表示。鲁春是南科大超算中心的主要发起者和推动者,他也是2015年从国外回来的。回到南科大不久,鲁春就启动了超算中心一期的建设。到2017年,又启动了超算中心二期的建设。
鲁春介绍说,超算中心对于南科大引进人才和留住人才都非常关键。“很多在国外工作的教授回国,不仅仅是看国内的待遇,更要看科研平台、实验条件。如果他需要大量的计算资源、存储资源在国内都没有,他就做不了科研的,自然也就不会回来。”
据悉,早期南科大曾在建一个资源集中的超算中心或者把资源分散给各个教授(比如各自购买工作站)两种方式中进行过权衡,最终还是决定把所有资源集中一起,建一个比较成规模的、计算量、存储量都能在国内高校里领先的超算中心,这样能更好地利用资源,也能为一些大型和超大型的研究工作提供更好地支持。
从建成后的南科大超算中心的实际运行状况看,决策是正确的,今天的超算中心的确给教授的科研提供了很好的条件,二期扩建于去年8月份完成。今天的南科大超算中心计算能力拥有815个双路刀片节点,皆为联想ThinkSystem系列刀片服务器,还搭配了英特尔100GB OPA高速计算网络系统。其中的CPU是英特尔至强Gold 6148,每个节点2个CPU共40个核。存储裸容量是5.5P。还配了一部分的FPGA节点、GPU节点和“胖节点”,以满足一些特殊的需求,比如AI和大数据应用。PUE值为1.5左右。这样的规模的超算中心在中国高校中名列前茅,在国际上也处于前列,2018年下半年的全球超级计算机榜单(HPC TOP500)上南科大的超算中心二期系统也是榜上有名,位列第127位,南科大超算中心的实力由此可见一斑。
鲁春介绍,超算中心的建成也的确给教授们的科研带来很大帮助。比如,此前很多教授需要计算资源的时候会提交各种各样的申请,或者申请去采购超算设备,或者申请租用外面超算中心的计算能力。如今,这样的需求就已经很少了,因为教授们的需求南科大自己的超算中心大部分就能满足,而且更为方便,性能更好。
“教授们的需求很踊跃。不得已,我们现在采用的办法是提交的计算任务超过指定时间,计算资源就会强制收回、释放出来。未来为了优化计算资源的高效使用,超算中心会引入收费制度。”超算中心工作人员解释说。
南方科技大学超算中心的建成不仅为教授们的科研提供很好的支持,同时,也为教学提供了帮助,比如,计算中心学生助理赵佳华同学带领的ASC19南科大代表队在计算中心计算资源的支持下,获得了初赛第二,决赛第七的好成绩,同时由于在总决赛上ShengBTE赛题的出色发挥,还获得了大赛应用创新奖。让更多的学生可以直接接触到这些当下主流的IT技术,这可以为学生以后的职业发展奠定一个很好的基础。
“南科大作为一所大学,最主要的任务是培养人才。每年会招生,学生会毕业,我们希望学生们通过在校这四年的准备期,能够见到、学到更多真正市场在用的东西。”鲁春说。
鲁春表示,近距离接触超算中心,让学生们能开阔它们的眼界。在这里学生不仅仅是看到厂商的硬件和软件,包括集成,同时也让他们了解像英特尔、联想这样的公司是怎么运作的,这些公司在关注哪些前沿的科技,比如,芯片、人工智能、VR、自动驾驶等等。这样学生学习起来更有目的性,以及将来可能要在哪个方向去发展。
同样,对于教授们而言,南科大也希望它们透过超算中心能多了解一些新的技术,特别是那些进行特别前沿研究的专家们也能把自己的研究与现实的技术进行结合。
“学生是一个方面,教授是一个方面,通过超算中心这个窗口,大家能够互相得到一些帮助,收到一些不同的信息,最终更好地支持教师的科研和学生们的学习,学校也能收获综合实力的成长。”鲁春表示。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。