2023年3月2日,“江苏华鲲振宇鲲鹏+昇腾生态伙伴大会”在南京朗昇希尔顿酒店成功举办,大会聚焦行业市场、商业市场发展战略,围绕企业信创数字化转型,以天宫“鲲鹏+昇腾”最新产品及实战打法为核心,与伙伴建立更紧密深度的合作关系,顺势共进,共赢未来。华为江苏代表处政企业务副部长饶宁、华鲲振宇中国区副总经理罗程为大会致辞。
基于鲲鹏+昇腾 华鲲振宇乘风而行
年初,华鲲振宇获得华为鲲鹏+昇腾生态伙伴中唯一双“领先级”认证伙伴,充分展现了华为对华鲲振宇基于鲲鹏+昇腾所打造的产品力、生态建设和市场价值等多方面的认可,目前华鲲振宇已实现华为生态伙伴中销售排名第一、能力评估第一以及金融第一。大会邀请到江苏华为鲲鹏·昇腾生态创新中心首席运营官陈俊屹,为我们带来了“共筑生态根基,共赢产业未来”的鲲鹏+昇腾发展与战略规划的主题分享。
华鲲振宇怀抱“中华鲲鹏 振兴寰宇”的愿景创立,在国家信创产业突飞猛进的大背景下乘东风,聚焦信创产业快速发展。公司创立不到 3年,业绩已达60倍增长,2023开年接连插旗北京、江苏、山东、江西、浙江等地国家“金税四期”项目,实现开门红。值得一提的是,华鲲振宇江苏分公司仅用一年半的时间,在华为和众多鲲鹏昇腾生态合作伙伴的支持下,从年销售千万级成长为亿元级分公司,成为鲲鹏服务器江苏市场份额第一,同时江苏团队规模也是鲲鹏生态整机伙伴中第一。会议现场,华鲲振宇华东大区总经理张晓阳在现场发表“顺势共进 共赢未来”主题演讲,也预示着华鲲振宇未来将在华东区域重点发力的决心。
立足信创 华鲲振宇满足多元算力
众所周知,ChatGPT的问世让人工智能再次成为了今年的大热门话题,长期以来,人工智能都是科技创新领域兵家必争之“超级风口”。随着AI应用的发展提速,推动着算力需求的持续增长,以鲲鹏+昇腾打造的平台化硬件基础设施将成为未来新焦点。
华鲲振宇生态伙伴们齐聚一堂,聚焦“鲲鹏+昇腾”生态,为城市算力基础设施建设、为千行百业转型升级构筑智能根基谋发展、创未来。大会邀请到华鲲振宇华东大区行销主管刘磊和华鲲振宇解决方案销售部副部长王程,带来鲲鹏和昇腾关于产品及解决方案的主题分享,以鲲鹏和昇腾为树根,持续研发投入,使能计算产业枝繁叶茂。
构建客户+伙伴命运共同体 共拓价值可能
华鲲振宇到目前为止已与1000多家伙伴在云、大数据、操作系统、数据库、中间件、乃至上层应用进行了深度适配,构建起以“天宫”为中心的鲲鹏新生态。华鲲振宇始终顺应行业和市场的需求变化,捕捉数字经济时代的历史机遇和发展趋势,与伙伴致力于开发具备竞争力和深度价值的产品和服务,为客户数字化转型保驾护航,共建更加繁荣的“能力型”生态。
大会上,华鲲振宇渠道部部长鲁飞对华鲲振宇伙伴政策进行了宣讲解读,提出要与生态伙伴们形成优势互补,为伙伴们提供政策支持与引导。随后,并由鲁部长为17家华鲲振宇江苏区域认证伙伴进行授牌,同时,华东大区总经理张晓阳为10家华鲲振宇优秀合作伙伴举行了颁奖仪式,感谢与华鲲振宇并肩前行的“同路人”。
最后,华鲲振宇交付服务项目管理部部长刘黎伟全面向大家介绍了华鲲振宇服务体系,华鲲振宇坚持“以客户为中心”的核心价值观,布局成都、北京、上海、广州四大服务中心,全国省级行政区100%服务网络覆盖,承诺7x24 小时全天候响应,15分钟响应率100%,2小时到达现场,4小时解决故障。在疫情下完成了超大规模高质量交付,得到了中国电信、中国银行、中国邮储银行等客户的高度赞扬。
未来,华鲲振宇将坚持打造“客户+伙伴”命运共同体,与伙伴们服务能力形成优势互补,继续深耕“鲲鹏+昇腾”生态,不断拓展“天宫”系列计算产品和服务的应用领域,为客户创造更大的机会价值,助力行业数字化转型和产业链升级发展,力争在“十四五”期间向100亿规模企业进军。顺势共进,顺应时代的洪流,紧抓历史之机遇,共赢未来,携手伙伴共同实现更大的商业成功!
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。