2018年3月24日,中科曙光(603019)发布了公司2017年年度报告。报告显示,2017年,中科曙光在年度营业收入、利润总额两项核心指标上,均取得大幅增长,有力提振市场信心。同期,中科曙光各项主营业务亦表现强劲,企业客户业务营收更取得超过七成的大幅度提升。曙光品牌价值进一步彰显。
此外,报告还在两个侧面呈现出亮点:资产总额实现大幅跨越,资本盘显著壮大;研发投入实现大幅提升,研发人员数量显著增长。随着企业实力快速壮大,研发能力稳步提升,中科曙光的发展战略在2017年进一步推进,公司发展渐入佳境,逐步步入快速发展通道。
报告显示,2017年中科曙光实现营业收入近63亿元,同比大幅增长44.36%。同期归属于上市公司股东的净利润超过3亿元,同比增长37.71%。这两项核心数据实现大幅提升,一方面显示出行业发展迅速,前景向好,也表明企业经营能力稳固,在市场的优势地位得到进一步巩固。营收和利润的大幅增长,一方面为投资者带来回馈,同时也将有力提振市场信心。
2017年,中科曙光总资产突破100亿元,同比大幅增长64.52%,企业资本盘快速壮大,整体实力得到进一步提升。与此同时,企业规模的快速壮大,也直接反映出在报告期内,中科曙光的生产、经营、销售持续活跃,企业保持高度活力。
在分行业主营业务营收数据上,2017年中科曙光在企业、政府和公共事业等三个核心行业领域均取得较大的增长。其中企业客户营收增长最为抢眼,同比增长高达74.08%,且在规模最大、竞争最激烈、价格敏感度高的企业客户领域,利润率也实现了小幅增长,这充分说明公司顺应供给侧改革的指引,规避低端价格竞争,而以创新、品质和服务取胜。报告进一步分析,企业行业营收增长的主要原因,是互联网行业对服务器需求增加,同时2017年中科曙光大力拓展企业级新客户,取得良好成效。这充分表明在企业行业,中科曙光的品牌和产品市场接纳度、认可度得到进一步提升。
2017年,中科曙光研发投入总额近4.3亿元,比2016年增加超过一亿元,增幅超过30%。与此同时,公司研发人员数量从2016年的548人增长到2017年的992人,增幅超过80%。研发人员在公司总人数的占比也从2016年的29.22%大幅增加至2017年的44.56%。人员构成的显著变化,直接反映出曙光对研发和创新的重视。
报告显示,2017年,公司围绕主营业务加大技术和产品研发投入,同时积极推进“数据中国”战略,实施核心技术与商业模式双创新。此外,中科曙光向上游延伸,突破核心技术困局,向下游延伸,孵化创新型企业,并深度参与国家大型项目建设。
2017年度,中科曙光新增申请专利212项,其中发明专利150项;获得专利授权136项,其中发明专利授权104项,2017年获得专利授权数量较上年增长46.24%。
以中科曙光自身业务角度向外观察,报告显示,2017年行业市场在地理分布上呈现新特点。一线城市继续保持旺盛需求;而“京津冀一体化”、“长江经济带”、“成渝城市群”、“粤港澳大湾区”、“雄安新区”等区域发展战略的实施,以及国家中心城市的进一步扩容,催生了一批信息化需求较高的热点地区;与此同时,以往信息化需求相对偏弱的中西部部分地区,制定并实施了以新一代信息技术为依托的新发展规划,带来需求的显著增长,拉动了对相关产品技术的需求。
在产业发展动能方面,除了技术发展、核心技术突破所推动的产业发展长期动力,随着我国改革开放的不断加深,经济建设进入新时代,国产化替代需求逐渐迫切,人工智能、基因工程、新材料等迅速崛起的新兴产业与新一代信息技术的紧密结合,传统产业转型升级的不断推进,以及“一带一路”的全面实施等因素,成为推动新一代信息技术产业发展的新动能,并呈出现强大活力。
以上产业市场地理分布以及行业发展动能所呈现的趋势,在2017年得到彰显,反映出中国市场强大的内需潜力。
3月22日,美国总统特朗普签署备忘录,宣布对中国商品征收高额关税、对中资设限等,中美贸易摩擦面临严重升级。对于信息产业中核心部件严重依赖对美进口的众多企业来说,未来可能会面对价格上涨、进口紧缩的压力。与此形成对比,以中科曙光为代表的部分企业能够提前布局、加大投入、积极研发,努力突破核心技术壁垒,建立基础创新竞争优势,其抗风险能力和逆境中发展的潜力更加值得期待。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。