2019年9月4日,北京华胜天成科技股份有限公司(简称:华胜天成)与AVAYA合作20周年庆典活动在华胜天成科研大楼成功举办。自1999年始,华胜天成与AVAYA联姻,共同深耕全球通讯领域。合作至今,华胜天成与AVAYA经历20年的沧海桑田,华胜天成董事长王维航表示,20年的风雨兼程,是我们共同成长的里程碑。同时,也标志着华胜天成与AVAYA在未来更广阔的合作翻开崭新的一页。
作为综合型软件服务商,华胜天成业务领域涵盖IT产品化服务、应用软件开发、企业级IT架构增值分销等。2006年,华胜天成凭借这自身企业级IT架构的市场优势,迅速在金融、旅游、交通、物流等领域积累了大量成功案例和解决方案,并结合自身优势逐步向全球市场迈进。
与此同时,华胜天成为加强IT上下游关系,形成IT与产业的良性循环,加快业务全球化部署的脚步,积极寻找优秀的合作伙伴。而AVAYA成熟的电子商务解决方案,以及VoIP、网络管理软件等产品,在全球享有声誉,完全符合华胜天成实现通信多元化发展的战略布局,并与AVAYA携手共同深化全球通信市场。此外,华胜天成利用自身在国内成熟的市场,将AVAYA先进的企业经营理念和产品引进中国,帮助AVAYA在国内市场建立生态体系,助力AVAYA在中国的长期发展,打通市场市场营销渠道。
时至今日,全球IT已发生重大变革,5G、物联网、人工智能等新一代信息技术已逐渐走出象牙塔,驱使企业转型和业务创新。同时,我国已进入打造数字经济快速发展的快车道。逐渐加大IT与产业相互融合,以及针对不同领域和行业定制个性化的服务需求。同时,实现AI、物联网等新一代信息技术门槛也在逐渐提高,而搭建云计算技术已成为整个IT行业解决技术高门槛、高成本等的重要基石。
AVAYA欧洲、亚洲、中东及非洲区总裁Nidal Abou-Ltaif表示,华胜天成与AVAYA在传统领域合作十分融洽,目前,华胜天成在向云领域转型十分成功,希望与华胜天成可以在新的云业务方面继续探索,寻求更加广阔的合作机会。
2018年,华胜天成积极在云领域做出转型,以“一个核心+四朵云”逐渐升级为以“云成云胜”为战略核心的3.0发展阶段,在此基础上融合5G、大数据、物联网、人工智能等新一代信息技术进行再度创新,驱动企业数字化转型和业务革新。在互联网高速发展的几年中,华胜天成与AVAYA积极扩大合作业务范围,共同尝试新型技术的研发与应用,发掘更为广阔的应用场景。
通过双方的优势互补,双方在合作期间推出了大量产品,进一步加快企业数字化转型的脚步,并结合双方战略方向和行业客户需求,研究与开发实质有效的解决方案。目前,华胜天成针对AVAYA的产品特性,研发出产品监控平台、企业通讯平台等平台解决方案,并针对日益高发的安全问题,研发中继数据分析平台,并持续提升自动监控呼叫中心系统。此外,华胜天成基于人工智能、服务型知识库、自然语义、语音识别和大数据分析等技术,与企业级IT架构相互融合,提供一体化、智能化的企业通讯服务。
在全球的通讯市场风云变幻的今天,AVAYA积极进行云化,以及开发智能化通讯平台,并积极开放平台标准,实现通讯设备与技术统一化的发展愿景。
在合作20周年庆典活动上王维航表示,通讯行业正在呈现更加开放的发展形态,在新的业态影响下我们应当不断地进行自我超越。同时,华胜天成在产品集成的基础上,将更多精力投放在产品研发方面,结合华胜天成在云、物联网等方面的技术积累和渠道优势,在AVAYA开放平台的基础上开发了诸多行业增值应用。未来,华胜天成也将以更加积极的姿态与AVAYA展开合作,为企业通信生态的繁荣奠定基础。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。