1月19日,NVIDIA CEO黄仁勋抵达北京,参加NVIDIA的答谢迎春会,并发表了致辞。
60年后,我们正在重新定义计算机
在谈到人工智能时,黄仁勋提到,60年前,人类发明了今天的计算机,它使用通用计算,可以对运行在CPU上的程序指令进行编码。现代计算机的计算模型则是在1962年被提出的。但自从IBM推出IBM System 360的那一年,计算机就没有重大突破了。“然而,人工智能是一项计算机停滞了60多年后的重大技术突破,60年后的今天,我们正在重新发明计算机。”黄仁勋说。
黄仁勋指出:“如今的计算机不再需要编码,而是机器学习,它创造的软件也不是软件程序,而是人工智能。由这些构建出的计算机是一种新型的计算机。”
如果将“老黄”提到的转变,理解为一种“计算机的重生”。那么过去的计算机,是人类意志的延伸,是工具;而未来的计算机,则更像是一个能够自我演化的生命体。它们不再需要人类的“编码”,而是通过“机器学习”来获得能力,这类似于生物的进化过程。这种进化,并非完全随机,而是基于数据和算法的“自然选择”,最终涌现出具备复杂智能的机器。
黄仁勋展望道:“现在,人工智能正处于新的起点,这是计算领域的新开端。” 这一态度展现了黄仁勋对人工智能未来的信心,也突显了NVIDIA在推动技术进步与全球市场发展中的重要角色。
重视中国市场 中国员工离职率全球最低
对于市场方面,黄仁勋谈到,过去的二十年来,NVIDIA携手合作伙伴推动了全球多个重要市场的现代化,尤其是在中国市场。他表示:“我们为世界最重要市场之一和伟大的国家贡献了力量。” 现在,借助人工智能,NVIDIA能够继续为许多具有挑战性的问题提供创新的解决方案。
事实上,黄仁勋曾在多个场合强调中国市场的重要性。公开信息提到,NVIDIA也是近年来中国为数不多的仍在持续扩张招聘的外资企业。NVIDIA 2025财年第三季度的财报中显示,在2024年10月结束的季度中,NVIDIA在包括香港在内的中国市场利润为54亿美元。
对于NVIDIA中国的员工而言,黄仁勋自豪地提到,NVIDIA进入中国已经长达25年,在北京、上海、深圳三地拥有近4000名员工,而且NVIDIA中国员工的流失率是全球最低的,每年离职率只有0.9%。这意味着,NVIDIA中国员工每年只有35人左右离职,平均每百人还不到一人。
黄仁勋曾公开表示,他相信每个员工都会进步,等他们开窍时,属于他们的伟大时刻也就到了。
据NVIDIA员工透露,尽管工作压力有时较大,但能够在人工智能这一尖端技术领域工作,并且获得与之相匹配的薪酬,是他们选择留在NVIDIA的主要原因。这也侧面证明了,1月13日领英上的风险投资人Ruben D透露的消息——“NVIDIA 78%的员工已成为百万美元富翁”的信息。
事实上,NVIDIA低离职率的背后,展现出个体与时代、企业与员工相互成就的深刻图景。长期耕耘奠定稳固基石,极低离职率折射出内在驱动力与归属感的高度统一,对员工潜力的信任则蕴含着对“时机”的察,而尖端领域的工作与优渥的回报,则构成“价值”与“实现”的完美闭环。
好文章,需要你的鼓励
这项研究探讨了具身智能体(如机器人)如何通过记忆为用户提供个性化服务。宜远大学研究团队开发了MEMENTO评估框架,通过两阶段设计评估智能体利用记忆的能力。研究将个性化知识分为物体语义(如"我最喜欢的杯子")和用户模式(如"早餐习惯")两类。实验表明,即使是GPT-4o等前沿模型在需要综合多记忆的任务中也表现出30.5%的性能下降,特别是在理解用户模式方面存在明显挑战。
这项研究提出了一种创新的"生命长久安全对齐"框架,使大语言模型能够持续适应不断进化的越狱攻击策略。框架核心是元攻击者与防御者之间的对抗演化循环:元攻击者不断发现新的攻击策略,防御者则学习抵御这些攻击。实验表明,经过两轮迭代后,防御者成功将攻击成功率从73%降至7%,同时保持了模型的有用性。这种动态进化方法相比传统静态安全对齐更有效,为构建持续安全的大语言模型提供了新方向。
Enigmata是一项突破性研究,通过合成可验证的拼图训练大语言模型的逻辑推理能力。该研究创建了包含36种任务、7大类推理能力的完整训练系统,每项任务都配备了可控难度生成器和自动验证器。基于此训练的Qwen2.5-32B-Enigmata模型在拼图推理基准上超越了o3-mini-high和o1等顶尖模型。更令人惊喜的是,当应用于更大规模模型时,这些拼图数据不仅提升了模型解决拼图的能力,还意外增强了其数学和STEM推理能力,展示了纯逻辑训练带来的广泛泛化优势。
这项来自新加坡国立大学等机构的研究引入了REASONMAP,一个用于评估多模态大语言模型细粒度视觉理解能力的基准测试。研究团队使用来自13个国家30个城市的高分辨率交通地图,构建了1,008个问答对,设计了两级评估框架测量答案的正确性和质量。对15个流行模型的评估揭示了一个意外发现:开源领域的基础模型表现优于推理型模型,而闭源模型则相反。研究还表明,当视觉输入被遮盖时,模型性能普遍下降,证明真正的细粒度视觉推理任务仍需要有效整合多模态信息。