ZD至顶网服务器频道 08月15日 新闻消息: Nvidia产品的收入全线上扬,Nvidia称公司上季度的收入创新高。
Nvidia的总部设在美国加州,专攻GPU, 2017年第2财季(截止今年7 月 31 日的三个月)的表现:
个人电脑和工作站图形芯片销售依然强劲。不过首席执行官黄仁勋(Jen-Hsun Huang)却大谈Nvidia在未来几个月从低谷走出来后新市场的增长会在收入里开始显现出来。特别是服务器和互联网连接设备上的机器学习应用程序对GPU加速有需求,而Nvidia则在大力推广可用于这些系统的工具包。
黄仁勋表示,"深度学习和人工智能涉及到各行各业,影响深远,我们十分期待这方面的发展。我们在过去5年里在发展旗下用于深度学习的整个 GPU 计算堆栈上做了重磅投资。"
他表示 ,"我们现在已经准备就绪,将与世界各地的研究人员和开发人员紧密合作,推广强大的深度学习和人工智能技术,为美好的未来创新。"
一众分析师和黄仁勋一样对于增长前景表示乐观,分析师特别看好数据中心和超级规模市场的增长前景,这些市场在加速人工智能和科学工作负载时用到 Nvidia GPU。
Gartner 研究副总裁Mark Hung告诉记者,"这些搞机器学习和超规模的人用的就是GPU。"他认为,Nvidia在这些市场的势头足可以叫板业界芯片巨头。
他表示,"Nvidia 采取的方法与其他ARM厂商不一样,取得了成功,Nvidia并不是正面叫板英特尔,而是真的打造出在可以有效地用于新机器学习算法里的GPU。
Nvidia 股价在盘后交易里涨到61.49美元, 上扬3%。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。