走进芯时代:AI算力GPU芯片分析
尽管AI芯片种类繁多,GPU因其适应性和强大的并行计算能力,仍是AI模型训练的主流硬件。英伟达在GPU领域的技术积累和生态建设使其处于领先地位,而国内GPU厂商虽在追赶,但仍存在差距。AI应用向云、边、端全维度发展,模型小型化技术成熟,数据传输需求增加,Chiplet技术降低设计复杂度和成本。
虽然Al芯片目前看有SPU、ASIC、CPU、FPSA等几大类,但是基于几点原因我们判断GPU仍将是训练模型的主流硬件:
1、Transformer架构是最近几年的主流,该架构最大的特点之一就是能够利用分布式BPU进行并行训练,提升模型训练效率;
2、ASIC的算力与功耗虽然看似有优势,但考虑到AI算法还是处于一个不断发展演进的过程,用专用芯片部署会面临着未来算法更迭导致芯片不适配的巨大风险;
模型小型化技术逐步成熟,从训练走向推理。云、边、端全维度发展。
1、GPU方面, 在英伟达的推动下,其从最初的显卡发展到如今的高性能并行计算,海外大厂已经具备了超过20年的技术、资本、生态、人才等储备,形成了大量的核心技术专利,而且也能充分享有全球半导体产业链的支撑,这都或是目前国内厂商所缺失的。
近几年在资本的推动下,国内涌现出数十家GPU厂商,各自或都具备一定的发展基础,但整体经营时间较短,无论从技术积淀、产品料号布局、高端料号件能夹说,与国外大厂仍具备较大差距。但国产化势在必行,国内相关产业链重点环节也积极对上游芯片原厂进行扶持,国产算力芯片需要不断迭代以实现性能的向上提升,后续持续关注相关厂商料号升级、生态建设和客户突破:
2、 Al在端侧设备应用普及是大势所趋,目前,知识蒸馏、剪枝、量化等模型小型化技术在逐步成熟,Al在云、边、端全方位发展的时代已至。除了更加广泛的应用带来需求量的提升外,更复杂算法带来更大算力的需求也将从另一个维度推动市场扩容;
3、数据的高吞吐量需要大带宽的传输支持,光通信技术作为算力产业发展的支撑底座,具备长期投资价值;
4、 Chiplet技术可以突破单一芯片的性能和良率等瓶颈,降低芯片设计的复杂度和成本。


























0赞好文章,需要你的鼓励
推荐文章
谷歌近期悄然调整账户存储政策:新注册用户若未绑定手机号,免费存储空间将从原来的15GB缩减至5GB。用户需验证手机号后,方可获得完整的15GB空间,用于Gmail、Drive和Photos的共享使用。谷歌表示,此举旨在确保存储空间"每人仅限一份",有效防止滥用。有分析认为,存储硬件成本上升也是推动此次政策调整的重要原因之一。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
AT&T、Verizon和T-Mobile宣布计划组建合资企业,利用卫星技术消除美国境内的网络覆盖盲区,重点服务农村及网络欠发达地区。该合资企业将整合知识产权与地面频谱资源,推动下一代直连设备(D2D)通信发展。目前三方尚未签署正式协议,现有运营商与卫星服务协议不受影响。此前,T-Mobile已与SpaceX合作推出星链卫星服务,美国联邦通信委员会也刚批准了价值400亿美元的EchoStar频谱出售案。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。