前几天收拾房间的时候,笔者从杂物间里搜出来一个壁挂钟。没错,就是晚上会发出“滴答、滴答”声的老式壁挂钟,相信70后或80后对这种老古董还记忆犹新,多少个夜晚就是这有节奏的钟摆声陪着我们入眠。但在这个电子设备消灭一切机械设备的时代,大部分人家里早就没有了这美妙的“滴答”声,可能甚至连电子壁挂钟也没有了,一台手机搞定一切。
在另一个维度的世界,“Tick-Tock, Tick-Tock”也像钟摆声一样维持着电子世界的秩序,不管是PC、服务器还是数据中心,这些硬件基础设施都像着了魔一样听从着“Tick-Tock”的指挥。然而,随着硅基半导体技术趋近物理极限,摩尔定律终于走到了拐点,“Tick-Tock”已经变成了事实上的“Process-Architecture-Optimization”,每个周期由两步变为三步,从此进入了“二变三”的节奏。
抛开纯硬件不说,过去若干年,软件行业取得了革命性的进展,云计算、大数据、Docker、区块链,各种新技术层出不穷。Google、Facebook们充分利用自己的技术优势,结合自己的业务特点打造了基于COTS硬件的IT基础设施平台,看上去软件已经不关心硬件了,传统的硬件基础设施已经没救了吗?
然而,由于互联网业务特点鲜明,使得其平台往往不易被复制到其他领域。另一方面,软件技术的发展,从通用OS、虚拟化、Docker到UniKernel,似乎上层软件螺旋式的走向了嵌入式,软件在努力抛弃一切冗余的中间层,消除浪费,不断追求最优性能的过程。当所有浪费消除后,软件在性能上的提升空间也逐步变小,这之后的性能提升只能依靠硬件。
所以,传统硬件基础设施还有很大的提升空间,不管是软件倒逼还是硬件自身的发展,这都对硬件基础设施的架构提出了更高的要求。
相较于软件风起云涌的技术革新,硬件的变化相对迟缓。通用服务器出现了二十多年,看似其基本结构没有发生过大的变化。但随着IoT、5G、VR/AR、4K、机器学习、人工智能的不断发展,现实世界对大流量、高性能计算的需求在加速扩大,硬件的变革已经拉开了序幕。
通用计算会逐步变成面向业务驱动的可编程计算,通过与业务需求更加匹配的资源模型来承载业务,减少资源浪费。通用x86处理器的主流地位虽不会变化,但会逐步向可编程的处理器发展,以最佳的计算模型承载软件进程,最终将与软件胜利会师于“嵌入式、可动态调配”的发展模型。
对于摩尔定律而言,虽然单个节点的摩尔定律已经“二变三”,但硬件基础设施领域仍然会通过系统级的整合实现摩尔定律的延续,比如通过新型存储介质、硅光互联、异构计算等技术,配合资源的解耦及编排,使整个系统的性能提升保持摩尔定律的增长速度。
现在,传统硬件基础设施就到了变革的关键时期,如果有这么一种业务驱动的架构统一而和谐的融会计算、存储、网络资源,让各种资源能够灵活调度,适配不同业务模型,将是多么美好的画面。要实现这个目的,需要很好的回答这些问题:
那么,哪里能找到这种跨时代的硬件平台,亲身感受业务驱动的未来架构之美呢?据悉,华为将于8月31日在上海世博中心举行“2016华为全联接大会”,在银厅(A厅)展区入口处就会展出新一代SDI 2.0(Service Driven Infrastructure)业务驱动基础设施样机,一展“池化、弹性、软件定义”的硬件基础设施架构之美,还不快来一窥究竟?
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。