ZDNet至顶网服务器频道 10月09日 新闻消息:AMD公司近日首次公开展示了基于ARM Cortex-A57的AMD皓龙A系列处理器运行Apache Hadoop的演示。在JavaOne大会的一个技术讲解会上,AMD公司院士Leendert van Doorn将介绍AMD日益壮大的AMD 皓龙A系列服务器软件生态系统现在已经包括了Hadoop,一种基于Java的存储和大规模数据处理架构。同时,Oracle负责Java产品管理和物联网(IoT)的副总裁 Henrik Stahl也和van Doorn同台讲演,介绍Oralce对AMD 64位ARM服务器架构的支持。
作为一种最初应用于大数据分析的分布式运算技术,Hadoop正迅猛增长,预计将于2020年最高达到500亿美元的市场规模。通过利用基于ARM的服务器集群进行分布式计算,64位ARM服务器和Hadoop的结合被设计用来加速提高大规模运算的经济性。这一演示在近期公布的AMD皓龙A1100开发平台上运行,展示了如何在Oracle JDK上运行Apache Hadoop。Leendert还将在基于Fedora技术的Linux环境中展示多节点运行的同一演示,Fedora技术由Red Hat赞助的Fedora 社区和该社区支持的OenSUSE项目提供。
AMD公司院士Leendert van Doorn 表示:“这个演示显示了AMD在开发一个强大而又标准化的ARM服务器生态系统上的领先水平。采用AMD 皓龙A系列处理器的服务器非常适合Hadoop,在提供高效率的可扩展计算平台的同时,还能兼做具有很高经济性的长期存储平台。”
通过实现跨x86和ARM架构环境的软件和工具的虚拟无缝整合,AMD持续致力于推动服务器生态系统的创新。通过与ARM、Linaro、Oracle、Red Hat和SUSE等合作伙伴的合作,AMD为用户基于ARM的应用提供了完整的开发环境,并提供跨平台支持。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。