至顶网服务器频道 10月11日 编译:东京国家先进工业科技研究院(AIST)已经订购了富士通的超级计算机,希望为人工智能应用打造一个名为“AI Bridging Cloud Infrastructure(ABCI)”的基于云的开放创新平台。
富士通方面表示,该超级计算机系统将提供550 petaflops半精度浮点运算的理论峰值性能,以及37 petaflops的双精度浮点运算性能。
该系统将包含1088个Primergy CX2570 M4服务器,组成富士通Primergy CX400 M4多节点服务器,每个服务器包含有2个英特尔至强Gold处理器CPU、4个NVIDIA Tesla V100 GPU计算卡和英特尔SSD DC P4600存储。
富士通表示,计划将于2018年4月开始实施该系统。
日本经济工业部去年曾表示,将在ABCI平台上投入195亿日元,以推动国家在超级计算机竞赛中登顶。该平台旨在实现高速AI处理,加速将人工智能部署到“现实的企业和社会中”,AIST此前这样表示。
ABCI将部署到位于东京大学Kashiwa II校区新建成的ABCI数据中心。
今年早些时候,日本福冈九州大学信息技术研究所宣布,本月将接收来自富士通的新超级计算机系统,用于推动人工智能等领域的研究。
该大学表示,将利用该系统作为JHPCN跨学科大型信息基础设施联合使用/研究中心的计算资源,该基础设施也是一个由日本各大院校超级计算机设施组成的联合使用点网络,其中东京大学信息技术中心是这个网络的核心点。
后端系统包含2128个Primergy CX400系统和英特尔Skylake至强处理器,433 TB总内存容量。128个x86服务器将配备4个NVIDIA Tesla P100 GPU计算卡。
前端子系统将包含160个基本的前端节点,配置英特尔Skylake至强处理器和NVIDIA Quadro P4000图形卡,以及4个高容量前端节点,每个节点有12TB内存。
该系统提供10 petaflops的理论峰值性能,此外还提供一个24PB存储系统、100Gbps InfiniBand EDR互连、以及富士通的可扩展集群文件系统FEFS。
日本高级智能项目中心在4月接收深度学习超级计算机,用于加速AI应用“现实世界”的应用研究与开发。
该系统包含2个服务器架构,24个NVIDIA DGX-1服务器,每个包含8个最新的NVIDIA Tesla P100加速器和集成的深度学习软件,以及32个富士通Server Primergy RX2530 M2服务器,以及高性能存储系统。
它的文件系统也是FEFS在6个富士通Server Primergy RX2540 M2 PC服务器;8个富士通存储Eternus DX200 S3存储系统;1个富士通Storage Eternus DX100 S3存储系统,提供深度学习分析需要的IO处理。
在截止2017年3月31日的这一财年中,富士通共收入4.5万亿日元。
好文章,需要你的鼓励
诺基亚最新全球网络流量报告预测,到2034年WAN流量将增长300%至700%,主要驱动力包括人工智能、工业运营扩展和消费者沉浸式应用。报告称AI流量年复合增长率将达23%,到2034年占全球WAN流量30%。然而专家对此预测提出质疑,认为报告缺乏具体应用场景支撑。分析师指出,企业目前并未因WAN带宽限制而无法实现目标,工业设备更新周期长达15年以上,大规模流量增长不太可能快速实现。
GigaAI团队开发的GigaBrain-0.5M*系统首次让机器人获得了"预见未来"的能力,通过世界模型预测未来场景并指导行动决策。该系统采用RAMP强化学习方法,在多项复杂操作任务中表现优异,成功率比传统方法提升约30%,并在国际RoboChallenge基准测试中排名第一,代表了从反应式控制向前瞻式智能的重大突破。
今天的出海故事,从一笔690.78万加元的少数股权投资开始:金牌家居的全资子公司与关联方通过新加坡主体共同参投 RIFO Holding Group Inc.,简称RIFO,先把钱放到加拿大“住房交易、金融服务与安居服务”这条链条更靠前的位置。
这项由人大和腾讯联合开展的研究提出了ExOPD方法,通过调节奖励信号让AI学生模型突破老师性能限制。研究在数学推理和代码生成任务上验证了该方法的有效性,发现合适的奖励外推能让小模型超越大模型表现。该技术为AI训练领域带来新思路,但仍需考虑计算成本等实际限制。