至顶网服务器频道 07月19日 新闻消息(文/编译):
更新时间:2017年7月18日美国东部时间14:13
对于超过某一特定规模大小的文件来说,通过网络发送数据非常耗费时间,这通常会成为云迁移项目的一大障碍。现在,对于使用谷歌云服务平台作为基础架构的企业来说,有了另一种选择。
这家技术巨头今天发布了一个名为Transfer Appliance的系统,用于将信息从本地数据中心以物理运输的方式运送到云端设施。目前谷歌推出两款型号,其中一款拥有100 TB的原始存储空间,另一款则拥有480TB的存储空间。谷歌表示,如果企业能够足够有效地压缩其数据,其有效容量可以增加约两倍。
运送过程相当简单。根据选择的型号不同,组织需要支付300美元或1800美元的Transfer Appliance(转移设备)费用,谷歌将把系统发送到其选定的数据中心地点。然后,驻地技术人员要在最多25天之内将信息从硬件加载到机器上,超过这个时间就要收取延期费用了。一旦完成了这些工作,Transfer Appliance(转移设备)就可以通过FedEx或UPS发送给这家技术巨头。
重要的是,信息在运输过程中被加密了。Transfer Appliance(转移设备)在捕获数据时加密数据,并使公司能够只批准这些数据在到达谷歌之后才启用访问权限。
该系统的主要目标市场是在自己的数据中心中拥有大量数据并希望加速其迁移到云端的传统企业。这和亚马逊公司在2015年推出的Amazon Web Services Snowball(“雪球”)数据传输设备瞄准的市场是一样的。它有两款设备,分别有50和80 TB的原始存储空间。
但是,虽然Transfer Appliance(转移设备)的480 TB的配置可能更大一些,但如果谷歌想要冲击亚马逊的数据运输业务,还需要做更多的工作。Jeff Bezos的公司将派出一个被称为Snowmobile的容器,这是一个45英尺长的运输集装箱,装在一辆装有足够容纳100 PB数据的存储设备的卡车上。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。