谷歌首席执行官Sundar Pichai今天透露,谷歌今年将花费超过100亿美元来扩大在美国的数据中心和办公网络规模。
Pichai同时还是谷歌母公司Alphabet的首席执行官,他说,这项投资将集中在美国11个州,包括加利福尼亚州、科罗拉多州、乔治亚州、马萨诸塞州、内布拉斯加州、纽约州、俄克拉荷马州、俄亥俄州、宾夕法尼亚州、德克萨斯州和华盛顿州。
谷歌计划对这些州的现有设施进行扩展,并建造新的设施。Pichai强调了其中一项新的进展,那就是在俄亥俄州建设的耗资6亿美元的云数据中心,预计将于2021年上半年完成。此外,谷歌将于今年在纽约州建设一个耗资10亿美元的企业园区。今年,谷歌在本地的劳动力数量将增加一倍。
Pichai还分享了有关谷歌一些鲜为人知的项目的详细信息。其中,有几项关于在密西西比州建设“ Google运营中心”的项目,该中心将负责提供客户支持;以及扩建位于底特律和博尔德的办公点,让未来两年内谷歌位于科罗拉多州的员工人数增加一倍。
这项新投资是建立在谷歌海外基础设施扩建基础上的。去年9月,谷歌承诺投入33亿美元在欧盟建设更多的数据中心。
Pichai在博客中宣布了这项规模达100亿美元的美国扩张计划。他说:“这项努力建立在我们2019年对南卡罗来纳州到内华达州地区投资130亿美元的势头之上。再加上其他研发相关投资,谷歌母公司Alphabet去年是美国最大的投资方。”
Pichai这里提到的130亿美元投资,指的是谷歌2019年用于扩建位于美国的数据中心和办公室,这显然超过了2020年100亿美元。但是,谷歌的整体支出在不断增加。截至12月31日的第四季度,Alphabet公布的总成本和支出为368.1亿美元,较去年同期增长19%。
Alphabet每年仅在“其他投资”类别上就花费数十亿美元,其中包括Waymo和Wing无人机交付部门等试水业务。但是Pichai在1月份的一次采访中表示,他可能会限制与“其他投注”相关的一些费用。他向《财富》杂志表示:“我们放眼长远,但同时也希望与确保良好业绩这一原则相结合。”
好文章,需要你的鼓励
华硕Ascent GX10 GPU采用了最新的Blackwell架构,这一架构针对Diffusion模型和Transformer等主流AI模型配备了专门的加速单元。
这项由Snowflake AI Research发表的研究挑战了传统语言学对大型语言模型的批评,通过引入波兰语言学家Mańczak的理论框架,论证了LLM的成功实际上验证了"频率驱动语言"的观点。研究认为语言本质上是文本总和而非抽象系统,频率是其核心驱动力,为重新理解AI语言能力提供了新视角。
探索Mac终端中鲜为人知但实用的命令技巧,包括快速设置闹钟、检查电池健康状态、查找WiFi密码、清理下载记录以及自定义截图设置等。这些命令能显著提升安全从业者的工作效率,从Touch ID认证到网络管理,涵盖多个实用场景。
freephdlabor是耶鲁大学团队开发的开源多智能体科研自动化框架,通过创建专业化AI研究团队替代传统单一AI助手的固化工作模式。该框架实现了动态工作流程调整、无损信息传递的工作空间机制,以及人机协作的质量控制系统,能够自主完成从研究构思到论文发表的全流程科研工作,为科研民主化和效率提升提供了革命性解决方案。