各位账房先生,我们地处何方?报告船长,不知道。
Supermicro(超微公司)日前发布了截至3月31日为止的第三财季收入增长估计数据,但最终的审计数据仍未确定下来,皆因公司在多个季度以来的股票交易数据方面与纳斯达克存在争议。
主板和白盒服务器制造商Supermicro估计自己的收入在7.85亿美元至7.95亿美元之间,较上年同期增长约25%,而去年同期的数据本身仍然存在问题。 Supermicro尚未确定利润是多少,因为没有准确的收入数据。
季度末时Supermicro的总计现金、现金等价物及短期投资总额为1.36亿美元,Supermicro称公司的银行债务为1.863亿美元。
要跟踪Supermicro的财务状况有点像在没有指南针且有雾的情况下试图令一艘帆船不偏离航道。由于Supermicro的2017财年业绩受到销售财会出错的影响,公司2018财年的最终经审计季度业绩仍未发布。
Supermicro表示,审计委员会已经完成了一项调查,目前正在进行额外的、据说“接近完成的“测试”。
Supermicro表示,需要额外的时间对在测试中发现的历史财务记录产生的影响进行评估,然后才能提交上一年的完整业绩报告。
由于Supermicro未能提交这些季度的报告和年度报告,也未能在4月26日的合规计划听证会小组会上向纳斯达克提交更新报告,并且要求进一步延迟备案许可至2018年8月24日,Supermicro面临被纳斯达克除名的可能。业绩报告需要重述的程度尚未确定,纳斯达克也尚未批准延期。
Supermicro表示,下一季度的收入预计在8亿到8.6亿美元之间。
法务会计调查员肯定抓狂。
而Supermicro在这样的背景下仍在不断推出新产品,其中最新的产品是一款1U服务器和1U闪存JBOD,二者均可配置256TB的闪存,用的是英特尔DC P4500 8TB Ruler固态硬盘,二者均配有NVMe驱动器连接。
Supermicro总裁兼首席执行官Charles Liang表示:
“该款Supermicro系统的存储密度是以前1U解决方案全闪存的三倍多,不久以后该系统将在单1U系统中实现PB级规模。”
Supermicro表示,“这一款1U系统今年将支持半PB的NVMe存储容量,而且会在明年年初采用EDSFF标准提供全PB容量。”
就是说,16TB DC P4500 Ruler可在今年晚些时候推出,32TB版会在2019年初推出?感谢96层3D闪存技术。
图中为SSG-136R-NR32JBF(https://www.supermicro.nl/products/system/1U/136/SSG-136R-NR32JBF.cfm)闪存Ruler JBOD和SYS-1029P-NR32R(https://www.supermicro.nl/products/system/1U/1029/SYS-1029P-NR32R.cfm)服务器。
Supermicro称多达12个主机可以直接连接到这些系统的1U池化NVMe存储。或者也可以通过NVMe-oF(基于以太网的NVMe结构)连接数百台主机。
Supermicro曾在1月份推出一款配备了三星Ruler闪存的服务器(https://www.theregister.co.uk/2018/01/15/super_micro_superserver_with_36_samsung_ssds/),容量为288TB,今年晚些时候可扩展到576TB。Supermicro的赌注下在闪存Ruler赛的两匹马上。
服务器制造商Supermicro希望不会有事发生致使这些Ruler系统的推出受到阻碍。
好文章,需要你的鼓励
近期有观点认为,大规模使用生成式AI和大语言模型会增强人类左脑的逻辑分析能力,同时削弱右脑的创造力,导致人类社会逐渐成为左脑主导的群体。但研究表明,左右脑功能分工理论缺乏科学依据,大脑两半球在创造性和逻辑性任务中都会协同工作。此外,AI不仅能辅助逻辑思维,同样可用于诗歌创作、图像生成等创意任务。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
微软全球AI巡展在迪拜举行,宣布启动Microsoft Elevate UAE项目,计划为超过25万名学生和教育工作者以及5.5万名联邦政府员工提供AI技能培训。该项目是微软152亿美元投资计划的一部分,旨在加强AI基础设施建设,培养本地人才能力。微软还将与G42和JAHIZ平台合作,为联邦公务员提供技术培训,支持阿联酋成为AI领域的区域和全球领导者。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。