零售巨头Target日前加入开放计算项目,旨在为边缘计算设计做贡献。
开放计算项目(OCP)最著名的项目是针对超大规模数据中心的硬件设计,而边缘计算则可能代表该项目的一些开放领域。
Target首席信息官Mike McNamara在公司的ICONN信息云会议上表示,Target公司是第一家采用OCP的大型零售商。Target也在硬件架构上采用了OCP标准,并在旗下数据中心、配送中心和商店部署了OCP认证的硬件。
McNamara在主题演讲中表示,Target旗下堆栈的硬件和软件方面都开源。Target足迹是分布式的,可以影响网络和边缘计算里新的OCP用例。
McNamara说,“我们能够为OCP在运行边缘计算方面做出独特贡献。我们拥有2000个商店,每个商店都是一个小型数据中心。这种中心和一般数据中心的环境不同。我们能做的贡献是在边缘上而不是在数据中心开发计算。”
McNamara表示,边缘硬件设计需要具有弹性和可靠性。他说,"在商店里,如果你失去了一个服务器刀片,那么就是三分之一的容量。需求和要求是不同的。我们希望能从所有工作中受益并在未来为边缘做出贡献。"
Target在COVID-19大流行期间蓬勃发展, Target在2017年完成了几宗精明的收购后迅速转型为数字商务及多云架构和敏捷的开发模式,进而能够进入规模发展。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。