今天,英特尔推出科技抗疫计划并承诺追加5000万美元,通过加速病患护理中的技术应用、加快科学研究以及确保学生接入在线教学等方式来抗击新型冠状病毒。英特尔的行动还包括一项创新基金,用于响应那些通过英特尔专长和资源就能立见成效的需求。此前,英特尔已经宣布了1000万美元的捐款,用于在疫情关键时刻支持当地社区。
英特尔CEO司睿博(Bob Swan)表示:“世界正面临着抗击COVID-19的严峻挑战。英特尔致力于加速推进用于抗击当前疫情的技术,促进全新科技发现,更好地帮助社会做好准备应对未来危机。我们希望可以通过分享我们的专长、资源与技术,在这个充满挑战的时刻,助力加速开展工作,拯救生命,并在世界范围内扩大关键服务的可及性。”
英特尔将提供大约4000万美元,支持英特尔COVID-19响应和就绪以及在线学习计划。英特尔COVID-19响应和就绪计划将提供资金,利用人工智能(AI)、高性能计算和边缘到云服务交付等技术,加快客户及合作伙伴在诊断、治疗和疫苗开发方面的进展。通过该计划,英特尔将支持医疗和生命科学厂商为医院提升COVID-19诊疗技术和解决方案能力。这笔资金还将用于支持建立行业联盟,利用英特尔自身在医疗和生命科学领域驱动技术创新的丰富经验,加快全球为应对当前和未来疫情而提高产能、提升能力以及制定政策。
英特尔在线学习计划将支持专注于教育的非营利组织和商业合作伙伴,向无法接入网络的学生提供设备和在线学习资源。通过与公立学校密切合作,该计划将推动PC捐赠、在线虚拟资源、在家学习指导和设备联网支持等。英特尔在线学习计划是建立在英特尔长期致力于改善学习的技术基础之上。它将在美国有迫切需要的地区立即启动,并在全球范围内推广。
英特尔还投入1000万美元设立一项创新基金,用于支持外部合作伙伴的请求以及由员工牵头的救助项目,满足其所在社区的关键需求。例如:
英特尔正在与印度科学与工业研究理事会以及海德拉巴国际信息技术研究所合作,部署英特尔客户端和服务器解决方案,助力实现更快、更低成本的COVID-19检测和冠状病毒基因组测序,以开展流行病学调查以及基于并发症对患者风险进行人工智能分级。英特尔还与印度国家软件和服务公司协会合作,建设应用生态系统和多云后端平台,以支持大规模的COVID-19诊断、预测疫情,改进医疗行政管理。
Medical Informatics Corp.公司(MIC)的Sickbay平台解决方案,采用了英特尔技术,能够在几分钟内把病床改造成虚拟ICU病床,通过保持临床隔离而保护重症护理人员,助其远离暴露风险,并显著提升护理容量。几周前,休斯顿卫理公会医院为其虚拟ICU部署了Sickbay,一天之内即能够利用该平台支持对COVID-19患者的监控,使医护人员能够通过虚拟方式监测患者,而免去在ICU病房中暴露的风险。
在英国,英特尔正在与戴森和医疗咨询公司TTP合作,为CoVent提供FPGA,CoVent是专门应英国政府的要求而设计的新型呼吸机。该呼吸机设计成可安装于病床上,目前正在等待监管机构的批准。
在全球社区、政府和医疗机构日常所需的关键产品和服务中,英特尔技术至关重要。我们希望可以利用我们的专长、资源、技术和人才,通过创造和开发基于新技术的创新和应用,解决世界上最大的挑战,从而帮助拯救生命,造福每一个人。
在推出这项科技抗疫计划之前,英特尔已经累计宣布捐赠1000万美元,用于在疫情关键时刻支持当地社区。这些捐赠行动包括:向医务人员捐赠100万副手套、口罩和其它医疗设备;英特尔基金会为当地社区抗疫工作捐款600万美元;以及英特尔和全球各地的子公司共捐款400万美元。
正如之前所宣布的,英特尔、联想与华大基因携手合作,加速COVID-19基因组特性分析。英特尔还与其它公司一起加入了全球XPRIZE抗疫联盟,通过共享创新来促进协同解决方案,从而有效响应亟需应对危机。
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。