采取预防性的云安全措施 改善数字生态系统
数据泄露是医疗行业信息系统面临的主要风险之一。由于这个行业保存了大量的敏感信息,比如个人信息、财务信息和健康信息等,一旦泄露,容易引发严重的后果。因此,无论是医院还是医疗服务公司,都在积极寻求预防性措施,防患于未然。
Rally是一家美国的医疗服务公司,旨在简化医疗服务流程,为公司和员工管理复杂的福利政策,并帮助改善整体健康状况。此外,公司开发团队支持Rally数字生态系统内的关键服务,以建立用户身份并验证资格。
Rally使用云提供商PaaS服务和IaaS虚拟基础架构(包括Amazon Web和Relational Database Service服务,以及MongoDB和Scala),这些基础架构涵盖身份管理、提供商及患者资格,以及最终用户和特权用户系统。
Rally的软件安全工程师Nathan Coleman表示:“我们希望对云基础架构进行全面的架构风险分析,尤其是身份验证和资格系统。这是我们还未完善的领域,公司亟需精通这方面技术的人才。新思科技拥有我们所需的专业技术知识,而且能确保与我们面谈的专业人士也会负责接下来的审查分析。而很多其它供应商不能确保这点。这也是我们选择和新思科技合作的原因之一。”
Rally主要有三个方面需要安全评估:
新思科技软件质量与安全部门为Rally提供的服务包括架构风险分析(ARA)、配置审查和代码辅助渗透测试。
配置审查深入评估Rally云基础架构安全状况,并审核了其部署的云应用程序和安全控制运行时配置,以识别漏洞,并提供描述配置如何满足或不满足安全性目标的简要报告。
渗透测试识别Rally管理的数据中哪些是敏感的,并开发应用程序,根据易受攻击状况及有可能被利用的方式进行分类。每个问题都是按照感知风险的顺序进行测试,使用手动和基于工具的混合方式进行运行时和安全代码分析。
Nathan Coleman 指出:“ARA验证了我们对架构的理解,并提供了建议。编码系统渗透测试和配置审查为修复提供了明确的路径 – 不仅检测出配置存在的问题,而且指导我们如何解决问题。ARA结果会反馈给渗透测试,误报率很低。配置审查可能是直接融入我们工作流程最简单的方法。”
他接着说:“我们希望进行彻底的架构风险分析,尤其是身份验证和资格系统。”
他总结道:“和新思科技合作十分顺畅,他们提供了专业的技术,分享了丰富的知识。我们热切期望参与到安全社区,并推动安全发展。与新思科技的合作有助于推动我们实现这两个目标。”
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。