找回密码 立即注册
查看: 157|回复: 0

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

[复制链接]

412

主题

1382

回帖

4180

积分

卡卡巡查

积分
4180
发表于 2024-8-23 09:13:59 | 显示全部楼层 |阅读模式
科技媒体 darkreading 昨日(8 月 21 日)发布博文,报道微软 Copilot Studio 存在服务器端请求伪造(SSRF)安全漏洞,会泄露敏感云数据。


Copilot Studio 是一个端到端对话式 AI 平台,支持你使用自然语言或图形界面创建和自定义助手。

用户使用 Copilot Studio,可以轻松设计、测试和发布满足内部或外部场景的需求。


漏洞

研究人员利用微软 Copilot Studio 工具中的一个漏洞,能够发出外部 HTTP 请求,从而访问云环境中有关内部服务的敏感信息,并潜在影响多个租户。


Tenable 的研究人员在聊天机器人创建工具中发现了服务器端请求伪造(SSRF)漏洞,他们利用该漏洞访问了微软的内部基础架构,包括实例元数据服务(IMDS)和内部 Cosmos DB 实例。


该漏洞被微软追踪为 CVE-2024-38206,根据与该漏洞相关的安全公告,经过验证的攻击者可以绕过 Microsoft Copilot Studio 中的 SSRF 保护,通过网络泄漏基于云的敏感信息。




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则


快速回复 返回顶部 返回列表