代理型人工智能扩展到安全运营领域以减轻人类工作负荷

主要观点:代理式 AI 开始重塑恶意软件检测和更广泛的安全操作,并非替代人类,而是承担低价值工作。如微软的 Project Ire 可自主逆向工程软件并产生用于阻止高级持续性威胁的“定罪”,在受控测试中在不同数据集上有不同表现,适合分诊等工作;其他厂商如 CrowdStrike 和 ReliaQuest 也在朝此方向发展,研究团体也有贡献,如 Google 的相关研究。这些系统有相似设计理念,注重透明度和生成证据链,已被部分安全团队采用,能减轻警报疲劳等,虽有必要但也存在风险如幻觉等。

关键信息

  • 微软 Project Ire 可自主逆向工程软件并产生强定罪。
  • 其他厂商如 CrowdStrike 嵌入 Charlotte AI 到 Falcon 平台,ReliaQuest 的 GreyMatter 平台引入代理式 AI。
  • 研究团体如 Google 的 Big Sleep 代理和 Sec-Gemini 模型的相关工作。
  • 系统设计注重透明度和生成证据链。
  • 已有 30%安全团队采用,42%在评估。
  • 工具价值在于增强现有管道,减少警报疲劳等。
  • 存在风险如幻觉、盲 spots 等。

重要细节

  • Project Ire 在 Windows 驱动数据集上精度为 0.98、召回率为 0.83,在 Defender 遥测上精度约 89%、召回率为 25%。
  • 安全团队面临警报量增长和分析师短缺问题。
  • 近期分析警告大型语言模型在安全环境中的风险。
阅读 19
0 条评论