微软向公众发布了PyRIT,这是AI Red Team一直在使用的一种工具,用于检查其生成的AI系统(如Copilot)中的风险(Sabrina Ortiz/ZDNet)

尽管生成AI模型具有先进的功能,但我们已经看到了许多实例,这些模型流氓、幻觉或存在恶意行为者可以利用的漏洞。(gen AI)。

查看原文