据 Cointelegraph 报道,芝加哥大学的研究人员开发了一种名为“Nightshade”的工具,使艺术家能够“毒化”他们的数字艺术,以阻止开发人员在其作品上训练人工智能(AI)系统。

Nightshade通过修改图像的像素来欺骗AI系统,使其误解图像。例如,让AI将一张猫的图片误认为是狗,反之亦然。

康奈尔大学教授Vitaly Shmatikov表示,研究人员“尚不知道如何有效防御这些攻击”,即使是像OpenAI的ChatGPT这样的强大模型也可能面临风险。