人工智能图像生成器的出现,可以从文本提示中快速生成任何风格的图像,这动摇了许多人类艺术家的核心。

特别是,许多人抱怨他们的原创作品被用来训练这些人工智能模型——这是他们从未选择的用途,他们也没有得到补偿。

但是,如果艺术家可以用一种工具“毒害”他们的作品,这种工具可以非常微妙地改变它,以至于人眼无法分辨,同时对试图消化它的人工智能系统造成严重破坏,那会怎么样?

这就是一款名为“Nightshade”的新工具背后的想法,它的创造者说它确实做到了这一点。芝加哥大学赵本教授领导的一组研究人员在一篇尚未经过同行评议的论文中指出,他们建立了一个系统来生成即时特定的“有毒样本”,这些样本会扰乱像“稳定扩散”这样的图像生成器的数字大脑,扰乱它们的输出。

在涉及Nightshade的早期实验中,赵和他的团队发现,当被要求画一只狗时,只需要50张有毒的图片,就可以得到一个未经修改的稳定扩散版本,以创建奇怪的、疯狂的图片。仅仅300个有毒样本就能让机器学习模型吐出看起来更像猫而不是狗的图像。

最重要的是,从技术上讲,龙茄并不局限于像“狗”这样的中毒提示。由于人工智能图像生成器的工作方式,它也会感染与之相关的图像,比如“小狗”和“哈士奇”。

“令人惊讶的是,我们发现适量的龙葵攻击可以破坏文本到图像生成模型的一般特征,有效地破坏其生成有意义图像的能力,”论文写道。

艺术家们为有机会反击而欢欣鼓舞。

艺术家奥特姆·贝弗利说:“我真的很感激我们有这样一个工具,可以帮助艺术家们把创作的权力还给他们。”

Nightshade建立在另一种名为Glaze的工具上,该工具也是由赵和他的团队开发的。根据该项目的官方网站,Glaze旨在通过“对艺术品进行一系列微小的改变,使其在人眼看来没有变化,但在人工智能模型看来却像一种截然不同的艺术风格”,“通过破坏风格模仿来保护人类艺术家”。该团队希望最终将Nightshade整合到Glaze中,为内容创作者提供对抗AI模型的额外防线。

但这个工具在现实世界中仍然很少得到测试。研究人员在论文中写道,主流的图像生成工具是在数十亿个样本上进行训练的,这意味着像Nightshade这样的工具到底有多大用处还不清楚,因为它实际上是“内容创作者对抗无视选择退出/不抓取指令的网络抓取者的最后一道防线”。

“我们还不知道针对这些攻击的强大防御,”康奈尔大学研究人工智能模型的教授维塔利·什马蒂科夫(Vitaly Shmatikov)说,他没有参与这项研究。“我们还没有在野外看到对现代(机器学习)模型的中毒攻击,但这可能只是时间问题。”

无偿劳动力被用来训练人工智能模型的问题是一个热门问题。例如,今年早些时候,一群艺术家起诉了图像生成器Stable Diffusion和Midjourney的创建者,称他们的生计受到了威胁。

这种威胁是非常真实的,人工智能图像生成器已经开始抢走艺术家和插画家的工作。

一些人工智能公司已经开始为艺术家提供新的方法,将他们的作品排除在人工智能训练数据之外。例如,上个月末,OpenAI宣布了艺术家“选择退出”的新方法,他们的作品不会出现在DALL-E数据集中。

然而,对许多艺术家来说,这些努力太少也太迟了。

然而,Nightshade和Glaze可以给这些四面楚歌的艺术家一些代理回来-和一种报复的方式。

以使用Glaze的插画家兼艺术家伊娃·图伦特(Eva Toorenent)为例,她表示,Nightshade将“让(人工智能公司)三思而后行,因为他们有可能在未经我们同意的情况下拿走我们的作品,从而摧毁他们的整个模型。”