华盛顿:10月的一个早晨,当来自德克萨斯州的14岁女孩埃利斯(Ellis)醒来时,收到了几条未接电话和短信,它们都是关于同一件事:她在社交媒体上流传的裸照。
她并没有真的拍下这些照片,但这并没有什么区别,因为人工智能让所谓的“深度造假”变得越来越逼真。
埃利斯和一个朋友(也是受害者)的照片从Instagram上撤下,然后把他们的脸放在其他人的裸体上。其他学生——都是女生——也被盯上了,这些合成照片在Snapchat上与其他同学分享。
她告诉法新社说:“这看起来是真的,就像那些尸体看起来像真的一样。”“我记得当时我真的、真的很害怕……我从来没有做过那种事。”
随着人工智能的蓬勃发展,深度假色情也在蓬勃发展,用最少的精力和金钱制作出超现实主义的图像和视频——在美国多所高中引发了丑闻和骚扰,在缺乏联邦立法禁止这种做法的情况下,管理人员难以做出回应。
“女孩们就哭了,一直哭。他们感到非常羞愧,”埃利斯的母亲安娜·贝里·麦克亚当斯(Anna Berry McAdams)说。她对这些照片的逼真程度感到震惊。“他们不想上学。”
“一部智能手机和几美元”
虽然很难量化深度造假有多普遍,但埃利斯在达拉斯郊外的学校并不孤单。
月底,美国东北部新泽西州的一所高中爆发了另一起假裸照丑闻。
“这种情况会越来越频繁,”多洛塔·马尼(Dorota Mani)说,她也是一名受害者的母亲,今年14岁。
她补充说,没有办法知道色情深度假货是否会在人们不知情的情况下在互联网上流传,而且调查往往只有在受害者说出来的时候才会展开。
“很多受害者甚至不知道有照片,他们将无法保护自己——因为他们不知道是什么。”
与此同时,专家们表示,法律在跟上技术的步伐方面进展缓慢,尽管更粗俗的假色情作品(通常以名人为焦点)已经存在多年。
不过,现在,任何在领英(linkedIn)上发布像大头照这样无辜的东西的人都可能成为受害者。
加州大学伯克利分校的计算机科学教授哈尼·法里德告诉法新社:“任何在这个领域工作的人都知道,或者应该知道,它将以这种方式被使用。”
上个月,美国总统乔·拜登(Joe Biden)就人工智能签署了一项行政命令,呼吁政府建立“防止制作儿童性虐待材料和制作未经同意的真实个人亲密图像”的护栏。
法里德说,如果在很多情况下很难追查到某些照片的个人创作者,那也不应该阻止这些照片背后的人工智能公司或分享照片的社交媒体平台承担责任。
但目前还没有国家立法限制深度虚假色情内容,只有少数几个州通过了相关法律。
人工智能伦理学家蕾妮·卡明斯(Renee Cummings)表示:“尽管你的脸被叠加在身体上,但这个身体并不是真正的你。”
这可能会造成“法律上的矛盾”,这位弗吉尼亚大学的教授告诉法新社,因为现有的法律禁止未经同意传播某人的性照片,但这并不适用于深度造假。
虽然“只要有智能手机和几美元”,任何人都可以使用广泛可用的软件制作这些图像,但许多受害者——主要是年轻女性和女孩——“不敢公开”。
卡明斯说,深度假色情“可以毁掉一个人的生活”,她引用了遭受焦虑、抑郁和创伤后应激障碍的受害者的例子。
假照片,真创伤
在德克萨斯州,埃利斯接受了警方和学校官员的采访。但教育和司法系统似乎措手不及。
她的母亲贝里·麦克亚当斯(Berry McAdams)说:“我们没有办法说,‘是的,这是儿童色情片’,这让我很沮丧。”
埃利斯照片背后的同学被暂时停课,但埃利斯——之前称自己是一个社交和外向的人——仍然“经常充满焦虑”,并要求转学。
“我不知道有多少人可以保存这些照片并将它们发送出去。我不知道他拍了多少照片,”她说。
“很多人都可以得到它们。”
与此同时,她的母亲担心,如果——或者,考虑到互联网的寿命,什么时候——这些照片会重新出现。
“这可能会影响他们的余生,”她说。(法新社