乔·拜登(Joe Biden)总统的政府正在推动科技行业和金融机构关闭一个利用人工智能技术制作的虐待性图像日益增长的市场。
新的生成式人工智能工具可以很容易地将某人的肖像转换为色情的人工智能深度假,并在聊天室或社交媒体上分享这些逼真的图像。受害者——无论是名人还是儿童——几乎没有办法阻止这种行为。
白宫星期四发出呼吁,在没有联邦立法的情况下,寻求企业的自愿合作。通过承诺采取一系列具体措施,官员们希望私营部门能够遏制这种未经同意的人工智能图像的创建、传播和货币化,包括儿童的露脸图像。
“随着生成式人工智能的出现,每个人都在猜测第一个真正的危害会出现在哪里。我认为我们有答案,”拜登的首席科学顾问、白宫科技政策办公室主任阿拉蒂·普拉巴卡(Arati Prabhakar)说。
她向美联社描述了人工智能工具推动的非自愿图像的“惊人加速”,主要针对妇女和女孩,以一种可能颠覆她们生活的方式。
“如果你是一个十几岁的女孩,如果你是一个同性恋孩子,这些都是人们现在正在经历的问题,”她说。“由于生成式人工智能的发展非常迅速,我们看到了它的加速发展。最快的办法就是让公司站出来承担责任。”
在周四发布之前与美联社分享的一份文件呼吁,不仅是人工智能开发者,还包括支付处理器、金融机构、云计算提供商、搜索引擎和看门人——即苹果和谷歌——他们控制着能否进入移动应用商店。
该部门表示,私营部门应加大力度“破坏”基于图像的性侵犯的货币化,限制付费渠道,特别是对那些发布未成年人露骨图片的网站。
普拉巴卡说,许多支付平台和金融机构已经表示,他们不会支持这种推广滥用图片的企业。
“但有时并没有强制执行;有时他们没有这些服务条款,”她说。“所以这是一个可以做得更严格的例子。”
该文件称,云服务提供商和移动应用商店还可以“限制未经个人同意就以创建或修改性图像为目的的网络服务和移动应用程序”。
无论是人工智能生成的还是放到互联网上的真实裸照,幸存者应该更容易让网络平台删除它们。
最广为人知的色情深度假图片受害者是泰勒·斯威夫特(Taylor Swift),今年1月,当这位创作型歌手的人工智能生成的虐待图片开始在社交媒体上流传时,她的狂热粉丝群进行了反击。在一些Swift图片被追踪到其人工智能视觉设计工具后,微软承诺加强其保护措施。
在美国和其他地方,越来越多的学校也在努力解决人工智能生成的学生深度假裸照问题。在某些情况下,青少年被发现制作人工智能处理的图像并与同学分享。
去年夏天,拜登政府在亚马逊、谷歌、textarea、微软和其他主要科技公司的斡旋下,自愿承诺在公开发布新的人工智能系统之前,对它们实施一系列保护措施。
随后,拜登在10月签署了一项雄心勃勃的行政命令,旨在指导人工智能的发展方式,以便公司在不危及公共安全的情况下获利。在关注包括国家安全在内的更广泛的人工智能问题的同时,它也承认了人工智能生成的虐待儿童图像的新问题,并找到了更好的方法来检测它。
但拜登也表示,政府的人工智能保障措施需要得到立法的支持。一个由美国两党参议员组成的小组目前正在敦促国会在未来三年内至少花费320亿美元来开发人工智能,并为安全引导人工智能的措施提供资金,尽管他们在很大程度上推迟了将这些保障措施制定为法律的呼吁。
白宫性别政策委员会(White House Gender Policy Council)主任詹妮弗·克莱因(Jennifer Klein)说,鼓励企业加快步伐,做出自愿承诺“并不能改变国会在这方面采取行动的根本需要”。
长期存在的法律已经将制作和拥有儿童色情图片定为犯罪,即使它们是假的。本月早些时候,联邦检察官对一名威斯康星州男子提出指控,称他使用了一款流行的人工智能图像生成器“稳定扩散”,制作了数千张人工智能生成的未成年人性行为的逼真图像。周三的传讯听证会结束后,这名男子的律师拒绝置评。
但是,对于那些能够创造这种图像的技术工具和服务,几乎没有任何监管。有些是在不可靠的商业网站上,几乎没有透露谁在运营它们或它们所基于的技术。
斯坦福互联网观测站去年12月表示,它在庞大的人工智能数据库LAION中发现了数千张涉嫌儿童性虐待的图像,这是一个在线图像和说明的索引,已被用于培训领先的人工智能图像制作公司,如Stable Diffusion。
总部位于伦敦的稳定人工智能公司拥有最新版本的“稳定扩散”,该公司本周表示,它“不批准发布”据报道威斯康星州男子使用的早期型号。这些开源模型,因为它们的技术组件在互联网上公开发布,所以很难放回瓶子里。
普拉巴卡表示,造成伤害的不仅仅是开源人工智能技术。
“这是一个更广泛的问题,”她说。“不幸的是,这是一个很多人似乎都在使用图像生成器的类别。在这个地方,我们刚刚看到了这样的爆炸。但我认为它并没有被整齐地分为开源和专有系统。”
——
美联社记者Josh Boak对此报道有贡献。