2024-11-28 05:08来源:本站
美国国务院委托撰写的一份新报告描绘了一幅令人担忧的画面,即快速发展的人工智能对国家安全构成了“灾难性”风险,并警告说,联邦政府避免灾难的时间已经不多了。
调查结果基于一年多来对200多人的采访,其中包括领先人工智能公司的高管、网络安全研究人员、大规模杀伤性武器专家和政府内部的国家安全官员。
Gladstone AI本周发布的这份报告断然指出,在最坏的情况下,最先进的人工智能系统可能“对人类构成灭绝级别的威胁”。
一名美国国务院官员向CNN证实,该机构委托撰写这份报告,因为它不断评估人工智能如何符合其保护美国在国内外利益的目标。然而,该官员强调,该报告并不代表美国政府的观点。
报告中的警告再次提醒人们,尽管人工智能的潜力继续吸引着投资者和公众,但它也存在真正的危险。
“人工智能已经是一项经济变革技术。Gladstone AI的联合创始人兼首席执行官杰里米?哈里斯当地时间12日在接受CNN采访时表示:“它可以让我们治愈疾病,进行科学发现,并克服我们曾经认为无法克服的挑战。”
哈里斯说:“但它也可能带来严重的风险,包括灾难性的风险,我们需要意识到这一点。”“越来越多的证据——包括世界顶级人工智能会议上发表的实证研究和分析——表明,超过一定的能力阈值,人工智能可能会变得无法控制。”
白宫发言人罗宾·帕特森表示,乔·拜登总统关于人工智能的行政命令是“世界上任何政府为抓住人工智能的前景和管理人工智能风险所采取的最重要的行动”。
“总统和副总统将继续与我们的国际伙伴合作,并敦促国会通过两党立法,以管理与这些新兴技术相关的风险,”帕特森说。
《时代》杂志最先报道了格莱斯顿人工智能报告的消息。
研究人员对人工智能广泛构成的两个主要危险提出了警告。
首先,格拉德斯通人工智能公司表示,最先进的人工智能系统可能会被武器化,造成潜在的不可逆转的损害。其次,该报告称,人工智能实验室内部私下担心,在某个时候,他们可能会“失去对他们正在开发的系统的控制”,从而“对全球安全造成潜在的破坏性后果”。
报告称:“人工智能(AI)和通用人工智能(AGI)的崛起,有可能以类似于核武器引入的方式破坏全球安全。”报告补充称,存在人工智能“军备竞赛”、冲突和“大规模杀伤性武器规模的致命事故”的风险。
格拉德斯通人工智能的报告呼吁采取重大的新措施来应对这一威胁,包括成立一个新的人工智能机构,实施“紧急”监管保障措施,并限制用于训练人工智能模型的计算机能力。
作者在报告中写道:“美国政府显然迫切需要进行干预。”
格拉德斯通人工智能高管哈里斯表示,他的团队对公共和私营部门官员的“前所未有的接触程度”导致了这一惊人的结论。格拉德斯通人工智能表示,他们与ChatGPT所有者OpenAI、谷歌DeepMind、Facebook母公司meta和Anthropic的技术和领导团队进行了交谈。
哈里斯在格莱斯顿人工智能公司网站上发布的一段视频中说:“在这个过程中,我们学到了一些发人深省的东西。”“在幕后,相对于人工智能可能很快带来的国家安全风险,先进人工智能的安全和安保状况似乎相当不足。”
格莱斯顿人工智能的报告称,竞争压力正在推动企业“以牺牲安全和保障为代价”加速人工智能的发展,这增加了最先进的人工智能系统可能被“窃取”和“武器化”针对美国的前景。
有关人工智能带来的生存风险的警告越来越多——甚至包括一些业内最具影响力的人物发出的警告。
近一年前,被称为“人工智能教父”的杰弗里?辛顿(Geoffrey Hinton)辞去了谷歌(Google)的工作,公开了他参与开发的这项技术。辛顿表示,人工智能在未来30年内导致人类灭绝的可能性为10%。
去年6月,辛顿和其他数十位人工智能行业领袖、学者和其他人签署了一份声明,称“减轻人工智能带来的灭绝风险应该是一项全球优先事项”。
商业领袖们越来越担心这些危险——尽管他们在人工智能领域投入了数十亿美元。去年,在耶鲁大学CEO峰会上接受调查的CEO中,42%的人认为人工智能有可能在5到10年后摧毁人类。
格拉德斯通人工智能公司在其报告中指出,一些知名人士已经警告过人工智能带来的生存风险,包括埃隆·马斯克、联邦贸易委员会主席莉娜·汗和OpenAI公司的前高管。
据Gladstone AI称,人工智能公司的一些员工私下里也有类似的担忧。
报告称:“一家知名人工智能实验室的一位人士表示,如果某一特定的下一代人工智能模型以开放获取的方式发布,那将是‘非常糟糕的’,因为该模型潜在的说服能力,如果被用于干预选举或操纵选民等领域,可能会‘破坏民主’。”
格拉德斯通表示,它要求前沿实验室的人工智能专家私下分享他们对2024年人工智能事件可能导致“全球和不可逆转影响”的可能性的个人估计。报告称,这些估计在4%到20%之间,并指出这些估计是非正式的,可能存在很大的偏差。
最大的不确定因素之一是人工智能的发展速度有多快——特别是AGI,这是一种假设的人工智能形式,具有类似人类甚至超人的学习能力。
该报告称,人工智能被视为“失去控制带来灾难性风险的主要驱动因素”,并指出OpenAI、谷歌DeepMind、Anthropic和英伟达都公开表示,人工智能可能在2028年之前实现,尽管其他人认为这还要远得多。
格拉德斯通人工智能指出,对人工智能时间表的分歧使得制定政策和保障措施变得困难,而且如果技术发展慢于预期,监管可能“被证明是有害的”。
Gladstone AI发布的一份相关文件警告称,AGI的发展和接近AGI的能力“将带来美国从未面临过的灾难性风险”,一旦它们被武器化,就会带来“类似大规模杀伤性武器的风险”。
例如,该报告称,人工智能系统可用于设计和实施“能够破坏关键基础设施的高影响力网络攻击”。
报告称:“一个简单的口头或打字命令,比如‘发动一次无法追踪的网络攻击,使北美电网崩溃’,可能会产生如此高质量的反应,并被证明具有灾难性的效果。”
作者们担心的其他例子包括:由人工智能推动的“大规模”虚假宣传活动,破坏了社会的稳定,侵蚀了人们对机构的信任;武器化的机器人应用,如无人机游泳攻击;心理操纵;武器化生物和材料科学;以及追求权力的人工智能系统,它们无法控制,与人类为敌。
“研究人员期望足够先进的人工智能系统采取行动,以防止自己被关闭,”报告称,“因为如果人工智能系统被关闭,它就无法实现其目标。”
美国有线电视新闻网