我们都喜欢机器人的概念。只要看看电视、电影、书籍、甚至音乐和社交媒体上有多少角色就知道了。自从20世纪50年代类人机器人问世以来,我们对它们能给我们的生活带来什么好处的兴趣与日俱增。
但是,正如我们从无数科幻小说中了解到的那样,对机器人被用来做坏事而不是做好事或反抗人类统治者的恐惧也引起了我们的兴趣。
这些都是科学家和普通人都在继续思考的问题,特别是随着人工智能(AI)的快速发展,人工智能(AI)使用机器人过程自动化(RPA)软件来执行日常任务。为了引导这些讨论,科幻世界中的一些问题以“机器人三定律”的形式进入了主流。
科幻作家艾萨克·阿西莫夫于1942年创造了“机器人三定律”,试图为机器人技术的发展建立一个道德体系。其目标是制定法律,以管理进步,并确保人类始终保持对其创造的控制。这些定律最早是在《绕圈》一书中提出的,这是科幻文学和更广泛的科学界的重要文献。
自从机器人定律在科技界被广泛采用以来,它们已经形成了围绕生成式人工智能和机器的伦理和安全的许多讨论的基础。尽管有人批评这些法律过于简单,尤其是近年来,但它们仍然是重要对话的起点。
正如阿西莫夫在书中所概述的,“机器人三定律”如下:
机器人不得伤害人类,也不得坐视人类受到伤害。
机器人必须服从人类的命令,除非这些命令结束与第一定律相冲突。
机器人必须保护自己的存在,除非在可能发生的情况下与第一定律或第二定律相冲突。
阿西莫夫后来在第一定律的基础上又增加了一条,被称为第零定律,以更广泛地涵盖整个世界——机器人不得伤害人类,也不得坐视人类受到伤害。
阿西莫夫在制定机器人法律时详细说明的主要目标是保护人类免受可能的伤害。虽然是虚构的,但在考虑技术时,尤其是在规划和开发阶段,它们仍然是必不可少的。
从这些法律中获得的最大收获之一是,它们与建造智能机器以支持人类生活的伦理关系。在很多情况下,我们使用机器人来帮助我们实现工作和家庭系统的自动化,从而腾出时间来完成其他任务或爱好。
但是当我们误用机器时会发生什么呢?第一定律明确涉及人类的安全,这就提出了人类和他们创造的机器人都有责任被适当使用的问题。
许多美国组织都投入了大量资金2021年人工智能伦理在商业中的重要性。这一比例从2018年的不到50%有所增加。
来源:IBM
随着自动化技术越来越融入我们的生活,我们不仅要考虑对它的依赖,还要考虑如何利用它来实现真正的好处。
没有道德指南针的指引,技术只能按照人类设计的方式做出反应。这就引出了一个问题,即我们如何在使用这项技术与我们持有的价值观和原则之间取得平衡,以及它如何影响我们自己的福祉。
就像围绕机器人伦理的问题一样,这些法律使问责制成为一个关键点。使用这项技术带来的更广泛的可能性和影响是什么?谁应该为它的影响负责?设计师、开发人员、程序员,甚至制造商,在如何使用他们的技术做出道德正确的决定时,都有一定的分量。
但这也存在一些问题。例如,当人们或实体以不应该的方式使用机器人时,我们该如何应对?随着技术的不断发展,责任问题变得更加重要。
大多数员工认为公司首席执行官应该对公司的人工智能道德负责。
来源:IBM
“机器人三定律”最积极的成果之一就是试图发展伦理技术。尽管这些法律的起源是虚构的,但它们引发的问题以及我们为此进行的讨论意味着,工程师们通常一开始就会对自己的发明承担道德责任。
不管我们喜不喜欢,小说世界反映了我们现有的文化,并帮助塑造了它。作为一名多产的科幻作家,阿斯米诺夫的定律已经成为围绕机器人和技术的更广泛叙事的一部分。
毫无疑问,这些定律指导了现代世界对机器人的看法。随着近年来人工智能的兴起,很容易看出阿西莫夫定律在公众如何理解和应对新技术方面继续发挥着关键作用。
就像任何从小说改编到现实世界的东西一样,人们对机器人技术的规律如何适用于21世纪的技术提出了重大批评。许多源于现代机器人技术的复杂性,其中很多都没有在阿西莫夫1942年的书中提到。
阿西莫夫时代的机器人不仅比今天的机器人简单,而且在一个依赖技术的世界里,它们带来的伦理问题也要复杂得多。例如,机器人家庭清洁设备不太可能对更广泛的人群造成严重伤害。但与最终被设计为武器的军用机器人相比,重大的伦理问题就浮出水面了。
这些装置中的许多都是为了减少在高战斗区域对人类生命的影响而设计的,因此仍然属于三大法则。然而,毫无疑问,它们同时也伤害和摧毁了人类的生命。尤其是在战区,使用机器人从来都不是符合原始法则的简单答案。
虽然制定不具体或不严格的法律有好处,尤其是在技术方面,但当人们以不同的方式解释法律时,问题就出现了。一个人认为合乎道德的事情,在另一个人看来可能是非常不道德的。
在试图概述规则时,定义是至关重要的,所以关于什么是“伤害”,或者机器人应该如何优先考虑第一定律和第二定律的问题,都是工程师和科学家们在“机器人三定律”方面一直在努力解决的问题。
对机器人法则的一个主要批评是,它严格关注人类的生命,而不是其他任何东西。明显缺乏如何对待非人类生命的指导是一个问题。
机器人技术的使用也折磨着动物和环境,然而没有关于这些生命形式的伦理指导。这种以人为中心的观点给那些仍然遵守法律条文的剥削性和破坏性技术留下了空间。
另一个重要的不满是,即使在讨论人类伦理时,我们也必须解释几千年来我们的偏见。纵观历史,我们看到了无数种族、性别和宗教被视为与主流文化不同的非人性化的例子。
由于这些机器人设备是由人类编程的,因此在它们的功能中不可避免地会出现偏见。事实上,关于生成式人工智能的培训材料及其隐性偏见的讨论已经在进行中。
像任何其他形式的技术一样,人工智能经常在“机器人三定律”的镜头下进行研究,以了解它是如何积累的。围绕人工智能的开发和使用的讨论已经进入了工作场所、教室,甚至我们的家庭。
目前,人工智能在很大程度上遵守了阿西莫夫制定的法律。它遵循人类创造者提供的规则或输入,它自己没有对人类构成重大威胁的内在欲望。即使请求被拒绝,这似乎违反了第二定律,一个精心修改的提示通常也可以绕过这个问题。
不道德和有害用途的可能性仍然存在,这使得人工智能不受这些法律的约束。然而,这与目前可用的许多其他机器人技术没有什么不同。人类是有缺陷的,我们创造的技术也是如此。
尽管阿西莫夫的机器人定律存在缺陷,但对于我们必须围绕新技术的指数级发展进行的许多重要讨论来说,它是一个有益的起点。就目前的情况来看,要让机器人掌握控制权,变得比地球上最聪明的人类更聪明,我们还有很长的路要走。所以在那之前,我们只是继续使用它们,让我们的生活更轻松一点。
有兴趣开发自己的人工智能技术吗?使用机器学习软件,您可以通过使用算法生成定义的输出来构建自动化,以提高工作的准确性。