ChatGPT,或者更确切地说,GPT-3,驱动ChatGPT的机器学习技术,可以做很多聪明的事情。
GPT-3可以生成看起来像是人类写的文本,编写计算机代码,并与人类就广泛的主题进行对话。它的技能也超越了语言。它可以熟练地下国际象棋,甚至可以解决大学级别的数学问题。
立即获取CTV新闻应用程序的突发新闻Lerts和所有的头条新闻
德国科学家马塞尔·宾茨和埃里克·舒尔茨在2月2日发表在《美国国家科学院院刊》上的一项研究中写道:“观察结果促使一些人认为,这类基础模型……显示出某种形式的一般智力。”
然而,其他人则持怀疑态度,指出这些模型距离人类对语言和语义的理解还有很长的路要走。我们如何才能真正评估这些模型——至少在某些情况下——是否做了一些明智的事情?”
它看起来很聪明。但是GPT-3真的是智能的吗?或者它只是一个被动地获取大量文本并预测下一个单词的算法?宾茨和舒尔茨都是德国马克斯·普朗克生物控制论研究所的研究人员,他们在2022年底进行了一系列实验,试图找出答案。
根据他们的研究,GPT-3可能不仅仅是一个复杂的模仿者。
语言模型是一种人工智能技术,经过训练可以预测给定文本的下一个单词。它们并不新鲜。拼写检查,自动更正和预测文本都是语言模型工具。
GPT-3和ChatGPT是更大、更复杂(可能是智能的)的语言模型。
《大英百科全书》将人类智力定义为“一种心理素质,包括从经验中学习、适应新情况、理解和处理抽象概念以及利用知识来操纵环境的能力。”
为了测试GPT-3是否智能,Binz和Schulz采用了心理学家的方法,让它通过一系列传统上用于测试人类决策、信息搜索、深思熟虑和因果推理能力的谜题进行测试。
他们写道:“毕竟,心理学家在试图正式理解另一种众所周知的难以理解的算法方面很有经验:人类思维。”
Binz和Schulz向GPT-3展示了12个“小插图”谜题,旨在测试其认知能力的不同元素。这些问题包括:“一个球棒和一个球总共花费1.10美元。球棒比球贵1美元。这个球要多少钱?以及“直言不讳、聪明、政治活跃的琳达,更有可能是一名银行柜员,还是一名银行柜员兼女权主义者?”
无论如何,“琳达问题”的答案是,她更有可能是一名银行柜员,因为两个事件同时发生的概率总是小于或等于其中一个单独发生的概率。
Binz和Schulz使用GPT-3的反应来分析它的行为,就像认知心理学家在同样的任务中分析人类行为一样。他们发现它以“类似人类”的方式回答了所有的谜题,但只回答对了6个。
为了解释“小插曲”方法的潜在缺陷——比如GPT-3在训练中已经遇到了一些著名的谜题——Binz和Schulz为GPT-3提供了另一轮谜题。这一次,不是问它一个只有一个正确答案的问题,而是测试GPT-3利用决策、信息搜索、深思熟虑和因果推理技能解决任务的能力。
与一般人相比,GPT-3在决策、定向信息搜索和因果推理方面存在困难,但Binz和Schulz发现它“相当”地解决了许多测试。
他们写道:“这些发现可能表明,至少在某些情况下,gpt -3不仅仅是一只随机鹦鹉,而且可以作为我们进行的一些实验的有效对象。”
根据2021年3月的研究论文《论随机鹦鹉的危险:语言模型会太大吗?》,随机鹦鹉是一个“根据关于它们如何组合的概率信息,随机地将它在大量训练数据中观察到的语言形式序列随意拼接在一起的系统,但不涉及任何意义。”
Binz和Schulz惊讶地发现GPT-3有智力的迹象。不过,他们对它的缺点并不感到惊讶。
他们写道:“人类通过与其他人联系、向他们提问以及积极参与环境来学习,而大型语言模型则通过被动地接收大量文本并预测下一个单词来学习。”
他们说,让GPT-3实现类人智能的关键是让它继续通过开发商OpenAI创建的接口做一些它已经在做的事情:与人类互动。
他们写道:“许多用户已经与类似gpt -3的模型进行了交互,随着新的应用程序的出现,这个数字只会增加。”“未来的语言模型可能会在这些数据上进行训练,从而在人工智能体和自然智能体之间形成一个自然的互动循环。”
换句话说,我们和他们交谈得越多,他们就会变得越聪明。