欢迎来到学术欺诈的新时代。
南卡罗来纳州的一位大学教授在发现一名学生使用ChatGPT(一种新的人工智能聊天机器人,可以快速消化并说出大量主题的书面信息)为他的哲学课写论文后发出了警报。
弗曼大学哲学助理教授达伦·希克说,这项由OpenAI公司发布并向公众开放的技术问世数周,是对已经被猖獗的作弊行为所困扰的高等教育的又一次打击。
“学术界没有预见到这一点。所以我们有点措手不及,”希克告诉《华盛顿邮报》。“我一在Facebook上报告这件事,我的(学术界的)朋友们就说,‘是啊,我也抓到一个。’”
本月早些时候,希克要求全班同学写一篇500字的论文,主题是18世纪哲学家大卫·休谟(David Hume)和恐怖悖论(paradox of horror),探讨人们如何从他们所恐惧的事物中获得乐趣,作为一项家庭作业。
但他说,有一份提交的材料有几个特点,在学生的“基本”答案中“标记”了人工智能的使用。
“这是一种干净的风格。但它是可识别的。我想说,它写起来就像一个非常聪明的12年级学生,”希克谈到ChatGPT对问题的书面回答时说。
“有些特别奇怪的措辞并没有错,只是特别……如果你教别人如何写一篇文章,在他们找到自己的风格之前,你就会告诉他们如何写。”
尽管拥有版权法伦理方面的背景,希克说要证明这篇论文是由ChatGPT捏造的几乎是不可能的。
首先,教授将可疑文本插入ChatGPT制作方制作的软件中,以确定书面回复是否由人工智能制定。
他的匹配率为99.9%但与标准的剽窃检测软件或精心制作的大学论文不同的是,该软件不提供引用。
然后,希克向ChatGPT提出一系列他想象中他的学生曾经问过的问题,试图写出同样的文章。这一举动得到了类似的答案,但没有直接的匹配,因为该工具制定了唯一的回答。
最终,他与这名学生对峙,这名学生承认使用ChatGPT,结果这门课不及格。这名本科生也被移交给了学院的教务长。
但希克担心,其他案例几乎不可能被证明,他和他的同事很快就会被欺诈性的工作淹没,因为像弗曼这样的大学正努力为这项发展中的技术建立正式的学术协议。
目前,希克表示,他能做的最好的事情就是用即兴口试给疑似学生一个惊喜,希望让他们在没有科技盔甲的情况下措手不及。
“困难在于,不像说服朋友帮你写论文,因为他们之前上过这门课,也不像在网上付钱请人帮你写论文,这是免费的,而且是即时的,”他说。
更可怕的是,希克担心,随着ChatGPT的不断学习,其工作中的不规则性将在学生的论文中变得越来越不明显。
“这是学习软件——一个月后,它会变得更聪明。一年后,它将变得更加智能。”“我感到自己在极度恐惧和这对我日常工作意味着什么之间的混合——但这也很吸引人,它是无限的吸引人。”