我请ChatGPT写一篇内幕文章它生成了一篇充满错误信息的令人信服的文章

   日期:2024-10-21     来源:本站    作者:admin    浏览:58    

  

  

  我让OpenAI公司的新型人工智能聊天机器人ChatGPT来帮我工作,写一篇新闻文章。

  结果是有恃无恐,有恃无恐发现虚假信息,因为机器人“不一定试图说实话”。

  OpenAI警告称,其人工智能可用于“降低虚假信息宣传的成本”。

  欲了解更多故事,请转www.BusinessInsider.co.za.

  这些话不是我写的,尽管它们作为这个故事的前两句话还过得去。这是真的:我很想找到新的方法来简化我的工作流程,制作吸引人的内容——我也渴望尝试OpenAI的新聊天机器人ChatGPT。

  这款聊天机器人于11月底向公众发布,在5天内就获得了超过100万用户。在推出后的几周内,这款机器人已经被用于从编写代码到治疗等各种领域。OpenAI联合创始人埃隆·马斯克于2018年从该公司辞职,他称ChatGPT“好得吓人”。

  卡耐基梅隆大学计算机科学和人工智能教授文森特·科尼策说:“聊天机器人已经存在很长时间了,但它们的性能似乎真的发生了重大变化。”

  我对这个人工智能机器人进行了测试,并促使它写了一篇最近的新闻报道,我已经写过一篇关于伊利诺伊州的吉普工厂由于生产电动汽车的成本不断上升而停产的报道。ChatGPT在不到10秒的时间里吐出了200个单词,结果惊人地令人信服。

  在没有我参与的情况下,ChatGPT包含了额外的细节,比如工厂所在的城市,以及将面临裁员的工人的大致准确人数。

  除了一些意料之中的写作(反正我也会为之感到愧疚),这篇报道几乎完美无缺,除了一个明显的问题:它引用了吉普车制造商Stellantis首席执行官卡洛斯?塔瓦雷斯(Carlos Tavares)的话。这些话听起来很有说服力,就像一位首席执行官在面临解雇员工的艰难决定时可能会说的话,但这都是杜撰的。

  “这是一个大问题,”科尼策说。“这些模型试图根据它们的模型提出看似合理的文本。一些看起来像是会被写出来的东西。他们不一定要诚实。”

  OpenAI意识到它的聊天机器人具有误导人的能力。2019年,该公司发布了一份报告,称其技术可以“降低虚假信息宣传的成本”。

  报告称:“恶意行为者的动机可能是追求金钱利益、特定的政治议程和/或制造混乱或混乱的愿望。”

  其中一个主要问题是:ChatGPT太好了,我们不知道什么时候是由人工智能生成的,或者它是否是由真人写的。报告预测:“探测人类可能会变得越来越难。”

  我请ChatGPT为这篇文章写一个标题。它的回复是:“在写作中尝试ChatGPT:在新闻中使用语言模型的利与弊。”不错,但我走了一个不同的方向;我觉得我应该自己做一些工作。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行