本周早些时候从OpenAI辞职的一位前领导人周五表示,在这家有影响力的人工智能公司,安全已经“让位于闪亮的产品”。
Jan Leike曾与OpenAI的一位联合创始人一起管理“超级联盟”团队,该公司创始人也于本周辞职。Jan Leike在社交媒体平台X上的一系列帖子中写道,他加入这家总部位于旧金山的公司,是因为他认为这里是进行人工智能研究的最佳场所。
“然而,在相当长的一段时间里,我一直不同意OpenAI领导层对公司核心优先事项的看法,直到我们最终达到了一个突破点,”雷克写道,他的最后一天是周四。
作为一名训练有素的人工智能研究人员,雷克表示,他认为应该更多地关注为下一代人工智能模型做准备,包括安全性和分析此类技术的社会影响。他说,制造“比人类更聪明的机器本身就是一种危险的尝试”,该公司“代表全人类肩负着巨大的责任”。
“OpenAI必须成为一家以安全为先的AGI公司,”雷克写道,这是通用人工智能(artificial general intelligence)的缩写。通用人工智能是一种未来的愿景,即机器与人类一样聪明,或者至少可以像人类一样做很多事情。
在Leike辞职之前,OpenAI联合创始人兼首席科学家Ilya Sutskever周二表示,他将离开这家工作了近十年的公司。Sutskever是去年秋天投票罢免首席执行官Sam Altman的四名董事会成员之一,但很快又恢复了他的职务。去年11月,苏斯克维尔告诉奥特曼他被解雇了,但后来他说他后悔这么做。
Sutskever说,他正在研究一个对他来说很有意义的新项目,但他没有提供更多细节。他将被Jakub Pachocki取代,成为首席科学家。奥特曼称帕乔基“也是我们这一代最伟大的人之一”,并表示他“非常有信心,他将带领我们朝着确保AGI造福所有人的使命取得快速、安全的进展。”
周一,OpenAI展示了其人工智能模型的最新更新,该模型可以在口头反应中模仿人类的节奏,甚至可以尝试检测人们的情绪。