以下是OpenAI将如何确定其人工智能系统的强大程度

   日期:2025-01-17     来源:本站    作者:admin    浏览:59    
核心提示:      OpenAI的一位发言人告诉彭博社,OpenAI已经创建了一个内部尺度来跟踪其大型语言模型在人工通用智能或具有人类智能的

  

  

  OpenAI的一位发言人告诉彭博社,OpenAI已经创建了一个内部尺度来跟踪其大型语言模型在人工通用智能或具有人类智能的人工智能方面取得的进展。

  今天的聊天机器人,比如ChatGPT,还处于第一级。OpenAI声称它已经接近第2级,即一个可以解决基本问题的系统,其水平相当于拥有博士学位的人。第3级是指能够代表用户采取行动的人工智能代理。第4级涉及可以创造新的创新的人工智能。第5级,实现AGI的最后一步,是人工智能可以执行整个组织的工作。OpenAI此前将AGI定义为“在大多数具有经济价值的任务中超越人类的高度自主系统”。

  OpenAI的独特结构围绕着实现AGI的使命,OpenAI如何定义AGI很重要。该公司表示,在OpenAI之前,“如果有一个价值一致的、有安全意识的项目接近于构建AGI”,它承诺不会与该项目竞争,并放弃一切帮助。OpenAI章程中的措辞含糊不清,为营利性实体(由非营利组织管理)的判断留下了空间,但OpenAI可以测试自己和竞争对手的规模,可以帮助确定何时实现AGI。

  不过,AGI还有很长的路要走:要达到AGI,需要数十亿美元的计算能力,如果有的话。专家们给出的时间表,甚至OpenAI内部也存在很大差异。2023年10月,OpenAI首席执行官萨姆·奥特曼(Sam Altman)表示,我们“大约需要五年时间”才能实现AGI。

  这个新的分级量表虽然仍在开发中,但在OpenAI宣布与洛斯阿拉莫斯国家实验室(Los Alamos National Laboratory)合作的第二天就推出了,该实验室旨在探索像gpt - 40这样的先进人工智能模型如何安全地协助生物科学研究。洛斯阿拉莫斯国家实验室(Los Alamos)负责国家安全生物学投资组合的项目经理,在确保OpenAI合作伙伴关系方面发挥了重要作用,他告诉the Verge,目标是测试gpt - 40的能力,并为美国政府建立一套安全和其他因素。最终,公共或私有模型可以针对这些因素进行测试,以评估它们自己的模型。

  今年5月,OpenAI解散了其安全团队,此前该团队的负责人、OpenAI联合创始人伊利亚·苏斯克沃(Ilya Sutskever)离开了公司。OpenAI的重要研究员简·莱克(Jan Leike)在一篇文章中声称,在该公司,“安全文化和流程让位于闪亮的产品”,不久他就辞职了。虽然OpenAI否认了这一点,但有些人担心,如果该公司真的达到了AGI的水平,这意味着什么。

  OpenAI没有提供如何将模型分配给这些内部级别的细节(并拒绝了The Verge的评论请求)。然而,据彭博社报道,在周四的全体会议上,公司领导展示了一个使用GPT-4人工智能模型的研究项目,并相信该项目展示了一些展示类似人类推理的新技能。

  这个量表可以帮助提供一个严格的进度定义,而不是把它留给解释。例如,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)在6月份的一次采访中表示,该公司实验室的模型并不比公众已经拥有的模型好多少。与此同时,该公司首席执行官萨姆?奥特曼(Sam Altman)去年年底表示,该公司最近“揭开了无知的面纱”,这意味着该公司的车型明显更加智能。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行