加拿大公司的人工智能政策旨在平衡风险与回报

   日期:2024-07-29     来源:本站    作者:admin    浏览:93    

  

  托罗旅游公司,

  当人才搜索平台Plum注意到ChatGPT在科技界及其他领域引发了涟漪时,它决定从源头开始,阐述员工如何使用和不使用生成式人工智能聊天机器人。

  ChatGPT可以将简单的文本指令转换成诗歌、散文、电子邮件等内容。去年夏天,该公司推出了一份草案文件,让安省基奇纳市(Kitchener, ontario)获得了这份文件。这家总部位于美国的公司在其最终保单的制定过程中,已经走了大约70%的路程。

  “里面没有任何东西是错的;普拉姆的首席执行官凯特琳·麦格雷戈(Caitlin MacGregor)回忆说,“里面没有什么疯狂的东西。”“但我们有机会让它更具体一点,或者让它更适合我们的业务。”

  Plum的最终政策是在ChatGPT的草案基础上,根据去年夏天其他初创公司的建议拼凑而成的一份四页的文件,建议员工将客户和专有信息排除在人工智能系统之外,审查该技术吐出的任何内容的准确性,并对其生成的任何内容进行归类。

  随着人们越来越依赖人工智能技术来提高工作效率,这使得Plum成为加拿大几家对人工智能持坚定立场的组织之一。

  去年秋天,联邦政府为公共部门发布了一套人工智能指导方针,促使许多人制定政策。现在,许多初创公司和大型组织已经根据自己的需求对它们进行了重新设计,或者正在开发自己的版本。

  这些公司表示,他们的目标不是限制生成式人工智能的使用,而是确保员工感到有足够的权力来负责任地使用它。

  “不利用这项技术的力量是错误的。Nuenergy的创始人Niraj Bhargava说:“它有很多提高生产力和功能的机会。”ai是一家位于渥太华的人工智能管理软件公司。

  “但另一方面,如果你在没有设置护栏的情况下使用它,就会有很多风险。我们的星球存在着生存风险,但还有偏见、公平或隐私问题的实际风险。”

  在两者之间取得平衡是关键,但巴尔加瓦表示,没有“放之四海而皆准”的政策适用于所有组织。

  他说,如果你是一家医院,你对什么是可接受的答案可能与私营科技公司截然不同。

  然而,在指导方针中经常出现一些原则。

  一个是不将客户或专有数据插入人工智能工具,因为公司无法确保这些信息的私密性。它甚至可以用来训练驱动人工智能系统的模型。

  另一个是将人工智能吐出的任何东西都视为潜在的错误。

  人工智能系统仍然不是万无一失的。科技初创公司Vectara估计,人工智能聊天机器人在至少3%的时间里创造了信息,在某些情况下,创造信息的时间多达27%。

  今年2月,卑诗省的一名律师不得不向法庭承认,她在一起家庭纠纷中引用了两起由ChatGPT捏造的案件。

  一位加州律师同样发现了准确性问题,他在2023年4月要求聊天机器人编制一份性骚扰过某人的法律学者名单。它错误地命名了一位学者,并引用了一篇不存在的华盛顿邮报文章。

  制定人工智能政策的组织也经常涉及透明度问题。

  加拿大高级研究所(CIFAR)泛加拿大人工智能战略执行主任埃莉莎·斯特罗姆(Elissa Strome)质疑道:“如果你不会把别人写的东西归为自己的作品,那你为什么要把ChatGPT写的东西归为自己的作品呢?”

  许多人表示,当人工智能被用于分析数据、编写文本或创建图像、视频或音频时,人们应该被告知,但其他情况就不那么清楚了。

  “我们每天可以使用ChatGPT 17次,但我们每次都必须写一封电子邮件披露它吗?”巴尔加瓦说:“如果你正在制定你的旅行路线,以及你应该坐飞机还是开车之类的东西,可能就不会了。”

  “在很多无害的情况下,我认为我没有必要透露我使用了ChatGPT。”

  目前尚不清楚有多少公司探索了员工使用人工智能的所有方式,并传达了哪些是可接受的,哪些是不可接受的。

  咨询公司毕马威(KPMG)在2023年4月对4515名加拿大人进行的一项研究发现,70%使用生成式人工智能的加拿大人表示,他们的雇主对这项技术有政策。

  然而,软件公司Salesforce和YouGov在2023年10月进行的一项研究得出结论,在接受调查的1020名加拿大人中,有41%的人表示,他们的公司没有在工作中使用生成式人工智能的政策。约13%的公司只有“定义松散”的指导方针。

  在永明金融公司(Sun Life Financial Inc.),员工被禁止在工作中使用外部人工智能工具,因为该公司无法保证在使用这些系统时客户、财务或健康信息不会被泄露。

  然而,这家保险公司允许员工使用Anthropic的人工智能聊天机器人Claude和基于人工智能的编程助理GitHub Copilot的内部版本,因为该公司已经能够确保两者遵守其数据隐私政策,首席信息官劳拉·钱(Laura Money)说。

  到目前为止,她看到员工使用这些工具编写代码、制作备忘录和视频脚本。

  为了鼓励更多的人进行实验,这家保险公司鼓励员工参加CIFAR提供的一个自学免费在线课程,该课程教授人工智能的原理及其影响。

  对于这一举措,莫尼表示:“你希望员工熟悉这些技术,因为它可以提高他们的工作效率,改善他们的工作生活,让工作变得更有趣。”

  自从几周前开设这门课程以来,已有大约400名工人报名参加。

  尽管提供了这门课程,但永明人寿知道,由于人工智能的发展如此之快,它的技术方法必须不断发展。

  例如,Plum和CIFAR都是在生成式人工智能工具(超越文本,可以创建声音、音频或视频)现成可用之前推出它们的政策的。

  “当时的图像生成水平与现在不一样,”麦格雷戈谈到2023年夏天时表示。当时,Plum推出了一项人工智能政策,举办了一场黑客马拉松,要求员工用ChatGPT写一首关于公司业务的诗,或者试验如何用它来解决公司的一些问题。

  “当然,年度评估可能是必要的。”

  巴尔加瓦同意这一观点,但他表示,许多组织仍然需要努力追赶,因为他们还没有相关政策。

  “现在是行动的时候了,”他说。

  “如果妖怪从瓶子里出来了,我们就不会想,‘也许明年我们就能做到这一点。’”

  本报告由加拿大新闻社于2024年5月6日首次发表。

  这个故事中的公司:(多伦多证券交易所代码:SLF)

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行