澳大利亚科技行业的成员对联邦政府监管高风险人工智能用例的举措给予了慎重的认可,同时有警告称,对人工智能的普遍低信任度正在阻碍企业和公众对该技术的采用。
在收到500多份关于安全和负责任的人工智能调查的意见书后,工业和科学部长Ed Husic发布了政府的临时回应——一份25页的文件,呼吁建立一个专家咨询委员会,并为人工智能生成的内容开发自愿标签和水印。
英国政府将加强现有法律,并制定新的立法,以管理在执法、招聘和医疗保健等高风险环境中使用人工智能,而不是像欧盟那样单独制定人工智能法案。
Husic表示,政府正在促进创新和解决与人工智能系统的安全和责任相关的问题之间取得平衡。
“我们知道人工智能可以做很多好事,公众希望知道,在某些领域,风险已经被识别并解决了,”他告诉本报报头。“我们希望确保政府为现代技术制定现代法律,这就是我们的目标。
“我们希望确保无论我们在这个领域做什么,监管都能跟上未来发展的步伐。”
Husic表示,谷歌、微软和ChatGPT制造商OpenAI等科技巨头需要与澳大利亚政府合作,以确保其人工智能产品符合澳大利亚法律。
这些科技巨头正在竞相快速打造自己的产品,并提高采用率,尽管一些业内人士呼吁放缓步伐,因为他们警告称,糟糕数据导致的社会经济不平等和算法偏见正在加剧。人们也越来越担心人工智能生成的“深度虚假”色情内容和利用生成式人工智能制作的复杂骗局。
根据最新数据,ChatGPT在全球拥有约1.8亿用户。调查显示,只有三分之一的澳大利亚人认为澳大利亚有足够的护栏来确保人工智能的设计、开发和部署安全。
胡西奇说:“这些大公司正试图(与政府)合作,因为他们不想被视为敌对,被视为长期违背消费者利益不符合他们的商业利益。”
“我认为,在技术监管方面,世界已经跨过了门槛,共同努力可以带来不同。澳大利亚可以发挥作用……我们这里有很多优秀的人才,要么通过国家人工智能中心,要么通过负责任的人工智能网络,要么通过更广泛的行业,来应对挑战,并确保我们做出正确的反应。”
去年6月,该调查发布了一份讨论文件,收到了510份意见书,其中包括来自科技巨头谷歌和meta、主要银行、超市、法律机构和大学的意见书。该机构表示,几乎所有提交的意见书都呼吁采取行动,“预防、减轻和应对”人工智能的危害。
Husic表示,提交的材料还强调,很大一部分人工智能应用将被视为低风险,应该能够不受阻碍地蓬勃发展。
澳大利亚科技行业的成员表示,联邦政府采取了与欧盟不同的道路,这是正确的举动,欧盟已经制定了一项独立的人工智能法案。
代表澳大利亚电信、微软和Canva等公司的澳大利亚技术委员会首席执行官凯特·庞德(Kate Pounder)表示:“基于风险和相称的人工智能监管方法是澳大利亚采取的正确途径,将有助于培育我们新兴的人工智能生态系统。”
“人工智能不是一种技术,一刀切的方法永远不会让澳大利亚处于人工智能开发和采用的前沿。
“我们欢迎成立谘询机构,向政府提供意见。”这是(澳大利亚技术委员会)的主要建议之一,旨在帮助推动政府采取一致、实用和协调良好的人工智能监管方法。”
澳大利亚信息产业协会(Australian Information Industry Association)首席执行官西蒙·布什(Simon Bush)同意这一观点,并表示,在整个经济中采用人工智能的好处将为国家带来数十亿美元的收入。
他表示,自2017年以来,该协会一直在倡导强有力的政府主导的人工智能原则、国家人工智能战略和行业资助。
布什说:“如果对人工智能的监管不仅在公民和企业采用和使用人工智能方面建立了社会信任,而且还促进了澳大利亚人工智能领域的投资和增长,那么它将被业界视为成功。”
“我们目前正经历着以人工智能为中心的生产力和技术投资方面最具变革性的变化之一,这是我们任何人都未曾经历过的。
“我们需要了解并确保澳大利亚利用这一转变,需要一个经过深思熟虑的监管框架,以及大量的人工智能产业和技能资金。”
专注于人工智能的风险投资公司Boab的董事长、英国第十频道《创智赢家》(Shark Tank)的明星卡特里奥娜·华莱士(Catriona Wallace)表示,政府对“高风险”的定义远远不够。
国际刑警组织和澳大利亚联邦警察已经在监控用于剥削和勒索儿童钱财的人工智能。澳大利亚政府必须解决这些不可接受的风险,而不仅仅是关注对工业和就业的风险。”
“人工智能给澳大利亚人带来的风险是非常真实和危险的,需要做更多的工作。高风险和不可接受的风险都应在本届政府的应对战略中加以解决。”