微软(Microsoft)周二推出了一款由人工智能驱动的内容审核工具,据称该工具能够标记出8种语言的“不恰当”图片和文字,并对其严重程度进行排序。
微软表示,这项名为Azure AI Content Safety的服务“旨在促进更安全的在线环境和社区”。该软件巨头通过电子邮件告诉TechCrunch,这也是为了消除“有偏见、性别歧视、种族主义、仇恨、暴力和自残的内容”。虽然它内置在微软的Azure OpenAI服务人工智能仪表板中,但它也可以部署在社交媒体平台和多人游戏等非人工智能系统中。
为了避免人工智能内容审核的一些更常见的陷阱,微软允许用户根据上下文“微调”Azure人工智能的过滤器,并且严重性排名应该允许人工版主快速审核。一位发言人解释说,“一个语言和公平专家团队”为该节目设计了指导方针,“考虑到文化、语言和语境。”
微软的一位发言人告诉TechCrunch,与之前的模型相比,新模型“能够更好地理解内容和文化背景”,而之前的模型往往无法识别上下文线索,不必要地标记出良性材料。然而,他们承认没有任何人工智能是完美的,并“建议使用人工来验证结果”。
支持Azure人工智能的技术与防止微软人工智能聊天机器人必应(Bing)失控的代码相同——这一事实可能会引起ChatGPT竞争对手的早期用户的警惕。今年2月推出时,必应试图说服记者离开他们的配偶,否认日期和年份等明显的事实,威胁要毁灭人类,改写历史,这让人印象深刻。在媒体的大量负面关注之后,微软将必应聊天限制为每次5个问题,每天50个问题。
像所有人工智能内容审核程序一样,Azure人工智能依赖于人类注释者来标记它所训练的数据,这意味着它只会像程序员一样公正。这在历史上曾导致公关方面的头痛——在谷歌的人工智能图像分析软件将黑人的照片标记为大猩猩近十年后,该公司仍然禁用视觉搜索选项,不仅可以搜索大猩猩,还可以搜索所有灵长类动物,以免其算法意外标记为人类。
今年3月,微软解雇了其人工智能伦理和安全团队,尽管对ChatGPT等大型语言模型的炒作已经达到了狂热的程度,而且微软自己也在与聊天机器人开发商OpenAI的合作中投入了数十亿美元。该公司最近投入了更多的人员来研究人工通用智能(AGI),在这种技术中,软件系统能够设计出没有被编程的想法。