建立在OpenAI模型上的微软Copilots是最先进的重要的AI产品。
内部音频显示了微软安全副驾驶服务的早期开发工作。
在音频中,一位微软高管表示,由于出现了幻觉,公司不得不“挑选”一些例子。
要了解生成式人工智能的真正潜力和实际缺陷,只需看看微软(Microsoft)在其Security Copilot服务上的早期工作。
这家全球最大的软件制造商在2023年初推出了安全副驾驶。这是微软最重要的新人工智能产品之一,它利用OpenAI的GPT-4和一个内部模型,以类似ChatGPT的方式回答有关网络威胁的问题。
本文仅对Business Insider订阅者开放。成为业内人士,现在就开始阅读。有账户吗?.
根据微软在2023年底的一份内部报告,推出这项技术的道路充满挑战,但也有关于这项新技术力量的充满希望的启示。Business Insider获得了演示文稿的摘录,揭示了这一重要人工智能产品是如何创建的一些细节。
根据微软安全研究合作伙伴Lloyd Greenwald的介绍,最初,微软正在为安全用例开发自己的机器学习模型。
格林沃尔德解释说,由于“公司里的每个人”都在使用微软有限的gpu来处理GPT-3 (GPT-4的前身),这一涉及pb级安全数据的计划陷入了停滞,原因是缺乏计算资源。
根据BI获得的音频,他说,然后,这家软件巨头作为一个“帐篷项目”获得了GPT-4的早期使用权。这是一个微软严格限制访问的项目的术语。
在这一点上,微软将注意力从自己的模型转移到GPT-4的网络安全领域。
格林沃尔德说:“我们向政府客户展示了我们对GPT-4的初步探索,以获得他们的感受,我们也向外部客户展示了它,但没有说明我们正在使用的模型是什么。”
该演讲围绕着使用单一通用AI模型而不是许多独立模型的好处展开。
格林沃尔德说,微软仍然有几个特定的机器学习模型来解决特定的问题,比如攻击活动的归属、受损账户的检测和供应链攻击的检测。
他补充说:“不同之处在于,如果你有一个大的通用模型或现在被称为GPT-4的基础模型,你可以用一个模型做所有的事情。”“我们当时就是这样向政府推销的,然后我们向他们展示了我们正在努力做的事情。”
格林沃尔德指出,微软最初向政府展示的能力“与该公司现在所取得的成熟水平相比”是“幼稚的”。
微软发言人Frank Shaw表示,这次会议涉及基于GPT 3.5的技术,与目前基于GPT-4的安全副驾驶“无关”。
肖说:“会议上讨论的技术是探索性的工作,早于安全副驾驶,并在模型评估的公共数据集上进行了模拟测试,没有使用客户数据。”“今天,我们的抢先体验计划客户经常分享他们对最新版本的安全副驾驶的满意度。”
根据BI获得的音频,微软开始测试GPT-4的安全功能,向AI模型展示安全日志,看看它是否能解析内容并理解发生了什么。
格林沃尔德在演示中说,例如,他们会将Windows安全日志粘贴到GPT-4中,然后提示该模型成为“威胁猎人”,找出发生了什么。
这没有任何关于特定安全数据的额外训练——只是OpenAI的通用模型。GPT-4能够理解这个日志,分享一些关于日志中内容的有趣事情,并说明是否存在恶意内容。
格林沃尔德说:“从某种程度上说,这是一个精心挑选的例子,因为它也会告诉我们一些根本不对的事情。”“幻觉是法学硕士的一个大问题,我们在微软做了很多努力来消除幻觉,其中一部分是基于真实数据,但这只是在没有任何数据基础的情况下采用模型。我们发给它的唯一东西就是这个日志和问它问题。”
他补充说:“我们不得不挑选一些,以得到一个看起来不错的例子,因为它会偏离,因为它是一个随机模型,当我们问同样的问题时,它会给我们不同的答案。”“要得到好的答案并不容易。”
从演示的音频中还不清楚格林沃尔德是否在说微软在早期向政府演示时使用了这些精心挑选的例子。BI专门询问了该公司,但该公司没有回应这个问题。
微软的Shaw表示:“我们与客户密切合作,通过基于客户数据的回应,并始终提供引用,将幻觉的风险降至最低。”
微软还深入研究了GPT-4从哪里获得了它似乎已经知道的关于网络安全主题的信息,如日志、妥协情况和威胁情报。
格林沃尔德说,微软开发Github Copilot的经验表明,OpenAI模型是在开源代码上训练的。但这些模型也经过了10年的计算机科学论文、专利局数据和网站爬虫的训练。
格林沃尔德解释说:“那里有合理的安全数据,在时间上都是静态的,所有安全数据都是在2021年底之前。”
格林沃尔德还分享了微软向OpenAI模型提出的安全问题的另一个例子,根据他的演讲音频,他说“这正是我们向政府展示的”。
微软再次要求人工智能模型成为“威胁猎人”,但这一次给了它一个不同于特定事件的安全日志,并要求它解释发生了什么,并识别任何ioc或妥协指标。这些是网络罪犯在攻击期间在计算机网络中留下的数字痕迹。
格林沃尔德说,该模型仅通过查看安全日志就能找出ioc,攻击发生了什么以及如何补救。他指出,这种输出来自GPT 3.5,而不是更先进的GPT-4。
格林沃尔德补充说:“我们能够向政府展示这是GPT 3.5,这些是我们能做什么的实验。”“这些答案很好,也很有说服力,但GPT-4的答案更好。”
格林沃尔德说,这就是微软首席技术官凯文·斯科特、首席执行官萨蒂亚·纳德拉和其他许多人兴奋不已的原因。
随后,这项工作从埃里克·道格拉斯(Eric Douglas)领导的应用研究机构转移到了一个工程团队,试图把它变成格林沃尔德所说的“更像真正产品的东西”。
微软已经将自己的数据整合到安全副驾驶产品中,这有助于该公司为系统提供更多最新和相关的信息。
格林沃尔德说:“我们想要获取安全数据,我们不只是想根据它所接受的训练来问问题,我们在微软有很多数据,我们有很多安全产品。”
他举例说,微软Sentinel是一款网络安全产品,“可以连接所有这些数据”。他还提到了ServiceNow连接器、来自微软杀毒软件Defender的信息,以及其他安全数据来源。
一位熟悉该项目的人士表示,他们的想法是拦截生成式人工智能模型的反应,并利用内部安全数据指出正确的方向,本质上是创建更具确定性的软件,试图在产品普遍上市之前解决幻觉问题,预计今年夏天上市。
微软最初在3月底推出Security Copilot时表示,该服务“并不总是事事正确”,并指出“人工智能生成的内容可能包含错误”。
它将安全副驾驶描述为一个“闭环学习系统”,可以从用户那里获得反馈,并随着时间的推移而改进。微软表示:“随着我们继续从这些互动中学习,我们正在调整它的反应,以创造更连贯、更相关、更有用的答案。”
你是否在微软工作,或者你有什么独到的见解可以分享?
通过电子邮件(astewart@insider.com)联系Ashley Stewart,或通过Signal(+1-425-344-8242)从非工作设备发送安全消息。