事实核查:以色列-哈马斯战争的“视频”使用了射击游戏的剪辑

   日期:2025-03-16     来源:本站    作者:admin    浏览:75    
核心提示:      英国伦敦——以色列最新激光防空系统“铁梁”(Iron Beam)的视频出了问题,但数百万观看并在社交媒体上分享这段视频

  

  

  英国伦敦——以色列最新激光防空系统“铁梁”(Iron Beam)的视频出了问题,但数百万观看并在社交媒体上分享这段视频的人并没有意识到这一点。

  影片似乎显示,哈马斯的数十枚火箭弹冲向夜空,随后以色列尚未部署的新型激光武器将其击落,并在空中发出阵阵爆炸声。

  在事实核查员揭露真相之前,已经有了一周的时间和数百万的浏览量。Facebook和X随后为这些帖子添加了标签。

  “这是一款电子游戏,”X上的说明写道。

  自10月7日哈马斯袭击以色列以来,军事模拟游戏《武装突袭3》(Arma 3)在社交媒体(sns)账户上拥有数十万粉丝,成为传播虚假信息的大量视频的来源。

  必须阅读

  科技和游戏专家警告说,虽然游戏开发者正在使用人工智能使他们的产品更加逼真,但一些修改游戏的人正在使用同样的技术制作难以察觉的赝品。这有助于传播关于正在发生的全球事件和冲突的虚假叙述。

  “人工智能技术发展迅速。伦敦大学国王学院(King's College London)游戏设计和开发领域的人工智能专家迈克尔·库克(Michael Cook)表示:“游戏开发工作室正在将其应用于创意过程中,建模者也是如此。”

  这对社交媒体公司来说是一个挑战,它们的网站被用来发布虚假视频和传播虚假叙述。

  “即使在今天,当我们快速浏览Facebook动态时,我们也不会经常注意到人工智能生成的图像中的错误。在情况好转之前,情况会变得更糟,”库克对汤森路透基金会表示。

  “可悲的是,我认为结果可能是人们完全不再相信他们在互联网上看到的东西,”他警告说。

  《武装突袭3》允许用户广泛编辑或“修改”游戏,包括特定的地图、武器和车辆,而无需高级技术技能。这使得制作电影和传播假新闻变得很容易。

  “寻找和揭穿这些假新闻视频主要是一项众包工作;其中包括我们的开发者、Arma玩家及其相关社区,以及专门的事实核查组织,”开发Arma 3的波西米亚互动公司发言人帕维尔K?i?ka说。

  但是,他说,“即使有这些专业人士的帮助,也没有办法消除这个问题。”

  2022年,Arma被用来制作一段36分钟的视频,其特点是俄罗斯入侵乌克兰的突发新闻;在那之前一年,它被用来制作一部据说是巴基斯坦空袭阿富汗的电影。

  K?i?ka表示,该公司自2009年以来一直在处理这类视频。此外,游戏引擎(开发者用来制作游戏的软件)和人工智能的发展意味着问题可能会变得更糟,他说。

  如何识别人类

  全球视频游戏产业的价值约为1877亿美元,其中包括索尼(Sony)的PlayStation和微软(Microsoft)的Xbox等游戏机以及游戏本身的支出。

  K?i?ka解释说,目前,电子游戏有明显的缺陷,可以揭示它们的起源。

  即使是在最现代的游戏中,捕捉运动中看起来自然的人类仍然非常困难,就像追踪爆炸后火、烟和灰尘的粒子如何移动一样。

  为了解决这个问题,恶意的演员会对视频游戏中的镜头进行像素化处理,或者用智能手机拍摄屏幕——夸大相机抖动的程度——以表明这些镜头是从真实的战斗前线拍摄的。

  总部位于伦敦的事实核查机构Full Fact的新闻和在线编辑皮帕·艾伦-金罗斯(Pippa Allen-Kinross)表示,事实核查人员仍然可以发现原始视频的来源,但这可能会让最初在网上传播虚假信息变得更容易。

  然而,随着电子游戏制作技术的进步,赠品可能会成为历史,因为公司希望在下一代游戏中创造更多现实主义。

  阻止传播

  与此同时,社交媒体公司因被视为未能充分解决虚假信息而受到抨击,全球冲突加剧了这个问题。

  社交媒体公司使用人工智能来调节其平台上的内容,但电子游戏的现实性对他们的系统构成了挑战。

  2019年,当新西兰克赖斯特彻奇的大规模枪击事件通过Facebook的直播进行直播时,meta表示,由于缺乏用户报告以及与视频游戏内容的相似性,其自动检测系统没有被触发。

  meta当时的产品管理副总裁盖伊·罗森(Guy Rosen)当时在一篇博客文章中写道:“另一个挑战是,如何从视觉上相似的、无害的内容中自动识别这些内容——例如,如果我们的系统标记了数千个视频直播游戏的视频,我们的审核人员可能会错过重要的现实世界视频,而我们可以在这些视频中提醒急救人员到现场寻求帮助。”

  艾伦-金罗斯说:“随着电子游戏的发展和越来越逼真,将它们与真实事件区分开来将变得越来越困难。”

  专家表示,随着电子游戏领域和人工智能的发展,制造虚假信息的门槛将继续降低,但更大的潜在问题是社会问题,而不是技术问题。

  苏黎世大学数字民主实验室(Digital Democracy Lab)研究员萨夏·阿勒泰(Sacha Altay)说,“当错误和虚假信息触及人们的担忧、价值观和身份时,它们才会有效。”

  “要做到这一点,你并不需要复杂的技术,你只需要了解当前对特定叙事的需求。这就是民粹主义领导人所做的,他们可以拿起麦克风大喊大叫。”

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行