如今,Deepfakes已被世界各地的许多人广泛使用,包括新闻机构,政客,甚至是模因制作者。因此,对于组织来说,加强和构建可检测这些AI驱动的虚假视频的技术同样重要,
在美国总统大选前夕,微软推出了新工具来检测可操纵的视频,从而可以 帮助政治活动家和媒体组织。。该检测工具称为 Microsoft Video Authenticator,将逐帧分析视频,从而为您提供置信度分数,以指示是否修改了视频。
该算法是在 Microsoft负责任的AI团队以及Microsoft AI,伦理和工程与研究效应(AETHER)委员会的帮助下开发的。它旨在识别人眼不容易捕捉到的操纵元素。该团队使用诸如Face Forensic ++之类的公共数据集对AI进行了训练 ,并在DeepFake Detection Challenge数据集上进行了测试 。
该公司还发布了一种由Microsoft的Azure云基础架构提供支持的工具,该 工具可让创建者使用证书签署内容。还有一个读取器,可以扫描该证书以验证内容的真实性。但是, 我们还不知道Microsoft是否计划公开这两个工具。
目前,该公司正在与 AI基金会的 Reality Defender 2020 (RD2020)(总部位于美国的商业和非营利性双重企业)合作,以向选举组织提供其Video Authenticator。此外,它还与英国广播公司(BBC)和《纽约时报》(New York Times)等媒体机构合作,以检测被操纵的媒体。
Microsoft承认检测工具不是完美的,生成技术可能总是领先于它。结果,可能会漏掉一些视频,并且公司将不得不继续努力以使算法更强大。目前,微软的重点是防止深度欺诈破坏选举。但是,将来可能应该使该技术开源,以便更多的研究人员可以对此做出贡献。