所谓的“浅渡假视频”现在沦为美国立法者担忧的一个主要问题,他们担忧AI假造的政府人员视频有可能沦为国家安全性威胁。Facebook回应它早已创建了一个机器学习模型来检测潜在的欺诈照片或视频,然后将这些模型发送给其事实检查员展开审查。
第三方事实检查合作伙伴可以用于视觉检验技术,还包括偏移图像搜寻和图像元数据分析来审查内容。Facebook想利用其搜集的照片和视频评论者来提升其机器学习模型的准确性,以检测这些媒体格式的错误信息。
它定义了照片和视频中的三种错误信息,还包括:操控或制作的内容;瓦解背景呈现出的内容;文字或音频中的欺诈声明。Facebook获取了与文本比起辨识图像和视频内容中的欺诈信息的艰难的高级阐述,以及它用作解决它们的一些技术。但总体而言,人们的印象是,Facebook并没相似自动系统来大规模检测视频和照片中的错误信息。
目前,它正在用于OCR从照片中萃取文本,例如照片上的欺诈标题,以便将文本与事实检查员文章的标题展开较为。它还在研发检测照片或视频否被操控的方法。
为此,它用于音频mRNA来较为它从音频中萃取的文本否与事实检查者之前早已识破的文本中的声明给定。“目前,我们正在与照片上比我们用于的视频音频mRNA用于OCR更加先进设备的,”说道的Facebook产品经理泰莎里昂。与文章一样,一旦事实检查人员证实其为假,Facebook将专心于辨识欺诈视频和照片的反复。
Lyons回应,Facebook在找寻准确拷贝的照片方面“非常不俗”,但是当图像被严重操控时,Facebook更加无法自动检测。“我们必须之后投资技术,这将有助我们辨识出以微小方式发生变化的十分相似的副本,”里昂斯说道。Lyons回应,检测某些东西否瓦解背景也是一项根本性挑战。
“理解某些事情否瓦解了背景是我们正在投资的领域,但还有很多工作要做到,因为你必须理解媒体的完整背景,媒体呈现出的背景,以及否两者之间不存在差异,“她认为。照片和视频内容中的错误信息的影响也因国家而异。Facebook早已找到,在美国,大多数人报告看见文章中的错误信息,而在印度尼西亚,人们更好地报告在照片中看见的误导信息。
“在媒体生态系统欠发达或识字率较低的国家,人们有可能更加有可能在照片上看见错误的标题,或看见假造的照片,并将其说明为新闻,而在享有强劲新闻生态系统的国家,“新闻”的概念更好地与文章联系在一起,“里昂说道。
本文来源:永旺彩票Welcome-www.kic3.com