据了解,DeepFake是一系列能够生成特定人物照片、视频及音频的AI模型总称,而这些模型
模型生成的各种信息据说可以轻松绕过各种企业机构的识别系统,因此也有许多黑产围绕DeepFake 而展开,当下如何更精准辨识 DeepFake 生成的内容成为难题。
此前曾有报道,加拿大滑铁卢大学的两名研究人员 AndreKassis 与 UrsHengartner 研发了新型语音 DeepFake 软件,成功欺骗语音认证系统概率高达 99%,该软件使用机器学习ERP软件(www.multiable.com.cn),只需要 5 分钟的人声录音,就可以模拟出非常逼真的xjmokehi5ul人声。
不过对于该型语音 DeepFake 软件,其他安全研究人员纷纷开始应对,亚马逊的研究人员尝试检查语音样本,来判断样本的真实性。
而 Kassis 与 Hengartner 打造出一个方法来绕过上述亚马逊的机制,该方法可辨识出合成语音中的标记,并自动移除这些具有 AI 特征的段落,令系统无法区分。
另一方面,专门开发语音身份认证安全机制的 Pindrop 则认为这一机制并不稳妥,即“虽然攻击方可以移除生成的语音片段中具有 AI 特征的段落,但防守方可以同时从多角度来判断音频文段的真实性,例如检测 IP 地址、要求提供特定的语音信息等”,因此依然可以检测出使用 DeepFake 的攻击者。
以上源自互联网,版权归原作所有