韩国再现#N号房2.0#丑闻,这也将AI换脸技术再一次推到风口浪尖。 “深度伪造”,也就是Deepfake,即利用AI换脸图片。Deepfake一词最早起源于2017年,当时一名Reddit用户“Deepfakes”将色情女演员的面部替换成了一些美国知名演员,引起一片争议。 不幸的是,在韩国这一技术被用于制造并传播色情图片,并通过社交媒体平台传播,构成性犯罪的行为被大量曝光。#deepfake被称为最邪恶的技术#有人连连感慨,AI发展过于迅猛,现实世界已真假难分了。 那么当换脸技术变得触手可及,我们该如何保护自己?可以采取以下几种方法: 1、观察光影一致性:AI换脸技术可能无法完美模拟真实环境中的光照效果,可以检查视频中的光线和阴影是否与场景一致。 2、注意面部表情或动作的自然性:AI 生成的图像或视频往往在微表情、眨眼、嘴唇同步等细节上存在瑕疵,体现为不自然的表情或动作。 3、进行多重验证:在涉及金钱交易或重要决策时,通过其他渠道对信息进行验证,比如直接电话联系或面对面确认。 4、警惕异常行为:如果视频中的人物做出了与其性格或习惯不符的行为,这可能是一个警示信号。