发布时间:2023-08-03 15:07

AI造假还需AI破

  参考消息网8月2日报道 据日本《每日新闻》7月13日报道,能够生成足以以假乱真的图像、声音、文章的生成式人工智能(AI)正在得到广泛应用,与此同时也潜藏着人类无法识别的虚假信息蔓延的风险。AI造假还需AI破,一家来自东京的风险企业正在对相关的技术发起挑战。


  “参与投标需要缴纳430万日元的保证金,能帮我汇过去吗?”


  4月,一位信息技术(IT)企业负责人接到了所谓“友人”打来的视频电话。当该男子向电话中指定的账户打款后又再次联系了那位友人,结果朋友困惑地表示从未打过这样的电话。根据当地媒体报道,实际上最开始的那通视频电话是由AI换脸和模仿声音完成的。在10分钟的通话中,男子从未产生过怀疑。


  这类造假技术有一个专有名词——深伪技术。据荷兰一家信息安全咨询机构的统计,2020年互联网上得到确认的深伪视频约有8.5万个,之后的两年里激增至此前的10倍。技术的逐年进步正在接近人类无法识别真伪的程度。


  创立于东京的风险企业NABLAS研发出一种能够识别图像真伪的技术,通过让AI学习由AI生成的数万幅图像的特征,再由多个AI进行复合检验。


  伪造的图像通常具备几个特征。每幅图像都是由被称为“像素”的边长约0.3毫米的方格集合而成,每个像素都携带有颜色和亮度等数据,但是加工后像素的配置会变得不自然。此外,还可以将图像中包含的噪声可视化,将图像转换为频率,从而找出造假的证据。


  该公司研发的AI会使用特定颜色标记出“不自然”的地方,造假可能性越高的地方颜色越深。也可以推算出造假的概率。


  如果是声音造假,那么在人类听不见的2万赫兹以上的高音域范围的声音会突然消失。该公司还开发出了用AI将声音的波形和频率可视化来区分真伪的技术。


  该公司董事长铃木都生指出:“现在随便拼贴几个互联网上的短视频就能进行视频造假。”在他看来,如果使用深伪技术伪装成别人,可以在受害者毫不知情的情况下对银行账户进行恶意使用,今后此类犯罪发生的可能性将会很高。


  但是上述看起来神通广大的识别AI面对以聊天生成预训练转换器(ChatGPT)为代表的能够独立撰写文章的生成式AI,也可能感到束手无策,那些行云流水的文章增加了辨别的难度。


  美国的科幻杂志今年叫停了网上征集新作的活动,因为利用AI生成的剽窃作品数量激增。欧洲议会也在6月通过了全球首部就AI使用作出全面规范的法案,要求企业有义务对那些利用了生成式AI的图像和文章进行明确标识。


  日本国内教育一线也对AI的不当使用产生了广泛担忧。文部科学省本月发布了面向中小学校的生成式AI使用指导方针,在读后感或征文类作品中,将AI写作的文章冒充自己的作品参赛的行为将会被视为违规。


  虽然图像或是声音目前仍可以通过AI识别,但铃木都生也指出:“要想辨别文章的真伪已经非常困难了。”


  生成式AI可以从其学到的海量文本数据中掌握单词的位置和单词之间的关系,并预测下一个“应该出现”的单词。着眼于通过容易被AI选择的词语和表达方式来进行判别的相关研究正在不断推进,一些企业也推出了识别软件,但与图像和声音相比,准确度都较低,在技术上很难完全确定是否是由AI生成。另外,图像和声音中存储着波形和频率等信息,AI可以通过这些不自然为突破口辨别真伪,但文章的数据量本来就很少。


  铃木都生强调说:“造假技术也在日新月异,处于和识别技术交错上升的状态,而且造假技术存在极高的被用于网络犯罪的风险,我们希望能够与相关机构合作应对。”