首页 > 名人 >

利用AI进行面部识别并“换脸”应用开始出现 视频也不能作为绝对的真相

8月11日,英伟达在一场行业峰会中表示,之前4月初GTC2021期间出现在视频中的CEO黄仁勋,并非真人,而是渲染出的CG。通过英伟达发布的视频可以看出,老黄只是参与了扫描、建模、配音的步骤,就连动作都是由另一位演员通过动作捕捉的方式呈现的。除此之外,视频中的一切元素,包括背景的厨房、各种小物件,甚至老黄标志性的皮衣都是渲染出来的,和当时老黄的演讲主题相同,英伟达实实在在地开了一场“元宇宙”发布会。

消息一出可谓举世哗然。由于30系显卡饱受挖矿导致的涨价和缺货争议,在发布会当时就有不少人在评论区开玩笑表示“老黄的皮夹克开了光追”“空气发布会”,想不到英伟达的图像技术竟然真的可以实现以假乱真的效果了。

当然,有网友仔细观看视频后,发现视频中老黄的穿着、动作以及视频整体的清晰度并不一样,英伟达很可能是将实拍视频和CG半真半假掺在一起,但不管怎么说,把技术做到这个程度,着实是有点科幻片的感觉了。

而这样科幻的技术路线,在现实层面中难免会引起争议,甚至是伦理和社会问题。

过去,图片可以通过PS等方式“移花接木”,但毕竟是两张图的拼接,难免会有不自然的现象,至于视频,可以认为是绝对的真实,所以“有图有真相”依然是现在互联网上的行事准则之一。

但随着消费者手中的设备算力逐渐强大,加上深度学习、人工智能等技术的进步,DeepFake等利用AI进行面部识别并“换脸”的应用开始出现,视频也不能作为绝对的真相看待了。任何一个人只要拥有了设备和算法,就能够制作出AI换脸的视频,特别是对于明星或者公众人物而言,很可能造成名誉权的被侵犯。正因如此,许多网站也屏蔽了AI换脸软件的下载以及视频的传播,但互联网上的灰色地带会永远存在。

而英伟达的视频则向我们展示了,如果获得了某个人物的精确建模,现在的计算机可以做到怎样的地步。诚然,作为个人或许没有机会实现从扫描、建模到渲染输出的全套流程,但如果是以大企业、抑或是国家的人力物力财力而言,配合上现在抖音快手上已经比较成熟的AI声音合成技术,制作一个足以以假乱真的视频并非难事。就算图像、声音的细节并不完美,只需要降低输出视频的码率,那么这些瑕疵也会被计算机所掩盖。

届时,又该怎样去分辨视频的真假呢?

责任编辑:Rex_13