跟着此事热度的不断上涨,人们惊慌地发现,一件可怕的AI换脸性丑闻正在产生。
这个工作时间跨度之长,触及规划之广也现已远超人们的幻想,被称为「N号房2.0」。
更要命的是,当你了解整个工作之后就会发现,下一个被换脸的人或许就会是自己。
实践上,早在本年5 月 ,韩国就产生过一同被称为「N号房2.0」的案子。
几名首尔大学的校友,在曩昔三年间,运用DeepFake将女人的头像植入频中。
成功进入群组后,成员们就可以免费运用群里的制造软件,然后开端制造收费视频再向外输出。
他们乃至还恶劣地依据受害者的身份,将私密群聊分为「妈妈房」「姐妹房」「护理房」……
这个名叫恩智 (音译) 的成员再次化身卧底,一举曝光了这个团伙,也将一组可怕的数据公之于众——
仅一名加害者,就在3年时间里针对包含未成年人在内的48名受害者制造了约400个视频,并传达了约1700个视频。
8月,韩国一名初三男生了解到,自己校园仍旧有DeepFake频受害者。
他们的理由,一是软件IP地址在国外难以清查,二是「不方便揭露加害者信息」难以立案。
查询多个方面数据显现,AI换脸频的受害者数量已达到22万人,而韩国上一年一整年的出世人口是23万人。
在「DeepFake Maker」网站上,到现在现已有4000多位名人被AI换脸为频的主角。
近来,韩国四大文娱公司之一的JYP公司,还专门针对旗下女演员被歹意AI换脸发布了官方布告,称要诉诸强制法律手段。
2021年,一位台湾闻名网红被曝出,用AI换脸技能将许多台湾演员变成成人影片的女主角后贩卖盈余。
而这位女人在面临差人的查询时,坚称自己从未与被害者产生过联系,并能够给出完美的不在场证明。
曾经,如果是明星遭到损害,还能凭借大众影响力和生意公司的力气为自己维权。
并且,跟着交际网络的开展,个人隐私信息十分简单就能被别人获取, 愈加不用说图片这样最垂手而得的资料。
女主只需运用了智能手机等联网设备,AI就可以立马依据大数据复刻她的人生。
在犯罪者的供述中,就提到了有不少人拿着自己暗恋女生的相片来制造换脸视频。
生活在互联网年代的咱们,在微博、朋友圈、QQ空间中都留下过自己的相片与信息。
反而是那些受害者每日活得战战兢兢,再也不敢在网上揭露任何自己的相片与信息。
当韩国 DeepFake工作完全迸发后,大多数人的情绪当然是愤恨与惊骇。
就单说AI换脸自身,有谁能确保当这种工作构成规划后,会不会繁殖本质的损害?
横竖在这次韩国工作中,不少加害者们直接揭露了受害者的实践身份、家庭住址。