今天不说别的,来聊些比较沉重的话题。
大家最近有没有刷到一些热搜,内容都是跟“韩国deepfake”和“韩国女性陷入AI换脸恐慌”相关......
图片来源:微博热搜
这里先跟大家解释一下什么叫“deepfake”,首先这词的中文意思是深度伪造技术。
这种技术被称作“生成式对抗 *** ”的机器学习模型将图片或视频合并叠加到源图片或视频上,借助神经 *** 技术进行大样本学习,将个人的声音、面部表情及身体动作拼接合成虚假内容的人工智能技术。
图片来源:百度百科
简单来说,就是AI换脸技术,也包括语音模拟、人脸合成、视频生成等,它的出现使得篡改或生成高度逼真且难以甄别的音视频内容成为可能,观察者最终无法通过肉眼明辨真伪。
再说的通俗易懂点,就是把图片或者视频中A的脸换到B的头上,达到以假乱真的效果。
图片来源:mdpi.com
介绍完deepfake,让我们来看看究竟发生了什么事,事情的起因呢,是有位韩国网友在中国平台上跨国求救,内容如下:
图片来源:微博 @nosunae_520
根据这位女韩国网友的描述,现在韩国有很多女性因“deepfake”而受害,从小学到高中都有......
该事件是韩国男性用自己熟人的kakaotalk头像(类似微信的聊天软件)或上传到instagram的照片(社交软件)制造“deepfake视频”并戏弄女性。
图片来源:微博 @nosunae_520
据该位韩国女网友表示:该事件的加害者,目前是暂时关闭了telegram(可加密聊天视频软件),并预告说如果安静的话会重新建立deepfake房间......
图片来源:微博 @nosunae_520
不敢想象是多无助,才会跑到中国的社交软件上求助啊.......
结合外媒的报道,韩国女性现在是大规模遭遇“AI换脸 *** 频”(也就是上面提到的deepfake深度伪造)的事件,
这些变态们不仅是将身边认识的女性换脸到色情视频上,有的更过分的还将自己的母亲、姐妹也进行了换脸......
图片来源:YouTube @Almost
这些变态把换脸后的 *** 频,在地下聊天群里进行交流分享,有的甚至拿着这些视频直接找受害女性勒索钱财。
图片来源:telegram聊天室截图
而这些群名会有类似于,妈妈群、姐姐群、妹妹群、女朋友群等分类......
博主采访韩国女生的视频画面
图片来源:抖音@铁韩少女(猝死版
更让我觉得震惊的是,有网友自发建立了一个“受害者学校地图”的网站,该网站是用于身边有受害人的网友或者自己是受害者在该网站上进行登记使用的。
结果不到两天时间,就有500多所学校在网站上被标记,超过300万人次登录查询自己是否被换脸成为受害者......
图片来源:Daily dot
据相关数据显示:青少年在加害者中占比高达73.6%,所占人数超过22万......
图片来源:THE CHOSUN Daily
而目前对于此次事件,最新的结果也就是大量韩国女性为了自救开始在除韩国之外的平台进行发声求助,希望借此增加舆论,也有很多韩国女性选择了 *** 的方式,最终目的都是希望能逼迫韩国 *** 和警察抓出始作俑者。
图片来源:HANKYOUREH
目前关于这件事的最新进展也就是,Telegram(私密聊天软件)的首席执行官被拘留在巴黎,韩国通信标准委员会表示已经致函,要求法国 *** 配合调查Telegram。
图片来源:环球时报
剩下的只能说,等待最后结果吧,看到这里,忍不住起了一身鸡皮疙瘩,这简直是“N号房2.0”......
曾经N号房主犯被判34年
图片来源:中国新闻网
但更让我觉得可怕的是,这件事并不是个例,在更早之前就发生过.......
比较熟知的就是那些大家都认识的明星们或者网红们被deepfake在一些不雅照片或者不雅视频上。
图片来源:抖音
而国内在2020年,也发生过一起,“AI换脸”的案件,涉案人员利用“AI换脸”软件, *** 了大量淫秽视频并传播,被换脸的有不少是女明星,这么做只是为了博取流量和关注。
最后被判有期徒刑七年三个月,并处罚金6万元。
图片来源:微博
说了这么多,最后说说有用的吧,如何有效避免自己不被AI换脸?
首先,我的建议是避免过度在社交媒体和公开场合上分享自己的照片,特别是过多暴漏个人信息的照片就别上传了。
其次就是不要轻易提供人脸、指纹、图像、声音等个人生物信息,在使用各种App、网站和小程序时,也要尽量减少对个人资料的留存。
AI技术是把双刃剑,
拥有技术是好事,
防止犯罪同样任重道远!
发表评论
2024-09-04 15:37:18回复
2024-09-04 15:40:25回复