最近,韩国女性大规模遭遇 AI 换脸 *** 频的事件引发了海内外的热议。
加害者们不仅将自己的母亲、姐妹的换脸 *** 频作为筹码,在地下聊天群里交流分享,还以公开受害女性身份、家庭住址为由,向受害人索要钱财。
(示意图)
为了引起韩国全社会对该事件的重视,韩国女性纷纷克服语言障碍在海外社交账号发帖求助。整起事件涉及的受害人数之广,远超外界的想象 ... ...
上周,韩国一名初三男生 A 某听说自己学校有 5 名 "AI 换脸 *** 频 " 的受害者。本着让更多人关注此事的想法,他利用 2 小时的时间建立了一个 " 受害者学校地图 " 网站。
随后,A 某邀请所有得知身边有受害人的网友自发在上面登记,希望用这种 " 击鼓传花 " 的接力方式扩大舆论效应。
让 A 某和网友意料之外的是,网站建立仅短短 2 天时间,就有 500 所学校被标记,超过 300 万人次登录查询自己是否被换脸成为受害者。
事件中的受害者不仅包括韩国顶尖的首尔大学、高丽大学、延世大学等知名学府的高材生,还包括大量初高中和小学生等未成年人。
持续井喷增长的受害者人数,引发韩国大中小学校负责人的恐慌。
27 日一早,韩国各学校老师开始陆续通知学生们删除个人社交账号上的所有照片,就连只向好友公开的照片也要做到一张不留、全部删除。
韩国教育部更是直接向学生及家长发送应对 AI 成人换脸的 *** ,鼓励受害者及时向学校和警方报警备案。
(示意图)
更可怕的是,各大学校作为此次 "AI 成人换脸 " 事件中更大的受害单位,除学生之外,老师也是受害最广的群体。
根据韩国全国教职员工的调查显示,从去年初开始,就有几十个标注着教师的家庭住址、身份信息的 AI 成人换脸视频在互联网上传播。
受害教师报警后,警方在此后 1 年半的时间里一直以 " 不方便公开加害者信息 " 为由不立案。
在此次全国范围的 AI 成人换脸事件闹大之后,韩国警方才不情不愿地出面透露,加害者大部分是十几岁的青少年。
根据数据显示,青少年在整个加害者中占比高达 73.6%,整体加害者人数更是惊人的超过 22 万人。而 2023 年的韩国出生人口也仅有 23 万。
未成年加害者
为了控制住这个规模庞大的犯罪团体,韩国总统尹锡悦在 27 日发表讲话,要求根据根除此类 AI 犯罪。
由于加害者都是躲在互联网背后的神秘组织成员,而且很多还是未成年人,因此导致这次 "AI 换脸 *** 频 " 的受害者人数还在不断增长,蔓延速度如同看不见的瘟疫,有逐渐扩大化的现象。
为了捍卫自己的尊严和安全,大量疑似韩国女性的账户在韩国之外的国外社交媒体平台发帖求助。她们希望借此能增加舆论效应,倒逼韩国 *** 加大、加紧追踪调查藏在暗处的加害者。
她们之所以会采取跨国 *** 申诉,也是因为这起荒唐的 "N 号房 2.0" 事件被搁置得太久。
其实早在今年 5 月份,韩国国内就爆发了一起被称为 "N 号房 2.0" 的 AI 换脸 *** 频的特大案件。
从 2021 年至 2024 年 4 月,首尔大学的毕业生朴某和姜某,利用 " 深度伪造 "(Deep Fake 别称 AI 换脸)技术将受害人头像合成为 *** 频,并在加密通信软件上传播、扩散并获利,直接受害者多达 61 人。
据参与传播的犯罪团伙交代,和 5 年前的 N 号房犯罪手段仅为 *** 相比,只需上传头像就能 *** 一个 *** 频的 AI 换脸技术,犯罪手段更简单、成本更低、传播速度更广、受害人群更广。
报案的受害者
犯罪分子在创建好私密交流群后,会邀请臭味相投的加害者入群。进群时,每个人需要上传 5 个女性熟人的 AI 换脸 *** 频。
进群任务完成后,加害者可以使用群里的免费软件, *** 一个 AI 换脸 *** 频,第二个视频就会收取费用。如果邀请自己的好友入群,就可以获得打折 *** 视频的机会。
通过这种拉人入伙的方式,犯罪分子既能获利,还能拿到免费的视频资源。他们利用这些视频,对受害人进行金钱勒索,甚至提出侵犯要求。这些犯罪手段,也和 5 年前的 N 号房如出一辙。
被拉进群的加害者, *** 视频时往往会选择身边人下手,不少人甚至把自己母亲、姐妹的换脸 *** 频拿来交换,再慢慢延伸到亲友、同学、老师、同事等。
因此,韩网上的私密聊天群也从 " 妈妈房 "" 姐妹房 " 扩散至 " 女教师房 "、" 护士房 "、" 女兵 " 等。
不同分类的私密聊天室
更令人不寒而栗的是,成年加害者中不乏有军人、医师等内部人员。
在不到 4 年的时间里,韩网上衍生出的成人交流群多达数百个,受害者上升到 22 万。这也导致 2023 年全球 AI 成人换脸作品中出现的人物,有一半左右都是韩国女性。
但直到这次爆发韩国女性跨国求助等一系列大事件,才让韩国官方重视起来。
海内外的网友对这次韩国 AI 成人换脸事件进行了激烈讨论,也是因为任何地方的普通人,都可能会成为下一个受害者。
早在 2017 年 12 月,AI 换脸技术首次在大众视野曝光时,就被一位网友用来给《神奇女侠》主演盖尔 · 加朵合成了 *** 频。
没错,这项技术最可怕之处就在于,用户只需上传一张正面照,就能一键将素材视频中演员的对换。而且新技术不仅能换脸,还可以伪造声音。
合成出效果之逼真,何止本人看不出来,就连专业科技公司在辨别时也很难找到破绽。
随着近几年技术的不断发展、升级,更是简化到上传头像 5 秒后,就能 *** 整部影片,甚至视频对话的 " 傻瓜 " 功能。
今年 2 月,一个诈骗团伙利用 AI 换脸技术, *** 出一家跨国公司全部高层发言的短片,并利用这个短片从财务人员手中骗走 2 亿港元(约 1.8 亿 rmb)。
由此可见,AI 换脸技术应用到犯罪手段上,跨国公司的风险部门都难逃一劫,我们普通人更是招架不住。
从这次的韩国 AI 成人换脸骚动能看出,技术作为一把双刃剑,在造福人类的同时也可能给犯罪分子有机可乘。在推广技术应用的同时,监管也必须跟上才行。
发表评论