南韓近日爆出大規模「深度偽造」(Deepfake)事件,許多韓國女性的臉被合成到色情影片中,受害者及加害者大多為未成年者,其中以Telegram為主要散播影片的平台,韓國也已為此展開調查。
根據「2023DeepFake現狀」分析,深偽的不雅片中有高達53%為韓國人,其中大部分都是韓國藝人,其餘受害者包含老師、學生、女軍,甚至是未成年者。
韓聯社報導,根據韓國共同民主黨議員自警察廳得到的資料顯示,2021年至2023年警方獲報的深偽影像中,527名受害者中就有315人(59.8%)僅10幾歲,其次佔據32.1%的為20多歲成年人。
然而,加害者卻也以主要為未成年人。在因製作深偽影像而被立案的嫌疑人中,10多歲青年的占比在2021年就高達65.4%,今年截至7月更是高達73.6%
Deepfake加害者大多先是在網路上存取受害者照片,並以此作為Deepfake素材製作成色情影片或照片,將其流傳至各大平台,以此賺錢。
根據韓民族日報,Telegram中一個此類的頻道中就已有高達22.7萬名用戶,在該頻道中,只要提供任何你想要合成的臉,就會立即生成一張色情圖,頭兩張為免費提供,第三張開始以加密貨幣收取每張0.49美元的費用,甚至推出介紹好友加入即贈免費圖的推廣活動。
南韓總統日前下令嚴厲打擊這類性犯罪,南韓警方在28日起展開為期7個月的調查,全力追捕製作並散播深偽色情內容的犯罪者。
而對於深偽影像性犯罪的恐懼,已在南韓社會中擴散。一名釜山的小學老師表示,擔心受害的學生已開始刪除自己在社群平台上的照片,老師們也為此特別下載Telegram,確認自己是否也已成了受害者。
根據南韓「性暴力預防和受害者保護法」,製作深度偽造色情影像並傳播者,可處5年有期徒刑或5000萬韓元(約新台幣120萬元),但韓聯社指出,主要傳播平台Telegram因伺服器位於海外,難以透過法律加以管控。