2020年,當韓國政府追查一個強迫年輕女性為付費觀眾拍攝露骨色情影片的勒索團伙時,他們在社群媒體的黑暗角落裡發現了其他東西:經過粗略加工的色情圖片,上面貼著其他人的面孔。
他們不知道如何處理這些深度偽造色情內容的早期嘗試。最後,韓國國會頒佈了一項措辭模糊的法律,禁止製作、傳播這類內容。但這未能阻止一個使用人工智慧技術的犯罪浪潮的出現,該浪潮現已將韓國網路厭女文化推到了登峰造極的程度。
在過去的兩週裡,韓國人震驚地發現,越來越多的年輕男性和十幾歲的男孩在社群媒體上獲取同學、老師和軍隊同僚的大量照片,而且幾乎都是年輕女性和女孩,包括未成年女孩的照片,然後藉助深度偽造應用程序,用這些照片來製作性剝削圖片和影片片段。
他們通過加密短訊服務平台Telegram的聊天室來傳播這些內容,有些聊天室的成員多達22萬。這些深度偽造的內容通常將受害者的面孔貼在擺出露骨性姿態身體的圖片上,後者來自淫穢作品。調查人員說,偽造照片的技術如此之先進,以至於普通人常常很難分辨出它們是假的。隨著韓國迅速採取措施努力應對這一威脅,專家們已指出,韓國人對新技術的熱情有時會超過對其道德影響的擔憂。