新版N號房?韓國「Deepfake」換臉事件引發全體女性恐慌

韓國Deepfake事件

 

2020年韓國爆發一系列駭人聽聞的「N號房案件」,雖然當時犯人已經被繩之以法,但事情被揭穿還不到4年,又有類似的案件發生。

2024年的韓國,除了二十年前密陽集體性侵案又因為節目訪問當年受害者引起公憤,許多人紛紛把那些加害者都肉搜出來、讓他們社會死亡之外,近期最受關注的社會案件,應該就是「Deepfake」換臉事件了。

深度偽造(Deepfake)是什麼?

深度偽造(Deepfake)是一種利用AI生成的假照片和假影片,將一個人的臉替換成另一個人的技術。

台灣之前就有網紅「小玉」將女性公眾人物的臉合成至裸體的身上,藉此來製作色情圖片販賣牟利,導致人們誤以為該受害者有拍攝裸照或性愛影片的案例。

 

韓國Deepfake事件

 

不只女偶像,一般女性也受害

而在韓國同樣也不例外,這幾年不光是女性藝人和網紅深受其害,作為一個曾爆發「N號房」的國家,這個難以查緝的「換臉」風暴最近也逐漸擴大,不僅技術變得更加進步,越來越難分辨影像的真假,受害者也不再只限於公眾人物,而是跟全國所有女性有關。

 

根據韓媒報導,在通訊軟體「Telegram」上有許多跟「Deepfake」有關的私人群組,想要加入就必須先「上傳身邊女性親友的真實照片」,而裡頭也不是只有分享不雅影像而已。

 

韓國Deepfake事件

 

N號房因為Deepfake再次重演

群組管理員收到這些照片,除了會製作成AI裸照和影片,並附上受害者的各種個人資訊,發到群組滿足眾人私慾以外,甚至還會拿不堪入目的影像,找到那些絲毫不覺的無辜受害者,前去跟蹤、騷擾,或以散布影像來脅迫進行性剝削,上演新一代的N號房事件

 

根據韓國警察廳統計,光是今年就接獲將近300起跟「Deepfake」群組有關的報案,案件數量逐年增加,受害者包括學生、老師、護理師和軍人等,而其中有近40%是未成年。

 

韓國Deepfake事件

 

整個韓國陷入恐慌與

也就是說,那些上傳照片進群組的人大部分也可能都是未滿 18 歲的學生,他們通過社群網站下載身邊同學,或者是親生姊妹的照片,交給群組管理員製作裸照。
對此,有人針對「Deepfake」受害者的學校進行統計,並製作成地圖,顯示目前韓國已經有超過500所國中小和大學淪陷,讓學校不得不出來呼籲學生清空社群網站上的相片。

 

而且因為受害者的年齡與範圍分布相當廣泛,目前這起事件已經引發韓國女性的集體恐慌,讓她們失去日常生活的安全感,並對身旁男性感到極度不信任。

 

韓國Deepfake事件

 

台灣會不會發生類似事件?

不愧是韓男,真的完全不意外呢,但根據之前的經驗,台灣幾個月後應該也會發生一樣的事情。

而且現在好像還有「脫衣服」的AI技術,能把原本正常的照片脫去衣服變成裸體,雖然跟 Deepfake 相比,這可能一看就知道是假的,但還是要注意一下。

延伸閱讀:Netflix影評《網路煉獄:揭發N號房》韓國史上最嚴重網路犯罪

 

韓國Deepfake事件

 

◎加入Line群組聊電影◎
LINE如履的電影筆記LINE

◎歡迎到我的FB專頁按讚◎
facebook icon如履的電影筆記facebook icon

◎更別忘追蹤我的Instagram
Instagram icon如履的電影筆記(looryfilmnotes)Instagram icon

如果要看更多影評文章請到我的首頁
手機用戶可點選「畫面右上角搜尋文章圖示」搜尋影評文章

喜歡我的影評文章,歡迎贊助給予實際支持肯定
喜歡我的影評文章,歡迎贊助給予實際支持肯定
喜歡我的影評文章,歡迎贊助給予實際支持肯定
ecpay ecpay

本文版權歸「如履的電影筆記」所有,請自重勿任意轉載。

相連文章

一般留言

發表迴響