AI程式「自動脫衣」造假裸照 10萬人受害驚見未成年...

   2020-10-23 15:29 蘇祐萱 BBC 點閱:0

由於科技進步,網路性犯罪發生的案例也日漸增多,據英國廣播公司(BBC)報導,從2019年7月至2020年7月,社群媒體上散布著多達10萬名女性,被人工智慧技術(AI)「數位脫衣」製作成的假裸照。


▲程式軟體自動將女性的衣服移除(圖 /Sensity)


日前荷蘭企業Sensity公開一份報告,有網友在加密社群軟體Telegram上,散佈大量女性裸照,網友只需要把一名女性的照片,通過Telegram傳送給AI程式,就會自動幫用戶「一鍵脫衣」,繪製照片中主角沒穿衣服的樣子,且該程式功能只對女性照片產生效果。


BBC徵求多位女性同意後,使用她們的照片進行實測,結果卻沒有一張造假照看起來像是真裸照,其中一位女性的肚臍還被放錯位置。對此,化名為「P」的程式管理人員表示,程式以提供娛樂為用途,沒有人會用程式製作的假裸照來勒索他人,因為裸照的真實度不高。


▲自拍照恐遭有心人士利用(圖 /Pixbay


不過Sensity調查發現,假裸照竟出現未成年,顯示出部分用戶有意透過此程式生成裸照,並分享戀童癖的內容,因此管理人員強調,團隊會檢查用戶分享的照片,若出現未成年時將會封鎖帳號。


即使工作團隊強調此程式只作為娛樂,然而任何人只要在社群媒體上發布、公開自己的照片,就有可能被有心人士拿來製成假裸照,數位科技的進步恐又帶來更多隱憂。