超過萬多名女性的照片被以人工智能技術(shù)制作造假裸照
社交媒體上有10萬多名女性的照片被一種人工智能技術(shù)“數(shù)碼脫衣”制作成裸照在網(wǎng)上散布了。智能公司Sensity發(fā)布報(bào)告說,有人在加密通訊軟件Telegram上面散布大量裸體女性照片,但這些照片原本都是有穿衣服的,這是用人工智能技術(shù)移除身上衣服的造假裸照。報(bào)告還說,有些造假裸照上的人“看起來似乎未成年”。
提供造假裸照的服務(wù)方表示這個(gè)技術(shù)“純屬娛樂”,軟件生成的結(jié)果非常不真實(shí),Sensity表示,造假裸照利用了“深度造假”的技術(shù)。深度造假是根據(jù)真的模板以電腦生成的仿真圖像或視頻,經(jīng)常被用來創(chuàng)造知名人物的造假色情視頻,但把不知名的個(gè)人照片拿來做成造假裸照則是最近才發(fā)生的事。Sensity的首席執(zhí)行官帕特里尼說,只要你有社交媒體賬號(hào),上面有你的照片,就可以被人拿去造假裸照。
深度造假:你能分辨視頻的真?zhèn)螁幔?/p>
加密通訊軟件Telegram中的一個(gè)私人群組提供了一個(gè)使用人工智能技術(shù)的“網(wǎng)絡(luò)機(jī)器人”(自動(dòng)軟件),使用者送出一張女性照片,幾分鐘之內(nèi)照片上的衣服就會(huì)被“數(shù)碼移除”,不花一分錢。
在征求多位女性同意之后,用她們的照片進(jìn)行實(shí)際測(cè)試,結(jié)果發(fā)現(xiàn)沒有一張?jiān)旒俾阏湛雌饋硐笫钦娴?,其中一張還把照片上女性的肚臍放錯(cuò)了位置。
去年也曾經(jīng)出現(xiàn)過類似軟件后來被禁,但據(jù)信仍然有不同版本在網(wǎng)上流傳。提供這個(gè)造假裸照自動(dòng)軟件的管理員自稱為“P”,“P”表示 “這純屬娛樂,非暴力,造出來的照片太不真實(shí),沒有人會(huì)因此被勒索。”他還說,工作團(tuán)隊(duì)會(huì)檢視哪些照片被人分享,“如果有未成年人我們會(huì)永久封鎖該名用戶?!?p>
網(wǎng)絡(luò)自動(dòng)化軟件可以將照片上女性的衣服“數(shù)碼移除”
Sensity的報(bào)告說,2019年7月~2020年7月,大約有10萬多名女性的照片被制作成造假裸照并公開分享。報(bào)告還說,一些照片上的女性似乎尚未成年,“顯示有部分用戶刻意利用這個(gè)自動(dòng)軟件生成并分享戀童癖內(nèi)容?!?/p>
除了戀童癖內(nèi)容可能涉及違法之外,按照世界大多數(shù)國家目前的法律,造假的色情內(nèi)容并不屬違法。美國的弗吉尼亞州去年成為全球第一個(gè)法律禁止“深度造假”的地方。
英國的法律在報(bào)復(fù)性色情內(nèi)容和偷拍裙底等相關(guān)主題上有所進(jìn)展,但是關(guān)于造假裸照的相關(guān)法律被批評(píng)為“過時(shí)并且讓人困惑”。
(摘自英國廣播公司新聞網(wǎng))(編輯/萊西)