(台灣英文新聞/葉湘宜 綜合報導)美國一名女性於社群網路上販賣自身裸照,真實身分卻遭專家揭露為AI虛擬人物。
根據韓媒引述華盛頓郵報,一名名為Claudia的女性在社群網站Reddit上傳了個人自拍照,並親自聯繫對自己有興趣的網友說道,「若付錢的話,我會給你看更多的照片」。
然而,最近這位名為Claudia的美麗女性真實身分遭曝光,她其實是兩名電腦科學系的大學生所製造出的AI虛擬人物,他們所上傳的自拍照及銷售給部分人的裸照,則是利用AI繪圖工具Stable Difusion所製作的假照片。
這兩名大學生表示,起初並沒想到,他們所製作出來的AI虛擬人物會受到這麼多人關注,而在Claudia被發現是AI人像前,他們已透過Claudia的AI裸照賺取100美元。
對於此事,許多網友紛紛表示驚訝,但仍有不少粉絲仍持續在Claudia的自拍照下留言「太漂亮了」、「怎麼能那麼漂亮」等,似乎仍對Cludia的存在感到深信不疑。
雖然他們所賺取的金額並不大,但這事件也引起許多人對深偽技術(Deepfake)色情片提出倫理問題。
網紅小玉利用Deepfake技術「換臉」製作色情片牟利一事曾掀起一陣關注,他將高雄議員黃捷、立法委員高嘉瑜、雞排妹鄭家純等人「換臉」至色情片非法牟利,一共賺取新台幣約1,300萬元,一審遭判刑5年6個月,可易科罰金共198萬元,犯罪所得約1,300萬元則全數沒收。
加州柏克萊大學教授指出,AI照片生成本身需要以已存在的數據為基礎創造,若是在本人不同意的情況下盜用他人照片,就會產生問題,Deepfake色情片也應在法律上加以限制。
A Redditor was left heartbroken after he discovered that the “perfect” woman he met online was actually an AI creation named “Claudia” pic.twitter.com/TN2mD6Ybp4
— Daily Loud (@DailyLoud) April 13, 2023





