LIFESTYLE深度聚焦
Deepfake 是什麼?AI換臉技術被用於客製化色情片上,妳我都可能成為受害者!
by yuyu-更新
撰文/Harriet Sim 翻譯/許儒愉 圖片/Getty、Pixabay
深度偽造 Deepfakes
對於「深度偽造色情片」的受害者來說,在網路上看到這些影片就像親眼目睹自己被性侵一樣。哈里特・辛姆(Harriet Sim)調查了網絡上這種針對女性的最新武器。
延伸閱讀
諾埃爾・馬丁(Noelle Martin)第一次看到自己出現在色情片之中時,只有18歲。某個夜晚,這名法學院學生無所事事地坐在筆記本電腦前,決定在 Google 上以圖搜圖,期待能找到一個過時的 MySpace 個人頁面或一些社交媒體貼文上尷尬的舊貼文。然而,馬丁卻發現了數百張個人影像,包含自己參與性交和口交情景,只是影像中的並不是她本人。
馬丁是數以十萬計遭受「非自願性深度偽造」的女性之一。這表示著她的臉部影像被盜用,並被透過人工智慧,以數位的方式貼到其他人的身體上。
「我覺得噁心」,現在是一位數度獲獎的社運人士,同時也是UWA科技與政策實驗室的研究員的馬丁回憶道:「我完全是個無名小卒。我不知道該用什麼詞來描述發生在我身上的事情。我從未聽說過這種影像上的性侵害。我的腦海裡充滿了問題:『這些影片是我認識的人製作的嗎?他們是刻意針對我嗎?這會怎麼影響到我的工作?我應該跟家人說嗎?』以那樣的方式看到自己,真的是令人感到震驚的一種侵犯。」
黑暗的現實是即使你從未聽過「深偽技術 deepfakes」這個詞,你卻很可能已經觀看、分享或與之互動過。2017年,這個詞透過一連串假的名人性愛綠影帶,從 Reddit 中首次流行起來。如今「深偽技術」已經從網絡中的黑暗角落爬升至主流媒體的前沿,模糊了事實與虛構之間的界限。今年三月,教皇穿著奢侈羽絨夾克的照片成為頭條新聞,隨後才有一位用戶站出來指出他擁有那張人工智能生成的照片。
在 TikTok 上, #deepfake 這個標籤有著超過16億的觀看次數。隨著科技日益複雜,扭曲現實感知的機會也日益增長,特別是對於政治競選、公眾形象等,對於普通女性的生活更是產生了最為嚴重的影響。湯姆・克魯斯睜大雙眼發出令人不安的笑聲的深僞影片可能看似完全無害,但殘酷的現實是,高達97%的深度偽造都是用於非自願性的色情影片上。
美國非營利組織 EndTAB 的創始人亞當・道奇表示「深度偽造是針對女性的暴力問題。大眾一直以來都將這個敘述視為錯誤的訊息,或者認為它是一種分裂性的政治操作。大眾很難理解這種形式的侵害,很容易認為『嗯,這只是一個假的影像,有什麼大不了的?』但這其中其實存在著許多問題。」
馬丁帶著筆記型電腦走進當地警察局時,她希望正義可以得到伸張,並且這些影片所帶來的創傷能夠結束。然而,令她感到震驚的是,對於非自願性私密影像散佈,並沒有具體的刑事法律加以規範。對於缺乏規範感到沮喪,現年28歲的馬丁,開始為了改變而奔走呼籲,向聯邦政府請願並公開發聲。如此奔走的結果是,澳大利亞政府於2015年修正了網絡安全法案,使那些散佈私密圖片的人可能必須面臨罰款或監禁。但對於馬丁來說,這些變革遠遠不夠。
「關於影像濫用的法條規範與十年前基本上相同。在法律上並沒有任何重大改革。在澳大利亞,我們有一個名為電子安全專員辦公室(eSafety Commissioner)的監管機構,該機構以納稅人的稅金來保護在網路上的人們,並且擁有很多相應的權力。根據該監管機構的每年報告,我卻發現他們所獲得的權力並沒有被妥善使用。在我看來,這是一個形同虛設的監管機構。據我所知,他們根本沒有開出任何罰款。」
eSafety Commissioner 監管機構(esafety.gov.au)表示收到少於10宗關於深偽技術濫用的投訴,但隨著人工智能的進步,他們預計這個數字將會增加。然而,去年他們收到了7000宗關於線上影像濫用(例如報復性色情影像)的投訴,並協助刪除了其中90%的影像。該辦公室表示,並不需要罰款等更進一步的制裁,「大多數人只希望盡快刪除這些影像」 委員朱莉.英曼.格蘭特(Julie Inman Grant)說道,「我鼓勵所有遭受影像濫用的人向我們投訴。」
深度偽造的色情影片成為馬丁的終身刑,知道這些影像大部分仍然存在於網絡上使她深受折磨。「撤下這些影像的過程是一場永無止境的戰鬥。即使你設法撤下,也無法保證它們不會在未來的一個月、一年,甚至十年內再次出現。撤下內容還會激怒這些犯罪分子,使你成為他們更大的目標。」
如今,深偽色情片四處肆虐,這些經過人工處理的影片也變得越來越容易獲得。最近NBC新聞對兩個最大的深偽色情片網站進行了調查,發現可以通過 Google 搜尋輕易進入這些網站。深偽製作人甚至在線上聊天平台 Discord 提供客製化影片,人人可以透過 Mastercard 或 Visa 購買一段五分鐘,價格約為65美元的素人(也稱為「personal girl 個人女孩」,專指粉絲數少於200萬的女性)的深偽色情片;其他網站則將客人上傳的女性影像透過程式脫光。隨著對客製化色情的需求增加,兩個熱門的深偽製作者甚至提供付費職位,招聘新人以製作更多內容。
「那些深偽色情片的受害者向我尋求幫助,但我不想讓他們產生誤解,因為他們其實不會得到有效的幫助。」馬丁說道,「沒有人願意談論這個問題。這讓人感到不舒服,因為你想相信還有希望存在,但我對於給予人們虛假的希望不感興趣。」將責任完全推給女性自身在網路上更好地保護自己是不公平的;問題的一大部分在於對於深度偽造的製作者及使用者上缺乏相應的規範和後果。
今年早些時候,知名 Twitch 直播主布蘭登.尤因(Brandon Ewing) 在一次直播中不小心忘記關掉一個網站分頁,被發現購買和觀看同行女性直播主的深偽色情影片。「我一直在閱讀很多人工智慧相關的資料,當時我正在觀看 Pornhub。因為這個廣告出現在每個影片上,所以我知道每個人都有點進去。那時是凌晨2點,我因為好奇就點了廣告。」尤因在道歉影片中含著眼淚如此說道,他的妻子也在一旁哭泣。
其中名為甜心安妮塔(Sweet Anita)的一位女性 Twitch 創作者,就是那次直播中所揭露的深偽色情片之下的受害者之一。在尤因曝光之後,她才發現有人將她的影像作成深偽色情片。「我最初的反應是感到筋疲力盡,因為女性直播主本來就經常被性的物化。」在 Twitch 上擁有190萬粉絲的安妮塔表示:「那段影片非常逼真,所以我立刻感到很擔心,如果有一天我決定不再創作,有人會查我的資料然後說『哦,她拍過色情片。』」
線上性工作者則面臨著更高的安全風險。不過,線上性工作者通常對這些風險有相對較高的意識,且由於他們的製作內容帶來了更多的粉絲和收入,他們通常擁有更好的保護手段。「深偽影片讓人以為我拍攝了色情片。」安妮塔說道:「因此,我被當成性工作者對待,但我卻脆弱無助,因為我沒有來自性工作所產生的財富來保護自己。不參與色情片是我為了安全而做的決定,但現在這個選擇被剝奪了。」
「令我沮喪的是,即使我試圖預先聲明這些影片是偽造的,我還是會收到一些評論說『你在撒謊,你只是一個被抓到的蕩婦。』現在,我負起了宣導和教育大眾的責任,然而這本應該是由製作者和使用者道歉,並支付法律費用以刪除這些影像的。」任何關於深偽技術的討論區,或推特貼文上有一種普遍的態度——因為深偽影片「不是真實的」,所以它們也無法對人造成傷害。因此與報復性色情影片相比,並沒有同等的破壞性。
道奇認為要改變對深偽技術的看法,很大程度上取決於向大眾教育這些影像作為一種性暴力的影響。「深偽色情片製造了受害者失去意識,或醉到無法記憶的情況下被拍攝的性侵犯體驗。」他說,「就像深度偽造技術一樣,當受害者觀看這段影像時,他們並沒有被侵犯的記憶,但他們絕對會受到在線上觀看自己被強暴的影響。深偽色情片製造了這種具有極度創傷性的有害體驗。」道奇繼續說道,「未經同意就被貼到一段影像中,對於男性而言不會有女性受害者所受到的羞恥和責怪的傷害。所以這種情況對於男性來說,是一種較為淡化的程度。因此,我們必須處理缺乏同理心、觀點不同,和特權的問題。」
對於馬丁而言,她已經奉獻了十幾年的時間來提高人們的意識並倡導改變,「深度偽造 deepfakes 帶來的傷害非常『真實』,」她說:「這是對個人權利和自主權的侵犯和剝奪。大眾沒有意識到,這不僅僅是情緒上的傷害,深偽色情片是終身的判刑。這些深偽影片的傷害影響你整個生活:你的職業、人際關係、親密關係、經濟機會和對自己的自主權。無論它看起來是否真實,它都可能影響你應聘的每一份工作。
「人們通常並不會仔細檢查他們看到的內容,再去判斷它是否真實。」在許多情況下,受到性侵害影像濫用的受害者不得不完全退出網路世界,並一直生活在對這些影像重新出現的恐懼之中。其他情況下,深偽色情造成的毀滅性後果,則導致受害者必須改名換姓。然而,深偽技術所造成的損害程度依然未被完整地理解。 「當影像中的受害者難以被認定成是受害者時是很危險的。」 道奇表示,「若是你無法把自己視為受害者,你就無法開始療癒或處理自己的創傷。這對於人們來說實在是一個不安全的狀態。」
「深度偽造 deepfakes」的複雜性在於它不僅僅是關於性滿足,而是剝奪女性權力和女性的身體自主權的一種技術。「它們讓男性和自我認同是男性的個體,能夠在沒有任何人同意或阻止的情況下對受害者施加控制。」道奇解釋道,「沒有人真的會被這些深度偽造色情影片所蒙蔽。這不是關於錯誤資訊,因為完美的偵測解決方案明天就可以出現。深度偽造的色情網站仍將繼續肆虐,是因為人們在消費這些內容時並不認為自己所看到的是『真實』的。」
深度偽造經濟似乎是新數位時代的一個可怕副產品,但我們只需要回顧一下歷史,就能明白剝奪女性權力並非新現象,而是自古以來對於女性物化的執念。
延伸閱讀