閱讀進度0%

以假亂真的 Deepfake 事件簿:拜登、湯姆克魯斯都曾是主角?連戰爭、選舉訊息都不放過

以假亂真的 Deepfake 事件簿:拜登、湯姆克魯斯都曾是主角?連戰爭、選舉訊息都不放過

閱讀時間 10 分鐘

報導重點摘要

  • 深度造假(Deepfake)的造假技術應用始於色情片,外界擔憂它會在選舉、戰爭中造成重大影響。READr 蒐集全世界超過百個 Deepfake 假訊息事件,全面分析主題、內容、識假方式,看看這些假訊息的趨勢和實際影響。
  • 多國事實查核專家大都表示日常遇見的 Deepfake 偏少,品質低落的「Cheapfake」居多,甚至提到人們對它的恐懼遠大過於它帶來的實際影響。
  • 隨著 AI 的發展,生成式 AI 工具讓無中生有的假訊息變得愈來愈容易,Deepfake 假訊息也不斷進步,增進品質。臺灣 Deepfake 專家認為必須靠各方力量從源頭改變才有機會遏止。
  • 在實際的案例中,Deepfake 假訊息是否能取信於人,關鍵不只是品質而已。巴西選舉的 Deepfake 事件就算不太可信,仍在不信任媒體的人和陰謀論者的圈子裡流傳。
AI 發展愈來愈快速,在假訊息領域,Deepfake 已經是個被提出多年的流行語(buzzword),READr 從全球的事實查核報告蒐集破百個 Deepfake 假訊息的足跡,探究它的發展及帶來的影響——即使我們訪問到的事實查核專家都認為,現今人們對它的恐懼遠大過於其帶來的實際影響,不過他們也承認,Deepfake 的發展不容小覷。
AI 會造福人類社會,也會帶來危害,哪個面向會有更大的影響力仍是未知,但 Deepfake 這個名詞的起源就註定了它惡意的本質——來自 2017 年,一位以 Deepfakes 為名的使用者,在國外著名論壇 Reddit 上創造了同名的子討論版。正如其名,Deepfakes 是以「深度學習」(Deep learning)來造假(fake),這個論壇是用來張貼以深度學習技術做出來的女明星色情片。
「深度學習」是指從大量資料中學習——以女明星色情片為例,透過該女明星大量的影片、照片,學習女明星各個角度的臉部特徵,再重現在一個現有的色情片上,只是色情片女主角的臉被換成了該名女星。因此,只要有愈大量的影音素材,「換臉」就會愈逼真。
Deepfake 後來便用來指涉這些以 AI 生成的合成內容。《深度造假》的作者敘克(Nina Schick)在書中寫道,這類內容有三項重要特徵:第一、品質,人工智慧創造的影音效果,即將超越過去任何電腦特效公司的作品;第二、普及,隨著科技進步、應用程式和電腦軟體容易取得,愈來愈多人得以使用相關技術;第三、成本,由於科技進步,製作合成媒體的成本愈來愈低廉,甚至不必花錢。而上述發展已經蔚為趨勢。
2949_1
根據各國事實查核中心網站上的文章,跟「Deepfake」相關的文章始於 2018 年,這些文章大多是評論技術發展、或如何辨識 Deepfake 假影片的方法。下一波高峰出現在俄烏戰爭、及生成式 AI 的發展。
而若將範圍限縮至實際的 Deepfake 事件,發現早期實際使用 Deepfake 技術製作的假訊息數量不多,反而有大量關注或憂慮此技術的文章。

Deepfake 早期用於宣傳、創意用途

載入中
bg-002
bg-003
bg-004

Deepfake 開始成為攻擊政治人物的工具

Deepfake 問世不久,美國擔心此技術會被用在 2020 年總統大選,就如同 2016 年俄羅斯干預美國總統大選一樣,尤其裴洛西才被刻意偽造的影片攻擊。眾議院因此舉辦了聽證會,不過,美國當時的擔憂並沒有成真。
從 2021 年開始,對政治人物的 Deepfake 攻擊日漸增加,但接受採訪的事實查核員們普遍認為,他們日常處理較多的還是相對單純的低成本假訊息(Cheapfake),例如西班牙 Maldita.es 的麥凱勒提到,Deepfake 假訊息在西班牙仍然相對罕見,他們的工作重點仍是比較常見的 Cheapfake,雖然隨著近期 AI 的進步,這種情況可能會改變。
載入中
bg-001
「其實有很多跡象表明內容是偽造的。」Comprova 編輯約瑟夫(José Antonio Lima)提到,錄音的主角是一位資深的政治家,有很多公開資料可以佐證他的立場跟錄音中的主張有很大的出入,而本人也否認錄製過這個音檔。
但對 Comprova 來說,這次挑戰並不在於能否識破,而是人們相不相信。約瑟夫提到,「我們認為這些證據仍然脆弱,因為此類內容主要在不信任媒體的人、和強烈相信陰謀論的人群中傳播。」
約瑟夫分享,「假訊息網絡至少有兩個目的:首先,製造大量噪音,造成一些學者所說的信息混亂,以抹黑媒體的名聲,並在自己正確的位置上充當公眾的調解人;其次,吸引更多的易感人群,長期指導他們的選舉立場。(像 Deepfake)這樣華而不實的內容,可能是為了擴大這些泡沫,吸引更多人進入假訊息網絡。」
因此他們最後尋求專家的協助,證明錄音與該政治人物的聲音並不相符,「我們希望這至少能讓一些人相信該內容是假的。」

Deepfake 成為候選人的替身

印度、南韓的選舉也出現過 Deepfake 影片,只是用在完全不同的面向。
載入中
bg-001
bg-002
bg-003

Deepfake 首次出現在戰爭… 卻沒人相信!

Deepfake 問世以來,大家最擔憂的事件也發生在俄烏戰爭——去年 3 月 16 日,澤倫斯基在一段被社群平臺瘋傳的影片中,呼籲烏克蘭軍隊放下武器,Maldita.es 的麥凱勒表示,這段 Deepfake 影片之所以引人注目,是因為它有巨大的潛在後果:讓烏克蘭人相信他們的總統已經投降。
但值得慶幸的是,這個 Deepfake 因為品質太差,不但沒人相信,還引來恥笑。台灣事實查核中心的專文報導就引述《BBC》假訊息調查記者的推特:「這是我從事這個工作以來看過最差的深偽影片之一」;烏克蘭裔的假訊息專家也說:「這個深偽影片讓我忍不住爆笑⋯⋯至少脖子跟臉的位置要對齊!」
除了品質太差,綜整各國的事實查核報告,可以發現烏克蘭總統投降的影片沒有廣為傳播有三個關鍵:政府有事先預告、澤倫斯基本人快速出來破解、Facebook 平台迅速下架。
烏克蘭政府在 3 月 2 日——影片出現的兩週前——就告訴民眾,俄羅斯有能力製造和傳播 Deepfake,內容可能會是澤倫斯基宣布烏克蘭投降,目的是散佈恐慌,讓公眾感到灰心喪氣。
影片出現的當天,澤倫斯基也迅速在官方 Telegram 上親拍影片反駁投降之說;而 Meta 也以違反針對誤導、操縱媒體(misleading manipulated media)政策刪除了旗下相關平台(Facebook、Instagram)上流傳的影片。
麥凱勒表示,澤倫斯基親自揭穿這則不實訊息非常重要,「雖然如何打擊假訊息是一個持續討論的話題,但政府明明已經有可以做的事:例如回答事實查核組織者的詢問,並認識到我們工作的重要性。」
「這個案例能夠這麼剛好全部一氣呵成,相對來說很少見。」Deepfake 識假專家許志仲也提到,大部分可能就是發言人出來說這是假的,很少總統直接出來澄清,社群平台的反應也不見得這麼快,但這個例子可以看到,要快速遏止一個 Deepfake 假訊息的傳播,如果有 SOP(標準作業流程),釐清的速度就可以很快。
許志仲舉例,例如事實查核單位迅速查證,將結果傳給各個單位,包括受害者、社群平臺等,建立一個溝通的頻道,方便後續更新,一有新的消息,各方都可以同時行動等等⋯⋯「不過實際上的 SOP 要怎麼做,各個公司文化不同應該也會有很大的落差。我只是覺得這個例子雖然少見,但顯示了就算在社交媒體這麼龐大的平臺上,還是可以做得不錯。」

對 Deepfake 的恐懼大於危害本身?

正如對 Deepfake 會在重大事件造成關鍵影響的恐懼,最終以俄烏戰爭中破綻百出的影片收場,Deepfake 現象問世以來,事實查核組織們每天面對卻都是 Cheapfake,「到目前為止,對 Deepfake 的恐慌是一個比 Deepfake 本身更大的問題」,德國巴伐利亞廣播電台的事實查核組織這樣寫道
「我的確覺得 Deepfake 現象變得更加普遍,數量比前一年更多了。但我們也試著不要恐慌,因為長期以來,人們一直在談論 Deepfake 可能是下一個巨大挑戰,但迄今為止並沒有真的發生。」德國 Correctiv 查核記者馬里諾夫說,「我們學習更多關於 Deepfake 的議題、嘗試自我教育,但我們不會覺得『天啊,這將毀掉整個資訊領域』。」
巴西 Comprova 編輯海立奧(Helio Miguel Filho) 以上次總統大選的經驗提到,在上次總統競選期間,只發現了三個可以被視為 Deepfake 的案例。 另一方面,Cheapfake 的影響更大,可能是因為產量較多,「我們遇到的 Deepfake 通常不會產生持久影響,反而是觀眾對 Deepfake 的擔憂大於其影響。」
海立奧解釋,「從長遠來看,過度的擔憂可能會產生問題。人們不相信他們看到的任何東西也會產生不良後果,因為民主需要公眾對制度的一定程度的信任才可能持續。」
載入中
bg-001
bg-002

AI 工具降低 Deepfake 門檻

而 AI 工具的普及,又讓 Deepfake 假訊息邁向下一個階段。
載入中
bg-001
bg-002
bg-003
由於創作的門檻降低,它成為迷因(Meme)工具,有些人製作只是為了「開玩笑」,甚至在原始貼文中就標註「這是假的」、「這是用什麼工具生成」,但這些標註通常會在訊息傳播的過程中消失,就如同前文提到的,由著名調查記者希金斯所製作、川普被捕的 Deepfake 影像。
希金斯接受美聯社採訪時表示,有些照片裡川普甚至有三條腿,「有人相信這件事凸顯了我們的教育體系沒有提供批判性思考的技能」。
但 Comprova 編輯約瑟夫抱持著不同態度,「我很難假設創造假訊息的人沒有惡意。迄今,世界上已經有很多國家遭受利用社交平台大規模傳播假訊息的困擾,那些有能力使用工具創造假訊息的人,當然有能力理解到,就算這些內容有明顯的錯誤,在傳播過程中也會失去原始的訊息。」
約瑟夫指出,近幾個月來 Comprova 屢屢看到有人以好笑的方式傳遞假訊息,被問到的時候,他們就回答說「我們只是在開玩笑,是你們不懂」。
《深度造假》作者敘娜在書中寫道,「這些內容的「娛樂性」,某種程度上也掩蓋了內容有害的本質,並加以粉飾。」她以川普轉推現任總統拜登(Joe Biden)的 Deepfake 動圖為例——「那張動圖是用 AI 手機應用程式 Mug Life 製作而成。動圖裡的拜登雙手交握,揚起眉毛,邊做鬼臉、舌頭邊繞著嘴唇移動,舔自己的臉。⋯⋯動圖的內容是否很蠢?沒錯。一眼就能看出造假?是的。但有沒有達到目的?絕對有。」
敘娜提到,川普轉推後,那則推文獲得了將近 1 萬 7 千次轉推、4 萬個讚,觸及了數以萬計的用戶,「我們可以合理推論,這張動圖至少在某種程度上影響了選民對拜登的觀感⋯⋯迷因及其他『愚蠢』的網路內容,都可能是散播政治不實資訊的有害工具,特別是這類型的內容看似無害。」
但麥凱勒認為這種病毒式的傳播其實也帶來好處,「熱門的 AI 生成圖像大多都會被人們熱烈分享,這也正在提高人們對於 AI 造成潛在危害的認知。」
台灣事實查核中心總編審陳慧敏提到,目前在臺灣流傳的 Deepfake 圖像都是比較沒有危害、偏娛樂性質的內容,例如中國東北松花江河冰開花的影像,「我們會查,是因為大家還是看不出來是 AI 做的。」
而這類型的圖片也增加了事實查核的挑戰。在現有的 Deepfake 事件中,大多數的查核方式都是「找到原始的照片/影片」,因為被稱為 Cheapfake 的影片很少是「無中生有」,都有一個原始的影片做基礎,再將別人的臉換上去。
2949_2
但生成式 AI 就無法用此類方式查核。生成式 AI 是透過大量的素材訓練,來生成跟原始素材相似的新資料。以 Midjourney 為例,使用者只要輸入指令,AI 就會尋找在資料庫中跟指令相似的素材,生成符合指令的新內容。
以松花江河冰開花的查核為例,台灣事實查核中心是透過 AI 圖片辨識工具 AI image detector,發現每一張的結果都有 9 成的機率是人造的;也實際用 Midjourney 成功生成相似的圖片,推測它應該就是 AI 製圖影像。
Comprova 編輯約瑟夫指出,在沒有「原始內容」可以對照的情況下,他們會朝以下方向查核內容的真實性:誰製作了影片或照片?有人目睹過當時的情況嗎?有媒體發布過嗎?參與該事件的人怎麼說?
而陳慧敏和許志仲都認為,對付這種 AI 生成、「無中生有」的假訊息只能從源頭做起。
陳慧敏認為,目前使用現有 AI 工具生成的東西並沒有任何標示,就算原作者在貼文上以文字說明,在大部分的傳播過程中也會佚失。應該要在詮釋資料(Metadata)中註明,甚至直接壓類似浮水印的東西在圖片或影片上,才能避免此問題。
許志仲提到,可以更進一步在所有照片或影片中加入獨特的資料。他舉例,如果今天在網路上傳影像時,檔案中都會被加入某種獨特的 ID,只要被修圖、或被「換臉」,這個資料就會被改變,事實查核時就很好辨識。
這個方法也適用於 Midjourney 這類工具,「假設所有照片在上傳時都帶有一組 ID,被生成出來的照片就不會有這組 ID,那就很容易辨識它是人工生成的。」
除了標示,更可以加入「對抗攻擊」來主動防禦。許志仲舉例,使用者上傳照片時,會再透過 AI 的技術生成一張一模一樣的照片,但這次的生成過程中,加入了對抗攻擊。日後若有人想要拿這張照片來換臉,這裡的對抗攻擊就能夠騙過 AI,讓對方換臉無法成功。
但這類方式相對全面,「難處就是要從源頭推動。」許志仲指出,這必須建立起國際標準,所有網路上傳的空間都要同意才能會發生,「這是這兩年才有開始有討論、投入,因為 Deepfake 的被動防禦技術可能走到盡頭,大家才往主動的方面去走。」

識假的方式與挑戰

回顧目前已發生過的 Deepfake 事件,2023 年雖然充斥著各種容易識破的 AI 生成圖片,但影片品質已大幅進步到幾乎難以用肉眼辨識。例如 4 月時,前美國國務卿希拉蕊柯林頓(Hillary Clinton)接受媒體採訪,說她將支持佛州州長德桑蒂斯(Ron DeSantis)競選總統,要不是她最後說了一句「九頭蛇萬歲」,幾乎沒有破綻。
從 2018 年開始投入識假技術研究的許志仲,見證了 AI 假訊息的快速進步。
由於識假技術也是 AI,是拿既有的資料去訓練——等於必須想像、或是實際看見攻擊方如何造假,才能擬定防守的方式,「我們的資訊是不對等的。」許志仲說。
2949_3
「發展到現在,看起來 Deepfake 的技術還是佔上風,而且愈來愈難對付了。」許志仲說,還是有一些方法在做低品質的偵測,只是還沒有很成熟。
他也提到,因應 Deepfake 假訊息愈來愈多,近期訓練好的換臉模型,很多都不再公開釋出,避免被拿去亂用,「這讓造假變得難一些,但對偵測方來說,我們同樣也沒有這個資料讓我們的技術變得更好。」
許志仲也強調,識假需要「人機合作」,不能純以 AI 來判斷。以他們自身開發的工具為例,當使用者上傳需要辨識的影像時,工具並不會直接告知是真是假,而是提供「偽造的可能性」的機率數字讓使用者判斷。
再加上人會有很多額外資訊可以參考,許志仲提到,從影片上下文、浮水印、或內容本身(這個人會不會做這件事),很多時候你一眼就能看出是假的。

Deepfake 造假、識假的資源太不對稱

目前臺灣與 Deepfake 相關的法律主要是針對「換臉色情片」,2023 年 1 月修正了《刑法》部分條文,製作不實性影像並散布營利,最高可處 7 年有期徒刑。而 9 月行政院也預計提出《人工智慧法基本法》草案。
陳慧敏提到,目前 Deepfake 假訊息還沒有直接針對臺灣社會的攻擊,目前大多是光靠截圖、修圖的案例。但以 Deepfake 的成本相對較高,加上需要公共人物的大量影像資料來訓練這兩個特徵來看,選舉還是最有可能出現的場合。
許志仲認為,以被動偵測的角度,總有一天可能真的會出現「完美的 Deepfake」,在防守方掌握新技術的細節之前,畢竟只要加入各個技術的優點、解決現在已知的缺點,就有可能出現。
「愈多人投入才愈有機會追上偽造的技術。」許志仲期盼能有愈多人加入研究的領域,「因為很多人投入生成模型的開發,它才會進步那麼快。如果我們也有同樣的人投入,會不會進步得比較快?一個人再怎麼聰明,想法都有限,或許我們找得到解方,只是我沒想到而已。」
他指出,AI 的監管還有很多路要走,「我們也可以理解這些現有提出的解方很難落實的原因。它需要各方加入,會有隱私權的衝突,經濟、政治因素我們也很難介入。」許志仲提到,只能回到自身,就是每次看到網路上來的訊息時,轉傳之前都要思考一下。
陳慧敏也提到,正是因為目前沒有百分之百可以辨識是 Deepfake 的工具,這勢必不是靠一個萬能的工具就能解決。
如同加彭與馬來西亞的例子,加彭總統的真實影片被大家懷疑是 Deepfake、馬來西亞政治人物的外流影片,當事人說是 Deepfake,但其他人不相信,除了真和假之間還有很多因素要考量,陳慧敏指出,「這是教育的機制、是整個社會的數位識讀。這個機制沒辦法單憑工具決定對錯,需要很多媒體、查核組織,需要整個環境看到一個訊息就開始徵信(驗證真偽)。」
陳慧敏認為就是回到假訊息的應對方式,「你如果看到驚訝、讓你有情緒的訊息,就先冷靜下來看看這是什麼,有沒有出現不合理的地方。再去找訊息的出處,是誰傳的?如果是親友,他知道來源嗎?如果最終確認只是在網路上流傳的訊息,就應該先『等一下』。」
「再來就是查證。」陳慧敏以五角大廈爆炸的圖片為例,「我們當然很難找五角大廈查證,但這顯然是個很大的新聞,就可以看看你信任的媒體有沒有報導。」
「AI 會愈來愈逼真。如果已經沒有肉眼可辨識的錯誤,一件事情有沒有發生,就只能仰賴徵信和查證的習慣。」陳慧敏說,「這個習慣,比過去任何時候都還要重要。」

Deepfake 假訊息事件簿

2
12
7
9
30
65
#帶有宣傳性質
#作者有聲明是假的
#特殊案例
#向相關人士求證
#找出原始的影像
#用套件產生
#內容明顯錯誤
#Midjourney
#Synthesia
圓點上的數字代表該時間區段有多個事件
可點選前往下一個時間層級
或往下滑動看更多事件

若時間軸太長
可以按「上/下個日期」跳到有事件的日期

附錄:Deepfake 最大的應用:96% 的內容是色情

此篇報導所使用的 Deepfake 事件資料主要集中在「假訊息」。而根據 AI 公司 Deeptrace 2019 年製作的 Deepfake 調查報告,網路上有 96% 的 Deepfake 內容都是色情影片。報告研究範疇主要為英語網站,但他們發現 Deepfake 色情網站上有將近 1/3 的影片不是西方主題,其中韓國流行歌手更佔了 1/4,「表明 Deepfake 色情成為全球現象」。
關於臺灣的 Deepfake 換臉色情議題,請見鏡週刊的調查報導:臉被偷走之後:無法可管的數位性暴力?台灣 Deepfake 事件獨家報導
贊助 READr 一起媒體實驗改革

引用資料

  1. 此篇報導希望蒐集迄今發生的 Deepfake 事件,暸解 Deepfake 假訊息的發展和影響。主要資料為全球受 IFCN(International Fact-Checking Network,國際事實查核組織聯盟)認證的事實查核組織網站中提到 Deepfake 的文章,人工確認它是否屬於事實查核報告,並標記事件的主題、類型、識假方式等
  2. Deepfake 的應用有很多,但只要有人相信、或在網路上被廣傳,就會成為事實查核組織查核的目標,這是我們選擇事實查核組織當作研究範疇的原因。但此資料也會受到事實查核組織成立時間的影響(例如該國曾經有發生過 Deepfake 事件,但當時還沒有相關組織),故有額外再透過相關研究報告(Deeptrace 2019 年製作的 Deepfake 調查報告)、書籍(妮娜・敘克《深度造假》)提到的案例補足資料庫。
  3. 此篇報導的 Deepfake 假訊息定義是指「深度學習(Deep learning)」加上「造假(Fake)」,也就是利用人工智能計算資料,在全新的環境中生成和原始素材相似的內容。不只是「換臉」(將一個人的臉部或身體替換成其他人),用同樣方式生成的聲音、圖片也在範圍內。
  4. 唯一的例外來自報導中提到的「騙子的紅利」。為了探討這個現象發生的頻率,我們收錄了 8 則最後確認是真實的、卻被質疑是 Deepfake 的內容,以「特殊案例」的標籤標註。
相關報導
最新報導