國內大選剛剛結束,但在選前網路瘋傳一支使用DeepFake(深層假冒,或簡稱深假) 技術所偽造的影片,畫面中出現了貌似特定台灣總統候選人與知名港星的演出,但實際上相關人士並沒有參與影片。其實,類似的造假名人影片,早在2017年就由華盛頓大學研究團隊發表,當時該團隊僅分析17小時的真實演講影片,就將受害者美國歐巴馬前總統,偽冒達到惟妙惟肖的成果。有鑒於此,國際上已有多個先進國家將稱「深假技術」透過社群媒體大量散佈,可能影響選舉結果視為「國家級風險」!

「深假技術」是一種利用AI「深度學習演算法」技術所進行的偽造行為。隨著技術不斷的進步,基本上只要有足夠的人物影音素材來做學習,就可以輕易地偽造影片或聲音。KPMG安侯企管公司數位科技安全服務執行副總經理謝昀澤解釋,「深假影片」已經可以做到,「使用甲的臉孔,搭配乙的身材與動作,自然的講出丙說話的內容與口型」。謝昀澤認為,除了政治圈與媒體業非常關心的「假新聞」風險外,國際金融服務行業已經開始意識到這種風險的潛在衝擊。特別是在近期配合FinTech推動的各種生物識別方式(例如:刷臉、聲紋等),都將面臨到遭到「深假技術」欺詐的可能性。隨著「深假技術」日益提高的風險,KPMG提出以下幾項資安示警,必須特別加以留意:

1.生物識別即將無法完全信任

可以相信自己眼睛當證據的時代即將結束,若沒有運用適當的技術協助識別偽造品,將來所有移動和靜止的圖像,甚至連部分生物識別的結果都會造成錯誤。這將對FinTech將帶來結構性的挑戰,因為一切的金融數位服務,都基於數位身分識別,一旦生物識別的結果無法完全信任,所有構築在上的新興服務都將隨之崩解。因此,未來的金融產業的新興服務,將越來越依靠更新更先進的技術來防護。

2.金融欺詐技術門檻越來越低

華爾街日報曾報導,已發生以AI合成語音冒充母公司高階管理階層經由電話取得員工信任,成功詐騙之實際案例。而隨着AI技術的日益成熟,甚至有學者表示,即使聲音樣本不是來自本人,透過AI的學習與訓練,仍可能產生與真人聲音相似的語音。國外也發現有網路犯罪集團在商業環境中部署了「深假技術」的陷阱,這使得金融產業在提供未來個人理財服務時,必須特別加以關注,因為DeepFake的圖像可能會騙過臉部識別或是聲紋辨識的技術,而這種技術將越來越普遍,更不能排除在暗網中出現DeepFake as a Service的「黑」服務。以現有技術而言,集兩小時聲音資訊即可偽冒特定人士口音與語調,集三萬手寫字更可偽冒手寫信,企業必須正視此類威脅積極面對。

在金管會的推動下,2020年台灣消費金融將邁入開放銀行(Open Banking)元年、純網路銀行元年、及證券型代幣發行(STO)元年,各項令台灣民眾期待的新金融服務應用將陸續上路。KPMG安侯企管公司數位科技安全服務副總經理邱述琛認為,雖然這些新服務都透過前瞻的強認證方法,但也不是絕對零風險,特別是惡意駭客可能使用「深假技術」技術試圖欺詐消費者或金融業者。邱述琛特別提醒,2020年企業必須審慎評估面臨之風險並視當調整新興數位科技的預算配比,千萬不要只投資在應用面,還要投資在技術防護。企業必須以具備「AI人工智慧」能力的防護工具、或「MFA多因子認證」來對抗「深假技術」,才能讓未來的新興應用建立在安全的基礎,進而營造讓客戶「有信任感的沉浸式」服務。

針對一般科技使用者而言,民眾可能會開始擔心,「深假技術」被惡意駭客使用後,拍照雙指比YA或豎拇指比讚,指紋會不會在高解析照片中被截取複製而「洩漏身分驗證資料」?謝昀澤說明,過去國外實驗室曾成功進行相關實驗,但是破解案例暫時還不普遍,民眾除了選擇安全可靠的科技應用廠商或服務外,對自己資料於網路(特別是社群)暴露的敏感度更應該提高,對保護個人手機與安全使用的知識也要強化。對於經過「深假」後被不當傳播的影音資料,謝昀澤解釋,部分影音平台已經開始使用真偽辨識技術來試圖預先偵測經過變造的內容,但民眾自己在瀏覽相關影音時,也要有風險意識,了解過去的「有圖有真相」,在人工智慧遭惡意使用後,可能會變成「看片都上當」。因此必要時,應從可靠管道加以查證各種網路傳播內容。