老高建立了一個實驗性的 Youtube 頻道 Mr Tabby Tales 證明瞭只要會使用 AI 就能製作以假亂真的短影音實現財富自由?!他利用生成 AI 生產出的貓抓老鼠系列影片,僅上傳 12 支影片就吸引到 38 萬訂閱戶,這也暴露出一個問題,網路媒體上充斥著假新聞訊息和與造假影片,這些短片製作越來越精細,要如何判斷真假?日媒採訪一間新創公司發表最新的 AI 技術檢測分析影片的造假可能性,可以說是以 AI 牽制 AI,讓生成 AI 不落入歹徒手中變成詐騙工具。
生成 AI 加速短影音製片流程、影片細緻真假難辨
生成式人工智慧(Generative AI)快速發展,過往複雜的影音製作變得快速簡單,擁有六百萬訂閱戶的 Youtuber 老高,最近用生成式 AI 製作了一系列貓抓老鼠的短影音,他透過 AI 創作展現只要運用得當,可以輕鬆製作出高流量的影片吸引觀眾,甚至可能短期實現財富自由!
然而這類短影音太容易在網路流傳,影片精緻程度使得觀眾難以分辨真假,如果用於詐騙犯罪或是散播謠言,也可能以假亂真被民眾誤信,造成損失。
日本公司 NABLAS 的創新技術以 AI 制衡 AI
針對生成 AI 可能助長大量造假的問題,日本的 NABLAS 公司正開發一種先進的 AI 技術,專門用來識別檢測 AI 生成的假影片。NABLAS 的系統透過分析影片中的細節,檢查影片在生成過程中可能所產生的非自然動作與不連貫性。
工作原理為先運用 AI 將影片分解為一系列的影像,將每幀影像畫面數位化後進行逐幀分析,接著系統檢查影像裡不自然的動作,即影片中出現的微小錯位節點,這通常是生成式 AI 在製作過程中無法避免的瑕疵。
NABLAS 的總監鈴木宮尾指出當人工智慧生成每個場景時,影像會出現錯位,從而產生不自然的節點,這些細微的不自然之處,正是識別假影片的關鍵。
更重要的是,該技術還會檢查影片中的人物,特別是他們的臉部是否經過 AI 處理。生成式 AI 常常會無意間留下人工修改的痕跡,這些可以被專門設計的 AI 系統發現。
在實際操作中,NABLAS 的系統能夠對影片進行詳細檢測,在一段 AI 生成的影片中,AI 將其圖像分解並檢查影片的開頭,結果顯示該影片經過生成式 AI 編輯,偽造的可能性高達 94 %。
鈴木宮尾表示,NABLAS 計劃於本月底正式啟用這項技術,這項技術的推出,將有助於提高公眾對虛假影片的警覺性,有效遏制假信息的傳播。
AI 的應用已經深入日常生活,生成式 AI 為當前科技的焦點,不僅要學會運用 AI 工具來輔助創作與日常生活,還需要有相應的技術來保障信息的真實性。
鈴木宮尾強調開發這項技術的初衷是為了確保 AI 的合理使用,他指出生成 AI 和假訊息可能會在各種場合出現,社會需要認真處理影片造假充斥氾濫的問題,NABLAS 公司的目標是將這項技術應用在更多領域,幫助用戶辨識假影片,促進 AI 科技的正確使用。
這篇文章 AI 假影片教你財富自由?日本公司發表最新技術辨別造假動畫、以 AI 制 AI 最早出現於 鏈新聞 ABMedia。