現在詐騙手法日新月異,其中一種讓人防不勝防的詐騙方式,就是利用 AI 聲音克隆技術。許多民眾接到來電時,可能基於禮貌或習慣,會隨口應答,卻不知道這樣可能正在「餵聲音」給詐騙集團使用。本文將說明 為何陌生電話不要亂說話,並深入解析 AI 聲音複製(Voice Cloning) 是如何被詐騙集團濫用,以及我們該如何防範。
一、為何陌生來電不要亂說話?
陌生電話有時來自銀行、快遞、甚至聲稱是政府單位,但其實往往是假冒的詐騙電話。這類來電的目的可能包括:
-
詢問個人資料(姓名、身分證字號、地址等)
-
誘導你說「是」、「我在」等語句
-
試探是否可以取得你清晰的語音樣本
一旦你開口說話,就可能提供足夠的聲音素材,讓詐騙者使用 AI 技術複製你的聲音。這些語音樣本甚至不用太多,只要 3 到 10 秒的語音,就有機會被用於訓練 AI 模型,模仿你的語調、語氣,甚至情緒,做出以假亂真的聲音。
二、什麼是 AI 聲音克隆?為何它成為詐騙工具?
AI 聲音克隆(Voice Cloning)是透過深度學習模型(如語音合成技術 Text-to-Speech 或 Voice Conversion),在收集到足夠語音樣本後,能夠合成出與特定個體語音幾乎一模一樣的聲音。
這項技術原本是為輔助殘障者、影音製作或虛擬人物設計而研發的,但也成為了詐騙集團的新工具。他們會用這種方式進行:
❶ AI 假聲詐騙(AI Voice Scam)
冒充你的聲音打給家人、朋友,謊稱自己出事、被綁架、急需匯款等。
❷ 假冒長官或主管
模仿公司主管的聲音,指示員工轉帳、購買禮品卡等。
三、真實案例
在 2023 年,多起案例指出:
-
有民眾接到一通電話,只說了「喂,我在」,結果詐騙者用他的聲音模擬了一通求救語音,打給他的父母,聲稱被綁架,要贖金。
-
某企業會計接到聲音酷似老闆的電話指示轉帳,匯出上百萬後才發現遭詐。
四、防範方式與自保守則
✅ 1. 接到陌生電話,避免主動開口講話
-
如果懷疑是詐騙,不要說「是」、「我在」、「對」等確認語句。
-
可直接掛斷或使用文字回覆。
✅ 2. 開啟手機防詐功能
-
現在多數手機內建或支援防詐軟體。
✅ 3. 認人不認聲
-
親友之間可建立「口令碼」、「獨特暱稱」或「緊急聯絡方式」作為驗證手段。
-
不因語音相似就輕易信任來電者。
✅ 4. 公司內部建立嚴謹的金流流程
-
所有轉帳、匯款指示應經過書面、雙重身分驗證流程。
✅ 5. 教育長輩與兒童
-
提醒他們「聲音也可以造假」,不要因聽起來像就輕易相信。尤其是長輩,他們的認知裡沒有AI克隆聲音的這種概念,因此他們不會覺得來電者是AI的假聲音。就像小編的的長輩一樣,有時會拿一些戰爭的遊戲畫面的影片片段來跟我說,最近XXX地方發生了戰爭用的是超高科技的武器之類的,結果小編一看,這不是遊戲畫面嗎? 一眼假的東西怎麼會相信,但深想後才明白那是因為我們經常接觸,所以可以一眼認出來,但對於沒見過的人來說,他們不會聯想到有可能是假的。(像現在很紅的AI美女影片也是一樣的)