AI 模仿你的聲音,只要 10 秒!小心 AI 聲音克隆詐騙正在你身邊

AI 模仿你的聲音,只要 10 秒!小心 AI 聲音克隆詐騙正在你身邊

現在詐騙手法日新月異,其中一種讓人防不勝防的詐騙方式,就是利用 AI 聲音克隆技術。許多民眾接到來電時,可能基於禮貌或習慣,會隨口應答,卻不知道這樣可能正在「餵聲音」給詐騙集團使用。本文將說明 為何陌生電話不要亂說話,並深入解析 AI 聲音複製(Voice Cloning) 是如何被詐騙集團濫用,以及我們該如何防範。


一、為何陌生來電不要亂說話?

陌生電話有時來自銀行、快遞、甚至聲稱是政府單位,但其實往往是假冒的詐騙電話。這類來電的目的可能包括:

  • 詢問個人資料(姓名、身分證字號、地址等)

  • 誘導你說「是」、「我在」等語句

  • 試探是否可以取得你清晰的語音樣本

一旦你開口說話,就可能提供足夠的聲音素材,讓詐騙者使用 AI 技術複製你的聲音。這些語音樣本甚至不用太多,只要 3 到 10 秒的語音,就有機會被用於訓練 AI 模型,模仿你的語調、語氣,甚至情緒,做出以假亂真的聲音。


二、什麼是 AI 聲音克隆?為何它成為詐騙工具?

AI 聲音克隆(Voice Cloning)是透過深度學習模型(如語音合成技術 Text-to-Speech 或 Voice Conversion),在收集到足夠語音樣本後,能夠合成出與特定個體語音幾乎一模一樣的聲音。

這項技術原本是為輔助殘障者、影音製作或虛擬人物設計而研發的,但也成為了詐騙集團的新工具。他們會用這種方式進行:

❶ AI 假聲詐騙(AI Voice Scam)

冒充你的聲音打給家人、朋友,謊稱自己出事、被綁架、急需匯款等。

❷ 假冒長官或主管

模仿公司主管的聲音,指示員工轉帳、購買禮品卡等。


三、真實案例

在 2023 年,多起案例指出:

  • 有民眾接到一通電話,只說了「喂,我在」,結果詐騙者用他的聲音模擬了一通求救語音,打給他的父母,聲稱被綁架,要贖金。

  • 某企業會計接到聲音酷似老闆的電話指示轉帳,匯出上百萬後才發現遭詐。


四、防範方式與自保守則

1. 接到陌生電話,避免主動開口講話

  • 如果懷疑是詐騙,不要說「是」、「我在」、「對」等確認語句

  • 可直接掛斷或使用文字回覆。

2. 開啟手機防詐功能

  • 現在多數手機內建或支援防詐軟體。

3. 認人不認聲

  • 親友之間可建立「口令碼」、「獨特暱稱」或「緊急聯絡方式」作為驗證手段。

  • 不因語音相似就輕易信任來電者。

4. 公司內部建立嚴謹的金流流程

  • 所有轉帳、匯款指示應經過書面、雙重身分驗證流程。

5. 教育長輩與兒童

  • 提醒他們「聲音也可以造假」,不要因聽起來像就輕易相信。尤其是長輩,他們的認知裡沒有AI克隆聲音的這種概念,因此他們不會覺得來電者是AI的假聲音。就像小編的的長輩一樣,有時會拿一些戰爭的遊戲畫面的影片片段來跟我說,最近XXX地方發生了戰爭用的是超高科技的武器之類的,結果小編一看,這不是遊戲畫面嗎? 一眼假的東西怎麼會相信,但深想後才明白那是因為我們經常接觸,所以可以一眼認出來,但對於沒見過的人來說,他們不會聯想到有可能是假的。(像現在很紅的AI美女影片也是一樣的)