新加坡副總理Lawrence Wong被深度偽造視頻,近日在Facebook和Instagram上廣泛流傳。
在這個視頻中,副總理黃循財的嘴部被明顯修改,以與假冒的配音同步,該配音模仿了他真實聲音的音調和語調,視頻中還錯誤地使用了《海峽時報》的標誌。

Facebook 的視頻截圖 圖片來源:海峽時報
1. 報道關鍵信息
據報道,這段視頻是基於副總理黃循財在《海峽時報》的媒體門口採訪的錄像片段修改而成。
視頻中的副總理黃循財被偽造成正在推廣一項投資騙局。
SPH Media(新報業媒體)的一位發言人表示,這段視頻並非由該公司或《海峽時報》製作或發布。該發言人表示:「帶有海峽時報標誌的視頻在網上廣為流傳,其內容是副總理黃循財支持商業項目」
對於這段視頻,警方表示已經收到了相關報告。並且敦促公眾保持警惕,不要傳播來源不明的視頻。
同樣的在12月11日的Facebook帖子中,副總理黃循財表示他已經注意到這些深度偽造的騙局帖子和消息,這些內容錯誤地宣稱他在推廣產品,以及散布政府計劃實施新冠病毒封鎖的錯誤信息。
副總理黃說:「這些都是謊言,讓我們在網上保持警惕和洞察力」。

圖片來源:環球時報
2,深度偽造技術的擔憂
使用深度偽造技術來傳播虛假信息或欺騙受害者正成為一個日益增長的擔憂領域。
但技術發展的速度、生成式人工智慧程序成本的下降以及人們語音錄音在網際網路上的廣泛使用,為與語音相關的人工智慧詐騙創造了完美的條件。
新加坡國立大學副教授Terence Sim指出,深度偽造技術變得更容易使用。騙子只需要幾張目標的臉部照片(可以從社交媒體上獲取)就能創建深度偽造視頻。
與許多安全措施一樣,這是攻擊者和防禦者之間的一場軍備競賽 。詐騙者現在只需對著麥克風講話或輸入提示,即可將語音很快翻譯成目標的聲音。微軟的 Vall-E 生成式人工智慧系統僅使用三秒的採樣音頻,就可以說出用戶想要的任何內容。

來源:紐約時報
這起事件凸顯了深度偽造技術在現代社會中的潛在危害,特別是在社交媒體上的廣泛傳播。它提醒公眾保持警惕,對來源不明的視頻和信息進行質疑。
同時,這也表明了政府、媒體機構和公眾在識別和應對這類欺詐行為方面需要採取更加積極的措施。
參考資料:
1. Voice deepfakes are coming for your bank balance。海峽時報
2,Deepfake video of DPM Lawrence Wong promoting investment scam circulating on social media。海峽時報
