5月30日,新加坡副總理王瑞傑(Hang Swee Keat)在第四屆新加坡科技與技術展上宣布,新加坡發布了針對生成式人工智慧的模型治理框架(Model Governance Framework for Generative AI) 。

生成式人工智慧,與傳統人工智慧通常只能分析給定數據不同,它能夠利用大量數據自行生成內容。然而,2019年頒布的現行框架僅涵蓋傳統的人工智慧。
自2022年底以來,生成式人工智慧(gen AI)因其能快速生成逼真內容而風靡全球,卻也加劇了虛假信息問題。在全球對抗虛假信息的鬥爭中,如何使得內容生成地點和生成方式透明化至關重要。王瑞傑在會上提到,良好的治理至關重要。有了正確的保護措施,我們才能為安全、負責的創新創造條件,該框架也正是旨在解決人們對這項新興技術的擔憂。
新的框架所依據的理念來自於 IMDA 2023年關於生成式人工智慧的討論文件,同時也借鑑了與研究人員和人工智慧組織討論反饋的國際意見。該框架由 AI Verify Foundation 和 Infocomm媒體發展局(IMDA)共同開發,確定了9個可以加強人工智慧治理的領域——包括人工智慧問責制度、用於人工智慧訓練的可信數據和內容來源等等。例如,人工智慧往往利用大量數據,所以在可信數據方面,該框架要求政策制定者詳細說明現有的個人數據法如何適用於生成式人工智慧。
該框架是與包括微軟、谷歌、美國商務部在內大約70家企業與機構磋商後敲定的,確保在實現監管人工智慧的同時,也能促進人工智慧創新。
該框架重點內容如下:
1. 「內容出處」是潛在需要關注的問題,它指出由於人工智慧能夠快速生成逼真內容,所以對於人們愈發難以識別出人工智慧生成的內容。
2. 監管機構有必要與人工智慧技術開發方合作,用數字水印和加密來源等方式標記人工智慧創建或修改的內容,以此來追蹤數字內容的來源。
3. 建議政府與社區共同合作,建立與其特定環境相關的訓練資料庫,例如建立低資源語言或者稀缺語言(low resource languages)資料庫,整合在網絡上並沒有普及或者完全呈現的語言資源。這將促進人工智慧更加廣泛的應用。
4. 該框架將與國際人工智慧原則保持一致,例如2023年七國峰會(2023 Group of Seven summit)期間宣布的廣島人工智慧進程(Hiroshima AI Process),該進程呼籲制定互操作性的人工智慧治理框架全球標準。

