5月30日,新加坡副总理王瑞杰(Hang Swee Keat)在第四届新加坡科技与技术展上宣布,新加坡发布了针对生成式人工智能的模型治理框架(Model Governance Framework for Generative AI) 。

生成式人工智能,与传统人工智能通常只能分析给定数据不同,它能够利用大量数据自行生成内容。然而,2019年颁布的现行框架仅涵盖传统的人工智能。
自2022年底以来,生成式人工智能(gen AI)因其能快速生成逼真内容而风靡全球,却也加剧了虚假信息问题。在全球对抗虚假信息的斗争中,如何使得内容生成地点和生成方式透明化至关重要。王瑞杰在会上提到,良好的治理至关重要。有了正确的保护措施,我们才能为安全、负责的创新创造条件,该框架也正是旨在解决人们对这项新兴技术的担忧。
新的框架所依据的理念来自于 IMDA 2023年关于生成式人工智能的讨论文件,同时也借鉴了与研究人员和人工智能组织讨论反馈的国际意见。该框架由 AI Verify Foundation 和 Infocomm媒体发展局(IMDA)共同开发,确定了9个可以加强人工智能治理的领域——包括人工智能问责制度、用于人工智能训练的可信数据和内容来源等等。例如,人工智能往往利用大量数据,所以在可信数据方面,该框架要求政策制定者详细说明现有的个人数据法如何适用于生成式人工智能。
该框架是与包括微软、谷歌、美国商务部在内大约70家企业与机构磋商后敲定的,确保在实现监管人工智能的同时,也能促进人工智能创新。
该框架重点内容如下:
1. “内容出处”是潜在需要关注的问题,它指出由于人工智能能够快速生成逼真内容,所以对于人们愈发难以识别出人工智能生成的内容。
2. 监管机构有必要与人工智能技术开发方合作,用数字水印和加密来源等方式标记人工智能创建或修改的内容,以此来追踪数字内容的来源。
3. 建议政府与社区共同合作,建立与其特定环境相关的训练数据库,例如建立低资源语言或者稀缺语言(low resource languages)数据库,整合在网络上并没有普及或者完全呈现的语言资源。这将促进人工智能更加广泛的应用。
4. 该框架将与国际人工智能原则保持一致,例如2023年七国峰会(2023 Group of Seven summit)期间宣布的广岛人工智能进程(Hiroshima AI Process),该进程呼吁制定互操作性的人工智能治理框架全球标准。

