從在社交媒體平台選擇我們愛看的內容,到依賴旅遊和地圖APP來避免交通擁堵——AI已成為我們日常生活中的主要內容。
但是,鑒於人工智慧有可能影響人們的決策,因此如何監管人工智慧,以及監管和控制人工智慧的哪些方面仍然存在很多爭論。
新加坡國立大學法學院院長Simon Chesterman教授在他的新書《我們,機器人?》的發布會上發表講話,研究了現行法律如何處理人工智慧以及需要哪些其他規則和機構來管理人工智慧。
We,the robots?
新加坡國立大學法學院院長Simon Chesterman教授在他的新書《我們,機器人?》的發布會上發表講話,研究了現行法律如何處理人工智慧以及需要哪些其他規則和機構來管理人工智慧。
Simon Chesterman教授說:「如果儘早監管,那麼監管成本就會很低。但問題是我們並不能確切知道試圖防止的危害是什麼。繼續等待的風險是人工智慧帶來的危害可能變得更加清楚,但成本也會增加。」
在11月2日 NUS Law 活動出席的幾位專家也分享了他們對這個主題的見解。

對人工智慧發表看法的專家包括(左上角,順時針方向)
來自新加坡國立大學研究與技術學院的Chen Tsuhan教授、
新加坡國立大學法學院的 Simon Chesterman 教授、
來自信息通信媒體發展局的 Yeong Zee Kin 先生
來自微軟的 Sunita Kannan 女士。
我們想防止什麼危害?
信息通信媒體發展局的數據保護與創新部門的執行長助理,Yeong Zee Kin 先生說:「要解決問題,你必須首先定義這個問題。只有這樣才能確定政策目標並制定正確的干預形式。」
但其中一個障礙是缺乏來自現實世界案例的數據。「擁有足夠的數據實際上讓我們更好地了解現實世界的問題是什麼,這是必要的第一步。」

Facebook 亞太地區隱私和公共政策經理 Arianne Jimenez 女士
Facebook 亞太地區隱私和公共政策經理 Arianne Jimenez 女士認為,良好的人工智慧監管應該考慮所涉及的風險。規則應該旨在控制最大的可能威脅,而不是試圖防止理論上每一個無論其規模大小的傷害。「所以簡單地說,較低的風險應該受到較少的監管或不太嚴格的要求,但人工智慧的高風險使用應該受到更嚴格的監管要求。」
該怎麼解決問題
微軟亞洲數據與人工智慧解決方案主管 (APJ & ANZ) Sunita Kannan 女士表示,雖然人工智慧系統能夠自行做出決定,但人類不能使人工智慧完全脫離控制,尤其是在涉及生死的關鍵問題上。
她指出:「機器將能夠接受我們設置的任何內容並執行整個過程。但如果在整個過程中出現了一些意外,那就是人需要介入的地方。」

愛沙尼亞塔林理工大學的 Tanel Kerikmae 教授
當談到應如何制定人工智慧法律時,愛沙尼亞塔林理工大學的 Tanel Kerikmae 教授表示,針對特定行業制定不同的規則可能更有效。
他分享說,愛沙尼亞對人工智慧進行監管的多次嘗試都失敗了,主要是由於各個法律部門使用的法律語言存在差異,以及普通公民和律師對某些詞語的理解存在差異。
AI是有害的還是有益的?
根據世界經濟論壇的「2020 年未來就業報告」,人工智慧預計到 2025 年將在全球範圍內取代 8500 萬個工作崗位,但該報告表示,AI還將在同一時間段內創造 9700 萬個新工作崗位。
曾有面部識別技術錯誤地將無辜者識別為罪犯的案例。但與此同時,圖像識別技術幫助醫生做出更準確的診斷。
新加坡國立大學副校長(研究與技術)Chen Tsuhan教授承認,使用人工智慧會產生意想不到的影響。以人工智慧推薦系統為例,在定製用戶體驗的過程中,他們在不斷推送用戶感興趣的書籍、新聞和其他形式的內容時,與此同時也限制了用戶的閱覽範圍。隨著個人的視角變得狹窄,這可能導致社會更加分裂。
但Chen Tsuhan教授樂觀地認為事情可以扭轉。例如,可以對推薦系統進行微調,以鼓勵用戶遊覽其偏好之外的內容。隨著時間的推移,這可以打開人們的思想並使社會更加緊密地聯繫在一起。
他笑著說:「我真的相信人工智慧是有益的。」
本文圖片均來自NUS
