新加坡社交媒體業者從7月18日起,必須遵守新的網際網路安全行為準則,遏制有害內容的傳播,以降低這類內容對新加坡本地用戶,尤其是兒童所構成的傷害。
新加坡資訊通信媒體發展局近日發表文告說,網際網路行為準則(Code of Practice for Online Safety)於7月18日生效,包括臉書(Facebook)、HardwareZone論壇、Instagram、TikTok、推特(Twitter)和YouTube在內的指定社交媒體業者,必須協助加強本地的網絡安全,抑制有害內容在它們的平台上散播開去。
網際網路行為準則(Code of Practice for Online Safety)所涵蓋的有害內容類別包括:性、暴力、自殺和自殘、網絡霸凌、危害公共健康以及助長色情活動和有組織犯罪的內容。
根據準則,業者必須提供工具,讓用戶能夠隱藏有害內容和不必要的互動、限制所在位置分享等。業者也應該為家長或監護人提供工具,管理孩子能看到的內容、能夠聯繫的對象等。
除了把本地用戶接觸到的有害內容降低到最低限度,指定社交媒體平台還必須為本地用戶提供有效和便於使用的舉報機制,來舉報有害內容和不必要的網絡互動,以及在它們的常年網絡安全報告中列出所實施的措施和平台的安全水平。業者也必須從明年下半年起,在新加坡資媒局網站公開網絡安全年度報告。
新加坡通訊及新聞部長兼內政部第二部長楊莉明在社交網站Facebook貼文表示,資媒局一直同Facebook、Instagram、TikTok等指定社交媒體服務業者合作,確保它們積極遏制有害的網上內容。不過,她認為,用戶也可以盡一份力,不要只是不理睬,更不要進一步傳播這類內容,而是要立即向平台舉報,並鼓勵他人也這麼做。這樣以來,新加坡人就能攜手創造一個安全的網絡空間。

關於網際網路行為準則如何保障用戶的相關問題解答
1.如果不想指定社交媒體平台上的公開帳戶收到陌生人發出的信息,該怎麼做?
社媒業者須為用戶提供工具來減少不必要的網絡互動,比如用戶可調整帳戶能見度,限制他人查看帳戶和聯繫用戶。社媒業者也須同時提供易於理解的工具使用說明。

2.少年用戶的社媒平台帳戶收到鼓吹飲食失調的動態消息,能怎麼處理?
為了給兒童額外保護,社媒業者須確保兒童不會成為目標,接收業者合理懷疑會傷害兒童身心健康的內容。該少年用戶可向業者舉報,讓業者刪除內容。業者須為用戶提供便捷的舉報機制,並讓用戶知道針對舉報所採取的行動,不許無故拖延。

3.網際網路行為準則是否規定為高風險或弱勢用戶——比如主動搜尋有關自殘和自殺內容的用戶——設置安全措施?
社媒平台須主動向那些搜尋自殘和自殺內容的用戶提供易懂的相關本地安全信息,包括個人安全或援助機構的相關信息。比如,平台應向搜尋自殺方式的用戶推送有關他可尋求援助的機構的信息。

4.網際網路行為準則如何保護兒童?
①為兒童提供有差別的帳戶,多數指定社媒平台已規定用戶必須滿13歲,用戶在註冊時須申報出生日期,社媒平台將對兒童持有的帳戶實行相關政策,包括審查內容;
②這些帳戶不應成為接收社媒業者合理懷疑會傷害兒童身心健康的廣告、贊助內容和內容推薦的目標;
③社媒平台須設有適用於兒童的社群準則,至少涵蓋色情、暴力、自殘和自殺,以及網絡霸凌的有害內容;
④為兒童提供易懂的網絡安全信息;
⑤社媒平台也可提供工具讓家長管理孩子可接觸的內容、帳戶能見度、何人可進行聯繫和交流,以及位置信息共享。

5.指定社媒平台為何須有社群準則?
社群準則清楚規定社媒平台允許和不允許的行為。個別業者可設置適用於平台用戶群和環境的社群準則,但必須涵蓋網際網路行為準則列出的有害內容。業者須執行社群準則,有效審查內容,包括刪除違反準則的內容,或屏蔽及禁止違反準則的用戶。

