澳洲電子安全委員辦公室(eSafety Connissioner,下簡稱「eSafety」)於2024年9月4日要求Youtube、Facebook、Instagram、TikTok、Snap、Reddit、Discord以及Twitch等平臺揭露兒童保護的相關資訊,包含兒童使用者的數量以及平臺實際的偵測與處置措施。藉由要求平臺業者提供資訊,探討澳洲《線上安全法》年齡驗證機制的落實情況,並進一步瞭解平臺具體是如何準確地阻擋未達年齡的使用者,以及如何為符合年齡的使用者提供保護。這也是澳洲近期擴張eSafety向平臺業者請求資訊的範圍後,平臺業者必須維持政策或措施透明度的範例之一。
根據eSafety 先前的研究顯示,8歲至10歲的兒童中,約有四分之一每週或更頻繁地使用社群媒體,而11歲至13歲的兒童更有將近一半是每週使用。甚至近一年內在社群平臺上有看過吸毒、自殘或暴力等有害內容的14歲至17歲的青少年,更是高達三分之二,顯見兒童不斷地嘗試各種方法繞過現行機制。因此,eSafety認為應建置更有效地年齡驗證機制,以確保網路上的兒童保護措施能確實達成目標。
eSafety也在這次的新聞中表示,向平臺業者要求提供資訊,不單單只是瞭解什麼樣的措施更為有效,也是為了瞭解適用相關措施將會有什麼樣的後果。eSafety仍舊大力支持兒童的批判性思考與數位韌性,只不過這已不再只是兒童、家長和老師的議題,平台業者設計上也必須更加細心,確保所有的使用者在網路上都能夠更加安全。
小結
事實上,英國與澳洲對於《線上安全法》年齡驗證機制的推行,可以說是不遺餘力。不過,對網路世界不斷加深控管力度,是否確實能達到所謂的「保護網路安全」,一直是網路治理的熱門議題。不論是大小型的平臺業者技術法遵上是否能跟上監管的速度、驗證措施所伴隨的個資蒐集疑慮、自由使用網路甚至是言論自由的干預、兒童或青少年的資訊獲取權、家長或社會因監管措施而忽視素養培育或其他更重要的保護措施等等,都是年齡驗證措施背後所隱含的難題。
臺灣過往也曾嘗試對網路內容進行分級,透過相關過濾軟體的限制,避免兒少接觸限制級內容。而隨著時代變遷與法令的修訂、變動,臺灣也逐漸增加了平臺業者自律、安全宣導及申訴機制建立等方式,來促進兒少的網路安全。不過,網路分級制度則轉變為例示框架繼續存在,而未完全消失。澳洲的年齡驗證機制,確實具有相當重要且崇高的理想,但仍有許多細節值得回應。相信澳洲在維護網路安全、提升數位素養與享受網路便利的折衝權衡的經驗,將成為臺灣網路安全與網路治理的重要借鏡。
資料來源:
編輯:林煒鎔、黃皓羽
Comments