隱私遠見論壇提出生成式AI治理之挑戰與建議報告
亞太地區國家似乎對人工智慧治理方針所見略同,惟仍有諸多部分尚待解決。尤其在地緣政治之相互作用下,亞太地區對生成式AI治理之政策方向若有過度分歧,勢必造成治理成效之影響。有鑑於此,本報告即提出數點建議,供亞太地區日後對生成式AI治理之參考:
對各國政策之建議:
-
避免政策分歧,確保國際政策框架之一致性和相互協調-
本報告發現,亞太地區國家多數仍無法將現有之治理框架適用至生成式AI中,國家之間亦缺乏對法律框架之交流,甚至主管機關亦可能未有權限處理生成式AI系統所生之議題。因此,各國於制定其AI治理政策時,當應與周遭國家乃至國際之框架相互協調,避免適用上致生扞格。
-
指導生成式AI相關產業應如何適用現行法令,以確保法安定性-
AI之相關產業適用並遵循現行法令,不僅可避免法令執行上產生疏漏,亦可藉由盤點現有法令重複規範之部分,簡化未來生成式AI之法遵流程。
對AI開發者之建議:
-
建立有效之AI治理模型,吻合亞太地區國家之政策方向-
由於各國對生成式AI之治理及風險管理甚為重視,倘相關業者得自行建立有效率之AI治理模型,包含法令遵循、風險評估、資安措施等均予考量,不僅將信於各國政府,亦將提升生成式AI負責任之創新發展。
-
建立有效之AI治理模型,有助於減緩偏見或歧視性內容之產生-
生成式AI所產生之偏見與歧視仍舊係無法忽視之風險,建議採取相關措施如:預訓練調教、盤點訓練資料妥適性、資料來源之追溯與可歸責、常態性審查資料、道德評估、使用合成數據等。
-
確保隱私政策與措施之發展,有助於提升公眾信任度-
基於生成式AI之訓練資料勢必與個資蒐集相關,針對個資之蒐集與使用,亦應盡可能採取保護措施,如:重新編輯與匿名化、進行資料影響評估、法令遵循、發布隱私政策、取得用戶同意等。雖無法完全避免個資外洩之可能,惟藉由保障個資不受侵害,提升公眾信任,亦將有助於生成式AI治理之推展。
-
提高系統安全性和透明度具有高度必要性,係亞太地區國家之共識-
不論是定期進行系統性測試、年齡驗證安全性措施,或明確標示(水印、標籤、指紋或雜湊值等)屬AI生成之內容、公開明確之隱私政策、闡明系統運作模式等透明度措施,不僅係亞太地區國家所重視,更可減少潛在傷害之產生。
資料來源:
paulger, D. (2024). Navigating Governance Frameworks for Generative AI Systems in the Asia-Pacific. The Future of Privacy Forum (FPF).
編輯:林煒鎔 黃皓羽
上一篇:美國國家標準暨技術研究院發布《人工智慧標準全球參與計畫》草稿並公開徵求意見