歐洲理事會(Council of Europe, CoE)於2024年5月所發布的《人工智慧與人權、民主和法治架構公約》(Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law,以下簡稱為《人工智慧架構公約》),即將於同年9月5日在立陶宛開放簽署。作為第一則具有約束力的AI國際公約,《人工智慧架構公約》究竟有什麼目標,具體規範又是什麼,本文以下將針對本公約進行重點說明。
《人工智慧架構公約》的宗旨──符合人權、民主和法治的AI系統
誠如其名,《人工智慧架構公約》的宗旨在確保AI系統符合人權、民主及法治的要求。不論是公權力主體抑或是私人、AI系統生命週期中的任何階段,以及任何行為或活動,均須遵守之。進一步而言,締約方應採取適當措施,不論是透過行政、立法、司法或其他方式,以緩解風險並減少AI系統所帶來的不良影響。同時,締約方也必須在簽署本公約後2年內,向締約方會議報告其將如何具體實踐本公約之意旨。
不過,《人工智慧架構公約》也保留了一定的彈性空間,在符合國際法的前提下,締約方藉由AI保護國家安全利益的行為,並不受本公約的拘束。
AI行為的基本原則
《人工智慧架構公約》也規定了數項AI行為的基本原則,締約方必須在合於內國法體制與本公約的前提下,盡可能遵守並具體實現前述原則。包含:
AI行為均應尊重人格尊嚴和個人自主權;
AI行為都應該維持適當的透明度,並視情形與風險制定妥適的監督機制;
AI行為若違反本公約的宗旨,也就是對人權、民主及法治產生負面影響時,應有充分的問責機制;
AI行為應遵守國際法或國內法所規定的平等及禁止歧視,並積極消弭不平等現象;
AI行為必須依照國際法與國內法之相關規定與框架,提供有效的個人隱私與個資保護措施;
各國應盡可能提升AI的可靠性及可信度,促進AI的品質與安全性;
在不會對人權、民主和法治產生負面影響,並且有主管機關監督的前提下,締約方應盡可能創造一個可控的場域,供AI開發、實驗與測試所用,以促進創新。
而為確保宗旨及基本原則的落實,締約方亦應建立風險評估緩解機制(例如在首次使用AI系統,或進行重大變更時,應先進行測試,以及考量相關利害關係人的不同觀點),並對不同程度的風險或潛在影響進行分級。
受AI行為侵害時的救濟
締約方必須於國際法與國內法的範圍內,確保受AI行為侵害之人權可獲得有效救濟。具體而言,《人工智慧架構公約》在救濟上,締約方除了應確保救濟途徑的有效性外,更要求締約方保存侵害人權的相關資料,以利有關單位得作為參考及依據。並在適當情形下,提供相關資訊給受侵害之人,以確保其對侵害行為,甚至是對AI系統本身提起救濟。
公眾諮詢與締約方會議
締約方應盡可能促使公眾參與,並充分考量多方利害關係人在社會、經濟、法律、道德、環境以及其他相關議題上的影響。此外,締約方代表應組成締約方會議,審議本公約的解釋適用、建議、補充、修正,或促進交流與解決紛爭,並且在利害關係人適用本公約以及進行合作時,得適時舉行公聽會。
小結
其實,不論是歐盟的AI法,或者是美國的AI行政命令,都不斷重複強調AI必須維護個人權益的安全性,並確保AI的風險可受控制。當然,作為國際公約,《人工智慧架構公約》仍維持在原則性、方針性的效力,而僅設下一定的底限。但,這也使得各國或各締約方具體如何實踐本公約的精神,以及AI科技的創新與發展,保有一定自由發揮的空間。
資料來源:
編輯:林煒鎔、黃皓羽
Comments