歐盟:AI道德指南,具備三條件及七要件 - 工程師
By Todd Johnson
at 2019-04-24T09:15
at 2019-04-24T09:15
Table of Contents
歐盟:AI道德指南,具備三條件及七要件
http://bit.ly/2XF5vX7
歐盟(EU)繼2018年12月首次草案(透過公開資訊收集超過500項意見)發布以後,AI高級
專家小組於2019年4月8日發表了可信賴的AI道德指南(ETHICS GUIDELINES FOR
TRUSTWORTHY AI)。
根據規範內容,可信賴的AI應具備以下條件:
(1)依法:須尊重所有適用法令及法條 (lawful - respecting all applicable laws
and regulations)
(2)合乎正道:須尊重普世道德及價值 (ethical - respecting ethical principles
and values)
(3)堅固耐用:技術發展同時仍應考量社會環境 (robust - both from a technical
perspective while taking into account its social environment)
該指南條列出了未來AI系統應該滿足的7項關鍵要件,並提供詳細評估表以協助驗證:
人類自主性(Human agency)及監督:AI系統應幫助人類做出明智的決定及培養基本權利
;與此同時,也必須提供適當的監督機制,人們不應該被AI系統操縱或強迫,人類要有能
力干預或監督軟體所做的每一個決策。AI不應該踐踏人類的自主性。
技術穩健性及安全性:AI系統應具彈性及安全性,AI必須是安全的,確保意外狀況發生時
還有備案,並同時保持準確、可靠且數據可重現(reproducible)。這是唯一能確保將意
外降到最低並預防發生的方法。
隱私權及數據治理:除確保全方位的尊重隱私權及數據保護,還必須確認有適當的數據治
理機制,並將數據的質量及完整性皆納入考量,同時確保數據訪問的合法性。
透明度:數據、系統及AI營運模式應透明化,追溯機制可幫助達成以上要求。另外,AI系
統之利益相關者應該要能解釋AI系統及其所下之決定。人類一定要意識到,與他們互動的
是AI系統,並且必須清楚告知AI的能力及限制。
多元性、無差別待遇及公正性:不公正之偏見行為可能導致多種負面影響,如邊緣化弱勢
團體及更多歧視行為,務必要避免。為促進多元性,AI系統應可接受所有人來使用,不因
其是否殘疾而受限,並在整個產品生命週期中都應將其相關利益關係者納入。
社會及環境福祉:AI系統應使全人類受益,包含未來世代。必須確保其永續性及環境友善
,此外,應該將環境議題也納入考量,包含其他物種以及其他物種的社會及社會影響都應
審慎思考。
責任歸屬:應建立機制以確保AI系統及其結果的權責及責任歸屬問題。特別是在重要應用
中,具可稽核性使我們能夠評估演算法、數據和設計過程在其中起的關鍵作用。此外,也
應確保足夠的無障礙補救措施。
後續將先建一套試點的操作流程
預計將建立一套試點操作流程,以便收集(操作時的關鍵要素)評估列表上的實際回饋,
並能夠藉此進行改善。所有利害關係人都可以參與,預計於2019年夏季推出試點操作流程
。
還會設立了一個論壇,促進可信賴AI實施的最佳做法之間的意見交流。
在試點階段收到反饋意見後,AI高級專家小組將在2020年初審閱關鍵要素的評估清單,並
根據這項審查,委員會將評估結果並提出下一後續步驟。
有關該指南文件的相關信息以及審查評估清單的後續步驟,可參閱歐盟網站。
--
http://bit.ly/2XF5vX7
歐盟(EU)繼2018年12月首次草案(透過公開資訊收集超過500項意見)發布以後,AI高級
專家小組於2019年4月8日發表了可信賴的AI道德指南(ETHICS GUIDELINES FOR
TRUSTWORTHY AI)。
根據規範內容,可信賴的AI應具備以下條件:
(1)依法:須尊重所有適用法令及法條 (lawful - respecting all applicable laws
and regulations)
(2)合乎正道:須尊重普世道德及價值 (ethical - respecting ethical principles
and values)
(3)堅固耐用:技術發展同時仍應考量社會環境 (robust - both from a technical
perspective while taking into account its social environment)
該指南條列出了未來AI系統應該滿足的7項關鍵要件,並提供詳細評估表以協助驗證:
人類自主性(Human agency)及監督:AI系統應幫助人類做出明智的決定及培養基本權利
;與此同時,也必須提供適當的監督機制,人們不應該被AI系統操縱或強迫,人類要有能
力干預或監督軟體所做的每一個決策。AI不應該踐踏人類的自主性。
技術穩健性及安全性:AI系統應具彈性及安全性,AI必須是安全的,確保意外狀況發生時
還有備案,並同時保持準確、可靠且數據可重現(reproducible)。這是唯一能確保將意
外降到最低並預防發生的方法。
隱私權及數據治理:除確保全方位的尊重隱私權及數據保護,還必須確認有適當的數據治
理機制,並將數據的質量及完整性皆納入考量,同時確保數據訪問的合法性。
透明度:數據、系統及AI營運模式應透明化,追溯機制可幫助達成以上要求。另外,AI系
統之利益相關者應該要能解釋AI系統及其所下之決定。人類一定要意識到,與他們互動的
是AI系統,並且必須清楚告知AI的能力及限制。
多元性、無差別待遇及公正性:不公正之偏見行為可能導致多種負面影響,如邊緣化弱勢
團體及更多歧視行為,務必要避免。為促進多元性,AI系統應可接受所有人來使用,不因
其是否殘疾而受限,並在整個產品生命週期中都應將其相關利益關係者納入。
社會及環境福祉:AI系統應使全人類受益,包含未來世代。必須確保其永續性及環境友善
,此外,應該將環境議題也納入考量,包含其他物種以及其他物種的社會及社會影響都應
審慎思考。
責任歸屬:應建立機制以確保AI系統及其結果的權責及責任歸屬問題。特別是在重要應用
中,具可稽核性使我們能夠評估演算法、數據和設計過程在其中起的關鍵作用。此外,也
應確保足夠的無障礙補救措施。
後續將先建一套試點的操作流程
預計將建立一套試點操作流程,以便收集(操作時的關鍵要素)評估列表上的實際回饋,
並能夠藉此進行改善。所有利害關係人都可以參與,預計於2019年夏季推出試點操作流程
。
還會設立了一個論壇,促進可信賴AI實施的最佳做法之間的意見交流。
在試點階段收到反饋意見後,AI高級專家小組將在2020年初審閱關鍵要素的評估清單,並
根據這項審查,委員會將評估結果並提出下一後續步驟。
有關該指南文件的相關信息以及審查評估清單的後續步驟,可參閱歐盟網站。
--
Tags:
工程師
All Comments
By Ivy
at 2019-04-25T05:06
at 2019-04-25T05:06
By Rosalind
at 2019-04-25T10:51
at 2019-04-25T10:51
By Carolina Franco
at 2019-04-27T12:24
at 2019-04-27T12:24
By Kelly
at 2019-05-01T08:38
at 2019-05-01T08:38
By Regina
at 2019-05-05T03:25
at 2019-05-05T03:25
By Leila
at 2019-05-08T23:43
at 2019-05-08T23:43
By Olga
at 2019-05-09T08:52
at 2019-05-09T08:52
By Quintina
at 2019-05-13T15:20
at 2019-05-13T15:20
By Bethany
at 2019-05-15T21:01
at 2019-05-15T21:01
By Xanthe
at 2019-05-19T21:24
at 2019-05-19T21:24
By Candice
at 2019-05-20T18:01
at 2019-05-20T18:01
By Necoo
at 2019-05-22T09:05
at 2019-05-22T09:05
By Audriana
at 2019-05-26T09:51
at 2019-05-26T09:51
By Zanna
at 2019-05-29T12:01
at 2019-05-29T12:01
Related Posts
第三代AirPods增抗噪功能 趕年底聖誕節
By Isabella
at 2019-04-24T07:55
at 2019-04-24T07:55
CS新鮮人面試心得
By Dora
at 2019-04-24T01:47
at 2019-04-24T01:47
請問薪資不能接受就沒辦法再議了嗎?
By Rebecca
at 2019-04-24T00:22
at 2019-04-24T00:22
馬斯克說設計出最強自駕晶片,Nvidia 不
By Charlotte
at 2019-04-23T23:51
at 2019-04-23T23:51
有人後悔進入科技業嗎
By Hardy
at 2019-04-23T23:05
at 2019-04-23T23:05