讓人工智慧按聯合國人權宣言做出和合乎倫理道德的決定

20191113

 

人工智慧(AI)被廣泛定義為允許機器執行過去只有人才能完成之任務的技術。然而,隨著技術的不斷進步,人們越來越多談論如何確保機器不僅可以做出決定,而且可以做出合乎倫理道德的決定。

在史丹福大學舉行的一場有關人工智慧倫理的會議上,專家們表示,人工智慧正越來越多代替人類做決定,從駕駛汽車、抗擊疾病,到幫助人們整理互聯網上的資訊。

但他們表示,隨著人工智慧變得越來越聰明,程式師需要確保人工智慧程式學會保護人類的價值。

 

許多人認為將聯合國的《世界人權宣言》納入人工智慧程式設計是一個不錯的辦法。

前美國駐聯合國人權理事會大使愛琳·多納霍說:“我們有一個可以參照的原則框架,即現有的國際人權框架。”

1948年的《世界人權宣言》列出了一系列基本條款,其中包括生命權、自由、譴責奴隸制和酷刑等。

 

愛琳·多納霍說:“這涉及到政府的法律義務以及私營部門的責任,包括保護並尊重人權,以及糾正侵犯人權的行為。”

但人工智慧領域的反對者表示,這項技術的好壞完全取決於程式設計人員。他們表示,對人工智慧程式設計的更多監管只會扼殺創新。其他人則持不同意見。

歐洲議會前議員馬傑·沙克說:“對它的爭論意味著創新比民主或法治更重要,後者是我們生活品質的基礎。事實上,我認為,今天一些對我們開放社會和開放互聯網的更嚴重挑戰,並不是來自於對技術的過多管理,而是管理不足。”

 

谷歌、臉書、百度和騰訊等公司對人工智慧技術的快速開發,遠遠超出監管範圍,暴露出假新聞、侵犯隱私、有偏見的人工智慧決策和自動化武器的危險等挑戰。

專家表示,確保人工智慧倫理實踐的全球治理框架是必要的。谷歌前首席執行長施密特等行業領軍人物認為需要進行更多的討論。

美國國家人工智慧安全委員會主席埃里克·施密特說:“我們來到這裡的根本原因,是希望進行公開辯論……我們希望確保我們正在建立的體系是以我們的價值觀、人類的價值觀為基礎的。”

 

但是誰來決定人類的價值觀呢? 這些專家表示,要確保將聯合國對人權的理解納入人工智慧的每一個決策,還有很長的路要走,才能確保一個安全和有保障的未來。”

 

source: 
美國之音