終結者成為現實?全自主武器的倫理挑戰

2015年09月19日星期六

人類對抗人工智慧機器軍團,是好萊塢科幻電影中經常出現的場景。在現實中,隨著人工智慧技術的不斷發展,這些技術也逐漸被應用於武器的研發與製造。一些人擔心,科幻電影中的想像成為現實,或許只是時間問題,而這種全自主式的機器人戰士,會給人類帶來倫理道德方面的威脅。
“自主(武器)的概念非常簡單直白,就是指一個能夠決定目標是什麼和殺什麼人的系統。” 加州大學伯克利分校電腦系教授斯圖特·羅素9月14日在華盛頓智庫新美國安全中心的一個討論會上說。
這位人工智慧專家說,完全自主的武器與無人機不同,而是更像電腦象棋,一旦啟動,不需要人類的指令就可以進行對弈。
有些人對人工智慧武器表示歡迎。他們認為,這種武器可以精確瞄準進攻目標,從而降低戰爭時人類的傷亡。
但是,人工智慧武器也引發道德、倫理和法律方面的爭議。有人擔心,這類武器可能會成為科幻電影中那樣的“終結者”。
新美國安全中心的高級研究員保羅·肖爾問道:“如果使用了智慧型武器,還會有人覺得要對殺戮負責嗎?”
今年7月,天體物理學家霍金、斯特拉公司CEO馬斯克,以及數百名科學家聯名簽署一封公開信,呼籲全球禁止人工智慧武器。公開信說,這類武器將會降低戰爭的門檻,如果任何軍事大國都推展人工智慧武器研發,全球軍備競賽終將不可避免。

一些支援這項倡議的人質疑,人工智慧武器是否能夠有效識別平民和軍事目標。他們還擔心,這些武器的材料容易獲得,還能透過重新程式設計和組裝進行改造,很可能會被無賴國家和恐怖分子非法利用。
美國國務院負責民主、人權和勞工事務的助理國務卿湯姆·馬利諾夫斯基在這次討論會上說,科技的發展勢不可擋,人們需要思考的是如何合理的利用人工智慧武器。
他說:“我們無法拋掉已知的知識,這些知識最終會被應用於技術。因此我們面前的挑戰是,如何限制和規範這些系統的使用和發展,以此來避免可能出現的最壞結果,而讓這些技術最積極的一面最大化。”
目前,美國、英國、俄羅斯、以色列和中國等諸多國家據信都在進行人工智慧武器的研發。
美國國防部高級研究計畫局(US Defense Advanced Research Projects Agency, DARPA)的一個專案,正在研究如何讓無人機在與人類操作員無法溝通的情況下,自主完成襲擊任務的所有步驟。
新美國安全中心的肖爾說,美國國防部在幾年前公開了有關人工智慧武器的政策,這類武器的研發需經過國防部三位高級官員的批准,其中包括參謀長聯席會議主席。

source: 
美國之音