AI武器陸海空齊發,“智慧殺人”,限制協議困難重重

2024613

 

七國集團(G7)據傳本周(6月13-15日)召開的元首峰會,將制定軍用人工智慧(AI)的開發和使用規則。不過,這套西方主導的規範對中、俄等軍事大國幾乎不具約束力,恐怕才是最大的隱憂,尤其中俄就連美國推動的“負責任使用軍用AI”方案都拒絕簽署。在此前提下,觀察人士說,各國野蠻擴張AI軍武的風險恐加劇。他們還形容,致命性AI軍武的開發一如回到了原子彈發明前的“奧本海默時刻”,限武協議刻不容緩。

時隔8個月,去年底還在杭州亞運田徑場搬運鐵餅的“呆萌”機器狗已背上機關槍,加入中柬5月底“金龍2024”的聯合軍演,成為解放軍執行偵察和突擊任務的戰犬。

 

呆萌機器狗化身AI殺人瘋狗?

分析人士說,或許“深藏不露”,解放軍的這款機器戰犬仍由人工遙控,智慧程度屬“弱AI”等級。但未來若搭配高算力AI或人臉辨識等感知偵測器,其智慧程度要進階到“強AI”並非難事,亦即給予簡單指令,如“未配戴解放軍徽即敵軍”, 機器犬或可自動辨識並執行殲敵任務,變成殺人瘋狗。

全球頂尖AI專家、澳大利亞南威爾士大學的AI首席科學家托比·沃爾什(Toby Walsh)在接受美國之音採訪時就說,自動武器要提升智慧程度不難,可能僅在彈指間。

沃爾什說:“要將原本由人類控制的半自動武器系統改為無人化,是件簡單的事,或僅須改幾行程式碼就做得到。”

他說,AI若用在軍事防禦系統救人是樁美事,但用在失序殺人絕對是作惡。

沃爾什說:“這(AI殺人武器)不是好的發展,將加劇大屠殺,也無助於讓我們以更人道的方式來作戰或解決爭端。”

 

超級AI軍武造就自主殺人機器?

分析人士說,軍用AI的最高等級是“超級AI”,這類搭配類神經網路之機器深度學習的極端運用,或可讓武器交由機器自主控制,搖身一變為所謂的“致命性自主武器(Lethal Autonomous Weapons Systems, LAWS)”。

雖然這類“致命性自主武器”“殺人機器”看似只存在科幻電影中,但有一派人士認為,其成真的概率或僅在5-10年後,屆時,若超級AI軍武落入恐怖分子之手,後果不堪想像。

雖然各國目前都堅稱無意開發“致命性自主武器”,但沃爾什擔心,各國擴張進度不一所帶來的不確定恐加劇AI軍備競賽,尤其在AI和軍事領域激烈競爭的美中兩大強權。

沃爾什說:“就許多面向而言,這種透明度的缺乏可能帶來比冷戰時期更危險的威脅......這就是為什麼此時可比擬為‘奧本海默時刻’,當年(美蘇)兩大冷戰對峙國進入核武競賽。如今,一場類似的(美中)軍備競賽可能正在我們眼前展開。”

奧本海默是美國“曼哈頓計畫”的首席科學家,雖享有“原子彈之父”的美譽,但其主導的兩顆原子彈於二戰時給日本人帶來死傷後,讓他開始反思並呼籲限制核武,也極力反對各國的核武軍備競賽。

 

美中AI軍武競爭激烈

美國是AI大國,對軍用AI的運用自是超前,例如,美國軍援烏克蘭的攻擊型無人機中,就具有人臉辨識的功能,號稱可鎖定俄軍將領,執行精准的斬首或自殺任務。

美國去年8月還撥款10億美元,啟動“複製者”計畫,要在未來兩年內部署數千個AI無人作戰系統,如無人水面航行器、無人機系統和反無人機系統、及“彈簧刀-600”巡飛彈等。

相較於美國,中國國家主席習近平自2017年宣示“軍事智慧化”戰略以來,解放軍開發AI軍武近7年來的進度雖隱密,但也展現長足潛力。

根據美國智庫新美國安全中心(The Center for a New American Security)高級副研究員埃爾莎·卡尼亞(Elsa B. Kania)於2020年的統整,中國對AI武器的開發幾近陸海空軍、甚至火箭軍齊發,例如,火箭軍的AI導彈宣稱發射後、仍可以即時控制的智慧功能;而空軍的“翼龍”無人機系列也已成熟至可以銷往巴基斯坦、緬甸和中東等國。至於陸軍的機器人、無人地面軍車及海軍的“海蜥蜴”兩棲無人艇、自動化潛艇等都有助於強化中國的戰力。

不過,卡尼亞也於報告中質疑,中國發展AI武器仍受限於高科技人才和工程設計經驗不足等短板,讓外界難以確認中國AI軍武的真正實力。

另外,各界認為,美國近年對華祭出高階AI晶片的禁令也對解放軍發展AI武器具有“卡脖子”的效果。但澳大利亞南威爾士大學的沃爾什持不同看法,他擔心,美國禁令恐效果有限,反刺激中國自主發展晶片產業。他說,一如二戰前後,美國的原子彈製造優勢是很難維持的,中國就像當年發展核彈的蘇聯,或在AI發展還做不到彎道超車,但快速追趕上來並非不可能。

 

AI武器短板:續航、定位和通訊力

針對AI武器的短板,在臺北的國防安全研究院中共政軍與作戰概念研究所助理研究員王綉雯在接受美國之音採訪時表示,其續航力、定位和通訊能力都是先天的致命傷。若電力不足或解放軍賴以通訊定位的北斗衛星遭癱瘓後,這些AI武器理論上恐瞬間成為一堆廢鐵。

她形容,看商用無人機排成的龍陣秀讓人賞心悅目,但當這龍群化身殺人軍用武器,掃射地面人群時就是件很恐怖的事,尤其當數百架掛彈無人機形成強大的火力網時,對手根本無從防禦起。

但她也分析,當AI武器一失去定位協作後就只會互撞或亂轉,屆時也可能出現像“蒼蠅都掉下來”的無害感。

不過,王綉雯坦言,癱瘓衛星或設置電子藩籬等反制AI武器的措施說易行難。

王綉雯:“你要把北斗系統毀掉也是有困難,現在中國的衛星系統已經發展出來分散式的,就是把重要東西(資料)同時存在不同的北斗衛星之間,所以你打掉一顆(衛星)沒有用,因為其他(衛星)還可以代替過來。”

王綉雯說,基於中國對AI武器的軟硬體發展,未來國際在管制AI武器標準或協定使用規則時,中國將佔有一定的話語權,端賴美中兩大陣營如何協調。

中國早於2018年就在聯合國表態,呼籲全球禁止發展AI自主武器,不過,美籍研究員卡尼亞認為,中國對AI自主武器的定義過於含糊,反而留下可開發各類其他AI武器的空間。因此在外界眼中,中國對AI限武的“戰略模糊”意味非常濃厚。

中國國防部發言人吳謙也曾於去年底表態稱,中方願按照“智能向善”等原則與各國合作,就軍用AI的發展規範尋求共識,避免相關武器的誤用、濫用甚至惡用,並確保AI武器系統“永遠處於人類控制之下。”

雖然中方立場也符合美國“負責任使用軍用AI”的基調,但王綉雯認為,中國的思維偏重在防止自家軍人或機器叛變的思維上。

 

中共怕AI機器人叛變?

王綉雯:“它(中國)希望AI機器人或武器都要置於人類的控制下,這就是共產黨它擔心,搞不好解放軍的機器人會拿它的機槍對著中南海,機器人叛變也不一定。”

至於美國主導或G7可望出臺AI限武規範,分析人士說,中國不僅加入意願低,且敵意恐很深。

中國軍事專家、現任宣沅(香港)科技交流中心研究員的宋忠平就批評,本周G7峰會是美國在搞小圈子、分裂世界,根本無助於制定國際規則。

宋忠平告訴美國之音:“這個會議就是要打造人工智慧的西方國家小圈子,還是排他性的,也就是允許美國使用人工智慧從事軍事化,但是限制其他國家使用人工智慧從事軍事化。”

他說,AI軍武是雙刃劍,用於戰場必然造成大量屠殺,但美國率先應用軍用AI,卻來指責中國毫無道理,且隨著AI技術不斷完善,未來更廣泛運用於軍事領域已是不可逆的趨勢,因此,在這新的博奕戰場上,中國也會根據國際軍事形勢的變化,善用軍用AI。

 

source: 
美國之音