你可能從電影和書籍中聽說過殺手機器人、屠宰機器人或終結者--官方稱之為致命自主武器(LAWs)。而超級智能武器橫行的想法仍然是科幻小說。但是,隨著人工智能武器變得越來越復雜,公眾對缺乏責任感和技術故障風險的擔憂也在增加。
我們已經看到所謂的中立人工智能是如何做出性別歧視的算法和無能的內容審核系統的,主要是因為它們的創造者不了解這項技術。但在戰爭中,這些類型的誤解可能會殺死平民或破壞談判。
例如,一個目標識別算法可以被訓練為從衛星圖像中識別坦克。但是,如果用于訓練該系統的所有圖像都以坦克周圍的士兵編隊為特征,那該怎么辦?它可能會把穿過軍事封鎖線的民用車輛誤認為是目標。
我們為什么需要自主武器?
由于全球超級大國建造和使用日益先進的武器的方式,許多國家(如越南、阿富汗和也門)的平民遭受了痛苦。許多人會認為它們造成的傷害多于好處,最近的一次是指2022年初俄羅斯入侵烏克蘭的事件。
在另一個陣營中,有人說一個國家必須有能力保護自己,這意味著要跟上其他國家的軍事技術。人工智能已經可以在國際象棋和撲克上勝過人類。它在現實世界中的表現也超過了人類。例如,微軟聲稱其語音識別軟件的錯誤率為1%,而人類的錯誤率約為6%。因此,軍隊正在慢慢地把韁繩交給算法,這并不令人驚訝。
但是,我們如何避免將殺手機器人加入我們希望從未發明過的一長串東西中呢?首先:了解你的敵人。
美國國防部將自主武器系統定義為。"一種武器系統,一旦啟動,就可以選擇和攻擊目標,而不需要人類操作員進一步干預"。
許多戰斗系統已經符合這一標準。無人機和現代導彈上的計算機擁有的算法可以探測目標,并以遠比人類操作員更精確的方式向其開火。以色列的 "鐵穹 "是幾個主動防御系統中的一個,可以在沒有人類監督的情況下攻擊目標。
雖然是為導彈防御而設計,但鐵穹可能會意外殺人。但這種風險在國際政治中被認為是可以接受的,因為鐵穹在保護平民生命方面通常有著可靠的歷史。
也有設計用于攻擊人的人工智能武器,從機器人哨兵到在烏克蘭戰爭中使用的閑逛的神風無人機。LAWs已經在這里了。因此,如果我們想影響致命性武器的使用,我們需要了解現代武器的歷史。
以色列導彈防御系統。
“傷亡人數……在經歷了十多年的歷史性減少之后,在過去七年里一直高得令人不安。2021 年也不例外。這一趨勢主要是自 2015 年以來觀察到的沖突和簡易地雷污染增加的結果。平民代表了大多數記錄的受害者中,有一半是兒童。”
盡管 ICBL 盡了最大努力,但有證據表明俄羅斯和烏克蘭(渥太華條約的成員)在俄羅斯入侵烏克蘭期間使用了地雷。烏克蘭還依靠無人機引導炮擊,或者最近依靠無人機引導對俄羅斯基礎設施的“神風敢死隊襲擊”。
我們的未來
但是更先進的人工智能武器呢?阻止殺手機器人運動列出了 LAW 的九個關鍵問題,重點是缺乏問責制,以及隨之而來的殺戮的內在非人性化。
雖然這種批評是有道理的,但出于兩個原因,完全禁止法律是不現實的。首先,就像地雷一樣,潘多拉魔盒已經打開。此外,自主武器、法律和殺手機器人之間的界限非常模糊,很難區分它們。軍方領導人總能找到禁令措辭中的漏洞,偷偷將殺手機器人作為防御性自主武器投入使用。他們甚至可能在不知不覺中這樣做。
我們幾乎肯定會在未來看到更多支持人工智能的武器。但這并不意味著我們必須換個角度看。更具體、更細致的禁令將有助于讓我們的政治家、數據科學家和工程師承擔責任。
例如,通過禁止:
黑盒人工智能:除了輸入和輸出之外,用戶對算法一無所知的系統
不可靠的人工智能:測試不當的系統(例如前面提到的軍事封鎖示例)。
而且你不必成為 人工智能專家就可以對 LAW 有看法。隨時了解新的軍事 AI 發展。當你讀到或聽說人工智能被用于戰斗時,問問自己:它合理嗎?它是在保護平民的生命嗎?如果沒有,請與致力于控制這些系統的社區合作。我們一起有機會阻止 AI 弊大于利。
戰爭的規則
國際協議,如《日內瓦公約》,規定了沖突期間對待戰俘和平民的行為。它們是我們控制戰爭方式的少數工具之一。不幸的是,美國在越南和俄羅斯在阿富汗使用化學武器,證明這些措施并不總是成功的。
更糟糕的是,關鍵參與者拒絕簽字。國際禁止地雷運動(ICBL)自1992年以來一直在游說政治家禁止地雷和集束彈藥(在大范圍內隨機散布的小型炸彈)。1997年,渥太華條約包括禁止這些武器,122個國家簽署了該條約。但美國、中國和俄羅斯并不買賬。
《2022年地雷和集束彈藥監測報告》顯示:自2015年以來,地雷每年至少使5000名士兵和平民受傷和死亡,2017年多達9440人。
2025-04-17 08:16
2025-04-17 08:13
2025-04-16 10:55
2025-04-16 08:50
2025-04-14 14:57
2025-04-14 14:53
2025-04-09 12:40
2025-04-08 08:51
2025-04-07 12:08
2025-04-07 12:07