2022年6月23日,英國皇家三軍研究所(RUSI)網(wǎng)站發(fā)布報告,題為《Trust in AI: Rethinking Future Command》,作者是克里斯蒂娜·巴利斯(英國奎奈蒂克公司培訓和任務(wù)演練全球活動總監(jiān))和保羅·奧尼爾(軍事科學部主任)。報告認為,人工智能(AI)正在改變戰(zhàn)爭。報告提出,國防部如何為未來的變化做好準備?
對人工智能的軍事應(yīng)用所帶來的可接受挑戰(zhàn)的傳統(tǒng)反應(yīng),是堅持人類保持“有意義的人工控制”,以此作為產(chǎn)生信心和信任的一種方式??紤]到人工智能和相關(guān)基礎(chǔ)技術(shù)的普遍性和快速發(fā)展,這不再是一個充分的回應(yīng)。人工智能將在整個行動范圍內(nèi)廣泛的指揮和控制 (C2)活動中發(fā)揮基本且日益重要的作用。雖然在公眾心目中其威脅不如“殺手機器人”那么直接,但在軍事決策中使用人工智能既帶來了關(guān)鍵挑戰(zhàn),也帶來了巨大的優(yōu)勢。增加對技術(shù)本身的人工監(jiān)督防止不了無意(更不用說故意)的濫用。
本報告的前提是,各級人員(作戰(zhàn)人員、指揮官、政治領(lǐng)導人和公眾)的信任,對于有效采用人工智能進行軍事決策以及探討關(guān)鍵的相關(guān)問題至關(guān)重要。對人工智能的信任實際上意味著什么?如何建立和維持它以支持軍事決策?為了未來的指揮,作戰(zhàn)人員和人工代理之間的共生關(guān)系需要哪些改變?
當人類對人工智能的行為抱有一定的期望時,可以說對人工智能存在信任,不考慮人工代理的意圖或倫理。然而,與此同時,信任不僅僅是技術(shù)性能和可靠性的一個函數(shù)——它不能僅僅通過解決數(shù)據(jù)完整性和可解釋性問題來保證,盡管它們都很重要。建立對軍事人工智能的信任還必須解決軍事組織和指揮結(jié)構(gòu)、文化和領(lǐng)導力方面的必要變革。實現(xiàn)總體上適當?shù)男湃嗡叫枰捎谜w方法。除了信任使用人工智能的目的之外,軍事指揮官和作戰(zhàn)人員還需要充分信任(并且在如何信任方面接受過充分的培訓并具有充足的經(jīng)驗)支撐任何特定人工智能模型的輸入、流程和輸出。
然而,最困難也可以說是最關(guān)鍵的維度是組織生態(tài)系統(tǒng)層面的信任。如果不改變軍事決策的制度要素,人工智能在未來C2中的使用將保持次優(yōu),僅限于模擬框架。任何新技術(shù)的有效引入,更不用說像人工智能這樣具有變革性的技術(shù),都需要從根本上重新思考人類活動的組織方式。
優(yōu)先考慮人力和制度層面并不意味著對技術(shù)施加更多控制;相反,它需要重新構(gòu)想人類在不斷發(fā)展的人機認知系統(tǒng)中的角色和貢獻。未來的指揮官將需要能夠領(lǐng)導不同的團隊組成的真正“整體力量”,該力量整合了來自軍方、政府和民間領(lǐng)域的貢獻。他們必須對其人造隊友有足夠的了解,才能與它們合作并挑戰(zhàn)它們。這更像是椋鳥群的齊鳴,而不是個別“翠鳥”領(lǐng)袖的天才。為了發(fā)展新的指揮和領(lǐng)導概念,國防部必須重新考慮其方法,不僅是培訓和職業(yè)管理,還有決策結(jié)構(gòu)和流程,包括未來總部的規(guī)模、位置和組成。
人工智能已經(jīng)在改變戰(zhàn)爭并挑戰(zhàn)人類長期存在的習慣。通過在訓練和演習中進行更大的實驗,并通過探索C2的替代模型,國防部可以更好地為即將到來的不可避免的變化做好準備。target drone