人工智能會取代人類主宰战場嗎?從ChatGPT看人工智能的軍事應用
今年3月中旬,聊天機器人程序ChatGPT推出了最新版本GPT-4,可支持多元的輸入輸出形式,使其具備了更強的專業學習能力。作為一種基於人工智能(以下簡稱AI)技術的聊天程序,ChatGPT一經推出,便引起社會各界廣泛關注。甚至有人驚呼,AI將取代人類主宰战場。ChatGPT究竟會給軍事領域帶來哪些變革?AI是否會超越人類?帶着這些問題,本文從ChatGPT入手,為讀者梳理出一條AI大致的軍事應用脈絡。
ChatGPT的潛在軍事價值
ChatGPT受到關注的重要原因是引入了新技術RLHF。所謂RLHF,就是通過人類的反饋來優化模型算法,使AI模型的輸出結果和人類的常識、認知、價值觀趨於一致。簡單來說,就是跟過去的AI模型相比,ChatGPT“更像人類”了。這種“像”主要體現在自然語言處理方面,即語義分析和文本生成。語義分析方面,用戶的任何問題基本都能夠得到有效回應,不像過去很多時候“驢脣不對馬嘴”;文本處理方面,任何問題的答案都看起來邏輯通順、意思明確、文筆流暢。應該說,這堪稱自然語言處理領域的重大突破。
這一技術顯然可以應用於軍事領域。平時,基於ChatGPT技術的情報整編系統可針對互聯網上的海量信息,作為虛擬助手幫助分析人員开展數據分析,以提高情報分析效能,挖掘潛在的高價值情報。战時,基於ChatGPT技術的情報整編系統可將大量战場情報自動整合為战場態勢綜合報告,以減輕情報人員工作負擔,提高作战人員在快節奏战場中的情報分析和方案籌劃能力。
ChatGPT還可用於實施認知對抗。信息化智能化時代,各國數字化程度普遍較高,這意味着民衆之間的信息交流、觀點傳播、情緒感染的速度更快,也就意味着开展認知攻防的空間更大。ChatGPT強大的自然語言處理能力,可以用來快速分析輿情,提取有價值信息,或制造虛假言論,幹擾民衆情緒;還可通過運用微妙而復雜的認知攻防战術,誘導、欺騙乃至操縱目標國民衆認知,達到破壞其政府形象、改變其民衆立場,乃至分化社會、顛覆政權的目的,實現“不战而屈人之兵”。
據悉,ChatGPT使用的自然語言處理技術,正是美軍聯合全域指揮控制概念中重點研發的技術。2020年7月1日,美國蘭德公司空軍項目組發布《現代战爭中的聯合全域指揮控制——識別和开發AI應用的分析框架》報告。該報告認為,AI技術可分為6類,自然語言處理類技術作為其中之一,在“聯合全域指揮控制”中有明確的應用——可用於從語音和文本中提取情報,並將相關信息發送給分隊指揮官乃至單兵,以提醒他們潛在的衝突或機會。
“數據是深度愚蠢的”
ChatGPT火爆的關鍵原因之一是“更像人類”,然而,“更像人類”不等於“趨近人類智能”。ChatGPT僅僅代表AI的新高度,但它還是AI,仍存在着天然缺陷。
目前,主流AI模擬的都是大腦的“模式識別”功能,即在“感知”到外部信號刺激時,能迅速分辨出其性質特點。最初,科學家打算通過“制定規則”的方式來實現這一功能,但很快發現行不通。比如,很難用規則來定義一個人。這是因為,人的相貌、身材、行為等特點無法用明確而統一的規則來描述,更不可能轉換為計算機語言。現實中,我們看到一個人就能迅速識別出來,並沒有利用任何規則,而是通過大腦的“模式識別”功能來瞬間完成的。
這一識別過程為科學家提供了啓示:第一,大腦是一個強大的模式識別器,其識別功能可以通過訓練得到提高;第二,大腦的識別能力不是按照各種邏輯和規則進行的,而是一種“自動化”的行為;第三,大腦由數百億個神經元組成,大腦計算不是基於明確規則的計算,而是基於神經元的計算。
這正是目前主流AI的底層邏輯——對大腦運行機制的模擬。基於這一邏輯,科學家开發了各類基於神經網絡算法的神經網絡模型,並取得了良好效果。其基本原理是:這些模型都由輸入層、隱藏層和輸出層三部分組成;從輸入層輸入圖像等信息,經過隱藏層的自動化處理,再從輸出層輸出結果;模型內部包含大量“神經元”,每個“神經元”都有單獨的參數;如果輸出結果與輸入信息存在誤差,模型則反過來自動修改各個“神經元”的參數;這樣輸入一次,跟正確答案對比一次,把各個參數修改一次,就相當於完成了一次訓練。隨着訓練次數越來越多,模型參數的調整幅度越來越小,逐漸達到相對穩定的數值。此時,這個神經網絡就算成型了。
這就是目前主流的神經網絡算法,ChatGPT也同樣如此。不同之處在於,一般AI模型只有百萬級訓練數據和參數,而ChatGPT擁有3000億單詞的語料數據和1750億個參數。前者是“喂給”程序的訓練數據,後者則基於訓練數據提升ChatGPT這個模型對世界的理解。這就是ChatGPT看起來“更聰明”的主要原因。但ChatGPT只是“大力出奇跡”,其原理與過去的AI模型並沒有本質區別。
了解了AI的基本原理,我們會發現AI存在兩個天然缺陷。第一,AI本身並不理解“它自己在做什么”。AI模型就是一堆神經網絡的參數,這些參數沒有任何具體意義。AI只負責輸出結果,並不能解釋輸入與輸出之間的邏輯關系。第二,AI的“行為”是由訓練數據決定的。訓練AI的數據量越大,AI的能力就越強。但數據再多,也只能代表“經驗豐富”,一旦遇到意外情況,就會發生功能紊亂。可以說,AI就是用大量數據“喂”出來的,它的表現完全取決於數據。
因此,跟人類智能相比,AI既沒有真正的理解能力,又過於依賴訓練數據,以至於計算機科學家和哲學家朱迪亞·珀爾有一句名言:“數據是深度愚蠢的”。
AI原理帶來的战爭啓示
盡管AI存在天然缺陷,但並不妨礙它成為優秀的“參謀”和助手。截至目前,AI在軍事領域的應用範圍正在不斷擴大,越來越多的AI作战應用正在或已經成為現實。
如偵察感知領域,一些發達國家軍隊的超視距雷達,正在使用AI對各種類型的空中目標進行快速標記和個體識別,目前已經實現了對無人機等小型目標的自動探測與識別。無人作战領域,美國國防部高級研究計劃局正在實施一系列計劃,致力於研究無人機、自主水面無人艇和水下潛航器以及陸基移動無人平臺的組群使用,以實現相應的作战目的。此外,AI技術還滲透到指揮控制、訓練模擬、後勤保障等領域,並逐漸發揮出日益重要的作用。
深入思考AI的特點原理和發展路徑,會發現其中蕴含着一些關於战爭的啓示:
第一,技術深度決定战術高度。毫無疑問,AI時代战術的“技術含量”將越來越高,而“战術高度”很大程度上將取決於對AI技術的認識深度。2019年,比利時魯汶大學的研究團隊發明了一種可以騙過AI識別的彩色圖形——只要把一張A4大小的特殊圖形打印出來貼在身上,AI就不會把實驗者當作“人”。循着這個思路會發現,只要找到AI的數據識別漏洞,就能夠利用數據的“愚蠢”,騙過對方的偵察感知功能,進而發展出相應的對抗战術。但能否通過技術手段發現AI漏洞,是此類战術奏效與否的關鍵和前提。換句話說,對AI技術的研究深度將在很大程度上決定战術能夠發揮的高度。
第二,打破常規是對抗AI的關鍵。目前AI的所有能力都在人類的認知邊界內。如ChatGPT看似無所不知,但它能夠提供的所有答案都是在人類已知的信息庫中檢索整合得出的。即使跟過去“不一樣”,ChatGPT也只是通過內容整合“重組已知”,而非在觀點和思想層面“發現未知”。或者說,AI的最大優勢是“熟悉套路”和“優選方案”,劣勢則是難以“打破常規”,更不能“無中生有”。這意味着,AI並不能從已知推導出未知,創新將是人類的最大優勢。這進一步意味着,人類指揮員通過深度思考、邏輯推理進而打破常規、創新战法的能力無可取代,也必將是未來战場上應對“AI指揮員”的制勝利器。
第三,主宰战場的依然是人類而非AI。基於目前的計算機技術,AI發展存在天花板。其理論依據是“哥德爾不完備定理”。這一定理簡單來說,就是“可數系統都是不完備的,其中某些問題永遠無法在系統本身的層面得到解決”。根據這一原理,基於當前計算機技術的AI,可能永遠無法超越人類。因為計算機系統本質是可數的,而人的意識是不可數的。例如,計算機所有的輸入和輸出,都必須用有限的數字來描述。比如圓周率。計算機裏沒有真正的圓周率,小數點後只能輸入一個有限位的近似小數,到一定長度必須停下來。只要停下來,參與運算的這個圓周率就不是真正的π。而真實世界與計算機模擬的數字世界是不同的。真實世界是不可數的,圓周率π、自然常數e都可以無窮無盡地計算下去。AI運行於數字世界,人類則生活在實數宇宙。用基於目前計算機技術的AI來模擬人類智能,就像用語言系統來描述人類感覺——語言是可數的,而感覺是不可數的,所以有些感受“只可意會,不可言傳”。由此可推導出,在真正的技術“奇點”到來之前,AI只能不斷逼近人類智能,但永遠無法超越。人類仍將是战場的最高主宰。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
區塊鏈愛好者
文章數量
34524粉絲數
0