首页 / 观点 / 正文

祁昊天:人工智能军事赋能的边界、风险与迷思

2026-04-24 10:20
人访问

小 i 导 读

习近平总书记在2025年4月25日中央政治局第二十次集体学习时指出:“人工智能带来前所未有发展机遇,也带来前所未遇风险挑战”,这种从赋能和风险两端审视人工智能(AI)发展及其影响的视野对我们理解AI军事应用是基本指导。


北京大学国际关系学院长聘副教授、北京大学中外人文交流研究基地秘书长祁昊天从三个角度分析对于AI军事应用的认识:赋能的边界、应用的风险以及对于赋能和风险的研判评估,并梳理学界四种核心认知,剖析AI军事应用的技术局限与三类风险。本文创新性提出“TSAR量表”构建研判体系,明确不同军事场景下AI的应用边界,认为人们应该理性看待AI军事应用,回归战争基本规律与人的决定性作用。

习近平总书记在2025年4月25日中央政治局第二十次集体学习时指出:“人工智能带来前所未有发展机遇,也带来前所未遇风险挑战”,这种从赋能和风险两端审视人工智能(AI)发展及其影响的视野对我们理解AI军事应用是基本指导。

笔者从三个角度谈谈对于AI军事应用的认识:赋能的边界、应用的风险以及对于赋能和风险的研判评估。首先,我们需要对AI做一个界定,需要强调的是,AI的发展存在不同技术路径,而今天我们看到的大多数人工智能应用,其赋能影响、诱发风险以及它的局限都与其技术路径直接相关。在符号主义和联结(连接)主义这两个主要流派之间,融合或是未来方向,但当前我们在军用(以及民用)领域大量接触的是后者典型体现的神经网络及其连接机制和大数据驱动。而AI在军事领域带来的进步和局限、强点和弱点、赋能与风险等诸多影响皆基于此。

谈到科技发展对军事、战争的影响时,一个常被引用的表述是恩格斯在《反杜林论》中的一句名言,即“一旦技术上的进步可以用于军事目的并且已经用于军事目的,它们便立刻几乎强制地,而且往往是违反指挥官的意志而引起作战方式的改变甚至变革。”具体到AI的发展和军事应用上,这种可以被称为“变革论”的表述或认知应可算作当前的主流观点。根据这种观点,在AI及其相关技术的支撑下,智能化战争的形态已初步显现并将最终到来,各类智能化、无人化作战系统会逐渐成为战场主力。这一变革包含一系列特征,如装备自主化、信息云联化、决策智能化、战场无人化、人机一体化、态势综/融合化和作战全域化等。具体而言,在这一变革的初级阶段,我们将看到装备智能化、指挥自动化、作战体系化等主要特征;在其中级阶段,武器自主化、战场无人化和智能集群化将成为主导;进入高级阶段后,武器装备、态势感知、指挥控制和分析决策将全面实现智能自主化。依此构想,人与“机”相对应的位置从最初的共同作战,到中期人在后方辅助,再到高级阶段人作为幕后监督者。

可以说,上述这类情景已成为中外对于AI牵动军事变革的一种普遍叙事和愿景。但是,并非所有观察或认知都可以归于这一范畴,不同意见还是存在的。笔者将不同观点分为四类,通过两个维度进行类型区分(表1):第一个维度是对技术本身发展的判断,乐观还是保守;第二个维度是应用端对军事赋能表现的发展,偏向于未来主义抑或传统主义,前者对于智能化战争的形态相对笃定,后者则更倾向于传统因素如人员素质、力量规模、后勤保障等传统因素的作用。这样便存在对于AI军事赋能四种不同的认知:变革论如前所述,对于技术发展是乐观的,对于应用赋能是偏向未来主义的。而同样在抱有未来主义倾向的基础上(即相信智能化战争大方向),第二种观点则认为当前和可知的未来技术发展尚无法提供线性的、确定性的路径,这可称为演进论。第三种观点我称为实用论,对技术发展本身同样比较乐观,但是不执着于某种必然的未来主义方向,更加注重传统因素和新技术赋能的组合,聚焦于延伸和优化现有体系、解决现实问题。第四种观点为否定论,是声音相对最小的少数派,但也存在于学理和政策讨论中,这种观点对技术发展前景与智能化战争的出现均存疑,认为当前我们所看到的和未来可预期的决定性因素仍在传统范畴内,而AI在技术和应用端的不确定性、不可靠性和不稳定性都会长期存在。

表1

结合现实发展来看,无论对未来的预期落入哪一种观点,有一点不可否认的是,实际的AI转型和调整已经在非常大的深度和广度发生着,无论是否可以被定义为一种变革。AI正在融入战略侦察与情报、目标识别与跟踪、战场监视与评估、火力分配与打击、后勤管理与调度、军事训练与教学、虚拟空间对抗与舆论认知作战等各个方面。从人类暴力冲突的长历史周期来看,前数千年乃至更长周期表现为对能量的不断追求以及对过度冗余的管理,近几十年便体现了对数据信息的追求和冗余的管理,而在后一个过程中,在当代军事力量体系网络所有端点平台都成为传感器节点的前提下,人类的主动让位是必然和必要的,无论这是变革的前奏还是漫长且不确定的演进一环。

在这一过程中,AI的赋能边界、局限以及连带风险也是重要的现实,其背后存在三个层面的特征。第一,技术端存在局限。当前主流AI的技术路径决定了其擅长特定任务,对复杂开放的战争环境缺乏真正的理解与常识推理能力。例如,深度学习模型高度依赖训练数据和预设场景,一旦超出经验范围就可能失灵。而军事领域的数据往往稀缺且充满噪声,大规模高质量的战场训练数据难以获得,这限制了AI在真实战场环境中的性能。此外,多数AI算法是不可解释的“黑箱”,其决策过程人类难以完全掌控,这在生死攸关的军事决策中是巨大隐患。第二,军事应用和部署场景存在高复杂性。军事安全与战争行为或许是最复杂的人类社会行为和博弈,涉及大量因素的复杂互动和相互作用,演化路径非线性,存在着不可逾越的复杂性边界,远非棋类游戏等封闭环境可比。战争中的信息不完备、敌我对抗性和偶发事件决定了“摩擦”与“迷雾”的结构性约束,也局限着包括AI在内任何单一技术(群落)的赋能潜力。第三,人的作用永远不可或缺。尽管AI可以加速计算和优化某些流程,但军事竞争和战争终究是由人发动和参与的政治行为。智能化或无人化装备的加入,并未也不可能让人完全退出,更不能替代人的意志和创造力。相反,人机协同、组队和交互的发展形态意味着如何有效融合人与机的相对优势成为未来的核心目标与挑战。

AI军事应用与部署带来的风险也和这些因素相关。笔者倾向于把这些风险分为三类:本体风险,即人的主导性和安全受到侵蚀;能动风险,即随着AI带来的变化,在人机交互环境中,在军事竞争和对抗环境下,出现不利于博弈稳定的能动“诱惑”,例如先手冲动、互动频次降低、研判与决策窗口压缩、升级偏好提升等;意外风险,即由于技术端和应用端的不可靠与脆弱性,导致意外风险的发生。无论是现实冲突还是依循战略逻辑对未来的推测,这些风险或是已经发生,或是极有可能成为现实。

面对赋能和风险这两个维度的可能发展,当前的学理与政策研究尚缺乏一个较为成体系的综合评估、分类与研判框架。在此笔者尝试性地提出一个“TSAR量表”,其目标是将AI军事应用的赋能作用与风险诱发嵌入一种闭环演化,以还原军事竞争和冲突作为强对抗复杂系统的特征。

具体而言,这一量表可被分解为四层:技术表征层、体系耦合层、对抗响应层和再平衡层。具体而言,技术表征(T)层决定了性能、鲁棒性、通用性与成本结构的“可用边界”;体系耦合(S)层衡量条令、编制、训练、人机分工与后勤信息基础设施的“承载能力”;对抗响应(A)层体现对抗环境中电子战、欺骗、反制与扩散速度所带来的“破击压力”;再平衡(R)层刻画新的攻防格局、风险门槛、资源重配与法伦理约束的“系统代价”。这四层并非一次性或线性过程,而是形成T→S→A→R→T的动态回路。

在此基础上,可以对变革潜力及相应的风险影响进行指数计算,或可称其为TRI(Transformation-Risk Index),计算公式为:

〔技术有效性×体系耦合度〕÷〔对抗破击性×再平衡成本〕即(T×S)/(A×R)

核心假设为,当T×S超过某一赋能阈值α,且A×R低于风险阈值β时,才会出现阶段性的“变革窗口”,否则仅构成实用型改良或局部演进。

将AI嵌入该框架,可得到一条有别于“唯性能论”或“技术决定论”的判断链。AI一方面提升技术有效性(传感融合、态势提取、OODA提速、群体协同)并可能推动体系耦合(流程重组、人机协同升级、分布式作战),另一方面显著提升对抗破击性与再平衡成本,面对破击对抗可能表现脆弱、对手拥有低成本反制与扩散速度快,机器速度压缩决策缓冲、危机升级门槛下移,且法律伦理与问责成本上升。基于现实应用,可以初步得到如下结论(表2、表3):

表2

若将此判断进一步推导至不同部署和任务领域的影响,则可以得到有别于相对比较立体的赋能和风险判断(表2)。例如,在战术 情侦监(ISR)或火力回路与低成本群体智能等“高数据密度、可边缘算力、链路可加固”的领域,T→S的正向推进更易出现, A×R相对受控,则可形成阶段性变革;在战区级指挥控制(C2)或联合作战设计等“高不确定性、多目标冲突、伦理敏感”的层面,体系耦合与再平衡代价构成刚性掣肘,局限和风险相对较高,至少短中期内应将AI定位为决策辅助而非替代;在战略核态势与危机管控等“升级门槛极敏、社会成本非常高”方面,R项极大,应坚持“人主回路”,AI仅用于非时间敏感的情报支撑;在后勤、维修、保障等“场景可控、收益可量化”的场景中,AI可稳定产出效率红利,但其性质仍属改良而非颠覆。

表3

回到前面提到的恩格斯那句名言,如果我们注意到他在前后文中的表述,会发现他恰恰是在强调军事变革背后的多因素综合,而非狭隘的技术决定论。AI极大地推动了军事竞争和冲突的变化,但它并未也不可能超越战争本身的基本规律,战争的基本性质和制胜机理并未根本改变,人依然也将会长期是战争中最具决定性的能动因素,战争的迷雾与不确定性同样如此,只是或以新的方式体现。AI在战场上提供了强大的赋能,但并非万能,它仍受制于技术瓶颈和战争复杂性的制约。技术进步引发的军事调整绝非技术因素线性决定的,传统的兵力、指挥、后勤等要素依然构成战争胜负的支柱,AI只能为之增效而不能取而代之。当前对AI军事能力的某些鼓吹夹杂着不切实际的幻想,需要用理性加以矫正,同时,AI军事化带来的多重风险必须审慎管控,以防范失控灾难的发生。

我们需要一个多维视角的分析框架,来全面评估AI军事应用的边界何在、风险几何,从而拨开迷思,走出技术决定论的误区。需要将对AI作用的评估置于复杂的军事和战争生态系统中考虑,避免片面夸大单一因素的作用。既要看到技术性能的局限导致AI不可能包办一切,又要关注人和组织因素对AI效能的放大或削弱作用,还要时刻把对抗性和风险性纳入分析范畴。这种多维视角有助于打破“重技轻理”“唯技术论”的偏见,引导我们理性看待AI军事应用和所谓“智能化战争”的前景。


来源:《世界政治研究》2025年第四辑

最新文章