分享人工智能相关新闻和分析的板块。
人工智能战斗机——AI如何学习战斗
Author
김 경진
Date
2026-02-25 21:48
Views
36
第三部 AI如何学习战斗
1. 数千万次虚拟死亡
高度25000英尺。在模拟天空中,一架由AI操控的F-16急速俯冲。它将机头转向敌机,但速度损失太快。飞机失速,径直坠向地面。屏幕上出现"击落"字样,模拟重新开始。
这个AI刚刚死了。但一秒钟后,它重新出现在同一片天空。再次向敌机冲去。这次角度略有不同,时机也略有不同。
这个过程每天重复数百万次。
人类飞行员要成为老手需要数千小时的飞行时间。从空军学院毕业,完成基础飞行训练,接受战斗机改装训练,分配到作战部队,服役数年后才能真正独当一面。而一名飞行员一生能积累的飞行时间最多不过2000到3000小时。因为存在种种限制——身体的限制、服役年限的限制,最重要的是生命的限制。一次坠毁,一切就结束了。
但AI没有这些限制。在虚拟空间中,AI可以无限次死亡,无限次重生。
2020年8月,在美国国防高级研究计划局(DARPA)主办的"阿尔法狗斗"(AlphaDogfight)大赛中,获胜的赫伦系统公司(Heron Systems)的AI在比赛前已经进行了约40亿次虚拟战斗。这相当于人类飞行员约31年的飞行经验。
赫伦系统公司工程师本·贝尔(Ben Bell)说:"我们的AI与102个不同的智能体对战训练。这使它足够强大,能应对任何对手。"
强化学习的原理出奇地简单,就像婴儿学走路一样。没有父母会告诉婴儿"把膝盖弯到这个角度,把重心前移"。婴儿只是站起来摔倒,站起来再摔倒,重复数百次。然后某天迈出了一步,父母鼓掌,它便明白"啊,这才是对的"。摔倒会痛,走路有奖赏。
AI的强化学习也是如此。刚被投入虚拟世界时,AI连飞机是什么都不知道。它不知道怎么操纵驾驶杆,不知道何时发射导弹。它只是随机尝试各种动作。大多数时候它会坠毁或被击落。每次系统都会给AI一个负分。相反,当它咬住敌机尾部、命中机炮射击或击落对手时,就会获得正分。AI唯一的目标就是使累计分数最大化。
关键在于奖励函数(Reward Function)的设计。如果只说"击落敌机",AI可能会学会神风特攻战术——自杀式冲锋同归于尽。因此工程师必须设计非常精密的奖励体系:击落敌机但自己要活下来;占据敌机六点钟方向得额外加分;鲁莽机动浪费能量则扣分;进入民用区域则重罚。
洛克希德·马丁的阿尔法狗斗参赛团队在退役F-16飞行员的指导下设计了这一奖励体系。飞行员数十年的经验被转化为方程式和权重。
在阿尔法狗斗决赛中,赫伦系统公司的AI以5比0完胜人类飞行员"Banger"。其中有一个令人震惊的瞬间——AI在与人类正面对飞时开炮射击。这被称为"迎头射击"(Head-on Gunshot)。人类飞行员出于对碰撞的恐惧本能地回避这种机动,训练规定也禁止这样做。但AI通过数千万次虚拟死亡,自己发现了"在碰撞前0.1秒精确射击,就能在自己死亡前先击落敌机"的答案。
没有人教过它这个战术。这是AI通过无限试错发现的胜利方程式。
这个过程被称为"课程学习"(Curriculum Learning)。如果一开始就让AI与老手对决,它什么也学不到,只会不断死亡。所以先从保持平飞开始学起,然后练习瞄准静止目标,逐渐面对更强的对手。在最后阶段,它与自己——或过去版本的自己对战。这叫"自我对弈"(Self-Play),与AlphaGo征服围棋时使用的方法相同。
归根结底,强化学习始于"失败的自由"。现实中的飞行员一次失败就意味着死亡。但在虚拟世界中,AI通过数千万次死亡获得不死之身。它在几天之内压缩了人类一代人的经验积累。
这就是阿尔法狗斗的AI能够压倒老牌飞行员的真正原因。AI并非单纯计算速度快,而是通过数千万次死亡积累了人类一生都无法获得的经验量。
2. 将模拟经验移植到现实
如果把在虚拟战斗中百战百胜的AI放进真正的F-16座舱,它能立刻称霸天空吗?答案是否定的。
模拟中的天空在数学上是完美的。风按计算吹拂,空气密度均匀,发动机始终以100%效率运转。传感器发送无噪声的清洁数据,通信零延迟。但现实完全不同——突风来袭、云层遮蔽传感器、通信信号中断、机体产生不可预测的振动。在模拟中胜率100%的AI,可能在第一次真实飞行中就坠毁。
这个差距被称为"现实差距"(Reality Gap)。弥合这一差距的技术叫做Sim2Real——"从模拟到现实"。这是AI战斗机开发的核心难题。
第一个Sim2Real策略是"域随机化"(Domain Randomization)——故意把模拟环境搞乱。训练过程中随机改变风力强度,微调飞机重心,让发动机推力在80%到120%之间波动,在传感器数据中故意添加噪声,注入通信延迟。在这种"脏乱"环境中训练的AI会把现实世界视为"又一个噪声较大的模拟"。
第二个策略是"数字孪生"(Digital Twin)——持续将真实数据输入模拟中。实时收集真实飞机的飞行数据来更新虚拟飞机模型。随着这一循环不断重复,AI在现实中越来越强。
美国空军运行X-62A VISTA实验机来验证Sim2Real技术。这架改装的F-16D允许AI实际控制飞机。2022年12月,AI驾驶的飞行测试在爱德华兹空军基地上空开始。在前12次飞行中,AI完成了近距格斗和超视距交战场景。在超过17小时的自主飞行中,飞机在遵守实际空域限制的同时优化了性能。
2023年,X-62A VISTA在AI控制下与有人驾驶的F-16进行了实际空战——这是世界首次真正的"人类对AI"空中交战。
2024年5月,美国空军部长弗兰克·肯德尔(Frank Kendall)亲自登上X-62A的座舱。飞行结束后他说:"我认为可以信任AI的武器发射权限。"
"运行时保障"(Runtime Assurance)系统实时监控AI的所有行为。如果AI的指令超出飞机结构极限或导致撞地轨迹,系统立即切断AI控制并将飞机恢复到安全状态。在所有X-62A测试飞行中,安全飞行员从未强制关闭过AI。
未来的AI战斗机在起飞前就具备基本战斗技能,但会在战斗中通过识别敌方模式实时进化。这叫"元学习"(Meta-Learning)——根据飞机状态变化或敌方战术变化实时微调神经网络。
Sim2Real是虚拟智能穿上物理躯体、学习现实法则的过程。在机器人学中,这叫做"具身化"(Embodiment)。AI要成为真正的战士,就必须离开模拟中洁净的天空,降临到现实中粗粝的天空。
3. 传感器融合:整合雷达、光电/红外和电子支援数据
空战制胜的秘诀很简单:先看到,先开火。但"看到"是一个比想象中复杂得多的问题。
现代空战在数百公里外就已决出胜负——远在飞行员目视确认敌机之前。这叫"超视距交战"(Beyond Visual Range, BVR)。问题是没有任何传感器是完美的。
雷达发射电磁波并探测反射波,能确定目标的位置和速度。但隐身战斗机可以最大限度减少雷达反射。而且雷达发射电波也会暴露自身位置。
光电/红外(EO/IR)传感器以不同方式探测敌机——感知敌机发动机散发的热量。由于不发射电波,因此隐蔽性强。但测距精度不如雷达,且在恶劣天气下表现差。
电子支援措施(ESM)被动监听敌方辐射。当敌方雷达开机的瞬间,分析其频率模式以确定位置和机型。但如果敌方关闭雷达,ESM就无用武之地。
人类飞行员几乎不可能在瞬间将所有传感器数据在脑中整合。这就是人类"认知负荷"的极限。
AI的真正力量在此显现:"传感器融合"(Sensor Fusion)。AI同时分析和整合来自雷达、EO/IR和ESM的数据,构建一幅完整的态势图。当雷达报告"前方50公里处有物体"、红外传感器报告"前方48公里处探测到热源"时,AI判断这是同一架敌机还是两个不同目标,通过"数据关联"将其修正合并为单一"航迹"。
F-35闪电II是传感器融合技术的结晶。其分布式孔径系统(DAS)由安装在机体四周的6个红外摄像头组成,在飞行员头盔显示器上提供360度全景图像。飞行员称之为"上帝视角"(God's Eye View)。
当敌方实施干扰时,AI交叉验证ESM数据和红外图像。如果雷达显示目标但没有热信号,AI将其判定为"诱饵"并从显示器上删除。这一切在毫秒级完成。
欧洲的FCAS和GCAP项目追求"云传感器融合"——编队内所有有人和无人飞机共享传感器信息。传感器融合是驱散战争迷雾的技术。这才是第五代、第六代战斗机的真正实力。不是隐身,是融合。
4. 目标探测、跟踪与识别:ATR和多目标跟踪
高度25000英尺。座舱外的天空湛蓝清澈,但平静之下潜藏着致命的紧张感。雷达告警接收机开始哔哔作响——有人在看着我。战术显示器上出现了六个绿点。是敌是友,还是路过的民航机——我无法判断。以时速1000公里飞行,如果其中一个点是来杀我的敌机,我只有几秒钟的时间。
过去,战斗机飞行员在这个时刻完全依靠自己的眼睛和直觉。我们称之为"Mk.1目视"——人的肉眼。即使雷达捕捉到了什么,要确切知道那是什么,唯一的办法就是亲眼确认。问题是到那时,敌方导弹可能已经发射了。
这正是ATR(自动目标识别)登场的地方。其核心是深度学习——AI通过观看数百万张图像自主学习模式。它学习敌方坦克、战斗机、导弹发射架的形状和特征。
合成孔径雷达(SAR)能穿透云层,在夜间和雨中成像地面。训练有素的分析员需要数小时解读SAR图像。但AI在0.1秒内就能给出答案:"那个阴影下藏着一辆T-72坦克。炮塔旋转了15度,发动机正在运转。"
美国国防部的"梅文计划"(Project Maven)展示了这项技术的威力。AI全天候分析无人机侦察画面,标记可疑场景供人类审查,让分析员能专注于真正重要的判断。
多目标跟踪(Multi-Target Tracking)处理多个敌人。现代战争中,数十架无人机像蜂群般涌来,真正的战斗机隐藏其中。人类大脑同时跟踪三四个以上目标就很吃力。AI可以同时跟踪数百个目标,为每个目标分配唯一编号,计算轨迹,预测位置。
2024年7月,美国空军启动了"ATA-AI"项目——投入9900万美元开发针对隐身飞机、高超音速武器和无人机蜂群的下一代目标跟踪技术。
核心算法之一是卡尔曼滤波器(Kalman Filter),一种1960年代开发的预测运动物体位置的数学公式。现代AI更进一步——学习敌机的行为模式来预测其倾向。
中国正在将精密的光电跟踪系统整合到歼-20上,并开发探测美国隐身飞机的算法。欧洲的FCAS项目追求"战斗云"(Combat Cloud)概念——所有空中平台连接成一个巨大网络,实时共享各自看到的一切。
空战法则没有改变:先看到(First Look)、先开火(First Shoot)、先击杀(First Kill)的一方获胜。改变的是速度。人类判断需要数百毫秒。AI以微秒级运行。但人类仍然不可或缺——最终决定权属于人。指挥一只名为AI的强大猎犬的猎人——这就是未来战斗机飞行员的角色。
5. 可解释人工智能(XAI)
1988年7月3日,波斯湾。美国海军宙斯盾巡洋舰文森斯号(USS Vincennes)的计算机系统将一个不明航迹判定为伊朗空军F-14战斗机。舰长下令发射导弹。但那不是F-14,而是伊朗航空655号航班——一架民用客机。全部290名乘客和机组人员遇难。系统显示了错误信息,在极度紧张的状态下,船员盲目相信了它。系统从未解释为什么得出那个结论。这就是"黑箱"(Black Box)问题。
对战斗机飞行员来说,信任等于生命。如果我的AI僚机突然冲向敌方纵深,而我的雷达什么也没显示,我会被恐惧攫住。无法理解的行为与叛变无异。
2020年,赫伦系统公司的AI"法尔科"(Falco)在DARPA的阿尔法狗斗大赛中以5比0击败人类飞行员"Banger"。法尔科执行了人类绝不会尝试的机动。Banger赛后说:"它的射击精准得令人难以置信。但我无法预测它为什么那样机动,下一步会做什么。"
XAI(可解释人工智能)用人类可理解的语言解释AI为何做出特定决策。DARPA于2016年启动XAI计划。以前的AI只会说"敌方坦克,概率97%",而XAI会说:"T-90坦克。炮塔形状与数据库匹配度95%。红外传感器捕获的发动机热分布呈现柴油发动机特征。护卫车辆编队与俄军装甲部队条令一致。"
2025年4月,美国空军发布了AFDN 25-1,要求军事AI开发使用"透明且可解释的算法"。
"信任校准"(Trust Calibration)至关重要——既不能过度信任也不能过度不信任AI。法国国防企业泰雷兹(Thales)提出"TrUE AI"口号——透明的(Transparent)、可理解的(Understandable)、合乎伦理的(Ethical)人工智能。
2024年5月,肯德尔部长在AI执行战斗机动时乘坐了X-62A VISTA。这种信任是在AI能够解释其机动之后才建立起来的。
XAI有其局限——生成解释需要额外计算,战斗不容许延迟。对抗性攻击可能利用暴露的推理过程。责任伦理问题依然存在。
国际红十字委员会和美国国防部都强调"有意义的人类控制"(Meaningful Human Control)原则。但在高超音速导弹和无人机蜂群来袭的瞬间,人类是否有时间介入?也许没有。
XAI的本质是在部署前通过数千种场景进行测试,验证AI在各种情况下如何判断。是让AI能够诚实地说:"这种情况超出了我的训练范围。人类,请您来决定。"
没有解释的智能,在战场上与疯狂无异。我们需要的不是黑箱中的幽灵,而是能把后背托付的战友。XAI正是我们为打造这样的战友所做的努力。
1. 数千万次虚拟死亡
高度25000英尺。在模拟天空中,一架由AI操控的F-16急速俯冲。它将机头转向敌机,但速度损失太快。飞机失速,径直坠向地面。屏幕上出现"击落"字样,模拟重新开始。
这个AI刚刚死了。但一秒钟后,它重新出现在同一片天空。再次向敌机冲去。这次角度略有不同,时机也略有不同。
这个过程每天重复数百万次。
人类飞行员要成为老手需要数千小时的飞行时间。从空军学院毕业,完成基础飞行训练,接受战斗机改装训练,分配到作战部队,服役数年后才能真正独当一面。而一名飞行员一生能积累的飞行时间最多不过2000到3000小时。因为存在种种限制——身体的限制、服役年限的限制,最重要的是生命的限制。一次坠毁,一切就结束了。
但AI没有这些限制。在虚拟空间中,AI可以无限次死亡,无限次重生。
2020年8月,在美国国防高级研究计划局(DARPA)主办的"阿尔法狗斗"(AlphaDogfight)大赛中,获胜的赫伦系统公司(Heron Systems)的AI在比赛前已经进行了约40亿次虚拟战斗。这相当于人类飞行员约31年的飞行经验。
赫伦系统公司工程师本·贝尔(Ben Bell)说:"我们的AI与102个不同的智能体对战训练。这使它足够强大,能应对任何对手。"
强化学习的原理出奇地简单,就像婴儿学走路一样。没有父母会告诉婴儿"把膝盖弯到这个角度,把重心前移"。婴儿只是站起来摔倒,站起来再摔倒,重复数百次。然后某天迈出了一步,父母鼓掌,它便明白"啊,这才是对的"。摔倒会痛,走路有奖赏。
AI的强化学习也是如此。刚被投入虚拟世界时,AI连飞机是什么都不知道。它不知道怎么操纵驾驶杆,不知道何时发射导弹。它只是随机尝试各种动作。大多数时候它会坠毁或被击落。每次系统都会给AI一个负分。相反,当它咬住敌机尾部、命中机炮射击或击落对手时,就会获得正分。AI唯一的目标就是使累计分数最大化。
关键在于奖励函数(Reward Function)的设计。如果只说"击落敌机",AI可能会学会神风特攻战术——自杀式冲锋同归于尽。因此工程师必须设计非常精密的奖励体系:击落敌机但自己要活下来;占据敌机六点钟方向得额外加分;鲁莽机动浪费能量则扣分;进入民用区域则重罚。
洛克希德·马丁的阿尔法狗斗参赛团队在退役F-16飞行员的指导下设计了这一奖励体系。飞行员数十年的经验被转化为方程式和权重。
在阿尔法狗斗决赛中,赫伦系统公司的AI以5比0完胜人类飞行员"Banger"。其中有一个令人震惊的瞬间——AI在与人类正面对飞时开炮射击。这被称为"迎头射击"(Head-on Gunshot)。人类飞行员出于对碰撞的恐惧本能地回避这种机动,训练规定也禁止这样做。但AI通过数千万次虚拟死亡,自己发现了"在碰撞前0.1秒精确射击,就能在自己死亡前先击落敌机"的答案。
没有人教过它这个战术。这是AI通过无限试错发现的胜利方程式。
这个过程被称为"课程学习"(Curriculum Learning)。如果一开始就让AI与老手对决,它什么也学不到,只会不断死亡。所以先从保持平飞开始学起,然后练习瞄准静止目标,逐渐面对更强的对手。在最后阶段,它与自己——或过去版本的自己对战。这叫"自我对弈"(Self-Play),与AlphaGo征服围棋时使用的方法相同。
归根结底,强化学习始于"失败的自由"。现实中的飞行员一次失败就意味着死亡。但在虚拟世界中,AI通过数千万次死亡获得不死之身。它在几天之内压缩了人类一代人的经验积累。
这就是阿尔法狗斗的AI能够压倒老牌飞行员的真正原因。AI并非单纯计算速度快,而是通过数千万次死亡积累了人类一生都无法获得的经验量。
2. 将模拟经验移植到现实
如果把在虚拟战斗中百战百胜的AI放进真正的F-16座舱,它能立刻称霸天空吗?答案是否定的。
模拟中的天空在数学上是完美的。风按计算吹拂,空气密度均匀,发动机始终以100%效率运转。传感器发送无噪声的清洁数据,通信零延迟。但现实完全不同——突风来袭、云层遮蔽传感器、通信信号中断、机体产生不可预测的振动。在模拟中胜率100%的AI,可能在第一次真实飞行中就坠毁。
这个差距被称为"现实差距"(Reality Gap)。弥合这一差距的技术叫做Sim2Real——"从模拟到现实"。这是AI战斗机开发的核心难题。
第一个Sim2Real策略是"域随机化"(Domain Randomization)——故意把模拟环境搞乱。训练过程中随机改变风力强度,微调飞机重心,让发动机推力在80%到120%之间波动,在传感器数据中故意添加噪声,注入通信延迟。在这种"脏乱"环境中训练的AI会把现实世界视为"又一个噪声较大的模拟"。
第二个策略是"数字孪生"(Digital Twin)——持续将真实数据输入模拟中。实时收集真实飞机的飞行数据来更新虚拟飞机模型。随着这一循环不断重复,AI在现实中越来越强。
美国空军运行X-62A VISTA实验机来验证Sim2Real技术。这架改装的F-16D允许AI实际控制飞机。2022年12月,AI驾驶的飞行测试在爱德华兹空军基地上空开始。在前12次飞行中,AI完成了近距格斗和超视距交战场景。在超过17小时的自主飞行中,飞机在遵守实际空域限制的同时优化了性能。
2023年,X-62A VISTA在AI控制下与有人驾驶的F-16进行了实际空战——这是世界首次真正的"人类对AI"空中交战。
2024年5月,美国空军部长弗兰克·肯德尔(Frank Kendall)亲自登上X-62A的座舱。飞行结束后他说:"我认为可以信任AI的武器发射权限。"
"运行时保障"(Runtime Assurance)系统实时监控AI的所有行为。如果AI的指令超出飞机结构极限或导致撞地轨迹,系统立即切断AI控制并将飞机恢复到安全状态。在所有X-62A测试飞行中,安全飞行员从未强制关闭过AI。
未来的AI战斗机在起飞前就具备基本战斗技能,但会在战斗中通过识别敌方模式实时进化。这叫"元学习"(Meta-Learning)——根据飞机状态变化或敌方战术变化实时微调神经网络。
Sim2Real是虚拟智能穿上物理躯体、学习现实法则的过程。在机器人学中,这叫做"具身化"(Embodiment)。AI要成为真正的战士,就必须离开模拟中洁净的天空,降临到现实中粗粝的天空。
3. 传感器融合:整合雷达、光电/红外和电子支援数据
空战制胜的秘诀很简单:先看到,先开火。但"看到"是一个比想象中复杂得多的问题。
现代空战在数百公里外就已决出胜负——远在飞行员目视确认敌机之前。这叫"超视距交战"(Beyond Visual Range, BVR)。问题是没有任何传感器是完美的。
雷达发射电磁波并探测反射波,能确定目标的位置和速度。但隐身战斗机可以最大限度减少雷达反射。而且雷达发射电波也会暴露自身位置。
光电/红外(EO/IR)传感器以不同方式探测敌机——感知敌机发动机散发的热量。由于不发射电波,因此隐蔽性强。但测距精度不如雷达,且在恶劣天气下表现差。
电子支援措施(ESM)被动监听敌方辐射。当敌方雷达开机的瞬间,分析其频率模式以确定位置和机型。但如果敌方关闭雷达,ESM就无用武之地。
人类飞行员几乎不可能在瞬间将所有传感器数据在脑中整合。这就是人类"认知负荷"的极限。
AI的真正力量在此显现:"传感器融合"(Sensor Fusion)。AI同时分析和整合来自雷达、EO/IR和ESM的数据,构建一幅完整的态势图。当雷达报告"前方50公里处有物体"、红外传感器报告"前方48公里处探测到热源"时,AI判断这是同一架敌机还是两个不同目标,通过"数据关联"将其修正合并为单一"航迹"。
F-35闪电II是传感器融合技术的结晶。其分布式孔径系统(DAS)由安装在机体四周的6个红外摄像头组成,在飞行员头盔显示器上提供360度全景图像。飞行员称之为"上帝视角"(God's Eye View)。
当敌方实施干扰时,AI交叉验证ESM数据和红外图像。如果雷达显示目标但没有热信号,AI将其判定为"诱饵"并从显示器上删除。这一切在毫秒级完成。
欧洲的FCAS和GCAP项目追求"云传感器融合"——编队内所有有人和无人飞机共享传感器信息。传感器融合是驱散战争迷雾的技术。这才是第五代、第六代战斗机的真正实力。不是隐身,是融合。
4. 目标探测、跟踪与识别:ATR和多目标跟踪
高度25000英尺。座舱外的天空湛蓝清澈,但平静之下潜藏着致命的紧张感。雷达告警接收机开始哔哔作响——有人在看着我。战术显示器上出现了六个绿点。是敌是友,还是路过的民航机——我无法判断。以时速1000公里飞行,如果其中一个点是来杀我的敌机,我只有几秒钟的时间。
过去,战斗机飞行员在这个时刻完全依靠自己的眼睛和直觉。我们称之为"Mk.1目视"——人的肉眼。即使雷达捕捉到了什么,要确切知道那是什么,唯一的办法就是亲眼确认。问题是到那时,敌方导弹可能已经发射了。
这正是ATR(自动目标识别)登场的地方。其核心是深度学习——AI通过观看数百万张图像自主学习模式。它学习敌方坦克、战斗机、导弹发射架的形状和特征。
合成孔径雷达(SAR)能穿透云层,在夜间和雨中成像地面。训练有素的分析员需要数小时解读SAR图像。但AI在0.1秒内就能给出答案:"那个阴影下藏着一辆T-72坦克。炮塔旋转了15度,发动机正在运转。"
美国国防部的"梅文计划"(Project Maven)展示了这项技术的威力。AI全天候分析无人机侦察画面,标记可疑场景供人类审查,让分析员能专注于真正重要的判断。
多目标跟踪(Multi-Target Tracking)处理多个敌人。现代战争中,数十架无人机像蜂群般涌来,真正的战斗机隐藏其中。人类大脑同时跟踪三四个以上目标就很吃力。AI可以同时跟踪数百个目标,为每个目标分配唯一编号,计算轨迹,预测位置。
2024年7月,美国空军启动了"ATA-AI"项目——投入9900万美元开发针对隐身飞机、高超音速武器和无人机蜂群的下一代目标跟踪技术。
核心算法之一是卡尔曼滤波器(Kalman Filter),一种1960年代开发的预测运动物体位置的数学公式。现代AI更进一步——学习敌机的行为模式来预测其倾向。
中国正在将精密的光电跟踪系统整合到歼-20上,并开发探测美国隐身飞机的算法。欧洲的FCAS项目追求"战斗云"(Combat Cloud)概念——所有空中平台连接成一个巨大网络,实时共享各自看到的一切。
空战法则没有改变:先看到(First Look)、先开火(First Shoot)、先击杀(First Kill)的一方获胜。改变的是速度。人类判断需要数百毫秒。AI以微秒级运行。但人类仍然不可或缺——最终决定权属于人。指挥一只名为AI的强大猎犬的猎人——这就是未来战斗机飞行员的角色。
5. 可解释人工智能(XAI)
1988年7月3日,波斯湾。美国海军宙斯盾巡洋舰文森斯号(USS Vincennes)的计算机系统将一个不明航迹判定为伊朗空军F-14战斗机。舰长下令发射导弹。但那不是F-14,而是伊朗航空655号航班——一架民用客机。全部290名乘客和机组人员遇难。系统显示了错误信息,在极度紧张的状态下,船员盲目相信了它。系统从未解释为什么得出那个结论。这就是"黑箱"(Black Box)问题。
对战斗机飞行员来说,信任等于生命。如果我的AI僚机突然冲向敌方纵深,而我的雷达什么也没显示,我会被恐惧攫住。无法理解的行为与叛变无异。
2020年,赫伦系统公司的AI"法尔科"(Falco)在DARPA的阿尔法狗斗大赛中以5比0击败人类飞行员"Banger"。法尔科执行了人类绝不会尝试的机动。Banger赛后说:"它的射击精准得令人难以置信。但我无法预测它为什么那样机动,下一步会做什么。"
XAI(可解释人工智能)用人类可理解的语言解释AI为何做出特定决策。DARPA于2016年启动XAI计划。以前的AI只会说"敌方坦克,概率97%",而XAI会说:"T-90坦克。炮塔形状与数据库匹配度95%。红外传感器捕获的发动机热分布呈现柴油发动机特征。护卫车辆编队与俄军装甲部队条令一致。"
2025年4月,美国空军发布了AFDN 25-1,要求军事AI开发使用"透明且可解释的算法"。
"信任校准"(Trust Calibration)至关重要——既不能过度信任也不能过度不信任AI。法国国防企业泰雷兹(Thales)提出"TrUE AI"口号——透明的(Transparent)、可理解的(Understandable)、合乎伦理的(Ethical)人工智能。
2024年5月,肯德尔部长在AI执行战斗机动时乘坐了X-62A VISTA。这种信任是在AI能够解释其机动之后才建立起来的。
XAI有其局限——生成解释需要额外计算,战斗不容许延迟。对抗性攻击可能利用暴露的推理过程。责任伦理问题依然存在。
国际红十字委员会和美国国防部都强调"有意义的人类控制"(Meaningful Human Control)原则。但在高超音速导弹和无人机蜂群来袭的瞬间,人类是否有时间介入?也许没有。
XAI的本质是在部署前通过数千种场景进行测试,验证AI在各种情况下如何判断。是让AI能够诚实地说:"这种情况超出了我的训练范围。人类,请您来决定。"
没有解释的智能,在战场上与疯狂无异。我们需要的不是黑箱中的幽灵,而是能把后背托付的战友。XAI正是我们为打造这样的战友所做的努力。