인공지능게시판

인공지능 전투기 - AI는 어떻게 전투를 학습하는가

작성자
김 경진
작성일
2026-02-25 20:08
조회
235


제3부 AI는 어떻게 전투를 학습하는가

1. 수천만 번의 가상 죽음

고도 2만 5천 피트. 시뮬레이터 속 가상의 하늘에서 AI가 조종하는 F-16 한 대가 급강하합니다. 적기를 향해 기수를 틀었지만, 속도를 너무 빨리 잃었습니다. 기체는 실속에 빠지고, 곧바로 땅으로 곤두박질칩니다. 화면에 "격추"라는 글자가 뜨고, 시뮬레이션은 리셋됩니다. 이 AI는 방금 죽었습니다.

하지만 1초 뒤, 다시 같은 하늘에 나타납니다. 그리고 또다시 적기를 향해 돌진합니다. 이번에는 조금 다른 각도로, 조금 다른 타이밍에. 이 과정이 하루에 수백만 번 반복됩니다.

인간 조종사가 베테랑이 되려면 수천 시간의 비행이 필요합니다. 공군사관학교를 졸업하고, 기초 비행훈련을 마치고, 전투기 기종 전환교육을 받고, 실전 부대에 배치되어 몇 년을 근무해야 비로소 "한 사람 몫"을 합니다. 그리고 그 조종사가 평생 비행할 수 있는 시간은 기껏해야 2천에서 3천 시간입니다. 신체의 한계, 근무 기간의 한계, 그리고 무엇보다 목숨의 한계가 있기 때문입니다. 한 번 추락하면, 그것으로 끝입니다.

그런데 AI에게는 그런 한계가 없습니다. 가상의 공간에서 AI는 얼마든지 죽을 수 있고, 얼마든지 다시 태어날 수 있습니다.

2020년 8월 미국 국방고등연구계획국(DARPA)이 주최한 알파독파이트(AlphaDogfight) 대회에서 우승한 헤론 시스템즈(Heron Systems)의 AI는 대회 당시까지 약 40억 번의 가상 전투를 치렀습니다. 이것은 인간 조종사로 환산하면 약 31년 치의 비행 경험에 해당합니다. 헤론 시스템즈의 엔지니어 벤 벨(Ben Bell)은 이렇게 말했습니다. "우리 AI는 102개의 서로 다른 에이전트와 싸우며 훈련받았습니다. 그래서 어떤 상대를 만나도 무너지지 않을 만큼 견고해졌습니다.”

강화학습의 원리는 의외로 단순합니다. 마치 아기가 걸음마를 배우는 것과 비슷합니다.

아기에게 "무릎을 이 각도로 구부리고, 무게중심을 앞으로 옮겨라"라고 가르치는 부모는 없습니다. 아기는 그냥 일어서다가 넘어지고, 또 일어서다가 넘어지기를 수백 번 반복합니다. 그러다 어느 순간 한 발을 내딛게 되고, 부모가 박수를 쳐주면 "아, 이게 맞는 거구나"라고 깨닫습니다. 넘어지면 아프고, 걸으면 칭찬받으니까요. AI의 강화학습도 마찬가지입니다.

처음 가상 세계에 던져진 AI는 비행기가 무엇인지도 모릅니다. 조종간을 어떻게 움직여야 하는지, 미사일을 언제 발사해야 하는지, 전혀 알지 못합니다. 그저 무작위로 이것저것 해봅니다. 조종간을 왼쪽으로 꺾어보고, 스로틀을 당겨보고, 기총 발사 버튼을 눌러봅니다. 대부분은 추락하거나 적에게 격추당합니다. 그럴 때마다 시스템은 AI에게 마이너스 점수를 줍니다. 반대로 적기의 꼬리를 잡거나, 기총 사격에 성공하거나, 적을 격추하면 플러스 점수를 줍니다. AI의 목표는 단 하나, 이 점수의 합계를 최대한 높이는 것입니다.

여기서 핵심은 보상 함수(Reward Function)의 설계입니다.

단순히 "적을 격추하라"고만 하면, AI는 미친 듯이 돌진하다가 동귀어진하는 카미카제 전술을 배울 수도 있습니다.

그래서 엔지니어들은 매우 정교한 보상 체계를 만들어야 합니다. 적을 격추하되 자신은 살아남아야 하고, 적의 꼬리(6시 방향)를 잡으면 추가 점수를 받고, 무리한 기동으로 에너지를 낭비하면 감점당하고, 민간 구역에 진입하면 큰 벌점을 받는 식입니다.

록히드 마틴의 알파독파이트 참가팀은 은퇴한 F-16 조종사의 조언을 받아 이런 보상 체계를 설계했습니다. 조종사의 수십 년 경험이 수식과 가중치로 번역된 것입니다.

알파독파이트 결승전에서 헤론 시스템즈의 AI는 인간 조종사 "뱅어(Banger)"를 5대 0으로 완파했습니다. 충격적인 장면이 하나 있었습니다. AI가 인간과 정면으로 마주보며 기관포를 발사한 것입니다.

이른바 "헤드온 건샷(Head-on Gunshot)"이라 불리는 기동입니다. 인간 조종사는 충돌의 공포 때문에 이런 기동을 본능적으로 피합니다. 훈련 규정에서도 금지되어 있습니다. 그런데 AI는 수천만 번의 가상 죽음을 통해 "충돌 직전 0.1초에 정밀 사격을 가하면, 내가 죽기 전에 적을 먼저 격추할 수 있다"는 해답을 스스로 찾아낸 것입니다. 인간이 가르쳐준 전술이 아닙니다. AI가 무한한 시행착오 끝에 발견한 승리의 방정식입니다.

이 과정을 "커리큘럼 학습(Curriculum Learning)"이라고 부릅니다. 처음부터 베테랑 조종사와 붙으면 AI는 아무것도 배우지 못하고 계속 죽기만 합니다. 그래서 처음에는 단순히 수평 비행을 유지하는 법부터 배웁니다. 그 다음에는 움직이지 않는 표적을 조준하는 법을 익힙니다. 점점 어려운 상대를 만나며 실력을 키웁니다. 마지막 단계에서는 자기 자신, 혹은 과거의 자기 자신과 싸웁니다. 이것을 "셀프 플레이(Self-Play)"라고 합니다. 알파고가 바둑을 정복할 때 쓴 방법과 같습니다. 어제의 내가 사용한 필승 전략을 오늘의 내가 파훼하고, 내일의 나는 그 파훼법을 다시 역이용하는 식으로 무한히 진화합니다.

결국 강화학습은 "실패할 수 있는 자유"에서 시작합니다. 현실의 조종사는 한 번의 실패가 곧 죽음입니다. 하지만 가상 세계의 AI는 수천만 번 죽음으로써 불사의 존재로 거듭납니다. 인간이 한 세대 동안 축적하는 경험을 AI는 며칠 만에 압축합니다. 시간의 법칙이 다른 세계에서 훈련받은 존재가 현실로 내려오는 것입니다. 이것이 알파독파이트의 AI가 베테랑 조종사를 압도할 수 있었던 진짜 이유입니다. AI는 단순히 계산이 빠른 것이 아닙니다. 수천만 번의 죽음을 통해 인간이 평생 겪을 수 없는 경험의 양을 축적했기 때문입니다.

2. 시뮬레이션 경험을 현실로 이식

모니터 화면 속의 가상 전투에서 백전백승하던 AI를 진짜 F-16 조종석에 앉히면 어떻게 될까요. 바로 하늘을 지배할 수 있을까요. 대답은 "아니요"입니다. 시뮬레이션 속의 하늘은 수학적으로 완벽합니다. 바람은 계산된 대로 불고, 공기 밀도는 균일하며, 엔진은 언제나 100퍼센트 효율을 냅니다. 센서는 노이즈 없이 깨끗한 데이터를 보내고, 통신에는 지연이 없습니다. 그런데 현실은 전혀 다릅니다. 돌풍이 불고, 구름이 센서를 가리고, 통신 신호가 끊기고, 기체는 알 수 없는 진동을 일으킵니다. 시뮬레이션에서 승률 100퍼센트를 자랑하던 AI가 현실의 첫 비행에서 추락할 수도 있습니다.

이 간극을 "리얼리티 갭(Reality Gap)"이라고 부릅니다. 가상 세계와 현실 세계 사이의 틈입니다. 이 틈을 메우는 기술이 바로 Sim2Real, 즉 "시뮬레이션에서 현실로"입니다. AI 전투기 개발의 핵심 난제이며, 이것이 해결되어야 비로소 AI가 진짜 하늘에서 싸울 수 있습니다.

Sim2Real의 첫 번째 전략은 시뮬레이션 환경을 일부러 엉망으로 만드는 것입니다. "도메인 무작위화(Domain Randomization)"라는 기법입니다.

훈련 과정에서 바람의 세기를 무작위로 바꾸고, 기체의 무게 중심을 조금씩 흔들고, 엔진 추력을 80퍼센트에서 120퍼센트 사이로 변동시킵니다. 센서 데이터에 일부러 잡음을 섞고, 통신에 지연 시간을 집어넣습니다.

맑은 날씨에서만 훈련시키는 것이 아니라, 폭풍우가 치는 상황, 센서가 고장 난 상황, 엔진 출력이 떨어지는 상황을 시뮬레이션에 주입합니다. 이렇게 "지저분한" 환경에서 훈련받은 AI는 현실 세계를 그저 "또 하나의 노이즈가 심한 시뮬레이션"으로 인식하게 됩니다. 깨끗한 환경에서만 훈련받은 AI는 현실에서 당황합니다. 그러나 온갖 혼돈 속에서 훈련받은 AI는 현실의 불확실성 앞에서도 흔들리지 않습니다.

두 번째 전략은 현실의 데이터를 시뮬레이션에 계속 흘려 넣는 것입니다. 이것을 "디지털 트윈(Digital Twin)"이라고 부릅니다. 진짜 전투기의 비행 데이터를 실시간으로 수집해서, 가상의 전투기 모델을 업데이트합니다. 실제 비행 테스트에서 얻은 공기역학 데이터, 엔진 반응 속도, 기체 진동 패턴 등을 바탕으로 시뮬레이션 모델을 끊임없이 수정합니다. 그러면 가상 세계가 점점 현실에 가까워집니다. 그리고 그 정교해진 가상 세계에서 다시 AI를 훈련시킵니다. 이 순환이 반복될수록 AI는 현실에 강해집니다.

미 공군은 이 Sim2Real 기술을 검증하기 위해 X-62A VISTA라는 실험기를 운용하고 있습니다. F-16D를 개조한 이 항공기는 AI가 실제로 기체를 조종할 수 있도록 설계되었습니다. 2022년 12월부터 에드워즈 공군기지 상공에서 AI가 조종하는 비행 테스트가 시작되었습니다. 처음 12회의 비행에서 AI는 기관포 사격 범위 내 근접전투(도그파이트)와 가시거리 밖 교전(BVR) 시나리오를 모두 수행했습니다. 17시간 이상의 자율 비행 동안, 기체는 실제 공역 제한을 준수하면서 성능을 최적화했습니다.

2023년에는 역사적인 순간이 찾아왔습니다. X-62A VISTA가 AI의 조종 하에 유인 F-16과 실제 공중전을 벌인 것입니다. 이것은 세계 최초의 "인간 대 AI" 실전 공중전이었습니다.

2024년 5월에는 프랭크 켄달(Frank Kendall) 미 공군 장관이 직접 X-62A의 조종석에 탑승했습니다. AI가 조종하는 전투기에 미국 공군의 최고 지휘관이 몸을 맡긴 것입니다. 그는 비행을 마친 뒤 이렇게 말했습니다. "AI에게 무기 발사 권한을 맡겨도 될 것 같습니다.”

물론 안전장치는 철저히 마련되어 있습니다. "런타임 보증(Runtime Assurance)" 시스템이 AI의 모든 행동을 실시간으로 감시합니다. AI가 "오른쪽으로 5G 선회하라"는 명령을 내리면, 이 시스템은 1천분의 1초 단위로 그 명령을 검사합니다. 만약 AI의 명령이 기체의 구조적 한계를 넘거나, 지면 충돌 위험이 있는 궤적으로 이어진다면, 시스템은 즉시 AI의 제어권을 차단하고 안전한 상태로 기체를 복구합니다. 뒷좌석의 안전 조종사가 언제든 AI를 끄고 수동 조종으로 전환할 수도 있습니다. 실제로 X-62A의 모든 테스트 비행에서 안전 조종사가 AI를 강제로 끈 적은 단 한 번도 없었습니다.

또 하나의 과제는 컴퓨팅 파워입니다.

시뮬레이션 속의 AI는 거대한 서버실의 슈퍼컴퓨터 자원을 마음껏 쓸 수 있습니다. 그러나 실제 전투기 내부는 공간이 좁고 전력이 제한적입니다. 수천 개의 GPU를 탑재할 수는 없습니다. 그래서 거대한 AI 모델을 작은 칩에 들어갈 수 있도록 경량화하는 과정이 필요합니다.

헤론 시스템즈의 알파독파이트 우승 모델은 엔비디아의 작은 칩 하나에서 구동될 수 있을 만큼 효율적으로 설계되었습니다. 이것이 시사하는 바는 큽니다. 강력하면서도 가벼운 AI, 그것이 실전 배치의 전제 조건입니다.

미래의 AI 전투기는 출격 전에 기본적인 전투 기술을 알고 있지만, 전투를 치르면서 적의 패턴을 파악해 그 자리에서 진화할 것입니다. 이것을 "메타 학습(Meta-Learning)" 혹은 "온라인 적응"이라고 부릅니다. 공장에서 학습된 모델을 그대로 쓰는 것이 아니라, 비행 중인 기체의 상태 변화나 적의 전술 변화를 실시간으로 감지하고, 자신의 신경망을 미세 조정하는 것입니다. Sim2Real은 단순히 소프트웨어를 설치하는 과정이 아닙니다. 가상의 지능이 물리적 몸체를 입고 현실의 법칙을 익혀가는 과정입니다. 로봇공학에서는 이것을 "신체화(Embodiment)"라고 부릅니다. AI가 진정한 전사가 되려면, 시뮬레이션의 깨끗한 하늘을 떠나 현실의 거친 하늘로 내려와야 합니다.

3. 센서 융합: 레이더·EO/IR·ESM 데이터 통합

공중전에서 이기는 비결은 단순합니다.

먼저 보고, 먼저 쏘는 것입니다. 그런데 "본다"는 것은 생각보다 복잡한 문제입니다. 인간 조종사의 눈은 캐노피 밖의 하늘만 볼 수 있습니다. 그것도 맑은 날, 가시거리 안에 적이 있을 때만 유효합니다. 현대 공중전은 수백 킬로미터 밖에서 승패가 결정됩니다.

육안으로 적을 확인하기 훨씬 전에 레이더가 적을 포착하고, 미사일이 발사되고, 적기가 격추됩니다. 이것을 "가시거리 밖 교전(Beyond Visual Range, BVR)"이라고 부릅니다.

문제는 어떤 센서도 완벽하지 않다는 것입니다. 레이더를 예로 들어보겠습니다. 레이더는 전파를 쏘아 반사파를 탐지합니다. 적이 아무리 멀리 있어도, 금속 표면에 부딪힌 전파가 되돌아오면 위치와 속도를 알 수 있습니다. 그런데 스텔스 전투기는 레이더 반사를 최소화하도록 설계되어 있습니다. 그래서 레이더에 잘 잡히지 않습니다. 또한 레이더는 전파를 쏘기 때문에 자신의 위치도 노출합니다. 적의 ESM(전자전 지원장비)이 그 전파를 역추적하면, 사냥꾼이 오히려 사냥감이 될 수 있습니다.

EO/IR(전자광학/적외선) 센서는 다른 방식으로 적을 봅니다. 적기의 엔진에서 나오는 열, 기체와 공기 마찰에서 생기는 열을 감지합니다. 전파를 쏘지 않으므로 은밀합니다. 스텔스기도 엔진 열은 숨길 수 없으므로 IR 센서에는 포착될 수 있습니다. 그러나 거리 측정 정확도가 레이더보다 떨어지고, 구름이나 악천후에 취약합니다. ESM은 적이 쏘는 전파를 수동으로 듣습니다. 적 레이더가 켜지는 순간, 그 주파수 패턴을 분석해서 적의 위치와 기종을 파악합니다. 하지만 적이 레이더를 끄고 있으면 소용이 없습니다.

각 센서는 장점과 단점을 동시에 가지고 있습니다. 레이더는 거리를 잘 알지만 스텔스에 취약하고, IR은 열을 잘 보지만 거리를 모르고, ESM은 적의 종류를 알지만 정밀 조준은 어렵습니다. 인간 조종사가 이 모든 센서의 데이터를 머릿속에서 통합하는 것은 거의 불가능합니다. 레이더 화면을 보고, IR 영상을 확인하고, RWR(레이더 경보 수신기) 소리를 듣고, 그 모든 정보를 찰나의 순간에 종합해서 판단해야 합니다. 이것이 바로 인간의 "인지 부하(Cognitive Load)" 한계입니다.

AI의 진짜 힘은 여기서 드러납니다. "센서 융합(Sensor Fusion)"입니다. AI는 레이더, EO/IR, ESM이 쏟아내는 데이터를 동시에 분석하고 통합해서, 하나의 완벽한 상황도를 만들어냅니다. 레이더가 "전방 50킬로미터에 물체 있음"이라고 보고하고, IR 센서가 "전방 48킬로미터에 열원 감지"라고 보고하면, AI는 이것이 같은 적기인지, 아니면 서로 다른 두 개의 물체인지 판단합니다. 위치와 속도의 미세한 오차를 보정해서 하나의 "트랙(Track)"으로 통합합니다. 이것을 "데이터 연관(Data Association)"이라고 부릅니다.

다음 단계는 적의 정체를 밝히는 것입니다.

ESM이 수집한 레이더 주파수 패턴을 분석합니다. "이 신호는 러시아제 Su-35의 레이더다"라고 1차 식별을 합니다. 레이더가 측정한 적기의 속도와 선회율을 확인합니다. 전투기급 기동성을 가졌는지, 아니면 민항기인지 구분합니다. 고해상도 IR 영상으로 기체의 형상을 딥러닝 알고리즘이 분석합니다. 이 세 가지 정보를 AI가 종합해서 "확률 98퍼센트로 무장한 Su-35, 적대적 행위 중"이라는 최종 결론을 내립니다. 조종사에게는 "발사 가능"이라는 신호만 뜹니다.

F-35 라이트닝 II는 이 센서 융합 기술의 결정체입니다. F-35에는 AN/APG-81 AESA 레이더, AN/AAQ-40 EOTS(전자광학 표적조준장비), AN/AAQ-37 DAS(분산개구장치), AN/ASQ-239 전자전 장비가 탑재되어 있습니다. DAS는 기체 전방위에 장착된 6개의 적외선 카메라로 구성됩니다. 조종사가 어디를 바라보든, 360도 전 방향의 영상이 헬멧 디스플레이에 표시됩니다. 바닥을 내려다보면 기체를 투과해서 지상이 보입니다. 뒤를 돌아보면 6시 방향의 적기가 보입니다. 이 모든 센서 데이터를 AI가 융합해서 조종사의 헬멧에 하나의 통합된 전장 그림으로 보여줍니다. 조종사들은 이것을 "신의 시점(God's Eye View)"이라고 부릅니다.

적이 전파 방해(Jamming)를 시도하면 어떻게 될까요. 레이더 화면에 수십 개의 허상이 나타납니다. 인간 조종사는 혼란에 빠집니다. 그러나 AI는 ESM 데이터와 IR 영상을 교차 검증합니다. 레이더에는 표적이 잡히지만 열 신호가 없다면, AI는 이것을 "기만체" 또는 "허상"으로 판단하고 화면에서 지워버립니다. 이 모든 과정이 밀리초 단위로 이루어집니다. 적이 플레어를 뿌려 IR 센서를 속이려 해도, 레이더 데이터와 대조하면 진짜 적기와 미끼를 구분할 수 있습니다.

유럽의 6세대 전투기 프로젝트인 FCAS와 GCAP는 이것을 한 단계 더 발전시키고 있습니다. 단일 기체의 센서 융합을 넘어, 편대 내 모든 유무인기가 센서 정보를 공유하는 "클라우드 센서 융합"을 지향합니다. 선두의 무인기가 레이더를 켜서 적을 탐지하고(자신은 위치가 노출될 위험을 감수), 후방의 유인기는 레이더를 끈 상태로 그 정보를 받아 미사일을 발사합니다. 내 비행기의 센서에는 안 보이지만, 아군 드론이 보내온 데이터로 산 뒤에 숨은 적을 조준할 수 있습니다.

결국 센서 융합은 전장의 안개를 걷어내는 기술입니다. 전쟁에서 가장 무서운 것은 적이 아닙니다. 모르는 것입니다. 적이 어디에 있는지, 몇 대인지, 무장이 무엇인지 모르는 상황에서 싸워야 한다면, 아무리 좋은 무기도 소용이 없습니다. AI의 센서 융합은 그 무지의 어둠에 빛을 비춥니다. 수많은 센서 데이터의 홍수 속에서 노이즈를 걸러내고, 거짓 표적을 구분하며, 조종사가 신뢰할 수 있는 단일 통합 상황도를 제공합니다. 이것이 5세대, 6세대 전투기의 진짜 힘입니다. 스텔스가 아닙니다. 융합입니다.

4. 표적 탐지·추적·식별: ATR과 멀티타깃 트래킹

고도 2만 5천 피트. 캐노피 너머로 펼쳐진 하늘은 쨍하게 파랗습니다. 그러나 그 고요함 아래에는 치명적인 긴장감이 도사리고 있습니다. 레이더 경보 수신기가 삐- 삐- 하고 울리기 시작합니다. 누군가 나를 보고 있다는 신호입니다. 조종석의 전술 디스플레이에는 여섯 개의 녹색 점이 나타났습니다. 적인지 아군인지, 아니면 그냥 지나가는 민항기인지 알 수 없습니다. 심장이 쿵쿵 뜁니다. 시속 1천 킬로미터로 날아가는 상황에서 이 여섯 개의 점 중 하나가 나를 죽이러 오는 적기라면, 나에게 남은 시간은 고작 몇 초뿐입니다.

옛날 전투 조종사들은 이 순간을 온전히 자기 눈과 감각에 의존해야 했습니다. 우리는 그것을 '마크 원 아이볼(Mk.1 Eyeball)'이라고 불렀습니다. 사람의 눈이라는 뜻입니다. 레이더가 뭔가를 잡아도 그게 정확히 무엇인지 알려면 직접 눈으로 확인하는 수밖에 없었습니다. 문제는 그때쯤이면 이미 적의 미사일이 발사되었을 수 있다는 것입니다. 눈으로 확인하는 순간 죽는다. 이것이 공중전의 잔인한 현실입니다.

바로 이 지점에서 ATR이 등장합니다. ATR은 '자동 표적 인식(Automatic Target Recognition)'의 줄임말입니다. 쉽게 말하면, 기계가 스스로 적을 찾아내고 "저건 적입니다" 또는 "저건 아군입니다"라고 알려주는 기술입니다. 사람이 눈을 부릅뜨고 레이더 화면을 노려볼 필요가 없습니다. 인공지능이 대신 보고, 대신 판단합니다.

ATR 시스템의 핵심에는 딥러닝이라는 기술이 있습니다. 딥러닝은 인공지능이 수백만 장의 사진을 보면서 스스로 패턴을 배우는 방법입니다. 마치 어린아이가 수없이 많은 개 사진을 보다가 어느 날 갑자기 "저건 개야!"라고 말할 수 있게 되는 것처럼, 인공지능도 적 전차, 적 전투기, 적 미사일 발사대의 모양과 특징을 학습합니다. 포탑의 형태, 날개의 각도, 배기 가스의 열 패턴. 이런 것들을 외우고 또 외웁니다.

실제 전장에서 ATR이 어떻게 작동하는지 살펴보겠습니다. 합성개구레이더(SAR)라는 장비가 있습니다. 이 레이더는 구름을 뚫고, 밤에도, 비가 와도 지상의 모습을 찍어낼 수 있습니다. 그런데 SAR가 보내오는 이미지는 우리가 보는 사진과 다릅니다. 회색과 검은색이 뒤섞인 알쏭달쏭한 그림입니다. 훈련받은 분석관도 그 그림을 해독하는 데 몇 시간씩 걸립니다. 그러나 인공지능은 0.1초 만에 답을 냅니다. "저 그림자 아래 숨어 있는 건 T-72 전차입니다. 포탑이 15도 회전한 상태이고, 엔진이 켜져 있습니다.”

미국 국방부의 '프로젝트 메이븐(Project Maven)'은 이 기술의 위력을 세상에 보여주었습니다. 예전에는 정찰 드론이 찍어온 수천 시간 분량의 영상을 분석관들이 일일이 들여다봐야 했습니다. 눈이 빠지도록 화면을 노려보다 보면 집중력이 떨어지고, 중요한 것을 놓치기도 합니다. 그러나 인공지능은 지치지 않습니다. 24시간 쉬지 않고 영상을 분석하면서 의심스러운 장면만 골라서 사람에게 보여줍니다. 덕분에 분석관들은 정말 중요한 판단에만 집중할 수 있게 되었습니다.

F-35 라이트닝 II가 '하늘의 지배자'라고 불리는 이유도 여기에 있습니다.

이 전투기는 센서 융합(Sensor Fusion)이라는 놀라운 능력을 가지고 있습니다. 레이더, 적외선 카메라, 전자전 장비에서 들어오는 온갖 데이터를 인공지능이 합쳐서 하나의 그림으로 만들어줍니다. 조종사의 헬멧 디스플레이에는 적기가 붉은색 박스로 표시되고, 그 아래에 기종과 무장 상태까지 친절하게 적혀 나옵니다. "Su-35, 공대공 미사일 4발 탑재 추정." 조종사는 더 이상 레이더 스코프를 해독하느라 머리를 쥐어짤 필요가 없습니다.

그런데 적이 하나가 아니라면 어떻게 될까요? 여기서 멀티타깃 트래킹(Multi-Target Tracking)이 등장합니다. 다중 표적 추적이라는 뜻입니다.

현대전에서 적은 혼자 오지 않습니다. 무인기 수십 대가 벌떼처럼 몰려오고, 그 사이에 진짜 전투기가 숨어 있습니다. 어떤 것은 미끼이고, 어떤 것은 진짜 위협입니다. 인간의 뇌는 한 번에 서너 개 이상의 물체를 추적하기 어렵습니다. 화면에 스무 개의 점이 나타나면 머릿속이 하얘집니다. 어떤 놈을 먼저 상대해야 할지 결정하는 동안 적의 미사일이 날아옵니다.

인공지능은 다릅니다. 수백 개의 표적을 동시에 추적할 수 있습니다.

각 표적에 고유한 번호를 붙이고, 속도와 방향을 계산하며, 앞으로 어디로 갈지 예측합니다. 마치 천 개의 눈을 가진 괴물 같습니다. 2024년 7월, 미국 공군은 'ATA-AI(Advanced Tracking Architecture Using AI)'라는 프로젝트를 시작했습니다. 9,900만 달러, 우리 돈으로 1,300억 원이 넘는 예산을 들여 차세대 표적 추적 기술을 개발하는 프로젝트입니다. 스텔스기, 극초음속 무기, 드론 스웜처럼 탐지하기 어려운 위협들을 상대하기 위해서입니다.

드론 스웜을 상상해 보십시오. 수백 대의 작은 드론이 벌떼처럼 몰려옵니다. 어떤 놈이 자폭 드론이고, 어떤 놈이 단순한 교란체인지 사람 눈으로는 구분할 수 없습니다. 그러나 인공지능은 각 드론의 비행 패턴을 분석합니다. "1번부터 80번까지는 단순한 미끼입니다. 열 신호도 없고 직선으로만 날아갑니다. 그러나 81번, 95번, 112번은 다릅니다. 회피 기동을 하고 있고, 적외선 신호가 포착됩니다. 이 세 놈이 진짜 위협입니다." 인공지능은 이런 분석을 1초도 안 되는 시간에 해냅니다.

이 기술의 핵심 알고리즘 중 하나가 칼만 필터(Kalman Filter)입니다. 1960년대에 개발된 수학 공식인데, 움직이는 물체의 다음 위치를 예측하는 데 사용됩니다. 아폴로 우주선의 항법 시스템에도 쓰였던 유서 깊은 기술입니다. 현대의 인공지능은 여기서 한 발 더 나아갑니다. 적기의 과거 행동 패턴을 학습해서 "이 조종사는 왼쪽으로 도는 것을 좋아한다" 또는 "이 기종은 고도를 낮추면서 공격하는 경향이 있다"는 것까지 예측합니다.

록히드 마틴의 스컹크 웍스(Skunk Works)는 미사일 회피 시스템을 개발하고 있습니다. 적의 미사일이 날아올 때, 편대 중 누구를 노리고 있는지 순식간에 파악하고 최적의 회피 기동을 계산합니다. 예전에는 조종사가 여러 개의 디스플레이를 번갈아 보면서 판단해야 했습니다. 이제는 인공지능이 그 모든 정보를 종합해서 "지금 당장 오른쪽으로 5G 선회하세요!"라고 알려줍니다.

중국도 이 경쟁에서 뒤처지지 않습니다. J-20 전투기에 정교한 전자광학 추적 시스템을 통합하고 있고, 미국의 스텔스기인 F-22와 F-35를 탐지하기 위한 알고리즘을 개발하고 있습니다. 양자 레이더와 인공지능을 결합해 스텔스 기술을 무력화하려는 시도도 진행 중입니다.

유럽의 FCAS(미래전투항공체계) 프로젝트는 '컴뱃 클라우드(Combat Cloud)'라는 개념을 추구합니다. 전장에 떠 있는 모든 비행체가 하나의 거대한 네트워크로 연결되고, 각자가 본 것을 실시간으로 공유합니다. 유인 전투기가 보지 못한 적을 무인기가 발견하면 즉시 정보가 전달됩니다. 이것은 마치 수백 개의 눈이 하나의 뇌에 연결된 것과 같습니다.

결국 공중전의 법칙은 변하지 않았습니다. 먼저 보고(First Look), 먼저 쏘고(First Shoot), 먼저 죽이는(First Kill) 쪽이 이깁니다. 달라진 것은 속도입니다. 인간의 판단 속도에는 생물학적 한계가 있습니다. 눈으로 보고, 뇌가 인식하고, 손이 움직이기까지 최소 수백 밀리초가 걸립니다. 그러나 인공지능의 연산 속도는 밀리초 단위가 아니라 마이크로초 단위입니다. 인간이 "어?" 하는 사이에 인공지능은 이미 표적을 식별하고 미사일 시커를 개방했습니다.

그렇다고 인간이 필요 없어지는 것은 아닙니다. 기계가 아무리 많은 표적을 탐지하고 분류한다 해도, 최종 결정은 인간의 몫입니다. 만약 인공지능이 민간 여객기를 적기로 오인한다면? "아니, 저건 적이 아니야"라고 말할 수 있는 사람이 필요합니다. 인공지능이라는 강력한 사냥개를 부리는 사냥꾼. 그것이 미래 전투 조종사의 역할입니다.

5. 설명 가능한 AI(XAI)

1988년 7월 3일, 페르시아만. 미국 해군의 이지스 순양함 빈센스호(USS Vincennes)의 전투정보실(CIC)에서 비극이 시작되었습니다. 레이더 화면에 정체불명의 항적이 나타났습니다. 함장과 승무원들은 긴장했습니다. 당시 이란과의 군사적 긴장이 극도로 높았기 때문입니다. 컴퓨터 시스템은 그 항적을 이란 공군의 F-14 전투기로 분류했습니다. 함장은 미사일 발사를 명령했습니다.

그러나 그것은 F-14가 아니었습니다. 이란항공 655편, 민간 여객기였습니다. 290명의 승객과 승무원 전원이 사망했습니다. 나중에 조사해보니 컴퓨터 시스템이 잘못된 정보를 표시했고, 극도의 긴장 상태에서 승무원들이 그것을 그대로 믿었습니다.

왜 이런 비극이 일어났을까요? 당시의 시스템은 "저건 F-14입니다"라고만 말했습니다. 왜 F-14라고 판단했는지, 얼마나 확신하는지, 다른 가능성은 없는지 설명하지 않았습니다. 승무원들은 기계의 말을 검증할 방법이 없었습니다. 이것이 바로 '블랙박스(Black Box)' 문제입니다.

블랙박스는 속을 들여다볼 수 없는 검은 상자를 말합니다. 입력값을 넣으면 출력값이 나오지만, 그 중간에 무슨 일이 벌어지는지 알 수 없습니다. 현대의 딥러닝 인공지능도 마찬가지입니다. 수백만 개의 파라미터가 복잡하게 얽혀 있어서, 개발자조차 왜 그런 결론이 나왔는지 정확히 설명하지 못할 때가 많습니다.

전투 조종사들에게 신뢰는 목숨과 같습니다. 내 윙맨이 갑자기 대열을 이탈해서 급선회를 한다면, 나는 무전기를 붙잡고 소리칠 것입니다. "왜 그러는 거야!" 그때 윙맨이 "3시 방향에서 SAM(지대공 미사일) 발사를 확인했습니다! 회피 중입니다!"라고 대답한다면, 나는 즉시 이해하고 나도 회피 기동에 들어갑니다. 이유를 설명했기 때문입니다.

그런데 만약 윙맨이 인공지능 무인기라면 어떨까요? 놈이 갑자기 적진 한복판으로 돌진합니다. 내 레이더에는 아무것도 보이지 않는데 말입니다. 이게 천재적인 전술인지, 시스템 오류인지, 해킹당한 건지 알 수 없습니다. 그 순간 나는 공포에 빠집니다. 이해할 수 없는 행동은 반역과 구분되지 않습니다.

2020년, DARPA의 알파독파이트 트라이얼에서 헤론 시스템즈의 인공지능 '팔코(Falco)'가 인간 조종사 '뱅어(Banger)'를 5대 0으로 완파했습니다. 그 결과는 충격적이었습니다. 그러나 과정도 이상했습니다. 팔코는 인간 조종사라면 절대 하지 않을 기동을 선보였습니다. 적기를 향해 정면으로 돌진하면서 기관포를 쏘는 '헤드온(Head-on)' 전술을 구사했고, 1초에 수십 번씩 미세하게 조종간을 떨었습니다. 뱅어는 대결 후 이렇게 말했습니다. "저 녀석의 사격 실력은 믿기 어려울 정도로 정확하다. 하지만 왜 저런 기동을 하는지, 다음에 뭘 할지 예측할 수가 없다.”

시뮬레이션에서는 인공지능이 이상한 짓을 하다 추락해도 리셋 버튼을 누르면 됩니다. 그러나 실제 전장에서는? 내 곁에서 날고 있는 인공지능 무인기가 갑자기 민간인 마을을 향해 미사일을 발사한다면? 그게 적의 위장 거점을 타격하는 것인지, 아니면 오작동인지 어떻게 알 수 있겠습니까?

이 문제를 해결하기 위해 등장한 것이 XAI(eXplainable AI, 설명 가능한 인공지능)입니다. 인공지능이 "왜" 그런 결정을 내렸는지 사람이 이해할 수 있는 말로 설명해 주는 기술입니다.

DARPA는 2016년부터 XAI 프로그램을 가동했습니다. 그들의 목표는 명확합니다. "높은 성능을 유지하면서도 설명 가능한 모델을 만들고, 인간이 인공지능 파트너를 이해하고 적절히 신뢰하며 효과적으로 관리할 수 있게 하라." 말은 쉽지만 실현은 어렵습니다.

기존의 인공지능이 "이것은 적 전차입니다. 확률 97%"라고만 말했다면, XAI는 이렇게 말합니다. "이것은 T-90 전차입니다. 판단 근거는 다음과 같습니다. 첫째, 포탑의 형상이 T-90의 데이터베이스와 95% 일치합니다. 둘째, 적외선 센서에서 포착된 엔진 열 분포가 디젤 엔진의 특성을 보입니다. 셋째, 주변에 배치된 호위 차량의 대형이 러시아군 기갑부대 교리와 일치합니다.”

이런 설명이 있어야 조종사가 인공지능의 판단을 검증할 수 있습니다. 만약 인공지능이 엉뚱한 이유로 표적을 식별했다면(예를 들어 나무 그림자 모양 때문에), 조종사는 "이 멍청한 기계가 또 틀렸군"이라며 공격을 취소할 수 있습니다.

2025년 4월, 미국 공군은 '인공지능에 관한 교리 문서(AFDN 25-1)'를 발표했습니다. 이 문서는 군사 인공지능 개발에서 "투명하고 설명 가능한 알고리즘"을 사용하고 "정기적인 감사와 평가"를 실시하라고 명시합니다. 데이터가 접근 가능하고 이해 가능해야만 군사 응용 프로그램을 구축할 수 있다는 것입니다.

신뢰의 보정(Trust Calibration)이라는 개념도 중요합니다. 인공지능을 너무 믿어서도, 너무 안 믿어서도 안 된다는 뜻입니다. 너무 믿으면 빈센스호의 비극이 반복됩니다. 너무 안 믿으면 인공지능을 꺼버리거나 무시해서 활용하지 못합니다. 인공지능이 자신의 확신도를 솔직하게 밝혀야 합니다. "이 표적은 99% 확률로 적입니다"라고 말할 때와 "이 표적은 적일 확률이 60%입니다. 식별이 불확실합니다"라고 말할 때, 인간의 대응은 달라야 합니다.

프랑스의 방산 기업 탈레스(Thales)는 'TrUE AI'라는 슬로건을 내걸었습니다.

투명하고(Transparent), 이해 가능하며(Understandable), 윤리적인(Ethical) 인공지능을 만들겠다는 것입니다. 그들은 인공지능의 의사결정 과정을 추적 가능하게 만들어서, 사고가 발생했을 때 비행기의 블랙박스를 분석하듯 인공지능의 사고 과정을 역추적할 수 있는 기술을 개발하고 있습니다.

호주 공군이 보잉과 함께 개발 중인 MQ-28 고스트 배트(Ghost Bat) 무인기도 이 문제에 집중합니다. 유인 전투기 조종사가 자신의 윙맨인 고스트 배트에게 임무를 맡길 때, 조종사는 무인기가 어떤 상태인지, 명령을 제대로 이해했는지 한눈에 알 수 있어야 합니다. 복잡한 데이터를 직관적인 그림으로 바꿔주는 인터페이스가 필요합니다.

2024년 5월, 프랭크 켄달 미국 공군 장관은 인공지능이 조종하는 X-62A VISTA 전투기에 직접 탑승했습니다. 시속 550마일(시속 약 880킬로미터)이 넘는 속도로 공중전 기동을 수행하는 동안 켄달 장관은 뒷좌석에 앉아 있었습니다. 비행 후 그는 "인공지능에게 무기 발사 결정을 맡길 수 있을 것 같다"고 말했습니다. 그러나 이것은 수천 시간의 시뮬레이션과 테스트, 그리고 인공지능이 왜 그런 기동을 하는지 설명할 수 있게 된 후에야 가능해진 신뢰입니다.

XAI에는 한계도 있습니다. 설명을 생성하려면 추가적인 계산이 필요합니다. 전투기가 밀리초 단위로 결정을 내려야 하는 상황에서, 설명을 만드느라 시간을 지체할 수는 없습니다. 또한 너무 복잡한 설명은 오히려 조종사를 혼란스럽게 만듭니다. "포탑 형상의 곡률이 0.73이고 열 분포의 표준편차가 2.4입니다"라는 설명은 공학자에게나 의미가 있습니다. 조종사에게는 "저건 전차야, 쏴!"가 필요합니다.

적대적 공격(Adversarial Attack)의 위협도 있습니다. 만약 적이 우리 인공지능의 약점을 안다면? 예를 들어 우리 인공지능이 포탑 형상에 크게 의존한다는 것을 알아챘다면, 전차에 위장망을 씌워 포탑 윤곽을 왜곡할 수 있습니다. 사람 눈에는 보이지 않는 미세한 패턴을 이미지에 추가해서 인공지능을 속일 수도 있습니다. XAI가 인공지능의 판단 근거를 공개하면, 역으로 적에게 우리의 약점을 알려주는 셈이 될 수도 있습니다.

윤리적 문제도 남아 있습니다. 인공지능이 설명을 제공한다고 해서 책임이 면제되는 것은 아닙니다. 인공지능이 "표적의 열 신호 패턴이 적 전투기와 94% 일치합니다"라고 설명했지만 실제로는 민간 여객기였다면, 누가 책임져야 합니까? 코드를 짠 프로그래머입니까? 발사 버튼을 누른 조종사입니까? 아니면 인공지능을 배치하기로 결정한 지휘관입니까?

국제적십자위원회(ICRC)와 미국 국방부 모두 자율 무기 시스템의 개발과 사용에서 설명 가능성을 핵심 요소로 꼽습니다. "의미 있는 인간 통제(Meaningful Human Control)"라는 원칙이 강조됩니다. 그러나 극초음속 미사일이 날아오고 드론 수백 대가 덤비는 찰나의 순간에 인간이 개입할 시간이 있을까요? 아마 없을 것입니다. 그때 우리는 인공지능에게 "네가 알아서 해"라고 권한을 위임해야 할지도 모릅니다.

그래서 XAI는 단순히 "지금 왜 그러는지 설명해"라는 실시간 질문에 답하는 것만이 아닙니다. 인공지능을 배치하기 전에 수천 가지 시나리오에서 테스트하고, 어떤 상황에서 어떻게 판단하는지 미리 검증하는 것입니다. 인공지능이 "이 상황은 제가 학습한 범위를 벗어났습니다. 인간님, 당신이 판단하십시오"라고 솔직하게 말할 수 있게 만드는 것입니다.

전투기 조종사로서 나는 기계를 사랑합니다. F-16의 엔진이 내 등 뒤에서 으르렁거릴 때, 플라이 바이 와이어 시스템이 내 손끝의 미세한 조작을 정확히 번역해줄 때, 나는 기계와 하나가 된 느낌을 받습니다. 그러나 그것은 그 기계를 이해하기 때문입니다. 엔진 소리가 조금만 이상해도 알아챕니다. 조종간의 반응이 평소와 다르면 즉시 느낍니다.

인공지능도 마찬가지여야 합니다. 인공지능의 생각을 이해하고, 인공지능이 나에게 자기 생각을 설명할 수 있을 때, 비로소 우리는 진정한 '팀'이 됩니다. 그때가 되면 나는 기꺼이 조종간을 놓고, 인공지능이 보여주는 전술 화면을 보며 지휘를 할 수 있을 것입니다.

설명 없는 지능은, 전장에서는 광기와 구분되지 않습니다. 블랙박스 안의 유령이 아니라, 등을 맡길 수 있는 전우가 필요합니다. XAI는 바로 그 전우를 만들기 위한 우리의 노력입니다.



#강화학습전투기훈련원리 #reinforcement_learning_air_combat #AI전투학습시뮬레이션 #수천만번가상공중전 #deep_RL_fighter_jet #PPO알고리즘공중전 #AlphaGo강화학습전투적용 #보상함수전투기AI설계 #AI가상죽음학습과정 #self_play_aerial_combat #Sim2Real_전투기AI #시뮬레이션현실전이학습 #sim_to_real_transfer_fighter #digital_twin_combat_aircraft #가상환경실제비행격차 #도메인랜덤화전투기AI #센서퓨전전투기AI #sensor_fusion_fighter_aircraft #레이더EO_IR데이터통합 #전자전ESM센서융합 #AESA레이더AI데이터처리 #적외선탐색추적IRST_AI #다중센서데이터융합기술 #멀티센서퓨전알고리즘 #ATR자동표적인식기술 #automatic_target_recognition_AI #멀티타깃트래킹AI #multi_target_tracking_algorithm #표적탐지추적식별AI #AI표적분류딥러닝 #객체탐지YOLO전투기적용 #전장상황인식AI기술 #설명가능한AI_XAI군사 #explainable_AI_military #XAI전투기의사결정 #AI신뢰성전투기조종사 #블랙박스AI군사적위험 #AI판단근거설명기술 #조종사AI신뢰구축 #인간기계팀워크전투기 #김경진AI전투학습기술 #김경진하늘의지배자제3부 #김경진인공지능전투기책 #김경진강화학습군사AI #김경진센서퓨전AI국방 #김경진XAI설명가능한AI #김경진AI군사기술분석 #김경진자율무기기술윤리 #김경진AI학습알고리즘국방 #김경진인공지능전투기저서
전체 0

위로 스크롤