**이 글은 무료입니다~!
이란 전쟁이 #AI전쟁 이란 이야긴 한 번 쯤 들어보셨지요? 이제 전쟁이 ‘머신 스피드’로, ‘전쟁 OS’의 도움을 받아 이뤄지고 있어요. AI 시스템으로 무장한 미국의 군사력을 최근 전세계는 두번이나 목도했어요. 이제 너도나도 방위 시스템에 AI를 통합하게 될 텐데요. 바로 이 지점에서 #소버린AI 의 중요성이 고개를 들고 있어요. 아울러 아직 완벽하지 않은 AI를 통제할 방안을 전세계가 논의하지 않아도 되는 걸까요?
이번 이란 전쟁은 AI의 가공할 위력에 대해 다시금 곱씹게 하는 계기였어요.
그간 AI는 주로 비즈니스용, 크리에이티브용 도구로 인식되어 있었지만, 이란 전쟁은 AI의 가장 강력한 파워는 전쟁과 만나는 순간이라는 걸 일깨워주었죠.
Anthropic의 LLM인 Claude가 전쟁에 사용되었다는 건 다들 들어보셨을 거예요.
미군은 Palantir가 구축한 Maven Smart System 안에 Claude를 통합해 사용했어요. Maven은 일종의 전쟁용 데이터 OS로, Claude는 위성, 드론, 통신 감청 등 방대한 군사 데이터를 순식간에 분석하는 역할을 맡고 있죠.
전쟁에 AI가 작동하는 과정을 조금 자세히 들여다보자면요. 원래 전통적인 군사 의사결정 흐름은 다음 단계로 이루어져요.
- 감시(Surveillance)
- 목표 식별(Target identification)
- 공격 계획(Strike planning)
- 무기 선택
- 공격 실행
- 결과 평가
이 중 AI는 특히 2~4단계를 자동화하고 빠르게 가속화해요. 즉, 데이터 분석으로 잠재 타깃을 자동 탐지하고, 공격 가능성 평가하고, 어떤 무기와 순서가 효율적인지 추천하는 거죠. 기존 전쟁에서는 위성·정찰기·감청 등을 통해 수집된 정보를 분석관이 검토하고, 지휘부가 여러 단계의 검증을 거쳐 공격 여부를 결정하느라 전투 계획을수립하는 데에는 보통 며칠~ 수개월까지도 소요되곤 했어요.
하지만 AI의 도움으로 이제 전투계획은 거의 실시간으로 생성될 수 있게 됐죠. 실제로 초기 이란 공습에서 첫 24시간 동안 1,000개 이상 타깃을 분석해 AI가 좌표와 공격 우선순위 제시했다는 보도는 꽤 많았어요.
이제 AI 시대의 전투 의사결정 단계는 이렇게 달라지고 답니다.
- 데이터 수집
- AI가 타깃 탐지
- AI가 우선순위 결정
- 인간 승인
- 공격
이 변화에서 실로 무서운 건 전쟁의 속도가 ‘머신 스피드’가 되었다는 거예요.
20여년 전인 2003년 미국이 이라크를 침공했을 때에는 미군은 이라크 대통령인 사담 후세인을 잡는데 9개월이 걸렸고, 재판을 거쳐 사형하기까지는 약 3년 9개월이 걸렸어요. 하지만 2026년 미국이 이란을 침공했을 때에는 하메네이는 첫 공격에서 바로 사망했죠. 이제 AI 플랫폼을 손에 쥔 나라와 그런 게 없는 나라가 붙었다가는 전쟁의 성패가 첫 공격, 혹은 단 하루 만에 좌우될 수 있어요.
미국의 AI 방산 파워를 최근 전세계는 두번이나 목도했어요. 미군은 지난 1월 베네수엘라의 마두로 대통령을 3시간만에 체포했고, 이란 전쟁에선 하메네이를 첫 공격에 바로 지옥으로 보냈어요.
이제 미국을 상대로 방위권을 강화해야 하는 나라들은 너도 나도 전쟁기술에 AI를 도입할 수 밖에 없답니다. 확실히 중국과 러시아, 북한은 반드시 AI 전쟁기술을 빠르게 강화할 거예요.
그럼 또 일이 거기서 끝나지 않게 되지요…. 러시아가 AI 기술을 갖춘다면 나토도 AI 기술이 있어야 하고, 마찬가지로 북한이 AI 기술이 있다면, 당근 우리도 AI 기술이 있어야 해요. 이제 전쟁 AI OS는 제 2의 핵과 다름 없어요.
좌, 그럼 각 나라들은 어떻게 전쟁 OS를 만들어야 할까요? 그냥 Claude에 돈내고 쓰면 될까요? 그 시스템은 또 AWS에 돌리면 될까요?
바로 이 질문이 각 나라들이 자신들만의 소버린AI를 구축하려는 이유의 핵심이에요.
Claude는 미국 기업이에요. 미국은 고민없이 쓸 수 있지만, 다른 나라들은 군사 데이터나 정부 데이터를 해외 LLM에 연동해 쓰고 싶지 않아해요.
왜냐면 이번 쿠팡 사태도 한 번 보세요. 미국 기업인 쿠팡이 한국 정부 말 듣던가요? 전쟁이 일어났을 때 시스템에 문제가 생겼을 경우, ‘언더콘트롤’이 되야 하는데, 불러도 안오고… 다른 말 하고.. 그러면 어떻게 되겠어요..?
또 AWS 같은 해외 클라우드 플랫폼에서 AI를 돌릴 수도 없어요. 바로 얼마 전에도 미국에서 대규모로 AWS가 멈추는 일이 있었어요. 모든 클라우드 플랫폼들에서 이런 먹통은 종종 발생하는데, 막 적군에게서 공습들어오고 있는데 갑자기 클라우드가 멎으면 어찌되나요? 그것도 다른 나라 클라우드여서 담당자가 전화도 안 받고.. 속절없이 복구를 기다리는 것 외에는 아무런 손을 쓰지 못한다면요?
그럼 우리 데이터와 시스템에 대한 ‘주권’을 발휘할 수 없게 되어요. 소버린 AI의 핵심은 시스템과 데이터에 대한 주권확보예요. 국가 안보에 관해선, 모든 나라가 자국 내 데이터센터에 GPU 꽂고 돌리는 인프라, 또 자국 내에서 콘트롤 가능한 자국 LLM이 꼭 필요해요.
물론 소버린 AI가 꼭 전쟁을 위해 개발하는 것만은 아니에요. 국가 기밀급인 핵심산업 데이터도 자국 내에서 ‘언더콘트롤’ 하에 두고 싶죠. 하지만 국제적 긴장이 세계대전 시대급으로 올라간 지금, AI는 거의 방산이 되고 있어요. 아무도 말하지 않지만 누구나 느끼고 있는 이 긴장감.
우리는 과연 어떤 AI를 소버린 AI로 갖게 될까요?
소버린 AI는 무엇보다 ‘진실로’ 뛰어나야 해요. 이제 전쟁에도 쓰이고 있기 때문에, 할루시네이션이 일어나면 큰일나요.
생각해보면, AI가 타깃을 정하고 공격방법까지 추천하는 시대는 너무나 섬짓한 시대예요. 여기 오류가 있다면 무슨 일이 벌어질까요? 그야 이란의 여자 초등학교가 폭격당해 첫날 165명이 사망한 끔찍한 비극이 반복되는 것이죠. AI의 할루시네이션은 군사시설과는 거리가 먼 우리 집, 우리 애들 학교에도 폭탄이 떨굴 위험이 있어요.
바로 이 지점에서 섬뜩함을 느낀 Claude가 국방부에게 개겼답니다.
이 기업은 “AI가 살상 의사결정에 직접 관여하는 것”에 대해 가이드라인을 두고 싶어했어요. 인간이 형식적으로 승인만 하게 될 경우, 사실 AI가 의사 결정을 하는 것과 다를 바 없기 때문이죠. 또 AI 분석 속도가 너무 빨라지면 군 지휘관이 충분히 검토하지 못한 채 결정을 내려야 하는데, 그럼 또 이 때 초등학교 폭격 같은 무서운 사고가 일어날 수 있어요. LLM은 아직 오판 가능성에서 자유롭지 않아요.
하지만 미국 국방부는 Claude에 ‘너 말 안듣는 넘이네’ 하며 Claude를 ‘공급망 위험’ 기업으로 지정해버려요. 마치 Claude의 기를 꺾겠다는 듯이.
일면, 미국 국방부의 입장도 이해가 되는 면도 있긴 해요. 안보, 국방은 ‘주도권’이 중요한데, 핵심 기술 제공 기업이 너무 감놔라 배놔라 하면 전쟁을 할 수가 없으니까요. 최근 미 국방부는 이 리스크를 인지하고, 장기적으론 여러 회사 AI를 함께 쓰겠단 전략으로 선회했어요. 그리하여.. OpenAI와 일론머스크의 xAI를 불러들였죠. 둘다 강하게 AI의 윤리철학을 내세우는 기업이 아니다보니…
하지만 머신 스피드로 전쟁이 일어난다는 너무나 무서운 결정이에요. AI가 아직 완벽하지 않다는 걸 아는 많은 과학자들이 Anthropic의 편을 들고 있어요. 구글 딥마인드의 수석 과학자 제프 딘을 비롯해 경쟁사인 오픈AI·구글 소속 AI 연구자 37명은 법원에 Anthropic의 손을 들어 줄 것을 촉구하는 의견서를 제출했답니다.
또한 Claude의 바른 결정으로 인해 생긴 틈을 OpenAI가 파고들었다며 많은 유저들이 항의의 뜻으로 ChatGPT에서 Claude로 갈아타는 일이 생겨, 순간 Claude가 1위 플랫폼 자리를 찍기도 했어요. OpenAI 본사를 엄청난 시위대가 둘러싸는 일도 있었구요.
세상엔 핵이 있지만, 함부로 쓰면 안된다는 걸 알았듯이, AI 또한 함부로 쓰면 안된다는 주의가 필요해요.
하지만 세상이 그렇게 굴러가고 있지만은 않으니.. 우리도 소버린 AI가 필요한 것이 현실이죠. 이 프로젝트는 어떻게 진행되고 있을까요? 한국이 만들었다는 것에 만족해야 하는 LLM이 아니라, 진실로 제대로 작동할 수 있는 LLM이 나오길 기대해 봅니다.