픽셀이 된 인간, 스크린 너머의 죽음
이야기는 2024년, 가자지구의 한 난민촌을 비추는 모니터 앞에서 시작됩니다. 스무 살 남짓한 이스라엘 병사의 책상 위엔 가족사진 대신 차가운 스크린이 놓여있습니다. 그의 임무는 흙먼지 날리는 전장을 달리는 것이 아니에요. 시원한 통제실 의자에 앉아, 화면에 떠오른 수많은 점과 선, 그리고 인공지능(AI)이 ‘표적’이라 이름 붙인 픽셀 덩어리를 바라보는 것이죠.
‘라벤더(Lavender)’라는 AI는 하마스 대원으로 의심되는 3만 9천 명의 명단을 만들었고, ‘가스펠(The Gospel)’이라는 또 다른 AI는 그들이 머무를 만한 건물을 족집게처럼 찾아냈습니다. 병사에게 주어진 시간은 단 20초. AI의 판단을 그저 ‘인간의 눈으로’ 확인하고 승인 버튼을 누르면 그의 임무는 끝납니다. 클릭 한 번에, 한때 누군가의 따뜻한 보금자리였을 아파트가 지도 위에서 먼지처럼 사라집니다. 폭음도, 비명도 들리지 않습니다. 오직 스크린에 오르는 데이터 처리량만이 그의 성과를 말해줄 뿐이죠.
이것은 더 이상 먼 미래의 이야기가 아닙니다. 우크라이나의 광활한 평야에서는 AI 드론들이 서로를 사냥하고, 실리콘밸리의 심장부에서는 세계 최고의 인재들이 더 빠르고 정확하게 사람을 죽이는 방법, 즉 ‘킬체인(Kill Chain)’ 알고리즘을 개발하고 있습니다. 인류의 전쟁 방식이 뿌리부터 흔들리고 있는 것이죠.
창과 칼에서 화약으로, 다시 핵무기로 진화해 온 전쟁의 패러다임이 이제는 ‘인간’이라는 마지막 변수마저 시스템 밖으로 밀어내려 하고 있습니다. 우리는 인공지능이 전쟁의 주역이 되는** ‘알고리즘 전쟁’의 시대, **그 거대한 문턱에 서 있습니다.
이 새로운 전쟁은 단순히 무기가 강해지는 차원의 문제가 아닙니다. 전쟁의 속도와 규모, 그리고 가장 중요하게는 전쟁의 ‘윤리’를 뒤흔들고 있습니다. 인간의 손가락이 방아쇠를 떠나고, 그 자리를 실리콘 칩의 빠른 연산이 대신할 때, 우리는 무엇을 얻고 무엇을 잃게 될까요? ‘부수적 피해’라는 차가운 단어 뒤에 숨은 수많은 생명의 무게를 AI의 확률 계산에 맡겨도 괜찮은 걸까요?
이 글은 이 서늘한 질문에 대한 답을 찾아가는 여정입니다. 우리는 스스로 설계한 ‘죽음의 알고리즘’이 어떻게 우리의 문을 두드리고 있는지 똑바로 마주하고, 그 문을 활짝 열어주기 전에 무엇을 해야 할지 함께 고민해야 합니다. 인류의 미래는, 우리가 이 무서운 기술에 어떤 도덕적 족쇄를 채울 것인지에 달려있기 때문입니다.
제1장: 새로운 전장의 신(神), 코드(Code)
전쟁의 역사는 곧 기술의 역사라고들 하죠. 더 멀리, 더 정확하게, 더 파괴적으로. 하지만 지금 우리가 마주한 변화는 조금 다릅니다. 바로 ‘결정의 주체’가 인간의 손을 떠나고 있기 때문입니다.
1.1 ‘인간-루프’를 벗어나는 살인 기계
AI 전쟁을 이해하려면, ‘인간-루프(Human-in-the-Loop)’라는 개념을 먼저 알아야 해요. 인간이 무기 시스템에 얼마나 개입하는지에 따라 세 단계로 나눌 수 있습니다.
- 사람이 중심인 단계 (Human-in-the-Loop)
- 가장 전통적인 방식입니다. 사람이 직접 목표를 정하고 발사 여부를 결정하죠. AI는 조준을 돕거나 정보를 주는 착한 조수 역할을 합니다. 전투기 조종사가 AI의 도움으로 적기를 조준하고 직접 미사일 버튼을 누르는 장면을 떠올리면 쉽습니다.
- 사람이 감독하는 단계 (Human-on-the-Loop)
- AI가 목표물을 찾아 공격을 제안하면, 사람이 이를 감독하고 최종적으로 거부할 수 있는 방식입니다. 이스라엘의 ‘아이언 돔’ 방어 시스템이 좋은 예죠. 시스템이 날아오는 로켓을 자동으로 찾아 요격 준비를 하지만, 마지막 발사 승인은 통제실의 사람이 합니다. 하지만 수많은 미사일이 날아드는 상황에서 인간의 역할은 점점 형식적인 감독자로 변해갑니다.
- 사람이 배제된 단계 (Human-out-of-the-Loop)
- 가장 논란이 많은 마지막 단계입니다. AI가 인간의 개입 없이 목표 식별부터 파괴까지 모든 것을 스스로 결정하고 실행합니다. 바로 ‘자율 살상 무기(LAWS)’, 우리가 흔히 ‘킬러 로봇’이라 부르는 존재들이죠. 이 무기들은 한번 작동되면, 인간의 추가 명령 없이 스스로 ‘적’을 판단하고 제거합니다.
Advertisement
문제는 전쟁의 속도가 너무나 빨라지면서 인간이 일일이 개입하는 것이 불가능해지고 있다는 점입니다. 수백, 수천 개의 드론이 벌떼처럼 공격해오는 ‘드론 스웜’ 공격을 상상해보세요. 이걸 사람이 하나하나 판단하고 막아낼 수 있을까요? 결국 방어하는 쪽도 똑같은 AI 스웜으로 맞설 수밖에 없습니다. 이는 인간의 통제를 벗어난 속도로 벌어지는 ‘기계들의 전쟁’으로 이어지고, 인간은 그저 시작 버튼을 누른 뒤 결과를 지켜보는 방관자가 될지 모릅니다.
1.2 우크라이나: 거대한 AI 전쟁 실험장
2022년 시작된 우크라이나 전쟁은 ‘최초의 AI 전쟁’이라 불릴 만큼 미래 전쟁의 모습을 압축적으로 보여주는 거대한 실험장이 되었습니다.
특히 우크라이나군은 미국 데이터 분석 기업 **팔란티어(Palantir)**의 AI 플랫폼 ‘고담(Gotham)’을 통해 전쟁의 판도를 바꾸고 있습니다. 팔란티어는 스스로를 ‘서구 민주주의를 위한 기술 파트너’라 칭하며 전쟁에 적극적으로 뛰어들었죠. 그들의 기술은 흩어져 있던 모든 정보를 하나의 거대한 ‘킬 웹(Kill Web)’으로 엮어냈습니다.
정찰 드론 영상, 민간 위성 사진, 통신 감청 데이터, 심지어 틱톡에 올라온 러시아군 영상까지, AI는 이 모든 것을 실시간으로 분석합니다. 과거라면 여러 부대에서 따로 분석했을 정보들이 하나의 플랫폼 위에서 합쳐져 러시아군의 위치, 규모, 다음 행동까지 예측해내는 것이죠. 지휘관은 마치 신처럼 전장을 내려다보며 최적의 공격 지점과 시간을 추천받습니다. 이 덕분에 우크라이나는 압도적인 러시아군을 상대로 효과적인 저항을 할 수 있었습니다.
하지만 이 놀라운 기술의 이면에는 불편한 질문이 남습니다. 팔란티어의 알고리즘이 추천한 포격 지점에 민간인 병원이 있었다면 그 책임은 누구의 것일까요? 탱크로 오인한 스쿨버스를 AI 드론이 공격했다면, 그건 누구의 잘못일까요? 프로그램의 오류일까요, 아니면 그 프로그램을 쓰기로 결정한 인간의 책임일까요? 우크라이나의 처절한 항전 뒤에는 이처럼 무서운 질문들이 그림자처럼 따라다니고 있습니다.
제2장: ‘라벤더’의 복음, 숫자가 된 인간의 비극
AI 전쟁의 가능성이 우크라이나에서 시험대에 올랐다면, 그 끔찍한 현실은 가자지구에서 증명되었습니다. 이스라엘 방위군(IDF)은 ‘효율적인 전쟁’이라는 이름 아래, 인간의 생명을 통계적 확률로 바꿔버리는 위험한 선을 넘고 말았습니다.
2.1 살인 공장(Mass Assassination Factory)의 탄생
이스라엘의 탐사보도 매체를 통해 ‘라벤더’와 ‘가스펠’이라는 두 AI 시스템의 존재가 세상에 알려졌습니다. 전직 정보 장교들의 증언은 충격적이었습니다.
- 라벤더 (Lavender)
- 이 AI의 임무는 단 하나, ‘하마스 대원으로 의심되는 모든 사람’을 찾아내는 것입니다. 라벤더는 230만 가자지구 주민의 통화 기록, SNS 활동, 특정 단체 채팅방 가입 여부 등 방대한 데이터를 학습해 ‘하마스 연계 가능성’을 점수로 매깁니다. 일정 점수가 넘으면, 자동으로 ‘살해 대상 목록’에 오르는 것이죠. IDF는 라벤더의 판단에 약 10%의 오류율이 있다는 것, 즉 10명 중 1명은 무고한 민간인일 수 있다는 사실을 알면서도 시스템 사용을 승인했습니다. 3만 9천 명의 목록에는 약 3,900명의 무고한 생명이 포함될 수 있다는 뜻이죠.
- 가스펠 (The Gospel)
- 라벤더가 ‘누구를’ 죽일지 정한다면, 가스펠은 ‘어디를’ 파괴할지 결정합니다. 이 AI는 수많은 건물과 시설 중에서 공격할 목표물을 순식간에 수백 개씩 만들어냅니다.
이 두 시스템의 결합은 IDF의 작전 방식을 완전히 바꿔놓았습니다. 민간인 피해를 줄이기 위해 신중을 기하던 과거와 달리, 이제는 하위 대원까지 표적으로 삼아 그들이 가족과 함께 있는 ‘집’을 의도적으로 공격했습니다. 심지어 ‘아빠 어디 있어?(Where’s Daddy?)’라는 이름의 AI는 표적이 집에 들어가는 순간을 추적해 공습 부대에 알리는 끔찍한 역할까지 수행했습니다.
2.2 ‘부수적 피해’의 통계화와 인간성의 마비
AI 시스템의 도입은 민간인 희생에 대한 기준을 무너뜨렸습니다. 과거에는 테러리스트 한 명을 잡기 위해 민간인 한두 명의 희생이 예상되면 작전을 취소하기도 했지만, 이제는 하위 대원 한 명을 제거하기 위해 최대 15~20명의 민간인 희생을, 고위 지휘관을 위해서는 100명 이상의 민간인 희생까지도 미리 승인했다고 합니다.
Advertisement
이는 전쟁의 비극이 ‘윤리적 고민’에서 ‘통계적 계산’의 문제로 바뀌었음을 의미합니다. 한 전직 장교는 이렇게 고백했습니다.
“모든 것이 통계적이고 깔끔했어요. 나는 버튼을 눌렀고, 기계는 임무를 완수했다고 알려줬죠. 수많은 사람을 죽였지만, 피를 보지 않았기 때문에 죄책감을 덜 느꼈습니다.”
이 고백은 알고리즘 전쟁이 인간의 마음을 어떻게 파괴하는지 보여줍니다. 스크린 위의 픽셀을 지우는 행위는 실제 사람을 죽이는 것과는 전혀 다른 심리적 경험을 줍니다. 살인이라는 행위와 그 결과 사이에 ‘알고리즘’이라는 스크린이 끼어들면서, 책임감과 죄의식은 희미해지고 인간성은 마비됩니다. 라벤더와 가스펠의 사례는 AI가 전쟁의 규칙 자체를 다시 쓰는 무서운 ‘게임 체인저’임을 보여주고 있습니다.
제3장: 실리콘밸리의 검은 참전, 괴물을 키우는 손
알고리즘 전쟁이라는 괴물은 군대 혼자 키울 수 없습니다. 그 뒤에는 세상을 더 나은 곳으로 만들겠다던 실리콘밸리의 빅테크 기업들이 있습니다. 그들의 이상적인 구호는 막대한 국방 예산의 유혹 앞에서 길을 잃곤 합니다.
3.1 ‘악해지지 말자(Don’t Be Evil)‘의 종말
2018년, 구글은 미 국방부의 드론 영상 분석 AI 개발 프로젝트인 ‘프로젝트 메이븐’에 참여했다가 내부 직원들의 거센 반발에 부딪혔습니다. “구글은 전쟁 사업에 관여해서는 안 된다”는 기술자들의 윤리적 저항은 결국 회사가 프로젝트에서 손을 떼게 만들었죠.
하지만 구글이 떠난 빈자리는 팔란티어와 같은 회사들이 빠르게 채웠습니다. 처음부터 CIA의 투자를 받아 국방 및 정보기관과의 협력을 목표로 태어난 팔란티어는 실리콘밸리의 ‘이단아’였습니다. 팔란티어의 CEO 알렉스 카프는 “서구 민주주의를 지키기 위해 최고의 기술을 제공하는 것이 우리의 사명”이라며 국방 협력을 피하는 실리콘밸리의 문화를 비판했습니다. 그에게 기술은 가치를 지키기 위한 강력한 무기였죠.(결국 구글도 국방부와의 협력 가능성을 열어놓는 것으로 보이는 기사가 있습니다.)
최근에는 ‘챗GPT’로 유명한 **오픈AI(OpenAI)**마저 ‘군사 및 전쟁’ 분야 사용 금지 조항을 약관에서 슬그머니 삭제하며 국방부와의 협력 가능성을 열어두었습니다. 결국, 모두가 팔란티어가 개척한 길을 따라가는 거대한 흐름이 만들어지고 있는 셈입니다.
3.2 기술 패권 경쟁의 볼모가 된 AI
빅테크 기업들이 국방 분야에 깊이 관여하는 근본적인 이유는 미국과 중국의 기술 패권 경쟁 때문입니다. 중국은 국가 주도 하에 자국의 빅테크 기업들을 군 현대화에 총동원하고 있습니다. 이런 상황에서 미국 국방부는 “최고의 기업들이 참여하지 않으면, 우리는 기술적으로 뒤처진 무기로 중국의 AI 군대와 싸워야 할 것”이라며 기업들의 참여를 압박합니다.
결국 빅테크 기업들은 선택의 기로에 놓입니다. 국방 프로젝트에 참여하면 막대한 돈을 벌지만 ‘악의 평범성’에 동참한다는 비판을 받게 되고, 거부하면 애국심 없다는 비난과 함께 경쟁에서 뒤처질 위험을 감수해야 합니다.
Advertisement
문제는 이 거대한 흐름 속에서, 인류의 삶을 풍요롭게 만들어야 할 최고의 기술이, 인류를 파괴하는 가장 날카로운 창으로 변하고 있다는 점입니다.
제4장: 기계 속의 유령, 인간 윤리의 증발
알고리즘 전쟁이 가져오는 가장 위험한 변화는 무기의 형태가 아닙니다. 바로 전쟁을 수행하는 ‘인간’의 내면에서 일어나는 변화입니다. 기계가 판단의 중심에 서면서, 책임과 윤리의 개념이 안개처럼 흩어지고 있습니다.
4.1 ‘책임의 공백’이라는 블랙홀
한 자율 살상 드론이 결혼식장을 테러리스트의 모임으로 오인해 공격, 수많은 민간인이 희생되었다고 상상해봅시다. 이 끔찍한 비극의 책임은 누구에게 있을까요?
- 프로그래머? 그는 주어진 조건에 따라 코드를 짰을 뿐이라고 말할 겁니다.
- 제조사? 회사는 군의 요구에 맞춰 제품을 만들었을 뿐, 운용 책임은 없다고 할 겁니다.
- 지휘관? 그는 드론을 배치했을 뿐, 드론의 특정 행동을 예측할 순 없었다고 할 겁니다.
- 드론(AI)? 기계에 책임을 묻는 것은 불가능합니다.
결국 아무도 온전히 책임지지 않는 ‘책임의 공백(Accountability Gap)’ 상태가 발생합니다. 전쟁 범죄를 처벌하려면 ‘고의성’을 입증해야 하는데, AI의 결정 과정은 개발자도 완벽히 설명할 수 없는 ‘블랙박스’인 경우가 많기 때문이죠. 이 책임의 공백은 군인들에게 ‘나는 시스템의 지시를 따랐을 뿐’이라는 위험한 면죄부를 주며, 인간의 도덕적 성찰을 마비시킵니다.
4.2 ‘감정 없는 살인’과 PTSD의 역설
안전한 기지에서 스크린을 통해 전쟁을 수행하는 원격 조종사들은 살인 행위를 비디오 게임처럼 비현실적으로 느끼게 됩니다. 이러한 ‘심리적 거리두기’는 단기적으로 죄책감을 줄여줄 수 있습니다.
하지만 역설적이게도 이들에게도 심각한 외상 후 스트레스 장애(PTSD)가 나타납니다. 낮에는 스크린으로 사람을 죽이고, 저녁에는 아무 일 없었다는 듯 가족과 식사하는 일상의 괴리가 그들의 정신을 파괴하기 때문이죠. AI가 표적을 추천하고 공격의 정당성을 데이터로 ‘증명’해줄 때, 인간은 자신의 도덕적 판단을 기계에 맡겨버리고 점차 시스템의 부품으로 전락하게 됩니다.
4.3 미래의 딜레마: 윤리적인 AI는 가능할까?
이런 문제에 대한 대안으로 전쟁법과 교전 규칙을 학습시켜 민간인 피해를 최소화하는 ‘윤리적 AI’를 만들자는 시도도 있습니다.
하지만 ‘군사적 이익’과 ‘민간인 피해’ 사이의 균형처럼 지극히 인간적인 가치 판단을 어떻게 알고리즘으로 만들 수 있을까요? 이는 인류가 수천 년간 결론 내지 못한 ‘트롤리 딜레마’를 코드 몇 줄로 해결하려는 위험한 오만일 수 있습니다. 우리가 진정 원하는 것이 ‘더 윤리적인 살인 방법’인지, 아니면 ‘살인하지 않을 수 있는 방법’인지 근본적인 질문을 던져야 할 때입니다.
제5장: 통제 불가능한 불길, 인류의 마지막 전쟁을 향하여
AI 전쟁 기술의 발전은 단순히 더 강한 무기의 등장을 넘어, 인류를 통제 불가능한 파국으로 몰아넣을 수 있는** ‘판도라의 상자’**를 여는 것과 같습니다.
5.1 기계 속도의 전쟁과 ‘섬광전(Flash War)‘의 공포
미래의 전쟁은 인간이 개입할 틈도 없이, 단 몇 분, 혹은 몇 초 만에 전면전으로 번질 수 있습니다.
Advertisement
예를 들어, 한 나라의 AI 경보 시스템이 적국의 미사일 발사로 의심되는 열원을 탐지했다고 해보죠. 이 정보가 AI 지휘 시스템으로 넘어가고, 시스템은 이것이 명백한 공격이라 판단해 인간의 승인 없이 자동으로 보복 공격을 실행합니다. 하지만 최초의 열원은 사실 미사일이 아닌 산불이나 운석이었을 수 있습니다. 이 모든 과정이 단 몇 분 안에 일어나고, 양국의 지도자들은 상황을 파악할 시간조차 갖지 못합니다. 이렇게 인간의 통제를 벗어난 속도로 진행되는 전쟁을 **‘섬광전(Flash War)’**이라 부릅니다.
이러한 공포는 각국을 ‘AI 군비 경쟁’으로 내몰고 있습니다. “우리가 하지 않으면 적들이 할 것이다”라는 논리는 과거 냉전 시대의 핵무기 경쟁을 떠올리게 하지만, AI는 핵무기보다 훨씬 저렴하고 확산되기 쉬워 더욱 위험합니다.
5.2 AI 기술의 확산과 새로운 테러리즘
AI 기술은 더 이상 강대국의 전유물이 아닙니다. 이제는 테러 집단조차도 안면 인식 기술을 탑재한 소형 자폭 드론 수십 대로 특정 인물이나 집단을 노려 도심에서 테러를 일으킬 수 있습니다. AI 석학들이 경고 영상 **‘슬로터봇(Slaughterbots)’**에서 묘사했던 끔찍한 미래가 현실이 된 것이죠.
또한, 딥페이크 기술을 이용한 가짜뉴스와 프로파간다는 한 국가의 사회적 신뢰를 무너뜨리고 민주주의를 마비시킬 수 있습니다. 전장은 이제 우리 각자의 ‘뇌’와 ‘마음’으로 확장되고 있습니다.
5.3 고삐 풀린 괴물, 국제 규범의 부재
이처럼 명백한 위험에도 불구하고, AI 무기를 통제하려는 국제 사회의 노력은 지지부진합니다. 유엔(UN)에서는 수년간 논의가 이어졌지만, 주요 개발국들의 반대로 아무런 구속력 있는 합의를 이루지 못하고 있죠. 규제의 공백 속에서 AI 무기 기술은 통제 불가능한 속도로 발전하고 있습니다. 우리에게 남은 시간은 그리 많지 않습니다.
기계에게 던져진 질문, 인간이 답해야 할 시간
우리는 지금 인류 역사의 중대한 분기점에 서 있습니다. 알고리즘 전쟁의 시대는 피할 수 없는 미래처럼 다가오고 있으며, 그 파괴적인 잠재력은 전쟁의 비인간화와 통제 불가능한 파국을 향해 있습니다.
기계는 우리에게 묻고 있습니다. “나에게 어디까지 허락할 것인가?”
이것은 기술의 문제가 아니라, 인간의 가치와 존엄성에 대한 철학적 질문입니다. 우리는 효율성과 속도라는 달콤한 유혹에 빠져, 살인이라는 가장 무거운 윤리적 결정을 기계의 차가운 논리에 넘겨줄 것인가요?
이 질문에 대한 답은 우리 모두의 책임입니다. 더 늦기 전에 과학자, 윤리학자, 그리고 시민들이 함께 모여 **‘AI 무기 개발에 대한 명확한 레드라인(Red Line)’**을 설정해야 합니다. 인간의 직접적인 통제를 벗어난 자율 살상 무기의 개발과 사용을 전면 금지하는, 구속력 있는 국제 조약이 그 첫걸음이 될 것입니다.
Advertisement
AI는 가치 중립적인 도구가 아닙니다. 우리가 AI에게 ‘효율적인 살상’을 가르친다면, AI는 역사상 가장 무서운 파괴의 도구가 될 것입니다. 그러나 우리가 AI에게 생명의 가치와 평화의 중요성을 가르친다면, 인류의 번영에 기여하는 가장 위대한 발명품이 될 수도 있습니다.
선택은 우리의 손에 달려있습니다. 스크린 위의 픽셀 너머에 있는 한 인간의 존엄성을 기억해야 합니다. 죽음의 알고리즘이 우리의 문을 완전히 열고 들어오기 전에, 우리는 인간성의 이름으로 그 문을 굳게 걸어 잠가야 합니다. 인류의 미래는 우리가 지금, 이 기계에게 어떤 답을 들려줄 것인지에 달려 있습니다.