posts / 시사

AI 전쟁의 비극: 가자지구의 유령들

phoue

6 min read --

알고리즘이 표적을 결정하고, 20초 만에 폭격이 승인될 때, 우리는 무엇을 잃게 되는가?

  • 이스라엘의 AI 기반 표적 시스템 ‘라벤더’, ‘가스펠’의 작동 방식
  • AI 전쟁이 민간인 피해를 줄일 것이라는 통념이 어떻게 무너졌는가
  • 가자지구 사태가 미래 전쟁과 국제 규범에 미치는 영향

이스라엘 정예 정보부대 소속 장교가 모니터를 응시합니다. 화면 속 남성은 인간의 고뇌 끝에 선택된 표적이 아닙니다. 그의 운명은 AI 전쟁 알고리즘이 결정했고, 장교는 단 20초 만에 폭격을 승인합니다. 이 글은 인공지능이 어떻게 가자지구에서 “대량 암살 공장"이라 불리는 비극을 만들었는지, 그 시스템의 작동 방식과 참혹한 결과를 깊이 파고드는 이야기입니다. 전쟁의 트라우마가 오히려 인간을 폭력의 결과로부터 멀어지게 만드는 ‘도덕적 이탈 장치’가 된 것입니다.

파괴의 설계자들: AI 전쟁 시스템의 실체

가자지구의 비극 중심에는 여러 AI 시스템이 유기적으로 작동하고 있습니다. 이들은 단순한 보조 도구가 아니라, 살상의 속도와 규모를 전례 없이 증폭시키는 핵심 동력이었습니다.

라벤더, 인간 사냥꾼

‘라벤더(Lavender)‘는 이스라엘 8200부대가 개발한 AI 데이터베이스로, 가자지구 주민 230만 명의 방대한 감시 데이터를 분석해 무장대원 의심자를 식별합니다. 전쟁 초기, 라벤더는 무려 37,000명의 팔레스타인 남성을 잠재적 표적으로 지목한 ‘살생부(kill list)‘를 생성했습니다.

이 시스템은 개인에게 1~100점의 위험 점수를 부여하는데, 의심자와 같은 왓츠앱 그룹에 있거나 전화번호를 자주 바꾸는 등의 평범한 행동도 의심의 근거가 될 수 있습니다. 즉, 팔레스타인인의 일상 자체가 알고리즘에 의해 범죄화된 것입니다.

이스라엘군은 이 시스템의 오류율이 10%에 달한다는 사실을 알면서도 사용을 승인했습니다. 이는 표적 10명 중 1명은 무고할 수 있다는 의미이며, 이는 시스템의 결함이 아닌 의도된 설계의 일부였습니다.

라벤더 시스템 개념도
인간의 생사를 결정하는 AI 표적 시스템의 개념도. 알고리즘은 복잡한 현실을 단순한 데이터 포인트로 축소합니다.

가스펠(하브소라), 건물 사냥꾼

라벤더가 사람을 표적으로 삼는다면, ‘가스펠(The Gospel)‘은 건물을 표적으로 삼습니다. 이 시스템은 표적 생성을 산업적 규모로 가속화하여, 한 전직 장교의 표현대로 **“대량 암살 공장”**을 만들었습니다. 인간 분석가가 1년에 50개 표적을 만들 때, 가스펠은 하루에 100개의 새로운 표적을 생성했습니다.

특히 군사 시설뿐 아니라 주거용 고층 건물, 대학 등 민간 구조물을 ‘파워 타겟’으로 식별해 공격했는데, 이는 국제법에 근거가 없는 개념입니다.

‘아빠 어디야?’, 살상 과정의 마지막 조각

“아빠 어디야?(Where’s Daddy?)“라는 이름의 위치 추적 시스템은 라벤더가 지목한 표적이 자신의 집에 들어서는 순간을 포착해 공습을 유도합니다. 한 정보 장교는 “가족의 집을 폭격하는 것이 훨씬 쉽다“고 증언했습니다. 이는 민간인 사상자를 극대화하는 의도적인 전술이었음을 보여줍니다.

시스템 이름주요 기능 및 목표
라벤더 (Lavender)인간 표적 식별: 감시 데이터 분석으로 최대 37,000명의 ‘살생부’ 생성.
가스펠 (The Gospel)구조물 표적 식별: 표적과 연관된 건물, 특히 민간 주택을 대량으로 지정.
아빠 어디야?실시간 위치 추적: 표적이 가족의 집에 들어서는 순간을 포착해 공습 유도.

속도가 판단을 삼키다: AI 전쟁의 새로운 교리

가자지구에서 AI는 정밀 타격을 통한 민간인 보호가 아닌, 파괴의 속도와 규모를 극대화하는 데 사용되었습니다. IDF 대변인은 **“정확성보다 피해에 중점을 둔다”**고 말하며 이를 인정했습니다.

Advertisement

시스템은 끝없이 표적을 제공했고, 한 장교는 “당신을 기다리는 또 다른 36,000개의 표적이 있다"며 당시의 압박감을 토로했습니다. AI는 정밀한 메스가 아니라, ‘대량 암살 공장’을 가속하는 엔진이었습니다.

용납되는 죽음의 계산

IDF는 공습당 허용되는 민간인 사망자 수에 대한 사전 할당량을 설정했습니다.

  • 하급 무장대원 1명을 제거하기 위해 최대 15~20명의 민간인 살해가 허용되었습니다.
  • 하마스 고위 지휘관 1명을 제거하기 위해 100명 이상의 민간인 살해가 승인되기도 했습니다.

이러한 공격에는 주로 저렴한 비유도탄, 즉 “멍텅구리 폭탄(dumb bombs)“이 사용되었습니다. 한 장교는 “중요하지 않은 사람들에게 비싼 폭탄을 낭비하고 싶지 않다"고 그 이유를 밝혔습니다. 이는 제가 이 사태를 조사하며 가장 충격을 받았던 지점입니다. 효율성이라는 이름 아래 인간의 생명 가치가 어떻게 등급 매겨지고 무시될 수 있는지 보여주는 섬뜩한 증언이었습니다.

파괴된 가자지구의 모습
가자지구에 대한 AI 기반 폭격

“내 아이들의 작은 몸이 갈기갈기 찢겼어요”

통계 뒤에는 언제나 인간의 고통이 있습니다. AI 공장의 ‘결과물’은 데이터가 아니라 희생된 사람들입니다.

알자지라 기자 와엘 알다두는 생방송 중 자신의 아내와 아들, 딸, 손자가 이스라엘 공습으로 사망했다는 소식을 접했습니다. 안전을 찾아 피신했던 난민 캠프에서였습니다. 그의 비극은 가자지구에 안전한 곳은 없다는 사실을 전 세계에 알렸습니다.

작가 아흐메드 알나우크는 단 한 번의 폭격으로 아버지, 형제, 자매, 조카 등 21명의 가족을 잃었습니다. 국제앰네스티 보고서에 따르면, 이슬람 하르브는 공습으로 네 살배기 딸 린을 제외한 모든 가족을 잃고 이렇게 증언했습니다. “내 아이들의 작은 몸은 갈기갈기 찢겨 있었습니다.

이것이 과연 ‘정밀한’ AI 전쟁의 결과라고 할 수 있을까요? 데이터 중심의 전쟁이 될수록 오히려 희생자들은 더욱 비인간화되는 역설을 목격하고 있습니다.

전쟁으로 아이를 잃은 아버지의 슬픔
전쟁의 참상 속에서 슬픔에 잠긴 한 남성의 모습.

가자지구, AI 전쟁의 실험실이 되다

가자지구는 이스라엘군 스스로 **“최초의 인공지능 전쟁”**이라 부른 ‘실험실’이 되었습니다. 팔레스타인 인구 전체는 안면 인식, 통화 도청, 소셜 미디어 감시를 통해 AI를 학습시키는 ‘데이터 신체’로 전락했습니다.

Advertisement

더 소름 끼치는 사실은, 공습으로 얻은 데이터가 다시 시스템을 개선하는 데 사용된다는 점입니다. 팔레스타인인들의 죽음이 다음 전쟁을 위한 연구개발(R&D) 자원이 되는 셈입니다. 가자에서 일어나는 일은 전 세계 미래 분쟁의 기술적, 윤리적 선례를 만들고 있습니다.

세계적 파급 효과와 “킬러 로봇” 논쟁

가자 사태는 자율살상무기(LAWS, Lethal Autonomous Weapons Systems)에 대한 국제적 논쟁에 불을 붙였습니다. UN 사무총장과 국제적십자위원회(ICRC)는 LAWS를 규제하는 국제 조약을 긴급히 촉구하며 **“기계에 의한 인간의 자율적 표적화는 우리가 넘지 말아야 할 도덕적 선”**이라고 강조했습니다.

하지만 미국과 중국 등 강대국들은 이미 AI 군비 경쟁에 막대한 투자를 하고 있습니다. 가자에서 시험된 기술은 더 큰 세계적 경쟁의 시작일 뿐입니다.

자율살상무기(LAWS)에 대한 국제적 논의
자율살상무기에 대한 국제적 논의가 시급한 과제로 떠올랐습니다.

결론

가자지구에서 벌어진 AI 전쟁은 우리에게 무거운 질문을 던집니다. 10%의 오류율을 가진 시스템이 한 가족의 죽음을 초래했을 때, 책임은 프로그래머, 지휘관, 아니면 기계 자체에 있는 것일까요?

  • AI는 전쟁의 본질을 바꿨습니다: AI는 정밀성을 높여 피해를 줄이는 도구가 아니라, 살상의 속도와 규모를 극대화하는 ‘대량 암살 공장’의 엔진으로 사용되었습니다.
  • 인간의 도덕적 책임이 실종되었습니다: ‘20초 승인’과 같은 절차는 인간의 도덕적 판단을 배제하고, 책임을 기계 뒤에 숨기는 ‘도덕적 이탈’을 조장했습니다.
  • 이는 전 세계를 향한 경고입니다: 가자지구는 삶과 죽음의 결정이 알고리즘에 위임되는 미래의 불길한 예고편이며, 자율살상무기에 대한 국제적 규제가 시급함을 보여줍니다.

이 글을 통해 AI 전쟁의 비극적인 실상과 그 윤리적 문제에 대해 더 많은 분들이 관심을 갖게 되기를 바랍니다. 이 정보를 주변에 공유하여 기술이 인류를 위해 어떻게 사용되어야 하는지에 대한 사회적 논의를 시작해 주세요.

참고자료
#ai전쟁#라벤더시스템#가자지구#자율살상무기#전쟁윤리#이스라엘

Recommended for You

안전 마진: 워런 버핏은 알고 리먼은 몰랐던 부의 비밀

안전 마진: 워런 버핏은 알고 리먼은 몰랐던 부의 비밀

5 min read --
자율성 프리미엄: 돈으로 시간을 사는 법, 당신도 진짜 부자가 될 수 있다

자율성 프리미엄: 돈으로 시간을 사는 법, 당신도 진짜 부자가 될 수 있다

13 min read --
역인수에서 스테이블코인까지: 네이버-두나무 빅딜의 숨겨진 전략

역인수에서 스테이블코인까지: 네이버-두나무 빅딜의 숨겨진 전략

26 min read --

Advertisement

댓글