본문 바로가기
경제 뉴스

이스라엘 Lavender AI 표적 생성 시스템

by 사랑가속도 2025. 2. 20.

아래는 이스라엘 방위군(IDF)이 가자지구에서 사용한 인공지능 시스템 “Lavender”에 대한 종합 자료입니다.


개요

“Lavender”는 IDF의 정보부서, 특히 엘리트 8200 부대에서 개발한 AI 기반 데이터베이스입니다. 이 시스템은 가자지구 내 수많은 팔레스타인 주민들의 다양한 데이터를 분석해, 이들이 하마스나 팔레스타인 이슬라믹 지하드(PIJ)와 같은 무장 단체에 소속되었을 가능성을 평가하고 점수를 부여합니다. 이를 통해 IDF는 표적 추천 과정을 자동화하여 전쟁 상황에서 빠르게 다수의 잠재적 표적을 생성할 수 있게 되었습니다.


작동 원리 및 메커니즘

데이터 수집 및 전처리

  • 다양한 정보원 활용:
    Lavender는 가자지구 전역의 주민에 대해 모바일 통신 기록, 소셜 미디어 활동, 위성 및 드론 영상, 감시카메라 영상 등 방대한 양의 데이터를 수집합니다.
  • 특징 추출:
    기존에 확인된 무장 단체 요원들의 행동 양식, 통신 패턴, 이동 경로, 그리고 기타 인구학적 특징을 바탕으로, 학습된 모델이 새로운 데이터를 분석합니다.

머신러닝 기반 예측

  • 훈련 데이터 활용:
    과거에 무장 단체 소속으로 확인된 인물들의 데이터를 바탕으로, AI는 ‘무장 단체 소속 가능성’의 패턴을 학습합니다.
  • 위험 점수 할당:
    분석된 각 개인에게 1에서 100까지의 점수를 부여하여, 해당 인물이 무장 단체(예: 하마스, PIJ)와 연관될 가능성을 수치화합니다. 점수가 높을수록 표적 후보로 분류될 확률이 높아집니다.

표적 추천과 의사결정 지원

  • 대규모 표적 목록 생성:
    일부 제보에 따르면, Lavender는 최대 37,000명 이상의 잠재적 표적을 데이터베이스에 등록했다고 합니다.
  • 신속한 자동화:
    AI가 분석한 결과는 전쟁 상황에서 빠르게 다수의 표적을 선별할 수 있도록 도와주며, 기존의 사람이 일일이 확인하던 방식을 대체해 효율을 극대화합니다.
  • 인간 검증의 역할:
    공식적으로는 최종 표적 결정은 인간 분석가가 검토하여 수행하지만, 실제 전투 상황에서는 AI의 결과에 크게 의존하는 “자동화 편향(automation bias)” 문제가 지적되기도 합니다.

건물과 인프라를 표적으로 선정하기 위해 도입한 AI 기반 표적 생성 시스템에는 “가스펠(Gospel)”이 있습니다.

가스펠은 드론 영상, 위성 이미지, 감청 데이터, 그리고 기타 다양한 정보원을 분석해 군사 작전에 사용될 수 있는 건물, 시설, 전투 지휘본부, 무기 창고, 로켓·미사일 발사대 등의 인프라를 빠르게 식별합니다.

다양한 소스에서 수집된 빅데이터를 머신러닝 알고리즘으로 처리하여, 어떤 건물이나 구조물이 군사적으로 사용되고 있을 가능성이 높은지를 판단합니다.


활용 사례 및 실제 운영

  • 공습 및 표적 지정:
    전쟁 초기 몇 주 동안, Lavender의 추천에 따라 민간인 거주지를 포함한 수많은 장소가 표적 목록에 올랐으며, 이 과정에서 민간인 피해가 발생했다는 비판이 제기되었습니다.
  • 관련 보조 시스템:
    “Lavender”와 함께 *“Where’s Daddy?” 같은 추가 소프트웨어가 표적 인물이 집에 복귀하는 순간을 추적하는 등, 공격 시점을 결정하는 데 활용되었습니다.

*“Where’s Daddy?”는 표적 인물이 자택으로 귀가하는 순간을 감지합니다. 이는 드론, 위성 이미지, 통신 데이터 등 다양한 정보원을 활용하여, 표적이 집에 들어선 것을 자동으로 감지합니다.

표적이 집에 들어오면, 시스템이 이를 담당 장교에게 즉시 통보합니다. 이후 해당 가정은 공격 대상이 되어, 폭격이 실행됩니다.

이 시스템은 표적과 그 가족의 위치를 실시간으로 파악하여 폭격 명령을 내리지만, 때때로 표적이 집에 없거나 가족이 함께 있을 경우에도 폭격이 이루어져, 민간인 피해로 이어지는 사례가 보고되고 있습니다.


논란 및 윤리·법적 문제

  • 오류율 및 부작용:
    일부 제보자들은 Lavender의 판단 정확도가 약 90%라고 밝혔지만, 나머지 10%의 오차로 인해 무고한 민간인이 잘못 표적화될 위험이 있다고 주장합니다.
  • 자동화 편향:
    인간 분석가들이 AI의 결과에 거의 ‘rubber stamp’처럼 의존하게 되어, 충분한 검증 없이 공격 결정이 내려지는 문제가 제기되고 있습니다.
  • 국제법과 윤리적 문제:
    국제인도법의 비례 원칙과 민간인 보호 기준에 위배될 수 있다는 비판이 있으며, 유엔 등 국제기구에서도 이에 대한 우려를 표명하고 있습니다.

IDF의 입장

이스라엘 방위군은 Lavender를 비롯한 AI 도구들이 단지 정보 분석과 표적 식별 과정을 보조하는 도구에 불과하며, 최종 공격 결정은 반드시 인간 분석가의 검증을 거친 후 이루어진다고 공식 성명에서 밝혔습니다. 또한, IDF는 국제법에 따른 비례 원칙과 추가적인 내부 지침을 엄격히 준수한다고 주장합니다.