2026년 2월 미군의 이란 미나브 초등학교 폭격으로 175명 이상이 사망한 사건에서, 초기에는 Anthropic의 Claude가 표적을 선택했다는 오보가 확산되었으나 실제로는 Palantir의 Maven 시스템이 수행한 것으로 밝혀졌다. 오래된 군사 데이터 갱신 실패가 근본 원인이었으며, AI 도구에 대한 과신과 인간 검증 부재가 참사를 키웠다. 단 세 번의 클릭으로 다음 표적으로 넘어간 것은 명백한 인간의 과실이라는 지적이 핵심이다.

커뮤니티 의견

  • @GN⁺: “도구에 대한 과신이든 민간인 생명에 대한 무시든, 그 결과는 어린 소녀들의 죽음이었음. 이런 결정을 내린 사람에게는 반드시 책임이 따르길 바람”

💡 실무 포인트: AI 시스템의 의사결정을 실무에 적용할 때, 자동화된 추천을 맹신하지 않는 human-in-the-loop 프로세스와 데이터 최신성 검증 체계가 반드시 필요하다.