2026년 2월 미군의 이란 미나브 초등학교 폭격으로 175명 이상이 사망한 사건에서, 초기에는 Anthropic의 Claude가 표적을 선택했다는 오보가 확산됐으나 실제 표적 결정은 Palantir의 Maven 시스템이 수행했다. 오래된 군사 데이터 갱신 실패가 근본 원인으로, AI 도구에 대한 과신과 검증 절차 부재가 참사를 초래했다. 학교는 웹사이트까지 있는 명백한 교육시설이었으며, 단 세 번의 클릭으로 다음 목표로 넘어간 것은 인간의 과실이라는 비판이 제기됐다.

커뮤니티 의견

  • @GN⁺: “도구에 대한 과신이든 민간인 생명에 대한 무시든, 그 결과는 어린 소녀들의 죽음이었음. 이런 결정을 내린 사람에게는 반드시 책임이 따르길 바람”

💡 실무 포인트: AI 의사결정 시스템을 배포할 때는 데이터 신선도 검증, 인간 검토 단계(human-in-the-loop), 그리고 최종 결과의 교차 검증 파이프라인이 반드시 포함되어야 한다.