원문: time.com | 토론: GeekNews · 댓글 2개

핵심 요약 Anthropic이 자사 핵심 안전 정책인 Responsible Scaling Policy(RSP)의 주요 서약을 철회했다. 기존에는 안전 조치가 충분히 보장되지 않으면 AI 모델 훈련을 중단하겠다고 약속했으나, 새 정책에서는 이 조항이 삭제되었다. Anthropic 측은 “경쟁사들이 앞서가고 있어서"라는 이유를 밝혔으며, 이는 AI 안전을 최우선으로 내세웠던 회사의 방향성에 중대한 변화를 의미한다. AI 업계 전반의 안전 정책 기준에 영향을 미칠 수 있는 결정이다.

커뮤니티 의견

  • @tsboard: “앤트로픽이 아무리 고집을 부려도 결국 미국방부가 까라면 까야하는 것이겠죠. 결국에는 이렇게 될 수순이었던 건 아니었을까요.”
  • @GN⁺(HN 의견): “결국 돈 때문임을 드러낸 것 같음. 사람들은 Anthropic이 ‘착한 회사’라고 믿었지만, 결국 다 똑같이 이익만을 좇는 존재”

💡 실무 포인트: AI 서비스 도입 시 벤더의 안전 정책 변경 가능성을 리스크 요소로 고려하고, 자체 안전 가이드라인 수립 필요