원문: time.com | 토론: GeekNews · 댓글 2개
핵심 요약 Anthropic이 핵심 안전 정책인 Responsible Scaling Policy(RSP)의 주요 서약을 철회했다. 기존에는 안전 조치가 충분히 보장되지 않으면 AI 모델 훈련을 중단하겠다고 약속했으나, 새 정책에서는 이 조항이 삭제됐다. 경쟁사들이 앞서가고 있어서라는 이유를 밝혔으며, 이는 AI 안전 분야에서 선두주자로 인식되던 Anthropic의 방향 전환을 의미한다.
커뮤니티 의견
- @tsboard: “앤트로픽이 아무리 고집을 부려도 결국 미국방부가 까라면 까야하는 것이겠죠. 결국에는 이렇게 될 수순이었던 건 아니었을까요.”
- @GN⁺(HN): “결국 돈 때문임을 드러낸 것 같음. 사람들은 Anthropic이 ‘착한 회사’라고 믿었지만, 결국 다 똑같이 이익만을 좇는 존재”
💡 실무 포인트: AI 서비스 선택 시 제공사의 안전 정책 변경을 모니터링하고, 규제 리스크를 사전에 평가하는 프로세스 필요