원문: backnotprop.com | 토론: GeekNews · 댓글 1개
핵심 요약 Claude Code가 사용자 동의 없이 A/B 테스트를 실행하여, plan mode의 동작이 예고 없이 변경되면서 작업 효율이 저하됐다는 비판이다. 월 $200을 지불하는 전문 도구에서 핵심 기능이 사전 공지 없이 변경되는 것은 투명성과 사용자 제어권 측면에서 문제가 있다는 주장이다. HN에서는 LLM의 재현성·신뢰성 문제가 이미 심각한 상황에서 기업이 몰래 실험하면 연구 신뢰도가 완전히 무너진다는 우려가 제기됐다.
커뮤니티 의견
- @GN⁺: “LLM의 경우 이미 재현성과 신뢰성 문제가 심각한데, 기업들이 그 부담을 사용자에게 떠넘기고 있음. 채용 같은 민감한 영역에서 이런 실험이 진행된다면 윤리적·법적 문제가 심각해질 것”
💡 실무 포인트: AI 도구의 동작 변경에 대비해 핵심 워크플로우의 출력을 버전 관리하고, 예상과 다른 동작 시 환경변수·설정을 점검하는 습관이 필요하다.