원문: claude.com | 토론: GeekNews · 댓글 8개

핵심 요약 Anthropic이 PR마다 멀티 에이전트 팀을 투입해 사람이 놓치기 쉬운 버그를 심층 분석하는 Code Review 기능을 리서치 프리뷰로 출시했다. 배경으로는 Anthropic 엔지니어의 코드 생산량이 지난 1년간 200% 증가하면서 코드 리뷰 자체가 병목이 되었고, 많은 PR이 깊은 리뷰 대신 훑어보기에 그치는 문제가 있었다. 이에 AI가 코드 변경의 의도, 잠재적 버그, 아키텍처 영향까지 분석하는 구조를 도입했다. 다만 현재 개인 플랜은 미지원 상태이며, 팀 및 엔터프라이즈 플랜에서 사용 가능하다. “Claude로 코드를 생성하고, Claude로 코드를 리뷰하는” 자기 순환 구조에 대한 논의도 활발하다.

커뮤니티 의견

  • @xguru: “요즘 Anthropic의 릴리즈 속도가 미쳤네요. 개발 도구를 개선하면서, 그걸로 자기네 개발 자체도 빠르게 만드는 플라이휠 구성이 끝난듯”
  • @princox: “클러드로 코드를 생성하고, 클러드로 코드를 리뷰하고..”
  • @tested: “개인 플랜은 미지원이네요. 나중에도 안되려나?”

💡 실무 포인트: 팀 규모가 커지면서 리뷰 병목이 심한 조직이라면 Claude Code Review 도입을 검토해볼 만하다. AI 생성 코드에 대한 AI 리뷰라는 이중 검증 파이프라인이 현실화되고 있으므로 CI/CD에 통합하는 방안을 고려하자.