스탠퍼드에서 개발한 Linux 환경 AI 에이전트 격리 실행 도구로, 복잡한 컨테이너 설정 없이 단일 명령으로 안전한 실행 경계를 제공한다. AI 도구가 실제 파일 시스템에 접근해 데이터를 삭제하거나 손상시키는 사례가 잇따르면서 안전한 실행 환경의 필요성이 부각되고 있다. HN에서는 Claude Code의 내장 샌드박스 설정(.claude/settings.json)도 언급되었으나, 저수준에서 강제 적용되어야 효과적이라는 의견이 지배적이었다.
커뮤니티 의견
- @GN⁺: “claude가 현재 디렉토리를 헷갈려 하거나 rm -rf * 같은 명령을 실행하는 걸 본 적이 있음. 샌드박스 아이디어는 좋지만, 저수준에서 강제 적용되어야 효과적임”
💡 실무 포인트: AI 에이전트에 시스템 명령 실행 권한을 부여할 때는 jai 같은 격리 도구나 Claude Code의 sandbox 설정을 반드시 활성화하고, 파일시스템 접근 범위를 최소한으로 제한해야 한다.