여러 LLM을 로컬에서 서빙할 때 모델마다 docker 명령어를 재입력하고 GPU 설정을 기억해야 하는 불편함을 해결하는 vLLM 전용 TUI 관리 도구이다. 모델별 설정을 YAML 프로필로 저장하고 TUI에서 Enter 한 번으로 시작/중지가 가능하며, 모델 이름만 입력하면 프로필과 설정이 자동 생성된다.

💡 실무 포인트: 로컬에서 여러 LLM 모델을 테스트하거나 서빙할 때 vLLM Compose로 모델 전환과 GPU 할당을 간소화할 수 있다.