원문: canirun.ai | 토론: GeekNews · 댓글 1개
핵심 요약 로컬 머신이 어떤 AI 모델을 실행할 수 있는지 확인하는 웹 기반 도구다. 브라우저의 WebGPU API를 활용해 하드웨어 성능을 추정하며, 모델별 메모리 요구량·토큰 처리 속도·컨텍스트 길이 등을 제공한다. HN에서는 qwen3.5:9b가 작지만 멀티모달 추론 능력이 뛰어나며, 100K 토큰을 1.5GB VRAM으로 처리 가능해 RTX 3060에서도 실용적이라는 추천이 있었다.
커뮤니티 의견
- @GN⁺: “qwen3.5:9b를 강력히 추천. 100K 토큰을 1.5GB VRAM으로 처리 가능해 RTX 3060에서도 긴 대화나 문서 처리가 가능함”
💡 실무 포인트: 로컬 AI 모델 도입 검토 시 이 도구로 사전 호환성을 확인하고, 소규모 모델(9B급)부터 임베디드 용도로 시작하는 전략이 효과적이다.