원문: canirun.ai | 토론: GeekNews · 댓글 1개
핵심 요약 로컬 머신이 어떤 AI 모델을 실제로 실행할 수 있는지 확인하는 웹 기반 도구. 브라우저의 WebGPU API를 활용해 하드웨어 성능을 추정하며, 모델별 메모리 요구량, 토큰 처리 속도, 컨텍스트 길이, 실행 가능 여부를 시각적으로 제공.
커뮤니티 의견
- @GN⁺: “qwen3.5:9b를 강력히 추천. 멀티모달 추론 능력이 뛰어나며, 100K 토큰을 1.5GB VRAM으로 처리 가능해 RTX 3060에서도 긴 대화나 문서 처리가 가능”
💡 실무 포인트: 로컬 AI 모델 도입 전 CanIRun.ai로 하드웨어 호환성을 사전 검증하고, 소형 모델(9B급)은 임베디드/툴 호출 용도로 실전 활용 가능.