원문: community.home-assistant.io | 토론: GeekNews · 댓글 0개

핵심 요약 Google Home에서 벗어나 Home Assistant 기반 완전 로컬 음성 비서를 구축한 과정을 단계별로 정리한 사례다. llama.cpp와 local-first 구성을 사용해 클라우드 의존 없이 빠른 응답과 개인정보 보호를 달성했으며, 다양한 GPU·모델·STT·TTS 조합을 실험한 결과를 공유한다.

💡 실무 포인트: 로컬 LLM + STT + TTS 스택으로 프라이버시 중심의 음성 인터페이스를 구축하려는 경우 참고할 수 있는 실전 가이드다.