AI 에이전트 시장의 절반은 한 분야가 차지, 나머지는 아직 미개척 영역임

소프트웨어 엔지니어링이 전체 AI 에이전트 도구 호출의 약 50%를 차지하는 반면, 헬스케어·법률·금융 등 16개 버티컬은 각각 5% 미만에 불과하다. AI 모델의 실제 역량은 인간이 5시간 걸릴 작업을 수행할 수 있는 수준이지만, 실제 사용에서 99.9번째 백분위 세션은 약 42분 수준이다. 비-SW 버티컬에서 에이전트 시장 기회가 크다.

💡 실무 포인트: AI 에이전트 서비스 기획 시 과포화된 SW 엔지니어링보다 헬스케어/법률/금융 등 버티컬 도메인 타겟팅 고려

Andrej Karpathy가 말하는 "Claws"

Simon Willison이 Karpathy의 Claws 개념을 정리한 글이다. Claws는 LLM 기반 AI 에이전트 위에 구축된 새로운 계층으로, 오케스트레이션·스케줄링·컨텍스트 관리·도구 호출·지속성 등을 확장하는 구조다. CLI 기반 에이전트 툴 구축 시 보안 측면에서 인간 비서나 컨설턴트를 두는 것과 비슷하게 접근해야 하며, 위험한 행동에는 일회용 비밀번호 같은 안전장치가 필요하다.

커뮤니티 의견

  • @GN봇: “내가 CLI 기반 에이전트 툴을 만들 때 넣은 안전장치가 있음 - 위험한 행동(예: 대량 이메일 발송)을 하려면 일회용 비밀번호 확인 필요”

💡 실무 포인트: 에이전트에 권한을 부여할 때 인간 비서처럼 접근 - 별도 이메일, 제한된 API 키, 위험 행동에 대한 확인 절차 설계

Ask GN: 'Claude Code에 Gemini 연결하는 법'에 대해 궁금한 분 계실까요?

저렴한 Gemini 토큰을 Claude Code의 에이전트 설계와 결합하여 사용하는 프록시 백엔드 구현 사례가 공유되었다. 핵심은 Anthropic API 형식을 다른 LLM 제공자 형식으로 변환하는 프록시 서버를 구축하는 것이다. 로컬 서버 방식(anthropic-proxy)과 AWS Lambda 서버리스 방식 두 가지 접근법이 논의되었으며, 서버리스 방식은 LLM 응답 시간이 길어 콜드스타트가 체감되지 않고, Function URL을 통한 스트리밍도 가능하다. 다만 OpenCode 대규모 정지 사태처럼 ToS 위반으로 계정이 정지될 수 있는 리스크가 있다.

커뮤니티 의견

  • @winterjung: “로컬에 anthropic-proxy 이런거 띄워서 ANTHROPIC_BASE_URL=http://0.0.0.0:3000 claude 같은 명령어로 proxy해서 다른 gemini나 gpt 모델을 쓰긴했는데 서버리스로 구현하셨다고 하니 궁금하네요.”
  • @bsh998: “클로드 코드에 gemini 연결하면 정지를 먹을 수도 있긴 한데요. opencode대규모 정지 사태를 조심하셔야 할 것 같아요.”

관련 레퍼런스

💡 실무 포인트: 비용 최적화를 위한 LLM 프록시 구축 시 Lambda + Function URL 조합으로 서버 관리 부담 제거 가능, 단 ToS 위반 리스크 고려

February 24, 2026 · 가십데일리  · 토론↗

ChatDev 2.0 - 멀티에이전트 협업 기반 Zero-Code 개발 플랫폼

코드 작성 없이 멀티에이전트 시스템을 구성·실행할 수 있도록 설계된 Zero-Code 플랫폼이다. 간단한 설정만으로 에이전트, 워크플로, 태스크를 정의해 데이터 시각화, 3D 생성, 심층 연구 등 복잡한 시나리오를 자동화할 수 있다. 에이전트 간 협업 패턴을 시각적으로 구성하고 실행 결과를 추적할 수 있는 구조다.

💡 실무 포인트: 멀티에이전트 PoC 구축 시 ChatDev 2.0으로 빠른 프로토타이핑 후 프로덕션용 코드로 전환하는 워크플로우 고려

Claude Code 에이전트를 픽셀 아트 캐릭터로 시각화하는 VS Code 확장 - Pixel Agents

Claude Code 터미널을 열 때마다 가상 오피스에 픽셀 아트 캐릭터가 소환되어 에이전트의 실시간 활동을 시각적으로 보여주는 VS Code 확장이다. 에이전트가 코드 작성 중이면 타이핑 애니메이션, 파일 검색 중이면 읽기 애니메이션, 사용자 입력 대기 중이면 말풍선으로 표시된다. 마우스를 갖다대면 현재 무슨 작업을 하는지도 보여준다.

커뮤니티 의견

  • @bakkum: “와.. 이거 재밌네요…”
  • @princox: “개별 에이전트를 게임처럼 캐릭터로 보여주고, 마우스를 갖다대면 무슨 작업하는지도 보여준다고 합니다.”

💡 실무 포인트: 다중 에이전트 병렬 실행 시 상태 파악이 어려운 문제를 시각화로 해결 - 유사한 모니터링 UX 설계 시 참고

Claude Code 활용 방식: 계획과 실행의 분리

AI 코딩 도구 사용 방식을 근본적으로 재구성하여, 코드 작성 전 반드시 명시적 계획 검토 단계를 거치는 워크플로우를 제시한다. 핵심 원칙은 “계획 승인 전에는 Claude에게 코드를 쓰게 하지 않는다"로, 이를 통해 구조적 통제와 효율적 토큰 사용이 가능하다. LLM은 문법보다는 아키텍처나 제약조건 같은 보이지 않는 전제에서 실패하므로, 문서화된 계획이 그 전제를 디버깅할 수 있는 표면이 된다. 서브 에이전트 구조(계획/구현/리뷰 분리)나 블루팀/레드팀 방식도 효과적이다.

커뮤니티 의견

  • @pcj9024: “계획 파일을 그냥 레포지토리 안에 넣어버리고 그 계획을 실행함으로써 생긴 변용내용을 저장하게하면 컨텍스트가 제법 유지되더라구요”
  • @geekbini: “이 내용은 claude 에만 국한된 내용은 아니고 범용적으로 다른 CLI 기반의 AI서비스들에게도 적용할 수 있을 것 같군요.”

💡 실무 포인트: 계획 파일(.plan.md)을 레포지토리에 포함시키고, AI에게 코드 작성 전 계획 승인을 요구하는 워크플로우로 품질과 컨텍스트 유지

Claude Code, 앱 미리보기·코드 리뷰·PR 자동 수정·병합 기능 추가

Claude Code 데스크톱에서 개발 서버 실행과 앱 미리보기를 지원하여, 브라우저 전환 없이 UI·로그·오류 확인이 가능해졌다. 로컬 변경사항을 분석하는 ‘Review code’ 버튼으로 푸시 전 버그·잠재 이슈를 인라인 코멘트로 확인할 수 있다. GitHub PR 상태를 앱 내에서 추적하고, 리뷰 코멘트 기반 자동 수정 및 병합까지 원스톱으로 처리 가능하다.

💡 실무 포인트: Claude Code 데스크톱의 미리보기 + 리뷰 + PR 기능을 활용하여 컨텍스트 스위칭 최소화 및 코드 리뷰 자동화

Claude는 왜 Electron 앱일까?

Electron은 HTML·CSS·JS 기반으로 Windows, Mac, Linux를 동시에 지원하는 데스크톱 앱을 만들 수 있는 프레임워크로, Slack·Discord·VS Code 등이 사용한다. Claude 데스크톱 앱이 Electron인 이유는 웹과 데스크톱 간 코드 공유로 동일한 UI/UX를 유지할 수 있기 때문이다. 각 앱이 Chromium 엔진을 개별 포함하여 용량이 크고 리소스 사용이 많다는 단점이 있지만, 개발 속도와 멀티플랫폼 지원의 트레이드오프다.

커뮤니티 의견

  • @GN봇(Boris, Claude Code 팀): “예전에 Electron을 개발하던 엔지니어들이 있어서 네이티브가 아닌 방식으로 만드는 걸 선호했음. 이렇게 하면 웹과 데스크톱 간의 코드 공유가 가능해 동일한 UI/UX를 유지할 수 있음”

💡 실무 포인트: AI 데스크톱 앱 개발 시 Electron vs 네이티브 트레이드오프 고려 - 빠른 출시와 코드 공유 vs 성능과 리소스 효율

Claws는 이제 LLM 에이전트 위에 추가된 새로운 계층임

Andrej Karpathy가 LLM → 에이전트 → Claws로 이어지는 새로운 계층 구조를 제시했다. Claws는 에이전트 위에서 오케스트레이션·스케줄링·컨텍스트 관리·툴 호출·지속성을 담당하는 레이어로, 에이전트의 실행 구조를 한 단계 추상화한다. Karpathy는 Mac Mini에서 OpenClaw를 실험하며 이를 “흥미롭고 흥분되는 AI 스택의 새로운 계층"이라 표현했다.

커뮤니티 의견

  • @xguru: “NanoClaw – Apple 컨테이너 격리 환경에서 실행되는 500줄짜리 TypeScript 기반 Claude 어시스턴트 공개시점엔 500줄이었는데, 이제 4000줄이 된 듯 ??”

관련 레퍼런스

💡 실무 포인트: 에이전트 구축 시 단순 LLM 래퍼가 아닌 오케스트레이션 레이어(Claw) 설계 고려 - 스케줄링, 컨텍스트 지속성, 툴 체이닝

LLM을 칩 위에 '인쇄'하는 Taalas의 방식

Taalas는 Llama 3.1 8B 모델을 ASIC 칩에 직접 새겨 넣어 초당 17,000토큰 추론 속도를 달성한 스타트업이다. GPU 기반 시스템보다 10배 저렴하고, 10배 적은 전력, 10배 빠른 추론 성능을 주장한다. 8B개의 계수가 53B개의 트랜지스터에 패킹되어 있으며, 블록 양자화를 사용해 계수당 약 5~6.5개의 트랜지스터로 구현했다.

커뮤니티 의견

  • @parkindani: “칩 신규 설계와 개발 속도가 AI 덕분에 가속화된다면 이게 진짜 미래일 수도 있겠네요.”
  • @GN봇: “PyTorch에 model.toVHDL() 같은 기능이 생기길 기대함”

💡 실무 포인트: 특정 모델의 대규모 추론이 필요한 서비스라면 ASIC 기반 추론 가속 옵션 검토 - 비용/전력 효율 10배 개선 가능성

LLM이 만든 비밀번호가 위험한 이유, 100비트처럼 보이지만 실제론 27비트

보안 회사 Irregular의 연구에 따르면, Claude, ChatGPT, Gemini 같은 최신 LLM이 생성하는 비밀번호가 겉으로는 100비트 이상의 엔트로피를 가진 것처럼 보이지만, 실제로는 약 27비트 수준으로 극도로 취약하다. LLM은 진정한 난수 생성이 불가능하며 예측 가능한 패턴을 따르기 때문이다. 이는 Vibe Coding으로 서비스를 구축하는 비개발자들에게 특히 위험한데, DB 접속 비밀번호 같은 민감한 기본값이 LLM에 의해 생성될 수 있기 때문이다. 개발자라면 openssl rand -hex 64 같은 시스템 난수 생성기를 사용해야 한다.

커뮤니티 의견

  • @mammal: “아… 공대 1학년한테 미적분 다시 가르치는 교수님들이 왜 그 표정인지 이제 알겠다.”
  • @davespark: “개발자들이야 별 문제 없겠지만. 요즘 바이브코딩으로 일반인들도 코딩 많이 하니까 코드 속에 자동으로 묻어 들어가는 기본값들이 더 문제될 거 같아요.”
  • @click: “openssl rand -hex 64 시키면 잘 할텐데 굳이 LLM이 직접 비밀번호를 생성하게 해야할까요…?”

💡 실무 포인트: AI 코딩 도구 사용 시 비밀번호/시크릿 생성은 반드시 시스템 난수 생성기(openssl, /dev/urandom)를 명시적으로 사용하도록 프롬프트에 지시

ntransformer - 싱글 RTX 3090에서 Llama 3.1 70B를 실행하는 NVMe-to-GPU 추론 엔진

C++/CUDA 기반 LLM 추론 엔진으로, GPU 메모리 스트리밍과 NVMe 직접 입출력을 통해 Llama 70B 모델을 RTX 3090(24GB VRAM)에서 실행 가능하다. 3단계 적응형 캐싱 구조를 사용해 VRAM, 고정 RAM, NVMe/mmap을 자동 분할하며, CPU를 우회해 NVMe에서 GPU로 직접 전송(GPUdirect)하는 방식이 핵심이다. Apple M 시리즈의 통합 메모리 접근법과 비교 시 배치 추론 기준 성능 차이가 궁금해지는 프로젝트다.

커뮤니티 의견

  • @GN봇: “CPU를 우회해 NVMe에서 GPU로 직접 전송하는 방식이 정말 영리하다고 생각함. 로컬에서 대형 모델을 돌릴 때 병목은 항상 메모리 계층 구조였는데, 이건 NVMe를 확장된 VRAM처럼 DMA로 직접 다루는 셈임”

💡 실무 포인트: 로컬 LLM 추론 시 VRAM 부족 문제를 NVMe 스필링으로 해결 가능 - 고속 NVMe SSD 투자가 GPU 업그레이드보다 경제적일 수 있음

Show GN: 버튼 하나 딸깍으로 전사/요약/저장/공유 다 해주는 AI 노트테이커

원클릭 자동 문서화 AI 노트테이커 ‘Archy’가 베타 서비스를 런칭했다. 기존 AI 노트테이커들과 달리 녹음 → 전사 → 요약 → DB 저장 → 슬랙/노션 공유까지 버튼 하나로 처리하는 워크플로우 자동화에 집중했다. 대기업 서비스들이 사용자 커스터마이즈 형식으로 제공하다보니 비개발자에게 불편한 점을 공략한 것이다. 다만 기술적 해자가 낮다는 지적과 함께, 차별화를 위한 핵심 락인 요소가 필요하다는 피드백이 있다.

커뮤니티 의견

  • @bsh998: “설명과 마감, 프론트엔드가 딸깍으로 만드셨다는 것이 느껴집니다. 기술적 해자가 지나치게 낮은 프로그램이라는 것인데요… 당장 저도 만들 수 있을 것 같다는 생각이 듭니다.”
  • @minsuchae: “대기업들은 사용자가 커스터마이즈 하는 형식으로 제공하다보니깐 오히려 개발자가 아니면 쓰기 어려운 부분들이 꽤 많이 발생합니다.”

💡 실무 포인트: B2B SaaS에서 ‘워크플로우 단순화’는 기술적 해자가 낮지만 실무자 니즈는 명확 - 차별화를 위해 특정 도메인 락인 필요

zclaw - ESP32에서 888KB로 구동되는 개인용 AI 비서

ESP32 보드에서 동작하는 초경량 AI 비서로, 전체 펌웨어 크기가 888KiB 이하로 제한된다. C 언어로 작성되었으며, GPIO 제어·스케줄러(cron)·지속 메모리·사용자 정의 도구를 자연어로 조합 가능하다. 내부적으로는 OpenAI API를 호출하는 래퍼 구조지만, 마이크로컨트롤러의 장점인 ‘항상 켜져 있고 유지보수가 거의 필요 없는’ 특성을 활용한다.

커뮤니티 의견

  • @GN봇: “ESP32에서 claw를 돌리는 게 흥미로운 이유는 연산 성능이 아니라, 항상 켜져 있고 유지보수가 거의 필요 없는 점임. 마이크로컨트롤러는 사실상 자기 복구형 호스트임”

💡 실무 포인트: 상시 실행 에이전트 배포 시 리눅스 서버 대신 ESP32 같은 마이크로컨트롤러 고려 - OOM/재부팅 없는 안정적 호스팅

모든 AI 어시스턴트 개발 기업은 이제 광고 회사임

주요 AI 기업들이 광고 수익에 기반한 비즈니스 모델로 전환하며, 사용자 주변의 모든 시각·청각 정보를 수집하는 하드웨어 중심의 AI 어시스턴트를 개발 중이다. 항상 켜져 있는(Always-on) AI는 음성 호출어 없이도 사용자의 일상 대화를 인식하고 분석한다. 법적으로 정보가 존재하는 한 접근 가능하다는 게 근본적인 프라이버시 문제다.

커뮤니티 의견

  • @GN봇: “진정한 프라이버시를 지키려면 아예 정보가 존재하지 않아야 함. 개인의 뇌 속 정보처럼 법적으로 보호받는 방향으로 입법이 되었으면 좋겠지만, 현실은 반대로 가는 중임”

💡 실무 포인트: AI 어시스턴트 서비스 설계 시 데이터 최소 수집 원칙과 로컬 처리 옵션 제공 - 프라이버시가 차별화 요소

사전 경고 없는 계정 제한 — Google AI Ultra / OpenClaw OAuth 연동 문제

Google AI Ultra($249/월) 또는 Pro 유료 구독자들이 OpenClaw OAuth 연동 후 사전 경고 없이 계정이 일괄 정지되는 사태가 발생했다. Google은 내부 조사 후 OpenClaw를 통한 인증 정보 사용이 Antigravity 서버를 비-Antigravity 제품에 활용한 것으로 판단하여 계정을 제한했다. 문제는 차단 이유를 명확히 알 수 없고, 고객 지원팀도 기계적인 답변으로 일관한다는 점이다. LLM 프록시 블랙마켓 문제와 연관되어 선의의 사용자들까지 함께 차단당하는 상황이 발생하고 있으며, 유일한 우회 방법은 가족 공유 기능을 통해 다른 계정으로 접근하는 것뿐이다. 이 사태는 서드파티 도구 연동 시 플랫폼 정책 위반 리스크를 명확히 보여준다.

커뮤니티 의견

  • @jeeeyul: “LLM 프록시 블랙 마켓 문제랑 엮여서 애먼 사용자들까지 함께 차단되는 것 같네요.”
  • @allinux: “저도 10일전쯤 차단당했으며, 차단당한 이유를 지금도 알지못합니다. 구글 원에 채팅 및 유선으로 상담해봤지만 기계적인 답변으로 구글 클라우드쪽으로 돌리더군요.”
  • @m00nlygreat: “편법, 꼼수를 쓰지 말라는 합의를 하고 계약을 했는데. 굳이 쓴 사람들에게 무슨 관용이 필요하지요?”

💡 실무 포인트: 서드파티 OAuth 연동 도구 사용 전 반드시 플랫폼 ToS를 확인하고, 업무용 계정과 실험용 계정을 분리하여 리스크 격리 필요

실력 없음. 취향 없음.

LLM 시대에 누구나 앱을 만들 수 있게 되었지만, 진짜 장벽은 실력이 아닌 취향(taste)이며, 이 장벽은 전혀 낮아지지 않았다. 여기서 taste는 단순한 ‘취향’이 아니라 무엇을 만들 가치가 있는지, 사람들이 흥미를 느낄지, 완성도가 최소 기준을 넘는지 판단하는 감각이다. 공개되는 바이브 코딩 앱 대부분이 포화된 아이디어의 조잡한 복제물로, 실력과 취향 모두 부족한 최하위 사분면에 해당한다.

커뮤니티 의견

  • @brainer: “여기서 말하는 taste는 단순히 ‘취향’이라는 의미보다, 무엇을 만들 가치가 있는지 / 사람들이 흥미를 느낄지 / 완성도가 최소 기준을 넘는지 판단하는 감각에 가깝습니다.”
  • @xguru: “Greg Brockman의 트윗 - 취향은 새로운 핵심 역량임 / Steve Jobs - 결국 모든 것은 취향으로 귀결됩니다”

관련 레퍼런스

💡 실무 포인트: AI 도구로 구현 속도가 빨라진 만큼, ‘무엇을 만들 것인가’에 대한 판단력(taste) 개발에 더 많은 시간 투자 필요

아이들의 놀이 — 테크 업계의 새로운 세대와 사고의 종말

AI 시대 실리콘밸리에서 지능이나 전문성 대신 ‘에이전시’(agency, 행동력)라 불리는 성격 특성이 가장 가치 있는 자질로 부상하고 있다. 허가나 합의를 기다리지 않고 밀어붙이는 사람들이 VC 투자를 독점하는 구조다. 컬럼비아대 중퇴생 Roy Lee가 공동 창업한 Cluely는 Zoom 면접에서 실시간 AI 답변을 제공하는 서비스로, 윤리적 논란에도 불구하고 빠르게 성장했다.

커뮤니티 의견

  • @GN봇: “전력망을 유지하고, 컴파일러를 만들고, 인터넷을 보안하는 사람들은 바이럴한 인기를 얻지 못하지만, 그들의 기여는 훨씬 더 중요함. 이런 불균형은 누가 자금을 받고, 누가 인정받는지를 결정짓는 구조적 요인임”

💡 실무 포인트: 기술적 깊이보다 ‘빠른 실행력’이 평가받는 환경에서, 엔지니어로서 기술적 해자를 어떻게 증명하고 가치를 인정받을지 고민 필요

이제 남은 유일한 해자는 돈뿐인가?

AI가 대량 생산하는 시대에 인간의 창의적 사고 가치는 하락하고, 인간의 관심(Attention)이 희소 자원으로 부상한다. 새로운 제품을 만드는 것은 쉬워졌지만, 관심을 얻는 것은 극도로 어려워진 환경으로 전환됐다. Nassim Taleb의 조언처럼 “확장 불가능한 일"을 직업으로 삼는 것이 AI 시대의 생존 전략일 수 있다.

커뮤니티 의견

  • @GN봇: “Nassim Taleb은 이미 10년 전에 AI가 불러올 문제들을 다뤘음. 그가 준 최고의 조언 중 하나는 ‘확장 불가능한 일을 직업으로 삼으라’는 것임”

💡 실무 포인트: AI 시대 개인 경쟁력은 ‘만드는 능력’보다 ‘주목받는 능력’과 ‘확장 불가능한 전문성’으로 이동

코드 공장 시대와 미래 SRE

소프트웨어 엔지니어링의 근간이 AI와 자동화의 급격한 부상으로 재구조화되고 있다. 코드 생성이 자동화되면서 운영·안정성·보안을 담당하는 SRE/DevOps의 중요성이 상대적으로 부각된다는 관점이다. 다만 SRE/DevOps 역시 AI로 자동화 가능한 영역이라는 반론과, AI 발전 속도를 고려하면 이 예측이 틀릴 수 있다는 회의적 시각도 있다.

커뮤니티 의견

  • @geekbini: “SRE/DevOps도 AI로 자동화 가능한 솔루션이 나오질 않을까요? 기존 이 분야의 업체들이 아마도 내부적으로 AI솔루션을 만들고 있지 않을까 하는 생각도 듭니다.”
  • @jameslee9506: “개인적으로는 AI의 발전 속도를 고려해보았을 때 완전 잘못 짚었다고 회고할 수도 있지 않을까 싶네요.”

관련 레퍼런스

💡 실무 포인트: AI 코드 생성 도구 도입 시 운영/모니터링 자동화 도구도 함께 검토 - 생성된 코드의 품질 검증과 운영 안정성 확보

코드를 읽지 않는 시대, 엔지니어는 무엇을 읽어야 하는가

Anthropic 연구에 따르면 AI로 코딩 과제를 완료한 개발자들의 퀴즈 점수가 17% 낮았다. 핵심은 “AI를 쓰면 학습이 줄어든다"가 아니라, 같은 AI를 쓰면서도 사용 방식에 따라 결과가 극명하게 갈렸다는 점이다. 코드를 통째로 맡긴 사람은 학습 효과가 낮았지만, AI와 대화하며 단계별로 이해한 사람은 오히려 학습 효과가 높았다.

💡 실무 포인트: AI 코딩 도구 사용 시 결과물만 받지 말고, 단계별 설명을 요청하며 ‘왜 이렇게 구현했는지’ 이해하는 습관 필수

美 백악관, 인도 AI 임팩트 서밋서 'AI 주권' 선언…"미국 AI가 글로벌 표준"

미국이 인도 AI 임팩트 서밋에서 “미국산 AI가 글로벌 골드 표준"이라고 선언했다. 2026년 2월 16~21일 인도 뉴델리에서 열린 서밋에서 미국의 AI 주권과 수출 전략이 발표되었으며, NIST 주도의 AI 에이전트 표준 이니셔티브가 논의되었다. 웹의 HTTP처럼 AI에도 공식적인 표준이나 프로토콜이 생길 가능성이 있다.

커뮤니티 의견

  • @princox: “AI 에이전트 표준 이니셔티브(NIST)가 생기면서 미국의 주도로 AI에도 웹의 HTTP처럼 공식적인 표준이나 프로토콜이 생기지 않을까 싶습니다.”

💡 실무 포인트: AI 에이전트 서비스 설계 시 향후 NIST 표준화 방향 모니터링 - 표준 호환성이 글로벌 시장 진출의 필수 조건이 될 수 있음

2026년 2월 기준, 코딩 에이전트 활용 현황과 워크플로우 비교

코딩 에이전트 선택의 핵심 기준이 모델 성능 자체가 아닌 사용자의 가용 시간과 자율 실행 시간으로 전환되고 있다. Claude Code와 Codex를 상황에 따라 병행 사용하는 것이 권장되며, Opus는 컨텍스트 윈도우 관리와 도구 사용에 강점을 보인다. 집중 작업 시간에는 Claude Code, 비동기 작업에는 Codex를 활용하는 하이브리드 접근이 효과적이다.

💡 실무 포인트: 작업 특성에 따라 코딩 에이전트를 병행 사용하고, 자율 실행 시간 기준으로 도구 선택.

2026년 데이터 엔지니어링의 향방 - 5가지 주요 트렌드

데이터 엔지니어링 분야는 AI 확산과 기술 부채 누적이라는 이중 압력 속에서 양극화가 심화되는 흐름을 보인다. AI 활용 수준이 경쟁력의 핵심으로, 일상적 사용이 보편화되며 “AI 보조"라는 표현 자체가 사라질 전망이다. 데이터 모델링과 시맨틱 레이어의 중요성이 부각된다.

💡 실무 포인트: 데이터 파이프라인 작업에 AI 도구 일상적 활용을 표준 프랙티스로 정착.

7천 대의 로봇청소기를 우연히 제어하게 된 남성

한 소프트웨어 엔지니어가 DJI 로봇청소기를 게임 컨트롤러로 조종하려다 AI 코딩 도우미를 활용해 클라우드 통신 방식을 역공학하는 과정에서, 동일한 인증 정보가 24개국 약 7,000대의 로봇청소기에 적용되어 카메라, 마이크, 지도, 상태 데이터에 모두 접근 가능함을 발견했다. 이는 IoT 기기의 심각한 보안 취약점을 보여주며, 값싼 스마트 기기가 스파이 도구가 될 수 있는 위험성을 경고한다.

커뮤니티 의견

  • @GN봇: “Mysa 스마트 온도조절기에서도 똑같은 문제를 발견해 공개했는데, 동일한 자격 증명으로 모든 기기를 제어할 수 있었음”

💡 실무 포인트: IoT 기기 연동 개발 시 기기별 고유 인증 키 발급과 최소 권한 원칙 적용 필수.

AI uBlock 블랙리스트

uBlock Origin에서 AI가 생성한 콘텐츠 공장 사이트를 차단하기 위한 공개 블랙리스트 프로젝트다. 생성형 AI가 작성한 웹사이트는 광고와 추천 링크로 채워져 있으며 신뢰할 수 없는 정보를 포함하는 경우가 많다. 다만 FAQ의 공격적인 문구(“Cry about it”)로 인해 일부 기여자들이 이탈했다는 피드백이 있다.

💡 실무 포인트: 정보 검색 품질 향상을 위해 AI 생성 콘텐츠 팜 차단 필터 적용 검토.

AI 에이전트 시장의 절반은 한 분야가 차지, 나머지는 아직 미개척 영역임

소프트웨어 엔지니어링이 전체 AI 에이전트 도구 호출의 약 50%를 차지하는 반면, 헬스케어·법률·금융 등 16개 버티컬은 총합 5% 미만에 불과하다. AI 모델의 실제 역량은 인간이 5시간 걸릴 작업을 수행할 수 있는 수준이지만, 실제 사용에서 99.9번째 백분위 세션은 약 42분이다. 비-엔지니어링 도메인에서의 AI 에이전트 기회가 크게 열려 있다.

💡 실무 포인트: AI 에이전트 활용이 부족한 버티컬(헬스케어, 법률, 금융)에서의 자동화 기회 탐색.

Andrej Karpathy가 말하는 "Claws"

Andrej Karpathy가 LLM 기반 AI 에이전트 위에 구축된 새로운 계층인 “Claws"를 소개했다. Claws는 오케스트레이션·스케줄링·컨텍스트 관리·도구 호출·지속성 등을 확장하는 구조로, Karpathy는 Mac Mini를 구입해 OpenClaw를 실험하며 이를 “흥미롭고 흥분되는 AI 스택의 새로운 계층"이라고 평가했다. 에이전트의 실행 구조를 한 단계 추상화해 더 높은 수준의 자동화와 구성 가능성을 확보한다.

💡 실무 포인트: 복잡한 에이전트 워크플로우 구축 시 Claw 계층의 오케스트레이션 패턴 참고.

Ask GN: 'Claude Code에 Gemini 연결하는 법'에 대해 궁금한 분 계실까요?

소프트웨어 엔지니어가 Gemini 토큰을 저렴하게 활용하기 위해 Claude Code에 Gemini 백엔드를 프록시로 연결하는 방법을 공유했다. Gemini CLI가 너무 “전투적”(코드만 읽으라고 해도 자꾸 수정하려 함)인 반면, Claude Code의 에이전트 설계가 가장 안정적이라는 평가다. 로컬에 anthropic-proxy를 띄워 ANTHROPIC_BASE_URL을 설정하는 방식과, AWS Lambda 서버리스로 구현하는 방식이 논의되었다. 단, OpenCode 대규모 정지 사태 사례처럼 계정 정지 위험이 있다는 경고도 나왔다.

커뮤니티 의견

  • @winterjung: “로컬에 anthropic-proxy 띄워서 proxy해서 다른 gemini나 gpt 모델을 쓰긴 했는데 서버리스로 구현하셨다고 하니 궁금하네요.”
  • @bsh998: “Claude Code에 gemini 연결하면 정지를 먹을 수도 있긴 한데요. opencode 대규모 정지 사태를 조심하셔야 할 것 같아요.”

관련 레퍼런스

💡 실무 포인트: LLM 프록시 연동 시 ToS 위반 리스크를 인지하고, 공식 지원 방식 우선 검토.

February 23, 2026 · 가십데일리  · 토론↗

ChatDev 2.0 - 멀티에이전트 협업 기반 Zero-Code 개발 플랫폼

코드 작성 없이 멀티에이전트 시스템을 구성·실행할 수 있도록 설계된 Zero-Code 플랫폼이다. 간단한 설정만으로 에이전트, 워크플로, 태스크를 정의해 데이터 시각화, 3D 생성, 심층 연구 등 복잡한 시나리오를 자동화할 수 있다.

💡 실무 포인트: 멀티에이전트 협업이 필요한 복잡한 작업에 ChatDev 2.0 같은 노코드 플랫폼 활용 검토.