알리바바의 오픈소스 Qwen3.5-Medium 모델, 로컬에서 Sonnet 4.5 수준 성능 제공

Qwen3.5 시리즈는 35B, 122B, 27B 등 네 가지 모델로 구성되며, 세 가지는 Apache 2.0 오픈소스로 공개되었다. 벤치마크상 GPT-5-mini와 Sonnet 4.5를 능가한다고 주장하지만, 커뮤니티에서는 실제 사용 시 과대광고에 미치지 못한다는 피드백이 많다. 비전 모델의 경우 VRAM 소비가 예상보다 크며, 122B 모델은 96GB GPU에서도 올리기 어렵다는 보고가 있다.

커뮤니티 의견

  • @chcv0313: “RTX Pro 6000(96GB)을 보유중인데, ollama로 122B 모델이 안올라갑니다. 비전 트랜스포머 때문인가 합니다”
  • @ng0301: “비전 인코더 사용되면 1B모델도 9G VRAM 먹더라구요”
  • @kensin2: “cuda 기반의 llama.cpp 서버로 돌려야 성능 나옵니다”

💡 실무 포인트: 로컬 LLM 배포 시 비전 인코더의 추가 VRAM 소비를 반드시 고려하고, ollama 대신 llama.cpp 서버 기반 배포를 검토하라.

에이전틱 엔지니어링 시대의 생존 스킬 9가지

Karpathy가 주말 프로젝트를 에이전트에게 맡기고 30분 만에 완성한 사례를 소개하며, 99%의 시간 동안 코드를 직접 작성하지 않고 에이전트에게 명령하고 감독하는 “에이전틱 엔지니어링” 방식의 생존 스킬을 정리한 글이다.

커뮤니티 의견

  • @yangeok: “pc만 켜두면 서버역할까지 해주는 cowork가 나와서 무서웠는데, 좀 안심이 되고 앞으로 어떻게 바뀔지 머릿속에 그려집니다”

💡 실무 포인트: 에이전트에게 효과적으로 지시하고 결과를 검증하는 역량이 핵심 엔지니어링 스킬로 부상하고 있다.

우리는 분열되지 않을 것이다

미국 국방부가 Anthropic에 대해 국방물자생산법(DPA) 발동을 위협하며 군사용 모델 제공을 강요하고 있다는 상황에서, Anthropic이 국내 대규모 감시와 인간 통제 없는 자율 살상에 자사 기술 사용을 거부하는 입장을 재확인한 문서이다. 정부가 특정 AI 기업을 ‘충성 부족’으로 처벌할 수 있다면, Apple이나 Amazon 같은 다른 기업도 같은 위험에 놓일 수 있다는 우려가 제기되었다.

커뮤니티 의견

  • @GN⁺: “이번 사안은 미국 경제와 법치주의 전반에 훨씬 더 큰 영향을 미칠 것 같음. 미국의 중요한 전환점이 되는 순간임”

💡 실무 포인트: AI 윤리 정책이 사업 연속성에 직접 영향을 미칠 수 있으므로, 자사 AI 사용 정책의 레드라인을 명확히 정의해두어야 한다.

의사결정나무 – 중첩된 결정 규칙의 놀라운 힘

엔트로피와 정보 이득 기반으로 데이터를 분류하는 의사결정나무의 원리를 인터랙티브하게 설명하는 교육 자료이다. 선형 분류기의 비임계 출력값을 추가 특성으로 사용해 결정 트리를 학습하는 고급 기법도 커뮤니티에서 공유되었다.

커뮤니티 의견

  • @GN⁺: “좋은 선형 분류기를 먼저 학습하고, 그 출력을 추가 특성으로 사용해 결정 트리를 학습하면 양쪽의 약점을 보완할 수 있음”

💡 실무 포인트: 딥러닝만 고집하지 말고, 해석 가능한 의사결정나무를 비즈니스 규칙 검증이나 피처 중요도 분석에 활용하라.

인지 부채: 속도가 이해를 앞지를 때

AI 보조 개발이 코드 생산 속도를 인간의 이해 속도보다 빠르게 만들며, ‘인지 부채(cognitive debt)‘가 발생한다는 분석이다. 코드가 정상 작동하고 테스트를 통과하더라도, 개발자가 코드의 구조와 이유를 이해하지 못하는 상태가 누적된다. 에이전트 도입 후 PR 리뷰가 더 암묵적으로 변하여 맥락이 머리에 남지 않는다는 현장 보고도 있다.

커뮤니티 의견

  • @laeyoung: “요즘에 비슷한 생각을 하고 있어서, 어제 인지 부채와 관련된 블로그 글을 하나 썼는데요. 다 비슷한 고민들을 하는거 같네요”
  • @GN⁺: “에이전트가 들어오자 PR 리뷰가 훨씬 암묵적이 되어, 맥락이 머리에 남지 않아 의식적으로 집중해야 함”

💡 실무 포인트: AI 생성 코드에 대해 에이전트의 계획을 커밋에 함께 포함하거나, 코드 리뷰 시 의도적으로 이해 시간을 확보하는 프로세스를 도입하라.

전부 사기였다

Gary Marcus가 OpenAI의 Sam Altman이 Anthropic의 Dario Amodei를 공개적으로 지지한 바로 그날, 실제로는 Amodei의 사업을 빼앗는 비슷한 조건의 계약을 비밀리에 추진했다는 뉴욕타임스 보도를 분석한 글이다. Altman의 이중적 행보에 대한 강력한 비판으로, AI 업계의 윤리와 신뢰 문제를 정면으로 다루고 있다.

커뮤니티 의견

  • @holywork: “샘 알트먼은 소시오패스 파충류가 아닌가 싶습니다”
  • @GN⁺: “2,500만 달러는 큰돈이 아님. 그들은 돈도 적게 받는 값싼 매춘부 같음”

💡 실무 포인트: AI 벤더 선택 시 공식 발표와 실제 행동의 괴리를 주시하고, 핵심 인프라에 대한 벤더 리스크 평가를 정기적으로 수행하라.

트럼프 대통령, Anthropic 정부 사용 금지 후 OpenAI와 국방부 계약 체결

미국 정부가 Anthropic의 AI 기술 사용을 전면 중단하고, 국방부가 이를 국가안보 위험 기업으로 지정했다. Anthropic은 자율무기와 국내 대규모 감시에 자사 기술 사용을 거부한 것이 원인이다. 발표 직후 OpenAI가 국방부와 기밀 네트워크용 AI 공급 계약을 체결하며 대체 공급자로 부상했다. 이번 사안은 AI 기업의 윤리적 원칙과 정부 계약 사이의 긴장을 극명하게 보여주는 사건으로, AI 업계 전반에 큰 파장을 일으키고 있다.

커뮤니티 의견

  • @GN⁺: “Anthropic이 현 미국 행정부를 지지하지 않는 사람들 사이에서 인기를 얻을 수도 있을 것 같음. Claude Code가 프로그래밍 분야에서는 최고 수준임”
  • @GN⁺: “트럼프 행정부의 지난 1년을 보면, 이런 비합리적인 협상은 전혀 놀랍지 않음”

💡 실무 포인트: AI 서비스 의존도가 높은 조직은 특정 벤더 종속 리스크를 평가하고, 멀티 벤더 전략 또는 오픈소스 대안을 확보해야 한다.

프로덕트 디자인이 변하고 있다

AI 도구가 디자인 시스템을 직접 활용해 UI를 생성하면서, 디자이너의 역할이 단순 시각 설계에서 전략과 조율 중심으로 이동하고 있다. 핵심 질문은 “누가 누구의 일을 뺏나"가 아니라, 프로세스가 어떻게 바뀌는가이다.

💡 실무 포인트: 디자인 시스템을 AI가 활용할 수 있는 구조화된 형태로 정비하면 AI 기반 UI 생성의 품질을 높일 수 있다.