본문 바로가기

반응형

전체 글

(172)
Claude Code가 멍청해진 이유 — Anthropic이 직접 밝힌 3가지 원인과 수정 내역 지난 한 달간 Claude Code가 이상하다고 느끼셨다면, 착각이 아니었습니다. Anthropic이 공식 포스트모템을 발행했습니다.[핵심 요약]→ 기간: 2026년 3월 4일 ~ 4월 20일→ 영향 범위: Claude Code, Claude Agent SDK, Claude Cowork→ API는 영향 없음→ 원인 1: 기본 추론 노력을 High → Medium으로 낮춤 (3월 4일)→ 원인 2: 캐싱 버그로 매 턴마다 Thinking이 삭제됨 (3월 26일)→ 원인 3: 시스템 프롬프트에 응답 길이 제한 추가 (4월 16일)→ 현재: v2.1.116 이상에서 전부 수정 완료→ 보상: 전 구독자 사용량 한도 리셋 (4월 23일)배경 — "Claude가 멍청해졌다"는 신호들3월부터 GitHub, X, Re..
오픈소스 코딩 모델 3파전 — Qwen3.6-27B vs Gemma 4 31B vs GLM-5.1 각자 다른 대륙, 다른 철학. 그런데 전부 프론티어급입니다. 뭘 골라야 할지 완전히 정리해드립니다.[핵심 요약]→ Qwen3.6-27B: 코딩 에이전트 최강, RTX 4090 한 장, Apache 2.0→ Gemma 4 31B: 수학/추론 최강, 멀티모달(비전+오디오), Apache 2.0→ GLM-5.1: SWE-bench Pro 1위, 6000+ 툴 호출 지속, MIT 라이센스→ 공통점: 전부 Apache 2.0 / MIT, 상업 이용 무료→ 결론: 용도에 따라 다름 — 이 글이 그 기준을 정리합니다세 모델이 동시에 나온 이유2026년 4월은 오픈소스 AI 역사상 가장 경쟁이 치열한 달입니다. Alibaba, Google, Z.AI(Zhipu AI)가 수주 안에 모두 출시했습니다.출시 타임라인:→ G..
Qwen3.6-27B로 로컬 코딩 에이전트 만들기 — Aider, Continue.dev, Cursor, Qwen Code 완전 연동 가이드 API 비용 0원, 코드 외부 전송 없음. RTX 4090 한 장으로 프론티어급 코딩 에이전트를 로컬에서 돌립니다.[핵심 요약]→ 이번 글에서 다루는 것:→ 1단계: vLLM로 로컬 서버 띄우기→ 2단계: Aider 연동 — CLI 코딩 에이전트→ 3단계: Continue.dev 연동 — VS Code 인라인 어시스턴트→ 4단계: Cursor 연동 — 에이전트 모드→ 5단계: Qwen Code 연동 — Claude Code 대안→ CUDA 13.2 버그, Thinking 모드, Ollama 미지원 주의사항 포함 왜 로컬인가클라우드 API 방식:→ Claude Opus 4.7: 입력 $5, 출력 $25 / 1M tokens→ GPT-5.5: 입력 $5, 출력 $30 / 1M tokens→ 코드가 외부 서버..
Qwen3.6-27B vs 35B-A3B — Dense vs MoE 같은 Qwen3.6 패밀리인데 아키텍처가 완전히 다릅니다. 뭘 골라야 할지 헷갈리는 분들을 위해 정리했습니다.[핵심 요약]→ 27B: Dense 모델 — 모든 파라미터 항상 활성, 성능 우선→ 35B-A3B: MoE 모델 — 3B만 활성, 속도 우선→ 벤치마크: 27B가 전 항목에서 앞섬→ 속도: 35B-A3B가 3~5배 빠름 (같은 하드웨어 기준)→ VRAM: 27B ~16.8GB vs 35B-A3B ~21GB (Q4 기준)→ 결론: 코딩 에이전트 → 27B / 빠른 인터랙티브 → 35B-A3BDense vs MoE — 뭐가 다른가같은 Qwen3.6 패밀리지만 내부 구조가 근본적으로 다릅니다.Dense (27B):→ 27B 파라미터 전부 항상 활성→ 모든 토큰에 27B 파라미터가 계산에 참여→ 토큰당 ..
Qwen3.6-27B 완전 분석 — 27B 모델이 397B MoE 능가 RTX 4090 하나로 프론티어급 코딩 에이전트를 돌릴 수 있는 시대가 왔습니다.[핵심 요약]→ 출시: 2026년 4월 22일, Alibaba Qwen Team→ 라이센스: Apache 2.0 (상업 사용 가능)→ 파라미터: 27B dense (이전 플래그십 Qwen3.5-397B 대비 1/14 크기)→ VRAM: Q4_K_M 기준 ~16.8GB — RTX 4090 한 장으로 구동→ SWE-bench Verified 77.2% — Claude Opus 4.6 (80.8%)과 3.6점 차→ Terminal-Bench 2.0 59.3% — Claude 4.5 Opus와 동점→ SkillsBench 48.2% — 397B MoE (30.0%) 대비 60% 향상→ 주의: CUDA 13.2 버그 있음, CUDA ..
GPT-5.5 비싸다 — GPT-5.4 대비 2배 출력 토큰 가격이 2배 올랐습니다. 에이전트 돌리는 개발자라면 이번 달 청구서가 달라집니다.[핵심 요약]→ GPT-5.5 가격: 입력 $5/1M, 출력 $30/1M→ GPT-5.4 대비: 입력 2배, 출력 2배 인상→ Claude Opus 4.7 대비: 입력 동일, 출력 20% 비쌈→ 함정: Claude Opus 4.7 새 토크나이저로 실질 비용 20~35% 추가→ 결론: 워크로드별로 모델 라우팅 전략이 필수얼마나 올랐나GPT-5.4가 나온 지 6주 만에 GPT-5.5가 나왔습니다. 성능은 올랐는데 가격도 같이 올랐습니다.GPT-5.4 (6주 전):→ 입력: $2.50 / 1M tokens→ 출력: $15.00 / 1M tokens→ 272K 이상 컨텍스트: 입력 $5.00으로 2배 (함정)GPT-5.5..
GPT-5.5 출시 완전 분석 — Claude Opus 4.7에 일주일 만에 날린 OpenAI의 반격 6주 만에 새 모델이 나왔습니다. AI 코딩 툴 전쟁, 이제 속도전입니다.[핵심 요약]→ GPT-5.5: 2026년 4월 23일 출시, GPT-5.4 이후 6주 만→ 핵심: 에이전트 코딩 특화, 다단계 작업 자율 처리→ 포지셔닝: Claude Opus 4.7 출시 일주일 만에 나온 직접 맞불→ 배포: Plus, Pro, Business, Enterprise 우선 / Free 미정→ 동반 출시: Privacy Filter (개인정보 자동 마스킹)→ OpenAI 현황: 주간 활성 사용자 9억 명, 유료 구독자 5,000만 명GPT-5.5가 나온 배경OpenAI가 4월 23일(현지시간) GPT-5.5를 공식 출시했습니다. GPT-5.4 출시 이후 불과 6주 만입니다. 업계에서는 이 속도 자체가 메시지라는 평가..
Continue.dev 완전 가이드 — GitHub Copilot 대신 쓰는 무료 오픈소스 AI 코딩 어시스턴트 GitHub Copilot 월 $10~19 내고 있나요Continue.dev는 똑같은 기능인데 무료예요. 오픈소스고, 어떤 LLM이든 연결 가능해요.GitHub Copilot:→ 월 $10 (개인) ~ $19 (Business)→ GPT/Claude 고정→ 코드가 GitHub 서버 통과→ 커스터마이징 불가Continue.dev:→ 완전 무료 (Apache 2.0)→ Claude, GPT, Gemini, Ollama 전부 가능→ 로컬 모델 연결하면 코드 외부 유출 0→ VS Code, JetBrains 지원→ GitHub 스타 25,000+뭘 할 수 있냐1. 탭 자동완성 → 코드 작성 중 Tab 누르면 완성 → Copilot이랑 완전히 똑같은 UX2. 채팅 → "이 함수 뭐 하는 건지 설명해줘"..

반응형