반응형
GitHub Copilot 월 $10~19 내고 있나요
Continue.dev는 똑같은 기능인데 무료예요. 오픈소스고, 어떤 LLM이든 연결 가능해요.
GitHub Copilot:
→ 월 $10 (개인) ~ $19 (Business)
→ GPT/Claude 고정
→ 코드가 GitHub 서버 통과
→ 커스터마이징 불가
Continue.dev:
→ 완전 무료 (Apache 2.0)
→ Claude, GPT, Gemini, Ollama 전부 가능
→ 로컬 모델 연결하면 코드 외부 유출 0
→ VS Code, JetBrains 지원
→ GitHub 스타 25,000+
뭘 할 수 있냐
1. 탭 자동완성
→ 코드 작성 중 Tab 누르면 완성
→ Copilot이랑 완전히 똑같은 UX
2. 채팅
→ "이 함수 뭐 하는 건지 설명해줘"
→ "여기 버그 찾아줘"
→ "테스트 코드 작성해줘"
→ "이 코드 리팩토링해줘"
3. 컨텍스트 첨부
→ @파일명 → 특정 파일 첨부
→ @코드베이스 → 전체 레포 검색
→ @터미널 → 터미널 출력 첨부
→ @깃차이 → 현재 변경사항
→ @문서 → 공식 문서 참조
4. 커스텀 슬래시 명령어
→ /test, /review, /explain 직접 정의
설치
VS Code 확장 설치
VS Code → Extensions (Ctrl+Shift+X)
→ "Continue" 검색
→ Continue.dev 설치 (파란 로고)
→ 좌측 사이드바에 Continue 아이콘 생김
모델 연결
방법 A — Claude API 직접 (가장 좋은 품질)
Continue 사이드바 → 설정 아이콘
→ Add Chat Model
→ Provider: Anthropic
→ API Key: sk-ant-xxxxx
→ Model: claude-sonnet-4-6
→ Add Model
config.yaml 직접 편집할 경우:
# ~/.continue/config.yaml
name: My Dev Config
version: 1.0.0
schema: v1
models:
- name: Claude Sonnet
provider: anthropic
model: claude-sonnet-4-6
apiKey: sk-ant-xxxxx
roles:
- chat
- edit
- apply
방법 B — Ollama 로컬 모델 (완전 무료, 프라이버시)
코드가 외부로 한 바이트도 안 나가요. 기업 환경에서 유용해요.
Ollama 설치:
# Mac
brew install ollama
# Linux
curl -fsSL https://ollama.ai/install.sh | sh
# Windows
# ollama.ai 에서 인스톨러 다운로드
모델 다운로드:
# 채팅용 (7B, 8GB RAM 필요)
ollama pull qwen2.5-coder:7b
# 자동완성용 (1.5B, 빠름, 2GB RAM)
ollama pull qwen2.5-coder:1.5b
# 임베딩용 (@코드베이스 기능)
ollama pull nomic-embed-text
# Ollama 실행 확인
curl http://localhost:11434
# → "Ollama is running"
Continue에 연결:
# ~/.continue/config.yaml
name: Local AI Setup
version: 1.0.0
schema: v1
models:
# 채팅용 (품질 중시)
- name: Qwen Coder 7B
provider: ollama
model: qwen2.5-coder:7b
apiBase: http://localhost:11434
roles:
- chat
- edit
- apply
# 자동완성용 (속도 중시)
- name: Qwen Coder 1.5B
provider: ollama
model: qwen2.5-coder:1.5b
apiBase: http://localhost:11434
roles:
- autocomplete
autocompleteOptions:
debounceDelay: 250
maxPromptTokens: 1024
multilineCompletions: auto
# 코드베이스 검색용
- name: Nomic Embed
provider: ollama
model: nomic-embed-text
apiBase: http://localhost:11434
roles:
- embed
방법 C — 하이브리드 (권장)
자동완성은 Ollama(무료, 빠름), 채팅은 Claude(정확) 이렇게 나눠요.
name: Hybrid Setup
version: 1.0.0
schema: v1
models:
# 채팅 → Claude (정확한 답변)
- name: Claude Sonnet
provider: anthropic
model: claude-sonnet-4-6
apiKey: sk-ant-xxxxx
roles:
- chat
- edit
# 자동완성 → Ollama (빠름, 무료)
- name: Qwen Coder 1.5B
provider: ollama
model: qwen2.5-coder:1.5b
apiBase: http://localhost:11434
roles:
- autocomplete
autocompleteOptions:
debounceDelay: 200
multilineCompletions: auto
# 임베딩 → Ollama
- name: Nomic Embed
provider: ollama
model: nomic-embed-text
apiBase: http://localhost:11434
roles:
- embed
자동완성은 하루에 수백 번 호출되는데, Ollama로 돌리면 비용 0원이에요.
컨텍스트 기능 세팅
config.yaml에 context 추가:
context:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: folder
- provider: codebase
@코드베이스 사용법
1. Continue 사이드바
→ 우상단 "Reindex" 버튼 클릭
→ 전체 코드베이스 임베딩 생성 (수 분 소요)
이후 채팅에서:
"@코드베이스 에서 JWT 인증 관련 코드 찾아줘"
→ 전체 레포에서 관련 코드 검색 후 답변
커스텀 슬래시 명령어
prompts:
- name: test
description: 단위 테스트 작성
prompt: |
선택한 코드에 대한 단위 테스트를 작성해줘.
Jest/Vitest 사용, 엣지 케이스 포함,
Given-When-Then 패턴으로.
- name: review
description: 코드 리뷰
prompt: |
이 코드를 리뷰해줘.
확인 항목:
1. 버그 및 잠재적 오류
2. 보안 취약점 (SQL 인젝션, XSS 등)
3. 성능 개선 포인트
4. 코드 가독성
각 항목별로 구체적인 피드백 줘.
- name: explain
description: 코드 설명
prompt: |
이 코드가 뭘 하는지 한국어로 설명해줘.
초보자도 이해할 수 있게 단계별로.
- name: optimize
description: 성능 최적화
prompt: |
이 코드의 성능을 최적화해줘.
시간복잡도, 공간복잡도 개선 포인트 설명하고
최적화된 버전 작성해줘.
사용:
코드 선택 → 채팅창에 /test 입력 → Enter
→ 선택한 코드의 단위 테스트 자동 생성
코딩 규칙 설정
rules:
- 모든 함수에 TypeScript 타입 힌트 추가
- 변수명은 camelCase, 상수는 UPPER_SNAKE_CASE
- async/await 사용, Promise.then() 금지
- 에러 처리는 항상 try/catch로
- 한국어 주석 사용
- 함수는 20줄 이하로 유지
실전 사용 예시
코드 설명
파일에서 복잡한 함수 드래그 선택
→ Cmd+L (Mac) 또는 Ctrl+L (Windows)
→ Continue 채팅 패널에 자동 첨부됨
→ "이 코드 설명해줘" 입력
버그 찾기
에러 메시지 터미널에서 복사
→ 채팅창에 @터미널 입력
→ "이 에러 왜 나는 거야?" 입력
→ 터미널 출력 + 코드 컨텍스트로 분석
PR 리뷰 준비
채팅창에 @깃차이 입력
→ "이번 변경사항 리뷰해줘, 문제 있는 부분 찾아줘"
→ 현재 브랜치 변경사항 전체 분석
문서 참조 코딩
"@문서 https://docs.anthropic.com/api
Claude API로 스트리밍 구현하는 코드 작성해줘"
→ 공식 문서 읽어서 최신 API 기반으로 코드 생성
GitHub Copilot vs Continue.dev 최종 비교
비용:
Copilot → 월 $10~19
Continue → 무료 (Ollama) / API 비용만 (Claude 직접)
모델 선택:
Copilot → GPT-5, Claude Sonnet 고정
Continue → 원하는 모델 전부
프라이버시:
Copilot → 코드가 GitHub 서버 통과
Continue → Ollama 쓰면 코드 외부 유출 0
커스터마이징:
Copilot → 거의 불가
Continue → 슬래시 명령어, 규칙, 컨텍스트 전부 커스텀
자동완성 품질:
Copilot → 약간 우세 (더 많은 학습 데이터)
Continue → Codestral, Qwen Coder로 거의 동급
결론:
개인 프로젝트, 스타트업 → Continue + Ollama (비용 0)
기업 (보안 중요) → Continue + Ollama (코드 유출 없음)
최고 품질 원함 → Continue + Claude API
반응형
'AI Development' 카테고리의 다른 글
| Gemini Enterprise Agent Platform 완전 분석 — Vertex AI가 에이전트 플랫폼으로 진화한 이유 (0) | 2026.04.24 |
|---|---|
| Claude Code가 멍청해진 이유 — Anthropic이 직접 밝힌 3가지 원인과 수정 내역 (0) | 2026.04.24 |
| LiteLLM 완전 가이드 — Claude, GPT, Gemini 100개+ LLM을 코드 한 줄로 전환하기 (0) | 2026.04.23 |
| LLM 추상화 레이어 — 48시간마다 새 모델이 나오는 시대에 살아남는 법 (1) | 2026.04.23 |
| GitHub Copilot Agent Mode 실전 가이드 — VS Code에서 자율 코딩 에이전트 쓰는 법 (0) | 2026.04.21 |