본문 바로가기

AI Development

Continue.dev 완전 가이드 — GitHub Copilot 대신 쓰는 무료 오픈소스 AI 코딩 어시스턴트

반응형

GitHub Copilot 월 $10~19 내고 있나요

Continue.dev는 똑같은 기능인데 무료예요. 오픈소스고, 어떤 LLM이든 연결 가능해요.

GitHub Copilot:
→ 월 $10 (개인) ~ $19 (Business)
→ GPT/Claude 고정
→ 코드가 GitHub 서버 통과
→ 커스터마이징 불가

Continue.dev:
→ 완전 무료 (Apache 2.0)
→ Claude, GPT, Gemini, Ollama 전부 가능
→ 로컬 모델 연결하면 코드 외부 유출 0
→ VS Code, JetBrains 지원
→ GitHub 스타 25,000+

뭘 할 수 있냐

1. 탭 자동완성
   → 코드 작성 중 Tab 누르면 완성
   → Copilot이랑 완전히 똑같은 UX

2. 채팅
   → "이 함수 뭐 하는 건지 설명해줘"
   → "여기 버그 찾아줘"
   → "테스트 코드 작성해줘"
   → "이 코드 리팩토링해줘"

3. 컨텍스트 첨부
   → @파일명     → 특정 파일 첨부
   → @코드베이스  → 전체 레포 검색
   → @터미널     → 터미널 출력 첨부
   → @깃차이     → 현재 변경사항
   → @문서       → 공식 문서 참조

4. 커스텀 슬래시 명령어
   → /test, /review, /explain 직접 정의

설치

VS Code 확장 설치

VS Code → Extensions (Ctrl+Shift+X)
→ "Continue" 검색
→ Continue.dev 설치 (파란 로고)
→ 좌측 사이드바에 Continue 아이콘 생김

모델 연결

방법 A — Claude API 직접 (가장 좋은 품질)

Continue 사이드바 → 설정 아이콘
→ Add Chat Model
→ Provider: Anthropic
→ API Key: sk-ant-xxxxx
→ Model: claude-sonnet-4-6
→ Add Model

config.yaml 직접 편집할 경우:

# ~/.continue/config.yaml
name: My Dev Config
version: 1.0.0
schema: v1

models:
  - name: Claude Sonnet
    provider: anthropic
    model: claude-sonnet-4-6
    apiKey: sk-ant-xxxxx
    roles:
      - chat
      - edit
      - apply

방법 B — Ollama 로컬 모델 (완전 무료, 프라이버시)

코드가 외부로 한 바이트도 안 나가요. 기업 환경에서 유용해요.

Ollama 설치:

# Mac
brew install ollama

# Linux
curl -fsSL https://ollama.ai/install.sh | sh

# Windows
# ollama.ai 에서 인스톨러 다운로드

모델 다운로드:

# 채팅용 (7B, 8GB RAM 필요)
ollama pull qwen2.5-coder:7b

# 자동완성용 (1.5B, 빠름, 2GB RAM)
ollama pull qwen2.5-coder:1.5b

# 임베딩용 (@코드베이스 기능)
ollama pull nomic-embed-text

# Ollama 실행 확인
curl http://localhost:11434
# → "Ollama is running"

Continue에 연결:

# ~/.continue/config.yaml
name: Local AI Setup
version: 1.0.0
schema: v1

models:
  # 채팅용 (품질 중시)
  - name: Qwen Coder 7B
    provider: ollama
    model: qwen2.5-coder:7b
    apiBase: http://localhost:11434
    roles:
      - chat
      - edit
      - apply

  # 자동완성용 (속도 중시)
  - name: Qwen Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b
    apiBase: http://localhost:11434
    roles:
      - autocomplete
    autocompleteOptions:
      debounceDelay: 250
      maxPromptTokens: 1024
      multilineCompletions: auto

  # 코드베이스 검색용
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text
    apiBase: http://localhost:11434
    roles:
      - embed

방법 C — 하이브리드 (권장)

자동완성은 Ollama(무료, 빠름), 채팅은 Claude(정확) 이렇게 나눠요.

name: Hybrid Setup
version: 1.0.0
schema: v1

models:
  # 채팅 → Claude (정확한 답변)
  - name: Claude Sonnet
    provider: anthropic
    model: claude-sonnet-4-6
    apiKey: sk-ant-xxxxx
    roles:
      - chat
      - edit

  # 자동완성 → Ollama (빠름, 무료)
  - name: Qwen Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b
    apiBase: http://localhost:11434
    roles:
      - autocomplete
    autocompleteOptions:
      debounceDelay: 200
      multilineCompletions: auto

  # 임베딩 → Ollama
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text
    apiBase: http://localhost:11434
    roles:
      - embed

자동완성은 하루에 수백 번 호출되는데, Ollama로 돌리면 비용 0원이에요.


컨텍스트 기능 세팅

config.yaml에 context 추가:

context:
  - provider: code
  - provider: docs
  - provider: diff
  - provider: terminal
  - provider: folder
  - provider: codebase

@코드베이스 사용법

1. Continue 사이드바
→ 우상단 "Reindex" 버튼 클릭
→ 전체 코드베이스 임베딩 생성 (수 분 소요)

이후 채팅에서:
"@코드베이스 에서 JWT 인증 관련 코드 찾아줘"
→ 전체 레포에서 관련 코드 검색 후 답변

커스텀 슬래시 명령어

prompts:
  - name: test
    description: 단위 테스트 작성
    prompt: |
      선택한 코드에 대한 단위 테스트를 작성해줘.
      Jest/Vitest 사용, 엣지 케이스 포함,
      Given-When-Then 패턴으로.

  - name: review
    description: 코드 리뷰
    prompt: |
      이 코드를 리뷰해줘.
      확인 항목:
      1. 버그 및 잠재적 오류
      2. 보안 취약점 (SQL 인젝션, XSS 등)
      3. 성능 개선 포인트
      4. 코드 가독성
      각 항목별로 구체적인 피드백 줘.

  - name: explain
    description: 코드 설명
    prompt: |
      이 코드가 뭘 하는지 한국어로 설명해줘.
      초보자도 이해할 수 있게 단계별로.

  - name: optimize
    description: 성능 최적화
    prompt: |
      이 코드의 성능을 최적화해줘.
      시간복잡도, 공간복잡도 개선 포인트 설명하고
      최적화된 버전 작성해줘.

사용:

코드 선택 → 채팅창에 /test 입력 → Enter
→ 선택한 코드의 단위 테스트 자동 생성

코딩 규칙 설정

rules:
  - 모든 함수에 TypeScript 타입 힌트 추가
  - 변수명은 camelCase, 상수는 UPPER_SNAKE_CASE
  - async/await 사용, Promise.then() 금지
  - 에러 처리는 항상 try/catch로
  - 한국어 주석 사용
  - 함수는 20줄 이하로 유지

실전 사용 예시

코드 설명

파일에서 복잡한 함수 드래그 선택
→ Cmd+L (Mac) 또는 Ctrl+L (Windows)
→ Continue 채팅 패널에 자동 첨부됨
→ "이 코드 설명해줘" 입력

버그 찾기

에러 메시지 터미널에서 복사
→ 채팅창에 @터미널 입력
→ "이 에러 왜 나는 거야?" 입력
→ 터미널 출력 + 코드 컨텍스트로 분석

PR 리뷰 준비

채팅창에 @깃차이 입력
→ "이번 변경사항 리뷰해줘, 문제 있는 부분 찾아줘"
→ 현재 브랜치 변경사항 전체 분석

문서 참조 코딩

"@문서 https://docs.anthropic.com/api
 Claude API로 스트리밍 구현하는 코드 작성해줘"
→ 공식 문서 읽어서 최신 API 기반으로 코드 생성

GitHub Copilot vs Continue.dev 최종 비교

비용:
Copilot  → 월 $10~19
Continue → 무료 (Ollama) / API 비용만 (Claude 직접)

모델 선택:
Copilot  → GPT-5, Claude Sonnet 고정
Continue → 원하는 모델 전부

프라이버시:
Copilot  → 코드가 GitHub 서버 통과
Continue → Ollama 쓰면 코드 외부 유출 0

커스터마이징:
Copilot  → 거의 불가
Continue → 슬래시 명령어, 규칙, 컨텍스트 전부 커스텀

자동완성 품질:
Copilot  → 약간 우세 (더 많은 학습 데이터)
Continue → Codestral, Qwen Coder로 거의 동급

결론:

개인 프로젝트, 스타트업 → Continue + Ollama (비용 0)
기업 (보안 중요)         → Continue + Ollama (코드 유출 없음)
최고 품질 원함           → Continue + Claude API

 

반응형