Visual Studio Code에서 Continue 확장 프로그램을 설치하고 Groq Open API를 설정하는 방법을 자세히 알려드리겠습니다. 이 설정을 통해 GitHub Copilot과 같은 유료 AI 코딩 도구 대신 무료로 강력한 AI 코딩 지원을 받을 수 있습니다.

Groq 계정 설정하기

  1. Groq 콘솔(https://console.groq.com)에 접속합니다[1][2][4].
  2. 계정을 생성하거나 기존 계정으로 로그인합니다[1][2][4].
  3. API 키 섹션으로 이동합니다[1][2][4].
  4. 새 API 키를 생성합니다[1][2][4].
  5. 중요: API 키는 한 번만 표시되므로 즉시 복사하여 안전한 곳에 저장해 두세요[1][2][4].

Continue 확장 프로그램 설치하기

  1. Visual Studio Code를 엽니다[1][2].
  2. 확장 마켓플레이스에서 "Continue"를 검색합니다[1][2].
  3. 해당 확장 프로그램을 설치합니다[1][2].

Continue 확장 프로그램 설정하기

Continue 확장 프로그램은 최근에 설정 파일 형식이 변경되었습니다. 현재는 config.yaml 또는 config.json 형식을 사용합니다[1][5]. 두 가지 방법으로 설정할 수 있습니다:

YAML 형식으로 설정하기

config.yaml 파일에 다음과 같이 설정합니다:

models:
  - name: Llama 3.3 70b Versatile
    provider: groq
    model: llama-3.3-70b-versatile
    apiKey: <YOUR_GROQ_API_KEY>
    roles:
      - chat

JSON 형식으로 설정하기

config.json 파일에 다음과 같이 설정합니다:

{
  "models": [
    {
      "title": "Llama 3.3 70b Versatile",
      "provider": "groq",
      "model": "llama-3.3-70b-versatile",
      "apiKey": "<YOUR_GROQ_API_KEY>"
    }
  ]
}

두 경우 모두 `` 부분을 앞서 저장해둔 Groq API 키로 교체하세요[5].

Continue 확장 프로그램 사용하기

설정을 완료한 후에는 다음과 같이 사용할 수 있습니다:

  1. 코드 에디터에서 코드를 선택합니다.
  2. Command + L (또는 시스템에 맞는 단축키)를 눌러 Continue를 엽니다[1].
  3. 질문을 하거나, 코드 리뷰를 요청하거나, 솔루션을 생성할 수 있습니다[1].

주의사항 및 팁

  1. Groq는 현재 가장 빠른 모델 실행 플랫폼 중 하나로, GitHub Copilot보다 더 빠른 응답 속도를 제공합니다[2].
  2. Llama 3 모델은 코딩에 특히 뛰어난 성능을 보입니다[2].
  3. 리팩터 모드(cmd + I)를 사용할 때 API 기본 URL 문제가 발생할 수 있습니다. 이 경우 apiBasehttps://api.groq.com/openai/v1/chat로 설정하면 해결될 수 있습니다[3].
  4. 메시지를 너무 많이 보내면 속도 제한이 걸릴 수 있으므로 주의하세요[2].
  5. Continue는 오픈 소스이며 커뮤니티 지원이 활발합니다[2].

이 설정을 통해 GitHub Copilot과 같은 유료 서비스 없이도 강력한 AI 코딩 지원을 무료로 이용할 수 있습니다. 특히 Groq의 Llama 3 모델은 코딩에 매우 뛰어난 성능을 보이며, 빠른 응답 속도로 개발 생산성을 크게 향상시킬 수 있습니다.

Citations:
[1] https://dev.to/royged/no-copilot-no-problem-get-free-ai-in-vscode-now-1a1g
[2] https://www.youtube.com/watch?v=1VY4A5fG4ZY
[3] https://github.com/continuedev/continue/issues/1186
[4] https://dev.to/dani_avila7/lightning-fast-code-assistant-with-groq-in-vscode-4eme
[5] https://docs.continue.dev/customize/model-providers/more/groq
[6] https://www.youtube.com/watch?v=cohxfQAANdw
[7] https://www.continue.dev
[8] https://github.com/continuedev/continue/issues/3697
[9] https://anpigon.tistory.com/465
[10] https://anpigon.tistory.com/444
[11] https://github.com/continuedev/continue/blob/main/extensions/vscode/config_schema.json
[12] https://docs.continue.dev/customize/tutorials/llama3.1
[13] https://www.youtube.com/watch?v=rsJqHDuJWSI
[14] https://www.reddit.com/r/vscode/comments/1i3cwd4/this_is_definitely_the_fastest_version_of_ai/


Perplexity로부터의 답변: pplx.ai/share

+ Recent posts