Visual Studio Code에서 Continue 확장 프로그램을 설치하고 Groq Open API를 설정하는 방법을 자세히 알려드리겠습니다. 이 설정을 통해 GitHub Copilot과 같은 유료 AI 코딩 도구 대신 무료로 강력한 AI 코딩 지원을 받을 수 있습니다.
Groq 계정 설정하기
- Groq 콘솔(https://console.groq.com)에 접속합니다[1][2][4].
- 계정을 생성하거나 기존 계정으로 로그인합니다[1][2][4].
- API 키 섹션으로 이동합니다[1][2][4].
- 새 API 키를 생성합니다[1][2][4].
- 중요: API 키는 한 번만 표시되므로 즉시 복사하여 안전한 곳에 저장해 두세요[1][2][4].
Continue 확장 프로그램 설치하기
- Visual Studio Code를 엽니다[1][2].
- 확장 마켓플레이스에서 "Continue"를 검색합니다[1][2].
- 해당 확장 프로그램을 설치합니다[1][2].
Continue 확장 프로그램 설정하기
Continue 확장 프로그램은 최근에 설정 파일 형식이 변경되었습니다. 현재는 config.yaml
또는 config.json
형식을 사용합니다[1][5]. 두 가지 방법으로 설정할 수 있습니다:
YAML 형식으로 설정하기
config.yaml
파일에 다음과 같이 설정합니다:
models:
- name: Llama 3.3 70b Versatile
provider: groq
model: llama-3.3-70b-versatile
apiKey: <YOUR_GROQ_API_KEY>
roles:
- chat
JSON 형식으로 설정하기
config.json
파일에 다음과 같이 설정합니다:
{
"models": [
{
"title": "Llama 3.3 70b Versatile",
"provider": "groq",
"model": "llama-3.3-70b-versatile",
"apiKey": "<YOUR_GROQ_API_KEY>"
}
]
}
두 경우 모두 `` 부분을 앞서 저장해둔 Groq API 키로 교체하세요[5].
Continue 확장 프로그램 사용하기
설정을 완료한 후에는 다음과 같이 사용할 수 있습니다:
- 코드 에디터에서 코드를 선택합니다.
Command + L
(또는 시스템에 맞는 단축키)를 눌러 Continue를 엽니다[1].- 질문을 하거나, 코드 리뷰를 요청하거나, 솔루션을 생성할 수 있습니다[1].
주의사항 및 팁
- Groq는 현재 가장 빠른 모델 실행 플랫폼 중 하나로, GitHub Copilot보다 더 빠른 응답 속도를 제공합니다[2].
- Llama 3 모델은 코딩에 특히 뛰어난 성능을 보입니다[2].
- 리팩터 모드(
cmd + I
)를 사용할 때 API 기본 URL 문제가 발생할 수 있습니다. 이 경우apiBase
를https://api.groq.com/openai/v1/chat
로 설정하면 해결될 수 있습니다[3]. - 메시지를 너무 많이 보내면 속도 제한이 걸릴 수 있으므로 주의하세요[2].
- Continue는 오픈 소스이며 커뮤니티 지원이 활발합니다[2].
이 설정을 통해 GitHub Copilot과 같은 유료 서비스 없이도 강력한 AI 코딩 지원을 무료로 이용할 수 있습니다. 특히 Groq의 Llama 3 모델은 코딩에 매우 뛰어난 성능을 보이며, 빠른 응답 속도로 개발 생산성을 크게 향상시킬 수 있습니다.
Citations:
[1] https://dev.to/royged/no-copilot-no-problem-get-free-ai-in-vscode-now-1a1g
[2] https://www.youtube.com/watch?v=1VY4A5fG4ZY
[3] https://github.com/continuedev/continue/issues/1186
[4] https://dev.to/dani_avila7/lightning-fast-code-assistant-with-groq-in-vscode-4eme
[5] https://docs.continue.dev/customize/model-providers/more/groq
[6] https://www.youtube.com/watch?v=cohxfQAANdw
[7] https://www.continue.dev
[8] https://github.com/continuedev/continue/issues/3697
[9] https://anpigon.tistory.com/465
[10] https://anpigon.tistory.com/444
[11] https://github.com/continuedev/continue/blob/main/extensions/vscode/config_schema.json
[12] https://docs.continue.dev/customize/tutorials/llama3.1
[13] https://www.youtube.com/watch?v=rsJqHDuJWSI
[14] https://www.reddit.com/r/vscode/comments/1i3cwd4/this_is_definitely_the_fastest_version_of_ai/
Perplexity로부터의 답변: pplx.ai/share