스터디/기타

VSCode에서 MCP(Model Context Protocol) 연결해보기

sleesm 2025. 4. 12. 15:15

 

오늘은 핫한 주제인 MCP를 가져와봤습니다!

 

MCP는 AI Agent가 외부 시스템과 연동하기 좋기 위해 만들어진 규약인데요.

'모델을 위한 Context를 제공해 준다'가 목적이라고 볼 수 있습니다!

 

그래서 MCP는 Server-Client 형태로 구성됩니다.

Server는 Context를 제공해 주는 쪽, Client는 AI Agent에 해당하며 모듈로서 존재합니다.

 

 

그럼 대략적인 설명은 여기까지 하고 본론으로 넘어가 보겠습니다~.~

 

 

 

 


 

오늘 하려는 건 핫하디 핫한 MCP를 실제로 사용해 보면서 동작 과정을 보려는 것입니다!

 

그래서 호스트로는 VSCode의 Continue Plugin을 설치해서 Ollama의 qwen2.5-coder 7b 모델을 사용했습니다.

사유 1 : 로그인하기에는 귀찮아서 로컬 모델 사용

사유 2 : Continue에서 AI Agent로 사용할 수 있는 추천 모델이 q wen2.5-coder 7b (참고)

 

아래 화면은 처음 Continue를 설치하고 config.yaml 파일 화면입니다.

 

이제 Ollama 모델을 연결해줘야 하는데,, 

화면에서 보이는 config.yaml 파일에 아래 코드를 추가해 주면 됩니다! (참고)

models:
  - name: qwen2.5-coder 7b
    provider: ollama
    model: qwen2.5-coder

 

참고로 미리 ollama와 모델은 설치해둬야 합니다 ㅎㅅㅎ

(원하는 os 유형에 맞춰 ollama 설치하고 터미널에서 ollama run 만 실행하면 되지요~)

 

config.yaml을 저장하자마자 이렇게 continue 화면에 사용모드와 모델을 선택할 수 있습니다!

저는 MCP를 사용할 거라서 Agent로 선택했습니다 ^,.^

 

 

그럼 이제 Agent 세팅은 끝난 상태!!

MCP 서버 만들고 config.yaml에 mcp server 명시만 해주면 됩니다!

 

이제 mcp server를 어떤 걸 사용할지 생각해야 하는데,

이번 글은 그냥 간단하게 mcp 샘플을 돌려보는 목적이니까 github mcp server를 사용해보려고 합니다

그건 정말 정말 쉬운데 그냥 config.yaml에 마저 mcp server를 명시해 주면 됩니다!!

mcpServers:
  - name: github
    command: wsl.exe
    args:
      - docker
      - run
      - -i 
      - --rm
      - -e GITHUB_PERSONAL_ACCESS_TOKEN="MY_TOKEN"
      - mcp/github

 

저는 윈도우라서 wsl을 통해서 docker를 실행했는데, 리눅스 os를 사용 중이라면 바로 docker 실행하면 됩니다!

참고로 docker는 미리 설치되어야 한다는 점!!!

 

 

이러면 미리 명시해 둔 server 이름인 github으로 현재 사용 가능한 tool/prompt/resource 개수가 나란히 뜨고

현 connect 상태가 원활한지도 확인이 가능합니다! 상황이 갑자기 안 좋아진다면 재실행하면 새로운 container가 띄워지는 형태!

 

 

 

이제 github mcp server에 등록된 tool을 사용해 보겠습니다!

제일 간단한 걸로 "test"로 시작하는 repo를 가져와달라고 하니, 아래와 같이 결과를 보여줬습니다!!

(프롬프트는 대충 적은 것이니 양해 바랍니다 ^-^;;)

 

 

자세하게 json으로 확인하고 싶다면

중간에 있는 output 부분을 클릭하면 json 파일 형태로 확인이 가능합니다!'

total count와 incomplete_results가 있는지 보여주고 items들을 명시해 주는 형태인데,

public 한 repo여도 개인정보이니 해당 사진은 생략하도록 하겠습니다 ^,.^

 

 

 

이렇게 해서 간단하게 vscode continue를 사용해서 mcp를 사용해 봤는데요!

어렵지 않아서 mcp sdk로 나와 있는 걸 custom에서 사용하기도 좋을 것 같습니다~~

 

하지만 ai agent 모델의 성능이 좋아야 더 좋은 값이 나오는 것 같은데요.

repository 목록을 가져오는데도 제가 사용한 qwen2.5-coder 7b 은 엄청나게 성능이 좋지는 않았습니다.

처음에 한글로 하니까 더 못 알아듣는 것 같기도 해서 영어로 바꾸니 그나마 낫더라고요.

아마도 open ai나 claude 같은 모델을 사용하면 좀 더 좋은 결과가 나올 것 같습니다!

 

 

 

다음에는 기회가 된다면 제 입맛대로 가공해 본 MCP Server를 들고 와 보겠습니다 홍홍홍