AI Sparkup

복잡한 AI 세상을 읽는 힘 ⚡

오픈소스 LLM으로 MCP 에이전트 만들기: gpt-oss와 Hugging Face의 조합

MCP를 Claude에서만 쓸 수 있다고 생각하셨나요? 이제 오픈소스 LLM으로도 강력한 AI 에이전트를 만들 수 있습니다.

사진 출처: GitHub – Vaibhavs10/mcp-with-openai-gpt-oss

Hugging Face의 Vaibhav Seshadri가 MCP(Model Context Protocol)와 OpenAI의 오픈소스 모델 gpt-oss를 결합해 AI 에이전트를 만드는 실전 튜토리얼을 공개했습니다. MCP는 원래 Anthropic이 개발한 표준 프로토콜이지만, 이제 어떤 LLM으로도 외부 도구와 데이터를 연결할 수 있다는 걸 보여주는 사례죠.

출처: Building Smart Agents with MCP and OpenAI gpt-oss – GitHub

gpt-oss: OpenAI가 만든 오픈소스 추론 모델

gpt-oss는 OpenAI가 최근 공개한 오픈소스 추론 모델입니다. 120B 버전과 20B 버전 두 가지가 있는데, 놀라운 건 성능입니다. 120B 모델은 OpenAI의 유료 모델인 o4-mini와 거의 비슷한 수준의 추론 능력을 보여주면서도, 단일 H100 GPU(80GB)에서 돌아갑니다. 20B 모델은 더 작아서 16GB 메모리만 있으면 실행 가능하죠.

이 모델들은 단순한 텍스트 생성을 넘어 도구 사용(tool use), 웹 검색, 파이썬 코드 실행 같은 에이전트 기능에 최적화되어 있습니다. 특히 추론 수준을 low/medium/high로 조절할 수 있어서, 복잡한 문제는 깊게 생각하고 간단한 질문은 빠르게 답하는 식으로 활용할 수 있습니다.

Tiny Agents로 간단하게 시작하기

Hugging Face는 MCP를 쉽게 사용할 수 있는 경량 클라이언트를 제공합니다. TypeScript용 @huggingface/tiny-agents와 Python용 huggingface_hub[mcp]인데, 설정이 정말 간단합니다.

에이전트 설정은 JSON 파일 하나로 끝납니다. 어떤 모델을 쓸지, 어떤 도구에 접근할지만 명시하면 됩니다. 예를 들어 웹 브라우징 에이전트를 만들려면 Microsoft의 Playwright MCP 서버를 연결하고, gpt-oss-120b 모델을 지정하는 식이죠.

{
  "model": "openai/gpt-oss-120b",
  "provider": "fireworks-ai",
  "servers": [
    {
      "type": "stdio",
      "command": "npx",
      "args": ["@playwright/mcp@latest"]
    }
  ]
}

Python으로는 pip install -U "huggingface_hub[mcp]>=0.32.0"만 설치하면 바로 실행할 수 있습니다. 명령어 한 줄이면 끝이에요.

tiny-agents run ./browser-agent

이제 채팅창에서 “Hugging Face에서 인기 있는 모델 10개를 찾아줘”라고 하면, 에이전트가 알아서 웹사이트에 접속해 정보를 수집해옵니다.

Hugging Face MCP 서버로 확장하기

더 재미있는 건 Hugging Face의 MCP 서버입니다. 이걸 연결하면 1000개가 넘는 AI 모델과 공간(Spaces)을 도구로 사용할 수 있습니다. 이미지 생성 모델 FLUX나 비디오 생성 모델 LTX-Video 같은 걸 에이전트가 직접 호출해서 작업을 처리하는 거죠.

설정 방법은 비슷합니다. agent.json에 Hugging Face MCP 서버 URL을 추가하고, 본인의 Hugging Face 토큰으로 인증하면 됩니다.

{
  "model": "openai/gpt-oss-120b",
  "provider": "fireworks-ai",
  "servers": [
    {
      "type": "http",
      "url": "https://huggingface.co/mcp",
      "headers": {
        "Authorization": "Bearer ${input:hf-token}"
      }
    }
  ]
}

“해변 풍경 이미지를 만들어줘”라고 하면, 에이전트가 FLUX 모델을 찾아 이미지를 생성하고, “이걸 비디오로 만들어줘”라고 하면 LTX-Video를 실행해 짧은 영상을 만들어냅니다. 모든 게 자동으로 연결되는 거죠.

오픈소스가 여는 가능성

이 튜토리얼의 의미는 명확합니다. MCP라는 표준 프로토콜 덕분에, 이제 어떤 LLM으로도 강력한 AI 에이전트를 만들 수 있다는 겁니다. Claude나 GPT 같은 유료 API에 의존할 필요 없이, 오픈소스 모델로도 충분히 실용적인 에이전트를 구축할 수 있죠.

특히 gpt-oss는 Apache 2.0 라이선스로 공개되어 있어서 상업적으로도 자유롭게 사용할 수 있습니다. 자체 인프라에서 돌리면 데이터 프라이버시도 완벽하게 통제할 수 있고요. 비용 측면에서도 API 호출료 대신 GPU 비용만 내면 되니 대규모 서비스에서는 훨씬 경제적일 수 있습니다.

물론 한계도 있습니다. GPT-4o나 Claude Sonnet 같은 최신 상용 모델에 비하면 성능이 떨어지는 건 사실이에요. 멀티모달 기능도 없습니다. 하지만 많은 실무 작업에서는 이 정도 성능이면 충분하고, 무엇보다 커스터마이징이 자유롭다는 게 큰 장점입니다.

Hugging Face 생태계와의 결합은 더욱 흥미롭습니다. 수천 개의 오픈소스 모델과 도구를 자유롭게 조합할 수 있으니, 특정 도메인에 특화된 에이전트를 만들기에 이상적이죠. 의료, 법률, 금융 같은 전문 분야에서 자체 AI 시스템을 구축하려는 조직에게는 특히 유용할 겁니다.

참고자료:


AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)

Comments

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다