AI Sparkup

최신 AI 쉽게 깊게 따라잡기⚡

llmfit – 내 PC 사양에 맞는 최적 로컬 LLM 추천 도구

로컬 LLM을 직접 실행하는 사람이라면 누구나 겪는 문제가 있다. 모델을 다운로드해 Ollama나 llama.cpp에 올려보면, 너무 느리거나 RAM이 부족해 실행 자체가 안 되는 경우를 반복하게 된다. llmfit은 이 시행착오를 없애기 위해 만들어진 터미널 도구다. 내 PC의 CPU·RAM·GPU 사양을 자동으로 감지해, 수백 개 모델 중 실제로 잘 돌아갈 것들을 순위로 추천해준다.

핵심 특징 / 차별점

기존 모델 브라우저(Hugging Face, Ollama Hub 등)는 모델이 무엇인지 알려주지만, 내 PC에서 돌아가는지는 알려주지 않는다. llmfit은 하드웨어 감지와 모델 스코어링을 결합해 “실용적인 추천”에 초점을 맞춘다.

항목llmfit기존 방식
내 PC 사양 감지자동수동 확인
RAM/VRAM 적합성 판단있음없음
용도별 추천 (코딩, 채팅 등)있음없음
가상 하드웨어 시뮬레이션있음없음
TUI 인터페이스있음없음

주요 기능

하드웨어 자동 감지

CPU, RAM, GPU, VRAM을 자동으로 읽어 모델 목록과 비교한다.

llmfit system

모델 추천

내 하드웨어에서 잘 동작할 모델을 핏(fit) 수준, 속도, 품질, 컨텍스트 기준으로 정렬해 보여준다.

llmfit recommend --json --limit 5
# 코딩 특화 추천
llmfit recommend --json --use-case coding --limit 3

인터랙티브 TUI

llmfit

실행하면 상단에 감지된 하드웨어, 아래에 모델 순위가 표시된다. 주요 키: / 검색, f 필터(핏 수준), s 정렬, p 하드웨어 플래닝 모드, d 다운로드, q 종료.

가상 하드웨어 시뮬레이션

RAM이나 GPU를 업그레이드하기 전에, 업그레이드 후 돌아갈 모델을 미리 확인할 수 있다.

llmfit plan "Qwen/Qwen3-4B-MLX-4bit" --context 8192

지원 런타임

Ollama, llama.cpp, MLX, Docker Model Runner, LM Studio 모두 지원한다.

설치

# macOS/Linux (Homebrew)
brew install llmfit

# Windows (Scoop)
scoop install llmfit

# 소스 빌드 (Rust 필요)
git clone https://github.com/AlexsJones/llmfit.git
cd llmfit && cargo build --release

누가, 언제 쓰면 좋은가

  • 로컬 LLM을 처음 시작하는 사람 — “어떤 모델을 설치해야 하나” 막막할 때
  • Ollama, MLX, llama.cpp 중 런타임을 비교하는 개발자
  • PC 업그레이드 전, 새 사양에서 돌아갈 모델을 미리 조사할 때
  • 다양한 사양의 PC에서 로컬 AI를 운용하는 팀

라이선스

MIT 라이선스로 공개. GitHub: AlexsJones/llmfit

관련 문서

  • agent-skills — 로컬 LLM과 함께 사용할 에이전트 스킬 시스템

AI Sparkup 구독하기

최신 게시물 요약과 더 심층적인 정보를 이메일로 받아 보세요! (무료)