로컬 LLM을 직접 실행하는 사람이라면 누구나 겪는 문제가 있다. 모델을 다운로드해 Ollama나 llama.cpp에 올려보면, 너무 느리거나 RAM이 부족해 실행 자체가 안 되는 경우를 반복하게 된다. llmfit은 이 시행착오를 없애기 위해 만들어진 터미널 도구다. 내 PC의 CPU·RAM·GPU 사양을 자동으로 감지해, 수백 개 모델 중 실제로 잘 돌아갈 것들을 순위로 추천해준다.
핵심 특징 / 차별점
기존 모델 브라우저(Hugging Face, Ollama Hub 등)는 모델이 무엇인지 알려주지만, 내 PC에서 돌아가는지는 알려주지 않는다. llmfit은 하드웨어 감지와 모델 스코어링을 결합해 “실용적인 추천”에 초점을 맞춘다.
| 항목 | llmfit | 기존 방식 |
|---|---|---|
| 내 PC 사양 감지 | 자동 | 수동 확인 |
| RAM/VRAM 적합성 판단 | 있음 | 없음 |
| 용도별 추천 (코딩, 채팅 등) | 있음 | 없음 |
| 가상 하드웨어 시뮬레이션 | 있음 | 없음 |
| TUI 인터페이스 | 있음 | 없음 |
주요 기능
하드웨어 자동 감지
CPU, RAM, GPU, VRAM을 자동으로 읽어 모델 목록과 비교한다.
llmfit system모델 추천
내 하드웨어에서 잘 동작할 모델을 핏(fit) 수준, 속도, 품질, 컨텍스트 기준으로 정렬해 보여준다.
llmfit recommend --json --limit 5
# 코딩 특화 추천
llmfit recommend --json --use-case coding --limit 3인터랙티브 TUI
llmfit실행하면 상단에 감지된 하드웨어, 아래에 모델 순위가 표시된다. 주요 키: / 검색, f 필터(핏 수준), s 정렬, p 하드웨어 플래닝 모드, d 다운로드, q 종료.
가상 하드웨어 시뮬레이션
RAM이나 GPU를 업그레이드하기 전에, 업그레이드 후 돌아갈 모델을 미리 확인할 수 있다.
llmfit plan "Qwen/Qwen3-4B-MLX-4bit" --context 8192지원 런타임
Ollama, llama.cpp, MLX, Docker Model Runner, LM Studio 모두 지원한다.
설치
# macOS/Linux (Homebrew)
brew install llmfit
# Windows (Scoop)
scoop install llmfit
# 소스 빌드 (Rust 필요)
git clone https://github.com/AlexsJones/llmfit.git
cd llmfit && cargo build --release누가, 언제 쓰면 좋은가
- 로컬 LLM을 처음 시작하는 사람 — “어떤 모델을 설치해야 하나” 막막할 때
- Ollama, MLX, llama.cpp 중 런타임을 비교하는 개발자
- PC 업그레이드 전, 새 사양에서 돌아갈 모델을 미리 조사할 때
- 다양한 사양의 PC에서 로컬 AI를 운용하는 팀
라이선스
MIT 라이선스로 공개. GitHub: AlexsJones/llmfit
관련 문서
- agent-skills — 로컬 LLM과 함께 사용할 에이전트 스킬 시스템