Top Picks (추천 도구)

  • 무료 Local Mini PC 환경: LGAI-EXAONE / EXAONE-4.0-1.2B
  • 유료 Cloud 서버 환경: K-intelligence / Midm-2.0-Base-Instruct

Chronology (간단 역사)

한국어 LLM은 2023년을 기점으로 국내 빅테크 주도로 빠르게 성장했다.

  • 2023: SKT의 KoGPT, Naver의 HyperCLOVA가 등장하며 상업적 한국어 LLM 시장 개척
  • 2024: LG AI Research의 EXAONE 시리즈 및 Naver의 HyperCLOVA-X 일부가 오픈소스로 공개
  • 2025: K-intelligence의 Midm 시리즈, SKT A.X 시리즈, Friendli.ai 등 경량화 및 배포 플랫폼 다양화

이 시점에서 개인도 로컬 환경이나 경량 서버에서 한국어 LLM을 직접 실행하고 튜닝하는 것이 가능해졌다.

Alternative Comparison (유사제품 비교)

Model Size 특징 추천 호스팅 (inference providers)
Pick: EXAONE-4.0-1.2B 1.2B CPU 기반 로컬 실행 가능, 텍스트 기반 roleplay 튜닝 적합 GPU 없는 Mini PC / AnythingLLM
EXAONE-4.0-32B 32B 고성능 멀티모달 LLM, 문해력·추론력 우수 HuggingFace GPU Space
HyperCLOVAX-SEED-Text-Instruct-1.5B 1.5B 한국어 지시문 튜닝 최적화, 로컬 가능 Mini PC (gguf)
HyperCLOVAX-SEED-Think-14B 14B 대규모 추론 최적화, reasoning 응답 우수 GPU 서버 환경 필요
Pick: Midm-2.0-Base-Instruct 12B LIMA 스타일 Instruct 튜닝, 실험적 instruction 대화 Friendli.ai
Midm-2.0-Mini-Instruct 2.3B 라이트 버전, 로컬 추론 가능. Persona 역할에 적합 GPU 없는 Mini PC
A.X-4.0-Light 7.3B 멀티모달 지향 구조, 음성·시각 기반 확장 가능 GPU 서버 환경 필요

부가 정보

Inference 도구 (Local App)

  • AnythingLLM: 다중 문서 연결, 프롬프트 저장, NSFW 설정 가능
  • Myty: 캐릭터 중심 GUI + 롤플레잉에 최적화

Quantization 포맷

  • .gguf, q4_K_M, fp8, int4, int8
  • 실행 엔진: llama.cpp, koboldcpp, exllama 등 선택 가능

튜닝 전략

  • LoRA 기반 instruction tuning 또는 character prompt 설계로 충분
  • embedding context와 history memory 설계를 통해 "페르소나 일관성" 확보
  • 한국어 LLM은 아직도 instruction-tuning corpus 다양성이 부족하므로, 역할 대화에서 prompt 설계가 결정적
  • 모델 파라미터 크기가 클수록 성능은 좋지만, 로컬 추론 속도와 소비 전력 문제 발생
  • https://github.com/Neph0s/awesome-llm-role-playing-with-persona