Top Picks (추천 도구)
- 무료 Local Mini PC 환경: LGAI-EXAONE / EXAONE-4.0-1.2B
- 유료 Cloud 서버 환경: K-intelligence / Midm-2.0-Base-Instruct
Chronology (간단 역사)
한국어 LLM은 2023년을 기점으로 국내 빅테크 주도로 빠르게 성장했다.
- 2023: SKT의 KoGPT, Naver의 HyperCLOVA가 등장하며 상업적 한국어 LLM 시장 개척
- 2024: LG AI Research의 EXAONE 시리즈 및 Naver의 HyperCLOVA-X 일부가 오픈소스로 공개
- 2025: K-intelligence의 Midm 시리즈, SKT A.X 시리즈, Friendli.ai 등 경량화 및 배포 플랫폼 다양화
이 시점에서 개인도 로컬 환경이나 경량 서버에서 한국어 LLM을 직접 실행하고 튜닝하는 것이 가능해졌다.
Alternative Comparison (유사제품 비교)
| Model | Size | 특징 | 추천 호스팅 (inference providers) |
|---|---|---|---|
| Pick: EXAONE-4.0-1.2B | 1.2B | CPU 기반 로컬 실행 가능, 텍스트 기반 roleplay 튜닝 적합 | GPU 없는 Mini PC / AnythingLLM |
| EXAONE-4.0-32B | 32B | 고성능 멀티모달 LLM, 문해력·추론력 우수 | HuggingFace GPU Space |
| HyperCLOVAX-SEED-Text-Instruct-1.5B | 1.5B | 한국어 지시문 튜닝 최적화, 로컬 가능 | Mini PC (gguf) |
| HyperCLOVAX-SEED-Think-14B | 14B | 대규모 추론 최적화, reasoning 응답 우수 | GPU 서버 환경 필요 |
| Pick: Midm-2.0-Base-Instruct | 12B | LIMA 스타일 Instruct 튜닝, 실험적 instruction 대화 | Friendli.ai |
| Midm-2.0-Mini-Instruct | 2.3B | 라이트 버전, 로컬 추론 가능. Persona 역할에 적합 | GPU 없는 Mini PC |
| A.X-4.0-Light | 7.3B | 멀티모달 지향 구조, 음성·시각 기반 확장 가능 | GPU 서버 환경 필요 |
부가 정보
Inference 도구 (Local App)
- AnythingLLM: 다중 문서 연결, 프롬프트 저장, NSFW 설정 가능
- Myty: 캐릭터 중심 GUI + 롤플레잉에 최적화
Quantization 포맷
.gguf,q4_K_M,fp8,int4,int8등- 실행 엔진:
llama.cpp,koboldcpp,exllama등 선택 가능
튜닝 전략
LoRA기반 instruction tuning 또는 character prompt 설계로 충분- embedding context와 history memory 설계를 통해 "페르소나 일관성" 확보
- 한국어 LLM은 아직도 instruction-tuning corpus 다양성이 부족하므로, 역할 대화에서 prompt 설계가 결정적
- 모델 파라미터 크기가 클수록 성능은 좋지만, 로컬 추론 속도와 소비 전력 문제 발생
- https://github.com/Neph0s/awesome-llm-role-playing-with-persona