Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- Python
- AI검색
- NLP
- 콘텐츠전략
- COT
- llm비교
- 딥러닝
- 한국어 nlp
- 소노펠리체빌리지
- 개발자현황
- synonym
- ecomgpt
- mi:dm
- it
- yokohamafmarinos
- 파이썬개발
- 프롬프트엔지니어링
- a.x
- Deep Learning
- jetbrain
- 개발자생태
- re-ranker
- SageMaker
- 한국어llm
- llm
- huggingface
- HyperClovaX
- 마카오여행일정
- AEO
- 닛산스타디움
Archives
- Today
- Total
너드한 일상
[LLM] 한국형 LLM 4종 비교: Mi:dm(믿음), A.X(에이닷엑스), Konan OND, HyperCLOVAX SEED Think 본문
IT/LLM
[LLM] 한국형 LLM 4종 비교: Mi:dm(믿음), A.X(에이닷엑스), Konan OND, HyperCLOVAX SEED Think
TiaNote 2025. 8. 5. 18:16안녕하세요 티아입니다😺
2025년 7월, 한국의 ICT 기업들이 앞다투어 한국어 특화 LLM을 오픈소스로 공개했습니다. 각 모델은 크기, 성능, 경량화 정도, 활용 가능성 등에서 차별점을 가지며, 특히 경량형 모델(mini/light) 들은 로컬 활용성, 응답 속도, 비용 효율성 측면에서 주목받고 있습니다.
이번 글에서는 다음 네 모델의 경량 버전을 중심으로 비교합니다:
- 🟧 KT: Mi:dm 2.0 Mini
- 🟦 SKT: A.X 4.0 Light
- 🟩 코난테크놀로지: Konan LLM OND
- 🟨 네이버: HyperCLOVAX SEED Think 14B (경량화 특화 구조)
📊 1. 요약 비교 테이블
항목 | KT Mi:dm Mini | SKT A.X Light | Konan LLM OND | HyperCLOVAX SEED Think |
📅 발표일 | 2025.07.03 | 2025.07.03 | 2025.07 중순 | 2025.07.22 |
📦 파라미터 | 2.3B | 7B | 4B | 14B |
🧪 KMMLU | 73.6 (Avg) | 78.32 | 54.33 | 54.28 |
🧪 기타 | - Ko-Winogrande 등 다수 - Qwen3‑4B 상회 |
CLIcK: 83.5 | - | KoBALT, HAE‑RAE |
📄 라이선스 | MIT | Apache 2.0 | Apache 2.0 | SEED 라이선스 (연구/비상업) |
💡 주요 특징 | Qwen 기반한국적 가치 반영 | Qwen2.5 기반 온프레미스 최적화 |
Qwen3 기반 경량/저사양 GPU 대응 |
자체 구조지식 증류+강화학습 |
🔍 2. 각 모델 상세 소개
🔸 KT Mi:dm 2.0 Mini
- 모델 규모: 2.3B
- 출처: Qwen 기반
- HuggingFace 주소:
👉 https://huggingface.co/K-intelligence/Midm-2.0-Base-Instruct - 성능:
- 평균 KMMLU 73.6점 (Qwen3‑4B 대비 우수)
- LogicKor, Ko-Winogrande 등 한국어 특화 태스크에서 높은 성능
- 강점:
- 한국 문화·가치 기반 설계
- 경량화 모델임에도 불구하고 높은 정확도
- HuggingFace 및 GitHub에서 공개
- 용도:
- 문서 기반 QA
- 한국어 챗봇/상담 시스템
- 경량형 AI 서비스, 모바일 디바이스 등
- 상업적 사용 가능 여부:
✅ 가능
(라이선스: MIT License — 상업적/비상업적 사용 모두 자유로움)
🔹 SKT A.X 4.0 Light
- 모델 규모: 7B
- 출처: Qwen 2.5 기반
- HuggingFace 주소:
👉 https://huggingface.co/skt/A.X-4.0 - 성능:
- KMMLU: 78.32
- CLIcK: 83.51
- GPT‑4o 대비 토큰 효율 33% 향상
- 강점:
- 로컬 온프레미스 배포 최적화
- 긴 문맥 길이 지원 (16K)
- 실사용에 가까운 성능
- 용도:
- 기업용 QA 시스템, 문서 요약, 로컬 AI 서비스
- 상업적 사용 가능 여부:
✅ 가능
(라이선스: Apache 2.0 — 상업적 사용 및 재배포 가능, 특허 보호 포함)
🟢 Konan LLM OND
- 모델 규모: 4B
- 출처: Qwen 3‑4B 기반
- HuggingFace 주소:
👉 https://huggingface.co/konantech/Konan-LLM-OND - 성능:
- KMMLU: 54.3
- Ko-IFEval: 68.4
- 강점:
- 한국어 어휘 확장 및 Instruction tuning 적용
- 경량 모델로 저사양 장비에서 실행 가능
- 용도:
- 한국어 질의응답, 기업 내 챗봇, 로컬 AI 서비스
- 상업적 사용 가능 여부:
✅ 가능
(라이선스: Apache 2.0 — 상업적 사용 및 재배포 가능, 특허 보호 포함)
🟡 HyperCLOVAX SEED Think 14B
- 모델 규모: 14B
- 출처: 자체 설계 (네이버 SEED 구조)
- HuggingFace 주소:
👉 https://huggingface.co/naver-hyperclovax/HyperCLOVAX-SEED-Think-14B - 성능:
- KoBALT, HAE-RAE 벤치마크에서 우수한 성능
- 복잡한 reasoning/자기교정 능력 탑재
- 강점:
- 지식 증류 + 강화학습 + 프루닝 기반 경량화
- 고난이도 질문 대응 및 단계적 사고 능력
- 용도:
- 학술 연구, 비상업적 고정밀 AI 서비스
- 상업적 사용 가능 여부:
❌ 불가
(라이선스: SEED License — 연구 및 비상업적 용도만 허용, 상업적 사용은 별도 협의 필요)
🧠 3. 총평: 어떤 모델을 선택할까?
가볍고 정확한 모델이 필요하고, 상업적 사용도 고려 중이라면 | 🔸 Mi:dm Mini |
경량/저사양 환경에서 상업적으로 활용하고 싶다면 | 🟢 Konan LLM OND |
온프레미스 배포, 긴 문맥 길이, 상업적 자유도 모두 필요한 경우 | 🔹 A.X Light |
복잡한 추론·단계적 사고에 강한 연구용 모델이 필요하다면 | 🟡 HyperCLOVAX Think |
✍️ 마무리
이제는 글로벌 모델에만 의존하는 시대가 지나가고 있습니다.
KT, SKT, 네이버, 코난 등 국내 기업들이 만든 한국어 LLM들은
각자의 철학과 방향성을 갖고, 실질적인 사용성과 기술력을 뽐내고 있습니다.
특히 Mini/Light 버전의 모델들은 실제 서비스 도입 관점에서도 매우 실용적이며,
HuggingFace를 통해 쉽게 활용이 가능하므로,
목적에 따라 적절히 선택해보시길 추천합니다.