너드한 일상

[LLM] 한국형 LLM 4종 비교: Mi:dm(믿음), A.X(에이닷엑스), Konan OND, HyperCLOVAX SEED Think 본문

IT/LLM

[LLM] 한국형 LLM 4종 비교: Mi:dm(믿음), A.X(에이닷엑스), Konan OND, HyperCLOVAX SEED Think

TiaNote 2025. 8. 5. 18:16

안녕하세요 티아입니다😺

2025년 7월, 한국의 ICT 기업들이 앞다투어 한국어 특화 LLM을 오픈소스로 공개했습니다. 각 모델은 크기, 성능, 경량화 정도, 활용 가능성 등에서 차별점을 가지며, 특히 경량형 모델(mini/light) 들은 로컬 활용성, 응답 속도, 비용 효율성 측면에서 주목받고 있습니다.

 


 

 

이번 글에서는 다음 네 모델의 경량 버전을 중심으로 비교합니다:

 

  • 🟧 KT: Mi:dm 2.0 Mini
  • 🟦 SKT: A.X 4.0 Light
  • 🟩 코난테크놀로지: Konan LLM OND
  • 🟨 네이버: HyperCLOVAX SEED Think 14B (경량화 특화 구조)

 


 

 

📊 1. 요약 비교 테이블

항목 KT Mi:dm Mini SKT A.X Light Konan LLM OND HyperCLOVAX SEED Think
📅 발표일 2025.07.03 2025.07.03 2025.07 중순 2025.07.22
📦 파라미터 2.3B 7B 4B 14B
🧪 KMMLU 73.6 (Avg) 78.32 54.33 54.28
🧪 기타 - Ko-Winogrande 등 다수
- Qwen3‑4B 상회
CLIcK: 83.5 - KoBALT, HAE‑RAE
📄 라이선스 MIT Apache 2.0 Apache 2.0 SEED 라이선스 (연구/비상업)
💡 주요 특징 Qwen 기반한국적 가치 반영 Qwen2.5 기반
온프레미스 최적화
Qwen3 기반
경량/저사양 GPU 대응
자체 구조지식 증류+강화학습

 


🔍 2. 각 모델 상세 소개

 

🔸 KT Mi:dm 2.0 Mini

  • 모델 규모: 2.3B
  • 출처: Qwen 기반
  • HuggingFace 주소:
    👉 https://huggingface.co/K-intelligence/Midm-2.0-Base-Instruct
  • 성능:
    • 평균 KMMLU 73.6점 (Qwen3‑4B 대비 우수)
    • LogicKor, Ko-Winogrande 등 한국어 특화 태스크에서 높은 성능
  • 강점:
    • 한국 문화·가치 기반 설계
    • 경량화 모델임에도 불구하고 높은 정확도
    • HuggingFace 및 GitHub에서 공개
  • 용도:
    • 문서 기반 QA
    • 한국어 챗봇/상담 시스템
    • 경량형 AI 서비스, 모바일 디바이스 등
  • 상업적 사용 가능 여부:
     가능
    (라이선스: MIT License — 상업적/비상업적 사용 모두 자유로움)

 


 

🔹 SKT A.X 4.0 Light

  • 모델 규모: 7B
  • 출처: Qwen 2.5 기반
  • HuggingFace 주소:
    👉 https://huggingface.co/skt/A.X-4.0
  • 성능:
    • KMMLU: 78.32
    • CLIcK: 83.51
    • GPT‑4o 대비 토큰 효율 33% 향상
  • 강점:
    • 로컬 온프레미스 배포 최적화
    • 긴 문맥 길이 지원 (16K)
    • 실사용에 가까운 성능
  • 용도:
    • 기업용 QA 시스템, 문서 요약, 로컬 AI 서비스
  • 상업적 사용 가능 여부:
    가능
    (라이선스: Apache 2.0 — 상업적 사용 및 재배포 가능, 특허 보호 포함)

 


 

🟢 Konan LLM OND

  • 모델 규모: 4B
  • 출처: Qwen 3‑4B 기반
  • HuggingFace 주소:
    👉 https://huggingface.co/konantech/Konan-LLM-OND
  • 성능:
    • KMMLU: 54.3
    • Ko-IFEval: 68.4
  • 강점:
    • 한국어 어휘 확장 및 Instruction tuning 적용
    • 경량 모델로 저사양 장비에서 실행 가능
  • 용도:
    • 한국어 질의응답, 기업 내 챗봇, 로컬 AI 서비스
  • 상업적 사용 가능 여부:
    가능
    (라이선스: Apache 2.0 — 상업적 사용 및 재배포 가능, 특허 보호 포함)

 


 

 

🟡 HyperCLOVAX SEED Think 14B

  • 모델 규모: 14B
  • 출처: 자체 설계 (네이버 SEED 구조)
  • HuggingFace 주소:
    👉 https://huggingface.co/naver-hyperclovax/HyperCLOVAX-SEED-Think-14B
  • 성능:
    • KoBALT, HAE-RAE 벤치마크에서 우수한 성능
    • 복잡한 reasoning/자기교정 능력 탑재
  • 강점:
    • 지식 증류 + 강화학습 + 프루닝 기반 경량화
    • 고난이도 질문 대응 및 단계적 사고 능력
  • 용도:
    • 학술 연구, 비상업적 고정밀 AI 서비스
  • 상업적 사용 가능 여부:
    불가
    (라이선스: SEED License — 연구 및 비상업적 용도만 허용, 상업적 사용은 별도 협의 필요)

 


 

🧠 3. 총평: 어떤 모델을 선택할까?


가볍고 정확한 모델이 필요하고, 상업적 사용도 고려 중이라면 🔸 Mi:dm Mini
경량/저사양 환경에서 상업적으로 활용하고 싶다면 🟢 Konan LLM OND
온프레미스 배포, 긴 문맥 길이, 상업적 자유도 모두 필요한 경우 🔹 A.X Light
복잡한 추론·단계적 사고에 강한 연구용 모델이 필요하다면 🟡 HyperCLOVAX Think
 

 

 


✍️ 마무리

 

이제는 글로벌 모델에만 의존하는 시대가 지나가고 있습니다.

KT, SKT, 네이버, 코난 등 국내 기업들이 만든 한국어 LLM들은

각자의 철학과 방향성을 갖고, 실질적인 사용성과 기술력을 뽐내고 있습니다.

특히 Mini/Light 버전의 모델들은 실제 서비스 도입 관점에서도 매우 실용적이며,

HuggingFace를 통해 쉽게 활용이 가능하므로,

목적에 따라 적절히 선택해보시길 추천합니다.