너드한 일상

[논문 리뷰] Yangning L외, EcomGPT: Instruction-Tuning Large Language Models with Chain-of-Task Tasks for E-commerce 본문

IT/LLM

[논문 리뷰] Yangning L외, EcomGPT: Instruction-Tuning Large Language Models with Chain-of-Task Tasks for E-commerce

TiaNote 2025. 7. 2. 18:48

안녕하세요, 티아입니다! 👋

 

최근에 ChatGPT 같은 지시문 기반 대형 언어 모델(LLM)이 정말 다양한 자연어 처리(NLP) 작업에서 뛰어난 성능을 보여주고 있죠. 그런데 막상 이걸 그대로 전자상거래(E-commerce) 현장에 갖다 쓰려면 생각보다 만만치가 않습니다. 상품명, 리뷰, 스펙 같은 데이터는 일반 텍스트랑은 다르게 도메인 특화 용어도 많고 구조도 복잡해서 그렇습니다.

 

이번에 소개해드릴 논문은 이런 한계를 해결해보려고 세계 최초로 전자상거래 전용 대규모 지시 데이터셋(EcomInstruct)을 만들고, 그걸로 EcomGPT라는 모델까지 학습한 연구입니다. 특히 이 논문에서는 ‘Chain-of-Task’라는 개념으로 작은 단위 작업(Atomic Task)을 정의해서, 다양한 상황에서도 잘 작동하는 모델을 만들었다고 해요.

 

그럼 과연 EcomGPT는 ChatGPT보다 진짜 더 잘할까요? 이 글에서는 논문 내용을 간단히 정리하고, 흥미로운 부분들을 같이 살펴보려고 합니다.

 


전자상거래에서 LLM의 도전과제

- chatGPT같은 범용 LLM은, 전자상거래 데이터의 의미 구조 파악이 어렵고 기계적인 속성 조합으로 최적화되지 않음

- E-commerce Date는 짧고 불완전한 문장 구조와 새로운 개체명이 지속적으로 등장하는 특수성이 존재함


EcomGPT 목표 및 기여

- 연구 목표 : 전자상거래에 특화된 instruction-following LLM개발

- 기여 : 2.5m규모의 데이터셋 구축, 성능 강화를 위한 태스크 설계 방법론, Instruction-tuned 모델 개발


Chain-of-Task

- 하나의 복잡한 최종 과제를 해결하는 데 필요한 하위 과제들을 분리하여 명시적으로 학습시키는 방식

- 예 : 개체명 인식(NER) = 범위 탐지 + 유형 분류


EcomGpt Task

- Classificaton, Exgtraction, Generation, 등 134개의 Task

EcomGpt Prompt

- Task Description, Prompt, Input, Output, 과 같은 요소로 구성됨


EcomGpt 모델 아키텍처

실험 결과

- 더 작은 size의 모델인 ecomGPT가 chatGPT보다 나은 결과

- Open source Model대비 20point 이상 더 나은 결과

Chain-of-Task 효과

- CoT제거 시 f1 점수 20point 급락

- 유사한 태스크는 물론, 비슷하지 않은 태스크에도 긍정적인 영향

결론 및 시사점

- E-Commerce 특화 instruction-tuned LLM 개발 가능성을 입증함

- Chain-of-Task 구성이 일반화 성능 향상의 핵심 전략임


이번 글에서는 전자상거래에 특화된 LLM인 EcomGPT에 대해 간단히 살펴봤습니다.
아직은 일반 LLM이 모든 분야를 다 완벽하게 해결해주진 못한다는 점, 그리고 결국엔 도메인에 맞는 데이터와 세심한 학습 설계가 중요하다는 걸 다시 한번 느낄 수 있었던 연구였던 것 같습니다.

관심 있으신 분들은 직접 논문 원문이나 공개된 실험 결과를 더 찾아보셔도 좋을 것 같아요.
읽어주셔서 감사합니다! 🙏