국내 연구진이 챗GPT와 딥시크 등 초거대 인공지능(AI) 모델의 GPU 사용률을 높이고, 학습 비용을 줄일 수 있는 학습 최적화 시뮬레이션을 개발했습니다.
KAIST와 삼성전자 공동연구팀은 대형 언어 모델의 학습 시간을 정확히 예측하고, 다양한 분산 병렬화 전략을 빠르게 탐색할 수 있는 프레임워크를 개발했다고 밝혔습니다.
연구팀은 이번에 개발한 프레임워크와 특정 대형언어모델의 기존 학습 전략을 비교한 결과, 기존보다 GPU 효율을 10% 이상 올리면서도 학습 비용을 5% 이상 줄인다는 사실을 확인했습니다.
또, 프레임워크와 1,500개 이상의 실제 학습 시간 측정 데이터를 인공지능 연구자와 기업이 자유롭게 활용할 수 있도록 오픈소스로 공개했습니다.
YTN 사이언스 임늘솔 (sonamu@ytn.co.kr)
[저작권자(c) YTN science 무단전재, 재배포 및 AI 데이터 활용 금지]