SKT 정예팀, 초거대 AI 모델 'A.X K1' 기술 보고서 공개

경제·산업 입력 2026-01-07 13:04:42 수정 2026-01-07 13:04:42 박유현 기자 0개

페이스북 공유하기 X 공유하기 카카오톡 공유하기 네이버 블로그 공유하기

단기간에 초거대 AI 모델 구축
수학 및 코딩 벤치마크에서 딥시크-V3.1 앞서
연내 멀티모달 추가하고 조 단위 파라미터 규모로 모델 확장 계획


서울의 한 SKT 대리점 간판. [사진=News1]

[서울경제TV=박유현] SK텔레콤(이하SKT) 정예팀은 매개변수 519B(5190억 개) 규모의 초거대 AI 모델 ‘A.X K1(에이닷엑스 케이원)’의 기술 보고서를 오픈소스 플랫폼 허깅페이스에 공개했다고 7일 밝혔다. 

SKT 정예팀은 4개월여의 단기간 동안 국내 첫 500B 이상 초거대 모델 A.X K1을 완성했다. 주요 벤치마크에서 딥시크-V3.1 등 세계적으로 많이 활용되는 초거대 모델 이상의 성능을 달성했다. 딥시크-V3.1은 2025년 8월 출시된 오픈소스 모델로 작업 효율성이 강점이다.

A.X K1 학습은 1000개의 GPU 자원을 활용해 학습을 진행했다. 학습 기간과 GPU 규모를 바탕으로 가능한 총 학습량을 추산하고, 이를 바탕으로 최대 모델 크기를 스케일링 이론에 근거해 설계했다. 스케일링 이론은 모델의 성능이 투입 자원에 비례한다는 이론이다.

그 결과 세계적으로도 독창적인 매개변수 구조인 519B 규모의 모델을 목표로 정하고 약 10조(10T) 개의 데이터를 투입해 학습했다. 정예팀은 개발기간 동안 상시 1000개 이상의 GPU를 인공지능 훈련에 활용했다. 특히 A.X K1은 이번 개발기간 동안 정부 지원을 받지 않고 자체 GPU 조달만으로 목표를 달성했다는 점에서 의미가 있다.

A.X K1은 수학과 코딩 등 초거대 인공지능 모델의 능력을 필요로 하는 분야에서 우수한 성능을 구현했다. 수학은 미국 고등학생 수학 올림피아드 문제 AIME25 벤치마크에서 89.8점을 받아 딥시크-V3.1 모델(88.4점) 대비 102% 수준으로 앞선 성능을 확인했다. AIME25는 미국 고등학생 수학 올림피아드 문제로 AI의 수학 실력을 측정하며, 고난도의 문제가 출제된다.

코딩 활용도 측면에서 측정한 LiveCodeBench는 영어 기반 75.8점, 한국어 기반 73.1점을 기록하며 실시간 코딩 문제 해결 능력을 입증했다. 영어 기반 69.5점, 한국어 기반 66.2점을 받은 딥시크-V3.1 대비 각각 109%, 110% 수준의 높은 성능을 보였다. LiveCodeBench는 AI가 실시간으로 나오는 최신 코딩 문제를 얼마나 잘 푸는지 측정하는 시험으로, 인공지능이 미리 볼 수 없는 최신 문제들로 구성된다.

A.X K1은 519B 규모의 파라미터 가운데 33B만 선택적으로 활성화하는 방식을 택했다. 전문가 혼합(Mixture of Expert, MoE) 구조를 채택해 AI 훈련 과정의 안정성과 효율을 동시에 확보한 것이 특징이다.

MoE란 여러 개의 작은 전문가 모델들이 모여서 하나의 큰 문제를 해결하는 방식으로 각 전문가 모델은 특정 유형의 데이터 처리에 특화돼 있고, 입력 데이터에 따라 가장 적합한 전문가가 선택돼 문제를 해결한다.

A.X K1은 향후 추가 연구 기간에 따라 더 많은 컴퓨팅 자원과 데이터를 투입해 성능을 더욱 높일 수 있다. SKT는 연내 멀티모달 기능을 추가하고 조 단위 파라미터로 확대할 계획이다. /flexibleu@sedaily.com

[ⓒ 서울경제TV(www.sentv.co.kr), 무단 전재 및 재배포 금지]

페이스북 공유하기 X 공유하기 카카오톡 공유하기 네이버 블로그 공유하기

댓글

(0)
※ 댓글 작성시 상대방에 대한 배려와 책임을 담아 깨끗한 댓글 환경에 동참에 주세요. 0 / 300

주요뉴스

공지사항

더보기 +

이 시각 이후 방송더보기