카카오, 새 LLM ‘허니비’ 공개…사진설명도 ‘척척’
AI가 강아지·고양이 사진 인식해 상황 설명
카카오 “MLLM 발전 위해 소스코드 공개”
“상호작용 통해 교육·학습 보조 도구로 사용”
[앵커]
카카오가 멀티모달 언어모델(MLLM)인 ‘허니비’를 처음 공개했습니다. 인공지능(AI)이 동물들 사진을 인식해 상황을 설명해주고, 대화를 나누는 설정까지 만들어 보여주는데요. 기존 텍스트로만 입·출력하는 거대언어모델(LLM)이 진화하고 있습니다. 윤혜림 기잡니다.
[기자]
강아지와 고양이가 함께 있는 사진을 입력합니다.
사용자가 ‘두 동물의 대화를 써달라’고 명령하자 인공지능(AI)이 상황 설명과 함께 고양이와 강아지 간 가상의 대화를 만들어줍니다.
새가 부리로 램프를 물고 있는 사진을 입력하고, ‘광고 작성을 도와달라’고 입력하자‘새 모양의 테이블 램프를 소개’하는 내용의 광고 문구를 만들어줍니다.
카카오브레인이 멀티모달 언어모델 오픈소스 ‘허니비’를 깃허브에 처음 공개했습니다.
깃허브(github)는 프로그래밍 작업을 1인이나 팀 단위로 작업할 수 있게 해주는 웹 기반 툴을 말합니다.
허니비는 이미지에 담긴 장면을 묘사하거나 이미지와 텍스트가 혼합된 콘텐츠에 관한 질문을 이해하고 답변할 수 있습니다. 기존 거대언어모델(LLM)이 텍스트로만 입·출력했는데, 허니비는 이미지 입력이 가능할 정도로 진화한 겁니다.
현재 MLLM에 대한 연구는 공개된 모델의 수가 적고, 학습 방법 역시 자세히 공개되지 않아 개발이 어려운 상황.
카카오브레인은 MLLM 발전을 위해 이 소스코드를 공개했습니다.
[싱크] 노병석 / 카카오브레인 Multimodal Understanding 연구팀장
“허니비 모델의 추론을 가능하게 하는 코드를 깃허브에 공개하였으며, 허니비를 활용한 각종 연구와 서비스 확장을 고려 중입니다. 카카오브레인은 더욱 발전된 AI 모델 확보를 위해 끊임없이 연구 및 개발을 진행할 예정입니다.”
카카오브레인은 허니비가 사용자와 상호작용이 가능한 만큼 향후 효과적인 교육과 학습 보조 도구로 사용될 것으로 전망하고 있습니다.서울경제TV 윤혜림입니다. /grace_rim@sedaily.com
[영상취재 허재호 / 영상편집 김가람]
[ⓒ 서울경제TV(www.sentv.co.kr), 무단 전재 및 재배포 금지]
관련뉴스
주요뉴스
오늘의 날씨
마포구 상암동℃
강수확률 %
기획/취재
주간 TOP뉴스
- 1경기 이천시, ‘경기형 과학고’ 예비 1차 합격
- 2대형 SUV 신차 출시 ‘봇물’…車 트렌드 바뀔까
- 3탄핵정국 속 농협금융·은행 인사 고심…수장 교체 가능성
- 4후판가격 협상 해 넘어가나…3개월째 ‘공회전’
- 5LG전자 조주완 “위기는 위험과 기회…최악 상황 대비"
- 6셀트리온, 자가면역질환 치료제 ‘스테키마’ 美 FDA 허가 획득
- 7“고물가에 사전예약 증가”…유통가, 설 채비 ‘분주’
- 8건설현장 30%는 외국인…“AI로 소통장벽 허물어요”
- 9새해에도 먹거리 부담…이온음료·커피·우유 가격 오른다
- 10당근책 잃은 밸류업…일제히 '파란불'
댓글
(0) 로그아웃