서울대 AI대학원·셔터스톡과 ‘글로벌 AI 챌린지’ 개최
![]() |
▲LG의 초거대 멀티모달 AI 엑사원이 생성한 캡션 예시. LG그룹은 이미지를 이해하고 설명하는 AI를 개발하고 있다. |
LG AI연구원은 전세계 연구자를 대상으로 다음달 1일부터 4월30일까지 ‘LG 글로벌 AI 챌린지’를 개최한다고 31일 밝혔다.
온라인으로 펼쳐지는 이 대회는 ‘제로샷 이미지 캡셔닝’(Zero-Shot Image Captioning)을 주제로 AI가 처음 본 이미지를 얼마나 정확하게 이해하고 설명하는지 평가한다. LG AI연구원은 공동연구센터를 설립해 초거대 멀티모달 AI인 ‘엑사원(EXAONE)’을 연구 중인 ‘서울대학교 AI대학원’, 이미지 캡셔닝 AI의 상용화 서비스를 공동으로 준비 중인 ‘셔터스톡’과 함께 이번 경진 대회를 진행한다.
‘제로샷 이미지 캡셔닝’은 AI가 처음 본 사물이나, 동물, 풍경 등이 포함돼 있는 이미지를 봤을 때나 일러스트레이션, 그래픽 등 표현 방식이 다른 이미지를 봤을 때 텍스트로 설명할 수 있는 기술이다. 기존 학습한 데이터를 기반으로 스스로 이해하고 유추한 결과를 내놓는다.
토끼를 한 번도 본 적이 없는 사람이 토끼 여러 마리와 고양이 한 마리가 함께 있는 것을 봤을 때 동물들의 생김새와 특성의 공통점과 차이점을 학습하는 식이다. 이후 ‘토끼도 털은 있지만 고양이와는 다르게 귀가 길고, 뒷다리가 발달했다’고 설명할 수 있는 것과 비슷하다.
‘제로샷 이미지 캡셔닝’ 기술이 점차 고도화되면 이미지 인식 AI 기술의 정확성과 공정성이 향상된다. 결국 사람들의 실생활에 직접적으로 도움을 줄 수 있는 기술 개발로 이어질 수 있다고 LG그룹 측은 설명했다.
‘제로샷 이미지 캡셔닝’은 인간의 학습 구조를 모방한 초거대 AI가 등장하며 기술 연구가 활발해지고 있다. 최근 화두가 되고 있는 텍스트를 이미지로 변환하는 ‘생성형 AI 모델’의 성능은 물론 이미지 검색의 정확도를 높이는 데도 활용되고 있다.
특히 최근 자연어 검색 분야에서 반향을 일으키고 있는 챗GPT(ChatGPT) 처럼 AI가 스스로 이미지를 이해하고 설명한다. 해시태그도 달 수 있는 이미지 캡셔닝 기술은 이미지 검색 분야에 혁신을 가져올 것으로 예상된다.
LG는 사람의 시각 인지 능력에 가까이 다가서는 제로샷 이미지 캡셔닝이 이미지를 텍스트로 표현하고 텍스트를 이미지로 시각화할 수 있는 초거대 멀티모달 AI인 ‘엑사원(EXAONE)’의 기술 개발 생태계에 크게 기여할 것으로 기대하고 있다.
이경무 서울대 AI대학원 석좌교수는 "이미지 캡셔닝은 영상에 나오는 객체들의 관계부터 상황과 문맥까지 이해해 인간의 언어로 표현하고 설명하게 하는 것으로 AI가 인간의 지능에 얼마나 가까워졌는지 보여주는 하나의 척도"라며 "LG AI연구원과 서울대 AI대학원, 셔터스톡이 세계 최초로 챌린지와 워크샵을 공동 진행하는 것은 우리나라의 AI 역량이 이미 세계적인 수준에 도달했다는 것을 의미한다"라고 말했다.
LG AI연구원은 올해 6월 캐나다 밴쿠버에서 열리는 컴퓨터 비전 분야 세계 최고 권위 학회인 ‘CVPR 2023’에서 ‘제로샷 이미지 캡셔닝 평가의 새로운 개척자들’을 주제로 워크샵을 진행한다.
LG AI연구원은 구글, 마이크로소프트 등에서 AI 연구를 진행하고 있는 산업계 전문가들을 비롯해 글로벌 석학들과 함께 이미지 캡셔닝 기술 연구의 방향성과 확장성, AI 윤리 문제에 관해 심도 있는 논의를 진행할 계획이다.
김승환 LG AI연구원 비전랩장은 "LG AI연구원은 현재 생성형 AI 뿐 아니라, 객체를 인식하는 기술 수준을 넘어 인간 수준으로 영상까지 이해하는 AI로 퀀텀 점프할 수 있는 가능성을 확인했다"며 "이번 대회를 통해 전 세계 AI 연구자들과 함께 연구의 의의와 필요성, 그리고 확장 가능성에 관해 함께 논의하는 장을 만들고자 한다"고 전했다.
yes@ekn.kr