한국광기술원(원장 신용진)은 전성국 공간광정보연구센터 박사팀이 김명하 서경대 교수, 영상기술 전문업체 카이(대표 김영휘) 등과 공동으로 환경에서 광고와 실시간 상거래서비스가 가능한 실시간 객체 인식 솔루션을 개발했다고 29일 밝혔다.
전성국 박사팀은 현실세계 공간 분석을 기반으로 소비자와 제공자간 자연스런 상호작용으로 이질감없는 서비스를 구현한 현실-가상공간에서 상호 상거래 효율을 극대화한 기술을 개발했다. 별다른 표식없이 사용자위치와 대상 정보를 인식하고 사용자가 선택한 대상에 대한 정보를 인공지능(AI)으로 분석해 능동적으로 최적화된 광고 콘텐츠를 생성해 실시간 상거래 서비스를 제공한다.
<메타버스 환경 내 광고 및 커머스 지원 실시간 객체 인식 솔루션(위) 및 시범서비스(아래).>
<메타버스 환경 내 광고 및 커머스 지원 실시간 객체 인식 솔루션.>
이 기술은 전달매체 중심의 2차원(D) 평면 콘텐츠를 제한된 시간 내에 순차적으로 제공해 광고 대비 기대효과가 낮고 소비자의 선택범위가 제한된 기존 영상플랫폼 기반 광고서비스 단점을 극복할 수 있다. 사용자가 마치 현장에 있는 것 같은 높은 임장감과 실재감을 제공하는 공간영상정보 기반의 실감 콘텐츠 제공이 가능하다.
제품과 객체 인식 모듈의 성능은 360도 전방향 콘텐츠 영상에 대해 38fps, 47.9mAP 수준에 달한다. 고속·고정밀 데이터를 처리하는 동시에 10종 이상 제품이나 객체를 인식할 수 있다.
전 박사팀은 스마트글래스 환경에서 사용자 시선과 공간 정보를 정합하고 사용자 위치 이동에 대한 실시간대응이 가능한 고속 마커리스 기반 객체 추적 기술도 개발했다. 스마트글래스를 착용한 사용자에게 실제 환경과 이질감 없는 실재감을 제공한다.
연구팀은 360도 콘텐츠 영상의 생중계 라이브 스트림 미디어 서버를 구축, 스트림 영상 내 제품 및 객체 인식솔루션을 병합한 개인용 미디어 방송용 광고와 상거래 시범 서비스도 실현했다.
이광훈 한국광기술원 공간광정보연구센터장은 “앞으로 다가올 메타버스 환경에서의 온라인 홈쇼핑, 이벤트 생중계 등에서 사용자가 직접 상품을 선택하고 실시간 구매가 가능한 신규 플랫폼으로 활용도가 높을 것으로 기대한다”고 말했다.
이어 “선진국가와의 기술격차를 좁히고 메타버스 환경에서 공간영상정보 구현기술 수준을 한 단계 끌어올렸다는 데 의미가 있다”며 “인간친화형 메타버스 플랫폼 기술개발에 박차를 가해 스포츠, 레저, 관광, 군수 등 다양한 산업분야 기업과 적극 협력하겠다”고 강조했다
이번 연구는 문화체육관광부와 한국콘텐츠진흥원이 추진하는 문화기술연구개발사업 예산지원으로 이뤄졌으며 김명하 서경대 교수를 비롯 카이, 센클라우드(대표 임동오) 등이 공동 참여했다.
<원문출처>
전자신문 https://www.etnews.com/20210629000078