에임인텔리전스가 LG전자와 미국 로봇OS 기업 오픈마인드와의 협력 성과로 비디오투로봇(Video2Robot)을 26일 공개했다. 비디오투로봇은 영상 속 인간 동작을 로봇 학습 데이터로 변환하는 엔진이다. 세 기업은 로봇이 실제 환경에서 겪을 수 있는 위험을 시뮬레이션 단계에서 검증해 안전성을 구조적으로 높이는 것을 목표로 협력하고 있다. 비디오투로봇은 인간과의 근접 상호작용, 급경사 미끄러짐, 고하중 물체 조작 시 균형 붕괴 등 현실에서 직접 연출하기 어려운 시나리오를 생성형 AI를 활용해 로봇 모션 데이터로 안전하게 변환한다. 실제 환경에선 고가 장비 파손 우려와 안전 문제 등으로 반복 촬영이 어렵지만, 비디오투로봇을 활용하면 넘어지고 부딪히는 장면을 직접 촬영하지 않고도 관련 데이터를 확보할 수 있다. 에임인텔리전스는 기존 로봇 학습 과정에서 낙상, 충돌 등 위험 시나리오 데이터 수집에 한계가 있었다고 설명했다. 지난 23일 기준 X(구 트위터)와 링크드인 합산 조회수는 20만 회를 넘어섰고, 깃허브 스타는 400개를 돌파했다. nn권태윤 에임인텔리전스 연구원은 “비디오투로봇은 단순한 도구가 아닌 피지컬 AI 세이프티를 향한 첫걸음”이라고 말했다. 에임인텔리전스 관계자는 “앞으로 로봇이 실제 환경에서 마주할 다양한 돌발 상황을 선제적으로 학습하고 대비하는 ‘피지컬 AI 세이프티 프레임워크’를 구축해 나갈 것”이라고 밝혔다. nn에임인텔리전스는 텍스트·오디오·비디오 등 멀티모달 연구 역량을 가상 공간이 아닌 물리적 세계의 안전 문제로 확장했다고 설명했다. 회사 측은 로봇이 현실 세계에서 안전하게 작동할 수 있도록 학습 구조 단계부터 안전성을 설계하는 것을 목표로 하고 있다. nn비디오투로봇은 인간과의 근접 상호작용, 급경사 미끄러짐, 고하중 물체 조작 시의 균형 붕괴 등 현실에서 직접 연출하기 어려운 시나리오를 생성형 인공지능(AI)을 활용해 로봇 모션 데이터로 안전하게 변환한다. 이를 통해 로봇 안전 문제를 사후 대응이 아닌 사전 학습의 영역으로 끌어올렸다. 실제 환경에선 고가의 장비 파손 우려와 안전 문제 등으로 반복 촬영하기 어렵지만, 비디오투로봇을 활용하면 넘어지고 부딪히는 데이터를 직접 찍지 않고도 얻어낼 수 있다. 위험한 시나리오의 데이터를 수집하는 데 한계가 있는 점을 극복한 셈이다. nn에임인텔리전스는 로봇이 현실 세계에서 안전하게 작동할 수 있도록 학습 구조 단계부터 안전성을 설계하는 것을 목표로 하고 있다. 비디오투로봇을 통해 연속 백덤블링과 같은 고난이도 모션 데이터를 수집·변환하는 실제 화면을 제시했다. 깃허브(GitHub) 스타는 400개를 돌파했다. X(구 트위터)와 링크드인 합산 조회수는 20만 회를 넘어섰다.
@Meerae AI 빅데이터 연구소 meerae.info@gmail.com
