11일 서울의 한 호텔에서 열린 ‘2024 K-Science & Technology 글로벌 포럼’ 기조강연에서 얀 르쿤 미국 뉴욕대 교수(메타 부사장)는 “기존 LLM 모델은 한계가 분명하다”며 “아이처럼 영상을 보면서 학습하고 복잡합 상황을 이해하게 하기 위해 동영상 기반 학습 모델이 필요하며, 한국 연구진들과 협력해 새로운 AI 시대를 준비했으면 한다”고 밝혔다.
얀 르쿤 교수는 조경현 뉴욕대 교수와 함께 ‘글로벌 AI 프런티어랩’의 공동연구소장을 맡고 있다. 이 연구소는 정부가 한미 AI R&D 협력을 위해 미국 뉴욕에 만든 교두보다.
|
얀 르쿤 교수에 따르면 기존 LLM은 생성형AI를 통한 글자 기반 추론에는 우수한 성능을 발휘한다. 하지만 지나치게 많은 데이터를 투입해야 한다는 점에서 복잡한 상황을 인지하고 추론해야 하는 상황이나 복잡한 현실 세계에서는 활용하기 어렵다. 실제 뉴욕대와 메타 연구진이 수행한 동영상 학습에서 LLM은 제 성능을 발휘하지 못했다.
그는 궁극적으로는 AI 혁명을 이뤄내 인간과 같은 추론 기능을 갖고 복잡한 인지 작업을 수행할 수 있는 능력을 갖춘 고수준 AI 시스템인 ‘AMI(Advanced Machine Intelligence)’로 전환해야 한다고 강조했다.
오픈소스 기반 공유와 국제협력은 기술 발전을 위해 중요한 요소로 꼽았다. 가령 미국 서부 한 지역의 데이터만으로는 인류 전체를 위한 AI가 될 수 없고, 인도에만 7000개에 달하는 방언이 있다. 앞으로 국제협력을 통해 인간 지식과 문화를 AI가 축적하도록 파운데이션모델(기초모델)을 구축하고 데이터를 모아나가야 한다는 얘기다.
최근 메타와 뉴욕대는 영상 일부 내용을 지운 영상을 AI가 추론하고 학습하는 연구를 하고 있다. 얀 르쿤 교수는 “한국에서도 유사한 구조를 연구하고 있기 때문에 협력하면 새로운 구조(아키텍처) 연구를 할 수 있다”며 “전 세계 각 문화를 반영한 데이터를 오픈소스 기반으로 축적해 새로운 AI 시스템을 구축했으면 한다”고 밝혔다.