인간처럼 생각하는 새로운 AI 모델 나왔다
인간처럼 생각하는 새로운 AI 모델 나왔다
미국 뉴욕대와 스페인 폼페우 파브라대 공동 연구진이 인간의 사고방식을 모방하는 메타학습(meta-learning) 기술을 개발했다.
인간의 명령 없이도 스스로 사고하는 ‘완전 인공지능(AI)’에 한 걸음 더 다가섰다는 평가가 나온다.
인간은 새로운 단어를 학습하면 이를 다양한 문장에 응용하며 개념의 사용법을 익힌다.
예를 들어 ‘뛰다’라는 단어를 배우면 ‘방을 두 번 뛰어다니다’ ‘손을 들고 건너뛰다’ 등 문장을 만들면서 단어의 의미를 이해한다.
전문가들은 이처럼 기존에 배운 요소로 새로운 조합을 만들거나 이해하는 과정을 ‘합성적 일반화(compositional generalization)’라고 한다.
브렌든 레이크 뉴욕대 교수와 마르코 바로니 폼페우 파브라대 교수 연구진은 신경망 관련 기술에 합성 일반화를 구현할 수 있는 메타학습 기술을 개발했다.
메타학습은 ‘학습하는 법을 학습한다’라는 의미로, 데이터를 학습하는 알고리즘을 스스로 개선하도록 하는 기술이다.
연구진은 문장의 구성성분을 조합하고 의미를 이해하는 ‘합성성’을 위한 기술을 만들어 신경망에 도입했다.
신경망에 새로운 단어를 입력하면 단어를 여러 방식으로 조합하며 스스로 문장 구성 기술을 높일 수 있다.
연구진이 이 기술을 도입한 결과, 챗GPT나 GPT-4보다 합성적 일반화 성능이 뛰어난 AI를 구현할 수 있었다.
연구자가 새로 만든 무의미한 용어를 배우고 활용하는 테스트에서는 인간 참가자보다도 일반화 능력이 높았다.
레이크 교수는 “처음으로 신경망이 인간의 일반화를 모방하거나 능가할 수 있다는 것을 보여줬다”고 밝혔다.
1980년대 후반 제리 포더나 제논 필리신 등 인지 과학, AI, 언어학 분야의 전문가들은 인공 신경망이 합성적 일반화를 할 수 없을 것이라 예상했다.
그러나 이번 연구로 합성적 일반화를 기술적으로 모방할 수 있다는 것을 증명했다.
바로니 교수는 “챗GPT와 같은 대규모 언어 모델은 최근 몇 년 동안 성능이 나아졌지만
여전히 합성적 일반화에 어려움을 겪고 있다”며 “이번에 개발한 기술로 대규모 언어 모델의 합성 기술을 높일 수 있을 거라 본다”고 밝혔다.
사람은 시각, 청각, 촉각 등 여러 감각기관을 통해 얻어지는 정보를 구분하지 않고 하나의 큰 데이터로 기억한다.
예를 들어 번화한 거리를 지날 때 주변에 보이는 많은 사람들과 건물, 자동차 소리, 기온 등을 한번에 받아들이고 이후에 떠올리는 식이다.
이미지바인드는 사람의 학습방식을 모방해 텍스트, 이미지, 비디오, 오디오 데이터를 비롯해 깊이,
적외선 및 관성 측정(IMU) 등 6종의 데이터를 통합한 데이터쌍 기반으로 학습한다.
주변 소리나 사물의 형태, 온도, 움직이는 방식 등 여러 데이터를 통합해 전체적인 상황과 변화를 AI 스스로 분석할 수 있다.
메타 AI연구팀는 이미지바인드가 특정 데이터 형식에 맞춰 훈련된 AI모델보다 더 적은 데이터 학습으로도 높은 성능을 내는 결과를 확인했다고 밝혔다.
6종의 다른 데이터를 통해 전체적인 모습을 비교할 뿐 아니라 상관관계가 높은 데이터들을 중심으로 분류하기 유리하다는 것이다.
예를 들어 검색 대상이 자동차라면 형태와 함께 엔진소리가 다른 객체와 구분 짓는 특징이 될 수 있다.
이를 통해 형태가 일부 가려지거나 모습이 조금 다르더라도 자동차로 특정하는 것이 가능하다는 설명이다.
메타는 미세조정 학습을 요구하지 않는 고성능 컴퓨터 비전 모델 DINOv2와 범용 분할 모델인 SAM 등 오픈소스 AI 도구를 추가하는 등 점차 기능을 향상시킬 계획이다.