로봇이 이제 감정을 읽는다 인간과 유사한 반응 시스템 탑재

로봇이 이제 감정을 읽는다 인간과 유사한 반응 시스템 탑재
로봇이 이제 감정을 읽는다 인간과 유사한 반응 시스템 탑재
갑자기 누군가가 어깨를 툭 치면 우리는 보통 깜짝 놀라거나 움찔하게 됩니다.
이러한 자극에 인간은 즉각적으로 반응하죠.
그러나 같은 상황이 반복되면 점점 무뎌지거나 반응 방식이 변하기도 합니다.
흥미롭게도, 국내 연구진이 이러한 ‘감정 변화’를 모방할 수 있는 로봇을 개발했다는 소식입니다.
울산과학기술원(UNIST) 디자인학과의 이희승 교수 연구팀은 감정을 눈과 움직임으로 표현하며, 시간에 따라 그 반응이 달라지는 적응형 로봇 기술을 개발했다고 밝혔습니다.
이 로봇의 핵심은 감정을 단순히 고정된 상태로 보여주는 것이 아니라, 사람처럼 변화하는 ‘감정 흐름’을 시뮬레이션하는 데 있습니다.
연구진이 만든 로봇은 눈의 모양, 색상, 움직임을 조합해 총 여섯 가지 감정을 표현할 수 있습니다.
사용자는 로봇의 머리를 쓰다듬거나 두드리는 방식으로 자극을 입력하게 되는데요, 쓰다듬기는 긍정적인 자극으로, 두드리기는 부정적인 자극으로 인식됩니다.
예를 들어, 갑자기 로봇을 두드리면 눈이 커지며 청색으로 변하고 몸을 뒤로 젖혀 '놀람'의 감정을 전달합니다.
더 흥미로운 점은 동일한 자극이 반복되어도 로봇은 항상 같은 반응을 하지 않는다는 겁니다.
이전 상황과 감정 상태, 그리고 자극의 누적값에 따라 반응이 미묘하게 달라지게 설정되었습니다.
이 같은 적응형 표현 방식은 실제 사람의 감정 흐름과 유사하게 설계된 것인데요.
사용자 평가에서도 이에 대한 반응이 긍정적이었습니다.
참가자들은 “같은 자극에도 상황에 따라 반응이 조금씩 바뀌는 점이 단순한
기계적인 반응과 달라 사람처럼 느껴진다”고 평가했으며, 약 80% 이상이 감정 표현을 “자연스럽고 생동감 있다”고 말했습니다.
이번 연구에서 팀은 고정된 감정 상태가 아니라 시간에 따라 변화하는 '벡터(vector)' 형태의 물리량 개념을 활용했습니다.
강한 자극이 들어오면 이 '감정 벡터'가 빠르게 커지고, 약한 자극일 경우에는 서서히 반응을 변화시켜 더욱 세밀한 감정 표현이 가능하도록 설계했습니다.
이희승 교수는 “기존 로봇이 단순히 정해진 패턴에 따라 감정을 표현하는 데 그쳤다면
이번 기술은 감정의 흐름까지 구현해 사용자가 로봇을 진짜 생명체처럼 느낄 수 있게 했다”며
“반려로봇이나 정서 지원 기술 등 다양한 인간 중심 로봇 분야에서 활용 가능성이 크다”고 설명했습니다.
이번 연구 결과는 로봇 분야의 권위 있는 국제 학회인 ICRA(International Conference on Robotics and Automation)에 채택됐으며
지난 5월 21일 미국 애틀랜타에서 열린 2025년 ICRA 연례 학술대회에서 발표되었습니다.
이는 기술과 인간의 상호작용에 새로운 가능성을 열어준 흥미로운 한 걸음으로 평가받고 있습니다.