AI가 인간보다 중재 잘한다 중재 AI 하버마스 개발
AI가 인간보다 중재 잘한다 중재 AI 하버마스 개발
상반된 의견을 중재하는 인공지능(AI)이 인간 중재자보다 효과적으로 합의를 이끌었다는 연구 결과가 나왔다.
최저 임금, 정년 연장 등 사회적 공론화 과정에 AI가 중재자로 나설 날이 멀지 않았다는 전망이 나온다.
구글 딥마인드 연구진은 AI ‘하버마스’로 중재 실험을 한 결과
인간 중재자보다 뛰어난 평가를 받았다고 국제학술지 사이언스에 17일(현지 시각) 밝혔다.
딥마인드가 개발한 중재 AI ‘하버마스’는 합리적 토론이 갈등 해결에 도움이 된다는
이론으로 유명한 독일 철학자 위르겐 하버마스의 이름에서 착안해 명명한 것이다.
연구진은 영국에서 모의 실험 참여자들을 모집해 6명씩 75개 그룹으로 나눈 뒤
보편적 무상 보육을 제공해야 하는지 등 논란이 있는 주제에 대한 의견을 작성하도록 했다.
각 그룹에서 한 명씩 뽑아 중재안을 작성하도록 했고, 하버마스 AI에게도 같은 작업을 수행하도록 했다.
이후 모든 참가자들에게 각 그룹 대표자가 작성한 중재안과 AI가 내놓은 중재안을 평가하도록 했다.
분석 결과 참가자의 56%가 AI의 중재안을 선호한 것으로 집계됐다. AI는 각 소그룹에서 다수의 견해를 폭넓게 존중하되
소수가 소외감을 느끼지 않도록 중재안을 작성하는 데 역점을 둔 것으로 조사됐다.
연구진은 “하버마스 AI의 중재안을 실험 참가자들이 일관되게 선호했고
외부 심사위원들로부터도 명확성과 공정성 측면 등에서 높은 평가를 받았다”고 밝혔다.
이들은 또 “AI를 통한 중재가 그룹 내 분열을 감소시켰고 참가자들 의견이 공통된 입장으로 수렴되는 데도 도움을 줬다”고 했다.
이처럼 딥마인드 연구진이 “중재 AI가 시간 효율성과 공정성, 확장 가능성 등 여러 면에서 인간 중재자를 능가한다”고 밝히고 있지만
이를 인정하기 어렵다는 반론도 나온다. AI가 인간의 심도 있는 중재 역할을 대체하는 데는 한계가 있다는 것이다.
AI 중재에 부정적인 이들은 “공론화 과정에서 참가자들이 감정을 주고받는 과정들은 AI가 알아차리기 어렵기 때문에 인간
중재자가 나섰을 때만큼 공감을 이끌어낼 수 없다”며 “그룹 의견을 요약해 중재안을
생성하는 것일 뿐 실제 공론화 과정에서 유용성은 크지 않을 것”이라는 입장이다.
AI 중재를 통한 토론 후, 참가자들의 입장이 수렴하는 경향을 보였다. 연구진은 ‘그룹 동의 지수(group agreement index)’라는 지표를 사용해 이를 측정했다.
이 지수는 특정 주장에 동의하는 참가자 비율과 반대하는 비율의 차이를 나타낸다.
실험 결과, AI 중재 토론 후 그룹 동의 지수가 평균 8퍼센트 포인트 증가했다.
이는 단순히 다른 사람들의 의견을 듣는 것만으로는 나타나지 않았던 효과다.
연구진은 다른 참가자들의 의견만 공유하고 AI 중재는 없는 대조군 실험을 진행했는데, 이 경우 그룹 동의 지수의 유의미한 변화가 관찰되지 않았다.
AI는 다수 의견을 존중하면서도 소수 의견을 반영하는 균형 잡힌 중재 능력을 보여줬다.
연구진은 텍스트 임베딩 기술을 활용해 AI 합의문이 개별 의견들을 어떻게 반영하는지 분석했다.
그 결과 초기 합의문에서는 소수 의견이 그 비율만큼 정확히 반영됐고, 수정된 합의문에서는 오히려 소수 의견이 과대 대표되는 경향을 보였다.
연구진은 “하버마스 머신은 다수의 ‘폭정’을 피하면서 반대 의견을 일관되게 반영했다”고 설명했다.
이는 AI가 공정한 중재자 역할을 수행할 수 있음을 시사한다.