KAIST, 인공지능의 오랜 난제를 뇌 기반 인공지능으로 풀다

권기산 기자 2022-01-06 (목) 08:24 2년전 550  

- 인공지능의 오랜 난제, 인간의 전두엽의 정보처리 과정에서 해답을 찾아내다 

- 주어진 ​문제​에 집중하면서도(과소적합 문제 해결), ​당면 문제에 과하게 집착하지 않고​(과적합 문제 해결) 유동적으로 대처하는 인간 지능의 특장점을 활용해서 인공지능 모델에 해법 제시

- 최근 국내 및 해외 특허 출원이 완료된 상태로 차세대 인공지능, 스마트 교육, 인지 행동치료 등 다양한 분야에 파급력이 큰 원천 기술로 기대

 

a814e5ed709d4ab5e42048188938db8d_1641424963_9034.png 

 KAIST 바이오및뇌공학과 이상완 교수 

 

KAIST(총장 이광형)는 바이오및뇌공학과 이상완 교수(신경과학 인공지능 융합연구센터장) 연구팀이 뇌 기반 인공지능 기술을 이용해 인공지능의 난제 중 하나인 과적합-과소적합 상충 문제를 해결하는 원리를 풀어내는 데 성공했다고 5일 밝혔다.

 

KAIST 이상완 교수와 김동재 박사(現 뉴욕대학교 박사후 연구원)가 주도하고 KAIST 정재승 교수가 참여한 이번 연구는 `강화학습 중 편향-분산 상충 문제에 대한 전두엽의 해법'이라는 제목으로 국제 학술지 셀(Cell)의 오픈 액세스 저널인 `셀 리포트(Cell Reports)'에 지난해 12월 28일 字 온라인판에 게재됐다. (논문명: Prefrontal solution to the bias-variance tradeoff during reinforcement learning)

 

최근 인공지능 모델들은 다양한 실제 문제들에 대해 최적의 해법을 제시하지만, 상황 변화에 ​유동적으로 대응하는 부분에 있어서는 여전히 어려움을 겪고 있다. 기계학습에서는 이를 과소적합-과적합의 위험성 (underfitting-overfitting risk) 또는 편향-분산 상충 문제​(bias-variance tradeoff)라​ 하며​​​​​ 오랫동안 연구됐지만, 실제 세계와 같이 상충 조건이 계속 변하는 상황에서의 명확한 해법은 아직 제안된 바가 없​다.​

 

반면 인간은 ​현재 주어진 ​문제​에 집중하면서도(과소적합 문제 해결), ​당면 문제에 과하게 집착하지 않고​(과적합 문제 해결)​ 변하는 상황에​ 맞게 유동적으로 대처​한다. 연구팀은 ​뇌 데이터, 확률과정 추론 모형, 강화학습​ 알고리즘을​ 이용해 인간의 뇌가 이 문제를 ​어떻게 해결하는지에 대한 이론적 틀을 마련하고 이로부터 유동적인 메타 강화학습 모델을 도출해냈다.

 

놀랍게도 인간의 뇌는 ​중뇌 도파민 회로와 전두엽에서 처리​되는 ​`예측 오차'의 하한선(prediction error lower bound) 이라는 단​ 한 가지 정보를 이용해 ​이 문제를 해결한다. ​우리의 전두엽, 특히 복외측전전두피질은 현재 내가 사용하고 있는 문제 해결 방식으로 주어진 문제를 얼마나 잘 풀 수 있을지에 대한 기대치의 한계를 추정하고(예: `이렇게 풀면 90점까지는 받을 수 있어'), 변화하는 상황에 맞춰 최적인 문제 해결전략을 유동적으로 선택하는 과정 (예: `이렇게 풀면 기껏해야 70점이니 다르게 풀어보자')을 통해 과소적합-과적합의 위험을 최소화하게 ​된다​.​

 

이상완 교수 연구팀은 2014년 해당 전두엽 영역이 환경의 불확실성을 바탕으로 강화학습전략을 유동적으로 조절하는 데 관여한다는 사실을 처음 발견했고(`뉴런(Neuron)' 학술지에 발표), 2015년에는 인과관계 추론 과정에도 관여한다는 사실을 발견했다(`PLOS Biology' 학술지에 발표). 이어 2019년에는 해당 뇌 영역이 문제의 복잡도까지 고려할 수 있다는 사실을 발견했다(`네이처 커뮤니케이션즈(Nature Communications)' 학술지에 발표). 

 

이러한 일련의 연구 결과들은 자신의 학습 및 추론 능력을 스스로 평가하는 인간의 메타 인지 능력을 보여주는 증거로, 이 능력을 바탕으로 인공지능이 풀기 어려워하는 현실 세계의 다양한 상충적 상황들을 풀어낼 수 있다는 `전두엽 메타 학습 이론'을 정립한 바 있다(`사이언스 로보틱스(Science Robotics)' 학술지에 발표). 이번 연구는 이 이론에 기반해 인공지능의 오랜 난제 중 하나인 과소적합-과적합 상충 문제를 실제로 풀어낸 최초의 사례로 평가된다.

 

연구를 통해 개발된 메타 강화학습 모델을 이용하면 간단한 게임을 통해 인간의 유동적 문제 해결 능력을 간접적으로 측정할 수 있다. 더 나아가 스마트 교육이나 중독과 관련된 인지 행동치료에 적용할 경우 상황 변화에 유동적으로 대처하는 인간의 문제 해결 능력 자체를 향상할 수 있을 것으로 기대된다. 차세대 인공지능, 스마트 교육, 인지 행동치료 등 다양한 분야에 파급력이 큰 원천 기술로 최근 국내 및 해외 특허 출원이 완료된 상태다.

 

KAIST에서 연구를 주도한 제1 저자 김동재 박사는 "인간 지능의 특장점에 대한 이해가 얼마나 중요한지 보여주는 연구 중 하나ˮ라고 말했다. 연구 책임자인 이상완 교수는 "인공지능이 우리보다 잘 푸는 문제가 많지만, 반대로 인공지능으로 풀기 어려운 문제들이 우리에게는 정말 쉽게 느껴지는 경우들이 많다. 인간의 다양한 고위 수준 능력을 인공지능 이론 관점에서 형식화하는 연구를 통해 인간 지능의 비밀을 하나씩 풀어나갈 수 있을 것으로 기대된다ˮ라며 "이러한 뇌 기반 인공지능 연구는 인간의 지능을 공학적으로 탐구하는 과정으로 볼 수 있으며, 인간과 인공지능이 서로 도우며 함께 성장해 나갈 수 있는 명확한 기준점을 마련할 수 있을 것ˮ이라고 말했다. 이상완 교수는 뇌 기반 인공지능 연구의 독창성과 도전성을 인정받아 구글 교수 연구상과 IBM 학술상을 받은 바 있다. 

 

연구팀은 과학기술정보통신부의 재원으로 정보통신기획평가원의 지원을 받아 설립한 KAIST 신경과학-인공지능 융합연구센터에서 기반 기술을 활용해 인간 지능을 모사한 차세대 인공지능 모델을 개발하고, 아울러 딥마인드, IBM 인공지능 연구소, MIT, 옥스퍼드 대학 등 국제 공동연구 협약 기관과 공동연구를 통해 기술의 파급력을 높여나갈 계획이라고 말했다.

 

한편 이번 연구는 삼성전자 미래기술육성센터, 과학기술정보통신부 정보통신기획평가원 및 한국연구재단의 지원을 받아 수행됐다.

 

 

□ 용어설명


▶ 과소적합-과적합의 위험성(underfitting-overfitting risk) 또는 편향-분산 상충 문제​(bias-variance tradeoff)


인공지능 모델을 현재 데이터나 환경에 과하게 학습시키거나 과도하게 복잡한 구조를 적용할 경우, 현재 주어진 문제에 대해서는 좋은 성능을 보인다. 그러나, 문제 환경이 조금만 달라지면 성능이 크게 떨어지는 문제점이 발생한다. 이를 과적합의 문제(overfitting)라 하며, 이때 사용된 인공지능 모델은 높은 복잡도로 인해 결과값이 너무 민감해져 결과적으로 출력값의 분산(variance)이 커진다는 문제점이 있다.


위와 같은 문제를 방지하기 위해, 반대로 현재 데이터나 환경에 대충 학습시키거나 과도하게 복잡한 구조를 적용할 경우, 유사한 상황이나 문제에 대해서는 안정적 성능을 보일 수 있다. 그러나, 주어진 문제에 대해서는 최대한의 성능을 끌어낼 수 없다는 단점이 있다. 이를 과소적합의 문제(underfitting)라 하며, 이때 사용된 인공지능 모델은 단순한 구조로 인해 출력값의 분산이 작으나 데이터를 충실히 학습하지 못하여 편향성(bias)이 발생할 수 있다.


이와 같이 과적합/분산과 과소적합/편향성은 많은 경우 상충하기 때문에, 기존의 기계학습 연구는 이 두 가지 조건을 어느정도 만족시키는 타협점을 찾는데 집중해 왔다.


더 심각한 문제는 실제 세계에서는 상황이 변화하므로 최적의 타협점 역시 계속해서 달라진다는 데 있다. 기존의 인공지능에서는 이 문제에 대한 완벽한 해법이 없었으며, 본 연구에서 해결전략을 제시한다.


▶ 뇌기반 인공지능 기술


인간의 지능을 인공지능의 틀 안에서 해석하는 새로운 패러다임의 기술이다. 이상완 교수 연구팀은 관련하여 다양한 원천기술을 보유하고 있는 국내 유일의 연구팀이다. (최근 5년간 국내 및 해외 관련 특허 출원 약 20여건)


Markov 의사결정 프로세스 관점에서 인간의 문제 해결 환경을 형식화하고, 인공지능으로 표현될 수 있는 다양한 계산적 가설을 구분할 수 있도록 인공지능 이론을 이용해 실험환경을 최적화한다. 이 실험 환경을 이용해 피험자의 문제 해결 과정에 대한 행동 데이터와 뇌 데이터를 모은다. 이후 데이터를 설명할 수 있는 새로운 인공지능 모델을 도출한다.


이 기술을 이용하면 인간의 복잡한 문제해결 과정을 수학적으로 간결하게 정의된 인공지능의 관점에서 해석할 수 있다 (“어떻게”). 또한 인간의 지능이 형성된 이유를 인공지능 관점에서 해석할 수 있다 (“왜”).


뇌기반 인공지능 기술이 가진 가장 큰 잠재력은 - 도출된 모델은 문제해결 관점에서 일종의 ‘가상의 인간’이라 볼 수 있으므로, 아직 인간이 겪어보지 못한 새로운 시뮬레이션 환경에서 어떻게 행동하는지 다양한 실험이 가능하다 – 는데 있다.


▶ 메타 강화학습 모델


이번 연구에 사용된 모델은 알파고 제로에 사용된 가치망 기반의 모델 프리 강화학습과 문제 환경의 특성을 예측하는 모델 기반 강화학습 알고리즘을 유동적으로 조합한다. 두 가지 문제 해결전략은 각자 다른 과소적합-과적합 또는 편향-분산 특징을 가지고 있으므로 많은 경우 상호 보완적이다. 모델은 상황에 맞게 학습하는 방법 자체를 연속적으로 학습한다는 점에서 `학습의 학습', 메타 학습이라 불린다.


a814e5ed709d4ab5e42048188938db8d_1641424987_693.png 

그림설명:

본 연구를 통해 도출된 인간의 유동적 문제해결 방식을 모사하는 메타 강화학습 모델. 알파고 제로에 사용된 모델 프리 강화학습와 문제환경의 구조/상대방의 전략을 예측하는 모델 기반 강화학습을 유동적으로 조합한다. 두 문제 해결전략은 각자 다른 과소적합-과적합 또는 편향-분산 특징을 가지고 있으므로 많은 경우 상호 보완적이다. 인간은 현재 내가 사용하고 있는 문제 해결 방식으로 주어진 문제를 얼마나 잘 풀 수 있을지에 대한 기대치의 한계를 스스로 추정하고 (그림에서 “유동적 제어과정” 부분에 해당), 이를 바탕으로 연속적으로 문제 해결전략들을 조합하며 (그림에서 “학습전략 제어” 부분에 해당), 도출된 문제 해결전략을 이용해 실수를 줄여나간다 (그림에서 “가치판단 학습” 부분에 해당). 궁극적으로 모델은 서로 다른 “학습” 전략을 상황에 맞게 조합하는 방법을 “학습”한다는 점에서 “학습의 학습”, 메타 강화학습이라 불린다.

 

 

 

 

<저작권자 ©특허방송, 무단 전재 및 재배포 금지>

<저작권자 ©특허방송, 무단 전재 및 재배포 금지>