등록 : 2016.03.14 19:31
수정 : 2016.03.18 11:21
이세돌-알파고 15일 마지막 5국
② 사고나면 인공지능 책임? 연구진 책임?
③ 방대한 데이터 없으면 사실상 무용지물
이세돌 9단이 13일 알파고에 거둔 첫 승은 바둑사의 값진 승리일 뿐 아니라 인공지능의 미래를 가늠하는 데 있어서도 중요한 시사점을 던질 것으로 보인다. 앞서 열린 1~3국에서 뛰어난 능력을 보여준 알파고가 4번째 대국에서 드러낸 한계는 인공지능 기술이 지닌 치명적 약점을 함께 노출시켰기 때문이다. 이는 우리가 앞으로 인공지능을 받아들이고 적용하는 데 있어서 고민해야 할 세가지 논란 거리를 제시한다.
알파고는 4국에서 이 9단의 절묘한 78수 이후 ‘떡수’(이상한 수)를 연발하며 맥을 못췄다. 해설자들은 2국 때 몇몇 이상한 수를 두다가 결국 승리로 연결시킨 알파고의 신선한 수법들을 보았기 때문에 조심스럽게 접근하면서도 “이상하다”며 고개를 갸웃했다. 이번 결과는 알파고의 완패였다. 이는 알파고뿐 아니라 이런 류의 인공지능이 가지고 있는 결정적인 한계다.
알파고 시스템은 인간의 뇌를 흉내내 구조를 만들고, 여기에 방대한 양의 데이터를 입력한 뒤 컴퓨터가 스스로 법칙을 깨우치도록 하는 ‘머신 러닝’(기계학습) 방식을 따르고 있다. 덕분에 알파고는 마치 인간의 직관이 번뜩이는 듯한 바둑을 둘 수 있었던 것이다. 하지만 이 방식은 스스로 학습한 적이 없는 상황에 맞닥뜨릴 경우 터무니 없는 결과값을 도출한다는 치명적 단점이 있다. 그리고 이번 4국에서 이 치명적 단점이 드러난 것이다. 감동근 아주대 교수(전자공학과)는 “인공지능한테서 이런 어이없는 실수는 항상 튀어 나올 수 있다”고 지적했다.
인공지능의 이런 한계는 바둑 같은 게임에서야 큰 문제를 일으키지 않지만 다른 분야에선 인명 위협 등 심각한 상황을 불러올 수 있다. 앞으로 인공지능이 본격적으로 적용될 영역으로 꼽히는 군사무기, 의료진단, 무인자동차 등이 대표적인 예이다. 스티븐 호킹 같은 세계적 석학들은 인공지능의 군사무기 분야 적용에 대해 오래 전부터 경고했다. 구글이 현재 기술 적용을 실험하고 있는 의료진단과 무인자동차 역시 예외적 실수조차 용납될 수 없는 분야이다. 이에 대해 ‘알파고의 아버지’라 불리는 데미스 하사비스 구글 딥마인드 최고경영자(CEO)는 “알파고는 아직 프로토타입(시제품)”이라고 말했다.
두번째는 책임 문제다. 미래에 행여 이런 실수로 사고가 발생했을 때 그 책임은 누가 져야 할까? 이번 대결에서도 확인됐듯이, 사람들은 인공지능의 독립성을 무의식 중에 인정하는 경향이 크다. 알파고가 이 9단에게 이겼을 때 대부분의 언론이 ‘알파고를 만든 구글 연구진이 이 9단에 이겼다’고 하지 않고 ‘인공지능이 인간에게 이겼다’고 했다. 또 졌을 때도 ‘인간이 승리했다’고 했다. 승부의 책임이 온전히 알파고에 있는 것처럼 보인다.
역시 바둑과 같은 게임에선 큰 문제가 되지 않지만, 인명과 관련된 영역에선 인공지능의 실수가 발생했을 때 책임 문제를 놓고 큰 혼란이 일어날 가능성이 크다. 스스로 학습을 했으니 인공지능이 책임을 지도록 해야 할 것인가, 아니면 인공지능을 개발한 연구진에게 책임을 지워야 할 것인가. 인공지능 기술이 발전·확산하기 위해서는 먼저 이런 법적·윤리적 논란을 풀어야 할 것으로 보인다.
끝으로 알파고와 같은 인공지능은 기존에 기록된 방대한 양의 ‘데이터’가 없으면 무용지물이나 마찬가지라는 점도 논란 거리다. 하사비스 대표는 기자회견에서 알파고가 이세돌에 대비해 특별훈련을 받았는지를 묻는 질문에 “수백만개의 데이터가 없으면 하고 싶어도 못한다”고 말했다. 이 9단의 대국 기록이 얼마 되지 않아 불가능했다는 얘기다. 다시 말하면 현재의 인공지능 기술은 수백만개의 컴퓨터 데이터가 쌓여 있는 제한된 영역에서, 그런 ‘빅데이터’에 접근할 수 있는 이들만 활용이 가능한 기술이라는 뜻이다.
권오성 기자
sage5th@hani.co.kr
광고
기사공유하기