전 세계 전문가들 토론 거쳐 ‘아실로마 합의’
연구이슈·윤리와 가치·장기이슈 등 3개 범주
|
세계의 인공지능 전문가들이 모여 인공지능 연구 지침 23가지를 만들었다. FLI 웹사이트
|
인간보다 우수한 능력을 갖춘 인공지능 로봇이 인간을 공격하는 모습은 SF영화에 단골로 등장하는 장면이다. 예컨대 시리즈물로 나온 영화 <터미네이터>에선 미래의 인공지능이 현재의 인간을 공격하려 시간을 거슬러 나타나고, <매트릭스>에선 인간의 기억마저 인공지능이 조작한다. 최근 급속히 발전하는 인공지능 기술을 보면서 많은 사람들이 머지 않은 장래에 SF의 상상력이 현실이 될지도 모른다는 생각을 갖기 시작했다.
그런 일이 일어나지 않으려면 어떻게 해야 할까? 세계 유수의 인공지능 전문가들이 얼마전 미국 캘리포니아의 휴양지 아실로마에서 ‘이로운 인공지능 회의’(Beneficial AI conference)를 열고 가이드라인을 만들었다. 이름하여 ‘미래 인공지능 연구의 23가지 원칙’이다. 우주물리학자 스티븐 호킹, 전기차업체 테슬라 최고경영자 일론 머스크, 세계 바둑 최강자를 깬 알파고의 개발책임자 데미스 허사비스 딥마인드 CEO, 레이 커즈와일 구글 기술이사 등 전문가 수백명이 동의의 뜻으로 서명을 마쳤다.
|
아실로마원칙에 서명한 스티븐 호킹, 일론 머스크, 레이 커즈와일(왼쪽부터). 위키미디어 코먼스
|
회의 장소 이름을 따 ‘아실로마 AI 원칙’( Asilomar AI Principles)이라고도 불리는 이 원칙은 연구 이슈(5개항), 윤리와 가치(13개항), 장기 이슈(5개항) 3개 범주로 구성돼 있다. 이번 회의를 주최한 비영리단체 ‘삶의 미래 연구소’((Future of Life Institute, 이하 FLI, http://futureoflife.org/)는 “우리는 이 원칙들이 인공지능의 힘이 미래에 어떻게 모든 사람의 삶을 개선하는 데 사용될 수 있을지에 대한 열정적인 토론의 재료가 되기를 바란다”고 밝혔다.
가이드라인에 포함된 항목들은 100명이 넘는 참가자의 90% 이상으로부터 동의를 받은 것들이다. 학계와 엔지니어는 물론, 구글 공동창업자 래리 페이지를 포함한 기업인들을 합쳐 100명이 넘는 사람들이 회의에 참석했다.
|
아실로마회의에 참석한 인공지능 전문가들. FLI
|
가장 눈에 띄는 항목은 마지막 23번째 원칙으로 제시된 ‘공동선’(Common Good)이다. 초지능은 널리 공유되는 윤리적 이상을 위해서, 그리고 하나의 나라와 조직이 아닌 모든 인류의 이익을 위해서만 개발돼야 한다는 내용이다. 영국 옥스퍼드대 철학부 교수이자 인류미래연구소장을 맡고 있는 닉 보스트롬의 정의에 따르면 초지능이란 “과학적 창의성, 일반적인 지혜와 사회적 기술을 포함한 사실상 모든 분야에서 최고의 인간 두뇌보다 훨씬 똑똑한 지성“을 말한다. 이와 함께 인공지능에 대한 엄격한 감시와 관리, 기술 공유도 강조한다.
23가지 원칙의 주요 내용들은 SF작가 아이작 아시모프(Isaac Asimov)의 유명한 ‘로봇 3원칙’(Three Laws of Robotics)을 연상시킨다. 그는 1950년에 낸 저서 <아이 로봇(I Robot)>에서 로봇의 행동을 통제하는 원칙으로 세 가지를 제시했다. 첫째는 로봇은 인간에게 해를 끼쳐서는 안 되며, 위험에 처해 있는 인간을 방관해서도 안 된다는 것이다. 둘째는 로봇은 인간의 명령에 반드시 복종해야 한다는 것이다. 셋째는 로봇은 앞의 두 원칙에 위배되지 않는 선에서, 스스로 자신을 보호해야 한다는 것이다. 당연한 이야기이지만, 인공지능에 대한 강력한 통제와 인류의 이익을 강조한다는 점에서 서로 일맥상통한다.
|
영화 에서 로봇집사 자신을 구입한 주인 가족에게 로봇3원칙을 설명하는 장면. 위키미디어 코먼스
|
회의 참가자 중 한 명인 패트릭 린 교수(캘리포니아 폴리텍주립대)는 “인공지능이 단순히 인간의 결정을 자동화하는 것이라고 생각하는 건 전기가 양초를 대체하는 것일 뿐이라고 생각하는 것과 같다”고 <기즈모도>와의 인터뷰에서 말한다. 그는 “잠재적 위험이 막대하다는 점을 고려하면, 효율과 이익에 중점을 두는 시장경제가 인공지능을 이끄는 데 맞서, 인공지능 연구의 방향을 좋은 쪽으로 유도하는 데 도움이 되는 규범을 일찍 확립하는 것이 이해된다”고 덧붙였다. 아실로마 원칙들은 또 과학자들이 정부 및 법률가들과 긴밀하게 협력할 것을 요구했다. 사회가 인공지능 발전 속도와 보조를 맞출 수 있도록 하기 위해서다. 현재까지 이 원칙에 서명한 사람은 인공지능 및 로봇공학 연구자 800여명을 포함해 모두 2천여명에 이른다.
|
인공지능의 역습을 그린 미 드라마 의 한 장면.
|
23가지 원칙은 서문에서 인공지능 연구의 원칙을 만든 이유에 대해 “앞으로 수십년 또는 수백년 동안 사람들을 돕고 힘을 줄 수 있는 놀라운 기회를 제공하기 위해서”라고 밝혔다. 이어 인공지능 연구의 목적을 명확히 설정하는 것으로 시작해, 인공지능의 잠재적 위험을 경계하는 것으로 마무리를 했다. 제1항에서 “인간에게 이로운 지능을 만들어야 한다”고 강조한 뒤, 마지막 항목인 제23항에서 “ AI 시스템은 엄격한 통제 절차를 따라야 하며, 한 국가나 조직이 아니라 모든 인류의 이익을 위해서만 개발돼야 한다”는 선언으로 끝을 맺었다.
|
인공지능과 사랑에 빠진 인간. 영화 의 한 장면
|
◇인공지능 연구의 이슈 5가지
아실로마의 인공지능 개발 원칙 23가지를 구체적으로 살펴보자. 첫째 범주인 연구 이슈는 다섯 가지 항목으로 이뤄져 있다. ‘연구자는 인간에게 이로운 지능을 개발해야 한다’는 대원칙을 가장 먼저 앞세우고 있다. 투자 역시 이 분야에 집중돼야 한다고 밝혔다. 경쟁을 피하고 연구자와 정책입안자, 연구자들 간의 협력을 강조했다.
1. 연구목표 : 인공지능 연구의 목표는 방향성 없는 지능이 아닌 인간에게 이로운 지능을 개발하는 것이어야 한다.
2. 연구비 지원 : 인공지능에 대한 투자는 인공지능의 유익한 이용을 보장하는 문제에 대한 지원을 수반해야 한다. 여기엔 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 분야의 어려운 질문들이 포함된다. 예컨대 이런 것들이다.
- 우리는 미래의 인공지능 시스템을 얼마나 튼튼하게 만들수 있나? 그래서 오작동이나 해킹 없이 우리가 원하는 것을 인공지능이 수행하도록 할 수 있나?
- 우리는 인간 자원과 목적을 그대로 유지하면서 자동화를 통해 얼마나 더 번영해갈 수 있나?
- 우리는 인공지능과 보조를 맞추기 위해, 그리고 인공지능과 관련한 위험을 관리하기 위해, 법 체계를 얼마나 더 공정하고 효율적인 체계로 업데이트할 수 있나?
- 인공지능은 어떤 가치들에 맞춰 조정돼야 하며, 어떤 법적·윤리적 지위를 가져야 하나?
3. 과학과 정책의 연결 : 인공지능 연구자와 정책입안자 사이에 건설적이고 건강한 교류가 있어야 한다.
4. 연구문화 : 인공지능 연구자와 개발자 사이에 협력, 신뢰, 투명성의 문화가 조성돼야 한다.
5. 경쟁 회피 : 인공지능 시스템을 개발하는 팀들은 부실한 안전기준을 피하기 위해 능동적으로 협력해야 한다.
|
PIXABAY
|
◇지켜야 할 윤리와 가치 13가지
둘째 범주인 ‘윤리와 가치’는 13가지 항목으로 이뤄져 있다. 전체 23개 항목의 절반이 넘는다. 그만큼 인공지능 연구에서 가장 중요한 범주라는 뜻이다. 시스템의 안전과 시스템 설계·구축자의 책임을 강조하고 있다. 인공지능은 인간의 가치에 적합해야 하고 인간의 통제를 받아야 한다는 항목은 아시모프의 로봇3원칙을 그대로 이어받고 있다. 프라이버시 보호와 자동무기에 대한 경고를 특정해서 별도의 항목으로 밝힌 점이 눈에 띈다.
6. 안전 : 인공지능 시스템은 작동 수명 기간을 통틀어 안전하고 안정적이어야 하며, 어떤 경우에 적용·구현이 가능한지 검증할 수 있어야 한다.
7. 장애 투명성 : 인공지능 시스템이 피해를 유발할 경우, 그 이유를 확인할 수 있어야 한다.
8. 사법 투명성 : 사법적 결정에서 자동시스템이 개입할 경우, 권한이 있는 감사 당국에 만족할 만한 설명을 제공해야 한다.
9. 책임성 : 첨단 인공지능 시스템 설계자 및 구축자는 인공지능의 이용, 오용 및 행동의 도덕적 영향력에서 이해 관계자이며, 그에 따르는 책임과 기회를 갖고 있다.
10. 가치 정렬 : 고도의 자동 인공지능 시스템은 작동하는 동안 그 목표와 행동이 인간의 가치와 잘 어우러지도록 설계돼야 한다.
11. 인간의 가치 : 인공지능 시스템은 인간의 존엄, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되고 운용돼야 한다.
12. 프라이버시 : 인공지능 시스템에 데이터를 분석·활용할 수 있는 권한을 부여할 경우, 사람에겐 그 데이터에 접근, 관리, 통제 할 수 있는 권리를 줘야 한다.
13. 자유와 프라이버시 : 개인 데이터에 대한 인공지능 적용이 사람들의 실제 또는 스스로 인지하는 자유를 부당하게 축소해서는 안된다.
14. 공동의 이익 : 인공지능 기술은 가능한 한 많은 사람들에게 이로움을 줘야 한다.
15. 공동의 번영 : 인공지능이 만들어내는 경제적 번영은 널리 공유돼, 모든 인류에게 혜택이 돌아가도록 해야 한다.
16. 인간통제 : 인간은 인공지능 시스템에 의사결정을 위임할지 여부와 그 방법을 선택해, 인간이 선택한 목표를 달성하도록 해야 한다.
17. 비전복 : 고도화된 인공지능 시스템을 통제함으로써 갖게 되는 힘은 사회의 건강도를 좌우하는 사회적, 시민적 절차를 뒤집는 것이 아니라 존중하고 개선해야 한다.
18. 인공지능 군비 경쟁 : 치명적인 자동 무기에 대한 군비 경쟁은 피해야 한다.
|
pixabay
|
◇장기적으로 염두에 둬야 할 5가지
셋째 범주인 ‘장기 이슈’는 5가지 항목으로 이뤄져 있다. 인공지능이 인류를 넘어 지구 생명 전체에 엄청난 영향을 끼칠 수 있다는 점을 항상 자각하고 있을 것을 촉구하고 있다. 장기적으로 초지능의 출현 가능성을 염두에 두고, 초지능이 인류에 해가 되지 않도록 ‘공동의 선’이라는 가치에 봉사하도록 개발할 것을 주문하고 있다.
19. 능력 경계 : 어떤 일치된 합의가 없으므로, 우리는 미래 인공지능 능력의 상한선에 관한 강력한 가정을 피해야 한다.
20. 중요성 : 고등 인공지능은 지구 생명의 역사에 중대한 변화를 가져올 수 있으며, 그에 상응하는 관심과 자원을 계획하고 관리해야 한다.
21. 위험 : 인공지능 시스템이 야기하는 위험, 특히 파국적이거나 실재하는 위험은 예상되는 영향에 맞춰 계획하고 완화하는 노력을 해야 한다.
22. 반복적 자기개선 : 급속한 양적, 양적 증가로 이어질 수 있는 방식으로 자기개선이나 자기복제를 반복적으로 하게끔 설계된 인공지능 시스템은 엄격한 안전 및 통제 조처를 받아야 한다.
23. 공동선 : 초지능은 오로지 널리 공유되는 윤리적 이상을 위해, 그리고 하나의 국가나 조직이 아닌 모든 인류의 이익을 위해 개발돼야 한다.
FLI는 2014년 3월 MIT 우주론자 막스 테그마크(Max Tegmark), 스카이프 공동창업자 얀 탈린(Jaan Tallinn) 등이 만든 단체로, 밝은 미래상을 개발하고 삶을 보호하기 위한 연구활동을 지원하는 것을 활동 목표로 삼고 있다. 스티븐 호킹, 일론 머스크 등이 과학자문위원으로 참여하고 있다.
곽노필 선임기자 nopil@hani.co.kr
▶곽노필의 미래창 바로가기 http://plug.hani.co.kr/futures
광고
기사공유하기