카이스트 보이콧 인공지능 전문가 “킬러 로봇 막아야”

카이스트의 인공지능(AI) 무기 연구를 문제 삼은 해외 전문가가 인공지능을 이용한 자율 살상 무기의 위험성을 경고했다.

감성 디지털 동반자 과제 연구단(과학기술정보통신부 연구 개발 과제)은 21일 서울 웨스틴조선호텔에서 ‘인공지능 길들이기-공학, 윤리, 정책’ 컨퍼런스를 주최했다. 컨퍼런스에는 토비 왈시(Toby Walsh) 뉴사우스웨일스 대학 교수가 ‘자율적 살상 무기, 인공지능 연구자는 무엇을 해야 하는가?’를 주제로 발표에 참여했다.

왈시 교수는 지난 4월 초 한국과학기술원(KAIST)과 한화시스템이 공동 진행하려 한 인공지능 무기 개발 연구 과제를 문제 삼으며 KAIST와의 국제 공동 연구를 보이콧하겠다고 선언한 바 있다. 당시 29개국 연구자 57명이 “카이스트가 군사용 인공지능 킬러 로봇을 개발할 가능성이 있다”며 보이콧 성명에 참여했다.

왈시 교수는 “많은 사람이 인공지능 무기를 얘기할 때 터미네이터를 상상하지만 이는 아주 먼 미래의 일”이라며 “우리가 걱정하는 건 아프가니스탄 등에서 군인들이 사용하는 반자율적 드론 기술”이라고 강조했다. 왈시 교수는 “인공지능 기술이 발달해 완전히 자율적으로 활동하는 드론(autonomous robot)을 쓰게 된다면 해킹 위협 등 더 큰 위험이 찾아올 것”이라고 했다.

왈시 교수는 카이스트 인공지능 연구 보이콧 건을 놓고서 “카이스트가 유엔(UN)이 금지하는 인공지능 자율 살상 무기를 연구하려한 것이 문제라고 생각했다”며 “전 세계적으로 존경받는 연구 기관이 군비 경쟁에 참여하려는 모습에 개인적으로 실망하기도 했다”고 말했다.

하지만 왈시 교수는 “인공지능 연구자의 공개 보이콧 이후 카이스트가 즉각 답변을 줬다”고 했다. 왈시 교수는 “카이스트는 인공지능 연구를 이어가되 인간이 통제 가능한 범위 내에서만 진행하겠다고 약속했다”며 “이는 유엔의 권고 사항을 충분히 고려한 답변”이었다고 평가했다.

왈시 교수는 인공지능 자율 무기의 여러 문제점을 지적했다. 그는 ▲ 인공지능 자율 무기가 테러 단체의 무기가 될 가능성 ▲ 자율 살상 무기가 전쟁터에서 24시간 사용될 가능성 ▲ 더 많은 투자로 인공지능 기술이 발전해 단 한 명의 프로그래머만으로도 자율 무기를 작동시킬 수 있을 가능성 등을 언급했다.

왈시 교수는 인공지능 자율 무기가 한반도의 평화에도 위협이 될 수 있다는 언급을 덧붙였다. 왈시 교수는 “몇 주 뒷면 비핵화에 대한 더욱 명확한 대답이 나오겠지만 전 세계적으로 봤을 때 우리가 완전히 안전하고 평화로운 상태에 있다고 볼 수는 없다”며 “생화학 무기 사용에 대한 규제의 목소리가 있었던 것처럼 민간 기업의 ‘킬러 로봇’ 생산을 막도록 노력해야 할 것”이라고 강조했다.

한편, 왈시 교수는 지난 2015년 7월 인공지능 국제회의(IJCAI)에서 인공지능을 활용한 군사용 자율 로봇 상용화에 반대하는 서한 작성을 주도했다. 이 서한에는 2587명의 인공지능 로봇 개발자를 비롯해 엘론 머스크 테슬라 최고 경영자, 스티브 워즈니악 애플 공동 창업자, 고(故) 스티븐 호킹 교수 등 1만7972명의 유력 인사가 동의했다.

왈시 교수의 발표에 이수영 카이스트 인공지능연구소 소장(전기 및 전자공학부 명예교수)은 “카이스트 인공지능 연구 보이콧 사태에는 카이스트-한화 공동 연구 내용의 번역 과정에서 오해가 있었던 것으로 안다”며 “카이스트가 실제로 인공지능 자율 무기를 개발하려한 것은 아니라는 점을 정정해둔다”고 말했다.

[사진=Kletr/shutterstock]

맹미선 기자 twilight@kormedi.com

저작권ⓒ '건강을 위한 정직한 지식' 코메디닷컴(http://kormedi.com) / 무단전재-재배포 금지

광고
관련 기사