"AI, 의료계 효율성 향상 기대…가이드라인 마련 필수"
20일 국가생명윤리정책원 온라인 콜로키움, 연세대 김휘영 교수 발표
인공지능 기술이 갈수록 고도화하면서 다양한 산업군으로 퍼지고 있다. 최근에는 인공지능이 사람과 유사한 수준의 보고서와 논문 작성 뿐만 아니라 아이디어를 내놓기도 한다. 특히 ChatGPT가 등장하며 생성형 인공지능에 대한 관심이 뜨거운 가운데, 의료계에서도 대규모 생성형 인공지능 활용 방안 및 문제점에 대한 논의가 활발하다.
지난 20일 국가생명윤리정책원은 '보건의료 분야에서 대규모 생성 AI 개발 가능성과 활용 전망에 대한 사회적 수용성과 쟁점'을 주제로 진행한 온라인 콜로키움을 열었다. 연사로 나선 연세대 의생명시스템정보학교실 김휘영 교수는 대규모 생성형 인공지능이 의료계의 빠른 발전에 도움을 줄 것으로 전망했다. 다만 안전성 확보를 위한 가이드라인 마련이 필수적이라고 덧붙였다.
김 교수는 생성형 인공지능이 이미 수많은 데이터를 학습한 모델이라는 점을 강조하면서 기존 인공지능보다 의료 현장에 즉각 사용될 수 있으며, 업무 효율을 높이는 데 도움을 줄 수 있다고 주장했다.
김 교수는 “대규모 생성형 인공지능은 기존 인공지능의 패러다임에서 확장된 개념으로 의료, 경제, 금융 등 방대한 데이터를 사전에 학습했다"며 “이를 통해 저연차 레지던트나 의대생도 요약, 진단하기 어려운 내용을 쉽게 해결할 수 있다”고 말했다.
그는 생성형 인공지능인 GPT-4를 이용한 논문을 예시로 들면서 “의사 업무 중 하나인 임상기록(Clinical note)를 작성한 다음 인공지능에게 요약을 해달라고 요청하면 구체적으로 이를 수행한다”며 “임상기록에 대한 검토도 가능해 더 필요한 정보를 알려주거나 빠진 내용을 확인하는 데 이용할 수 있다”고 설명했다.
이어 《네이처(Nature)》에 발표된 대규모 생성형 인공지능인 '제너럴리스트 의료 인공지능(GMAI)'에 대해 “GMAI는 영상, 오디오, 전자의료기록(EHR) 등을 이용할 수 있어 의사가 수술을 하다가 화면을 설명하라고 지시할 경우 혈관에 생길 수 있는 문제점, 근처 장기에 대한 상황 등까지 알려줄 수 있다"며 “사람이 직접 판단하며 수술을 하겠지만, (의사가 내리는 판단에) 더 확신을 주는 보조적 수단으로 활용 가능하다”고 말했다.
진료나 연구에 활용 범위가 넓어 이점이 많은 대규모 생성형 인공지능이지만 정확성에 대한 한계도 지적됐다.
김 교수는 인공지능의 할루시네이션(Hallucination)을 주의해야 한다고 조언했다. 환청이나 환각을 뜻하는 할루시네이션은 인공지능이 학습한 데이터를 임의로 조합해 잘못된 정보를 만드는 현상이다.
그는 “논문 레퍼런스를 생성형 인공지능에게 찾아달라고 했을 때 그럴싸하게 정보를 합쳐 (논문 저자, 제목 등을) 재생산한 뒤 거짓 정보를 알려주기도 한다”며 “전반적인 레퍼런스 구조를 봤을 때는 진짜같지만 학습된 지식을 바탕을 조합한 것이므로 가짜 정보인지 구별해내야 한다”고 말했다.
인공지능 활용을 확대하기 위해서는 가이드라인 확보가 우선이라는 지적도 나왔다. 김 교수는 인공지능 활용시 안전성 보장할 수 있는 규제가 필요하다고 강조하면서 의료 전문가들이 활용 지침을 마련에 적극적으로 나서야 한다고 주장했다.
인공지능 활용법과 리스크에 대한 가이드라인을 만들어 안전성을 확보하고 지속적인 모니터링, 갱신이 필요하다는 지적이다.