정채연 포스텍 인문사회학부 교수
정채연 포스텍 인문사회학부 교수

의료는 4차 산업혁명 시대의 핵심 기술들이 결합하는 대표적인 분야로 이해된다. 최근 의료분야에서는 인공지능은 물론 사물인터넷, 빅데이터, 클라우드 컴퓨팅 등 지능정보기술의 활용이 급속히 증대되고 있다. 이에 따라 진단 보조 시스템, 의료영상 진단 시스템, 웨어러블 디바이스 등에서 인공지능 기술이 본격적으로 활용되고 있다. 이렇듯 의료 인공지능(Medical AI)이 상용화됨에 따라 의료 인공지능의 윤리적 쟁점 역시 주목받고 있다.

먼저 인공지능 기술에 기반한 의료서비스가 사회적 평등에 기여할지 오히려 사회적 약자의 차별을 공고히 할지에 대해 상반된 의견이 제시되고 있다. 곧, 모든 사회구성원에게 공평하게 분배되어야 하는 의료서비스의 공공성을 고려할 때, 의료 인공지능 산업의 촉진이 의료 불평등을 심화시킬지도 모른다는 우려가 사회윤리적 차원에서 제기되는 것이다. 의료 인공지능을 활용한 의료서비스가 모든 사회구성원에게 적절하게 제공되지 않는다면 의료 격차(medical divide)를 심화시킬 가능성 역시 배제할 수 없는 것이다. 특히 의료 인공지능이 활용되어 의료비용이 절감됨으로 인해 발생하는 잉여 의료자원을 어떻게 재분배할 것인지가 논의의 대상이 된다. 의료 인공지능의 활용에 따른 사회경제적 불평등의 문제는 비단 한 국가 내에서만 논의될 수 있는 것이 아니라 전 세계적 차원에서도 검토되고 있다. 의료 인공지능의 발전이 의료 자원이 열악한 저개발 국가의 보건의료 수준을 높이고 전반적인 세계 보건의료 상황을 개선하기 위한 동력이 될 수 있도록, 이른바 ‘개발을 위한 인공지능(AI for Development)’이라 지칭되는 일련의 노력이 국제연합(UN)을 중심으로 관찰되고 있기도 하다.

또한 인공지능 기술의 도입이 환자의 존엄성을 훼손하고 의료의 기계화(비인간화) 및 객체화로 나아갈 수 있다는 우려 역시 제기된다. 이때 (웨어러블 디바이스 등을 통해 개인의 방대한 사적 정보가 수집되고 평가됨에 따른) 몸의 정량화·규격화·등급화·계급화와 사회적 차별의 문제가 고려되어야 할 것이다. 예컨대 몸에 대한 정량적·계량적 데이터가 부정한 목적으로 사용되어 유출될 경우, 고용차별 등 사회적 차별을 낳는 기제로 작용할 수도 있다고 비판받는다. 특히 유전체 정보 역시 중요한 의료 데이터로써 활용되고 있다는 점을 고려했을 때 이에 대한 섬세한 접근이 요청된다고 할 것이다.

나아가 인공지능 알고리즘에 내재하는 편향성 문제는 보건의료 영역의 특성상 간과되어서는 안 될 것이다. 사회적 약자에 대한 편향 및 차별을 담고 있는 의료 데이터를 바탕으로 학습한 의료 인공지능은 외견상 중립성의 배후에서 불평등을 자동화하고 재생산할 수 있다는 우려로부터 자유롭지 않다. 인종, 민족, 젠더, 사회경제적 차이 등에 대한 사회문화적 편견 및 선입견이 의료 데이터에 반영될 수 있고 이를 학습한 인공지능 알고리즘의 판단 결과에 영향을 미칠 수 있다는 우려가 제기되고 있는 것이다. 실제 보건의료의 보급 정도가 인종 및 민족 별로 상이하기 때문에, 의료 데이터의 누락이 필연적으로 존재하며 이에 따라 의료 인공지능의 알고리즘에 무의식적이고 비의도적인 편향이 이미 내재되어 있을 수 있다. 이로 인해 의료 데이터에 미처 반영되지 못한 이들을 소외시키는 결과를 초래할 수 있으며, 특정 사회집단을 배제한 왜곡된 데이터가 실제 인간에 대한 표준으로 설정될 수 있다는 비판적 우려가 제기된다.

이렇듯 의료 인공지능을 둘러싼 윤리적 문제는 공공성이라는 가치가 특히 강조되는 의료 분야의 특성을 고려할 때 신중하게 고려되어야 할 것이며, 의료 인공지능에 대한 사회적 수용성을 확보하기 위해서도 필수적으로 요청되는 선결과제라고 하겠다.

***이 글은 필자가 “의료 인공지능의 법적 수용을 위한 시론적 연구”(법학논총, 2021)에서 제시한 일부 내용을 칼럼 형태로 재구성한 것임을 밝힌다.

저작권자 © 경북일보 무단전재 및 재배포 금지