규제 없는 의료AI… “국민건강 해친다”
상태바
규제 없는 의료AI… “국민건강 해친다”
  • 이인문 기자
  • 승인 2023.03.22 14:56
  • 댓글 0
이 기사를 공유합니다

AI, 우선허용 사후규제로 산업 육성에만 ‘초점’… 충분한 사회적‧기술적 검토 ‘필요’
‘세계최초 인공지능법안, 세계의 걱정거리가 되려는가?’를 주제로 한 기자설명회가 오늘(22일) 참여연대에서 개최됐다.
‘세계최초 인공지능법안, 세계의 걱정거리가 되려는가?’를 주제로 한 기자설명회가 오늘(22일) 참여연대에서 개최됐다.

“검증되지 않은 의료 인공지능(AI)을 허용하는 것은 마치 신약을 제대로 테스트하지 않고 환자에게 투여하는 것과 다를 바 없는 매우 위험천만한 행위이다.”

지난달 14일 법안 7개가 병합돼 국회 과학기술정보방송통신위원회(이하 과방위) 법안심사소위를 통과한 「인공지능산업 육성 및 신뢰기반 조성 등에 관한 법률안(이하 인공지능법안)」이 3월 과방위 전체회의를 앞두고 있는 가운데 ‘우선허용 사후규제’를 명시한 인공지능법안이 국민 건강과 안전에 큰 위협이 될 거라는 주장이 제기됐다.

건강권실현을위한 보건의료단체연합(이하 보건연합) 전진한 정책국장은 오늘(22일) 참여연대 아름드리홀에서 개최된 기자설명회 ‘세계최초 인공지능법안, 세계의 걱정거리가 되려는가?’에서 발표를 통해 “제대로 검증되지 않은 의료 AI가 도입된다면 환자들의 생명과 건강을 침해하게 될 것”이라며 “충분한 사회적‧기술적 검토가 필요하다”고 강조했다.

전 국장은 먼저 의료 AI로 가장 잘 알려진 IBM 개발 ‘왓슨 포 올콜로지(이하 왓슨)’과 영국의 의료 챗봇서비스 ‘바빌론’의 사례를 들어 ‘우선허용 사후규제’를 적용하고 있는 인공지능법안의 위험성에 대해 설명했다.

그는 “왓슨은 의사가 암환자 데이터를 입력하면 치료방법을 제시하는 프로그램으로 IBM은 ‘암치료의 혁명’이라고 홍보했다”면서 “문제는 이 기술이 충분히 검증되지 않았다는 것”이라고 지적했다.

전 국장은 “왓슨은 안전하지 않고 부정확한 치료법을 추천, 폐암의 경우 정확도는 18%, 위암과 유방암의 정확도는 40%에 불과해 일부의 의사들이 ‘쓰레기’라고 부르며 경고했지만, 과장된 홍보로 암환자를 유인할 수 있고 AI를 쓴다는 이유로 추가비용을 청구할 수 있어 미국의 많은 병원과 한국에서도 길병원 및 부산대‧건양대‧대구가톨릭대‧계명대‧조선대‧화순전남대 등의 대학병원들이 앞다퉈 도입하면서 환자들을 유인했다”며 “최근 IBM이 왓슨을 헐값에 매각하면서 이 프로젝트는 실패로 끝났지만 이미 환자들에게는 부정적 영향을 마친 뒤였다”고 피력했다.

바빌론에 대해서도 전진한 국장은 “영국에서 AI 챗봇 ‘바빌론’은 환자를 미리 걸러 치료가 필요한 환자만 치료를 받게 해 국가 의료비용을 절감시키겠다고 약속, 영국 정부는 바빌론이 효과가 있다는 근거도 없이 승인했지만 실제로 바빌론은 불충분하거나 명백하게 잘못된 정보를 환자들에게 전달, 결국 지난해말 계약해지되고 말았다”면서 “AI는 여타의 의료기술들과 마찬가지로 충분히 검증하지 않으면 큰 문제를 일으키고 마는 것”이라고 덧붙였다.

전진한 정책국장
전진한 정책국장

이어 그는 “AI는 다른 의료기술보다 더 위험할 수 있고 윤리적 문제를 일으킬 수 있기 때문에 더더욱 충분한 사회적‧기술적 검토가 필요하다”며 의료 AI기술이 불러일으킬 수 있는 피해 사례들을 열거했다.

전 국장은 “의료서비스 제공자 개인의 오류와 달리 의료 AI 알고리즘에 오류가 있으면 단기간에 수천‧수만 명의 사람들에게 돌이킬 수 없는 피해를 줄 수 있다”면서 영국의 코로나19 애플리케이션이 실제 위험보다 5배나 더 오래 전염성이 있는 환자 곁에 머물게 하는 등 1,900만 명의 앱 사용자들에게 위험을 끼친 사례를 제시했다.

또한 전진한 국장은 “AI 기술은 불투명한 경향이 있고 ‘블랙박스’ 알고리즘을 사용, 의사결정 과정과 기준을 알기 어려워 오류를 교정하기 어려울 수도 있다”며 미국에서 골절로 입원한 노인환자에 대해 AI가 17일 후 퇴원할 수 있다고 예상, 보험사에서 알고리즘에 따라 치료비 중단을 했지만 당시 환자의 통증은 극에 달해 보험사의 결정을 뒤집는 법원 결정이 나기까지 1년이나 걸린 사례를 들었다.

아울러 그는 ▲의도적 설계나 기술적 오류가 아니라 사회적 편견이 의료 AI 데이터에 반영될 경우, 비슷한 수준의 의료서비스가 필요할 때도 백인 환자가 흑인 환자보다 더 아프다고 판단해 흑인에게 더 적은 의료서비스를 제공하는 등 차별과 편견을 강화할 수 있는 점 ▲개인정보 유출문제가 더욱 빈번해지고 AI 알고리즘에 대한 해킹공격으로 막대한 피해를 입을 수 있는 점 등을 들어 “AI 기술을 ‘우선허용 사후규제’하는 것은 말도 안 된다. 오히려 기존의 기술보다 더욱 엄격한 안전성과 효과에 대한 평가와 개인정보 보호를 위한 엄격한 기준 등 윤리적‧사회적 검토가 필요하다”고 밝혔다.

정보인권연구소 장여경 상임이사도 “자연인의 건강‧안전‧기본권에 고위험을 야기할 수 있는 AI 시스템은 사전 적합성 평가 수행이 요구된다는 등 AI의 위험도를 금지, 고위험, 저위험, 허용 등 4단계로 구분해 각각에 대한 규제사항을 구체적으로 규정하고 있고 미국에서도 주요 의사결정에 사용되는 AI 시스템의 책무성을 강화하기 위한 「알고리즘 책무성법안」과 빅테크 알고리즘의 편향성 및 표적광고를 규제하는 「연방상하원 6개 빅테크 규제법안」 의 패키지 입법을 추진하고 있다”면서 “현 시점에서 제정되는 인공지능법안은 적어도 AI의 위험을 효과적으로 규제하고 이를 위한 감독체계를 수립하며 피해자의 권리구제에 대한 내용을 구체화해야 한다”고 촉구했다.

민주사회를 위한 변호사모임 디지털정보위원회(이하 민변 디지털위) 김병욱 위원은 “AI 기술이 다양한 분야에서 매우 광범위하게 활용되면서 AI 기술을 탑재한 제품이 인간에게 위해를 가하는 등 신체의 안전을 위협할 가능성도 배제할 수가 없음에도 사전에 AI 기술의 위험성을 관리‧감독하거나 특정한 인증을 거치기 전에 제품을 출시할 수 없도록 하는 등의 규제를 마련하려는 시도를 제약하거나 무력화할 수 있다”고 과방위 통과를 앞둔 현재의 인공지능법안의 문제점을 비판했다.  

김병욱 위원
김병욱 위원

이날 설명회는 민변 디지털위, 정보인권연구소, 진보네트워크센터(이하 진보넷), 보건연합, 참여연대 등의 시민사회단체들이 공동으로 주최했으며, 참여연대 김태일 권력감시1팀장의 사회로 ▲진보넷 희우 활동가의 ‘인공지능법안의 제정 경과 및 주요 쟁점에 대한 개요’ ▲정보인권연구소 장여경 상임이사의 ‘고위험인공지능 분류 및 규제 관련 유럽연합과 미국 등 해외 입법례와 과방위 통과법안의 근본적 차이’ ▲참여연대 공익법센터 허진민 소장의 ‘과방위 통과법안의 독소조항 등 문제점’ ▲민변 디지털위 김병욱 위원의 ‘과방위이 통과법안이 타법과 충돌할 가능성, 타 규제기관의 작용을 방해하는 지점’ ▲보건연합 전진한 정책국장의 ‘보건 및 의료 관련 인공지능 적용사례를 통해 본 위험성과 특별한 규제 필요성’ 등의 발표가 펼쳐졌다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사