-
의료 인공지능의 법적 책임의료 인공지능 2025. 8. 14. 15:45
2024년, 한 해외 병원에서 의료 인공지능(AI) 기반 영상 진단 프로그램이 폐 CT 이미지를 분석한 뒤, ‘폐렴 가능성 없음’이라는 판정을 내렸습니다. 하지만 며칠 후 환자는 폐렴이 악화되어 중환자실로 이송됐고, 유족은 병원과 AI 솔루션 개발사를 상대로 소송을 제기했습니다. 이 사건은 단순한 오진 사례를 넘어 의료 인공지능(AI)이 의료 의사결정 과정에 참여할 때, 법적 책임이 누구에게 있는가라는 문제를 전 세계적으로 부각시켰습니다. 현재 의료 인공지능은 의사의 보조 도구로 사용되지만, 기술의 정확도가 높아지고 자율성이 커지면서 ‘의료 사고 시 책임 주체’에 대한 논의가 불가피해지고 있습니다. 이는 환자의 권리를 보호하면서도 혁신을 억제하지 않는 법적 균형을 찾는 과정이기도 합니다. 이번 글에서는 의료 인공지능의 법적 책임 구조에 대해서 구체적인 사례와 함께 알아봅시다.
의료 인공지능 법적 갈등 사례
의료 인공지능(AI) 판독 오류로 인한 사망 사건(미국)
2022년 미국 캘리포니아주의 한 종합병원에서는 AI 기반 흉부 X-ray 분석 솔루션이 도입된 지 6개월 만에 심각한 사건이 발생했습니다. 45세 여성 환자가 기침과 발열을 호소하며 응급실에 왔고, 흉부 X-ray 촬영 후 AI 판독 결과 ‘폐렴 소견 없음’이라는 보고가 즉시 의료진에게 전달됐습니다. 당시 응급실 의사는 환자 상태가 비교적 안정적이라 판단해 경구 약물만 처방하고 귀가시켰습니다. 그러나 3일 뒤 환자는 폐렴 악화로 호흡부전을 겪으며 사망했습니다.
유족은 병원과 AI 개발사를 상대로 의료과실 및 제조물책임 소송을 제기했습니다. 소송에서 유족 측은 AI가 폐렴 초기 징후를 놓친 것이 직접적인 원인이며, 병원 역시 AI 판독 결과에만 의존하고 재검증 절차를 소홀히 했다고 주장했습니다.
법원은 최종적으로 병원과 개발사 모두에게 공동 배상 판결을 내렸습니다. 병원은 의료진이 AI를 검증 없이 사용한 과실로, 개발사는 알고리즘이 드물게 나타나는 폐렴 패턴을 충분히 학습하지 못한 설계 결함으로 책임을 인정받았습니다. 이 사건 이후 미국에서는 AI 판독 보고서를 의무적으로 의사가 재검토해야 한다는 내부 지침을 마련하는 병원이 크게 늘었습니다.의료 인공지능(AI) 학습에 대한 환자 동의 법적 분쟁(영국)
2019년 영국 NHS(국가보건서비스)는 구글 딥마인드와 협력해 AI 기반 급성 신장손상(AKI) 예측 시스템을 시범 운영했습니다. 해당 AI는 환자의 혈액검사 결과와 바이탈 데이터를 실시간 분석해 AKI 위험도를 의료진에게 알려주는 시스템이었습니다. 그러나 프로젝트 초기에 환자 160만 명의 의료 데이터가 환자 동의 없이 AI 학습에 사용된 사실이 드러나면서 큰 논란이 발생했습니다.
영국 정보위원회(ICO)는 이 사안을 개인정보보호법 위반으로 판단하고, NHS와 딥마인드 모두에 법적 경고를 내렸습니다. 비록 환자 개별 식별 정보는 암호화 처리됐지만, 환자 동의 절차가 전혀 없었던 점이 문제였습니다.
이 사건은 의료 인공지능 프로젝트에서 데이터 활용 동의 절차가 법적·윤리적 핵심이라는 점을 부각시켰으며, 이후 NHS는 모든 AI 연구·개발 단계에서 ‘사전 동의(opt-in)’ 원칙을 적용하게 됐습니다.의료 인공지능(AI) 진단 보조 결과 오용 논란(한국)
2023년 국내 한 대학병원에서는 AI 병리 슬라이드 분석 솔루션을 사용해 암 조직 샘플을 판독하던 중 논란이 일었습니다. 해당 AI는 암 세포 가능성을 ‘낮음’으로 분석했지만, 실제 조직검사에서 진행성 암으로 판명된 사례가 있었던 것입니다. 의료진은 AI 결과를 참조했을 뿐 최종 판단은 자신들이 내렸다고 주장했지만, 환자 측은 의료진이 AI 결과를 지나치게 신뢰해 정밀검사 시기를 놓쳤다고 주장했습니다.
법적 공방 과정에서 쟁점이 된 것은 AI의 권한 수준이었습니다. 법원은 당시 AI가 ‘의사 보조’ 수준이었기 때문에 법적으로 최종 책임은 의사에게 있다고 판단했습니다. 그러나 재판부는 병원이 AI의 성능과 한계를 충분히 설명하지 않았음을 지적하며, 병원 측에 일부 배상 책임을 부과했습니다. 이 판결은 국내에서 AI 오진과 관련된 첫 법적 판단으로 기록됐습니다.
이 세 가지 사례는 공통적으로 AI의 정확성, 환자 동의, 최종 책임 주체가 법적 분쟁의 핵심 쟁점이라는 점을 보여줍니다. 앞으로 의료 인공지능이 더 자율적으로 발전하면, 책임 구조와 법적 안전장치에 대한 논의는 더욱 치열해질 것입니다.
의료 인공지능 법적 책임
의료 인공지능의 법적 책임 구조
의료 인공지능의 법적 책임 구조는 크게 세 가지 축으로 나뉩니다.
첫째, 의료인(의사)의 책임입니다. 현행 다수 국가의 법 체계에서 AI는 의사의 ‘보조 수단’으로 분류되기 때문에, 최종 진단과 치료 결정은 의사에게 귀속됩니다. 즉, AI가 잘못된 결과를 제공하더라도 의사가 이를 검토하고 승인했다면 의사가 1차 책임을 집니다.
둘째, 개발사(제조사)의 책임입니다. AI 시스템의 알고리즘 결함, 데이터 편향, 업데이트 누락 등 개발·유지보수 과정의 과실이 원인이 될 경우 제조물책임법(Product Liability Law)에 따라 개발사도 손해배상 의무를 질 수 있습니다.
셋째, 의료기관의 책임입니다. 병원은 AI 시스템 도입 시 성능 검증과 임상 적용 절차를 마련해야 하며, 관리·감독 의무를 소홀히 했다면 기관 차원에서도 법적 책임을 피하기 어렵습니다.국가별 법제와 사례 비교
국가마다 의료 인공지능의 법적 책임 배분 방식이 다릅니다.
- 미국: FDA(미국 식품의약국)가 AI 의료기기의 안전성과 성능을 사전에 심사하지만, AI가 자율적으로 결정을 내리는 경우에도 ‘최종 책임은 의사’ 원칙이 유지됩니다. 다만, AI 제조사의 과실이 명확하면 공동 책임이 적용됩니다.
- 유럽연합(EU): 2025년 시행 예정인 ‘AI 법(AI Act)’에서 의료 AI를 ‘고위험군’으로 분류해 엄격한 인증 절차와 사후 모니터링을 요구합니다. 제조사는 주기적 리스크 평가 보고서를 제출해야 하며, 오류 발생 시 책임 부담이 강화됩니다.
- 한국: 현재 의료 인공지능(AI)은 의료기기법과 의료법의 혼합 규제 대상입니다. AI가 단독으로 진단을 내리는 것은 불법에 가깝고, 모든 AI 결과는 의사의 판단을 거쳐야 합니다. 법적 책임은 원칙적으로 의사에게 있지만, 개발사와 병원이 관리 의무를 소홀히 하면 공동 책임을 지게 됩니다.
실제 사례를 보면, 미국에서는 의료 인공지능(AI) 판독 오류로 환자가 사망한 사건에서 개발사와 병원 모두 배상 판결을 받은 적이 있습니다. 반면, 한국에서는 아직 명시적인 판례가 없지만, 유사 사건 발생 시 의사-병원-개발사 간 복합 책임 구조가 적용될 가능성이 큽니다.
미래 전망과 제도 개선 방향
의료 인공지능의 법적 책임 문제는 단순히 ‘누가 잘못했는가’를 규명하는 데서 끝나지 않습니다. 환자의 신뢰 확보와 기술 혁신 유지라는 두 목표를 동시에 달성해야 합니다. 앞으로 고려해야 할 제도적 방향은 다음과 같습니다.
- 책임 분산 모델 도입 – AI, 의사, 병원이 공동으로 일정 비율의 책임을 지는 ‘공동책임형 모델’ 도입.
- 설명 가능한 AI(XAI) – AI의 판단 근거를 기록·제시하여 사고 발생 시 원인 규명이 용이하도록 함.
- 사전 인증·사후 모니터링 강화 – 초기 인증만 통과하면 끝이 아니라, 정기적인 성능 점검과 데이터 검증 의무 부과.
- 환자 동의 절차 개선 – AI 사용 여부, 역할, 한계에 대해 환자에게 충분히 설명하고 동의를 받도록 법제화.
이러한 개선이 이루어진다면, 의료 인공지능은 환자의 안전을 위협하는 요소가 아니라, 의료의 질과 효율성을 동시에 높이는 안전한 파트너로 자리매김할 수 있을 것입니다. 법적 책임 구조의 명확화는 AI의 신뢰성과 보급 속도를 결정짓는 핵심 요소가 될 것입니다.
'의료 인공지능' 카테고리의 다른 글
의료 인공지능의 약물 부작용 예측 (1) 2025.08.15 원격진료하는 의료 인공지능(AI) (3) 2025.08.14 심전도(ECG) 분석 의료 인공지능, 생명을 구하는 데이터 의사 (0) 2025.08.14 유전체 분석과 의료 인공지능(AI) (0) 2025.08.13 의료 인공지능 합병증 위험 분석 (3) 2025.08.13