-
의료 인공지능과 법적 갈등의료 인공지능 2025. 8. 18. 14:38
의료 인공지능(AI)은 영상 진단, 병리 분석, 환자 모니터링 등 여러 영역에서 이미 사용되고 있으나 인공지능은 어디까지나 확률적 추론에 기반한 기술일 뿐, 100% 정확하다고 확신할 수는 없습니다. 실제 임상 현장에서는 인공지능이 질환을 놓치거나 잘못 예측하여 오진(misdiagnosis) 문제 등 법적 갈등이 발생하기도 합니다. 이 경우 환자에게 피해가 발생했을 때, 책임소재는 누구에게 있을까요? 의료 인공지능 개발사일까? 병원일까요? 해당 의료 인공지능을 사용한 의사 일까요? 아니면 환자 자신일까요? 의료 인공지능이 점차 확산되면서 전 세계적으로 법적 갈등 사례가 나타나고 있으며, 이는 의료 인공지능의 신뢰성과 확산에 중요한 시험대가 되고 있습니다. 이번 글에서는 의료 인공지능을 둘러싼 법적 갈등 사례에 대해서 자세히 살펴보겠습니다.
의료 인공지능 관련 법적 갈등 사례
사례 A|미국 암 치료 권고 AI의 부적절 권고 논란
- 사건 개요: 한 대형 병원은 암 치료 의사결정을 돕는 AI 권고 시스템을 도입했다. 병원은 시스템이 실제 환자 EMR·병리 보고·가이드라인을 바탕으로 치료 옵션을 제시한다고 홍보했다. 내부 점검에서 시스템이 드물지만 가이드라인과 상충하는 고위험 치료를 권고한 사례가 다수 발견되었다.
- 법적 쟁점: 병원은 “AI는 보조 도구이며 최종 결정은 의사”라고 주장하고, 환자 측은 “병원이 검증되지 않은 시스템을 과도하게 신뢰해 주의의무(duty of care)를 위반했다”고 다툴 소지가 있다.
- 당사자 주장 포인트:
- 원고(환자) 측은 검증·감독 실패, 설명·동의 미흡(“AI 사용 사실 및 한계 고지 없음”), 경고의무(failure to warn) 위반을 주장할 수 있다.
- 피고(병원/개발사) 측은 학술 가이드 준수, 의사 최종 판단, 학습 데이터 한계 고지 등을 근거로 과실 부인을 시도한다.
- 진행/결과: 여러 기관이 시스템 사용을 축소·중단했고, 일부 도입처는 내부 프로토콜을 개편했다(의사 이중 검토·적용 범위 제한). 대규모 공개 소송으로 확정된 판례는 드물다.
- 실무 교훈: 병원은 AI 권고를 ‘임상 경로’로 오인 적용하지 말아야 하고, 적응증·금기·예외 조건을 규칙 엔진으로 강제·록(log)화해야 한다.
사례 B|영국 증상체커 챗봇의 가슴통증 오분류 이슈
- 사건 개요: 한 증상체커 앱은 환자의 흉통·호흡곤란 문답을 바탕으로 불안장애 가능성을 먼저 제시한 사례가 보도됐다. 환자 커뮤니티는 심근경색 의심 증상이 저위험으로 변환되는 경우를 게시하며 문제를 제기했다.
- 법적 쟁점: 원격의료·디지털 헬스 서비스가 의료행위인지 상담·생활지침인지가 쟁점이다. 의료행위로 인정되면 더 엄격한 안전·설명·감독 기준이 적용된다.
- 당사자 주장 포인트:
- 원고 측은 고위험 증상(RED FLAGS) 미포착과 즉시 내원 안내 미흡을 핵심 과실로 본다.
- 피고 측은 “소프트웨어는 정보 제공 도구이며, 사용자는 고지된 경고문·면책 조항을 확인했다”는 점을 강조한다.
- 진행/결과: 규제기관의 점검 이후 저위험군 상향 이송 임계값 조정, “흉통=즉시 119/999 연락” 고정 배너 등 보수적 정책이 반영됐다.
- 실무 교훈: 소비자용 증상체커는 생명위협 증상에 과민하게 반응하도록 설계하고, 위험문구를 UI 최상단에 상시 노출해야 한다.
사례 C|일본 응급 CT 뇌출혈 누락 소송
- 사건 개요: 대학병원은 응급 CT에서 출혈을 자동 탐지하는 AI를 사용했다. AI가 음성(정상)으로 표시했고, 담당의사는 이를 참고해 보존적 치료를 유지했다. 환자는 수 시간 후 신경학적 악화를 겪었다. 가족은 병원·의사를 상대로 손해배상을 청구했다.
- 법적 쟁점: 표준진료수준(standard of care) 판단이 핵심이다. AI가 음성이라도 의사의 독자 판독 의무가 남는지, 고위험 임상상황에서 AI 음성 결과에 기댄 판단이 과실인지가 쟁점이다.
- 당사자 주장 포인트:
- 원고 측은 “AI 신뢰로 재촬영·추가 영상기법 미실시”, “신경과 협진 지연”을 주장한다.
- 피고 측은 “AI는 참고일 뿐이며, 초기 영상에서 출혈 징후가 불명확했다”, “추가 검사 적응증이 그 시점에 없었다”고 항변한다.
- 진행/결과: 공개 판결문은 제한적이다. 다수 사건이 조정·합의로 종결된 것으로 알려진다.
- 실무 교훈: 기관은 AI 음성이어도 고위험 증상에는 ‘반드시 재평가’(재촬영·타과 컨설트) 규칙을 프로토콜로 강제해야 한다.
사례 D|독일 유방암 스크리닝 위음성과 제조물책임
- 사건 개요: 스크리닝 프로그램에 도입된 CAD/AI가 악성 병변을 양성으로 표시해 수술 시기가 지연되었다는 이유로 환자가 병원과 제조사를 공동 피고로 소송 제기했다.
- 법적 쟁점: 유럽에서는 AI SaMD가 제품(Product)으로 간주되어 제조물책임이 적용된다. 결함(defect의 기준(설계·경고·제조)과 예견 가능 위험(foreseeability)이 쟁점이다.
- 당사자 주장 포인트:
- 원고 측은 “알고리즘이 특정 밀도 유방·특정 장비에서 성능 저하를 보이는데 이를 IFU(사용 설명서)에 충분히 경고하지 않았다”고 주장한다.
- 피고 측은 “해당 위험은 공지된 한계이며, 판독자는 이중 판독을 수행해야 했다”고 방어한다.
- 진행/결과: 개별 사건은 비공개 합의가 많고, 프로그램은 이중 판독+AI 보조 구조로 재설계되었다.
- 실무 교훈: 제조사는 하위군 성능(연령·장비·조영 여부)을 정량 공개하고, 경고·사용조건을 눈에 띄게 기재해야 한다.
사례 E|피부과 DTC(직접소비) 앱의 흑색종 누락
- 사건 개요: 사용자는 스마트폰으로 찍은 병변 사진을 앱에 업로드했고, 앱은 저위험으로 분류했다. 수개월 후 병변은 흑색종으로 진단됐다. 사용자는 소비자보호법과 의료과오를 근거로 청구했다.
- 법적 쟁점: 서비스가 의료행위인지 웰니스인지, 그리고 광고·표시상의 오인 가능성이 핵심이다. ‘진단’이라는 문구 사용이 법적 책임을 확대할 수 있다.
- 당사자 주장 포인트:
- 원고 측은 “의사의 진료 대체처럼 광고했다”고 주장한다.
- 피고 측은 “자가 체크 도구이며, 결과 화면에 의료기관 방문 권고·면책을 명시했다”고 항변한다.
- 진행/결과: 다수 국가에서 표현 수위 조정(‘의심 탐지’로 변경), 위험 병변 시 강제 예약 연동 같은 안전장치가 추가됐다.
- 실무 교훈: DTC 서비스는 진단·의료용어 남용 금지, 강제 이송 워크플로(고위험=진료 예약 버튼 고정)를 설계해야 한다.
사례 F|패혈증 예측 모델의 위음성
- 사건 개요: 병원은 EMR 기반 패혈증 위험 예측 모델을 가동했다. 모델이 저위험으로 표시한 환자가 몇 시간 뒤 패혈증으로 악화했고, 가족은 “모델 신뢰로 감시 강도가 낮아져 치료가 지연됐다”고 문제를 제기했다.
- 법적 쟁점: 업무 프로토콜이 모델 출력에 과도 종속되었는지, 모델 캘리브레이션·감시체계가 구축되어 있었는지가 쟁점이다.
- 당사자 주장 포인트:
- 원고 측은 “모델의 민감도가 낮았고, 병원이 그 사실을 인지했으면서도 경고 임계값을 높게 설정했다”고 주장한다.
- 피고 측은 “의사 경계감 저하가 원인”이며, 모델은 보조지표였다고 항변한다.
- 진행/결과: 여러 병원이 AUCPR·민감도 목표 재설정, 임계값 이원화(병동/ICU), 알림 피로 관리를 도입했다.
- 실무 교훈: 병원은 ‘알림→행동→결과’ 로그를 보관하고, 월 단위 재캘리브레이션·드리프트 감지를 수행해야 한다.
사례 G|자율 판독 안저 AI의 사용 한계 위반
- 사건 개요: 자율 판독이 허용된 안저 AI는 특정 촬영 조건·화질 기준을 충족할 때만 사용하도록 라벨링되어 있다. 일부 클리닉은 교육 미흡으로 저품질 이미지를 반복 판정했고, 위음성·위양성 혼선이 발생했다.
- 법적 쟁점: 라벨·사용설명서(IFU) 준수 여부와 사용자 교육 의무가 쟁점이다.
- 당사자 주장 포인트:
- 원고 측은 “장비·프로세스 교육 없이 사용했다”는 기관 과실을 주장한다.
- 피고 측은 “제품 라벨에 명시했고, 교육 패키지를 제공했다”는 점을 강조한다.
- 진행/결과: 프로그램은 촬영 품질 자동 평가와 불합격 시 판독 차단 장치를 추가했다.
- 실무 교훈: 자율 판독형 AI는 사용자 인증·교육 이수 연동, 품질 미달 시 강제 차단이 필수다.
사례 H|병리 슬라이드 AI의 지표 해석 오류와 합의
- 사건 개요: 병리 AI가 핵분열 지표·침윤 경계를 낮게 산정해 얕은 등급으로 분류했고, 보조요법이 지연됐다. 환자는 악화 후 재수술을 받았고, 병원·제조사 상대로 분쟁이 발생했다.
- 법적 쟁점: 설계결함 vs. 운용상 과실, 검증 데이터 외삽(다른 스캐너·염색)에서의 성능 저하는 예견 가능했는지가 초점이다.
- 당사자 주장 포인트:
- 원고 측은 “스캐너 교체 후 재검증을 하지 않았다”고 주장한다.
- 피고 측은 “표준 프로토콜에서 벗어난 사용”이라고 항변한다.
- 진행/결과: 다수 사건이 비공개 합의로 종결되고, 기관은 장비 변경 시 재검증 SOP를 의무화했다.
- 실무 교훈: 병리 AI는 스캐너·염색·해상도가 바뀌면 환자단위 검증을 다시 해야 한다.
사건 공통의 법리 포인트
- 학습 데이터 편향: 집단별 성능 격차가 발생하면 경고의무·설계결함 논쟁이 촉발된다.
- 설명가능성(XAI): 의사가 AI 판단 근거를 검토할 수 없는 구조는 주의의무 이행 입증을 어렵게 만든다.
- 레이블·IFU 준수: 라벨 한계를 벗어난 사용은 병원 쪽 과실 비중을 키운다.
- 표준진료수준(Standard of Care): “AI는 보조”라는 원칙에도, 고위험 상황에서 재평가를 생략했다면 과실 인정 가능성이 올라간다.
- 프로토콜·교육·감사로그: 병원은 임계값·알림정책·이탈 케이스 처리를 문서화하고, 로그 증거로 관리해야 방어가 가능하다.
분쟁 예방을 위한 실무 체크리스트
- 라벨 준수: 적응증·금기·촬영 품질 기준을 시스템 차단 로직으로 강제.
- 하위군 성능 공개: 연령·성별·인종·장비별 민감도/특이도 표를 IFU에 포함.
- 이중 안전장치: 고위험 증상군은 AI 음성이라도 재평가·재촬영·컨설트 필수.
- 학습·업데이트 거버넌스: 버전·데이터셋·캘리브레이션 변경 시 PCCP(사전 변경관리 계획) 준수.
- 환자 고지·동의: AI 사용 사실과 한계를 평이한 문장으로 고지, 동의 이력 저장.
- 모니터링: 월별 드리프트 지표(PSI 등), AUCPR/민감도 재측정, 알림 피로 관리.
의료 인공지능 관련 법적 책임 구조
오진 사례들을 종합해 보면, 의료 인공지능 법적 책임 구조는 다음과 같은 쟁점으로 나뉩니다.
- 의사의 책임 여부
대부분 국가에서 의료 인공지능은 ‘의사 보조 도구’로 정의됩니다. 따라서 의사가 의료 인공지능의 권고를 그대로 따랐더라도, 최종적인 의학적 판단 책임은 의사에게 있다고 보는 경우가 많습니다. - 병원·기관의 책임
병원은 의료 인공지능 시스템을 선택하고, 이를 임상에 안전하게 도입할 책임이 있습니다. 의료 인공지능을 맹목적으로 도입하거나, 업데이트·검증 과정을 소홀히 했다면 병원 운영자가 책임을 져야 한다는 판례가 늘고 있습니다. - 개발사·제조사의 책임
미국과 유럽에서는 의료 인공지능이 의료기기(Software as a Medical Device, SaMD로 분류되는 경우가 많습니다. 이 경우 제품 결함이 입증되면 제조사도 일정 부분 책임을 집니다. - 환자의 자기 책임
일부 국가에서는 환자가 의료 인공지능 도구의 권고를 단독으로 신뢰해 심각한 결과가 발생한 경우, 일정 부분 환자 본인의 책임을 인정하기도 합니다. 다만 의료 영역에서는 ‘환자는 전문가 조언을 신뢰할 수밖에 없다’는 이유로 환자 책임은 제한적으로만 인정됩니다.
국가 사례 유형 주요 법적 쟁점 책임 주체 논의 예방책 미국 암 치료 권고 AI의 부적절 치료 권고 환자 안전성, 검증·경고 의무 병원·의사(주의의무), 개발사(경고 미흡 시) 임상 가이드라인 준수 검증, 위험 권고 자동 차단 영국 증상체커 챗봇이 흉통을 불안장애로 오분류 AI가 의료행위인지 여부, 고위험 증상 안내 미흡 서비스 운영사, 병원(도입 시), 환자 책임 일부 제한 고위험 증상 시 즉시 응급 안내 고정, 보수적 분류 일본 응급 CT 뇌출혈 AI 누락 표준진료수준, 의사 독립 판독 의무 의사·병원(최종 판단 책임) AI 음성이라도 고위험군은 재평가·재촬영 프로토콜 독일 유방암 스크리닝 AI 위음성 제품 책임, 위험 고지 여부 병원(판독 관리), 개발사(경고·설계 결함) IFU에 성능 한계 명시, 이중 판독 체계 도입 미국/다국적 패혈증 예측 모델 위음성 모델 캘리브레이션, 경고 임계값 설정 병원(프로토콜 관리), 개발사(알고리즘 설계) 정기적 성능 재평가, 알림-행동 로그 관리 국제 (클리닉) 안저 AI 자율 판독의 부적절 사용 사용 설명서 준수 여부, 사용자 교육 병원·의사(교육 의무), 개발사(품질 차단 미비) 품질 저하 시 판독 차단, 사용자 인증제 글로벌 병리 분야 병리 슬라이드 AI 지표 오류 장비 교체 시 검증 의무, 설계 결함 병원(재검증 미비), 개발사(성능 저하 경고 부족) 장비 변경 시 재검증 SOP, 데이터 편차 관리 소비자 앱 (DTC) 피부암 앱 흑색종 오진 의료행위 여부, 광고 표현 책임 개발사(표시 과장), 환자(자가진단 의존 일부) 의료용어 제한, 고위험시 자동 진료 예약 연동 의료 인공지능 법적 갈등의 국제적 흐름
현재까지 판례를 종합해 보면, 미국과 유럽은 개발사에도 일정 책임을 묻는 방향으로 법리가 발전 중입니다. 한편, 일본과 한국은 의사·병원의 책임을 우선적으로 인정하는 경향이 강합니다. EU는 “AI 법안(EU AI Act)”을 통해 고위험군 AI 시스템에 대한 투명성·안전성 기준을 강화하고 있으며, 이를 위반하면 기업에 막대한 과징금이 부과될 수 있습니다. 미국 FDA도 AI/ML 기반 의료 소프트웨어에 대해 사전·사후 규제 체계를 구축하면서, 환자 안전 사고 발생 시 기업의 책임 범위를 확대하는 방안을 검토하고 있습니다. 반면 아시아 국가들은 아직 명확한 판례가 적어, 국제 논의와 선진국 판례를 참조하는 단계에 머물러 있습니다.
결국 의료 인공지능 법적 책임 문제는 단순히 기술적 논쟁이 아니라, 환자 안전과 권리 보장이라는 본질적 가치와 직결됩니다. 의료 인공지능 관련 법적 갈등 사례들을 교훈 삼아, 국제적으로 조화로운 법적 구조가 마련되어야 의료 인공지능이 진정으로 환자를 위한 혁신 기술로 자리 잡을 수 있을 것입니다.
'의료 인공지능' 카테고리의 다른 글
의료 인공지능으로 바뀌는 피부암 검사: 정확도와 실제 임상 성과 (0) 2025.08.19 의료 인공지능 기반 치과 진단, 환자 맞춤형 치료의 시대가 열리다 (0) 2025.08.19 의료 인공지능 알고리즘의 국제 표준화 (2) 2025.08.18 전자의무기록(EMR)을 분석하는 의료 인공지능 (3) 2025.08.17 정신건강과 의료 인공지능 (1) 2025.08.16