본문 바로가기
카테고리 없음

인공지능 산업분석 - 1. 헬스케어 (14) AI 의료기기의 민형사상 책임 이슈

by 만배만 2024. 2. 25.

1.40. 인공지능 의료기기 민형사상 책임의 쟁점

AI 의료기기에서 인공지능은 인간의 사고 과정과 유사한 자율적 판단을 수행하는 주체이지만, 사람을 대상으로 하는 법적 책임주체는 될 수 없습니다. 이로 인해 AI 의료기기를 활용하여 진료하는 과정에서 좋지 않은 결과 즉, 사람의 생명, 신체 및 재산권에 침해가 발생하는 경우 SW 개발자, 의료기기 제조업자, 의사, 병원, 환자 등 어느 주체가 책임을 질 것인지가 불분명합니다.

 

AI 의료기기가 적용될 수 있는 관련 법령으로 지능형 로봇개발 및 보급촉진법이 있지만, 동 법은 산업 진흥 차원에서 개발 및 보급에 초점을 둔 법률이기 때문에 이러한 쟁점을 규정하고 있지 않습니다. 또한, 아직까지 국내에서는 인공지능 또는 로봇 공학의 이용에 따른 법적 책임 귀속 문제에 대한 논의가 활발히 전개되지 못하고 있습니다. 현행법은 사람을 행위주체로 규정하고 있기 때문에 인공지능의 행위능력을 직접적으로 인정하는 것은 부적절합니다. 이에 따라 인공지능의 판매·제작 혹은 사용 과정에 관여한 당사자가 안전한 설계의무, 윤리적 원칙의 알고리즘화, 관리의무 등을 위배한 것에 대해 법적 책임을 물어야 할 것입니다.

1.41. 민사상 책임 문제

◯ 통상 제조사로부터 물건을 구입하여 사용하던 중에 제조물의 결함으로 인해 이용자에게 생명, 신체, 재산상의 손해가 발생하는 경우 민법상 불법행위 책임(750)의 특별법으로서 제조물책임법이 적용됩니다. 제조물책임법에 따르면, 이용자는 민법상 손해배상 청구 시 요구되는 고의·과실 및 결과발생의 인과관계에 대한 입증 부담에서 해소되어 결함(제조상 결함·설계상 결함·표시상 결함)만을 입증하면 손해배상청구가 인용됩니다. 그런데 여기서 제기되는 문제는 AI가 무체물인 SW 형태로 구현되며, 이를 유체물을 대상으로 하는 제조물법상 제조물과 민법상 동산의 개념에 포섭시킬 수 있는지 여부입니다.

 

◯ 국내외 입법례 및 판례 등에서 다양한 찬반의견이 혼재되어 있으며, SW를 현행 민법상 동산이나 제조물책임법상 제조물로 보는 것은 확대 해석의 여지가 있습니다. 따라서 제조물책임법상 제조물 개념을 수정하거나 신규 법령을 신설하는 등 입법적 개선을 통해 인공지능 SW를 규율할 수 있도록 해야 합니다. 특히 AI, SW 알고리즘으로서 서비스 형태로 운용되기도 하지만, 로봇, 전자기기, 의료기기 등의 제조물에 내재(embedded)되어 작동하기도 하므로 이러한 다양한 형태의 비즈니스 모델을 포괄할 수 있는 해석 준칙도 마련해야 할 것입니다. 예를 들어, AI 의료기기 허가를 받은 딥러닝 기반의 초음파 기기(제품에 내재된 SW)와 의학 전문정보 검색 알고리즘(SW 프로그램)의 손해배상 책임 산정 범위를 달리 할 것인지 등의 문제가 제기될 수 있습니다.

1.42. 형사상 책임 문제

◯ 인공지능의 형사 처벌을 위해 법인에 대한 양벌규정(兩罰規定)’과 같은 형태로 부분적인 형벌능력을 고려해 볼 수 있으나, 이는 법인이 소유한 재산에 대한 제재를 가하는 취지의 규정으로서 재산을 소유할 수 없는 AI에 동일하게 적용하는 것은 어렵다고 할 수 있습니다.

 

◯ 20172EU 의회는 AI를 가진 로봇의 법적 지위를 전자인간(Electronic Person)’으로 인정하는 결의안을 통과시킨 바 있지만, 해당 결의안에서 로봇세기본소득 납세 의무에 관한 부분은 혁신을 제약할 수 있다는 취지에서 배제된 바, 완전한 권리 및 의무 주체로서 자격을 인정받았다고 볼 수는 없습니다. 향후 국내에서 AI의 책임능력을 구체적으로 논의하기 위해서는 법리적 관점에서 관련 근거 마련을 위한 이론적 연구가 더욱 심도 있게 이루어져야 할 것입니다.

 

◯ AI의 형사상 주체성은 인정할 수 없다고 하더라도 불법적 행위를 야기한 결과에 대한 책임을 지는 것은 법리적으로 충분히 가능하다고 판단됩니다. , AI의 설계자, 생산자, 판매자, 관리자, 이용자 등 배후의 주체에게 형사상 책임을 부여하는 것입니다. AI 배후의 책임자가 고의로 불법적 결과를 야기하였다면, 형법상 간접정범론 이론을 차용하거나 불법행위자가 AI를 수단으로 사용한 것으로 책임을 부여할 수 있습니다. 또한, 이용자가 판매 당시의 SW 알고리즘을 악의적 의도(고의)로 개조하거나 변형하여 이를 불법적 도구로 사용하였다면, 결과발생에 대한 책임은 이용자에게 귀속됩니다.

 

◯ 문제는 관리의무자의 과실로 인해 AI 시스템의 오작동 및 오류 등이 야기되어 피해가 발생한 경우 즉, 과실 책임의 경우입니다. 예를 들어, AI 의료기기가 단순 오작동으로 인해 불법적 의학정보 및 처방을 제시하였다면, 설계자, 제조사, 판매자, 이용자(AI 판단의 불법성을 검토하지 못한 행위에 대한 과실 책임) 등의 주체에게 형사적 책임을 지우는 것이 합당한 지,, 그렇다면 책임 배분을 어떻게 할 것인지, 입증책임을 전환할 것인지 등의 문제가 제기될 수 있습니다. 이에 대한 판단 시 통상 알고리즘의 윤리적 설계를 위해 상당한 노력을 기울였는지 여부, 좀 더 구체적으로는 안전성 검사 인증 여부, 제조사의 자체 윤리위원회 설치 여부 등을 종합적으로 고려할 필요가 있습니다. 이를 테면, 엄격한 성능 및 임상적 유효성 검증이 이루어진 AI 의료기기는 안전성 확인을 위한 노력과 의무를 이행한 것으로 볼 수 있어, 비의료기기인 경우보다는 제조·판매사 측의 책임이 경감될 여지가 있어 보입니다. 다만 여기서 형사상 책임에 대한 입증책임 전환, 세부적인 책임 배분 등의 구체적인 쟁점들은 학계에서의 충분한 논의 및 검토가 수반되어야 할 것입니다.