인공 지능 (AI)은 역동적으로 발전하고 있으며 의학의 미래입니다. 그러나 인공 지능을 정의하는 국제적 수준의 규정, 특히 법적 정의가 아직 부족하므로 AI 지원 장비를 사용할 때 발생할 수있는 의료 오류에 대한 책임 문제에 대한 명확성이 있습니다.
의학에서 AI의 잠재력
인공 지능이 지원하는 진단 도구는 의료 서비스의 품질과 효율성을 높입니다. 이들은 주로 환자를 면담하고, 검사 결과를 분석하고, 치료받은 사람의 상태를 모니터링하고, 적절한 진단을 내리기 위해 의사가 다른 많은 활동을 수행하는 데 사용됩니다. 그들의 적절한 기능은 주로 환자에 대한 특정 데이터를 포함하여 많은 양의 다양한 정보에 달려 있습니다.
-그러한 정보에 대한 통제되지 않은 접근은 개인의 개인적 이익에 해를 끼칠 수 있습니다. 환자 정보 자원을 공유하고 싶지 않은 개인 의료 서비스를 제공하는 센터 (Kancelaria Prawna Chałas i Wspólnicy의 Associate, Konrad Jagocha)는 데이터 축적에 회의적입니다.
여러 AI 시스템이 이미 의학에서 사용되고 있습니다. 그중 하나는 DXplain입니다.이 프로그램은 환자에서 관찰 된 일련의 증상을 분석 한 후 가능한 진단 목록을 제공합니다. 그러나 최종 선택은 의사에게 맡깁니다. Germwatcher도 주목할 가치가 있습니다. 입원 자의 감염 가능성을 감지, 추적 및 검사하는 실험실 정보 시스템입니다.
로봇 수술 시스템의 도입은 확실히 돌파구였습니다. 로봇 팔, 정밀한 움직임 및 자기 비전과 함께 DaVinci 시스템을 사용하여 임상의는 표준 시술로는 불가능한 수술을 수행 할 수 있습니다.
규제 필요
유럽 의회는 유럽 경제 사회위원회와 함께 인공 지능에 대한 정확한 정의를 내놓을 필요가 있다고 지적합니다. 높은 엄격 성의 요구 사항을 충족해야하며, 따라서 추가적인 모호성, 의심 또는 법적 허점을 도입해서는 안되며 향후 AI 기술의 잠재적 개발을 방해하지 않을 정도로 기술적으로 "개방적"이어야합니다.
합법적 인 AI의 정의를 통해 AI 지원 기계를 사용할 때 발생하는 의료 오류에 대한 책임이 누구인지 식별 할 수 있습니다.
-민법의 규정에 따라 주어진 법인에 책임을 할당 할 수 있으려면 특히, 전제 중 하나, 그의 행위 또는 부작위와 피해가 발생한 사건 사이의 적절한 인과 관계. 인공 지능으로 인한 활동에 대해 독립 체에 민사 책임을 부여하는 것은 매우 어려운 것 같습니다. 의사는 자율적 인 개인의 의도를 예측할 수 없습니다. 이것은 의학에서 AI 사용에 반대하는 사람들 (Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy)이 특히 주목하는 문제입니다.
인공 지능 자원을 가진 기계에 의한 진단 개발이 의사보다 통계적으로 더 효과적이고 빠르다는 점도 주목할 가치가 있습니다. 그러나 전문가들은 의료 분야의 AI는 모든 중단이 가져올 수있는 영향의 중요성 때문에 지속적인 인간 감독하에 있어야한다고 강조합니다. 예를 들어 이는 의사가 저 위험 AI 연구 만 수행 할 수 있도록하는 미국 식품의 약국 (FDA)의 정신입니다.