Jaka jest różnica między autonomicznymi a wspomagającymi urządzeniami medycznymi AI?
Termin „pomocniczy” odnosi się do systemów sztucznej inteligencji, w których lekarz podejmuje ostateczną decyzję medyczną na ich podstawie, podczas gdy termin „autonomiczny” jest zarezerwowany dla tych systemów, w których sztuczna inteligencja podejmuje ostateczną diagnozę medyczną i to twórca AI ponosi odpowiedzialność za wydajność AI, a nie użytkownik (1). Jeśli ktoś twierdzi, że sztuczna inteligencja jest autonomiczna, kolejnym pytaniem powinno być, czy odpowiedzialność spoczywa na użytkowniku (1).
Kto powinien odpowiadać za potencjalny błąd popełniony przez wyrób medyczny AI?
Wraz z kolegami wcześniej proponowaliśmy, aby twórcy autonomicznych systemów sztucznej inteligencji wzięli na siebie odpowiedzialność za szkody spowodowane przez diagnostyczne urządzenia, gdy są ono używane prawidłowo i zgodnie z jego wskazaniami (2). Artykuł stwierdza, że jest to niezbędne do ich stosowania: nieprawidłowe jest, gdy lekarze korzystający z autonomicznej sztucznej inteligencji do podejmowania diagnozy klinicznej, mogą jednak ponosić pełną odpowiedzialność medyczną za szkody spowodowane przez tę autonomiczną sztuczną inteligencję. Pogląd ten został niedawno poparty przez Amerykańskie Stowarzyszenie Medyczne w swojej polityce AI z 2019 roku. Taki paradygmat odpowiedzialności jest bardziej złożony w przypadku wspomagającej sztucznej inteligencji, gdzie odpowiedzialność medyczna może spaść tylko na usługodawcę, który z niej korzysta, ponieważ to on jest ostatecznie odpowiedzialny za decyzję medyczną (3).
Jakie są główne problemy związane ze sztuczną inteligencją i jak można się z nimi uporać?
Wszyscy interesariusze w systemie opieki zdrowotnej mają uzasadnione obawy dotyczące sztucznej inteligencji, którymi należy się zająć. Zainteresowane strony to pacjenci, organizacje pacjentów, lekarze i inni świadczeniodawcy, bioetycy, eksperci medyczno-prawni, organy regulacyjne, takie jak amerykańska FDA i amerykańska FTC i Wspólna Komisja oraz płatnicy, tacy jak CMS (Medicare i Medicaid) oraz prywatni płatnicy. Czy z zastosowania sztucznej inteligencji wynikają korzyści dla pacjentów lub populacji, takie jak poprawa wyników? Sztuczną inteligencję, która jest technologicznie atrakcyjna, ale nie oferuje korzyści pacjentom, nazwałem „AI z przepychu”. Czy zwiększa dysproporcje zdrowotne lub w inny sposób negatywnie wpływa na niektóre populacje? Czy istnieją uprzedzenia rasowe, etniczne lub inne w zakresie bezpieczeństwa lub skuteczności sztucznej inteligencji? Kto ponosi odpowiedzialność, jeśli coś pójdzie nie tak? Co dzieje się z danymi pacjenta, gdy wykorzystywana jest sztuczna inteligencja i w jaki sposób dane pacjenta są wykorzystywane w rozwoju i użytkowaniu?