Mogą istnieć inne, jeszcze nieprzewidywane obawy. Jedynym sposobem rozwiązania tych znanych i nieznanych obaw są ramy etyczne dla sztucznej inteligencji, które zaczynają się od podstawowych zasad bioetycznych sprzed tysiącleci, takich jak autonomia, sprawiedliwość, dobroczynność i nieszkodzenie oraz odpowiedzialność. Mierząc, na ile dany system AI spełnia każdą z tych bioetycznych zasad, twórcy AI mogą budować systemy, które rozwiązują wszystkie obawy w sposób możliwy do udowodnienia (falsyfikowalny); nazywa się to miernikami etyki. Ja i inni publikowaliśmy obszernie na te tematy, w tym nt. ram etycznych dla sztucznej inteligencji, które same zostały wykorzystane do stworzenia rozważań regulacyjnych dla sztucznej inteligencji z amerykańską FDA oraz rozważania dotyczące zwrotu kosztówdla amerykańskiego CMS i innych płatników, i wszystkie one zostały pomyślnie zastosowane, co doprowadziło do zatwierdzenia przez organy regulacyjne i zwrotu kosztów autonomicznej sztucznej inteligencji w USA (1, 2, 3).
Z ram etycznych można wywnioskować, co następuje: Technologia sztucznej inteligencji wymaga również walidacji w ramach wstępnie zarejestrowanego, recenzowanego badania klinicznego prowadzonego w zamierzonych warunkach klinicznych, którego wyniki spełniają lub przekraczają wszystkie zaplanowane punkty końcowe. Na przykład, IDx-DR przekroczył wszystkie zaplanowane punkty końcowe z 87-procentową czułością, 91-procentową swoistością, z prawidłowym wynikiem diagnostycznym dla 96 procent badanych i dowiedziono, że nie ma uprzedzeń rasowych ani etnicznych. Wyniki te doprowadziły do uzyskania zgody FDA i pomogły zbudować zaufanie wszystkich interesariuszy z branży, ułatwiając przyjęcie autonomicznej sztucznej inteligencji do standardów opieki nad cukrzycą, refundację za pomocą kodu CPT 92229 w USA i powszechne przyjęcie systemu. Ostatecznym celem rozwoju sztucznej inteligencji jest poprawa wyników leczenia pacjentów poprzez zwiększenie dostępu, obniżenie kosztów i poprawę jakości opieki dostępnej dla osób, które jej najbardziej potrzebują.
Bibliografia
- MD Abràmoff et al., “Foundational Considerations for Artificial Intelligence Using Ophthalmic Images,” Ophthalmology, 129, e14 (2021). PMID: 34478784.
- MD Abramoff et al., “Diagnosing Diabetic Retinopathy with Artificial Intelligence: What Information Should Be Included to Ensure Ethical Informed Consent?” Front Med (Lausanne), 8 (2021). PMID: 34901083.
- DS Char et al., “Identifying Ethical Considerations for Machine Learning Healthcare Applications,” The American Journal of Bioethics, 20, 7 (2020).
- MD Abramoff et al., “Lessons Learned About Autonomous Ai: Finding a Safe, Efficacious, and Ethical Path through the Development Process,” Am J Ophthalmol, 214, 314 (2020).
- MD Abramoff et al., “A Reimbursement Framework for Artificial Intelligence in Healthcare,” NPJ Digit Med, 5 (2022). PMID: 35681002.
Jakie są główne wyzwania związane z dalszym rozwojem sztucznej inteligencji w najbliższej przyszłości?
Linda Zangwill
Opracowanie algorytmów sztucznej inteligencji do wykrywania jaskry jest teraz stosunkowo proste, jeśli dysponuje się odpowiednimi zestawami danych i zasobami obliczeniowymi. Jednym z głównych wyzwań we wdrażaniu sztucznej inteligencji w warunkach klinicznych jest zapewnienie, że algorytm jest możliwy do uogólnienia na populacje docelowe i nie będzie stronniczy ze względu na ograniczenia zestawu treningowego. Ocena możliwości uogólnienia wyników wymaga szeroko zakrojonych testów algorytmu AI na zewnętrznych zbiorach danych z różnych populacji. Kolejnym wyzwaniem jest ustalenie, jak zintegrować system AI i wyniki z praktyką kliniczną. Gdzie i jak należy umieścić wyniki algorytmu AI w elektronicznej karcie zdrowia lub systemie PACS, z którego korzysta klinicysta w rutynowym postępowaniu z pacjentami z jaskrą? Jakiego rodzaju informacje podsumowujące i/lub wizualizację wyników AI należy podać? Niezbędne jest określenie, w jaki sposób wyniki sztucznej inteligencji mogą być dostarczane w sposób łatwy i szybki w użyciu, aby zapewnić wartość dodaną i nie spowalniać sprawnego przepływu pracy klinicznej. Można opracować najlepszy algorytm sztucznej inteligencji, ale jeśli lekarze nie chcą lub nie mogą z niego korzystać, nie poprawi to opieki zdrowotnej. Inne wyzwania związane z rozwojem i wdrażaniem sztucznej inteligencji obejmują jak najlepiej otworzyć tzw. czarną skrzynkę, aby dostarczyć informacji o tym, jakiego algorytmu użył do podjęcia decyzji, a także kwestie medyczne, prawne, etyczne i dotyczące prywatności.