Dzisiaj jest czwartek, 10 październik 2024r
Szukaj
Close this search box.

Walidacją algorytmów na rzeczywistych obrazach oka z heterogennych populacji

Opinie ekspertów

WSPÓŁCZESNE METODY NEUROPROTEKCJI W JASKRZE

Actual methods of glaucoma neuroprotections Streszczenie Jaskra to wieloczynnikowa choroba neurodegeneracyjna, która powoduje stopniowy zanik warstwy komórek zwojowych siatkówki i…

Forum kliniczne

Alergiczne zapalenie brzegów powiek – wybrane zagadnienia

Allergic blepharitis-select problems Streszczenie: Zapalenie brzegów powiek jest bardzo powszechnym schorzeniem.      Jego przyczyną mogą być także alergie. Choroby alergiczne oczu obejmują…

Opinie Ekspertów

WSPÓŁCZESNE METODY NEUROPROTEKCJI W JASKRZE

Actual methods of glaucoma neuroprotections Streszczenie Jaskra to wieloczynnikowa choroba neurodegeneracyjna, która powoduje stopniowy zanik warstwy komórek zwojowych siatkówki i…

Forum kliniczne

Alergiczne zapalenie brzegów powiek – wybrane zagadnienia

Allergic blepharitis-select problems Streszczenie: Zapalenie brzegów powiek jest bardzo powszechnym schorzeniem.      Jego przyczyną mogą być także alergie. Choroby alergiczne oczu obejmują…

Temat miesiąca

Sztuczna medycyna w okulistyce nr1 PO 2023

PO-1-2023_small

Walidacją algorytmów na rzeczywistych obrazach oka z heterogennych populacji

W związku z tym potrzebne są przyszłe badania nad walidacją algorytmów na rzeczywistych obrazach oka z heterogennych populacji, w tym obrazów dobrej i niskiej jakości. W przeciwnym razie możemy spotkać się z dobrą sztuczną inteligencją prowadzącą do nieprawidłowych wyników. Wybieranie przez autorów badań najlepszych wyników, co jest częstą praktyką, może jeszcze pogorszyć sytuację. Należy podkreślić, że algorytmy oparte na sztucznej inteligencji mogą zachowywać się nieprzewidywalnie, gdy są stosowane w warunkach rzeczywistych. Wykazano, że działanie algorytmu pogarsza się, gdy stosuje się go do obrazów generowanych przez inne urządzenie lub w innym środowisku klinicznym niż zestaw treningowy. Wszystkie te problemy mogą prowadzić do błędnej diagnozy i błędnych propozycji leczenia, podważając zaufanie do technologii sztucznej inteligencji. Wreszcie powinniśmy być w stanie wyobrazić sobie, że jeśli system sztucznej inteligencji popełni błąd, może zaszkodzić setkom, a nawet tysiącom pacjentów. Dlatego lubię cytować Tetlocka i Gardnera (Superprognozowanie), którzy powiedzieli: „Jeśli nie otrzymujesz informacji zwrotnej, twoja pewność siebie rośnie znacznie szybciej niż dokładność”.

Jedno z ostatnich niezależnych badań porównujących siedem różnych algorytmów wykazało, że jeden z testowanych algorytmów był znacznie gorszy od oceniających ludzi na wszystkich poziomach nasilenia retinopatii cukrzycowej – przeoczył ponad 25% przypadków zaawansowanej retinopatii, co może potencjalnie prowadzić do poważnych konsekwencji (1) . Badanie to wykazało możliwe problemy i zagrożenia bezpieczeństwa pacjenta związane z klinicznym wykorzystaniem niektórych algorytmów. Obejmują one ograniczenia związane z uczeniem algorytmu na określonej grupie demograficznej, obejmującej jednorodne pochodzenie etniczne, wiek, płeć, oraz jego dalsze wykorzystanie na innej populacji. Ponadto wiele badań wyklucza obrazy niskiej jakości, traktowane jako obrazy nie podlegające ocenie, oraz pacjentów ze współistniejącymi chorobami oczu, co sprawia, że ​​w mniejszym stopniu odzwierciedlają one warunki rzeczywistego życia.

Należy również pamiętać, że algorytmy AI można zaprojektować tak, aby działały w nieetyczny sposób. Na przykład oprogramowanie Ubera, Greyball, zostało zaprojektowane, aby umożliwić firmie identyfikowanie i obchodzenie lokalnych przepisów, a algorytm Volkswagena pozwalał pojazdom przejść testy emisji poprzez zmniejszenie emisji tlenku azotu podczas badań diagnostycznych. Co więcej, algorytmy wspomagające podejmowanie decyzji klinicznych mogą być zaprojektowane tak, aby generować większe zyski dla ich właścicieli, takie jak polecanie konkretnych leków, testów i nie tylko, bez świadomości samych lekarzy i pacjentów. Wreszcie, systemy sztucznej inteligencji są podatne na tzw. cyberataki, które mogą spowodować błędną klasyfikację informacji medycznych przez algorytm. Po więcej informacji na ten temat sięgnij do naszej najnowszej publikacji Sztuczna inteligencja w okulistyce (2).

1. Lee AY, et al. Multicenter, Head-to-Head, Real-World Validation Study of Seven Automated Artificial Intelligence Diabetic Retinopathy Screening Systems. Diabetes Care. 2021 May;44(5):1168-1175.

2. Artificial Intelligence in Ophthalmology, A. Grzybowski (ed), Springer 2021. https://link.springer.com/book/10.1007/978-3-030-78601-4

Sztuczna inteligencja: autonomiczna lub wspomagająca

  • Michael D. Abràmoff

    The Robert C. Watzke profesor okulistyki, profesor inżynierii elektrycznej i komputerowej oraz inżynierii biomedycznej, Klinika Okulistyki i Nauk Procesu Widzenia, Uniwersytetu Iowa, Iowa, USA

Jaka jest różnica między autonomicznymi a wspomagającymi urządzeniami medycznymi AI? Termin „pomocniczy” odnosi się do systemów sztucznej inteligencji, w których lekarz podejmuje ostateczną decyzję medyczną na ich podstawie, podczas gdy...

Ramy etyczne dla sztucznej inteligencji

Mogą istnieć inne, jeszcze nieprzewidywane obawy. Jedynym sposobem rozwiązania tych znanych i nieznanych obaw są ramy etyczne dla sztucznej inteligencji, które zaczynają się od podstawowych zasad bioetycznych sprzed tysiącleci, takich...

Co musisz wiedzieć o AutoML…

Michael F. Chiang Przedstawię kilka wyzwań: po pierwsze, tracimy wiele możliwości wykorzystania danych obrazu okulistycznego do opracowywania systemów sztucznej inteligencji, ponieważ dane te są zamknięte w zastrzeżonych standardach i niedostępne...

Jakie są dostępne typy Auto ML i czym się różnią?

Jakie są dostępne typy Auto ML i czym się różnią? Najbardziej oczywistym podziałem narzędzi AutoML jest środowisko, w którym wykonywane są obliczenia. W przypadku oprogramowania instalowanego na komputerach lokalnych, obliczenia...

Aktualne kalendarium

Konferencje

Polecamy