Poprawa transparentności i wyjaśnialności w dążeniu do godnych zaufania systemów wspomagania decyzji ze szczególnym uwzględnieniem medycyny

Identyfikator grantu: PT01190

Kierownik projektu: Jakub Buler

Politechnika Gdańska

Wydział Elektrotechniki i Automatyki

Gdańsk

Data otwarcia: 2024-10-11

Streszczenie projektu

Projekt koncentruje się na opracowaniu kompleksowego systemu wspomagania decyzji (DSS), który łączy techniki wyjaśnialnej sztucznej inteligencji (XAI) z kwantyfikacją niepewności (UQ) w celu poprawy wiarygodności. Głównym celem projektu jest stworzenie framework'u, który pozwoli na generowanie zarówno decyzji, jak i ich wyjaśnień, wraz z miarą pewności lub niepewności modelu. W ramach realizacji projektu planowane są następujące etapy:
1. Wybór odpowiednich metod XAI oraz UQ do podjętego problemu.
2. Opracowanie zintegrowanego framework'u łączącego XAI i UQ, z naciskiem na zwiększenie interpretowalności i niezawodności decyzji.
3. Walidacja empiryczna proponowanego rozwiązania na rzeczywistych zestawach danych medycznych i porównanie jego wydajności predykcyjnej z istniejącymi modelami.

XAI w aplikacjach medycznych to nie tylko wymóg techniczny, to swoisty łącznik, który może uczynić technologię bardziej godną zaufania w aplikacjach, w których stawką jest życie i zdrowie ludzi.. Często podkreśla się, że sztuczna inteligencja nie zastąpi specjalistów medycznych, ale wesprze ich i wzmocni proces podejmowania decyzji pod względem jakości i wydajności. Ogólnie rzecz biorąc, zastosowania XAI w dziedzinie badań medycznych systemów opartych na sztucznej inteligencji wydają się być komplementarne. Jednak po wejściu w życie ustawy o sztucznej inteligencji (EU AI Act) z 1 sierpnia 2024 r., prawdopodobnie staną się one bardziej powszechne. UQ to proces estymacji niepewności predykcji modelu AI. Integracja UQ z XAI może ułatwić opracowanie modeli bezpieczniejszych do użytku klinicznego. W kontekście aplikacji modeli w diagnostyce medycznej, UQ może być skutecznym rozwiązaniem istotnego problemu związanego z modelami głębokiego uczenia. Mianowicie, ich tendencja do wykazywania nadmiernej pewności siebie nawet w przypadku błędnych predykcji jest zjawiskiem powszechnym. W ten sposób model będzie w stanie wyrazić swoją niepewność decyzji, która może wynikać ze specyfiki danych uczących, struktury modelu bądź innych źródeł.

System wspomagania diagnozy będzie dotyczył problemów takich jak nowotwór piersi, nowotwór jelita grubego, podtypowania molekularnego nowotworów oraz oceny predykcyjnej przerzutowości nowotworów. Ze względu na specyfikę podjętego problemu, dla realizacji projektu ważna jest współpraca między uczelniana Politechniki Gdańskiej z Gdańskim Uniwersytetem Medycznym, co jest zgodne z ideą Uczelni Farenheita. Rezultatem projektu będzie opracowanie systemu AI, który nie tylko przewiduje wyniki, ale także wyjaśnia swoje decyzje oraz określa pewność swoich prognoz. To z kolei może przyczynić się do większej adopcji AI w medycynie i poprawy jakości opieki nad pacjentem.


← Powrót do spisu projektów

KONTAKT

Nasi konsultanci służą pomocą przyszłym i początkującym użytkownikom specjalistycznego oprogramowania zainstalowanego na Komputerach Dużej Mocy w Centrum Informatycznym TASK.

Kontakt w sprawach Komputerów Dużej Mocy, oprogramowania/licencji, grantów obliczeniowych, sprawozdań:

kdm@task.gda.pl

Administratorzy odpowiadają na maile w dni robocze w godzinach 8:00 – 15:00.