pexels-photo-4225880

Intelligenza artificiale e salute

Oggi negli ospedali, accanto ai tecnici ed ai medici, c’è una nuova figura “non umana”, l’Intelligenza Artificiale.

Discutevo con un’amica, riguardo a questo articolo: AN EPIC FAILURE: OVERSTATED AI CLAIMS IN MEDICINE

Questo mio articolo non entra sul discorso specifico dell’articolo in questione ma vuole dare un’infarinatura rapida di cosa è un’AI diagnostica e che limiti etici devono esserci: il tutto ponendoci un po’ di domande.

Cos’è un intelligenza artificiale diagnostica?

Sì tratta di un modello che utilizza machine o deep learning, per riconoscere la presenza di una determinata patologia, attraverso l’esperienza di un dataset di immagini preesistente, aggiornato costantemente. In teoria il sistema potrebbe usufruire di tutte le immagini presenti negli ospedali di tutto il pianeta. A questa immensa “cultura” però si oppongono i limiti di una macchina: non si tratta di esperienza umana, e dobbiamo tenerne conto.

Uno dei maggiori problemi dell’introduzione dell’AI in ambienti umanistici e medici è dovuta alla tendenza a considerare il “cervello elettronico” pensante e onnisciente. Le AI sono molto distanti da tutto ciò e devono essere considerate solo uno strumento di assistenza alla diagnosi in più per il medico.

Quanto è precisa un AI? Quanto sbaglia?

I valori di “confidenza” di un AI vengono ipotizzati con un sistema di immagini di test, per esempio se su 100 immagini in cui è stata diagnosticata una patologia (o no, si usano anche immagini negative per i test) l’AI la riconosce correttamente 80 volte su 100, quello strumento diagnostico potrà fornire una consulenza al medico, sulla base di questo dato statistico, su immagini nuove.

Quindi l’AI è tutt’altro che onnisciente: ha un margine di errore, che può diminuire con ulteriori addestramenti o migliorando la matematica del modello.

Il medico non deve quindi consultarla come un oracolo, ma come un parere esterno, che può coadiuvare o meno la diagnosi.

Okay, ma come la mettiamo se l’AI ci prende e il medico invece sbaglia?

Questo è uno dei temi etici più da discutere: prendiamo un caso drammatico, in cui il paziente muore. L’AI aveva diagnosticato una patologia, il medico ha ritenuto che non fosse così. Il paziente è morto.

L’AI diventerebbe un silenzioso accusatore della condotta del medico, i suoi consigli verrebbero portati in tribunale e cosa potrebbe il medico contro la supposta onniscenza di una macchina?

Il medico dovrebbe essere giudicato da una commissione di suoi pari, ma chi si metterà contro al computer?

La situazione si farebbe assai difficile e sarebbe difficile stabilire la responsabilità con sincera oggettività.

Questo cosa comporterebbe nel lavoro di tutti i giorni?

Se la prassi di dare ragione alla macchina venisse alla luce in qualche causa legale, probabilmente i medici si troverebbero ad assumere un comportamento difensivo: ogni diagnosi errata della macchina comporterà per i pazienti altri accertamenti ed esami, facendo collassare il sistema che si vuole sveltire.

L’AI sarà una seminatrice di dubbi in più e non una risolutrice di controversie.

L’unico modo di risolvere la questione è istruire. Istruire chi usa l’AI alla sua fallibilità. Istruire chi giudica eventuali errori a non tenere conto dell’AI come un oracolo e identificare se ci sono responsabilità oggettive del medico sull’accadimento.

Credo occorra una discussione molto profonda a livello medico e giuridico sull’etica da usare quando un’AI è coinvolta nel processo.

E voi, nel dubbio, vi fidereste più di un dottore o di un’AI?

One thought on “Intelligenza artificiale e salute

Lascia un commento