/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Algoritmi in medicina a rischio pregiudizi

AI

Algoritmi in medicina a rischio pregiudizi

Esperti, discriminate donne e minoranze per dati limitati da AI

17 maggio 2021, 10:11

di Pier David Malloni

ANSACheck

Algoritmi in medicina a rischio pregiudizi © ANSA/Bosch Press

Algoritmi in medicina a rischio pregiudizi © ANSA/Bosch Press
Algoritmi in medicina a rischio pregiudizi © ANSA/Bosch Press

Con sempre più applicazioni dell'intelligenza artificiale in medicina c'è il rischio che si ripetano le discriminazioni, ad esempio di genere o razza, già viste in altri campi. L'allarme è lanciato da due editoriali, uno sulla rivista Jama e l'altro su EBioMedicine, che chiedono una 'algoritmovigilanza' per valutare i rischi simile alla farmacovigilanza che si usa per terapie e vaccini. Il commento su Jama Network Open, di Peter Embi della Indiana University, parte da uno studio dei ricercatori Ibm pubblicato dalla stessa rivista che ha analizzato un algoritmo usato per determinare il rischio di depressione post partum in un campione di donne.

Dall'analisi è emerso che l'algoritmo, se non viene corretto, porta a discriminazioni nei confronti delle donne di colore, causate dal fatto che agisce in base a dati raccolti su una popolazione in maggioranza di razza bianca. "Le performance degli algoritmi cambiano se sono applicati con dati o impostazioni differenti, e in base alle differenti interazioni uomo-macchina - scrive Embi -. Questi fattori possono trasformare uno strumento benefico in uno che potenzialmente causa danni".

L'intelligenza artificiale è già entrata in uso in medicina, sottolineano due ricercatori dell'università di Stanford, Londa Schiebinger e James Zou, su EBioMedicine, con strumenti basati su algoritmi per la diagnosi di tumori, di malattie cardiache, di problemi agli occhi, con molti altri che stanno per arrivare. "Il corpo bianco e il corpo maschile sono stati da sempre la norma nella ricerca delle terapie - sottolineano - quindi è importante che i dispositivi con l'intelligenza artificiale non seguano questo stesso schema".

In campo medico gli algoritmi aiutano nelle diagnosi, nella scelta delle terapie e nella ricerca, e possono essere degli 'occhi aggiuntivi' per i medici, ad esempio nel reggere i referti. Problemi di pregiudizi tuttavia possono emergere durante lo sviluppo, soprattutto se i dati usati per formare i modelli che 'istruiscono' gli algoritmi non sono rappresentativi, perché non tengono conto di fattori come la razza o il genere. Un esempio, spiegano gli esperti di Stanford, sono gli ossimetri, molto utili per il monitoraggio dei pazienti con il Covid.

La tecnologia di questi dispositivi si basa sul diverso assorbimento della luce da parte dei globuli rossi quando sono ossigenati, ma anche la melanina, la sostanza che colora la pelle, la assorbe,. Il risultato è che gli ossimetri in uso oggi hanno tre volte il rischio di riportare una misura non corretta se usati sulle persone di colore, e anche gli errori nelle misure sulle donne sono più frequenti, con il risultato che se si ricade in una di queste categorie si rischia di non ricevere ossigeno quando necessario. 

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza