Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Perché l’IA deve essere trasparente e spiegabile

Perché l’IA deve essere trasparente e spiegabile

La professoressa Fosca Giannotti, direttrice del Pisa KDD Lab, spiega cosa serve per creare un’IA che non sostituisca l’essere umano, ma ne aumenti le capacità

16 gennaio 2023, 19:16

Redazione ANSA

ANSACheck

La Scuola Normale di Pisa - RIPRODUZIONE RISERVATA

La Scuola Normale di Pisa - RIPRODUZIONE RISERVATA
La Scuola Normale di Pisa - RIPRODUZIONE RISERVATA

di Alessio Jacona*

«L'utente di un sistema automatico creato per il supporto alle decisioni, deve essere messo in condizioni di comprendere a fondo i suggerimenti che riceve». A parlare è Fosca Giannotti, tra gli scienziati pionieri del mobility data mining, della social network analysis e del privacy-preserving data mining (l’insieme di tecniche con cui estrarre informazioni dai dati tutelando la privacy): «Insomma, l’intelligenza artificiale non deve dare solo una risposta alle nostre domande - continua la professoressa - ma deve anche spiegare come tale risposta è stata generata, e perché».

Fosca Giannotti è titolare della cattedra di Informatica alla Scuola Normale di Pisa (istituita per la prima volta nel 2021 e subito affidata a lei) e direttrice del Pisa KDD Lab - Knowledge Discovery and Data Mining Laboratory, un'iniziativa di ricerca congiunta dell'Università di Pisa e dell'ISTI-CNR, fondata nel 1994 come uno dei primi laboratori di ricerca sul data mining.

Trasparenza e spiegabilità dell’intelligenza artificiale sono centrali per il suo lavoro; specie da quando, nel 2019, lo European Research Council (ERC) le ha assegnato un finanziamento da 2,5 milioni di euro in 5 anni per sostenere il progetto di ricerca intitolato "Scienza e tecnologia per la spiegazione del processo decisionale dell'IA". 

«Il tema della spiegabilità emerge quando si mettono insieme gli esseri umani e i sistemi di apprendimento automatico a supporto delle loro decisioni - spiega Giannotti - perché quando ciò accade, si generano due possibili scenari: prendere per buono tutto ciò che l’AI dice, come fosse un oracolo, oppure NON fidarsi affatto, contestandone il responso». Due reazioni estreme, inconciliabili e ugualmente sbagliate, che possono essere superate «solo se troviamo il modo di spiegare perché e come il sistema raggiunge le sue decisioni».

L’esempio che la professoressa fa a riguardo è quello dei software utilizzati per la valutazione del rischio nella concessione del mutuo: quando quest’ultimo viene rifiutato dal sistema, un semplice no non solo può danneggiare il richiedente, ma non gli offre la possibilità di cambiare le cose indicando cosa non va, cosa dovrebbe e forse può ancora essere cambiato. Più o meno la stessa cosa vale anche per i software basati su IA che vengono usati per valutare i curricula dei canditati a un posto di lavoro, ma gli esempi sono tanti.

Non solo: la mancanza di trasparenza è un problema anche e soprattutto perché i sistemi automatici possono prendere decisioni ingiuste o sbagliate in quanto influenzati da “bias”, da pregiudizi su razza, sesso, religione etc. assorbiti attraverso le enormi quantità di dati con cui vengono addestrati. Dati che - non va dimenticato - produciamo noi esseri umani, e che quindi inevitabilmente rispecchiano la nostra società con le sue contraddizioni e (appunto) pregiudizi. «La trasparenza ci consente di difenderci se si rende necessario, ed è per questo che il tema rientra anche nel GDPR», ricorda Giannotti.

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza