Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Robot razzista e sessista, colpa dell'addestramento sul web

Robot razzista e sessista, colpa dell'addestramento sul web

Studio, dati distorti creano stereotipi pericolosi

ROMA, 21 luglio 2022, 16:56

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

Anche i robot possono diventare razzisti e sessisti: lo dimostra un esperimento condotto negli Stati Uniti, dove un robot ha imparato ad agire secondo stereotipi comuni, associando per esempio le persone di colore alla criminalità e le donne ai lavori domestici. La colpa è del suo 'cervello', un sistema di intelligenza artificiale ampiamente diffuso e addestrato con dati presi dal web. Lo studio, condotto dalla Johns Hopkins University con il Georgia Institute of Technology e l'Università di Washington, è presentato alla conferenza FAccT 2022 dell'Association for Computing Machinery (Acm), in Corea del Sud.

"Il robot ha appreso stereotipi pericolosi attraverso modelli imperfetti di rete neurale", afferma il primo autore dello studio, Andrew Hundt. "Rischiamo di creare una generazione di robot razzisti e sessisti", avverte il ricercatore, sottolineando la necessità di affrontare la questione al più presto. Il problema è che gli sviluppatori di sistemi di intelligenza artificiale per il riconoscimento di persone e oggetti sono soliti addestrare le loro reti neurali usando set di dati disponibili gratuitamente su Internet: molti contenuti però sono imprecisi e distorti, dunque qualsiasi algoritmo costruito sulla base di queste informazioni rischia di essere fallace. Il problema è stato più volte sollevato da test ed esperimenti che hanno mostrato la scarsa efficienza di certi sistemi di intelligenza artificiale, impiegati ad esempio per il riconoscimento facciale. Finora, però, nessuno aveva provato a valutare le conseguenze di questi algoritmi fallati una volta che vengono usati per governare robot autonomi che operano nel mondo reale senza la supervisione dell'uomo.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza