Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Software&App
  1. ANSA.it
  2. Tecnologia
  3. Software & App
  4. Gli assistenti vocali rafforzano gli stereotipi di genere

Gli assistenti vocali rafforzano gli stereotipi di genere

Studio, voci femminili restituiscono immagine di donna sottomessa

Le voci femminili preimpostate per gli assistenti vocali - Siri di Apple, Alexa di Amazon e Cortana di Microsoft, ma anche Google Assistente nella versione originale in lingua inglese - rafforzano gli stereotipi di genere. A dirlo è una ricerca pubblicata dall'Unesco, secondo cui le risposte spesso sottomesse o civettuole che vengono date dagli assistenti vocali anche a domande inopportune, volgari o allusive restituiscono l'immagine di una donna servile e remissiva.

Lo studio si intitola "I'd blush if I could", "Arrossirei se solo potessi", che è la risposta fornita fino a qualche tempo fa da Siri a chi la insultava dandole della poco di buono. Attualmente, invece, l'assistente replica: "Non so proprio cosa rispondere".

A sviluppare questi sistemi di intelligenza artificiale sono team composti prevalentemente da uomini (tra i ricercatori in AI, le donne sono solo il 12%), si osserva nell'indagine. I ricercatori evidenziano le potenziali implicazioni negative a lungo termine soprattutto nei bambini, che cresceranno interfacciandosi con gli assistenti vocali.

"Macchine obbedienti e cortesi che fingono di essere donne stanno entrando nelle nostre case, auto e uffici", ha osservato Saniye Gulser Corat, direttrice per l'Uguaglianza di genere all'Unesco. "La sottomissione che è inculcata in loro influenza il modo in cui le persone parlano alle voci femminili, e modella il modo in cui le rispondono alle richieste e si esprimono".
   

        RIPRODUZIONE RISERVATA © Copyright ANSA

        Video ANSA



        Modifica consenso Cookie