/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Studio Verdi, riconoscimento facciale già in uso in 11 Stati membri

Studio Verdi, riconoscimento facciale già in uso in 11 Stati membri

Altri 8 Stati membri seguiranno l'esempio, preoccupa diffusione 'progetti pilota'

29 ottobre 2021, 14:35

Redazione ANSA

ANSACheck

Studio Verdi, riconoscimento facciale già in uso in 11 Paesi Ue © ANSA/EPA

Le autorità giudiziarie o di polizia di 11 Paesi europei stanno già utilizzando sistemi di riconoscimento biometrico nelle loro indagini. E altri 8 Stati membri seguiranno presto la stessa via. E' quanto emerge da uno studio commissionato dal gruppo dei Verdi al Parlamento europeo sull'impatto della tecnologia sui diritti fondamentali.

La polizia in Austria, Finlandia, Francia, Germania, Grecia, Ungheria, Italia, Lettonia, Lituania, Slovenia e Paesi Bassi impiega tecnologie di riconoscimento facciale per l'"identificazione ex post" nelle proprie indagini penali. Croazia, Cipro, Cechia, Estonia, Portogallo, Romania, Spagna e Svezia dovrebbero presto adottare la stessa tecnologia nei loro protocolli. 

"Sembra esserci poca comprensione dei modi in cui questa tecnologia potrebbe essere applicata e del potenziale impatto di una gamma così ampia di applicazioni sui diritti fondamentali dei cittadini europei", sottolineano i ricercatori, segnalando anche l'espansione in corso dei database biometrici e il proliferare di 'progetti pilota' che vanno nella direzione della sorveglianza di massa.

Diversi i progetti citati che non richiedono un'autorizzazione preventiva delle autorità di vigilanza. Nel 2017, ad esempio, l'aeroporto di Bruxelles ha installato quattro telecamere per il riconoscimento facciale. Un quartiere di Rotterdam, invece, ha lanciato un progetto "antifurto" per rilevare comportamenti sospetti utilizzando lampioni intelligenti. Nella città di Nizza si è iniziato a usare il riconoscimento facciale nelle strade. Anche l'uso di strumenti di identificazione biometrica nelle scuole superiori è stato testato ma di conseguenza dichiarato illegale. Al contrario, gli strumenti di riconoscimento facciale vengono ora utilizzati per identificare gli alunni nelle mense scolastiche del Regno Unito. In Germania, le città di Berlino, Amburgo e Mannheim hanno tutte implementato un software di riconoscimento facciale per testare la loro capacità di rilevare comportamenti sospetti. "La giustificazione dell'approccio di prova viene spesso utilizzata in Germania per sostenere una deviazione dalle regole esistenti e dalle aspettative della società", si legge nel rapporto.

All'inizio di ottobre, il Parlamento europeo riunito in sessione plenaria ha adottato una risoluzione per chiedere l'introduzione di regole rigorose sull'utilizzo dei sistemi di intelligenza artificiale da parte delle forze dell'ordine, chiedendo il divieto delle tecnologie di riconoscimento facciale negli spazi pubblici. La risoluzione è stata adottata con 377 a favore, 248 contrari e 62 astenuti. Nel testo approvato si afferma che molte tecnologie di identificazione in uso già commettono un numero sproporzionato di errori di identificazione e di classificazione, danneggiando soprattutto le persone che appartengono a determinati gruppi razziali o etnici, le persone Lgbti, i bambini, gli anziani e le donne, situazione particolarmente preoccupante nel contesto delle operazioni delle forze dell'ordine e della magistratura.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza

ANSA Corporate

Se è una notizia,
è un’ANSA.

Raccogliamo, pubblichiamo e distribuiamo informazione giornalistica dal 1945 con sedi in Italia e nel mondo. Approfondisci i nostri servizi.