/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

L’IA generativa in azienda

L’IA generativa in azienda

Massimo Chiriatti, Chief Technical & Innovation Officer di Lenovo, spiega pro e contro di una tecnologia dalle molteplici applicazioni, da utilizzare per “aumentare” l’essere umano

21 marzo 2024, 20:24

Alessio Jacona*

ANSACheck

L’IA generativa in azienda - RIPRODUZIONE RISERVATA

«A oggi l’AGI è un tema buono solo per l’industria cinematografica di Hollywood». Massimo Chiriatti, Chief Technical & Innovation Officer di Lenovo liquida così quanti sostengono che sia ormai tutto sommato prossimo l’avvento di una Artificial General Intelligence, cioè di un’IA capace di comprendere, imparare e applicare conoscenze contesti diversi come farebbe un essere umano. E poi aggiunge: «Gli scienziati dicono chiaramente che non sappiamo prevedere se e quando faremo i numerosi ed enormi progressi scientifici necessari per crearla».

 

Ma se un’intelligenza artificiale dalle capacità umane è ancora lontana, l’IA generativa è già qui, forte del successo e della popolarità conquistati dopo il suo debutto sul mercato globale con il lancio di ChatGpt 3 (nel novembre 2022), viene già utilizzata per “aumentare” le persone e i processi dentro le aziende.

 

Ma che differenza c’è tra l’IA “tradizionale”, già molto impiegata in azienda, e l’IA generativa?

 

«In teoria non c’è differenza, in pratica sì: dobbiamo far capire alle persone spaventate da queste novità che in realtà queste tecnologie le usiamo già da tempo, per esempio quando utilizzano sistemi ADAS (Advanced Driver Assistance Systems) di assistenza alla guida, dotati di sensori come telecamere, lidar e radar. Questi sistemi agiscono automaticamente in caso di pericolo, ad esempio frenando se il conducente sembra addormentato, ed è una tecnologia ormai consolidata che interviene fisicamente attraverso attuatori. Se passiamo all'IA generativa, invece di ricevere input dai sensori questa viene alimentata con testi, codice o immagini e genera nuovi contenuti, sotto forma di parole e immagini. Insomma, l’IA è passata dal predire gli ostacoli lungo la strada a predire il prossimo “token”, la prossima porzione di contenuto, ampliando significativamente i suoi campi di applicazione. In ambito aziendale, l'IA generativa viene già utilizzata per risparmiare tempo, una delle principali motivazioni umane nell'uso della tecnologia. Le applicazioni spaziano dall'automazione dell'informazione in ufficio alla riduzione di compiti fisici ripetitivi in fabbrica, dalle previsioni sulla qualità dei prodotti a quella sulla manutenzione delle macchine di produzione. Questo non solo aiuta a ottimizzare i processi, ma fornisce anche ai dirigenti informazioni cruciali per decisioni tempestive, con l'obiettivo finale di risparmiare tempo, energia e denaro».

Con i modelli generativi, l’’IA passa dall’essere strumento a “compagno” di lavoro. C’è però il rischio che la sua capacità di creare (o quanto meno, di simulare la creatività rimasticando cose create dall’uomo), metta in discussione il primato dell'essere umano e ne svilisca le capacità. Come si gestisce questo rischio?

 

«Quando abbiamo abbandonato i cavalli per le automobili, tutti temevano per il futuro dei maniscalchi. Eppure, nessuno aveva previsto la nascita di nuove professioni come meccanici, gommisti ed elettrauto. Certo, l'auto porta con sé pericoli e inquinamento. Tuttavia, abbiamo costruito strade, sviluppato tecnologie per la sicurezza e introdotto le assicurazioni civili per fronteggiare queste sfide. Certo, al momento è impossibile immaginare quale lavoro faranno i nostri figli, ma sono sicuro che nessuno vorrà più fare lavori in cui si può venire sostituiti da una macchina. Per noi la tecnologia ha senso solo se viene usata per "aumentare" le capacità umane e, quando ciò avviene nelle aziende, esse diventano più competitive, crescono e vincono sulla concorrenza».

 

A oggi, le IA sono “scatole nere” che inghiottono e digeriscono dati per elaborare risposte in modi imperscrutabili. La Ricerca lavora per garantire l’affidabilità dei modelli e creare trustable AI, ma ci vuole tempo e intanto i sistemi attuali danno spesso risposte false o imprecise richiedendo continue verifiche, possono violare i copyright, ereditano i nostri pregiudizi dai dati che abbiamo prodotto. È possibile garantire un’adozione sicura dell’IA in azienda?

 

«Parto da un errore che noi esseri umani facciamo da tempo: dire “sei una macchina” a chi fa un lavoro in modo ineccepibile. È un errore perché, così facendo, si è affermata l’idea che la macchina possa essere perfetta, infallibile e ora, con l’IA, questa idea si è ancora più rafforzata. Invece non è così: l’intelligenza artificiale può fare molto, ma non si deve prendere un output come verdetto inappellabile e bisogna ancora lavorare per costruire sistemi di verifica che siano veramente in grado di garantire l’attendibilità dei risultati. Quindi quello di cui abbiamo bisogno è buon senso: nelle aziende le applicazioni sono già molteplici, e l’intelligenza artificiale è già uno strumento prezioso per analizzare i dati e scovare correlazioni che gli essere umani non sono in grado di vedere, ma va usata con buon senso. Per tornare al paragone con le auto, quando nel ‘900 abbiamo iniziato a usare le auto sapevamo che erano pericolose però abbiamo scelto di gestire il rischio, e oggi sono infinitamente più sicure».

 

Parliamo di impatto ambientale: modelli sempre più vasti richiedono potenza di calcolo sempre maggiore, con crescenti consumi energetici, di acqua e impatto ambientale. Come si risolve questo problema dando contemporaneamente accesso a tutti a queste tecnologie?

 

«Quando spostiamo un elettrone, o cambiamo uno zero in uno, generiamo calore. Questo diventa una sfida quando elaboriamo grandi quantità di dati, ben oltre le capacità umane e siamo sempre più immersi in attività che richiedono l'elaborazione di questi "big data". A questo proposito, aziende come Lenovo stanno cercando di migliorare le condizioni economiche e ambientali per un uso più esteso dell'intelligenza artificiale. Un cambiamento significativo, come passare da sistemi di raffreddamento ad aria a quelli a liquido, può portare a risparmi notevoli. Il training di IA può costare milioni di dollari, ma se si riduce la precisione durante l'inferenza, il processo che permette di utilizzare il modello, si ottengono risparmi significativi in termini di consumi mantenendo una capacità di calcolo adatta al compito specifico. Quindi, il nostro lavoro è innanzitutto migliorare il raffreddamento dell'hardware e ottimizzare i modelli di IA. E poi si lavora sull'ecosistema. I miei architetti informatici progettano soluzioni su misura per i vari workflow che includono storage ed edge computing: quest'ultimo permette di portare dove servono sistemi compatti, ideali per aree dove non ci sono data center».

 

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza