Centro Studi Sociali
Pietro Desiderato

Presentazione
Pietro Desiderato
Finalità
Statuto
Comitato Scientifico
Contatti

Eventi e iniziative
Corporate Social Responsability
Integrazione e diversabilità
Mercato del lavoro
Nuove tecnologie
Politica economica
Relazioni industriali
Risorse umane
Salute e sicurezza sul lavoro
Sistema creditizio e assicurativo
Sistema fiscale
Sistema previdenziale
Sistema sanitario
Volontariato e nonprofit
Welfare
Rassegna Stampa Estera
Nuove tecnologie
14/07/2025

Intelligenza Artificiale: Far West e Regolamentazione

Da Plus Magazine - supplemento de "La Voce dei Bancari", edizione Nazionale - Giugno 2025. Intervista al Professor Guido Boella ViceRettore per l’Intelligenza Artificiale – Università di Torino.




Intelligenza Artificiale: tra Far West e Regolamentazione

di  Pietro Gentile

Intervista al Professor Guido Boella ViceRettore per l’I.A. – Università di Torino

Da almeno due anni a questa parte, tutti parlano di Intelligenza Artificiale, tutto il mondo sta investendo cifre mirabolanti per lo sviluppo di questa tecnologia. Gli Stati Uniti sono partiti da anni, seguiti dalla Cina. Sembra che il “modello” adottato sia quello del “Far-West”: poche regole e vince il più forte. L’Europa, consapevole delle opportunità, ma anche dei rischi, è più cauta ed ha già iniziato a regolare la materia. Le ricadute sul mondo del lavoro, come da anni anticipato, potrebbero essere devastanti. Sul tema abbiamo avuto l’opportunità di intervistare il Professor Guido Boella ViceRettore per l’Intelligenza Artificiale – Università di Torino.

Parliamo di Intelligenza Artificiale generativa: a novembre del 2022 la maggior parte dell’umanità ha avuto un brusco “risveglio”. Erano anni che si parlava di IA , ma era un mondo lontano alla gente comune. Ci può raccontare, anche dal punto di vista informatico, cosa è successo in questi ultimi tre anni? Perché sembra che ci sia stata un’evoluzione così rapida?
Direi che la prima svolta risale ad una quindicina d’anni fa, con l’avvento del Deep Learning, un paradigma di apprendimento automatico basato su reti neurali che rispetto agli anni ‘80, quando erano state inventate (anzi erano state concepite addirittura negli anni ‘40 da McCulloch & Pitts), a causa delle restrizioni in termini di quantità di dati digitali disponibili e di potenza di calcolo erano rimaste un paradigma promettente, ma che non aveva portato grossi risultati. Invece con i super computer paralleli è stato possibile creare reti neurali profonde, nel senso che gli strati di neuroni arrivano fino a qualche decina, ottenendo performance straordinarie in pochi anni.
Per l’IA generativa il risultato teorico che ha abilitato l’uso delle reti neurali in questo ambito è addirittura del 2017, con il famoso articolo “Attention is all you need” di Google che però, come dice la data, ha portato a una rivoluzione nella linguistica computazionale con “BERT” ma non ha portato a grandi risultati nell’immediato, dal punto di vista industriale.
Si è dovuto attendere il 2022, quando OpenAI ha adottato una strategia, non quella di rivedere dal punto di vista metodologico teorico questi sistemi, ma semplicemente di farli enormemente più grandi: Sam Altman non è un ingegnere ma è un uomo di relazioni pubbliche, grande motivatore e comunicatore con gli investitori. È stato bravo a ispirarli, a far loro “vedere la luna” e a convincerli a investire ingenti somme di denaro, decine di miliardi, che sono serviti per costruire progetti di grande scala. Magicamente i Language Model che non erano large, diventano Large e incominciano a parlare come fa ora ChatGPT – letteralmente – perché con le ultime versioni si può anche interloquire, interrompendolo parlando e ricevendo anche battute in risposta.

Poi però dopo due anni, arrivano i cinesi: noi pensavamo che fosse tutto in mano agli Stati Uniti, miliardi di investimenti, le GAFAM che continuavano a pompare energia e denaro nell’IA A gennaio 2025 i cinesi annunciano “si può fare tutto in Open Source”. E adesso cosa facciamo? Cosa sta succedendo?
Intanto una precisazione: non Open Source ma “Open Weight”. Lo aveva già fatto prima Facebook rilasciando Llama, rilasciando i “pesi”, cioè i numerini che stanno nella connessione fra un neurone e l’altro, che ormai sono nell’ordine di decine di miliardi fino a centinaia di migliaia di miliardi, nei modelli più sofisticati. Ciò che ha fatto Deep Seek in più rispetto a Llama di Meta, è stato di non partire a costruire un modello da zero, operazione costosissima, ma di distillare un modello esistente, andando a prendere anche funzionalità già offerte da ChatGPT di OpenAI come la distillazione o andandolo a interrogare ripetutamente e utilizzando le risposte di ChatGPT per fare il training. Questo ha permesso di creare un modello a costi molto più bassi rispetto a farlo da zero, con grandi lamentele da parte di OpenAI che, un po’ ipocritamente, ha detto “avete rubato la nostra proprietà intellettuale”, dopo che loro si erano scaricati la proprietà intellettuale di tutto l’universo… Ciò comunque dà una speranza all’arrivo di nuovi attori, partendo da quel che è stato già fatto da attori più grandi, che possano entrare nel mercato. In generale la comunità LLM sta cercando di capire come ridurre questi sistemi a dimensioni più piccole che possano girare anche su un portatile o un cellulare.

Un argomento che conosciamo da tempo, da quando è stata rilasciata già la prima versione di ChatGPT, sono le “allucinazioni” dell’Intelligenza Artificiale. A volte ci divertiamo a trovarle. Ma poi ci preoccupiamo del “bias” che è un problema molto più serio. Per quanto tempo avremo ancora questo tipo di problemi o saranno presenti per sempre?
Allora sono due problemi con cause diverse: quello delle “allucinazioni” è un problema più tecnologico, nel senso che questi sistemi non sanno di sapere, o meglio, non sanno di non sapere e quindi sono obbligati a rispondere anche quando non hanno abbastanza informazioni raccolte durante la fase di apprendimento e quindi dovendo improvvisare provano a dire la cosa più plausibile, ma non sempre reale, ad esempio un riferimento bibliografico a un articolo scientifico che non esiste. Il problema del “bias”, o pregiudizio, invece è diverso: è un problema che non è principalmente tecnologico, o meglio, non dipende solo dalla tecnologia, perché questi sistemi apprendono partendo dall’esistente, dalla “fotografia” del presente, dal modo in cui pensiamo noi, da come è scritto sul web o messo sotto forma di immagini. Inevitabilmente tutte le distorsioni, i pregiudizi che ci sono nel mondo, vengono riflessi da questi sistemi. Pensare che esista una tecnologia che può andare a risolvere i “bias” è un po’ un’illusione, perché anche identificato il “bias” non sempre sappiamo cosa vogliamo fare. Chi decide? Bisogna capire chi è il decisore che risolve la questione. In alcuni casi si può risolvere avendo ad esempio più dati: i sistemi di diagnosi medica funzionano peggio sui giovani, giustamente, perché i giovani hanno meno patologie, quindi, ci sono meno dati su di loro, ma anche ad esempio sulle donne. Un altro problema sono le minoranze, perchè queste categorie, soprattutto in America, sono quelle che hanno minore copertura assicurativa sanitaria, quindi, possono permettersi meno esami medici e quindi ci sono meno dati a disposizione su di loro.
Ma in altri campi che riguardano la società, la politica, il costume, la questione è ancora più complessa. È difficile fare un Large Language Model ad es. per il mondo musulmano. Il mondo musulmano avrà degli standard che non sono i nostri, quindi, non si può avere una soluzione per tutti. Così come, tornando al cinese DeepSeek su alcuni temi, diciamo di contesto politico, ha un’opinione diversa, orientata da un altro modo di pensare, anche originale, visto dal nostro punto di vista. Quindi dire che si vuole correggere il “bias” è una prospettiva sbagliata. Il problema è chi decide come risolvere il “bias”, chi fa la scelta a monte, l’ingegnere di Google, il politico, l’investitore o i cittadini.

Per leggere l'intervista completa
 

Versione per stampa
CERCA NEL SITO
© 2004 Centro Studi Sociali Pietro Desiderato
Powered by Time&Mind