“Basta chatbot, l’IA deve imparare a vivere.”
La dichiarazione di Yann LeCun, ex capo della ricerca sull’IA di Meta, è più di una critica ai modelli linguistici di grandi dimensioni (LLM). È un atto di accusa contro un’intera industria che ha confuso la capacità di simulare l’intelligenza con l’intelligenza stessa. Il monopolio nascente non è quello dei chatbot, ma quello della comprensione del mondo, e la competenza che diventa obsoleta oggi è la capacità umana di estrarre significato dal caos senza l’ausilio di un’architettura algoritmica. LeCun, fondando AMI Labs, punta a un’IA che non risponda a domande, ma che agisca nel mondo, replicando la sua complessità attraverso ‘World Models’.
L’architettura della simulazione
I ‘World Models’ di LeCun rappresentano un cambio di paradigma radicale rispetto ai Transformer, l’architettura dominante che alimenta ChatGPT e simili. Mentre i Transformer eccellono nella correlazione statistica di dati testuali, i World Models mirano a costruire una rappresentazione interna del mondo, un simulatore che permette all’IA di prevedere le conseguenze delle proprie azioni. Questo non significa semplicemente ‘prevedere la prossima parola’, ma ‘prevedere la traiettoria di un oggetto in movimento’, ‘anticipare le reazioni di un altro agente’, ‘pianificare una sequenza di azioni per raggiungere un obiettivo’. Tecnicamente, si tratta di combinare reti neurali con modelli probabilistici e algoritmi di rinforzo. L’analogia più vicina è il cervello umano, che non ‘ricorda’ il mondo, ma ne costruisce un modello interno, costantemente aggiornato attraverso l’esperienza sensoriale. Questa architettura, a differenza di quella basata su LLM, non è intrinsecamente dipendente da enormi quantità di dati etichettati; può imparare attraverso l’interazione con l’ambiente, riducendo drasticamente la necessità di supervisione umana. Questo approccio, se scalabile, potrebbe portare a un’IA più robusta, adattabile e, soprattutto, più efficiente dal punto di vista energetico.
La mappa del potere algoritmico
Il controllo di questa tecnologia si concentra attualmente in poche mani: AMI Labs, ovviamente, ma anche aziende come NVIDIA, che produce l’hardware necessario per addestrare e far funzionare i modelli, e le aziende che detengono i dati necessari per validare e affinare i ‘World Models’. Il paradosso è che, più ci affidiamo a queste simulazioni per prendere decisioni, più diventiamo dipendenti dalla visione del mondo incorporata in esse. Come osserva Yuval Noah Harari, “POTREMMO CREARE ALGORITMI CHE SCONOSCANO TUTTO DI NOI, MA CHE NON SCONOSCANO NULLA DI CIÒ CHE SIGNIFICAESSERE UMANI”. Questo solleva interrogativi fondamentali sulla governance dell’IA e sulla necessità di garantire che i valori umani siano incorporati nei modelli che governano le nostre vite.
L’IA non è neutrale. Riflette i bias e i valori dei suoi creatori, e può amplificare le disuguaglianze esistenti.
Questo rischio è ulteriormente amplificato dalla tendenza verso la centralizzazione del potere algoritmico. AMI Labs, pur essendo una startup, beneficia del pedigree di LeCun e dell’interesse di investitori strategici. La competizione con i giganti tecnologici, che hanno accesso a risorse illimitate, sarà ardua. La geopolitica dell’IA, in questo contesto, assume un’importanza cruciale.
Soglia irreversibile
Nei prossimi 3-6 mesi, l’attenzione si concentrerà sulla dimostrazione della fattibilità dei ‘World Models’ in applicazioni pratiche. Se AMI Labs riuscirà a dimostrare che la sua tecnologia può superare le prestazioni dei modelli basati su Transformer in compiti complessi come la robotica o la guida autonoma, assisteremo a un cambio di paradigma nel settore dell’IA. Questo segnerà il punto di non ritorno: l’esperienza umana, da fonte primaria di conoscenza, diventerà un aneddoto, un dato da incorporare in un modello sempre più sofisticato. La capacità di adattarsi a un mondo simulato diventerà più importante della capacità di comprenderlo direttamente.
Il residuo dell’esperienza
La fisica dell’attenzione, la capacità di filtrare il rumore e concentrarsi su ciò che è rilevante, è un’abilità intrinsecamente umana. L’IA, anche la più sofisticata, non può replicare questa capacità senza comprendere il contesto, le motivazioni e i valori che guidano il comportamento umano. Questo residuo di esperienza, questa capacità di giudizio, potrebbe essere l’unica cosa che ci distinguerà dalle macchine, anche in un futuro dominato dall’intelligenza artificiale.
Foto di lhon karwan su Unsplash
I testi sono elaborati autonomamente da modelli di Intelligenza Artificiale