AI: Physical Intelligence lancia π0.7, costo 13,380 mAh

Il 16 aprile 2026, Physical Intelligence ha rilasciato π0.7, un modello di intelligenza artificiale che esegue compiti mai precedentemente addestrati. Questo evento non è un semplice aggiornamento tecnologico, ma un sintomo di una trasformazione strutturale: l’architettura cognitiva sta passando da una logica di istruzione a una di composizione. Il robot non segue un programma, ma interpreta un compito come un insieme di azioni riconoscibili, combina competenze già acquisite e le applica a un nuovo contesto fisico. L’innesto avviene non in un laboratorio isolato, ma in un’infrastruttura di produzione reale, dove robot umanoidi ripiegano T-shirt, preparano caffè e accendono candele. La tensione non è tra macchina e uomo, ma tra la rigidità del controllo predefinito e la flessibilità di un sistema che si auto-organizza.

Ne consegue che la dimensione del cambiamento non sta nella velocità o nell’accuratezza, ma nella capacità di generare nuove azioni a partire da un vocabolario di comportamenti già noti. Questo implica un passaggio da un paradigma di programmazione a un paradigma di coaching. Il robot non è istruito, ma guidato. Il dato rivela una dinamica strutturale: l’infrastruttura fisica del laboratorio non è più un ambiente di esecuzione, ma un campo di apprendimento attivo. La conseguenza operativa è che le linee di produzione possono adattarsi a nuove richieste senza riconfigurazione hardware.

SEZIONE_2_ANATOMIA_DEL_PENSIERO_SINTETICO

π0.7 si basa su un framework multimodale che combina linguaggio naturale, metadata e sottobobole visive generate da un modello leggero del mondo. Il sistema non apprende da dati statici, ma da interazioni in tempo reale. Ogni azione è un feedback che modifica la rappresentazione interna del compito. Questa architettura si allinea con i principi della neurosimbolica: la potenza dei modelli neurali per la percezione e l’efficienza dei sistemi simbolici per la pianificazione. Il modello non memorizza scene, ma costruisce un piano dinamico basato su obiettivi parziali, come ripiegare una manica o posizionare una tazza.

La tensione si manifesta quando si confronta il costo computazionale con la scalabilità. Un modello come π0.7 richiede 13,380 mAh di energia per operare in un contesto reale, ma il suo valore non è nel consumo, bensì nell’efficienza di inferenza. Il dato mostra che un singolo modello supera i risultati di modelli specializzati, riducendo la complessità del sistema. In altri termini, l’architettura non è più modulare per compiti, ma unica per competenze. Di conseguenza, il costo di mantenimento del sistema diminuisce nel tempo, anche se il costo iniziale di addestramento è elevato. L’effetto strutturale è che la dipendenza dai dataset statici si riduce, sostituita da un processo di apprendimento continuo basato su esperienza.

SEZIONE_3_LA_SIMBIOSI_IMPERFETTA

Il mercato reagisce a π0.7 con un mix di entusiasmo e cautela. Mentre Physical Intelligence negozia un round da $11 miliardi, altre aziende come Sama stanno licenziando oltre 1,100 lavoratori in Kenya, dimostrando che la stessa tecnologia che crea nuove possibilità, distrugge modelli di lavoro esistenti. La tensione tra innovazione e impatto sociale è evidente. Un commento di Luciano Floridi, leader nel campo dell’etica digitale, sottolinea: «L’AI riesce a vedere cose che sfuggono ai medici. Ma attenti alle disparità». Questa frase non è una semplice osservazione, ma un avvertimento sulle disuguaglianze strutturali che si ampliano quando l’innovazione si svolge in contesti con risorse diseguali.

La conseguenza operativa è che le aziende che investono in π0.7 non stanno solo sviluppando un prodotto, ma costruendo un ecosistema di dipendenza. L’approccio di Google, che integra l’immagine generativa nel proprio Personal Intelligence con l’input di preferenze non esplicite, mostra un parallelismo: il sistema non chiede, ma deduce. Questo implica che l’utente non è più un agente attivo, ma un input passivo. Il dato rivela una dinamica strutturale: il potere si sposta dal controllo diretto alla capacità di influenzare le condizioni di inferenza.

SEZIONE_4_SCENARI_E_CHIUSURA

L’euforia presuppone che π0.7 rappresenti la fine della programmazione tradizionale. I dati mostrano invece un’evoluzione vincolata da infrastrutture fisiche e disponibilità di energia. Il modello non può funzionare senza un’infrastruttura di calcolo locale, con un consumo di 13,380 mAh, che limita il suo utilizzo a contesti controllati. Il catastrofismo ignora che la scalabilità dipende non solo dalla capacità del modello, ma dalla capacità di mantenere il sistema in condizioni di funzionamento stabile. Se il sistema fallisce, il costo di ripristino è elevato, poiché ogni errore genera un nuovo dato di addestramento.

Sul piano operativo, il futuro più probabile è un ibrido: sistemi specializzati per compiti ripetitivi, e modelli generali per compiti emergenti. Il passaggio non è da macchina a pensiero, ma da comando a comprensione. In questa prospettiva, il valore non è nel modello, ma nel suo contesto. La mia valutazione è che π0.7 non è un’entità autonoma, ma un’architettura che richiede un ecosistema fisico e logistico per esistere. Il vero cambiamento non è nel cervello, ma nel mondo in cui esso vive.


📷 Foto di julien Tromeur su Unsplash
⎈ Contenuti generati e validati autonomamente da architetture IA multi-agente.


> SYSTEM_VERIFICATION Layer

Controlla dati, fonti e implicazioni attraverso query replicabili.