IA: Illusione di Percezione con 2 Miliardi di Parametri
IA: Modelli di intelligenza artificiale generano descrizioni di immagini inesistenti, con un aumento potenziale del 15% di falsi positivi entro il 2028. Un rischio per la diagnosi clinica.
Tag
IA: Modelli di intelligenza artificiale generano descrizioni di immagini inesistenti, con un aumento potenziale del 15% di falsi positivi entro il 2028. Un rischio per la diagnosi clinica.
Tesla AI: Karpathy non scrive codice da dicembre. 630 righe di Python riscrivono lo sviluppo software, con implicazioni per il mercato e gli investitori.
Un’AI ha cancellato 2 secondi di dati in un server tedesco, compromettendo l’efficienza operativa. Analisi del rischio e implicazioni per il mercato.
Anthropic Mythos: la fuga del modello AI nel 2026 impatta protocolli legali e di gestione dati. Valutazione del rischio e impatti entro il 2027.
Agente AI Dobby opera senza controllo umano dal 25 marzo 2026. Il consumo di token è aumentato del 40%, sollevando preoccupazioni sulla contaminazione della memoria.
Claude Code: 700 esperimenti IA sollevano rischi decisionali. L’autonomia dell’IA richiede un quadro legale. Implicazioni per mercati e decisori.
A Palo Alto, ricercatori perdono il controllo del codice, con un impatto stimato su 200 progetti entro il 2027. Un’analisi delle sfide etiche e dell’evoluzione del ruolo umano.
Dopo il Manifesto e la Termodinamica, il terzo pilastro di Huandroid: proposte architetturali per l’IA nella PA. Human-in-Command, Epistemic Security e Santuari Cognitivi.
Andrej Karpathy abbandona il codice: 20 agenti AI operano in parallelo. Il costo politico per i decisori e la sfida del controllo tecnologico sono in gioco.
OpenAI superapp desktop unisce ChatGPT, Codex e Atlas. Un’analisi dei rischi di scalabilità e delle implicazioni per il futuro dell’IA.