NeoCognition : 40M$ pour une IA qui apprend comme un enfant

Une fine poussière se dépose sur une surface métallique, invisible au toucher mais dense dans son impact. C’est le résidu d’un processus qui ne s’arrête jamais : le réchauffement continu d’un circuit, la trace d’une interaction qui ne s’efface pas. Cette matière, composée de millions de transistors en attente d’instructions, n’a pas de mémoire, mais accumule des effets. Son comportement n’est pas programmé, mais émergent. Au cœur de ce système, un événement non chronologique mais structurel : NeoCognition a levé 40 millions de dollars en financement initial pour développer des agents d’IA capables d’apprendre de manière transversale, imitant le processus humain de spécialisation. Ce n’est pas une mise à jour de modèle, mais une rupture avec l’architecture traditionnelle.

Il en résulte que l’accent n’est plus mis sur les performances dans un domaine spécifique, mais sur la capacité à construire une expérience globale à partir de données hétérogènes. Cela implique un changement radical dans la logique de conception : d’un système qui s’adapte à un contexte, à un système qui construit le contexte lui-même. La donnée clé n’est pas la quantité de données, mais leur structure non hiérarchique. L’événement n’est pas le financement, mais sa direction : vers un apprentissage qui ne se base pas sur des ensembles de données prédéfinis, mais sur une capacité à construire des modèles du monde.

SECTION_2_ANATOMIE_DU_PENSÉE_SYNTHÉTIQUE

Le modèle de NeoCognition est basé sur une architecture cognitive qui vise à reproduire la capacité humaine d’apprentissage général. Contrairement aux modèles spécialisés, qui nécessitent des centaines de milliers d’exemples pour atteindre un niveau de fiabilité acceptable, l’approche de NeoCognition vise une forme d’apprentissage itératif, similaire à celui observé chez les enfants : une interaction continue avec un environnement complexe, qui permet la construction d’un ‘modèle du monde’ par l’expérience directe. Cela implique un changement radical dans la structure du système : non plus un réseau neuronal qui traite des entrées prédéfinies, mais un agent qui interagit avec un environnement dynamique et non structuré.

La conséquence opérationnelle est que le système ne dépend pas d’un archivage prédéfini de données, mais génère sa propre structure de connaissance. Le coût computationnel n’est pas concentré dans l’entraînement, mais dans la capacité à maintenir une représentation interne cohérente du monde. Cela implique une latence initiale plus importante, mais une évolutivité supérieure dans le temps. La donnée révèle une dynamique structurelle : le coût de la connaissance n’est plus dans la quantité de données, mais dans la qualité de l’interaction. Le modèle n’est pas une surface d’inférence, mais un système qui s’adapte continuellement, comme un organisme vivant.

Par conséquent, le système ne se base pas sur une carte fixe, mais sur une carte qui se met à jour en temps réel. Cela implique une réduction de la dépendance à des ensembles de données spécifiques, mais une augmentation de la complexité dans la gestion de l’environnement. La tension se manifeste lorsque l’on cherche à appliquer le modèle à des scénarios avec des données incomplètes ou incohérentes. La capacité d’adaptation n’est pas illimitée : le système peut échouer si l’environnement d’interaction est trop différent de celui dans lequel il a été entraîné. La donnée révèle une dynamique structurelle : la robustesse n’est pas dans l’exactitude, mais dans la capacité à maintenir une représentation cohérente même dans des conditions d’incertitude.

SECTION_3_LA_SYMBIOTIQUE_IMPARFAITE

Le marché réagit avec enthousiasme, mais sans compréhension. L’investissement de 40 millions de dollars est perçu comme un signal d’avant-garde, mais son impact n’est pas encore mesuré en termes d’efficacité opérationnelle. Les critiques émergent de la part de ceux qui connaissent les limites du système. Comme l’a déclaré Gary Marcus : « Les modèles linguistiques continuent de produire des informations erronées ». Ce n’est pas un simple erreur de calcul, mais un symptôme d’une profonde fragilité dans l’architecture cognitive. Le système peut générer des réponses plausibles, mais non vérifiables.

« Purveyors of ‘authoritative bullshit’\