La question que pose La mente neurale est simple en apparence mais déstabilisante : nos idées, nos abstractions, seraient-elles « faites de chair » ? Srini Narayanan, chercheur de DeepMind, et George Lakoff répondent par l’affirmative et proposent une vision du cerveau comme réseau incarné — un organe dont la pensée naît des mêmes circuits qui contrôlent le corps. Ce changement de perspective a des conséquences profondes pour la neuroscience, la linguistique et même pour l’intelligence artificielle. Voici ce que j’en retiens.

Penser, c’est projetter l’expérience du corps

Les auteurs partent d’un constat concret : nous n’acquérons pas les concepts abstraits hors du monde sensoriel. Les bébés associent très tôt des sensations physiques (chaleur, pression, mouvement) à des états émotionnels (confort, sécurité). Ces « métaphores premières » servent ensuite de matériel brut pour construire des notions plus complexes. Ce n’est pas une métaphore littéraire : l’idée que « ce qui est grand est important » repose sur des corrélations sensori‑motrices répétées qui se stabilisent en circuits neuronaux.

Les idées sont des motifs d’activation neuronale

Selon Narayanan et Lakoff, un concept n’est pas une entité immatérielle mais l’activation coordonnée d’ensembles de neurones — des « cartes » ou « cadres » distribués dans le cerveau. Quand on pense à la justice, ce n’est pas un label abstrait qui flotte ; c’est l’activation d’un réseau qui a été construit par l’expérience sociale et sensorielle : équité, punition, accueil, déséquilibre, etc. Ces réseaux se renforcent par co‑activation (le fameux principe « neurons that fire together wire together ») et deviennent nos représentations de la réalité.

Lire  Ce micro-ordinateur espion à 40€ tient dans une clé USB et peut pirater un réseau Wi-Fi en 10 secondes

Le cerveau n’est pas un ordinateur symbolique

Une des cibles principales du livre est le modèle classique de la cognition qui assimile le cerveau à un ordinateur opérant sur des symboles. Narayanan explique que cette image est réductrice : le cerveau est constamment engagé dans la régulation corporelle (entéroception), la planification motrice et l’interaction sociale. Le calcul symbolique sans corps risque de produire des réponses déconnectées de l’expérience vécue — ce qui, selon les auteurs, éclaire les limites actuelles des grands modèles de langage.

Mettre l’IA en perspective : que manquent‑ils aux LLM ?

Les modèles linguistiques massifs (LLM) disposent d’un vaste corpus culturel. Ils imitent nos réponses parce qu’ils apprennent des productions humaines. Mais ils n’ont pas cette ancre incarnée : pas de sensations internes, pas d’actions physiques, pas d’affects inscrits dans un corps. Narayanan nuance toutefois : ces modèles peuvent rester des outils puissants si on les canalise pour résoudre des problèmes concrets, sans leur attribuer une compréhension humaine pleine et entière.

Les métaphores façonnent la pensée politique et sociale

George Lakoff a longtemps montré que la politique se joue aussi au niveau métaphorique : « l’économie est une machine » n’a pas le même cadre cognitif que « l’économie est un organisme ». Ces métaphores sont des circuits : elles activent des cadres conceptuels qui influencent perceptions et choix. Changer les métaphores, c’est, à terme, recâbler des manières de voir le monde — un processus possible, mais lent et ancré dans l’expérience collective.

La logique vient‑elle du contrôle moteur ?

Une idée fascinante du livre est que les structures du raisonnement dérivent de circuits de contrôle moteur réutilisés. Planifier un mouvement, inhiber une action, enchaîner des séquences — tout cela engage des schémas de coordination neuronale qui, par réemploi et abstraction, finissent par former la base de la pensée déductive. Autrement dit, penser serait un peu comme « exécuter des programmes moteurs » mais appliqués aux idées.

Lire  « Les meilleurs outils pour apprendre le hacking de manière éthique »

Conséquences pour la recherche et l’éducation

  • Pour la neuroscience : mieux étudier les corrélations entre action, sensation et représentation ; comprendre comment des motifs incarnés se transforment en concepts abstraits.
  • Pour l’intelligence artificielle : intégrer des formes d’apprentissage ancrées dans l’interaction sensorimotrice plutôt que se contenter d’énormes corpus textuels.
  • Pour l’éducation : concevoir des pédagogies qui mobilisent le corps et l’expérience, pas seulement l’abstraction pure.
  • Les enjeux éthiques et philosophiques

    Décliner la pensée en circuits incarnés remet en question des dualismes anciens (esprit vs matière). Cela implique aussi une conception de l’intelligence moins universelle et plus contextuelle : certaines architectures cérébrales portent intrinsèquement des façons de conceptualiser le monde. La diversité des corps et des histoires individuelles produit donc une diversité de mondes cognitifs — ce qui oblige la science à penser la cognition comme plurielle.

    Ce que cela change pour nos imaginaires sur l’intelligence

    Si les idées sont liées au corps, l’intelligence artificielle ne peut prétendre l’égaler simplement en ingérant des textes. La vraie rupture tiendra peut‑être au couplage de modèles computationnels et de capteurs/actionneurs — robots, avatars sensoriels, environnements immersifs — capables de fournir à l’IA une base d’expérience incarnée. Mais même là, la question demeurera : l’IA « vit‑elle » ou simule‑t‑elle ? Narayanan ne propose pas d’illusion anthropomorphique ; il invite surtout à replacer la compréhension humaine au centre des débats sur la cognition.

    Ce livre est un appel à repenser l’intelligence non pas comme une opération abstraite hors sol, mais comme une property émergente d’un système vivant engagé dans un monde sensoriel et social. Pour qui s’intéresse à l’intersection entre cerveau, langage et technologie, c’est une lecture qui bouleverse les évidences et ouvre de nouvelles pistes de réflexion — pratiques, scientifiques et éthiques.

    Lire  Identifier les arnaques des brouteurs : comment les repérer et s'en protéger

    By Octave