Cerveaux numériques qui pensent et ressentent : Pourquoi personnifie-t-on les IA?

Publié le :

Par : Pierre Dupont

Partager l'article

La presse utilise fréquemment des métaphores et des exemples pour démystifier des sujets complexes et les rendre plus accessibles. Avec l’émergence des chatbots alimentés par l’intelligence artificielle (IA), cette tendance à anthropomorphiser la technologie s’est accentuée, que ce soit par des comparaisons avec la médecine, des similitudes connues ou des scénarios dystopiques.

Bien que l’IA ne soit en réalité que du code et des circuits, les médias ont souvent tendance à attribuer des qualités humaines aux algorithmes. Alors, que perdons-nous et que gagnons-nous lorsque l’IA cesse d’être simplement un appareil pour devenir, d’un point de vue linguistique, un alter ego humain, une entité qui « pense », « ressent » et même « prend soin » ?




À lire aussi :
L’empathie artificielle de ChatGPT est un tour de langage. Voici comment cela fonctionne


Le cerveau numérique

Un article du journal espagnol El País a décrit le modèle chinois d’IA DeepSeek comme un « cerveau numérique » qui « semble comprendre assez clairement le contexte géopolitique de sa création ».

Cette formulation remplace le jargon technique – modèle de base, paramètres, GPU, etc. – par un organe que nous reconnaissons tous comme le centre de l’intelligence humaine. Cela a deux conséquences. Cela permet aux gens de comprendre l’ampleur et la nature de la tâche (« penser ») effectuée par la machine. Cependant, cela suggère aussi que l’IA possède un « esprit » capable de porter des jugements et de se souvenir des contextes – ce qui est actuellement loin de la réalité technique.

Cette métaphore s’inscrit dans la théorie classique des métaphores conceptuelles de George Lakoff et Mark Johnson, qui soutient que les concepts aident les humains à comprendre la réalité, et leur permettent de penser et d’agir. En parlant de l’IA, cela signifie que nous transformons des capacités difficiles et abstraites (« calcul statistique ») en des capacités familières (« penser »).

Bien que potentiellement utile, cette tendance risque de masquer la différence entre corrélation statistique et compréhension sémantique. Elle renforce l’illusion que les systèmes informatiques peuvent réellement « connaître » quelque chose.

Lire aussi :  Testez à intervalles réguliers : Boostez votre mémoire à long terme !

Des machines qui ressentent

En février 2025, ABC a publié un rapport sur l’« IA émotionnelle » qui posait la question : « viendra-t-il un jour où elles seront capables de ressentir ? » Le texte relatait les progrès réalisés par une équipe espagnole pour doter les systèmes de conversation IA d’un « système limbique numérique ».

Ici, la métaphore devient encore plus audacieuse. L’algorithme ne pense plus seulement, mais peut également souffrir ou ressentir de la joie. Cette comparaison dramatise l’innovation et la rend plus proche du lecteur, mais elle comporte des erreurs conceptuelles : par définition, les sentiments sont liés à l’existence corporelle et à la conscience de soi, ce que le logiciel ne peut pas avoir. Présenter l’IA comme un « sujet émotionnel » facilite la demande d’empathie ou la critique pour cruauté. Elle déplace donc l’accent moral des personnes qui conçoivent et programment la machine vers la machine elle-même.

Un article similaire réfléchissait que « si l’intelligence artificielle semble humaine, ressent des émotions comme un humain et vit comme un humain… qu’importe si c’est une machine ? »




À lire aussi :
Humaniser l’IA pourrait nous conduire à nous déshumaniser


Des robots qui prennent soin

Les robots humanoïdes sont souvent présentés en ces termes. Un rapport dans El País sur la poussée de la Chine pour les androïdes de soins aux personnes âgées les décrivait comme des machines qui « prennent soin de leurs aînés ». En disant « prendre soin », l’article fait référence au devoir familial de s’occuper des aînés, et le robot est présenté comme un parent qui fournira la compagnie émotionnelle et l’assistance physique précédemment fournies par la famille ou le personnel soignant.

Cette métaphore du soignant n’est pas totalement négative. Elle légitime l’innovation dans un contexte de crise démographique, tout en apaisant les craintes technologiques en présentant le robot comme un soutien essentiel face à la pénurie de personnel, plutôt que comme une menace pour l’emploi.

Cependant, elle pourrait être vue comme occultant les questions éthiques autour de la responsabilité lorsque le travail de soin est effectué par une machine gérée par des entreprises privées – sans parler de la nature déjà précaire de ce type de travail.

Lire aussi :  Combattre la sédentarité: Quel est le meilleur exercice pour des pauses actives?

L’assistant du médecin

Dans un autre rapport de El País, les grands modèles de langage étaient présentés comme un assistant de médecin ou une « extension », capables de revoir les dossiers médicaux et de suggérer des diagnostics. La métaphore du « scalpel intelligent » ou du « résident infatigable » positionne l’IA dans le système de santé comme un collaborateur de confiance plutôt qu’un substitut.

Ce cadre hybride – ni un dispositif inerte, ni un collègue autonome – favorise l’acceptation publique, car il respecte l’autorité médicale tout en promettant l’efficacité. Cependant, cela ouvre également des discussions sur la responsabilité : si l’« extension » commet une erreur, la faute incombe-t-elle au professionnel humain, au logiciel ou à l’entreprise qui commercialise le produit ?

Pourquoi la presse utilise-t-elle des métaphores ?

Plus qu’un simple ornement, ces métaphores remplissent au moins trois fonctions. Premièrement, elles facilitent la compréhension. Expliquer les réseaux neuronaux profonds nécessite du temps et du jargon technique, mais parler de « cerveaux » est plus digestible pour les lecteurs.

Deuxièmement, elles créent un drame narratif. Le journalisme prospère grâce à des histoires avec des protagonistes, des conflits et des dénouements. Humaniser l’IA crée ces éléments, ainsi que des héros et des vilains, des mentors et des apprentis.

Troisièmement, les métaphores servent à formuler des jugements moraux. Seulement si l’algorithme ressemble à un sujet peut-il être tenu responsable ou recevoir du crédit.

Cependant, ces mêmes métaphores peuvent entraver la délibération publique. Si l’IA « ressent », alors il est logique qu’elle doive être réglementée comme le sont les citoyens. De même, si elle est perçue comme ayant une intelligence supérieure à la nôtre, il semble naturel que nous devrions accepter son autorité.




À lire aussi :
Nous devons arrêter de prétendre que l’IA est intelligente – voici comment


Comment parler de l’IA

Éliminer ces métaphores serait impossible, ni souhaitable. Le langage figuré est la manière dont les êtres humains appréhendent l’inconnu, mais l’important est de l’utiliser de manière critique. À cette fin, nous proposons quelques recommandations pour les rédacteurs et les éditeurs :

  • Il est important d’ajouter des contrepoints techniques. Cela signifie, après avoir introduit la métaphore, expliquer brièvement mais clairement ce que le système en question fait et ne fait pas.

    Il est également important d’éviter d’attribuer à l’IA une agence absolument humaine. Cela signifie que des phrases telles que « l’IA décide » doivent être nuancées : le système « recommande-t-il » ? L’algorithme « classe-t-il » ?

  • Mentionner des sources humaines responsables est également crucial. Nommer les développeurs et les régulateurs nous rappelle que la technologie ne surgit pas du vide.

  • En outre, nous devrions diversifier les métaphores et explorer des images moins anthropomorphiques – par exemple, « microscope » ou « moteur statistique » – qui peuvent enrichir la conversation.

Bien que « humaniser » l’intelligence artificielle dans la presse aide les lecteurs à se familiariser avec une technologie complexe, plus l’IA nous ressemble, plus il est facile de projeter des peurs, des espoirs et des responsabilités sur des serveurs et des lignes de code.

À mesure que cette technologie se développe davantage, la tâche des journalistes – ainsi que celle de leurs lecteurs – sera de trouver un équilibre délicat entre le pouvoir évocateur de la métaphore et la précision conceptuelle nécessaire pour continuer à avoir des débats éclairés sur l’avenir.

Articles similaires

Notez cet article
Partager l'article

Laisser un commentaire

Share to...