Comment ressentir les émotions d’un animal à un moment précis ? Depuis longtemps, les humains interprètent certains comportements animaux évidents, comme le sifflement d’un chat en signe d’avertissement. Toutefois, il reste difficile de comprendre ce qui se passe réellement dans l’esprit des animaux.
Grâce à un chercheur basé à Milan, nous commençons à mieux comprendre. Ce dernier a développé un modèle d’intelligence artificielle capable de détecter si les cris des animaux expriment des émotions positives ou négatives. Le modèle d’apprentissage profond de Stavros Ntalampiras, publié dans Scientific Reports, parvient à identifier les tonalités émotionnelles chez sept espèces d’animaux à sabots, y compris les porcs, les chèvres et les vaches. Le modèle analyse des caractéristiques communes dans leurs cris, telles que le ton, la gamme de fréquences et la qualité tonale.
L’étude révèle que les cris négatifs tendent à présenter des fréquences moyennes à élevées, tandis que les cris positifs sont plus uniformément répartis sur le spectre. Chez les porcs, les cris aigus sont particulièrement révélateurs, alors que chez les moutons et les chevaux, les fréquences moyennes sont plus significatives, indiquant que les animaux partagent certains marqueurs émotionnels communs mais les expriment également de manière variable selon l’espèce.
Pour les scientifiques qui tentent depuis longtemps de démêler les signaux animaux, cette découverte des traits émotionnels transversaux aux espèces constitue une avancée majeure dans un domaine en pleine transformation grâce à l’IA.
Les implications de cette recherche sont considérables. Les agriculteurs pourraient être alertés plus tôt en cas de stress du bétail, les conservateurs pourraient surveiller à distance la santé émotionnelle des populations sauvages, et les soigneurs de zoo pourraient réagir plus rapidement aux changements subtils de bien-être.
Cette nouvelle perspective sur le monde animal soulève également des questions éthiques. Si un algorithme peut détecter de manière fiable lorsqu’un animal est en détresse, quelle responsabilité les humains ont-ils d’agir ? Et comment éviter de faire des généralisations excessives, en supposant que tous les signes d’excitation signifient la même chose pour chaque espèce ?
Des aboiements aux bourdonnements
Des outils comme celui développé par Ntalampiras ne sont pas conçus pour « traduire » les animaux au sens humain, mais pour détecter des modèles comportementaux et acoustiques trop subtils pour être perçus sans aide.
Des travaux similaires sont en cours avec les baleines, où l’organisation de recherche basée à New York, Project Ceti (l’initiative de traduction des cétacés), analyse des séquences de clics structurés appelés codas. Longtemps considérés comme ayant une signification sociale, ces codas sont désormais cartographiés à grande échelle grâce à l’apprentissage automatique, révélant des modèles qui pourraient correspondre à l’identité, à l’affiliation ou à l’état émotionnel de chaque baleine.
Chez les chiens, les chercheurs associent les expressions faciales, les vocalisations et les motifs de remuement de la queue aux états émotionnels. Une étude a montré que de subtiles modifications des muscles faciaux des chiens correspondent à la peur ou à l’excitation. Une autre a découvert que la direction de la queue varie selon que le chien rencontre un ami familier ou une menace potentielle.
À l’Insight Centre for Data Analytics de l’Université de Dublin, nous développons un collier de détection porté par des chiens d’assistance formés pour reconnaître le début d’une crise chez les personnes épileptiques. Le collier utilise des capteurs pour détecter les comportements entraînés du chien, comme tourner en rond, ce qui signale que leur propriétaire est sur le point de faire une crise.
Le projet, financé par Research Ireland, vise à montrer comment l’IA peut exploiter la communication animale pour améliorer la sécurité, favoriser une intervention opportune et améliorer la qualité de vie. À l’avenir, nous prévoyons de former le modèle pour reconnaître les comportements instinctifs des chiens, tels que donner des coups de patte, pousser du museau ou aboyer.
Les abeilles aussi sont sous la loupe de l’IA. Leurs danses en forme de huit, qui indiquent les sources de nourriture, sont décodées en temps réel grâce à la vision par ordinateur. Ces modèles montrent comment de petits changements de position influencent la façon dont les autres abeilles interprètent le message.
Mises en garde
Ces systèmes promettent de réels progrès en matière de bien-être et de sécurité animale. Un collier qui détecte les premiers signes de stress chez un chien de travail pourrait lui éviter l’épuisement. Un troupeau laitier surveillé par une IA basée sur la vision pourrait être traité pour une maladie des heures ou des jours avant qu’un agriculteur ne le remarque.
Détecter un cri de détresse n’est cependant pas la même chose que comprendre ce qu’il signifie. L’IA peut montrer que deux codas de baleine se produisent souvent ensemble, ou qu’un cri de porc partage des caractéristiques avec un bêlement de chèvre. L’étude de Milan va plus loin en classant ces appels comme globalement positifs ou négatifs, mais même cela reste de la reconnaissance de motifs pour essayer de décoder les émotions.
Les classificateurs émotionnels risquent de réduire des comportements riches à de simples binaires de content/triste ou calme/stressé, comme enregistrer un mouvement de queue de chien comme un « consentement » alors qu’il peut parfois signaler un stress. Comme le note Ntalampiras dans son étude, reconnaître des motifs n’est pas la même chose que comprendre.
Une solution serait que les chercheurs développent des modèles qui intègrent des données vocales avec des indices visuels, comme la posture ou l’expression faciale, et même des signaux physiologiques tels que le rythme cardiaque, pour construire des indicateurs plus fiables des émotions animales. Les modèles d’IA seront également plus fiables lorsqu’ils seront interprétés dans leur contexte, en parallèle avec les connaissances de quelqu’un d’expérimenté avec l’espèce.
Il convient également de garder à l’esprit que le coût écologique de l’écoute est élevé. Utiliser l’IA ajoute des coûts de carbone qui, dans des écosystèmes fragiles, compromettent les objectifs de conservation qu’ils prétendent servir. Il est donc important que toute technologie serve véritablement le bien-être animal, plutôt que de simplement satisfaire la curiosité humaine.
Que nous l’acceptions ou non, l’IA est là. Les machines décodent désormais des signaux que l’évolution a affinés bien avant nous, et continueront de s’améliorer.
Le vrai défi, cependant, n’est pas tant d’écouter que de savoir que faire de ce que nous entendons. Si nous dépensons de l’énergie pour décoder les signaux des animaux mais utilisons ensuite ces informations pour les exploiter ou les gérer plus étroitement, ce n’est pas la science qui échoue – c’est nous.
Articles similaires
- Animaux : Pourquoi ne parlent-ils pas comme les humains ? La quête de leur langage échoue
- Votre chien ou chat vieillit? Ces gestes simples pourraient prolonger et embellir leur vie!
- Robots animaux de compagnie: Adorables et réactifs, mais quel impact sur notre santé mentale?
- Chats transforment nos vies : ce que cela change pour votre quotidien
- Régulation émotionnelle et dépression périnatale: Nouvelles découvertes de l’Université de Tübingen

Pierre Dupont est journaliste spécialisé dans l’actualité européenne. Il vous guide au cœur des événements en France et sur le continent avec rigueur et clarté.



