19 février 2026

Temps de lecture : 3 min

Notre cerveau sous influence : Comment les IA génératives modèlent nos émotions et façonnent nos sociétés

Docteure en neurosciences cognitives et psychologue clinicienne, Nadia Guerouaou vient de publier aux Éditions Eyrolles un ouvrage qui analyse comment les IA génératives nous façonnent de manière subtile et profonde, sans même que nous en soyons conscients. Dans nos conversations personnelles comme dans nos requêtes professionnelles, elles occupent le centre des interactions sociales où s’expriment nos émotions et par lesquelles nous constituons nos subjectivités. A méditer... sans IA!

INfluencia : Depuis quand vous intéressez-vous à l’impact des nouvelles technologies en général, et de l’IA en particulier, sur nos émotions?

Nadia Guerouaou : Dans ma thèse de doctorat que j’ai soutenu en 2024 et sur laquelle j’ai commencé à travailler en 2020, je me suis beaucoup intéressée aux filtres vocaux. Ces outils permettent de transformer en temps réel la tonalité émotionnelle de la voix.

Mes travaux ont montré qu’ils pouvaient se révéler utiles pour certains patients. Une personne qui s’entend parler avec un ton de voix un peu moins chargé en émotion peut notamment aller plus facilement au bout de ce processus thérapeutique.

IN : Depuis quand ces outils de contrôle vocal existent-ils ?

N. G. : Les scientifiques travaillent dessus depuis de nombreuses années. C’est vrai notamment à l’Institut de recherche et coordination acoustique/musique (Ircam) avec lequel j’ai travaillé pour ma thèse.

IN : Les entreprises privées commencent-elles aujourd’hui à les utiliser.

N. G. : Oui. Le groupe japonais Softbank a notamment développé un outil qui transforme automatiquement et en temps réel la voix des personnes en colère qui appellent des centres d’appels afin de soulager le stress des employés.

IN : Avez-vous été étonnée par cette évolution ?

N. G. : Aucunement. Je l’avais même prévu. Lors de mes travaux, j’ai imaginé plusieurs scénarii possibles sur les possibles impactsde tels outils dans la société et l’un d’entre eux était la possibilité d’altérer la voix de personnes en colère. 

Le plus intéressant avec mes hypothèses à la « Black Mirror » est la réaction des personnes à qui je les ai présentées. La plupart d’entre elles n’étaient pas opposées à leur utilisation même dans le cas où elles n’auraient pas été alertées au préalable.

IN : Les outils de transformation de nos émotions ne sont pas encore très utilisés sur les plateformes d’IA générative….

N. G. : Non pour l’instant, les gens interagissent principalement avec l’IA par écrit mais cela va rapidement évoluer. En plus des outils capables de transformer la voix, il existe des filtres maquillage qui peuvent corriger nos visages ou ajuster nos expressions faciales en temps réel lors des échanges vidéo. Regardez par exemple : nous nous parlons en visio. Je pourrais très bien utiliser un dispositif pour apparaître plus souriante.

IN : Quels peuvent être les impacts de ces outils qui transforment nos interactions sociales ?

N. G. : Il n’existe pas beaucoup d’études qui statuent sur les effets à long terme de l’IA générative sur nos émotions. Jusqu’à présent, elles apparaissaient comme des indices relativement honnêtes des états intérieurs de nos interlocuteurs mais les algorithmes permettront bientôt de rendre nos expressions émotionnelles faciales et vocales paramétrables à loisir.

Tout un chacun pourra fabriquer ou dissimuler, sans effort ni compétence particulière, l’expression de ses sentiments.

Une chose toutefois est acquise : nous savons que nos capacités expressives transforment les émotions que nous ressentons. Confier ces capacités à des machines soulève des enjeux de contrôle, voire de dépossession. De fait, ces émotions paramétrées seront-elles toujours les nôtres ?

D’aucuns redoutent un phénomène d’uniformisation algorithmique générale. Déjà exercée sur nos corps – le recours accru à la chirurgie esthétique et aux filtres IA en témoigne -,  il pourrait s’étendre à nos psychismes, à leur tour soumis au lissage par des modèles nourris de culture nord-américaine. Ce risque est réel, soutenu par des politiques d’investissement stratégiques dont l’AI Action Plan américain est le fer de lance.

Avec les IA génératives, le masque social est de silicium et il est appliqué automatiquement, sans conscience des règles qu’il impose, ni des normes qu’il véhicule. Ces technologies ne sont ni de simples outils, ni neutres. Elles n’expriment pas seulement nos émotions. Elles influencent tout ce qui nous touche et reconfigurent progressivement nos valeurs, notre perception du monde, des autres et de nous-mêmes.

IN : Les gens ne vont-ils pas prendre conscience de ces risques ?

N. G. : C’est déjà le cas. Lorsqu’une personne sourie trop ou trop souvent lors d’une visio ou sur une vidéo, son interlocuteur se demande si son expression est réelle ou non. On parle alors d’indice d’artificialité. Le même doute peut apparaître quand une femme ou un homme paraît d’excellente humeur. Cela prouve que les nouvelles technologies risquent de reconfigurer nos sens.

IN : Comment lutter contre ce phénomène ?

N. G. : Il est important de se poser les bonnes questions car aujourd’hui, tous ces nouveaux dispositifs sont déployés par les oligarques de la tech sans aucun contrôle. Il est nécessaire de revoir le design des plateformes, de lancer de véritables débats sur ces questions et de redéfinir les politiques publiques autour de ces questions. 

Qui peut décider si tel ou tel sourire est légitime ou si une colère doit être gommée ou non ? La réponse à ces questions doit être le fruit d’une discussion collective.

Les LLM comme ChatGPT sont arrivés d’un coup sans aucune discussion préalable. Les outils de contrôle de nos émotions sont encore nouveaux et peu répandus mais ils vont évoluer très vite. Il est donc important d’en discuter très rapidement et pour l’instant, c’est loin d’être le cas.

Allez plus loin avec Influencia

les abonnements Influencia

Les médias du groupe INfluencia

Les newsletters du groupe INfluencia