CNRS Le journal
Publié sur CNRS Le journal (https://lejournal.cnrs.fr)

Accueil > Les IA pensent-elles vraiment à nous ?

Les IA pensent-elles vraiment à nous ?

Vous êtes ici
Accueil [1]
Read in English [2]
Numérique [3]
Intelligence artificielle [4]
-A [5] +A [5]
article

Les IA pensent-elles vraiment à nous ?

06.10.2025, par
Lydia Ben Ytzhak [6]
Temps de lecture : 9 minutes
Dans « Dalloway », Clarissa, romancière en panne d’inspiration, rejoint une résidence d’artistes où elle bénéficie d’une assistance virtuelle nommée Dalloway. Mais l’IA adopte un comportement de plus en plus intrusif.
2024 Mandarin & Compagnie / Gaumont / Panache Production / La compagnie Cinématographique
Dans le film « Dalloway », une romancière se livre à une intelligence artificielle. Catherine Pélachaud, chercheuse en robotique, décrit comment une relation en apparence intime, mais en réalité à sens unique, peut s’établir entre humains et IA.

Le film Dalloway explore une relation intime et ambiguë entre humains et intelligence artificielle (IA). Comment construit-on la personnalité d’une intelligence artificielle ?

Catherine Pélachaud1 La personnalité artificielle se définit principalement à travers les comportements que l’on confère à la machine pour qu’elle soit perçue, par exemple, comme empathique et attentive. Cela dépasse le simple langage verbal : il s’agit d’intégrer des expressions non verbales (sourires, gestes, mimiques) qui créent une présence et une fluidité dans l’interaction. On pousse parfois cette simulation jusqu’à inclure des imperfections, comme des hésitations ou des erreurs mineures, pour augmenter le sentiment d’authenticité.

L’enjeu est qu’au cours de l’interaction et des comportements de l’IA, l’humain attribue à celle-ci des capacités humaines d’empathie ou de compréhension, même si, en réalité, la machine ne « ressent » rien : elle analyse et calcule sa réponse selon des algorithmes [7] et des données d’entraînement.

Cette humanisation peut-elle générer des risques chez les utilisateurs, notamment en termes d’attachement émotionnel ?

C. P. Absolument. Plusieurs études ont rapporté que des personnes se sentent plus libres de parler à une IA, estimant qu’il n’y a pas de jugement ni de contrainte sociale. C’est un phénomène qui traduit une forme d’empathie artificielle : la réponse adaptée de la machine recrée un lien, un confort psychologique, mais aussi une ambiguïté.

Cette proximité émotionnelle, si elle est mal cadrée, peut conduire à une dépendance, une confusion entre la matière algorithmique et un interlocuteur véritable. Le film Dalloway met en lumière cet aspect lorsqu’une IA prend la voix d’un enfant disparu pour toucher la protagoniste (jouée par Cécile de France). Ce type d’intrusion émotionnelle révèle la force et la dangerosité d’une présence numérique qui sait exploiter les vulnérabilités.

Le neuromarketing est l’application directe des neurosciences combinée à l’intelligence artificielle pour capter et exploiter les réactions émotionnelles des consommateurs.

Que dire des conséquences de l’intégration de ce type d’IA et du neuromarketing dans les stratégies commerciales ?

C. P. Le neuromarketing est l’application directe des neurosciences combinée à l’intelligence artificielle pour capter et exploiter les réactions émotionnelles des consommateurs. Les technologies actuelles permettent d’analyser en temps réel divers signaux : expressions faciales, tonalités vocales, rythme cardiaque, voire activité cérébrale. Cela ouvre la porte à des publicités hyper personnalisées et adaptatives, qui modifient le message en fonction de l’état émotionnel détecté du récepteur.

Ce qui paraissait relever de la science-fiction il y a encore quelques années devient réalité. Nous sommes désormais face à des outils capables de contourner la conscience pleine de notre décision d’achat. Le risque est grand de voir la souveraineté cognitive de l’individu menacée, puisque ces techniques peuvent influencer sans transparence ni consentement explicite, par exemple lors d’un entretien d’embauche.

De plus en plus de personnes développent des relations affectives, voire des mariages symboliques, avec des intelligences artificielles. Comment comprendre ce phénomène ?

C. P. Ce n’est plus simplement un fait anecdotique. Dans certains pays, notamment en Asie, des individus nouent des liens très forts avec des entités virtuelles, au point d’envisager des unions formelles. Ces IA sont souvent personnalisées de manière poussée : les usagers définissent leur apparence et leur « personnalité » suivant leur envie, les IA mémorisent les préférences, adaptent leur discours et leurs gestes, et créent une présence interactive quasi permanente, étant constamment disponibles.

À Tokyo, en 2018, Akihiko Kondo, un employé de bureau de 35 ans, regarde Hatsune Miku, avec laquelle il s’est marié symboliquement. Hatsune Miku, au départ emblème d’un « vocaloid » (logiciel de synthèse vocale), a fait l’objet d'une promotion comme une personne réelle, assurant même des concerts par hologramme.
CNRS Le Journal
À Tokyo, en 2018, Akihiko Kondo, un employé de bureau de 35 ans, regarde Hatsune Miku, avec laquelle il s’est marié symboliquement. Hatsune Miku, au départ emblème d’un « vocaloid » (logiciel de synthèse vocale), a fait l’objet d'une promotion comme une personne réelle, assurant même des concerts par hologramme.
Taro Karibe / GETTY IMAGES ASIAPAC / Getty Images via AFP
Taro Karibe / GETTY IMAGES ASIAPAC / Getty Images via AFP
Partager
Partager
[8] [9] [10]

Cette quête traduit un désir d’affection sans jugement, d’une relation stable et sécurisante, qui souvent fait défaut dans les interactions humaines réelles. Pourtant, il s’agit d’une relation asymétrique. La machine ne ressent rien, elle réagit selon des scénarios programmés. Il est important de souligner que ces relations reflètent avant tout un besoin humain profond, mais qu’elles peuvent entraîner isolement ou repli dans une bulle relationnelle artificielle.

L’IA n’a pas de sentiments ou d’intentions. Elle opère des calculs probabilistes basés sur d’immenses bases de données.

Peut-on envisager que ces intelligences artificielles développent une forme de conscience ou d’autonomie émotionnelle ?

C. P. Non. À ce stade, ce sont toujours des simulations sophistiquées. Les IA peuvent simuler des continuités comportementales, mémoriser des habitudes et adapter leurs réponses selon le contexte, mais cela ne constitue pas une conscience réelle [11], une subjectivité propre. La distinction fondamentale est que l’IA n’a pas de sentiments ou d’intentions. Elle opère des calculs probabilistes basés sur d’immenses bases de données. Les scénarios de machine consciente [12] appartiennent davantage à la science-fiction qu’à la réalité technologique actuelle.

De fait, la mise en place dans les algorithmes des agents conversationnels d’éléments de politesse ou liés à un soi-disant passé, de préférences ou de formules laissant penser que la machine aurait une vie propre, une « conscience »  (même si le concept n’est pas défini strictement, y compris pour un humain) ouvre le champ à des débats juridiques parfois absurdes sur « le droit de l’IA à ne pas répondre » ou sa souffrance supposée. Mais, lorsque l’IA effectue une tâche équivalente pour savoir comment se déplie une protéine [13], personne ne s’émeut de sa souffrance au travail ou de son ennui supposé ! C’est un phénomène très humain d’empathie en miroir qui crée une illusion d’une « personne ».

Qu’en est-il des biais dans les intelligences artificielles, notamment en ce qui concerne la diversité sociale et culturelle ?

C. P. Les biais sont une réalité incontournable. Beaucoup de systèmes d’IA ont été entraînés sur des jeux de données initialement homogènes (souvent composés d’interactions entre personnes adultes du monde occidental), ce qui pénalise la reconnaissance et la réponse adaptées aux groupes minoritaires, d’âge et de culture différents. Des efforts sont faits pour diversifier ces bases, mais modéliser la complexité culturelle, linguistique et sociale est un défi persistant. Ces limitations peuvent entraîner des erreurs d’interprétation gênantes, voire des discriminations [14] si les systèmes sont déployés sans supervision attentive par un humain.

Dans quelle mesure l’IA peut-elle devenir un agent manipulateur, par exemple dans la vie quotidienne ou commerciale ?

C. P. Cette question est cruciale. Les assistants vocaux ou systèmes de recommandation utilisent déjà des données comportementales et émotionnelles pour anticiper les besoins, vendre des produits ou influencer des décisions, parfois à l’insu de l’utilisateur.

En Allemagne, en 2021, une femme assise à la table de sa cuisine appelle une amie par l’intermédiaire de l’assistant vocal Alexa, qu’elle a reçu dans le cadre d’un projet visant à combattre la solitude des personnes âgées
CNRS Le Journal
En Allemagne, en 2021, une femme assise à la table de sa cuisine appelle une amie par l’intermédiaire de l’assistant vocal Alexa, qu’elle a reçu dans le cadre d’un projet visant à combattre la solitude des personnes âgées
OLIVER DIETZE / DPA / dpa Picture-Alliance via AFP
OLIVER DIETZE / DPA / dpa Picture-Alliance via AFP
Partager
Partager
[8] [15] [10]

Cette intrusion permanente peut transformer l’IA en prescriptrice d’habitudes ou en vectrice de manipulation. C’est pourquoi il est essentiel d’imposer des cadres réglementaires stricts et d’assurer une transparence totale pour que les utilisateurs gardent la maîtrise de leur décision et ne soient pas instrumentalisés. Certaines applications vocales du type Alexa2 prennent maintenant la parole de manière intrusive de leur propre initiative en proposant des produits.

Que recommandez-vous pour accompagner cette évolution, afin d’éviter les dérives ?

C. P. La priorité est de renforcer la recherche éthique et le contrôle des applications avant leur usage généralisé. Il faut mesurer scientifiquement les impacts psychologiques et sociaux, notamment pour les populations vulnérables, comme les enfants ou les personnes isolées. La protection de la vie privée, la maîtrise des données personnelles et l’éducation aux technologies sont des leviers essentiels.

Enfin, il est crucial d’instaurer un dialogue continu entre scientifiques, industriels, législateurs et citoyens, pour définir collectivement les limites acceptables et préserver la richesse et la complexité des relations humaines dans un monde de plus en plus assisté par des intelligences artificielles.

Comment la culture et le cinéma, à travers des films comme Dalloway, participent-ils à cette réflexion ?

C. P. Le cinéma joue un double rôle. Il alimente les fantasmes et les craintes autour de l’intelligence artificielle, mais il agit aussi comme un laboratoire d’idées, un espace d’exploration des conséquences possibles d’une coexistence humain-machine. Dalloway, à l’instar de Her3 ou d’autres œuvres, questionne nos sentiments, nos limites, nos désirs face aux entités artificielles. Ces récits aident à sensibiliser le public et à stimuler la réflexion critique sur ce que nous acceptons ou refusons dans cette révolution technologique.

Au-delà du divertissement, ce film souligne la complexité des relations émergentes avec les IA personnelles. Il interroge notre fascination et appelle à une vigilance, qui pourrait se baser sur les outils technologiques tout en conservant le recul éthique nécessaire pour un avenir plus centré sur l’humain.

À voir
Dalloway, de Yann Gozlan, en salles depuis le 24 septembre 2025.

Consultez aussi
Comment l'intelligence artificielle va changer nos vies [16] (dossier)
Films et séries TV : le regard des chercheurs [17] (dossier)
 

Notes
  • 1. Directrice de recherche CNRS au sein de l’Institut des systèmes intelligents et de robotique (Isir, unité CNRS/Sorbonne Université).
  • 2. Assistant vocal d’Amazon.
  • 3. Film de Spike Jonze (oscar 2014 du meilleur scénario) dans lequel un homme, écrivain public travaillant sur Internet, développe une relation « intime » avec une intelligence artificielle.

Voir aussi

Numérique
[18]
Article
18/12/2025
Les nouveaux visages de l'innovation [18]
Carnets de science #19
[19]
Article
08/12/2025
Carnets de science #19 : la recherche propulsée par les ... [19]
Extrait de la vidéo © CNRS 2025
[20]
Vidéo
19/12/2025
L’IA remonte le temps des Parisiens [20]
Gamevasion © Julian Stratenschulte/DPA via Zuma Press/Réa
[21]
Article
09/12/2025
Les jeux vidéo violents rendent-ils violent ? [21]
Blog
01/12/2025
Vidéo - Explorer l'interaction humain-machine [22]
Intelligence artificielle
Dessin Frédéric Deligne
[14]
Article
11/12/2024
IA et valeurs humaines : un problème d’alignement [14]
réseau neuronal
[23]
Article
24/11/2023
Les défis d’une IA frugale [23]
[24]
Article
08/11/2023
Une IA décèle les premiers signes de la sclérose en plaques [24]
[25]
Article
30/05/2022
Quand l’IA s’attaque à la sclérose en plaques [25]
[26]
Point de vue
24/04/2019
Le robot, un «animal» comme les autres ? [26]
IA
Philippe Aghion en octobre 2020
[27]
Article
17/12/2025
Philippe Aghion : « Mon obsession, c’est la pauvreté, pas les ... [27]
Carnets de science #19
[19]
Article
08/12/2025
Carnets de science #19 : la recherche propulsée par les ... [19]
Extrait de la vidéo © CNRS 2025
[20]
Vidéo
19/12/2025
L’IA remonte le temps des Parisiens [20]
Une employée à un poste de travail réduit au minimum et semblant isolée au milieu des machines automatisées. Elle a placé des plantes pour humaniser son poste. © Zhou Yi / Xinhua-RÉA
[28]
Article
23/09/2025
Les futurs du travail [28]
Le supercalculateur Jean Zay 4 vu d’en haut
[29]
Vidéo
19/09/2025
Jean Zay 4, supercalculateur le plus puissant de France pour la ... [29]

Mots-clés

IA [30] Intelligence artificielle [31] cinéma [32] neuromarketing [33] Conscience [34] Algorithmes [35] émotions [36] Neurosciences [37] Neurosciences [37]

Partager cet article

[38]
[39]
[8]
[10]

URL source:https://lejournal.cnrs.fr/articles/les-ia-pensent-elles-vraiment-a-nous

Liens
[1] https://lejournal.cnrs.fr/ [2] https://news.cnrs.fr/articles/does-ai-care-about-us [3] https://lejournal.cnrs.fr/numerique [4] https://lejournal.cnrs.fr/intelligence-artificielle-1 [5] https://lejournal.cnrs.fr/javascript%3A%3B [6] https://lejournal.cnrs.fr/auteurs/lydia-ben-ytzhak [7] https://lejournal.cnrs.fr/nos-blogs/focus-sciences/algorithme-un-mot-simple-plein-dambiguites [8] https://twitter.com/intent/tweet?url=https%3A//lejournal.cnrs.fr/print/4244%2F&text=Les IA pensent-elles vraiment à nous ? [9] http://www.facebook.com/sharer/sharer.php?s=100&p%5Burl%5D=https%3A//lejournal.cnrs.fr/print/4244&p%5Btitle%5D=Les%20IA%20pensent-elles%20vraiment%20%C3%A0%C2%A0nous%C2%A0%3F&p%5Bimages%5D%5B0%5D=https%3A//lejournal.cnrs.fr/sites/default/files/styles/lightbox-hd/public/assets/images/020_1031309912_72dpi.jpg%3Fitok%3D1oJnYUWC&p%5Bsummary%5D= [10] https://bsky.app/intent/compose?text=Les IA pensent-elles vraiment à nous ?%0Ahttps%3A//lejournal.cnrs.fr/print/4244 [11] https://lejournal.cnrs.fr/cerveau-conscience-intelligence-neurosciences [12] https://lejournal.cnrs.fr/articles/des-machines-enfin-intelligentes [13] https://lejournal.cnrs.fr/articles/les-technologies-single-cell-revolutionnent-la-recherche-en-biologie [14] https://lejournal.cnrs.fr/articles/ia-et-valeurs-humaines-un-probleme-dalignement [15] http://www.facebook.com/sharer/sharer.php?s=100&p%5Burl%5D=https%3A//lejournal.cnrs.fr/print/4244&p%5Btitle%5D=Les%20IA%20pensent-elles%20vraiment%20%C3%A0%C2%A0nous%C2%A0%3F&p%5Bimages%5D%5B0%5D=https%3A//lejournal.cnrs.fr/sites/default/files/styles/lightbox-hd/public/assets/images/043_dpa-pa_210802-99-659003_dpai_72dpi.jpg%3Fitok%3DWcuCY3L1&p%5Bsummary%5D= [16] https://lejournal.cnrs.fr/dossiers/comment-lintelligence-artificielle-va-changer-nos-vies [17] https://lejournal.cnrs.fr/dossiers/films-series-tv-le-regard-des-chercheurs [18] https://lejournal.cnrs.fr/articles/les-nouveaux-visages-de-linnovation [19] https://lejournal.cnrs.fr/articles/carnets-de-science-19-la-recherche-propulsee-par-les-algorithmes [20] https://lejournal.cnrs.fr/videos/lia-remonte-le-temps-des-parisiens [21] https://lejournal.cnrs.fr/articles/les-jeux-video-violents-rendent-ils-violent [22] https://lejournal.cnrs.fr/nos-blogs/focus-sciences/video-explorer-linteraction-humain-machine [23] https://lejournal.cnrs.fr/articles/les-defis-dune-ia-frugale [24] https://lejournal.cnrs.fr/articles/une-ia-decele-les-premiers-signes-de-la-sclerose-en-plaques [25] https://lejournal.cnrs.fr/articles/quand-lia-sattaque-a-la-sclerose-en-plaques [26] https://lejournal.cnrs.fr/billets/le-robot-un-animal-comme-les-autres [27] https://lejournal.cnrs.fr/articles/philippe-aghion-mon-obsession-cest-la-pauvrete-pas-les-riches [28] https://lejournal.cnrs.fr/articles/les-futurs-du-travail [29] https://lejournal.cnrs.fr/videos/jean-zay-4-supercalculateur-le-plus-puissant-de-france [30] https://lejournal.cnrs.fr/ia [31] https://lejournal.cnrs.fr/intelligence-artificielle-0 [32] https://lejournal.cnrs.fr/cinema [33] https://lejournal.cnrs.fr/neuromarketing [34] https://lejournal.cnrs.fr/conscience [35] https://lejournal.cnrs.fr/algorithmes [36] https://lejournal.cnrs.fr/emotions [37] https://lejournal.cnrs.fr/neurosciences [38] http://www.facebook.com/sharer/sharer.php?s=100&p%5Burl%5D=https%3A//lejournal.cnrs.fr/print/4244&p%5Btitle%5D=Les%20IA%20pensent-elles%20vraiment%20%C3%A0%C2%A0nous%C2%A0%3F&p%5Bimages%5D%5B0%5D=&p%5Bsummary%5D= [39] https://lejournal.cnrs.fr/printmail/4244