Donner du sens à la science

A propos

À travers différents projets mêlant plusieurs disciplines, ce blog vous invite à découvrir la recherche en train de se faire. Des scientifiques y racontent la genèse d’un projet en cours, leur manière d’y parvenir, leurs doutes… Ces recherches s'inscrivent dans le programme « Science avec et pour la société » de l’Agence nationale de la recherche (ANR).
Pour en savoir plus, lire l'édito.

Les auteurs du blog

Par le réseau de communicants du CNRS

A la une

Écouter le son de la voix dans la tête
28.01.2026, par Sophie Blitman
Mis à jour le 07.01.2026

Comment percevons-nous vraiment notre propre voix ? Si les sons se propagent dans l’air, ils circulent aussi à l’intérieur de la tête. Une équipe de recherche grenobloise explore cette écoute interne, encore très mystérieuse, dans le cadre d’un projet qui associe expériences et modélisation.

"Pot vibrant" Expérience sur un sujet avec, à droite, une oreillette antibruit et, à gauche, le « pot vibrant » dont l'extrémité est appliquée sur le front avec une force calibrée. Les fils de l'accéléromètre sortent par la commissure des lèvres. © GIPSA-Lab, copyright licence libre CC by SA

Parler, chanter ou jouer d’un instrument : autant d’actions qui nous font vibrer, au sens propre. Car si les sons nous parviennent par la voie aérienne, celle que mesure un microphone et que connaissent bien les acousticiens, une seconde voie existe, plus discrète et moins étudiée : la conduction interne, qui transmet le signal par les os du crâne et les tissus mous (comme la joue ou le cartilage du conduit auditif), et transporte parfois des informations qu’une oreille extérieure ne perçoit pas.

C’est pour mesurer et modéliser cette dimension encore largement méconnue que Pierre Baraduc, spécialiste de neurosciences et chercheur CNRS au laboratoire Grenoble Images Parole Signal Automatique[1], a lancé en 2022 le projet INCEPTION-CONTROL[2], soutenu par l’Agence nationale de la recherche[3]. Son ambition : comprendre le retour auditif dans sa globalité quand on parle, chante ou joue d’un instrument à vent.

Défi expérimental

Le projet démarre avec un problème expérimental : comment accéder au signal interne alors qu’on ne peut pas installer un microphone à l’intérieur du crâne ? Pierre Baraduc sollicite son collègue Coriandre Vilain, ingénieur de recherche à l’université Grenoble-Alpes et responsable du plateau technique MUSA (Multimodal Speech Acquisition) du GIPSA-Lab. Ensemble, ils imaginent un dispositif placé au fond de l’oreille. C’est un petit microphone relié à un capillaire (un tube souple de moins d’un millimètre de diamètre), que l’on insère délicatement dans l’oreille, elle-même plaquée contre une grosse oreillette de casque antibruit. « Il a fallu un an pour stabiliser le dispositif », raconte Coriandre Vilain. Si ce microphone ne mesure pas directement le signal interne, il est néanmoins situé au plus près de la cochlée, l’organe qui assure l’audition. « Le signal reçu n’est pas exactement celui de la conduction interne mais il lui est fortement corrélé », précise Pierre Baraduc.

Reste qu’à la différence des mesures aériennes objectives d’un signal acoustique, la perception humaine est une construction effectuée par le cerveau. Les scientifiques procèdent donc par étalonnage : pendant les mesures, les participants aux expériences comparent leur perception de sons internes à celle de sons aériens similaires.

Le dispositif se construit par étapes, jusqu’à l’utilisation d’un « pot vibrant » : un vibrateur utilisé en laboratoire pour caractériser les réponses mécaniques de structures vibrantes, capable de reproduire des sons dans tout le spectre audible. Les premières expériences se limitent à une dizaine de personnes, toutes issues de la communauté universitaire car le projet est encore en phase de développement. Si un dossier a été déposé auprès du comité d’éthique de l’Université Grenoble Alpes afin d’élargir la population testée, cet échantillon est d’ores et déjà significatif : « les retours auditifs internes et externe de la parole peuvent être massivement différents », observe Pierre Baraduc, qui relève aussi « une grande variabilité d’un individu à l’autre, possiblement liée à des facteurs physiologiques ».
Le microphone capillaire se révèle efficace pour la parole ou le chant, mais moins adapté aux instruments à vent et à la perception interne des hautes fréquences.

Les dents comme capteurs

Face à ces limites, l’équipe cherche une autre manière d’accéder au signal interne. Peut-être avec un accéléromètre ? Traditionnellement employé en mécanique, le capteur serait placé sur une dent de la mâchoire supérieure, dont les vibrations se révèlent étroitement liées à la conduction interne. Mais encore faut-il parvenir à l’installer.
Les scientifiques se tournent vers Christophe Jeannin, dentiste et professeur des universités-praticien hospitalier à Lyon, collaborateur de longue date avec le GIPSA-Lab. Il leur propose un composite polymérisable, une sorte de « colle » utilisée pour des montages dentaires temporaires. L’accéléromètre, de la taille d’un gros grain de riz, peut alors être fixé sur une dent.

Le résultat dépasse les attentes : le signal obtenu est d’une qualité excellente. Mais de nouveaux défis apparaissent, à commencer par la difficulté à fixer durablement le capteur, indique Coriandre Vilain. Les scientifiques identifient aussi un problème d’étanchéité. Utiliser un capteur plus grand améliorerait celle-ci mais compliquerait la pose. « Il faut trouver un compromis entre la taille et l’étanchéité », résume Coriandre Vilain, aujourd’hui engagé dans la conception d’un nouveau prototype.
Ainsi, les développements méthodologiques utilisant microphone capillaire et accéléromètre avancent en parallèle, mesurant respectivement les vibrations des tissus mous et celles des os. Deux fenêtres complémentaires sur une même réalité : l’écoute intérieure.

Modélisation et cartographie des sons

Outre les mesures physiques, le projet INCEPTION-CONTROL comporte une part importante de modélisation. Grâce aux techniques de conversion de voix issues du traitement automatique des langues, les scientifiques comparent les signaux captés par voie aérienne et ceux issus de la conduction interne. « Si l’on ne peut pas reconstituer entièrement un signal à partir de l’autre, c’est un signe que certaines informations n’existent que dans une seule des deux voies », explique Pierre Baraduc. 
Selon le phonème, la conduction aérienne et la conduction interne apportent des éléments différents, avec un équilibre variable entre os et tissus mous. Par exemple, « le son [s], produit au niveau des dents, fait fortement vibrer les os du palais », détaille le chercheur. Les scientifiques élaborent ainsi une carte des phonèmes de la langue française, distinguant les informations véhiculées par chaque mode de conduction.

Forts de ces premiers résultats, ils espèrent lancer courant 2026 une vaste campagne de mesures réunissant microphone capillaire et accéléromètre, appliquées à la fois à la parole, au chant et au jeu d’instruments à vent. Pour mener à bien cette aventure, ils se sont adjoint les compétences de Nathalie Henrich (GIPSA-Lab), spécialiste de la voix chantée, et celles de Sophie Donnadieu du Laboratoire de psychologie et neurocognition (LPNC - CNRS / UGA / USMB), experte en psychoacoustique musicale.

Des perspectives scientifiques et sociétales

À long terme, les applications pourraient être nombreuses. Elles permettraient, par exemple, de mieux comprendre l’acquisition du langage chez les enfants, en ayant une idée plus claire du signal acoustique qu’ils entendent pendant leurs vocalisations et de ses différences avec la parole qu’ils cherchent à imiter, entendue par voie aérienne. En particulier, la difficulté à produire les différences entre certains sons, comme [s] et [ch], pourrait ne pas être uniquement motrice mais avoir une part perceptive, l’enfant entendant de manière interne des contrastes en réalité peu saillants pour un auditeur.
Ces dispositifs de captation de la parole interne pourraient aussi contribuer à créer des systèmes de communication capables d’extraire la parole d’une personne dans un environnement bruyant, en convertissant directement des vibrations internes en signal audible.
 « Le chemin est encore long jusqu’à ces applications », reconnaît Pierre Baraduc, qui se réjouit de poursuivre ce projet, « propice aux sauts expérimentaux et au défrichement de nouvelles méthodes ».

[1] GIPSA-Lab - CNRS / UGA / Grenoble INP - UGA / Inria
[2] Inception-control : Conduction osseuse en parole et musique
[3] Partenaires du projet Inception-control :
- Grenoble Images Parole Signal Automatique (GIPSA-Lab - CNRS / UGA / Grenoble INP / Inria)
- Laboratoire de psychologie et neurocognition (LNPC - CNRS / UGA / USMB)

_ _ _

Ces recherches ont été financées en tout ou partie, par l’Agence nationale de la recherche (ANR) au titre du projet ANR - Inception-control - AAPG21. Cette communication est réalisée et financée dans le cadre de l’appel à projet Sciences Avec et Pour la Société - Culture Scientifique Technique et Industrielle pour les projets JCJC et PRC des appels à projets génériques 2021 (SAPS-CSTI-JCJC et PRC AAPG 21).

Photo du bandeau : © Quim Muns / Pixabay