
Aides auditives du futur : quand l’oreille devient intelligente
Rechargeables grâce aux mouvements de la mâchoire, capables de se concentrer sur la voix que l’on veut entendre, mais aussi de surveiller notre santé… Les aides auditives vivent une véritable révolution. À la croisée de l’acoustique, des neurosciences et de l’intelligence artificielle, elles s’apprêtent à changer radicalement la vie de millions de personnes. Entretien avec Jérémie Voix, chercheur et professeur à l’École de technologie supérieure (ÉTS) de Montréal, spécialiste de l’acoustique intra-auriculaire.
Au salon Vivatech de Paris, en 2025, vous avez présenté une prothèse auditive qui se recharge grâce aux mouvements de la mâchoire. Comment fonctionne ce prototype ?

Jérémie Voix : L’idée de départ était de concevoir un appareil véritablement autonome, sans dépendre d’une batterie à recharger tous les soirs. Pour cela, nous avons observé un phénomène bien connu en acoustique : le conduit auditif n’est pas rigide. Il se déforme en permanence, notamment lorsque l’on parle, mâche ou avale. Nous avons intégré dans la prothèse des films piézoélectriques, des matériaux capables de produire une charge électrique lorsqu’ils sont soumis à une déformation mécanique. Chaque mouvement de la mâchoire entraîne une microdéformation du conduit auditif, qui est alors convertie en énergie électrique. Concrètement, mâcher les aliments pendant un repas permet de recharger l’appareil. Un concept plus poussé a été testé, avec des micro-mécanismes capables d’amplifier les très faibles mouvements du conduit auditif, afin de produire davantage d’électricité. Ces systèmes, comparables à de minuscules leviers, sont encore plus efficaces. En revanche, il subsiste un défi important : ces déformations génèrent aussi des bruits parasites, comme de petits cliquetis, perceptibles par le porteur. Nos travaux actuels visent donc à réduire ces nuisances et à explorer d’autres sources d’énergie complémentaires, par exemple la chaleur corporelle du conduit auditif, qui pourrait être exploitée grâce à des générateurs thermoélectriques.
Avant d’en arriver à ce type d’appareil autonome, quelles ont été les grandes étapes de l’évolution des aides auditives ?
J. V. : L’évolution a été spectaculaire. Dans les années 1990, elles ne faisaient qu’amplifier, de manière uniforme, tous les sons. Cela pouvait être très inconfortable. Les modèles plus évolués ont varié l’amplification des sons ambiants. L’arrivée du numérique, au début des années 2000, a marqué un tournant. Les appareils sont devenus capables d’analyser l’environnement sonore en temps réel, de distinguer les fréquences de la parole de celles du bruit, et d’adapter l’amplification en conséquence. Les progrès en traitement du signal ont permis d’améliorer considérablement l’intelligibilité de la parole, même dans des environnements complexes. Aujourd’hui, les aides auditives savent déjà reconnaître qu’on se trouve dans un restaurant, dans la rue ou dans un salon, et ajuster automatiquement les réglages. Malgré tout, un problème majeur persiste : lorsque plusieurs personnes parlent en même temps, la prothèse traite toutes les voix de façon équivalente. Pour l’utilisateur, cela peut devenir cognitivement très fatigant.
C’est cet obstacle que devra surmonter la prothèse auditive du futur ?
J. V. : Oui, c’est clairement le grand défi à venir. La prothèse idéale devra être capable de comprendre non seulement l’environnement sonore, mais aussi l’intention de l’utilisateur. Autrement dit : savoir quelle voix il souhaite écouter. Pour y parvenir, une piste extrêmement prometteuse consiste à s’appuyer sur les signaux nerveux efférents, c’est-à-dire les signaux que le cerveau envoie vers le système auditif. Lorsque nous nous concentrons volontairement sur une voix – celle de notre petit-fils, par exemple –, le cortex auditif émet des commandes très spécifiques. Les travaux menés à l’ÉTS, et par d’autres chercheurs dans le monde, montrent qu’il est possible de capter certains de ces signaux à l’aide d’électrodes placées dans l’oreille. On parle parfois d’EEG intra-auriculaire. L’objectif serait d’intégrer ces capteurs directement dans une prothèse auditive, afin qu’elle puisse ajuster son traitement sonore en fonction de l’attention réelle de l’utilisateur. En termes de prothèse auditive, c’est le Saint Graal.
À quel horizon pensez-vous que des aides auditives capables d’amplifier la voix selon l’attention du porteur pourraient être disponibles sur le marché ?
J. V. : Il faut rester prudent, mais je pense qu’un horizon de cinq à dix ans est réaliste pour des premières applications cliniques. L’enjeu est majeur, car les besoins sont considérables. On estime qu’environ un quart des adultes présentent une forme de déficience auditive. Or, une perte auditive non corrigée est associée à l’isolement social, à la dépression et même à un risque accru de déclin cognitif.
À l’avenir, les aides auditives pourront-elles faire autre chose que nous aider à mieux entendre ?
J. V. : Absolument. L’oreille est un point d’entrée exceptionnel pour mesurer de nombreux paramètres physiologiques. Nos recherches montrent qu’il est possible de capter, depuis le conduit auditif, des signaux liés au rythme cardiaque, à la respiration ou encore au niveau de stress. Les futures aides auditives pourraient ainsi devenir de véritables capteurs de santé, capables de suivre l’état physiologique de l’utilisateur en continu. Des accéléromètres intégrés pourraient également détecter une chute et déclencher automatiquement une alerte, un atout précieux pour les personnes âgées. À terme, ces dispositifs ne seront plus seulement des aides auditives, mais de véritables compagnons de santé, discrets, intelligents et profondément intégrés à notre quotidien.
Crédit photo illustration de l’article : EERS Gobal Technologies Inc., Montréal, Canada.