Connect with us

Hi, what are you looking for?

science

Comment le cerveau déchiffre-t-il la parole dans des pièces bruyantes ?

Comment le cerveau déchiffre-t-il la parole dans des pièces bruyantes ?

résumé: Les chercheurs ont découvert que le cerveau décode la parole différemment dans les environnements bruyants en fonction du volume de la parole et de notre concentration sur celle-ci.

Leur étude, qui a utilisé des enregistrements neuronaux et des modèles informatiques, montre que lorsque vous avez du mal à suivre une conversation au milieu de sons plus forts, notre cerveau encode distinctement les informations audio lorsque le son est facilement entendu. Cela peut être essentiel pour améliorer les aides auditives qui isolent la parole présente.

Cette recherche pourrait conduire à des améliorations significatives dans les systèmes de décodage de l’attention auditive, en particulier pour les aides auditives contrôlées par le cerveau.

Faits marquants:

  1. L’étude a révélé que notre cerveau encode les informations audio différemment dans les situations bruyantes, en fonction du volume de parole sur lequel nous nous concentrons et de notre niveau d’attention.
  2. Les chercheurs ont utilisé des enregistrements neuronaux pour générer des modèles prédictifs de l’activité cérébrale, montrant que les informations audio « aperçues » et « déguisées » sont encodées séparément dans notre cerveau.
  3. Cette découverte pourrait conduire à des développements majeurs dans la technologie des aides auditives, en particulier dans l’amélioration des systèmes de décodage de l’attention auditive pour les aides auditives contrôlées par le cerveau.

source: Plus

Des chercheurs dirigés par le Dr.

Publié le 6 juin dans Open Access Journal Biologie PLUSL’étude utilise une combinaison d’enregistrements neuronaux et de modélisation informatique pour montrer que lorsque nous suivons une parole noyée par des sons plus forts, l’information vocale est encodée différemment que dans la situation opposée.

READ  Les Michiganders sont-ils de plus en plus malades ou manquent-ils de pratique?

Les résultats pourraient aider à améliorer les aides auditives qui fonctionnent en isolant la parole actuelle.

Se concentrer sur la parole dans une pièce bondée peut être difficile, surtout lorsque les autres sons sont plus forts. Cependant, amplifier tous les sons de manière égale n’améliore guère la capacité d’isoler ces sons difficiles à entendre, et les aides auditives qui tentent uniquement d’amplifier la parole contrôlée sont encore très imprécises pour une utilisation pratique.

Crédit : Neuroscience News

Afin de mieux comprendre comment la parole est traitée dans ces situations, des chercheurs de l’Université de Columbia ont enregistré l’activité neuronale d’électrodes implantées dans le cerveau de personnes atteintes d’épilepsie alors qu’elles subissaient une chirurgie cérébrale. Les patients devaient prêter attention à une voix, qui était parfois plus forte qu’une autre (« peeps ») et parfois plus calme (« déguisée »).

Les chercheurs ont utilisé les enregistrements neuronaux pour générer des modèles prédictifs de l’activité cérébrale. Les modèles ont montré que l’information phonologique de la parole « brillante » était codée à la fois dans le cortex auditif primaire et secondaire du cerveau, et que le codage de la parole associé était amélioré dans le néocortex secondaire.

En revanche, les informations audio de la parole « déguisée » n’étaient codées que s’il s’agissait de l’audio visuel. Enfin, le codage de la parole s’est produit plus tard pour la parole « déguisée » que pour la parole « flatteuse ». Étant donné que les informations audio « aperçues » et « déguisées » semblent être codées séparément, se concentrer sur le décodage uniquement de la partie « déguisée » du discours qui l’accompagne pourrait conduire à des systèmes de décodage de l’attention auditive améliorés pour les aides auditives contrôlées par le cerveau.

READ  Une étude du CDC met en garde contre une "augmentation significative" des champignons mortels aux États-Unis

Vinay Raghavan, auteur principal de l’étude, déclare : « Lorsque vous écoutez quelqu’un dans un endroit bruyant, votre cerveau récupère ce qu’il a manqué lorsque le bruit de fond était trop fort. Votre cerveau peut également capter des parties du discours sur lesquelles vous ne vous concentrez pas. allumé, mais seulement quand la personne que vous écoutez est silencieuse en comparaison.

À propos de cette recherche Nouvelles des neurosciences auditives

auteur: Nima Masgarani
source: Plus
communication: Grace Masgarani – Plus
image: Image créditée à Neuroscience News

Recherche originale : libre accès.
« Codage neuronal distinctif pour un discours brillant et persuasif dans des situations multitalkerÉcrit par Nima Masgarani et al. Biologie PLUS


un résumé

Codage neuronal distinctif pour un discours brillant et persuasif dans des situations multitalker

Les humains peuvent facilement écouter un seul orateur dans un environnement multi-caractères et toujours capter des fragments de parole en arrière-plan ; Cependant, on ne sait toujours pas comment nous percevons le discours persuasif et dans quelle mesure le discours non ciblé est traité.

Certains modèles suggèrent que la perception peut être obtenue par des coups d’œil, qui sont des régions temporelles spectrales où le locuteur a plus d’énergie que l’arrière-plan. D’autres modèles, cependant, nécessitent la restauration des régions masquées.

Pour élucider ce problème, nous avons enregistré directement à partir du cortex auditif primaire et non primaire chez des patients en neurochirurgie tout en assistant à un seul locuteur dans un discours à plusieurs locuteurs et des modèles de fonction de réponse temporelle entraînés pour prédire l’activité neuronale à gamma élevé à partir de caractéristiques de stimulation lumineuses et masquantes. .

READ  Il se trouve que j'ai un télescope pointant vers la supernova la plus brillante jamais vue - Ars Technica

Nous avons constaté que la parole brillante est codée au niveau des caractéristiques vocales des locuteurs cibles et non cibles, avec un codage amélioré de la parole cible dans l’AC non central. En revanche, seuls les traits vocaux masqués se sont révélés être codés sur la cible, avec un temps de réponse plus long et une organisation anatomique distincte par rapport aux traits vocaux contondants.

Ces résultats indiquent des mécanismes distincts de codage de la parole sans repère et caché et fournissent des preuves neuronales pour le modèle de perception de la parole semblable à un repère.

Click to comment

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

You May Also Like

Tech

C’est enfin là ! La conférence mondiale annuelle des développeurs d’Apple débutera lundi avec le discours d’ouverture traditionnel à 10h00 PST. Lors de cet...

Tech

F-Zero GX (Dauphin) sur Steam Deck (image: Via Twitter) Valve vient de sortir le Steam Deck – un nouvel ordinateur portable de jeu. Il...

Tech

Parallèlement à la mise à niveau de la puce A15 et plus encore, l’iPhone SE bénéficie d’une amélioration de la batterie par rapport à...

World

biélorusse la sprinteuse Kristina Tsimanskaya Jeudi, elle a déclaré qu’elle avait pris la décision de fuir Tokyo en Pologne après avoir reçu des avertissements...

Copyright © 2020 ZoxPress Theme. Theme by MVP Themes, powered by WordPress.