resumo: Os pesquisadores descobriram que o cérebro decodifica a fala de maneira diferente em ambientes ruidosos, dependendo do volume da fala e de nosso foco nela.
Seu estudo, que fez uso de gravações neurais e modelos de computador, mostra que quando você está lutando para acompanhar uma conversa em meio a sons mais altos, nosso cérebro codifica distintamente informações de áudio quando o som é facilmente ouvido. Isso pode ser fundamental para melhorar os aparelhos auditivos que isolam a fala presente.
Esta pesquisa pode levar a melhorias significativas nos sistemas de decodificação da atenção auditiva, especialmente para aparelhos auditivos controlados pelo cérebro.
Principais fatos:
- O estudo revelou que nosso cérebro codifica informações de áudio de maneira diferente em situações ruidosas, dependendo do volume da fala em que nos concentramos e do nosso nível de atenção.
- Os pesquisadores usaram gravações neurais para gerar modelos preditivos de atividade cerebral, mostrando que as informações de áudio “vislumbradas” e “disfarçadas” são codificadas separadamente em nosso cérebro.
- Esta descoberta pode levar a grandes desenvolvimentos na tecnologia de aparelhos auditivos, especificamente na melhoria dos sistemas de decodificação de atenção auditiva para aparelhos auditivos controlados pelo cérebro.
fonte: Mais
Pesquisadores liderados pelo Dr.
Publicado em 6 de junho no Open Access Journal Biologia MAISO estudo usa uma combinação de gravações neurais e modelagem de computador para mostrar que, quando seguimos a fala abafada por sons mais altos, a informação vocal é codificada de forma diferente do que na situação oposta.
As descobertas podem ajudar a melhorar os aparelhos auditivos que funcionam isolando a fala atual.
Concentrar-se na fala em uma sala lotada pode ser difícil, especialmente quando outros sons são mais altos. No entanto, amplificar todos os sons igualmente faz pouco para melhorar a capacidade de isolar esses sons difíceis de ouvir, e os aparelhos auditivos que apenas tentam amplificar a fala controlada ainda são muito imprecisos para uso prático.
Para entender melhor como a fala é processada nessas situações, pesquisadores da Universidade de Columbia registraram a atividade neural de eletrodos implantados no cérebro de pessoas com epilepsia durante uma cirurgia cerebral. Os pacientes foram solicitados a prestar atenção em uma voz, que ora era mais alta que a outra (“pios”), ora mais baixa (“disfarçada”).
Os pesquisadores usaram as gravações neurais para gerar modelos preditivos de atividade cerebral. Os modelos mostraram que a informação fonológica da fala ‘brilhante’ foi codificada tanto no córtex auditivo primário quanto no secundário do cérebro, e que a codificação da fala associada foi aprimorada no neocórtex secundário.
Em contraste, a informação de áudio da fala ‘disfarçada’ só foi codificada se fosse o áudio visual. Finalmente, a codificação da fala ocorreu mais tarde para a fala “disfarçada” do que para a fala “lisonjeira”. Como as informações de áudio ‘vislumbradas’ e ‘disfarçadas’ parecem ser codificadas separadamente, focar na decodificação apenas da parte ‘disfarçada’ da fala que a atende pode levar a sistemas de decodificação de atenção auditiva aprimorados para aparelhos auditivos controlados pelo cérebro.
Vinay Raghavan, principal autor do estudo, diz: “Ao ouvir alguém em um lugar barulhento, seu cérebro recupera o que perdeu quando o ruído de fundo era muito alto. Seu cérebro também pode captar partes do discurso que você não focaliza. ligado, mas apenas quando a pessoa que você está ouvindo está quieta em comparação.” .
Sobre esta pesquisa Notícias de Neurociência Auditiva
autor: Nima Masgarani
fonte: Mais
comunicação: Graça Masgarani – Mais
foto: Imagem creditada a Neuroscience News
Pesquisa original: acesso livre.
“Codificação neural distinta para um discurso brilhante e persuasivo em situações multitalkerEscrito por Nima Masgarani et al. Biologia MAIS
um resumo
Codificação neural distinta para um discurso brilhante e persuasivo em situações multitalker
Os humanos podem ouvir facilmente um único falante em um ambiente com vários caracteres e ainda captar fragmentos de fala ao fundo; No entanto, ainda não está claro como percebemos o discurso persuasivo e em que grau o discurso não direcionado é processado.
Alguns modelos sugerem que a percepção pode ser alcançada por meio de peeps, que são regiões de tempo espectrais onde o falante tem mais energia do que o fundo. Outros modelos, no entanto, requerem restauração de regiões mascaradas.
Para elucidar esse problema, gravamos diretamente do córtex auditivo (CA) primário e não primário em pacientes neurocirúrgicos enquanto atendia a um único falante em fala multifalante e modelos de função de resposta temporal treinados para prever a atividade neural gama alta de características de estímulo brilhante e mascarante .
Descobrimos que a fala brilhante é codificada no nível dos recursos vocais dos falantes-alvo e não-alvo, com codificação aprimorada da fala-alvo em CA não central. Em contraste, apenas características vocais mascaradas foram codificadas para o alvo, com um tempo de resposta maior e organização anatômica distinta em comparação com características vocais contundentes.
Essas descobertas apontam para mecanismos separados de codificação de fala livre e oculta e fornecem evidências neurais para o modelo de percepção de fala semelhante a uma sugestão.
“Criador. Viciado em mídia social que gosta de hipster. Fã da web. Fanático por álcool apaixonado.”
More Stories
A Boeing pode não conseguir operar o veículo Starliner antes que a estação espacial seja destruída
Vivendo com ansiedade: conselhos de especialistas sobre como aceitar um problema de saúde mental
Nova pesquisa sobre uma enorme falha de impulso sugere que o próximo grande terremoto pode ser iminente