Notícias

Estudo revela semelhanças entre a via auditiva e modelos de aprendizagem profunda para processamento de fala

Publicidade - continue a ler a seguir

Estudo revela semelhanças entre a via auditiva e modelos de aprendizagem profunda para processamento de fala

A arquitetura de uma família de modelos de redes neurais profundas é ilustrada à esquerda. A via auditiva humana é ilustrada à direita, com áreas destacadas indicando as localizações das principais áreas cerebrais nas quais estamos interessados. A mesma fala natural foi apresentada aos sujeitos humanos e aos modelos de IA, e às ativações internas dos modelos de IA foram extraídos e alinhados à atividade neural correspondente de cada área da via auditiva. Crédito: Crédito: Neurociência da Natureza (2023). DOI: 10.1038/s41593-023-01468-4

A via auditiva humana é um sistema biológico altamente sofisticado que inclui estruturas físicas e regiões cerebrais especializadas na percepção e processamento de sons. Os sons que os humanos captam pelos ouvidos são processados ​​em várias regiões do cérebro, incluindo os núcleos coclear e olivar superior, o lemnisco lateral, o colículo inferior e o córtex auditivo.

Nas últimas décadas, os cientistas da computação desenvolveram modelos computacionais cada vez mais avançados que podem processar sons e fala, replicando artificialmente a função da via auditiva humana. Alguns destes modelos alcançaram resultados notáveis ​​e são agora amplamente utilizados em todo o mundo, permitindo, por exemplo, que assistentes de voz (ou seja, Alexa, Siri, etc.) compreendam as solicitações dos utilizadores.

Pesquisadores da Universidade da Califórnia, em São Francisco, decidiram recentemente comparar esses modelos com a via auditiva humana. Seu artigo, publicado em Neurociência da Naturezarevelou semelhanças impressionantes entre a forma como as redes neurais profundas e como a via auditiva biológica processa a fala.

“Os modelos de fala de IA tornaram-se muito bons nos últimos anos devido ao aprendizado profundo em computadores”, disse Edward F. Chang, um dos autores do artigo, ao Medical Xpress. “Estávamos interessados ​​em ver se o que os modelos aprendem é semelhante à forma como o cérebro humano processa a fala”.

Publicidade - continue a ler a seguir

Para comparar as redes neurais profundas com a via auditiva humana, os pesquisadores analisaram primeiro as representações da fala produzidas pelos modelos. Estas são essencialmente as maneiras pelas quais esses modelos codificam a fala em suas diferentes camadas.

Posteriormente, Chang e seus colegas compararam essas representações com a atividade que ocorre nas diferentes partes do cérebro associadas ao processamento de sons. Notavelmente, eles encontraram uma correlação entre os dois, revelando possíveis semelhanças entre o processamento artificial e biológico da fala.

“Usamos vários modelos comerciais de aprendizagem profunda de fala e comparamos como os neurônios artificiais nesses modelos se comparam aos neurônios reais no cérebro”, explicou Chang. “Comparamos como os sinais de fala são processados ​​nas diferentes camadas, ou estações de processamento, na rede neural, e os comparamos diretamente com o processamento em diferentes áreas do cérebro.”

Curiosamente, os investigadores também descobriram que modelos treinados para processar a fala em inglês ou mandarim podiam prever as respostas no cérebro de falantes nativos da língua correspondente. Isto sugere que as técnicas de aprendizagem profunda processam a fala de forma semelhante ao cérebro humano, codificando também informações específicas do idioma.

“Os modelos de IA que capturam o contexto e aprendem as importantes propriedades estatísticas dos sons da fala têm um bom desempenho na previsão das respostas cerebrais”, disse Chang. “Na verdade, eles são melhores do que os modelos linguísticos tradicionais. A implicação é que existe um enorme potencial para aproveitar a IA para compreender o cérebro humano nos próximos anos.”

O trabalho recente de Chang e seus colaboradores melhora a compreensão geral das redes neurais profundas projetadas para decodificar a fala humana, mostrando que elas podem ser mais parecidas com o sistema auditivo biológico do que os pesquisadores previram. No futuro, poderá orientar o desenvolvimento de novas técnicas computacionais destinadas a reproduzir artificialmente as bases neurais da audição.

“Agora estamos tentando entender quais modelos de IA podem ser redesenhados para entender melhor o cérebro. No momento, estamos apenas começando e há muito para aprender”, disse Chang.

Mais Informações:
Yuanning Li et al, Dissecando cálculos neurais na via auditiva humana usando redes neurais profundas para fala, Neurociência da Natureza (2023). DOI: 10.1038/s41593-023-01468-4

© 2023 Science X Network

Citação: Estudo revela semelhanças entre a via auditiva e modelos de aprendizagem profunda para processamento de fala (2023, 15 de novembro) recuperado em 15 de novembro de 2023 em https://medicalxpress.com/news/2023-11-unveils-similarities-auditory-pathway-deep. HTML

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.

Looks like you have blocked notifications!

Seja membro da PortalEnf 




Portalenf Comunidade de Saúde

A PortalEnf é um Portal de Saúde on-line que tem por objectivo divulgar tutoriais e notícias sobre a Saúde e a Enfermagem de forma a promover o conhecimento entre os seus membros.

Artigos Relacionados

Deixe um comentário

Publicidade - continue a ler a seguir
Botão Voltar ao Topo