Un sistema de aprendizaje automático procesa sonidos como lo hacemos los humanos. / Seanbatty (PIXABAY)
Fecha
Fuente
NCyT Noticias de la Ciencia y la Tecnología

Un sistema de aprendizaje automático procesa sonidos como lo hacemos los humanos

Usando un sistema de aprendizaje automático conocido como red neural profunda, unos investigadores han creado el primer modelo que puede replicar el rendimiento humano en tareas auditivas como el análisis del habla o identificar un género musical.

Cuando las redes neurales profundas se desarrollaron por primera vez, en la década de 1980, los neurocientíficos esperaban que tales sistemas pudieran ser utilizados pronto para modelar el cerebro humano. Sin embargo, los ordenadores de esa época no eran lo bastante potentes para construir modelos lo suficientemente grandes como para desempeñar tareas del mundo real, como el reconocimiento de objetos o del habla.

A lo largo de los últimos cinco años, los avances en la potencia de computación y en la tecnología de las redes neurales han hecho posible que dichas redes puedan llevar a cabo tareas complicadas del mundo real, y se han convertido en el enfoque estándar con el que abordar muchas aplicaciones de ingeniería. Al mismo tiempo, algunos neurocientíficos han reconsiderado la posible utilización actual o en un futuro cercano de estos sistemas para modelar el cerebro humano.

El nuevo modelo, basado en una red neural profunda, está ideado para procesar sonidos como lo hacemos los humanos. El modelo consta de muchas capas de unidades de procesamiento de información que pueden ser adiestradas con enormes volúmenes de datos para realizar tareas específicas. Ya ha sido usado por los investigadores para obtener información nueva y reveladora sobre cómo el cerebro humano puede llevar a cabo esas mismas tareas que el modelo realiza.

El avance es obra del equipo de Josh McDermott y Alexander Kell, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, y Daniel Yamins, de la Universidad de Stanford, ambas instituciones en Estados Unidos.

Los resultados del estudio también ofrecen evidencias de que la corteza auditiva humana está configurada con una organización jerárquica, de manera muy parecida a como lo está la corteza visual. En este tipo de configuración, la información sensorial pasa a través de sucesivas etapas de procesamiento, procesándose antes la información básica y extrayéndose en etapas posteriores características más avanzadas, como el significado de las palabras.

Añadir nuevo comentario

El contenido de este campo se mantiene privado y no se mostrará públicamente.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.