Más Información
Con esas respuestas y gracias a un desarrollo de inteligencia artificial, han clasificado los impulsos eléctricos del cerebro, separando melodías y voces y si lo que el individuo analizado escucha es o no de su agrado.
A partir de estos datos, los expertos de la Universidad de Málaga han podido describir la dinámica entre la música que se escucha y el tipo de respuesta cerebral que obtienen a partir del género que se escucha o si la canción es agradable o no al oyente.
El estudio de estos científicos españoles utiliza redes neuronales para procesar los datos recabados, emulando al cerebro humano, con una arquitectura de aprendizaje profundo que crea contextos para la clasificación de melodías.
“Hoy en día, la tecnología ayuda en muchos ámbitos de la vida y el aprendizaje del lenguaje musical no iba a ser menos. Vemos como algo normal que, gracias a las técnicas de la inteligencia artificial, una máquina pueda entender el habla y responder en consecuencia, interpretar un texto manuscrito, reconocer la canción que estamos tarareando, conducir un coche, crear arte”, comentó Lorenzo Tardón, investigador de la institución malagueña y líder de la investigación ‘Energy-based features and bi-LSTM neural network for EEG-based music and voice classification’ publicado en la revista Neural Computing and Applications y descrito como un avance en la clasificación de las respuestas cerebrales ante diversos géneros y a sonidos de naturaleza diferente: habla y música.
Las primeras pruebas con voluntarios, que fueron desde confirmar si una canción les gusta o no, y si desde antes ya la conocía o “les sonaba”, sin importar la lengua en la que se cantara, será complementada por nuevos estudios que revisarán otros sonidos, como específicamente la línea de bajo o la batería, que buscaría crear una herramienta más usable para otras aplicaciones y entornos que, en un momento, te digan que quieres escuchar a Chente aunque tú no lo sepas.