Nuevo modelo de IA que puede crear música basada en la actividad cerebral

Investigadores de Google y la Universidad de Osaka han desarrollado un nuevo modelo de inteligencia artificial (IA) que puede crear música analizando la actividad cerebral. En el estudio titulado «Brain2Music: Reconstrucción de la música a partir de la actividad cerebral humana», los participantes escucharon muestras de música de diferentes géneros y utilizaron imágenes de resonancia magnética funcional para medir su actividad cerebral. Se entrenó una red neuronal profunda para reproducir música mediante el análisis de patrones de actividad cerebral asociados con elementos musicales como el estado de ánimo, el estilo y la instrumentación.

Los investigadores también incluyeron en su estudio el modelo MusicLM, un sistema de IA desarrollado por Google. MusicLM crea música basada en descripciones textuales, teniendo en cuenta factores como el ritmo, la instrumentación y la emoción. Al combinar datos de fMRI con la base de datos MusicLM, el modelo de IA pudo reconstruir la música que escuchaban los participantes en función de su actividad cerebral. El equipo proporcionó un ejemplo que demuestra la capacidad del modelo para convertir con precisión las ondas cerebrales en música.

Sin embargo, los investigadores señalan que es poco probable que las técnicas de desintoxicación descritas en el estudio se pongan en práctica en un futuro próximo. A medida que la IA avanza, tiene un potencial significativo para transformar el proceso de producción musical. En el futuro, los músicos podrán conectarse a modelos de IA y crear música con solo pensar en una melodía o concepto. Si bien las orquestaciones sutiles aún pueden requerir la participación humana, este desarrollo abre posibilidades emocionantes para la IA en la producción musical.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *