Por Juan Pablo Ojeda
Un estudio liderado por investigadores de la Universitat Autònoma de Barcelona (UAB) concluyó que la música generada por inteligencia artificial (IA) puede provocar respuestas emocionales más intensas que las composiciones realizadas por humanos. Los hallazgos abren nuevas posibilidades para la personalización emocional en la producción audiovisual y el diseño de experiencias inmersivas.
Publicado en la revista científica PLOS One, el trabajo evaluó las reacciones fisiológicas y emocionales de 88 participantes al observar piezas audiovisuales con la misma imagen pero acompañadas de diferentes bandas sonoras: una compuesta por un humano y otra generada por IA.
Música artificial, emociones reales
Los investigadores registraron indicadores fisiológicos como dilatación pupilar y cambios en la conductancia de la piel, señales asociadas a una mayor activación emocional y carga cognitiva. Los resultados muestran que las composiciones generadas por IA —especialmente aquellas con instrucciones más complejas— provocaron una reacción emocional más intensa entre los oyentes.
“La música creada por IA fue percibida como más estimulante emocionalmente, aunque también requirió más esfuerzo cognitivo por parte de los participantes”, explicó Nikolaj Fišer, doctorando de origen esloveno en Sociología de la UAB y primer autor del estudio.
Mientras tanto, la música humana fue calificada como más familiar, lo que sugiere una conexión emocional distinta pero menos intensa.
Implicaciones para el futuro audiovisual
El estudio, coordinado por Fišer junto con Miguel Ángel Martín Pascual (Instituto RTVE) y Celia Andreu Sánchez (UAB), destaca que estos hallazgos podrían tener implicaciones significativas para la producción de contenidos digitales. Entre ellas, la personalización emocional de bandas sonoras, la optimización de recursos creativos y la automatización de ambientes sonoros adaptativos en medios como videojuegos, cine, publicidad y plataformas de streaming.
Además, el uso de IA en la composición musical podría permitir ajustar la música al perfil emocional del espectador, una posibilidad que, aunque aún incipiente, se proyecta como uno de los próximos pasos en la integración de inteligencia artificial con experiencias sensoriales.
Deja una respuesta