Redacción Exposición Mediática.- Nueva York, una ciudad acostumbrada a encabezar transformaciones culturales, se encuentra en medio de una nueva revolución musical: conciertos completos generados por Inteligencia Artificial, sin artistas humanos en escena.
Para muchos, el fenómeno parece salido de una novela futurista. Para otros, representa una amenaza directa al rol del creador tradicional. Pero para un comunicador y artista romanense, este salto tecnológico tiene raíces mucho más profundas y una historia que él mismo comenzó a experimentar años antes.
El periodista romanense de larga trayectoria Lincoln Rivera Medina, sorprendido ante la reseña que detalla el crecimiento acelerado de esta tendencia en la escena neoyorquina, decidió compartirla con una de las voces locales que mejor conocen la convergencia entre tecnología y creación: Marcos Sánchez, conocido artísticamente como Mark Rumors.
Lo que inició como una conversación casual terminó transformándose en una reflexión histórica sobre el verdadero origen de la “música sin artistas” y el papel de la creatividad algorítmica en la cultura contemporánea.
Un artículo que despierta inquietudes
La nota que Rivera Medina hizo llegar describe cómo en ciertos espacios abiertos de Nueva York se están implementando modelos generativos que producen música en tiempo real, apoyados en sensores ambientales y sistemas de evaluación emocional del público.
Estos conciertos, aunque novedosos en su forma actual, han generado debate: ¿Dónde queda el arte cuando desaparece el artista? ¿Estamos ante el fin del intérprete? ¿Puede un algoritmo ocupar un espacio históricamente reservado al ser humano?

Rivera Medina, intrigado por el tema, buscó la opinión de quien en La Romana ha sido el referente más visible del uso de IA en procesos creativos musicales: Marcos Sánchez.
La perspectiva de un pionero del Este
Sánchez, quien además de comunicador es articulista, profesor bilingüe, escritor y actor, se convirtió en este mismo 2025 en la primera figura relacionada a la comunicación en La Romana y en toda la región Este de República Dominicana, en emplear inteligencia artificial de forma sistemática para elaborar piezas musicales a partir de sus letras, conceptos e instrucciones creativas.
Sin embargo, su primera producción profesional, Like A Toy, no fue hecha con IA. Fue grabada en un estudio con un tecladista experimentado y un productor musical especializado en música electrónica. Aun así, la percepción pública fue distinta.
“Muchas personas pensaron que Like A Toy había sido creada por IA porque jamás me habían escuchado cantar. Como ya había hecho públicas más de diez pistas generadas por IA usando mis instrucciones y textos, la gente simplemente asumió que la línea entre lo tradicional y lo digital era la misma”, explica Sánchez.
Esa confusión resume uno de los fenómenos más interesantes del presente: la creciente dificultad que tiene el público para distinguir lo humano de lo algorítmico, especialmente cuando ambos se encuentran en plena convivencia creativa.
Antes de la IA generativa: la banda virtual que lo anticipó todo
En medio de la conversación, Sánchez le recordó a Rivera Medina que los conciertos sin artistas físicos no son un invento tan nuevo como pareciera. De hecho, llevan entre nosotros más de dos décadas.
En 1998, Damon Albarn y Jamie Hewlett dieron vida a Gorillaz, la primera banda virtual mainstream cuyos integrantes —2-D, Murdoc, Noodle y Russel— existen únicamente como personajes animados. Lo que impactó al periodista no fue solo la existencia de músicos ficticios, sino la constatación de que eso ocurrió hace 27 años, cuando el concepto de Inteligencia Artificial aún estaba lejos del alcance popular.
“¿¡Un grupo virtual!?”, exclamó Rivera Medina, sorprendido, al repasar la historia.
La propuesta de Gorillaz se apoyaba en animación tradicional y digital, entrevistas ficticias, storytelling transmedia y una identidad completamente separada de los artistas reales. Fue, más que un experimento musical, una declaración sobre el potencial de las nuevas tecnologías para redefinir la presencia artística.
Ese mismo espíritu —el de desconectar la imagen humana del artista de su producto creativo— es lo que alimenta los conciertos generados por algoritmos que hoy vemos resurgir bajo el paraguas de la IA.
La diferencia entre un precedente y una revolución
El caso de Gorillaz, sin embargo, no tiene un componente clave: la generación espontánea y adaptativa de música sin intervención humana. Ahí es donde entra la nueva ola tecnológica que ha capturado la atención del mundo.
Lo que ocurre hoy en Nueva York va más allá de desplazar al artista físico. Va más allá de una banda virtual con actuaciones pregrabadas. Estamos frente a sistemas capaces de:
• Crear música desde cero, en tiempo real.
• Modificar la composición en función de la audiencia.
• “Sentir” el estado emocional de la multitud mediante sensores de movimiento, micrófonos ambientales y cámaras de análisis facial.
• Leer datos biométricos, como pulsaciones, enviadas por relojes inteligentes o dispositivos portables.
• Adaptar intensidad, ritmo, instrumentación y progresiones según los patrones detectados.
Es una música que no solo es generada por IA, sino que reacciona, escucha y se retroalimenta.
“Lo que antes era ciencia ficción escaló de cero a cien en menos de cuatro años”, comenta Sánchez. “No me sorprende: el crecimiento exponencial de la IA ya indicaba que este tipo de experiencias sería inevitable”.
¿De qué está hecha esta música?
Detrás de esta nueva modalidad se encuentran modelos entrenados con amplios conjuntos de datos musicales: desde composiciones clásicas hasta géneros urbanos contemporáneos. Los algoritmos aprenden no solo a imitar estilos, sino a interpretar patrones emocionales asociados al sonido.
Los sensores ambientales presentes en los escenarios miden variables como:
• El volumen y la densidad del bullicio del público
• La velocidad de movimientos corporales
• La sincronización de los desplazamientos en masa
• El nivel de iluminación generado por dispositivos móviles
• La expresión facial dominante de la audiencia
Todos esos elementos actúan como señales que los modelos de IA utilizan para modificar la ejecución musical.
Esta es la clave: el algoritmo no interpreta canciones preexistentes; crea sonido nuevo, adaptándolo a la lectura en tiempo real del entorno.
Es, de cierta forma, la transformación del DJ en una inteligencia abstracta: un ser digital sin cuerpo, sin identidad y sin ego, pero con una capacidad de respuesta inmediata.
¿Dónde queda el artista humano?
Mientras algunos sectores celebran esta innovación como una nueva forma de arte, otros la consideran una amenaza. La pregunta es inevitable: ¿qué pasa con los músicos? ¿Qué lugar ocupan en un escenario donde, literalmente, no son necesarios?
Sánchez, cuyo trabajo combina lo tradicional con lo tecnológico, ofrece una visión equilibrada:
“La IA no reemplaza al artista; reemplaza la versión más mecánica del artista. La parte que repetía patrones, la que no improvisaba, la que respondía solo a dinámicas de consumo. El artista que explora, que innova, que siente y que propone, ese seguirá existiendo.”
Sin embargo, reconoce que la industria musical deberá adaptarse. Tal como ocurrió con la llegada de los sintetizadores, del MIDI, de las plataformas digitales o del auto-tune, la IA no se detendrá.
Un proceso que apenas comienza
A pesar del impacto mediático de los conciertos generados por IA, los especialistas advierten que esta tecnología aún está en una fase temprana. Las limitaciones actuales incluyen:
• Falta de cohesión emocional a largo plazo.
• Dificultad para mantener una narrativa musical compleja.
• Ausencia del sentido humano de improvisación con intención.
• Problemas para manejar silencios, pausas y respiración musical.
Pero los desarrolladores trabajan activamente para superarlas. La meta es construir modelos capaces de comprender no solo patrones sonoros, sino intenciones artísticas, algo que abriría una nueva era: no solo música generada, sino música “con propósito”.
Una mirada desde La Romana hacia el futuro
Para Rivera Medina, escuchar a Sánchez contextualizar este fenómeno fue revelador. Lo que inicialmente era una simple curiosidad tecnológica se convirtió en una conversación sobre historia, cultura y futuro.
La Romana, una ciudad pequeña en comparación con Nueva York, alberga —en la figura de Mark Rumors— una de las voces que más tempranamente experimentó con la creación musical asistida por IA en la región. Su trabajo, aunque modesto en escala, responde a las mismas inquietudes que hoy mueven a grandes escenarios internacionales.
En un mundo donde las fronteras entre humano y máquina se desdibujan, la reflexión de Sánchez sirve como cierre:
“La tecnología no vino a desplazar al arte. Vino a preguntarnos qué es realmente el arte.”
Síntesis: más que un concierto, un espejo cultural
Los conciertos sin artistas humanos en Nueva York no representan solo un avance tecnológico. Reflejan un cambio cultural profundo: una sociedad cómoda con la idea de que la creación puede ser compartida con máquinas y que la emoción puede surgir de un algoritmo tanto como de una voz humana.
Para algunos es una amenaza. Para otros, una oportunidad. Para Sánchez, un capítulo más en una transición que comenzó mucho antes de que llegaran las primeras IA generativas modernas.
El arte, al final, no es el escenario vacío ni la multitud emocionada. Es la conversación que surge entre ambos, incluso cuando esa conversación es traducida, interpretada y devuelta al público por un sistema digital.
El futuro no será humano ni artificial: será híbrido.
![]()

