De la imaginación al movimiento: La evolución del video generado por IA (2016–2025) y el caso creativo de «Like A Toy»

Marcos Sánchez (Mark Rumors) en una imagen junto al androide ficticio «Markie» (autoría suya) creada para darle movimiento e incorporarla en el videoclip de «Like A Toy«.

Redacción Exposición Mediática.- En apenas una década, lo que parecía un experimento de laboratorio reservado a investigadores hoy se ha convertido en una herramienta cotidiana para artistas, creadores de contenido y empresas de todos los tamaños: la generación de video a partir de texto mediante inteligencia artificial.

Esta tecnología, conocida popularmente como texto a video con IA, ha transformado no solo la forma en que concebimos la producción audiovisual, sino también los caminos que puede tomar la expresión artística en la era digital.

Para comprender la magnitud de este fenómeno, conviene recorrer su evolución desde los primeros intentos técnicos en 2016 hasta el actual boom mediático de 2025, y finalmente observar un caso concreto donde la herramienta deja de ser un simple truco tecnológico para convertirse en vehículo de discurso creativo: el videoclip «Like A Toy» de Mark Rumors.

Los años pioneros (2016–2019)

El concepto de “escribir una descripción y obtener un video listo” era, en 2016, poco menos que un sueño de ciencia ficción. Las primeras investigaciones con redes neuronales generativas —como los GANs (Generative Adversarial Networks)— permitieron dar pequeños pasos hacia la animación automática. Modelos como MoCoGAN podían generar breves secuencias animadas a partir de descripciones básicas, pero el resultado era borroso, fragmentado y apenas reconocible.

En paralelo, fenómenos como los deepfakes mostraron al mundo que la IA podía manipular videos con un realismo inquietante. Aunque su propósito inicial no era “generar desde cero” un clip completo, sentaron un precedente clave: el público comenzó a imaginar las posibilidades de producir videos íntegros mediante IA.

La etapa de investigación avanzada (2020–2022)

En 2020, Google presentó Imagen Video, capaz de generar secuencias cortas con gran definición a partir de texto, y Meta desarrolló Make-A-Video, otro modelo prometedor. Sin embargo, ambas tecnologías permanecían en entornos controlados, sin acceso abierto al público.

Estos años se caracterizaron por mejoras en la coherencia entre fotogramas, física más realista y mayor fidelidad a la descripción textual. No obstante, aún faltaba superar el gran obstáculo: la accesibilidad masiva.

La democratización comercial (2023–2024)

El gran salto llegó en 2023 con el lanzamiento de Runway Gen-1 y posteriormente Gen-2, plataformas que pusieron en manos de cualquier usuario con conexión a internet la capacidad de generar clips desde texto o imágenes de referencia. Esto marcó el punto de inflexión: la IA dejaba de ser un proyecto de laboratorio para convertirse en una herramienta de producción real.

En 2024, la competencia tecnológica se intensificó:

Febrero: OpenAI lanza Sora, que genera videos realistas de hasta un minuto desde texto.

Google libera Veo y más tarde Veo 2, con avances en narrativa y detalles visuales.

Junio: Luma Labs lanza Dream Machine, centrada en animar imágenes estáticas con fluidez cinematográfica.

Estas herramientas permitieron que productores independientes, docentes, publicistas y artistas visualizarán conceptos imposibles de realizar con recursos tradicionales.

El boom global y la madurez creativa (2025)

Para mediados de 2025, la generación de video con IA dejó de ser novedad para convertirse en tendencia consolidada. Según TrendFeedr, más de 297 empresas trabajan en este sector, con inversiones superiores a los 2.7 mil millones de dólares.

No solo las redes sociales se inundaron de microvideos experimentales; la industria publicitaria también adoptó la herramienta. Un ejemplo emblemático: un comercial completo para las finales de la NBA producido por apenas 2,000 dólares gracias a Veo 3, una cifra ridículamente baja frente a los costos habituales de producción.

Este nuevo ecosistema no solo abarató la creación, sino que abrió el juego a propuestas independientes con un alcance global.

Un ejemplo que combina arte y tecnología: «Like A Toy»

El 21 de junio de 2025 se estrenó en el canal en You Tube Marcos Sánchez TV, el videoclip «Like A Toy«, primera canción profesional grabada en estudio por Mark Rumors, alter ego artístico de Marcos Antonio Sánchez Martínez, locutor, actor, escritor, profesor de inglés y articulista digital originario de la ciudad de La Romana, República Dominicana.

El video se construyó enteramente con más de 50 imágenes generadas por IA, cada una diseñada para encajar con la narrativa de la canción.

Luego, estas imágenes fueron animadas y editadas para dar forma a una historia visual protagonizada por un androide —“Markie”— que observa, desde su desconexión emocional, el espectáculo global de una humanidad atrapada en pantallas, modas efímeras y consumismo digital.

El uso de IA aquí no es un mero adorno: es parte integral del mensaje. La textura artificial y el surrealismo visual refuerzan la idea de una sociedad cada vez más distante de lo orgánico y más dependiente de la mediación tecnológica.

Lo didáctico detrás de la técnica

El caso de «Like A Toy» ofrece un terreno fértil para comprender de forma pedagógica cómo funciona este tipo de producción:

Redacción del guion visual: El artista define una serie de descripciones textuales (prompts) que la IA convertirá en imágenes.

Generación y selección: De decenas o cientos de resultados, se eligen los que mejor encajan con el tono narrativo.

Animación y montaje: Con herramientas como Runway, Pika o Luma Dream Machine, las imágenes estáticas cobran movimiento.

Postproducción: Se añaden efectos, cortes y sincronización con la pista musical, igual que en un videoclip tradicional.

En términos educativos, este flujo de trabajo demuestra que la IA no sustituye el criterio creativo humano, sino que actúa como catalizador que agiliza y amplía las posibilidades expresivas.

El debate cultural

La irrupción de la IA en el video plantea cuestiones éticas y culturales:

Autenticidad: ¿Es menos “real” un videoclip si sus imágenes no fueron capturadas por una cámara?

Derechos de autor: Las obras generadas por IA dependen de modelos entrenados con datos visuales masivos; la línea legal aún es difusa.

Democratización vs. saturación: Que cualquiera pueda producir también significa que el volumen de contenido crece exponencialmente, dificultando la visibilidad.

«Like A Toy» esquiva el dilema del plagio gracias a la autoría consciente y el uso de prompts originales.

Conclusión: más que una moda

Desde los primeros experimentos en 2016 hasta las producciones virales de 2025, el video generado por IA ha pasado de ser curiosidad a herramienta central en la creación audiovisual.

Ejemplos como «Like A Toy» demuestran que, más allá de lo técnico, la clave está en cómo se integra la tecnología en un mensaje que comunique, conmueva o provoque reflexión.

El futuro promete más realismo, interactividad y accesibilidad. Pero la pregunta seguirá siendo la misma que plantea, de forma implícita, la obra de Mark Rumors: ¿estamos usando la tecnología como una herramienta de expresión… o nos hemos convertido en los juguetes de su sistema?

Loading