El fallo, de carácter parcial, denegó la moción de desestimación presentada por las empresas demandadas y abre la puerta para que un jurado determine si algunos resultados generados por ChatGPT son “sustancialmente similares” a las obras originales de los autores demandantes.
Redacción Exposición Mediática.- En lo que podría convertirse en un punto de inflexión histórico para el desarrollo de la inteligencia artificial y la protección de los derechos de autor, el juez federal Sidney H. Stein, de la Corte del Distrito Sur de Nueva York, dictaminó el 28 de octubre de 2025 que la demanda colectiva presentada por un grupo de escritores contra OpenAI y Microsoft Corporation podrá seguir su curso legal.
El fallo, de carácter parcial, denegó la moción de desestimación presentada por las empresas demandadas y abre la puerta para que un jurado determine si algunos resultados generados por ChatGPT son “sustancialmente similares” a las obras originales de los autores demandantes.
Aunque no implica una decisión definitiva sobre responsabilidad, el dictamen constituye un avance significativo en un litigio que pone bajo escrutinio las bases legales y éticas del uso de materiales protegidos por derechos de autor para entrenar modelos de inteligencia artificial.
Antecedentes del caso
En septiembre de 2023, un grupo de escritores, entre los que figuran George R. R. Martin, John Grisham y Jonathan Franzen, presentaron una demanda colectiva (class action) contra OpenAI, alegando que sus obras fueron utilizadas sin autorización para entrenar modelos de lenguaje avanzados. Posteriormente, la acción fue ampliada para incluir a Microsoft, socio tecnológico y principal inversionista de OpenAI.
El núcleo de la demanda sostiene que ChatGPT es capaz de generar textos derivados o resumidos que reproducen de manera sustancial elementos de sus obras, lo que constituiría una infracción directa de copyright bajo la legislación estadounidense (17 U.S.C. § 501 y siguientes).
Las compañías tecnológicas respondieron con una moción para desestimar el caso, argumentando que los demandantes no habían presentado pruebas suficientes de infracción, y que el entrenamiento de modelos de IA está protegido por la doctrina del fair use (uso legítimo), por tratarse de un uso transformativo con fines de investigación y desarrollo.
Sin embargo, el juez Stein consideró que los demandantes han presentado alegaciones suficientes como para que un jurado pueda evaluar si los resultados generados por ChatGPT infringen sus derechos de autor.
La base legal del fallo
El razonamiento del juez Stein se fundamenta en el principio de “similaridad sustancial”, elemento esencial para determinar una posible infracción de derechos de autor. Según la legislación y la jurisprudencia estadounidense, una obra infringe otra cuando un observador razonable y perspicaz podría concluir que ambas comparten elementos protegibles de manera significativa, tales como trama, estructura, personajes o atmósfera narrativa.
En este caso, los demandantes presentaron ejemplos en los que ChatGPT generaba fragmentos o secuencias de texto con alta similitud temática y estructural con sus obras. Uno de los casos más citados fue un texto que describía una supuesta secuela de A Game of Thrones, de George R. R. Martin, titulada A Dance with Shadows.
El juez Stein subrayó que, aunque el output no fuese una copia literal, “un observador informado podría razonablemente concluir que los resultados presuntamente infractores son sustancialmente similares a las obras protegidas por los demandantes”.
De esta manera, la corte determinó que la acusación merece ser examinada en juicio, dejando abierta la posibilidad de que un jurado establezca si existió o no infracción.

Lo que no resuelve el fallo
El dictamen del juez no establece que OpenAI o Microsoft hayan cometido infracción de copyright. Tampoco emite juicio alguno sobre la validez del uso legítimo (fair use) en el proceso de entrenamiento de los modelos.
Estas cuestiones quedan reservadas para fases posteriores del juicio, en las que se examinarán los datos técnicos, la metodología de entrenamiento y los registros de los modelos de lenguaje. En esta etapa inicial, lo que se resuelve es la viabilidad procesal del reclamo: si existen bases suficientes para que el caso continúe.
Asimismo, la corte aún no se pronuncia sobre las posibles compensaciones económicas ni sobre la responsabilidad directa o indirecta de Microsoft como socio estratégico de OpenAI.
Las etapas siguientes del proceso
A partir del fallo del 28 de octubre, el caso entra en su fase de descubrimiento (discovery), en la que las partes deberán intercambiar documentación relevante, incluyendo los registros de entrenamiento de los modelos, las bases de datos utilizadas y los prompts específicos que habrían generado los resultados cuestionados.
Esta etapa será crítica, ya que permitirá determinar hasta qué punto los sistemas de IA generativa utilizaron material con copyright y cómo lo procesaron. Posteriormente, podrían celebrarse audiencias técnicas con peritos expertos en procesamiento de lenguaje natural y especialistas en propiedad intelectual, que ayudarán al jurado a comprender la naturaleza de los modelos.
Si el caso no se resuelve mediante acuerdo o sentencia sumaria, se procederá a un juicio con jurado, en el cual se decidirá si los outputs de ChatGPT constituyen copias sustanciales de las obras de los demandantes.
Implicaciones del fallo
a) Para los autores y creadores de contenido
El fallo de Stein representa una victoria procesal importante para los escritores y titulares de derechos de autor. Abre la puerta para que los creadores puedan reclamar compensación por el uso no autorizado de sus obras en la era digital y sentar precedentes sobre la relación entre creatividad humana y producción artificial.
También impulsa el debate sobre la necesidad de crear mecanismos de licenciamiento entre los titulares de derechos y las empresas desarrolladoras de IA, así como de reforzar las políticas de transparencia sobre los conjuntos de datos utilizados para entrenar los modelos.
b) Para las tecnológicas
El fallo introduce un riesgo jurídico real para las empresas que desarrollan o comercializan sistemas de inteligencia artificial generativa. Aunque no se haya dictado infracción, el hecho de que la demanda avance implica que los modelos de IA podrían ser examinados bajo el mismo estándar legal que las creaciones humanas.
Las empresas tecnológicas deberán reforzar sus políticas internas de control, documentación y filtrado de contenido generado, así como revisar los procesos de entrenamiento y licenciamiento de datos.
c) Para la industria y el entorno legal
El caso sienta un precedente sobre cómo los tribunales pueden abordar la intersección entre derechos de autor e inteligencia artificial. También plantea preguntas sobre el equilibrio entre innovación, acceso al conocimiento y protección de la propiedad intelectual.
Si los demandantes logran demostrar que los outputs de ChatGPT reproducen elementos sustanciales de sus obras, las consecuencias podrían ser profundas: desde la creación de un nuevo marco legal de responsabilidad compartida, hasta la redefinición del concepto de “uso transformativo” aplicado a la IA.
Síntesis
El fallo del juez Sidney H. Stein no es una sentencia final, pero sí marca una frontera decisiva en el debate sobre los límites legales de la inteligencia artificial generativa.
Por primera vez, un tribunal federal de Estados Unidos reconoce la posibilidad de que los resultados de un modelo de lenguaje puedan violar los derechos de autor de obras preexistentes. Aunque el desenlace aún está por escribirse, la señal enviada a la industria tecnológica es clara: el progreso no puede estar desligado del respeto a la creación intelectual.
De aquí en adelante, tanto los desarrolladores de IA como los creadores de contenido deberán aprender a coexistir bajo reglas más claras, en las que la innovación y la ética avancen de la mano.
![]()

