El debate sobre los límites del uso de la inteligencia artificial (IA) y su impacto real en los creadores está apenas comenzando y es muy complejo. Se cuestiona hasta qué punto la IA podrá seguir generando obras sin la intervención humana, y surgen importantes dudas éticas y legales sobre una herramienta que, por definición, se encuentra en un terreno desconocido. En este contexto, George R.R. Martin y otros autores están tomando medidas para exigir una regulación más estricta.
Recientemente, un juez federal de Manhattan autorizó que continúe la demanda presentada por Martin y otros escritores contra OpenAI y Microsoft, acusándolos de infringir derechos de autor. Los autores argumentan que estas compañías usaron sus obras sin permiso para entrenar a ChatGPT. Según la decisión del 27 de octubre de 2025, hay motivos suficientes para seguir adelante con el caso, ya que ChatGPT generó una propuesta de secuela que guardaba un gran parecido con la saga protegida por derechos de Martin.
La prueba clave se dio cuando los abogados solicitaron a ChatGPT que escribiera una continuación ficticia de 'Choque de Reyes'. El chatbot respondió con «Danza de Sombras», una novela que introducía una nueva heredera Targaryen llamada Lady Elara, una secta rebelde de los Hijos del Bosque y una magia antigua vinculada a los dragones. La precisión con la que recreó elementos característicos del universo de Martin planteó la pregunta inevitable: ¿cómo podía conocer esos detalles sin haber usado sus obras como base?
Este conflicto tiene sus antecedentes en septiembre de 2023, cuando Martin, junto a otros 17 autores reconocidos como Michael Chabon, Ta-Nehisi Coates, John Grisham y Sarah Silverman, denunció lo que consideraban una explotación masiva y sistemática de sus trabajos. La demanda, presentada por el sindicato Authors Guild, habla de «robo a gran escala», señalando que estas herramientas emplean sus obras sin pagar derechos ni contar con consentimiento.
Antes de la demanda, muchos de estos escritores, entre ellos Margaret Atwood y Nora Roberts, enviaron una carta a las grandes compañías tecnológicas expresando su preocupación por la IA generativa. En el documento advertían sobre «la injusticia de usar nuestras obras sin permiso, crédito o compensación». La acusación era clara: ChatGPT no solo aprendía de sus libros, sino que ahora podía replicarlos.
Este momento es clave para definir las consecuencias legales de la IA generativa. A comienzos de 2025, por ejemplo, se resolvió un caso similar contra Anthropic, que terminó con un acuerdo en el que la empresa pagó 1.500 millones de dólares a los autores afectados, lo que muestra que las compañías están dispuestas a negociar para evitar sentencias que podrían marcar un precedente vinculante.
En cambio, en Inglaterra, el Tribunal Superior dictaminó que Stability AI no violó derechos de autor al entrenar su modelo con imágenes de Getty, lo que ha generado preocupación entre creadores europeos. En todos estos casos vuelve a surgir el debate sobre el “uso justo” (fair use): las tecnológicas defienden que entrenar sus modelos es un uso transformativo parecido a cómo los motores de búsqueda indexan contenido, mientras que los autores sostienen que esto es una apropiación masiva que sustituye, en lugar de complementar, el trabajo original.
Este choque legal y ético apenas comienza y promete marcar el futuro de la creación y el uso de la inteligencia artificial.



