PROGRAMMATIC SPAIN

View Original

El juicio entre ‘The New York Times’ y OpenAI podría cambiar el uso de contenido protegido en IA

El pasado martes, un juez federal en Estados Unidos presidió las primeras audiencias del juicio que enfrenta a The New York Times contra OpenAI y Microsoft. Este caso, que podría sentar precedentes en la relación entre derechos de autor e inteligencia artificial, examina si el uso de contenido protegido para entrenar modelos de lenguaje a gran escala (LLM) constituye una infracción legal o está protegido bajo el derecho de "uso legítimo" (fair use).

El argumento de ‘The New York Times’

Los abogados del medio aseguran que OpenAI ha utilizado artículos completos y fragmentos de su contenido para entrenar sus LLMs, como ChatGPT. En muchos casos, afirman que los resultados generados por el modelo incluyen texto idéntico o resúmenes que no citan al medio original, afectando directamente su capacidad para atraer tráfico web.

La empresa también acusa a OpenAI de permitir que herramientas como SearchGPT eliminen los ‘paywalls’ de su contenido, lo que representa una amenaza directa a su modelo de negocio basado en suscripciones. Además, se expusieron ejemplos de cómo ChatGPT ha reproducido recomendaciones de productos publicadas por Wirecutter, la web de recomendaciones del New York Times, sin la atribución adecuada. En algunos casos, incluso se citaban erróneamente productos respaldados por Wirecutter, lo que podría dañar la reputación de la marca.

Según informa Digiday, el equipo legal del New York Times sostiene que estas acciones no solo representan una infracción de derechos de autor, sino que también violan las noticias urgentes (hot news), que protege contenido sensible al tiempo, como promociones de Black Friday.

La defensa de OpenAI y Microsoft

Por su parte, los abogados de OpenAI y Microsoft argumentaron que su uso del contenido del medio de comunicación está protegido bajo el "fair use", que permite la reutilización de material protegido siempre que sea transformador, no comercial o no represente una amenaza significativa para los titulares de derechos.

La defensa insistió en que los LLMs no almacenan contenido textual, sino que generan respuestas basadas en patrones de datos aprendidos durante el entrenamiento. Compararon esta capacidad con la forma en que las personas recuerdan canciones o frases populares sin memorizarlas literalmente.

También señalaron que las acusaciones del New York Times sobre daños económicos carecen de pruebas sólidas. Según los abogados de OpenAI, no se ha demostrado cómo las prácticas de la compañía han impactado negativamente los ingresos por publicidad o suscripción del periódico.

Las implicaciones para la industria

Este caso es solo uno de los muchos procesos en curso relacionados con el uso de contenido protegido en inteligencia artificial. La resolución del caso podría tener un impacto profundo en el ecosistema digital, afectando no solo a medios de comunicación, sino también a empresas tecnológicas y desarrolladores de IA.

Además, este caso ocurre en un contexto de crecientes tensiones entre empresas tecnológicas y titulares de derechos de autor. Meta se enfrenta a una demanda colectiva presentada por escritores como Sarah Silverman, mientras que Google también está metido en litigios relacionados con derechos de autor presentados por la Authors Guild.

El juez Sidney Stein, quien preside el caso, aún no ha decidido si permitirá que la demanda avance. Sin embargo, expertos legales creen que el proceso será prolongado, dada su complejidad y la relevancia del caso para la industria tecnológica y de medios. “La decisión que tome el tribunal podría redefinir cómo se desarrolla la inteligencia artificial en los próximos años", afirmó Megan Gray, abogada especializada en derechos digitales.

Mientras tanto, el debate subraya un desafío mayor: equilibrar la innovación tecnológica con la protección de los derechos de los creadores, en un entorno donde la inteligencia artificial está transformando rápidamente la forma en que se consume contenido.