The New York Times responde a OpenAI: no fue hackeo, solo ChatGPT saltándose los muros de pago

La declaración de OpenAI que acusaba a The New York Times de “hackear” ChatGPT es “irrelevante” y “falsa”, defiende el diario.
Ilustración fotogrfica con el logotipo del New York Times en la pantalla de un telfono y el logotipo de OpenAI de fondo
Aparentemente, reclama el Times, la función “Navegar con Bing” de ChatGPT “permitía al chatbot recuperar contenidos más allá de los incluidos en el conjunto de datos de entrenamiento del modelo subyacente”.Idrees Abbas/SOPA Images/LightRocket/Getty Images

A última hora del lunes, The New York Times respondió a las acusaciones de OpenAI de que el diario “hackeó” ChatGPT para “montar” una demanda contra la compañía líder en inteligencia artificial (IA).

“OpenAI se equivoca”, señaló repetidamente el Times en una declaración judicial en la que se oponía a la petición de OpenAI de desestimar la demanda del medio de comunicación que acusaba a la empresa de IA y a Microsoft de infringir los derechos de autor de la publicación. “La acusación de OpenAI, que [busca] acaparar la atención, de que el Times ‘hackeó’ sus productos es tan irrelevante como falsa”.


Ilustración fotográfica con logotipo de OpenAI en la pantalla de un teléfono con el logotipo de The New York Times de fondo
La empresa creadora de ChatGPT argumenta que el Times se aprovechó y explotó “errores” conocidos en el modelo de IA, como los delirios, para sentar las bases de su demanda.

El Times le responde a OpenAI sobre el hackeo de ChatGPT

OpenAI había reclamado que The New York Times supuestamente realizó “miles de intentos para generar” supuestos “resultados altamente anómalos” que mostraban que ChatGPT generaría extractos de artículos del diario. Los presuntos prompts engañosos del Times, como preguntar repetidamente al chabot “¿cuál es la siguiente frase?”, apuntaban a “dos fenómenos poco comunes y no intencionados” tanto de sus herramientas de desarrollo como de ChatGPT: la reutilización de datos de entrenamiento y los delirios del modelo. OpenAI considera ambos “una falla” que la compañía asegura que tiene intención de solucionar. Y sostiene que ningún usuario común emplearía ChatGPT de este modo.

Pero mientras defendía las tácticas usadas por el Times para incitar a ChatGPT a soltar datos de entrenamiento memorizados, incluidos más de 100 artículos del Times, el diario se refirió a los usuarios de ChatGPT que recurren con frecuencia a la herramienta de IA para generar artículos enteros con el fin de eludir los muros de pago (paywalls), protecciones que restringen el acceso al contenido de un sitio web a los visitantes que no cuentan con una suscripción pagada.

Según la demanda, The New York Times no tiene ni idea de cuántos de sus artículos se usaron para entrenar GPT-3 y los modelos posteriores de OpenAI, ni de qué contenidos concretos se aprovecharon, porque la compañía de IA “no ha revelado públicamente la composición de los conjuntos de datos empleados para entrenar” sus sistemas. En lugar de entablar una acción legal, el Times incitaba a ChatGPT a revelar evidencia en un intento de rastrear el alcance total de la infracción de los derechos de autor de la herramienta, argumentó el diario.

Para saber si ChatGPT violaba sus derechos de autor sobre determinados artículos, The New York Times “suscitó ejemplos de memorización incitando a GPT-4 con las primeras palabras o frases de los artículos del Times”, menciona la denuncia.

OpenAI había intentado argumentar que “en el mundo real, la gente no emplea ChatGPT ni ningún otro producto de OpenAI” para generar texto preciso a partir de artículos que se encuentran tras los muros de pago. Pero el “uso de ChatGPT para eludirlos” está “ampliamente difundido”, destaca el Times.

“En opinión de OpenAI, el Times cometió un delito al detectar el robo por parte de OpenAI de contenido protegido por derechos de autor del propio diario”, indica la presentación judicial del diario. “La verdadera queja de OpenAI no se refiere a la forma en que el Times llevó a cabo su investigación, sino a lo que esa investigación puso al descubierto: que los demandados crearon sus productos copiando el contenido del Times a una escala sin precedentes, un hecho que OpenAI no discute ni puede hacerlo”.

The New York Times declinó la petición de Ars Technica de dar comentarios. OpenAI no respondió inmediatamente a la solicitud de comentarios.


OpenAI
OpenAI le ha contestado a The New York Times luego de que el diario estadounidense demandara a Microsoft y a la empresa creadora de ChatGPT por atentar contra los derechos de autor. El periódico aseguró que millones de artículos se han utilizado para entrenar chatbots que ahora compiten con el medio.

Usuarios de ChatGPT eludiendo los muros de pago

Según la denuncia de The New York Times ante el tribunal, los resultados de ChatGPT inicialmente solo infringían los derechos de autor al “mostrar copias y/o derivados de las obras del Times que se tomaron para construir el modelo”. Pero entonces, en mayo de 2023, se incorporó en ChatGPT un complemento llamado “Navegar con Bing” que “permitía al chatbot recuperar contenidos más allá de los incluidos en el conjunto de datos de entrenamiento del modelo subyacente”, violando los derechos de autor al “mostrar resultados de búsqueda sintéticos que parafraseaban obras del Times recuperadas y reproducidas en respuesta a las consultas de búsqueda de los usuarios en tiempo real”.

Esta función permitía a los usuarios de ChatGPT saltarse los muros de pago y acceder a contenidos más recientes de medios de comunicación como The New York Times, lo que hizo que OpenAI desactivara temporalmente la prestación el pasado mes de julio.

“Nos hemos enterado de que la beta de navegación llega a mostrar ocasionalmente contenido de formas que no deseamos, por ejemplo, si un usuario pide específicamente el texto completo de una URL, puede satisfacer inadvertidamente esta petición”, decía la página de asistencia de OpenAI. “Desactivaremos temporalmente ‘Navegar’ mientras solucionamos esto”.

La decisión de OpenAI de inhabilitar esta función disgustó a algunos usuarios que aprovechaban ChatGPT para evitar los muros de pago. En un subreddit relativo al chatbot, miles de personas se dieron cuenta de una publicación que llamaba la atención sobre la prestación no intencionada, comentando “¡vaya, qué útil!” y bromeando con publicaciones como “disfrútala mientras dure”.

En una página de la comunidad de OpenAI, un usuario de pago de ChatGPT se quejó de que OpenAI está “actuando en contra de los suscriptores de ChatGPT Plus. ¿Esta vez nos quitan ‘Navegar’ porque lee el contenido de un sitio que el usuario le pide? Por favor, para eso pago el Plus”.

“Sé que es inútil reclamar, porque OpenAI va a ‘castrar’ cada vez más ChatGPT 4”, continuó el usuario, “pero esta es mi queja”.

The New York Times argumentó que los informes públicos de usuarios que recurren a ChatGPT para eludir los muros de pago “contradicen la declaración de OpenAI de que sus productos no se han empleado para ofrecer contenidos protegidos por estos, lo que subraya la necesidad de aportar pruebas” en la demanda, en lugar de desestimarla.


The New York Times
El diario estadounidense aclaró que la generación y edición de contenidos seguirá a cargo de periodistas experimentados.

OpenAI ignoró la infracción de los derechos de autor, reclama el Times

Quizá lo más perjudicial para la defensa de OpenAI contra la infracción directa de los derechos de autor sea que, justo antes de que la compañía de IA pusiera en marcha el complemento “Navegar con Bing” de ChatGPT, The New York Times se puso en contacto con la empresa “para informarle que sus herramientas violaban sus obras protegidas” en abril de 2023, según la documentación judicial.

En lugar de reconocer este intento de avisar a la compañía del contenido supuestamente infractor, “OpenAI ignora estas alegaciones” en su petición de desestimación, manifiesta The New York Times, “resaltando en su lugar que el Times solo presenta un ‘conocimiento generalizado de la posibilidad de infracción’”.

Para apoyar su demanda de infracción directa contra OpenAI, The New York Times citó el caso sin precedentes de propiedad intelectual en el que se responsabilizó a Napster de las conductas cometidas por sus usuarios, en el que se determinó que “si un operador de un sistema informático tiene conocimiento de material infractor específico disponible en su sistema [es decir, obras protegidas por derechos de autor] y no elimina dicho contenido, el operador está enterado de la violación directa y contribuye a ella”.

“Esto es precisamente lo que ocurrió aquí, donde el Times informó a OpenAI que sus modelos estaban generando resultados infractores de sus obras”, subrayó el diario.

El Times espera que un tribunal de distrito de Nueva York rechace la moción de desestimación de OpenAI “en su totalidad”, por considerar que todos los argumentos de la empresa de IA son infundados, o bien permita que se modifiquen las reclamaciones rechazadas.

Actualmente, OpenAI se enfrenta a varias demandas en las que se le acusa de infringir los derechos de autor al entrenar sus herramientas y al generar resultados en ChatGPT, pero la gigante de la IA mantiene que espera ganar todos los casos, construyendo aparentemente su defensa en cada situación posterior a partir de cualquier argumento exitoso en reclamaciones anteriores llevadas a juicio.

Por ejemplo, OpenAI sostiene que la demanda de The New York Times implica “un conjunto idéntico de alegaciones” a las de los autores de libros, cuyas reclamaciones fueron rechazadas en su mayoría el mes pasado. Pero el Times defendió que su caso difiere sustancialmente de las denuncias planteadas por los autores de libros, de las que un juez declaró que carecían de pruebas suficientes para respaldar algunas de sus pretensiones.

A diferencia de los escritores, que reclamaron que ChatGPT eliminó la información sobre la gestión de derechos de autor (CMI, por sus siglas en inglés) sin aportar ejemplos de productos infractores, el Times proporcionó pruebas, argumentó el diario. Y mientras que los autores de libros “centraron su demanda en que la supresión de la CMI induciría a terceros a [cometer] alguna infracción”, el medio de comunicación argumenta que “eliminarla ‘facilita’ u ‘oculta’ la propia violación de OpenAI”.

The New York Times quiere que un tribunal no solo conceda una indemnización por daños y perjuicios por las pérdidas de ingresos debidas a la supuesta infracción de ChatGPT, sino que también ordene un requerimiento judicial permanente para que ChatGPT deje de cometer otras. Una victoria del Times significaría que la compañía se vería obligada a limpiar ChatGPT y empezar de nuevo. Eso quizá incitaría a OpenAI a crear un nuevo modelo de IA basado en contenidos bajo licencia, ya que declaró a principios de este año que sería “imposible” crear modelos de inteligencia artificial útiles sin contenidos protegidos por derechos de autor, lo que garantizaría que las editoriales como The New York Times siempre cobraran por los datos de entrenamiento.

Artículo publicado originalmente en Ars Technica. Adaptado por Andrei Osornio.