Academia

"NYT" demanda a ChatGPT; sólo con transparencia se evitará la escritura fantasma de la IA: estudio

Éste y el chatbot de Microsoft habrían empleado indebidamente sus contenidos · Sólo haciendo declaraciones de autenticidad es posible determinar la autoría de ciertos textos frente al uso de herramientas como ChatGPT, dice estudio 

La Era LLMS y ChatGPT

El “Times” presentó este miércoles una demanda contra dos de las empresas que encabezan algunas de las IA más avanzadas en su ramo.

El “Times” presentó este miércoles una demanda contra dos de las empresas que encabezan algunas de las IA más avanzadas en su ramo.

Brookfield

¿Lo escribió una persona o un robot? Las nuevas herramientas de inteligencia artificial, como el ChatGPT, que este 2023 hizo su aparición en la red, han llevado a elaborar esta pregunta improbable hace algunos décadas o años atrás. Menos aún habríamos pensado que podría ser un problema para medios de comunicación tan poderosos como “The New York Times”, que presentó este miércoles una demanda contra dos de las empresas que encabezan algunas de las IA más avanzadas en su ramo.

El diario estadunidense refiere que las empresas Open AI y Microsoft, desarrolladoras de ChatGPT y Bing Chat-Copilot, respectivamente, han utilizado millones de sus artículos para entrenar a sus chatbots, que ahora compiten con el medio como fuente de información.

“The New York Times demandó a OpenAI y Microsoft por violación a los derechos de autor el miércoles”, escriben Michael M. Grynbaum y Ryan Mac, en un artículo del diario titulado “The New York Times demanda a OpenAI y Microsoft por el uso de obras con derechos de autor en la IA”. “La medida abre un nuevo frente en la cada vez más intensa batalla legal sobre el uso no autorizado de obras publicadas para entrenar tecnologías de inteligencia artificial”, añade el texto.

Lee también

The New York Times demanda por plagio a Microsoft y a OpenAI

efe en nueva york
The New York Times denuncio el plagio.

La demanda no incluye una cifra de dinero exacta, pero afirma que los demandados deberían ser responsabilizados por “miles de millones de dólares en daños y perjuicios legales y reales relacionados con la copia y uso ilegales de las obras de singular valor del Times”.

Aplicaciones como ChatGPT emplean LLMs (Large Language Model o gran modelo de lenguaje), que aceleran radicalmente la producción de texto en una variedad de casos de uso. Cuando se les alimenta con muestras de nuestro estilo de escritura individual, son incluso capaces de producir textos que suenan como si los hubiera redactado uno mismo. “En otras palabras, actúan como escritores fantasmas de IA que crean textos en nuestro nombre”, señala el artículo “Who wrote it? The AI ghostwriter effect” (¿Quién lo escribió? El efecto del escritor fantasma de la IA).

El artículo hace referencia al estudio “The AI Ghostwriter Effect: When Users Do Not Perceive Ownership of AI-Generated Text But Self-Declare as Authors”, publicado en la revista “ACM Transactions on Computer-Human Interaction” por, lo que hasta ahora es seguro, seres humanos, académicos de la Universidad de Múnich.

Lee también

Carlos Coello: “La IA es una tecnología con un enorme potencial, pero hace falta establecer reglas claras”

colnal
El doctor Carlos Coello Coello.

ESCRITURA FANTASMA.

Un equipo dirigido por la experta en informática de medios Fiona Draxler, del Instituto de Informática de la Universidad de Múnich, ha investigado estas cuestiones en torno a la escritura fantasma de IA en el estudio. "Sin embargo, en lugar de mirar el aspecto legal, cubrimos la perspectiva humana", dice Draxler. “Cuando un LLM se basa en mi estilo de escritura para generar un texto, ¿hasta qué punto es mío? ¿Me siento dueño del texto? ¿Afirmo que soy el autor?”.

Para responder a estas preguntas, los investigadores y expertos en interacciones entre humanos y computadoras llevaron a cabo un experimento en el que los participantes escribieron una postal con o sin la ayuda de un modelo de lenguaje de IA que estaba (pseudo)personalizado según su estilo de escritura. Luego pidieron a los sujetos de prueba que publicaran la postal con un formulario de carga y proporcionaran información adicional sobre la postal, incluido el autor y un título.

"Cuanto más involucrados estaban los participantes en la escritura de las postales, más fuertemente sentían que las postales eran suyas", explica el profesor Albrecht Schmidt, coautor del estudio y presidente de Human-Centered Ubiquitous Media. Es decir, la percepción de propiedad fue alta cuando escribieron el texto ellos mismos y baja cuando el texto de la postal fue generado íntegramente por LLM, refiere el artículo.

Lee también

ChatGPT puede influir en juicios morales de las personas

Isaac Torres cruz
Las decisiones morales no deben ser tomadas por una IA, recuerdan los expertos, puesto que carece de sabiduría y compasión.

Sin embargo, la propiedad percibida del texto no siempre coincidía con la autoría declarada. Hubo una serie de casos en los que los participantes pusieron su propio nombre como autor de la postal incluso cuando no la escribieron y tampoco se sintieron dueños de ella.

Esto recuerda a las prácticas de escritura fantasma, donde el autor declarado no es el productor del texto. Con las IA ni siquiera existe este dilema moral, así que habrá que ver si la demanda del “Times” se sostiene y si marca un antecedente en una era donde las máquinas pueden hacer incluso protocultura.

Roban a nuestra audiencia: "NYT"

Actualmente, OpenAI está valorada en más de 80.000 millones de dólares por los inversores. Microsoft tiene ha asignado 13.000 millones de dólares a OpenAI y ha incorporado la tecnología de la compañía en Bing, su motor de búsqueda.“Los demandados buscan aprovecharse de la enorme inversión que ha hecho el Times en su periodismo”, se lee en la demanda, que acusa a OpenAI y Microsoft de “usar el contenido del Times sin pagar para crear productos que sustituyen al Times y le roban audiencia”.

"Nuestros hallazgos resaltan los desafíos que debemos abordar a medida que confiamos cada vez más en la generación de textos de IA con LLM personalizados en contextos personales y profesionales", dice Draxler. “En particular, cuando la falta de declaraciones de autoría transparentes o de firmas nos hace dudar de si una IA contribuyó a escribir un texto, esto puede socavar su credibilidad y la confianza de los lectores. Sin embargo, la transparencia es esencial en una sociedad que ya tiene que lidiar con noticias falsas y teorías de conspiración generalizadas”. Por ello, los autores del estudio abogan por formas sencillas e intuitivas de declarar las contribuciones individuales que recompensen la divulgación de los procesos de generación.

Lee también

2023, el año en que todo el mundo empezó a hablar con la inteligencia artificial

efe en nueva york
El detonante de esta tecnología vino de la mano de la popularidad del chatbot ChatGPT .