ChatGPT demandado
Recientemente, dos autores estadounidenses demandaron a OpenAI en un tribunal federal de San Francisco, alegando que la compañía utilizó sus trabajos para “entrenar” al popular sistema de inteligencia artificial ChatGPT.
Los escritores de Massachusetts Paul Tremblay y Mona Awad afirman que ChatGPT ha extraído datos copiados de miles de libros sin permiso, infringiendo así los derechos de autor de los autores. Su demanda argumenta que ChatGPT ha creado "resúmenes de alta precisión" de sus obras sin el permiso de los autores, lo cual constituye una violación de derechos de autor.
The Guardian citó a Andrés Guadamuz, estudiante de derecho de propiedad intelectual en la Universidad de Sussex, quien afirmó que esta es la primera demanda relacionada con los derechos de propiedad intelectual de ChatGPT. En consecuencia, el Sr. Guadamuz afirmó que esta demanda revelará los límites legales poco claros en el proceso de uso de aplicaciones innovadoras de IA en la actualidad.
OpenAI demandado por violación de derechos de autor en entrenamiento de IA.
En el campo del periodismo, ha habido una serie de preguntas sobre las oportunidades y los desafíos, y también sobre el enojo y los impactos de la inteligencia artificial en el periodismo en general y en los puestos de trabajo de los periodistas.
ChatGPT puede generar texto altamente complejo a partir de comandos de usuario simples, generando desde ensayos y solicitudes de empleo hasta poemas y relatos de ficción. ChatGPT es un modelo de lenguaje extenso, entrenado subiendo miles de millones de palabras de la vida cotidiana al sistema desde internet. A partir de ahí, infiere oraciones y palabras de ciertas secuencias.
Sin embargo, la precisión de las respuestas ha sido cuestionada. Académicos australianos han encontrado ejemplos de cómo el sistema falsifica referencias de sitios web y luego cita citas falsas. El uso de inteligencia artificial en el periodismo también ha generado controversia.
El sitio de noticias tecnológicas CNET utiliza IA para generar artículos que editores humanos revisan para detectar errores antes de su publicación. El sitio reconoció las limitaciones del programa después de que un artículo en Futurism, el sitio de noticias tecnológicas, revelara que más de la mitad de los artículos generados con herramientas de IA tuvieron que ser editados para corregir errores. En un caso, CNET se vio obligado a publicar una corrección a un artículo que contenía varios errores simples.
Pero el potencial de la IA para generar desinformación no es la única preocupación. También hay una serie de cuestiones legales y éticas a considerar, como la propiedad intelectual (PI), la moderación de contenido y la posible disrupción de los modelos financieros actuales de las redacciones.
¿Quién es el propietario de la propiedad intelectual y de los derechos de publicación de contenidos?
Según el Sr. Le Quoc Minh, miembro del Comité Central del Partido, redactor jefe del periódico Nhan Dan, subdirector del Departamento Central de Propaganda y presidente de la Asociación de Periodistas de Vietnam , si las redacciones empiezan a integrar la IA para producir contenido, surge una pregunta importante: ¿Quién posee la propiedad intelectual y los derechos de publicación? ¿La agencia de prensa controla la plataforma de IA o es la propia plataforma la que la gestiona?
Le Quoc Minh mencionó que, a diferencia de EE. UU., la legislación del Reino Unido permite la protección de derechos de autor para obras generadas por computadora, aunque solo las personas u organizaciones tienen derecho a poseer propiedad intelectual, nunca la IA. En concreto, esto significa que si un sistema de IA ha realizado contribuciones mínimas más allá de las órdenes básicas del usuario, y el proceso automatizado de toma de decisiones ha impulsado el proceso creativo, el creador de la plataforma puede considerarse el autor y propietario del producto intelectual.
El editor en jefe Gideon Lichfield dijo que no publicarán contenido escrito o editado por IA y que no utilizarán imágenes o videos generados por IA.
Si, por otro lado, se requiere mucha información para subir documentos al sistema, y la IA es solo una herramienta de apoyo, la propiedad intelectual del resultado podría pertenecer al usuario. De hecho, si los periodistas usan IA, deben revisar cuidadosamente las condiciones de servicio de las plataformas para evaluar con precisión las regulaciones de propiedad intelectual. Algunas plataformas otorgan derechos de propiedad intelectual a los usuarios, mientras que otras pueden conservar este derecho y otorgarlo bajo una licencia (posiblemente con restricciones de uso editorial).
“Independientemente de quién posea la propiedad intelectual, las salas de redacción deben estar preparadas para asumir la responsabilidad de cualquier contenido generado por IA que publiquen, incluida la posibilidad de que el contenido se considere difamatorio o engañoso”, dijo Minh.
El editor jefe del periódico Nhan Dan añadió que, hasta la fecha, muchas herramientas de IA no publican respuestas a nadie más que a los propios usuarios, y que quien utilice estas tecnologías es responsable del contenido que publica. El mayor riesgo para las redacciones que publican obras generadas por IA es la infracción accidental de los derechos de propiedad intelectual de terceros. Los periodistas no pueden saber qué imágenes o textos se utilizan para entrenar a la IA ni cuáles se extraen para crear contenido a demanda.
“ Las salas de redacción deben aceptar el hecho de que el contenido aparentemente original generado por IA puede estar fuertemente influenciado por fuentes de terceros, o ser copiado directamente de ellas, sin permiso”, enfatizó Minh.
Minh también señaló que las condiciones de servicio de las plataformas de IA no garantizan que los resultados no infrinjan los derechos de autor y, por lo tanto, las redacciones carecerán de fundamento legal si los autores las demandan. Por ejemplo, la empresa de alojamiento de fotos Getty Images ha iniciado un proceso contra Stability AI —la empresa matriz que desarrolla la herramienta de creación de imágenes Stable Diffusion— por «copiar y procesar ilegalmente millones de fotos protegidas por derechos de autor, propiedad de Getty Images o representadas por ella».
Incluso si Stability AI evita una demanda por derechos de autor, se determinará que ha violado los términos de servicio de Getty Images, que prohíben cualquier minería de datos, robótica o métodos similares de recopilación de datos. Los medios de comunicación que utilicen IA para interferir con el contenido de Getty Images sin permiso también podrían ser demandados, declaró Minh.
En un avance positivo, el sitio de noticias tecnológicas Wired se convirtió recientemente en el primer medio de noticias en publicar regulaciones oficiales sobre IA, describiendo cómo planean utilizar la tecnología.
Las regulaciones, publicadas por el editor jefe Gideon Lichfield a principios de marzo, establecen una serie de compromisos sobre lo que la redacción no hará, como no publicar contenido escrito o editado por IA, no usar imágenes ni videos generados por IA, sino usarla únicamente para obtener ideas para artículos, sugerir titulares atractivos o contenido para publicar eficazmente en redes sociales. Esto puede considerarse una medida positiva y necesaria en el contexto de la gran controversia que genera la IA en torno a cuestiones legales y éticas en el periodismo actual.
Hoa Giang
[anuncio_2]
Fuente
Kommentar (0)