Vietnam.vn - Nền tảng quảng bá Việt Nam

Ética de los trabajadores de los medios al utilizar tecnología de IA

Báo Quốc TếBáo Quốc Tế27/10/2024

Vivimos en la era de la revolución tecnológica 4.0, donde la inteligencia artificial (IA) se está convirtiendo gradualmente en una parte indispensable de muchos ámbitos de la vida social. Los medios de comunicación, como puente de información entre el público y los acontecimientos, no pueden quedar al margen de esta tendencia.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
Sra. Nguyen Thi Hai Van, directora del Centro de Formación Periodística de la Asociación de Periodistas de Vietnam , en el taller sobre tecnología de IA. (Fuente: Asociación de Periodistas de Vietnam)

Para aprovechar al máximo las ventajas que aporta la IA, los comunicadores necesitan equiparse con el conocimiento para poder utilizarla de manera efectiva, garantizando al mismo tiempo la confiabilidad y la ética en la transmisión de información.

Del “calor” de la IA

Es evidente que la IA (Inteligencia Artificial) es una de las palabras clave más populares hoy en día. En septiembre de 2024, una búsqueda en Google de la palabra clave "IA" en 0,3 segundos generó 15 900 millones de resultados; con la palabra clave "herramientas de IA", en 0,4 segundos, se obtuvieron más de 3 400 millones de resultados. Estas enormes cifras demuestran la cobertura y el interés en la IA y las herramientas basadas en IA a nivel mundial.

Actualmente, aparecen cada vez más herramientas de IA para diversos campos, incluyendo la industria de los medios. Además del conocido ChatGPT, existen numerosas aplicaciones de IA desarrolladas en áreas especializadas que realizan tareas específicas. No es difícil enumerar varias herramientas, por ejemplo: Bing AI, Clause y Zapier Central para el grupo de trabajo de Chatbots; Jasper, Copy.ai y Anyword para la creación de contenido; Descript, Wondershare y Runway para la producción y edición de video ; DALL-E3, Midjourney y Stable Diffusion para la creación de imágenes; Murf y AIVA para contenido de audio, etc. Recientemente, el gigante Amazon también presentó sus propias herramientas de IA, Video Generator y Image Generator, con el objetivo de inspirar la creatividad y aportar más valor.

Aunque las herramientas de IA varían ampliamente en escala y nivel de especialización, la tecnología esencialmente tiene dos cosas en común: las herramientas de IA se desarrollan en base a algoritmos y datos para "entrenar" la herramienta de IA.

Control ético del uso de la IA en los medios

Los beneficios que aportan las herramientas de IA son innegables, y con el rápido ritmo de las actualizaciones tecnológicas, cada vez habrá más herramientas de IA especializadas en todos los ámbitos, respondiendo a tareas desde las más simples hasta las más complejas en la industria de los medios. Junto con este desarrollo vertiginoso, surgen muchas preguntas sobre el control ético en el desarrollo y uso de herramientas de IA en la industria de los medios. ¿Qué ocurrirá si los algoritmos y los datos de dicha herramienta de IA se manipulan de forma perjudicial para la comunidad? ¿Quién garantiza los derechos de propiedad intelectual de los datos de entrada que la herramienta de IA utiliza para el entrenamiento? ¿Quién evalúa el nivel de daño que causan?

¿Existe desigualdad entre quienes tienen acceso a herramientas de IA y quienes no lo tienen para la misma tarea? Incluso se han planteado dudas sobre el potencial de daños incontrolados que estas herramientas pueden causar, especialmente en áreas sensibles que pueden afectar a muchas personas a gran escala, como los medios de comunicación y las redes sociales.

Reconociendo las preocupaciones mencionadas, numerosas organizaciones, asociaciones, gobiernos e incluso empresas y corporaciones que desarrollan herramientas de IA han emitido recomendaciones, explicaciones e incluso códigos de conducta relacionados con el control ético de la tecnología de IA. Adoptada por 193 países en 2021, la Declaración sobre la Ética de la Inteligencia Artificial (Recomendación de la UNESCO), la Organización de las Naciones Unidas para la Educación , la Ciencia y la Cultura, afirma claramente que «el rápido auge de la inteligencia artificial (IA) ha generado numerosas oportunidades a nivel mundial, desde la asistencia en el diagnóstico sanitario hasta la facilitación de la conexión humana a través de las redes sociales y la mejora de la eficiencia laboral mediante la automatización de tareas».

Sin embargo, estos rápidos cambios también plantean profundas preocupaciones éticas. Estos riesgos asociados con la IA han comenzado a agravar las desigualdades existentes, perjudicando aún más a grupos ya desfavorecidos...». Y, a partir de ahí, «solicitar a la UNESCO que desarrolle herramientas para apoyar a los Estados Miembros, incluida la Metodología de Evaluación de la Preparación, una herramienta que permita a los gobiernos crear un panorama completo de su preparación para implementar la IA de forma ética y responsable para todos sus ciudadanos».

En su enfoque global, la UNESCO ha puesto en marcha el Observatorio Mundial de Ética y Gobernanza de la IA, que, según afirma, «proporciona información sobre la preparación de los países para adoptar la IA de forma ética y responsable. También alberga el Laboratorio de Ética y Gobernanza de la IA, que reúne contribuciones, investigaciones de impacto, herramientas y prácticas positivas sobre una amplia gama de cuestiones relacionadas con la ética de la IA».

Además de organizaciones globales como la UNESCO, muchas asociaciones profesionales también están trabajando en el desarrollo de sus propios códigos de conducta. Por ejemplo, la IABC (Asociación Internacional de Comunicaciones Empresariales), asociación con miles de miembros de todo el mundo, ha desarrollado un conjunto de principios que guían el uso ético de la IA por parte de los profesionales de la comunicación. Este conjunto de principios busca orientar a los miembros de la IABC sobre la relevancia del Código de Ética de la IABC para la IA. Estas directrices podrán actualizarse y complementarse con el tiempo a medida que la tecnología de la IA avance. En este conjunto de principios, se incluyen numerosos puntos específicos que un profesional de la comunicación debe seguir, como:

Los recursos de IA utilizados deben ser gestionados por personas para crear experiencias positivas y transparentes que fomenten el respeto y la confianza en la profesión de los medios. Es importante mantenerse informado sobre las oportunidades y los riesgos profesionales que presentan las herramientas de IA. Es fundamental comunicar la información de forma precisa, objetiva y justa. Las herramientas de IA pueden presentar numerosos errores, inconsistencias y otros problemas técnicos. Esto requiere criterio humano para verificar de forma independiente que mi contenido generado por IA sea preciso, transparente y no esté plagiado.

Proteger la información personal y/o confidencial de terceros y no utilizarla sin su permiso. Evaluar los resultados de su IA basándose en la interacción humana y la comprensión de la comunidad a la que pretende servir. Eliminar los sesgos en la medida de lo posible y ser sensible a los valores y creencias culturales de los demás.

Deben verificar de forma independiente sus propios resultados con el rigor profesional necesario para garantizar que la documentación, información o referencias de terceros sean precisas, tengan la atribución y verificación necesarias, y cuenten con la licencia o autorización correspondientes para su uso. No intenten ocultar ni disimular el uso de IA en sus resultados profesionales. Reconozcan la naturaleza de código abierto de la IA y los problemas relacionados con la confidencialidad, incluyendo la introducción de información falsa, engañosa o fraudulenta.

Las empresas y corporaciones que poseen, desarrollan y comercializan herramientas de IA son quienes mejor comprenden sus pormenores, conocen los algoritmos subyacentes con los que operan y los datos con los que se entrenan. Por lo tanto, estas empresas también deben proporcionar información sobre los principios éticos en el desarrollo de la IA. De hecho, existen empresas interesadas en este tema.

Google se compromete a no desarrollar herramientas de IA para áreas donde exista un riesgo significativo de daño, y solo lo haremos cuando consideremos que los beneficios superan con creces los riesgos e incorporemos las medidas de seguridad adecuadas. Armas u otras tecnologías cuyo propósito o despliegue principal sea causar o facilitar directamente daños a personas. Tecnologías que recopilen o utilicen información con fines de vigilancia que infrinjan las normas internacionalmente aceptadas. Tecnologías cuyo propósito viole los principios generalmente aceptados del derecho internacional y los derechos humanos.

En materia de seguridad, Google se compromete: «Seguiremos desarrollando e implementando medidas de seguridad sólidas para evitar resultados imprevistos que generen riesgos de daño. Diseñaremos nuestros sistemas de IA con la debida cautela y procuraremos desarrollarlos de acuerdo con las mejores prácticas en investigación sobre seguridad de la IA. Incorporaremos nuestros principios de privacidad en el desarrollo y uso de nuestras tecnologías de IA. Ofreceremos oportunidades para la notificación y el consentimiento, fomentaremos arquitecturas que protejan la privacidad y proporcionaremos la transparencia y los controles adecuados sobre el uso de los datos».

Al igual que Google, Microsoft también emitió una declaración sobre los Principios y Enfoque de la IA, enfatizando: «Nos comprometemos a garantizar que los sistemas de IA se desarrollen de forma responsable y que garanticen la confianza de las personas...». Además, de una forma u otra, las grandes empresas tecnológicas que invierten fuertemente en el desarrollo de herramientas de IA, como Amazon y OpenAI, también asumieron sus propios compromisos.

Numerosos ejemplos históricos han demostrado la dualidad de la tecnología, con factores positivos y negativos. Después de todo, aunque se trata de una plataforma tecnológica de alta tecnología, la IA aún se basa en algoritmos y datos desarrollados y recopilados por humanos; al mismo tiempo, la mayoría de los productos de IA forman parte de los planes de negocio de las empresas propietarias.

Por lo tanto, siempre existen riesgos potenciales tanto desde el punto de vista técnico como del equipo de desarrollo y gestión de productos. El problema radica en la magnitud del impacto que las herramientas de IA pueden tener en la mayoría, incluso en el nivel socioeconómico de una comunidad. La atención oportuna al control ético al utilizar la tecnología de IA es una señal positiva, con la participación de grandes organizaciones internacionales como las Naciones Unidas o los gobiernos, así como de las asociaciones industriales y, sobre todo, de las propias unidades de desarrollo tecnológico.

Sin embargo, así como la lista de herramientas de IA lanza continuamente nuevas versiones, cada una más sofisticada y compleja que la anterior, los Códigos, Principios o Directrices también necesitan actualizarse y complementarse de manera oportuna, y además, deben ser proactivos para prevenir, limitar y controlar las unidades de desarrollo de productos y los usuarios dentro de un marco donde la capacidad de cumplir con el Control Ético en la tecnología de IA en general y los trabajadores de los medios en particular puedan lograr la mayor eficiencia.


[anuncio_2]
Fuente

Kommentar (0)

No data
No data
Contemple la brillante ciudad costera de Quy Nhon, Gia Lai, por la noche.
Imagen de campos en terrazas en Phu Tho, con suave pendiente, brillantes y hermosos como espejos antes de la temporada de siembra.
La fábrica Z121 está lista para la Noche Final Internacional de Fuegos Artificiales
La famosa revista de viajes elogia la cueva Son Doong como "la más magnífica del planeta"
Una cueva misteriosa atrae a turistas occidentales, comparada con la "cueva Phong Nha" en Thanh Hoa
Descubra la belleza poética de la bahía de Vinh Hy
¿Cómo se procesa el té más caro de Hanoi, cuyo precio supera los 10 millones de VND/kg?
Sabor de la región del río
Hermoso amanecer sobre los mares de Vietnam
El majestuoso arco de la cueva en Tu Lan

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto