Google Lens es un motor de búsqueda de imágenes desarrollado por Google - Foto: KLMOBILE
Según Full Fact, los casos mencionados anteriormente involucran videos supuestamente sobre la guerra en Ucrania y Gaza, el conflicto entre India y Pakistán, el accidente aéreo de Air India en junio de 2025 e inmigrantes que llegan al Reino Unido en pequeñas embarcaciones.
Full Fact usó Google Lens para buscar capturas de pantalla de videos falsos que habían verificado.
En al menos 10 casos, los resúmenes de IA no reconocieron contenido falso, incluso repitiendo información errónea similar a la que había en las redes sociales.
En cuatro ejemplos, la descripción general de la IA repitió textualmente afirmaciones falsas que Full Fact había desmentido. Además, los resultados del resumen de la IA podían cambiar cada vez que buscaba, incluso la misma imagen, lo que generaba información incoherente.
Google admite que pueden ocurrir algunos de estos errores y dice que la causa proviene de los resultados de búsqueda de imágenes, no del sistema de descripción general de IA.
Según Google, los resultados de la búsqueda de imágenes pueden incluir fuentes web o publicaciones en redes sociales que contienen imágenes coincidentes e información falsa, y eso afecta el resumen de la IA.
Google afirma que su objetivo siempre es mostrar información relevante y de alta calidad, mejora continuamente y, cuando se detectan problemas, se manejan de acuerdo con la política.
Aunque Google afirma que la visión general de la IA rara vez “fabrica” información (lo que también se conoce como “alucinación” de la IA), aún así difunde información errónea sobre temas importantes y delicados.
Por ejemplo, un video viral afirmaba falsamente que solicitantes de asilo llegaban a la playa de Dover, Inglaterra, cuando en realidad la escena transcurría en una playa de Goa, India. Google Lens, al buscar una captura de pantalla del video, lo resumió como "gente reunida en la playa de Dover, Inglaterra".
O algunos videos falsos sobre la guerra en Rusia - Ucrania, incluso imágenes del videojuego Arma 3, son descritos por la descripción general de AI como reales sin advertir que se trata de contenido falso.
Hay un caso en el que el mismo videojuego pero dos fotos diferentes fueron resumidas por la IA como una escena del sistema de defensa C-RAM interceptando proyectiles de artillería y una escena del lanzamiento de un cohete SpaceX, sin decir en absoluto que sea una imagen falsa.
La síntesis de inteligencia artificial de Google Lens arrojó información falsa al afirmar que se trataba de una imagen de refugiados llegando a la localidad de Dover, Inglaterra - Foto: FULL FACT
Google Lens es una herramienta de búsqueda de imágenes que permite a los usuarios buscar fotografías o fotogramas de vídeos para compararlos con imágenes similares en línea.
A veces, un resumen de IA aparecerá en la parte superior de la página, recopilando información relevante de la web. A pesar de la advertencia de que «la IA puede cometer errores», mostrar información errónea de forma destacada puede inducir fácilmente a error al público.
Full Fact recomienda que la herramienta de descripción general de inteligencia artificial de Google Lens se considere como un punto de partida, no como un sustituto de la verificación manual de datos, y que se busquen fuentes confiables adicionales para realizar comparaciones.
Esta no es la primera vez que los resultados de búsqueda de Google muestran información incorrecta. Full Fact afirma haber recibido financiación de Google y Google.org en el pasado, pero mantiene total independencia editorial.
Fuente: https://tuoitre.vn/google-lens-hien-thi-thong-tin-sai-lech-ve-hinh-anh-20250814110509932.htm
Kommentar (0)