Google revelará imágenes creadas o editadas por inteligencia artificial en los resultados de búsqueda. El gigante tecnológico planea brindar más transparencia agregando etiquetas a las imágenes creadas o modificadas por IA.
El cambio se produce después de que Google se asociara con importantes empresas en la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), cuyo objetivo es combatir la difusión de información engañosa en línea. Echemos un vistazo a los detalles del plan de Google para marcar el contenido generado por IA y las preguntas que lo rodean.
¿Es la búsqueda de IA por parte de Google un espectáculo secundario?
En los próximos meses, Google comenzará a etiquetar imágenes generadas y editadas por IA en los resultados de búsqueda. Esto se hará utilizando metadatos del estándar Content Credentials, que incluye información como cuándo, dónde y cómo se creó la imagen. Los usuarios podrán ver esta etiqueta a través de la función “Acerca de esta imagen” de Google, a la que se puede acceder haciendo clic en los tres puntos que aparecen sobre una imagen en los resultados de búsqueda.
La idea detrás de esta medida es brindarles a los usuarios una forma de rastrear la fuente de las imágenes y facilitar la detección de contenido generado por IA. La medida se produce después de que Google se uniera a otras empresas tecnológicas como Amazon, Adobe y Microsoft en el desarrollo de las últimas pautas de credenciales de contenido. Juntas, estas empresas esperan aumentar la transparencia y reducir la propagación de imágenes falsas o engañosas.
Pero si bien la iniciativa de Google es un paso en la dirección correcta, vale la pena señalar que la etiqueta no será inmediatamente obvia. Los usuarios deberán buscar activamente información haciendo clic en la sección “Acerca de esta imagen”, lo que puede hacer que la función sea menos efectiva de lo que algunos podrían esperar.
¿Cómo accederán los usuarios a la información de IA?
La nueva función, que se encuentra en Google Lens y en la función “Circle to Search” de Android, indicará si una imagen fue generada o alterada mediante inteligencia artificial. El hecho de que no se muestre la etiqueta directamente puede provocar que muchos usuarios desconozcan la existencia de esta herramienta. Como implica pasos adicionales, es posible que algunas personas nunca puedan confirmar si una imagen fue generada por IA a menos que ya estén familiarizadas con la funcionalidad. Incluso si las personas lo saben, el proceso puede resultar complicado, en particular si prevén que las imágenes producidas por IA estarán marcadas con mayor claridad.
A pesar de esta limitación, la asociación de Google con C2PA puede resultar valiosa, ya que el estándar Content Credentials ofrece una estructura más amplia para rastrear el origen del contenido digital. Sin embargo, este estándar no ha sido adoptado por todos los desarrolladores de IA. Algunas organizaciones, como Black Forest Labs, han optado por no incluirlo, lo que podría complicar los esfuerzos para rastrear la fuente de las imágenes generadas por modelos específicos.
Preocupaciones sobre la eficacia: ¿está haciendo Google lo suficiente?
Pero también hay un problema mayor: las imágenes generadas por IA son cada vez más difíciles de detectar. Un estudio de la Universidad de Waterloo concluyó que el 39 % de las personas no pueden distinguir entre imágenes generadas por IA y reales. Si esta tendencia continúa, el sistema de etiquetado de Google puede no ser suficiente para ayudar a los usuarios a identificar con seguridad el contenido generado por IA.
Además, otras empresas tecnológicas no están dando un buen ejemplo. Meta, por ejemplo, recientemente trasladó la información de etiquetado a una posición menos visible en las publicaciones. Esto plantea la pregunta de si los gigantes tecnológicos están realmente comprometidos con hacer que el contenido generado por IA sea más transparente o si solo están tomando medidas mínimas.
Pocas cámaras, como la Leica M-11P y la Nikon Z9, vienen con credenciales de contenido integradas. Esto significa que, a menos que los fotógrafos y desarrolladores opten por utilizar estas herramientas, el sistema no será tan eficaz como podría ser. La transparencia en el contenido generado por IA depende en gran medida de la colaboración entre industrias y, hasta ahora, no todos parecen estar igualmente interesados.
Al mismo tiempo, el aumento de las imágenes generadas por inteligencia artificial ha suscitado nuevas preocupaciones sobre la desinformación. Desde las falsificaciones profundas hasta las fotos de desnudos generadas por inteligencia artificial, el potencial de daño es claro. Si bien el nuevo sistema de etiquetado de Google no resolverá todos estos problemas, es un pequeño paso hacia la reducción de la propagación de contenido engañoso en línea.
Créditos de imagen: Furkan Demirkaya / Ideograma AI
Source: ¿Será fácil detectar la etiqueta de imagen de IA de Google?