Google, Meta y OpenAI anuncian medidas para identificar contenidos creados con inteligencia artificial | Tecnología

Google, Meta y OpenAI anuncian medidas para identificar contenidos creados con inteligencia artificial |  Tecnología

Google, Meta y OpenAI han anunciado en los últimos días diversas medidas para facilitar la identificación de imágenes o archivos producidos o retocados con inteligencia artificial (IA). Estas iniciativas están motivadas por el temor de que la difusión indiscriminada de mensajes falsos pueda condicionar los resultados de las elecciones o tener otras consecuencias no deseadas. Las tres empresas ya habían anunciado que intentarían impedir el uso de IA en los procesos electorales de 2024.

Después de años de invertir miles de millones de euros para mejorar la capacidad de la inteligencia artificial generativa, las tres plataformas se unieron a la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), que ofrece un certificado estándar y reúne a buena parte de la industria digital y de los medios de comunicación. medios como la BBC o Los New York Times a bancos y fabricantes de cámaras. Las empresas admiten en sus comunicados que actualmente no existe una solución única, ni eficaz en todos los casos, para identificar contenidos generados con IA.

Las iniciativas varían entre marcas visibles en las propias imágenes y mensajes ocultos en los metadatos del archivo o en píxeles generados artificialmente. Con su herramienta aún en versión beta, SynthID, Google también afirma haber encontrado una manera de identificar el audio.

El estándar C2PA para ingresar información en metadatos de imágenes tiene muchas debilidades técnicas, identificadas en detalle por los desarrolladores. La propia OpenAI, que utilizará C2PA en Dall-3 (su generador de imágenes), advierte en su nota de prensa que no hay que confiar demasiado en sus posibilidades: “Los metadatos como C2PA no son una solución milagrosa para resolver problemas de procedencia. Se puede eliminar fácilmente de forma accidental o intencionada. Una imagen que carece de estos metadatos puede haber sido generada o no con ChatGPT o nuestra API”, dijo la empresa que creó el chatbot que popularizó la inteligencia artificial generativa.

Las empresas no dan plazos claros para la plena implementación de sus medidas. Este 2024 es un año lleno de eventos electorales en países importantes y la influencia del contenido generado por IA puede ser explosiva. La necesidad de protección preventiva es vital. «Estamos ampliando esta característica y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas admitidos por cada aplicación», dijo en el comunicado Nick Clegg, presidente de asuntos públicos de Meta.

Meta promete no sólo etiquetar visualmente las imágenes generadas por sus herramientas de inteligencia artificial, sino también detectar e identificar las publicadas en sus redes: Instagram, Facebook y Threads, cuando sea posible. «Podemos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que implementan sus proyectos para agregar metadatos a las imágenes creadas por sus herramientas», dice Clegg.

Google aplicará sus métodos a YouTube. Aunque estos enfoques afirman representar el estado del arte de lo que es técnicamente posible en la actualidad, la compañía cree que su método creado por SynthID puede sobrevivir a modificaciones intencionales para ofuscarlo, como «agregar filtros, cambiar colores y guardar con varios archivos con pérdida». compresiones. esquemas, que se utilizan más para archivos JPEG.

puedes seguir EL PAÍS Tecnología dentro Facebook Y X o regístrate aquí para recibir nuestra boletín semanal.

By Azanías Pelayo

You May Also Like