Las imágenes de IA son cada vez más difíciles de detectar.  Google cree que tiene una solución.

Blog

HogarHogar / Blog / Las imágenes de IA son cada vez más difíciles de detectar. Google cree que tiene una solución.

Aug 19, 2023

Las imágenes de IA son cada vez más difíciles de detectar. Google cree que tiene una solución.

Las imágenes generadas por inteligencia artificial son cada vez más difíciles de distinguir de las reales a medida que las empresas de tecnología se apresuran a mejorar sus productos de inteligencia artificial. A medida que avanza la campaña presidencial de 2024, la preocupación es

Las imágenes generadas por inteligencia artificial son cada vez más difíciles de distinguir de las reales a medida que las empresas de tecnología se apresuran a mejorar sus productos de inteligencia artificial. A medida que avanza la campaña presidencial de 2024, crece rápidamente la preocupación de que tales imágenes puedan usarse para difundir información falsa.

El martes, Google anunció una nueva herramienta, llamada SynthID, que, según dice, podría ser parte de la solución. La herramienta incorpora una “marca de agua” digital directamente en la imagen que no puede ser vista por el ojo humano, pero que puede ser captada por una computadora que ha sido entrenada para leerla. Google dijo que su nueva tecnología de marcas de agua es resistente a la manipulación, lo que la convierte en un paso clave para controlar la difusión de imágenes falsas y frenar la difusión de desinformación.

Los generadores de imágenes de IA han estado disponibles durante varios años y se han utilizado cada vez más para crear "deepfakes": imágenes falsas que pretenden ser reales. En marzo, imágenes falsas de IA del expresidente Donald Trump huyendo de la policía se volvieron virales en línea, y en mayo una imagen falsa que mostraba una explosión en el Pentágono provocó una caída momentánea en los mercados de valores. Las empresas han colocado logotipos visibles en imágenes de IA, así como "metadatos" de texto adjuntos que indican el origen de una imagen, pero ambas técnicas se pueden recortar o editar con relativa facilidad.

“Claramente, el genio ya ha salido de la botella”, dijo en una entrevista la representante Yvette D. Clarke (DN.Y.), quien ha impulsado una legislación que obligue a las empresas a poner marcas de agua en sus imágenes de IA. "Simplemente no lo hemos visto maximizado en términos de su militarización".

Por ahora, la herramienta de Google está disponible sólo para algunos clientes que pagan de su negocio de computación en la nube y funciona sólo con imágenes creadas con la herramienta generadora de imágenes de Google, Imagen. La compañía dice que no exige que los clientes lo utilicen porque aún es experimental.

El objetivo final es ayudar a crear un sistema en el que la mayoría de las imágenes creadas con IA puedan identificarse fácilmente mediante marcas de agua integradas, dijo Pushmeet Kohli, vicepresidente de investigación de Google DeepMind, el laboratorio de IA de la compañía, quien advirtió que la nueva herramienta no es totalmente infalible. "La pregunta es: ¿tenemos la tecnología para llegar allí?"

A medida que la IA mejora en la creación de imágenes y videos, a políticos, investigadores y periodistas les preocupa que la línea entre lo real y lo falso en línea se erosione aún más, una dinámica que podría profundizar las divisiones políticas existentes y dificultar la difusión de información factual. La mejora en la tecnología deepfake se produce a medida que las empresas de redes sociales están dejando de intentar controlar la desinformación en sus plataformas.

La marca de agua es una de las ideas que las empresas de tecnología están impulsando como una forma potencial de disminuir el impacto negativo de la tecnología de inteligencia artificial “generativa” que están impulsando rápidamente a millones de personas. En julio, la Casa Blanca organizó una reunión con los líderes de siete de las empresas de inteligencia artificial más poderosas, incluidas Google y OpenAI, fabricante de ChatGPT. Todas las empresas se comprometieron a crear herramientas para marcar con agua y detectar texto, videos e imágenes generados por IA.

Microsoft ha iniciado una coalición de empresas de tecnología y de medios para desarrollar un estándar común para poner marcas de agua en imágenes de IA, y la compañía ha dicho que está investigando nuevos métodos para rastrear imágenes de IA. La empresa también coloca una pequeña marca de agua visible en la esquina de las imágenes generadas por sus herramientas de inteligencia artificial. OpenAI, cuyo generador de imágenes Dall-E ayudó a iniciar la ola de interés en la IA el año pasado, también añade una marca de agua visible. Los investigadores de IA han sugerido formas de incrustar marcas de agua digitales que el ojo humano no puede ver pero que una computadora puede identificar.

Kohli, el ejecutivo de Google, dijo que la nueva herramienta de Google es mejor porque funciona incluso después de que la imagen haya sido cambiada significativamente, una mejora clave con respecto a los métodos anteriores que podría frustrarse fácilmente modificando o incluso volteando una imagen.

"Existen otras técnicas para la creación de marcas de agua integradas, pero no creemos que sean tan fiables", afirmó.

Incluso si otras empresas importantes de IA, como Microsoft y OpenAI, desarrollaran herramientas similares y las redes sociales las implementaran, las imágenes creadas con generadores de IA de código abierto seguirían siendo indetectables. Herramientas de código abierto como las creadas por la startup de inteligencia artificial Stability AI, que cualquier persona puede modificar y utilizar, ya se están utilizando para crear imágenes sexuales no consensuadas de personas reales, así como para crear nuevo material de explotación sexual infantil.

"En los últimos nueve meses a un año, hemos visto este aumento masivo de deepfakes", dijo Dan Purcell, fundador de Ceartas, una compañía que ayuda a los creadores de contenido en línea a identificar si su contenido se comparte sin su permiso. En el pasado, los principales clientes de la empresa han sido creadores de contenidos para adultos que intentaban evitar que sus vídeos e imágenes se compartieran ilícitamente. Pero más recientemente, Purcell ha recibido solicitudes de personas cuyas imágenes de redes sociales han sido utilizadas para crear pornografía generada por IA en contra de su voluntad.

El porno con IA es fácil de hacer ahora. Para las mujeres, eso es una pesadilla.

A medida que Estados Unidos se acerca a las elecciones presidenciales de 2024, existe una presión creciente para desarrollar herramientas para identificar y detener imágenes falsas de IA. Los políticos ya están utilizando estas herramientas en sus anuncios de campaña. En junio, la campaña del gobernador de Florida, Ron DeSantis, publicó un vídeo que incluía imágenes falsas de Donald Trump abrazando al exasesor de coronavirus de la Casa Blanca, Anthony S. Fauci.

Las elecciones estadounidenses siempre han presentado propaganda, mentiras y exageraciones en los anuncios oficiales de campaña, pero a investigadores, activistas por la democracia y algunos políticos les preocupa que las imágenes generadas por IA, combinadas con publicidad dirigida y redes sociales, faciliten la difusión de información falsa y engañosa. votantes.

"Eso podría ser algo tan simple como mostrar una representación visual de un lugar de votación esencial que ha sido cerrado", dijo Clarke, la congresista demócrata. "Podría ser algo que genere pánico entre el público, que represente algún tipo de situación violenta y genere miedo".

La IA podría ser utilizada por gobiernos extranjeros que ya han demostrado estar dispuestos a utilizar las redes sociales y otras tecnologías para interferir en las elecciones estadounidenses, afirmó. “A medida que nos adentramos en el calor de la temporada política, a medida que las cosas se calientan, fácilmente podríamos ver interferencia proveniente de nuestros adversarios a nivel internacional”.

Mirar de cerca una imagen de Dall-E o Imagen generalmente revela alguna inconsistencia o característica extraña, como una persona que tiene demasiados dedos o el fondo que se desdibuja en el sujeto de la foto. Pero los generadores de imágenes falsas “absolutamente, 100 por ciento mejorarán cada vez más”, dijo Dor Leitman, jefe de producto e investigación y desarrollo de Connatix, una empresa que crea herramientas que ayudan a los especialistas en marketing a utilizar la inteligencia artificial para editar y generar videos.

La dinámica será similar a cómo las empresas de ciberseguridad están atrapadas en una carrera armamentista interminable con piratas informáticos que intentan encontrar la manera de superar protecciones mejores y más nuevas, dijo Leitman. "Es una batalla continua".

Aquellos que quieran utilizar imágenes falsas para engañar a la gente también seguirán encontrando formas de confundir las herramientas de detección de deepfake. Kohli dijo que esa es la razón por la que Google no comparte la investigación subyacente detrás de su tecnología de marca de agua. "Si la gente sabe cómo lo hemos hecho, intentarán atacarlo", afirmó.