Estados Unidos vendió “8.000 cocoteros en el Río Bravo” para evitar la avalancha de migrantes y no quemó la pirámide del museo del Louvre. Tampoco encontré esta pulpa gigante en la oreja de una playa, un Big Foot o el monstruo del Lago Ness. Toda esta información proviene de imágenes generadas con inteligencia artificial. Mientras empresas de tecnología como Google, Meta y OpenAI trabajan para detectar contenido creado por IA y crear marcas de agua resistentes a manipulaciones, los usuarios enfrentan un problema difícil: discernir qué imágenes que circulan en las redes sociales son reales o no. . Si bien algunos pueden acceder a una vista simple, existen herramientas que pueden resultar útiles en casos más complejos.
Generar imágenes con inteligencia artificial cada vez es lo más poderoso. “Hoy en día, sin ninguna habilidad técnica, puedes escribir un discurso en una plataforma como DALL-E, Firefly, Midjourney u otro modelo basado en mensajes y crear una pieza de contenido digital hiperrealista”, dice Jeffrey McGregor, director ejecutivo de Truepic, una de las empresas fundadoras de la Coalición para el Debido Proceso y la Autenticidad del Contenido (C2PA), que busca crear un estándar para verificar la autenticidad y el debido proceso del contenido digital. Algunos servicios son gratuitos y otros no requieren una cuenta.
“La IA puede crear imágenes increíblemente realistas de personas o eventos que salen mal”, dice Neal Krawetz, fundador de Hacker Factor Solutions y FotoForensics, una herramienta para comprobar si una imagen puede manipularse. En 2023 se viralizó, por ejemplo, una imagen del papá Francisco con un abrigo de plumas de Balenciaga y otras del expresidente de Estados Unidos, Donald Trump, contratado por la policía para no ser arrestado. Krawetz explica que este tipo de imágenes se pueden utilizar para influir en opiniones, dañar la reputación de alguien, crear información y difundir un contexto falso en una situación real. De esta manera, “puede erosionar la confianza en las fuentes de que otros modos son confiables”.
Las herramientas de inteligencia artificial también se pueden utilizar para tergiversar a personas en posiciones sexuales comprometidas, como delincuentes o acompañantes de delincuentes, como el senador VS Subrahmanian, profesor de informática en la Universidad Northwestern. El año pasado, hace unas décadas, Extremadura denunció la circulación de fotografías de desnudos falsos creadas por AI. “Estas imágenes pueden utilizarse para extorsionar, chantajear y destruir las vidas de líderes comunales y ciudadanos”, informa Subrahmanian.
Y no sólo eso. Las imágenes generadas por IA pueden suponer una grave amenaza para la seguridad nacional: “Se puede utilizar para dividir a la población de un país en contacto con un grupo étnico, religioso o racial frente a otros, lo que podría dar lugar a un gran margen de malestar y agitaciones políticas”. . “. Josep Albors, director de investigación y diseño de la empresa de seguridad informática ESET en España, explicó que muchas cosas se basan en este tipo de imágenes para generar polémica y provocar reacciones. “Durante un año electoral en muchos países, se puede decantar el saldo a otro país”, afirma.
Consejos para detectar imágenes generadas con IA
Expertos como Albors se han comprometido a seguir todo lo que ocurre en el mundo online. “Aprenderemos a vivir con lo que existe, con la IA en general, y simplemente lo tendremos en cuenta cuando recibamos contenidos o tengamos algo en las redes sociales”, afirma Tamoa Calzadilla, editora jefe de Factchequeado, iniciador de Maldita .es y Chequeado para combatir la desinformación en español en Estados Unidos. Saber que una imagen puede ser generada por IA “es un gran paso para involucrarse y compartir información”.
Algunas imágenes de este tipo son fáciles de detectar con sólo el detalle de manos, ojos o mesas, como nos cuenta el fact-checker de Factchequeado Jonnathan Pulla. Es el caso de una imagen creada por AI del presidente Joe Biden visitando un uniforme militar: “Una persona puede tener información sobre diferentes tonos de piel en su mesa, cables telefónicos que no están al alcance de la mano y en el frente de un taman. desproporcionada de uno de los militares que aparecen en la imagen”.
Este es también un ejemplo de una imagen manipulada del actor Tom Hanks vistiendo camisetas con mensajes a favor o en contra de la reelección de Donald Trump. “Que (Hanks) mantenga la misma pose y cambie el texto de la camiseta solo, que su piel sea muy lisa y su fosa nasal irregular indica que puede crear herramientas digitales, como inteligencia artificial”, explican las damas de Maldita.es en estos imágenes, que en principio se viralizarán en 2024.
Muchas imágenes generadas por IA pueden identificarse como una simple visualización por parte de un usuario capacitado, especialmente las generadas por herramientas gratuitas, según Albors: “Si elegimos los colores, notamos mucho que no es natural, que todo tiene una apariencia como plastilina. y que, también, ciertos componentes de estas imágenes se mezclan, como el pelo en el coche o varias tomas entre vosotros”. Si la imagen es de una persona, el experto también aconseja elegir algo anormal en tus extremidades.
Entonces, aunque los generadores de imágenes de primera generación tenían “errores simples”, el tiempo se ha mejorado significativamente. Es por eso que Subrahmanian indica que antes representa con frecuencia a personas con sus acciones y sombras antinaturales. Además, Plasma prohíbe incorrectamente las letras de Streets y Streets, por considerarlas “errores ortográficos absurdos”. “Hoy en día, la tecnología está en gran medida desbordada por estas deficiencias”, asegura.
Herramientas para identificar imágenes falsas
El problema es que ahora “una imagen generada por IA es prácticamente indistinguible de la realidad para muchas personas”, como dice Albors. Existen herramientas que pueden ayudar a identificar este tipo de imágenes como AI or NOT, Sensity, FotoForensics o Hive Moderation. OpenAI también está construyendo su propia herramienta para detectar contenido creado por su generador de imágenes, DALL-E, dijo en un comunicado del 7 de mayo.
Este tipo de herramientas, según Pulla, resultan de útiles complementos a la observación, “porque no hay mucha precisión ni detección de imágenes generadas por IA”. Los verificadores de datos deberían volver a Hive Moderation y FotoForensics. Ambas pueden utilizar un formulario gratuito y funcionar de forma similar: el usuario envía una foto y solicita que sea revisada. Si bien la moderación de Hive ofrece un porcentaje de probabilidad de que el contenido sea generado por IA, los resultados de FotoForensics son los más difíciles de interpretar para quienes no tienen conocimientos previos.
Al someterse a la imagen de los cocoteros que al parecer han sido envidiados por EE. UU. Bravo al Río por evitar la crueldad de los migrantes, el papá con el refugio de Balenciaga o una comida feliz del satánico McDonald’s, Hive Moderation con 99,9% de probabilidad de que sean generados por IA. Sin embargo, con la foto manipulada de Kate Middleton, Princesa de Gales, indica que la probabilidad es del 0%. En este caso, los resultados obtenidos por Fotoforensics e Invid son que “pueden mostrar algunos detalles modificados en una imagen que no es visible”.
Pero ¿por qué es difícil saber si una imagen es generada por inteligencia artificial? La principal limitación de estas herramientas, según Subrahmanian, es la del contexto y el conocimiento previo. “Los seres humanos utilizan el sentido común todo el tiempo para separar las afirmaciones reales de las falsas, pero los algoritmos de aprendizaje automático para detectar imágenes ultrafalsas han avanzado poco en esta dirección”, afirma. El experto considera que cada día será más improbable tener un 100% de certeza de que una foto sea real o generada por IA.
Incluyendo si una herramienta de detección tendrá una precisión del 99% para determinar si el contenido fue generado por IA o no, “esta pérdida del 1% en Internet es enorme”. Sólo en un año, IA generó 15 millones de imágenes. Por eso señala información de Everypixel Journal, que dice que “la IA ha creado tantas imágenes como las que tomaron las fotos en 150 años”. “Cuando todo lo que se necesita es una imagen convincentemente fabricada para degradar la confianza, 150 millones de imágenes no detectadas es una cifra muy preocupante”, dice McGregor.
Aparte de los píxeles manipulados, McGregor revela que también es imposible identificar si los metadatos de una imagen (hora, fecha y ubicación) son precisos después de su creación. El experto considera que “el procedimiento de contenidos digitales, que utiliza criptografía para marcar las imágenes, será la mejor manera para que los usuarios identifiquen en el futuro que las imágenes son originales y no han sido modificadas”. Su empresa, Truepic, lanzó el primer deepfake transparente del mundo con estas marcas —con información sobre su origen—.
Es cierto que estos sistemas están ampliamente implementados, es fundamental que los usuarios adopten una postura crítica. En una guía desarrollada por Factchequeado, con la ayuda del Instituto de Periodismo Reynolds, existen 17 herramientas para combatir la desinformación. Entre ellas, existen varias formas de consultar fotografías y vídeos. La clave, según Calzadilla, es precisamente saber que es infalible y 100% fiable. Por tanto, para detectar si una imagen ha sido generada con IA no vale una sola herramienta: “La verificación se realiza mediante diversas técnicas: la observación, el uso de herramientas y los clásicos del periodismo. Es recomendable contactar a la fuente original, revisar sus redes sociales y verificar si la información que se le atribuye es segura”.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.