Por Florencia Ballarino y Lucía Gardel, de Reverso*

Las nuevas herramientas de Inteligencia Artificial -cada vez más populares- presentan oportunidades, pero también nuevos riesgos y desafíos. A esta altura sabemos que una de las desventajas es que pueden generar desinformación, ya sea a través de textos generados con ChatGPT o a través de plataformas que crean imágenes y videos falsos. En un contexto electoral, esto podría afectar a los candidatos o al proceso de votación.

¿Qué podemos hacer para cuidarnos de este tipo de desinformaciones? ¿Cómo podemos saber si una imagen fue creada con inteligencia artificial? Te lo contamos en esta nota.

Las imágenes creadas con inteligencia artificial pueden ser usadas para desinformar

Existen diversos casos de imágenes creadas con inteligencia artificial que han generado desinformación en contextos políticos al mostrar situaciones ficticias. El problema de esta técnica -que está evolucionando- es que las imágenes resultantes suelen difundirse en redes sociales como si fueran auténticas y sin contexto, lo que hace que muchas personas las tomen como verdaderas.

Así se han viralizado imágenes de políticos en diversos países. En los últimos meses circularon supuestas fotos del ex presidente de los Estados Unidos, Donald Trump, siendo arrestado -cuando aún no había sido puesto bajo arresto por los cargos judiciales que enfrenta, pero resultaron ser imágenes creadas con inteligencia artificial. 

También se viralizaron en redes supuestas imágenes del presidente de Francia, Emmanuel Macron, por las calles de París en medio de las protestas por su polémica reforma jubilatoria. Y en el contexto del encuentro entre el presidente ruso Vladimir Putin y el presidente chino Xi Jinping, el 20 de marzo de 2023, circuló en Twitter una foto sin fuente que mostraba a Putin arrodillado ante el líder chino.

El Papa Francisco también fue víctima de la inteligencia artificial. En las últimas semanas circuló una imagen de Jorge Bergoglio con una campera puffer blanca. Varios usuarios se preguntaron en Twitter si se trataba de una imagen verdadera y muchos la compartieron como si lo fuese. Pero la foto había sido creada con la herramienta de inteligencia artificial Midjourney.

La desinformación impulsada con inteligencia artificial no solo afecta a figuras públicas; también genera eventos ficticios. Por ejemplo, se hizo viral una imagen falsa de una explosión en el edificio del Pentágono en los Estados Unidos, así como otra imagen inventada de policías abrazando mujeres durante una manifestación en Francia.

El potencial para desinformar de los los videos creados con inteligencia artificial y el ChatGPT

En el contexto de las elecciones presidenciales en Brasil de 2022, circularon varios deepfake -videos manipulados o generados con inteligencia artifical- sobre los candidatos Lula da Silva y Jair Bolsonaro. En ellos se puede ver al actual presidente brasilero quejarse del precio de la paçoca, una golosina típica de Brasil, y a Bolsonaro bailando en short y sin camisa. Ambos videos se viralizaron en Tik Tok como auténticos, pero no son reales. 

Los deepfake consiguen modificar la apariencia física e incluso la voz de las personas a las que se imita y pueden ser utilizados para distorsionar discursos de políticos. Por ejemplo, en marzo de 2022 circuló un video donde el presidente de Ucrania, Volodímir Zelenski, supuestamente le pedía a sus tropas que se rindieran y dejaran las armas ante el ejército ruso. Se trató de un deepfake que el propio presidente de Ucrania desmintió a través de su perfil de Instagram. 

Un análisis de Mekela Panditharatne, experta en desinformación del Brennan Center for Justice, y Noah Giansiracusa, profesor asociado de Matemáticas y Ciencia de Datos en la Universidad de Bentley, Estados Unidos, describe los peligros que plantea la desinformación relacionada con las elecciones generada mediante inteligencia artificial y analiza el caso de aplicaciones como el ChatGPT.

“Los votantes que interactúan con modelos de lenguaje en sistemas de búsqueda y por medio de chatbots probablemente se topen con información errónea involuntariamente, ya que se sabe que estas herramientas ‘tienen alucinaciones’ de vez en cuando e incluso fabrican anotaciones que parecen fidedignas, con enlaces a artículos que no existen, para respaldar afirmaciones falsas”, advierte el trabajo.

Para los autores, el uso generalizado de inteligencia artificial generativa “podría crear una nube de confusión que dificulte distinguir entre lo verdadero y lo falso” y “eso, a su vez, podría erosionar la confianza en la información electoral de manera más amplia”.

Cómo identificar imágenes y videos creados con inteligencia artificial

La inteligencia artificial evoluciona día a día  y es cada vez más complejo detectar si una imagen ha sido creada con esta tecnología, pero existen algunos detalles a los que se puede estar atento.

Como con cualquier foto que se encuentra en Internet y que genera sospechas, es útil buscar la fuente original de la supuesta imagen y averiguar si fue publicada previamente por alguna agencia de noticias o si se comparte con el crédito de un fotógrafo. Para ello, se puede hacer una búsqueda inversa de la imagen con Google u otro buscador como TinEye. Incluso sin encontrar el registro original, se puede llegar a alguna otra versión de la imagen que indique si fuentes fiables confirmaron su legitimidad.

Para analizar si una imagen fue creada con inteligencia artificial el secreto es afinar el ojo. En la mayoría de los casos, estas imágenes que terminan viralizándose presentan varias imperfecciones. Por eso, es necesario estar atento a los detalles: mirar las manos, los ojos, la cara, la textura de la piel de las personas, las orejas, los dientes y el cabello, que pueden verse artificiales, así como buscar si hay objetos desproporcionados, y observar si los reflejos o sombras de los objetos son correctos.

Algunas herramientas de inteligencia artificial dejan una marca de agua en las imágenes, como DALL-E, que genera automáticamente una barra colorida en la esquina inferior derecha de todas sus imágenes; o Crayion, que coloca un pequeño lápiz rojo en el mismo lugar. De todos modos, es necesario ser cauto con este punto porque las imágenes pueden ser editadas y las marcas de agua podrían ser removidas a propósito, además de que no todas las plataformas de creación de imágenes con IA la aplican.

Por último, existen herramientas de detección automática que permiten identificar imágenes creadas por inteligencia artificial, como la página Hugging Face, aunque hasta el momento no se ha encontrado una que sea 100% infalible

Consejos similares pueden aplicarse para detectar un deepfake. Para identificarlos, el MIT Media Lab, un laboratorio dentro de la Escuela de Arquitectura y Planificación en el Instituto de Tecnología de Massachusetts, aconseja prestar atención a la cara de quien aparece en el video, en especial su piel -si está o no muy arrugada-, el vello facial, el cabello y los ojos para detectar, por ejemplo, si aparecen sombras en los lugares esperados o si la persona parpadea demasiado o muy poco. También se recomienda observar los movimientos de los labios y si se sincronizan o no con la voz.

Por F.B y L.G.

*Esta nota es parte de Reverso, el proyecto periodístico colaborativo coordinado por Chequeado y AFP que une a medios y empresas de tecnología para intensificar la lucha contra la desinformación durante la campaña electoral.