Imágenes generadas por inteligencia artificial ¿Cómo identificarlas?

0

CN COLIMANOTICIAS

México.- Luego de que se hiciera viral una serie de fotografías falsas del Papa Francisco en las que se le podía ver con un abrigo moderno y otras en las que se veía el supuesto arresto del ex presidente de Estados Unidos, Donald Trump, ambas con un aspecto hiperrealista, el debate en redes sociales (donde se difundieron) se centró en cómo reconocer cuando una imagen es generada por inteligencia artificial.

Los software Midjourney y DALL-E2 son los más populares en este tipo de casos, debido al nivel de realismo que pueden alcanzar en sus producciones.

Sin embargo, las imágenes generadas por más detalladas que sean, no son perfectas y pueden reconocerse si las personas buscan con detenimiento los errores que existen en estas fotografías artificiales.

El principal reto de las personas que ven estas imágenes en internet es que es altamente probable que la sigan difundiendo sin antes realizar una observación a detalle. Estos son algunos aspectos que se deberán tener en cuenta para identificar ese contenido de forma rápida.

Lo primero es revisar el nivel de detalle que existe en las manos de las personas presentes en la fotografía. Por más que se añadan detalles hiperrealistas las imágenes suelen tener desperfectos en esa área del cuerpo.

Foto viral del Papa Francisco fue creada por la inteligencia artificial de Midjourney.Foto viral del Papa Francisco fue creada por la inteligencia artificial de Midjourney.

Las manos o los dedos son un indicador clave de que la imagen es falsa. En ocasiones se podrá ver a los personajes con un dedo más o menos de los que debería, si están sosteniendo algo (como en el caso de la foto del Papa Francisco), la mano se mezcla con el objeto e incluso puede que los dedos sean más largos de lo normal.

Salvo que estén completamente diferenciados por el color que presentan, los anillos también sirven como referencia para identificar las fotos falsas.

En las imágenes artificiales suelen fusionarse con la mano y no se define realmente cuándo empieza y acaba el accesorio. Lo mismo puede pasar con los pendientes y piercings.

En algunos casos, las inteligencias artificiales son entrenadas con fotografías reales para replicar el rostro de una persona determinada. Sin embargo, aún cuando el resultado sea muy cercano a la realidad, estos pueden tener desperfectos al momento de reproducir sombras.

En este tipo de casos se deberá observar con detenimiento si el objeto o la persona está iluminada de forma correcta o se están produciendo sombras donde no se debería.

Fotografía falsa producida por Midjourney de Elon Musk en Plaza Callao, en Madrid. El letrero amarillo y la bicicleta a la izquierda del empresario presentan ilegibilidad y deformidades, lo que permite identificar la fotografía como generada por inteligencia artificial. (Twitter/@earcos)

Si las imágenes fueron producidas por una inteligencia artificial que no tuvo el entrenamiento especial para imitar los rostros de las personas, esta parte de sus cuerpos aparecerá con visibles deformaciones, en los ojos, párpados, boja, orejas o incluso podrían no tener rostro en absoluto y en su lugar presentar formas que emulan algún tipo de expresión facial, pero ninguna definida.

El fondo de las imágenes es relevante para identificar cuáles son artificiales. Los carteles de anuncios o letreros suelen presentar conjuntos de letras ilegibles o que no significan nada en realidad. Tampoco corresponden a un idioma en particular, por lo que es una de las formas más rápidas de identificar una imagen falsa.

Uno de los principales problemas que se pueden generar al compartir este tipo de imágenes en redes sociales, es que pueden ser utilizadas como parte de campañas de desinformación, por lo que se recomienda que las personas observen los detalles mencionados anteriormente y ahí si pueden dar por verdadero o no el contenido de estas fotografías.

Con información de Infobae