Ir al contenido principal

La Inteligencia Artificial crea realidad falsa indistinguible de la verdadera


Expertos en manipulación gráfica explican por qué los avances tecnológicos pueden conllevar graves consecuencias para la humanidad.


La humanidad está en camino a quedar atrapada en un mundo de hiperrealidad en el cual nuestra conciencia perderá la habilidad de discriminar lo verdadero de lo simulado. Esta delgada línea que distingue entra la realidad y la imagen virtual puede difuminarse más allá de lo reconocible gracias al progreso de las empresas tecnológicas y de inteligencia artificial (IA), advierte el portal Info Wars.
Un importante avance en este campo fue anunciado recientemente por la compañía de procesamiento gráfico Nvidia, que publicó los resultados de su "traducción de imagen a imagen".
Se trata de una tecnología capaz de manipular, por ejemplo, las imágenes de un paisaje invernal, transformándolas en una escena 'filmada' en el mismo lugar pero durante el verano. Este proceso se logra con tal nivel de realismo, que es prácticamente imposible determinar cuál de los dos materiales es el original.
"Presentamos los resultados de traducción de imágenes de alta calidad" relativos a "desafiantes tareas" automatizadas, que incluyen traducciones de imágenes de "escenas de la calle, de animales y de rostros", anunciaron los expertos de Nvidia.
Para lograr esto, los investigadores de la compañía utilizaron redes adversas generativas (GAN) junto con un sistema de aprendizaje sin supervisión humana. De esta manera, es posible reducir los tiempos de entrenamiento en tecnologías basadas en la IA.
"En lo automóviles sin conductor, los datos de entrenamiento pueden ser capturados en una única vez" y a continuación es suficiente con "simularlos a través de una variedad de condiciones virtuales", por ejemplo, para llevar a cabo pruebas de conducción en diferentes escenarios: "soleado, nublado, con nieve, lluvioso o nocturno", ejemplificó Kimberly Powell, vicepresidenta del departamento de IA y Salud de Nvidia.
De esta manera, la IA es capaz de aprender el algoritmo de un determinado objeto, que incluso puede ser un rostro humano, y luego modificarlo de la manera deseada o 'transportarlo' a otro lugar o momento. Esta tecnología es potencialmente peligrosa y dañina si es utilizada de manera malintencionada, por ejemplo, para inventar "evidencias falsas en video" con fines de "persecución política", observa Info Wars.
En un estudio llevado a cabo a mediados de este año, se ha comprobado que cuatro de cada diez personas no son capaces de detectar imágenes manipuladas. Es decir, las chances de distinguir una imagen original de una falsa son apenas superiores que al elegir una de las dos al azar.
"Esto conlleva serias consecuencias", debido al alto nivel de "imágenes posiblemente falsas a las que son expuestas las personas de manera diaria a través de las redes sociales, el Internet y los medios", concluyó Sophie Nightingale, doctorando de la universidad de Warwick (Reino Unido) y autora principal del estudio.

Comentarios

  1. Para combatir este fenómeno, podría existir un mecanismo o marca legalmente obligatorio técnicamente imposible de quitar que diga "copia" o "edición" o "imagen editada", pero tendría que ser desde el fabricante. Tendría que haber fabricantes verdaderamente comprometidos con este concepto de decir "esto es una copia y No es el original". Habrá un fabricante que se comprometa con este concepto?

    ResponderBorrar

Publicar un comentario

Entradas más populares de este blog

El teléfono que combate la adicción a los smartphones

Una aplicación del Estado Islámico enseña árabe a niños con tanques y pistolas