Cada vez es más difícil confiar en lo que vemos o lo que oímos, porque diversos sistemas basados en inteligencia artificial logran poner en otras bocas palabras que nunca pronunciaron y gestos que nunca hicieron.
Esos vídeos manipulados por inteligencia artificial se han convertido en un fenómeno gracias a tendencias como los célebres deepfakes, pero ahora conocemos otra vertiente, más divertida pero igualmente engañosa: con este sistema de IA cualquiera puede aparecer como un bailarín profesional que domina todo tipo de estilos.
Todos a bailar
Un grupo de investigadores de la Universidad de California en Berkeley demostraron cómo un sistema de inteligencia artificial era capaz de trasladar los movimientos de un bailarín experto grabados en vídeo a los de cualquier persona.
Con dicha solución era posible que otras personas, sepan bailar o no, logren hacer movimientos como si se tratase de verdaderos profesionales.
El resultado es sorprendente, y como explicaban los responsables de este desarrollo, «con nuestro entorno hemos creado una variedad de vídeos que permiten a amateurs no entrenados girar y virar como bailarinas, realizar patadas de artes marciales o bailar de forma tan vibrante como lo hacen las estrellas pop».
El algoritmo detecta poses a partir del vídeo de origen grabado por un bailarín experto, y a partir de esos vídeos se entrena a un sistema a través de las llamadas Generative Adversarial Networks (GAN) para producir esos resultados finales con la cara y cuerpo del bailarín amateur.
El resultado no es perfecto -hay algún salto y movimiento poco fiable durante la reproducción-, pero es una muestra de lo que se puede llegar a hacer con este tipo de sistemas, que vuelven a plantear un futuro en el que cada vez será más difícil detectar si una imagen o un vídeo es real o está generado por ordenador y por uno de estos algoritmos.
No te creas (todo) lo que veas
El ejemplpo de este desarrollo es el último de una hornada de desarrollos que demuestran que es posible alterar un vídeo o generarlo prácticamente de cero para lograr que una persona haga o diga aquello que necesitamos.
La idea se ha convertido casi en un juguete para los estudiosos del tema, que han ido mostrándonos cómo los políticos son capaces de aparecer pronunciando discursos de lo más extraño que uno no asociaría a las personas que los dicen.
El caso de Obama es uno de los más célebres, pero hay otros muchos que han dejado claro que el futuro puede acabar amenazado por el «apocalipsis informativo» de las fake news, que no solo se propagarán a través de las redes sociales con la ayuda de bots, sino que lo harán siendo más creíbles que nunca por esa capacidad de los algoritmos de inteligencia artificial.
A este tipo de contenidos falsos generados por inteligencia artificial se ha unido esa nueva tendencia por los deepfakes, vídeos pornográficos en los que la cara de la actriz porno es sustituida por la de una actriz famosa, aunque cualquiera puede en su casa generar uno de estos vídeos con la cara de alguien conocido.
Las implicaciones son enormes y podrían dar lugar a un verdadero caos de falsas informaciones, falsos rumores y falsas acusaciones que permitirían a quien los maneja influir en la opinión de un gran número de personas y condicionar así su respuesta ante potenciales iniciativas económicas, políticas y sociales.
Luego, claro está, están estos vídeos menos agresivos que muestran cómo cualquiera es capaz de realizar movimientos de baile como un profesional, pero la conclusión es la misma en todos los casos: será mejor que empecemos a no fiarnos de lo que vemos y oímos, porque podría estar generado por una IA.
En Xataka | No creas lo que veas ni lo que oigas: 7 alucinantes vídeos en los que la IA nos engaña
También te recomendamos
Paso a paso: cómo elegir tus periféricos idóneos para jugar
Nvidia y el MIT entrenan a una IA para eliminar el ruido de fotografías y resonancias magnéticas
–
La noticia
La última gran mentira de la inteligencia artificial es hacernos bailar como profesionales
fue publicada originalmente en
Xataka
por
Javier Pastor
.