Esta semana, un creador de contenido brasileño llamado ederxavier3d sorprendió a todos con un vídeo publicado en su cuenta de Instagram. En él, varios personajes de la serie 'Stranger Things' replicaban exactamente los mismos gestos y expresiones que él hacía en una ventana pequeña abajo. ¿El secreto? Lo logró de manera sencilla gracias a la versión 2.6 de Kling y su función de Motion Control.
Esta herramienta permite que los movimientos que realizamos en un vídeo se transfieran a cualquier figura, ya sea real o ficticia, incluso personajes de cómic, con resultados realmente impresionantes.
En el vídeo de ederxavier3d, las imágenes podrían pasar por reales en la mayoría de los casos. Aunque si uno presta mucha atención puede notar algún detalle extraño, la clave está en que fue compartido aclarando que está generado con inteligencia artificial.
Este video también reavivó el debate sobre los deepfakes. Justine Moore, socia de la firma de inversión a16z, comentaba que «no estamos preparados para la velocidad con la que la IA va a transformar la producción de vídeos». Según ella, los últimos modelos tienen implicaciones inmediatas para Hollywood, facilitando intercambios de personajes casi de forma ilimitada y a bajo costo.
Hace solo unos meses, en abril de 2023, proponíamos distinguir imágenes reales de las generadas por IA. Por entonces, aunque ya había avances, era más sencillo detectar la diferencia, y la generación de vídeo aún estaba en pañales. Ahora, en 2024, la situación ha cambiado mucho. Plataformas como Veo 3, Sora 2, Kling o Runway crean vídeos que cualquiera podría confundir con realidad sin mayor problema. Solo hay que pensar en casos mediáticos como el de Will Smith para entenderlo.
El vídeo de ederxavier3d generó incluso rumores de que los actores de 'Stranger Things' habían grabado esos movimientos y que él solo los había imitado, pero rápidamente se confirmó que se trataba de deepfakes creados con IA desde el principio.
Esta capacidad no es nueva: otras plataformas también permiten transferir movimientos, gestos e incluso voces a personajes generados por IA. Pero el problema es que hoy en día resulta casi imposible saber si la persona que vemos en pantalla es real o no.
Aunque esta tecnología abre muchas posibilidades creativas y genera ese efecto "wow" tan buscado, los riesgos son evidentes. Por ejemplo, la suplantación de identidad se vuelve mucho más fácil, aumentando los peligros de fraudes. Basta recordar el caso de un empleado que transfirió 25 millones de dólares tras creer que hablaba por videoconferencia con su jefe.
No está claro cómo responderán Hollywood y otros sectores ante este avance, pero ya hay señales de que algunos actores están tomando precauciones. Un caso destacado es Matthew McConaughey, quien recientemente "patentó" su propia imagen para tener una vía legal adicional que lo proteja contra posibles deepfakes suplantándolo.
Las implicaciones de esta tecnología son enormes y nos acercan a una era inquietante donde no podremos fiarnos completamente de lo que vemos en pantalla. Los deepfakes ya no son solo una curiosidad tecnológica, sino un reto real para la confianza y la seguridad en la información audiovisual.



