Videos falsos: mientras el realismo aumenta, ver no siempre debe implicar creer
Todo lo que se necesita es una sola selfie.
A partir de esa imagen estática, un algoritmo puede crear rápidamente un avatar con movimiento y realista: un video no grabado, sino totalmente inventado mediante un software.
Pinscreen, la empresa emergente de Los Ángeles responsable de esta tecnología, cree que, con el tiempo, sus representaciones serán tan precisas que desafiarán la realidad.
“Nadie podrá precisarlo”, aseguró Hao Li, un investigador líder en video generado por computadora de la USC, que fundó Pinscreen en 2015. “Con más avances en el aprendizaje profundo, especialmente en dispositivos móviles, podremos producir avatares completamente fotorrealistas en tiempo real”.
La tecnología es un triunfo de la ciencia de la computación que destaca los logros de los investigadores en las redes neuronales profundas, algoritmos complejos que imitan vagamente el pensamiento del cerebro humano.
Avances similares en la inteligencia artificial permitieron a los investigadores de la Universidad de Washington mover la boca del presidente Obama para que coincida con un guión inventado, y posibilitaron al fabricante de chips Nvidia entrenar computadoras e imaginar cómo serían las carreteras en diferentes condiciones climáticas.
Lo que solía llevar semanas para una empresa sofisticada de producción de Hollywood, pronto podría lograrlo cualquier persona, en segundos, con un teléfono inteligente.
¿No está disponible para un video chat? Utilice su avatar realista como suplente. ¿Desea insertarse en un juego de realidad virtual? Suba su imagen y haga que el juego represente su personaje. Esos podrían ser los usos benignos.
Ahora imaginemos un video falso del dictador norcoreano Kim Jong Un, anunciando un ataque con misiles. La Casa Blanca tendría apenas unos minutos para determinar si el clip es genuino y si justifica una contraofensiva como represalia.
¿Y qué pasaría con el video de un candidato presidencial que admite haber tomado dinero extranjero? Incluso si las imágenes fueran falsas, el daño podría ser irreversible.
En algunos rincones de internet, las personas están usando software de código abierto para incluir rostros de celebridades en videos pornográficos, un fenómeno llamado Deep Fakes.
No es difícil imaginar un mundo con las redes sociales inundadas de videos falsificados, dirigidos a personas comunes con el fin de vengarse, extorsionar o simplemente actuar como un troll.
En ese escenario, donde Twitter y Facebook están plagados de algoritmos de engaños, nadie puede creer completamente lo que ve. La verdad, ya disminuida por la campaña de desinformación de Rusia y la inclinación del presidente Trump a etiquetar el periodismo poco halagador con él como “noticias falsas”, sería más subjetiva que nunca.
El peligro no es simplemente creer en engaños, sino también descartar aquello que es real.
“Si algo puede ser real, nada es real”, aseveró un usuario de Reddit en un manifiesto, defendiendo el foro Deep Fakes, desde entonces prohibido por producir pornografía sin el consentimiento de las personas cuyas caras fueron utilizadas.
Las consecuencias podrían ser devastadoras para la noción de video probatorio, considerado durante mucho tiempo el paradigma de las evidencias, dada la sofisticación requerida para manipularlo.
“Esto va más allá de las ‘noticias falsas’ porque se trata de un medio, el video, en el que tradicionalmente hemos puesto mucha importancia y en el cual confiamos”, destacó David Ryan Polgar, escritor y autodefinido como experto en ética tecnológica. “Si miramos atrás, a lo que ahora se puede considerar como el primer video viral, ello fue el testimonio de la agresión de Rodney King, que impactó drásticamente a la opinión pública. Un video es visceral. También es un medio que parece objetivo”.
Para detener la propagación de videos falsos, Facebook, Google y Twitter tendrían que demostrar que pueden cumplir sus recientes promesas de vigilar sus plataformas.
La imputación efectuada la semana pasada por el fiscal especial Robert S. Mueller III a más de una docena de agentes rusos y tres compañías del mismo país mostró cuán fácilmente los malos actores pueden explotar las compañías tecnológicas que dominan nuestro acceso a la información. Silicon Valley fue tomada por sorpresa ante la propagación de trolls, bots y propaganda, un problema que persiste hasta hoy.
Las compañías tecnológicas tienen un incentivo financiero para promover contenido sensacional. En su rol de plataformas, más que como compañías de medios, han defendido ferozmente su derecho a eludir el juicio editorial.
Los críticos cuestionan si Facebook, Google y Twitter están preparados para detectar una avalancha de nuevas tecnologías, como el video generado por máquinas.
“Las plataformas están empezando a tomar en serio la desinformación al estilo de 2016 en algunos niveles”, expuso Aviv Ovadya, tecnólogo jefe del Centro para la Responsabilidad de las Redes Sociales. “Pero hacer cosas a esa escala es mucho más difícil”.
Los videos falsos “tendrán que abordarse en una capa de infraestructura técnica más profunda, que es un juego completamente distinto”, remarcó Ovadya (Facebook y Twitter no respondieron a las solicitudes de entrevistas. Google no quiso hacer ningún comentario).
El problema hoy es que no hay muchas salvaguardias.
Para Hany Farid, un experto forense digital en el Dartmouth College que a menudo aborda la aplicación de la ley, observar el flujo sanguíneo en el rostro a veces puede determinar si el clip es real. Pequeñas imperfecciones al nivel del píxel también pueden revelar si es genuino.
Con el tiempo, sin embargo, Farid cree que la inteligencia artificial socavará estas pistas y perpetuará un juego de gato y ratón entre algoritmos e investigadores. “He trabajado en este espacio durante dos décadas y sabía de la manipulación de videos, pero nunca ha llegado al nivel en el que todo el mundo entra en pánico”, expresó el experto. “No obstante, este video generado por el aprendizaje automático surgió de la nada y nos tomó a muchos por sorpresa”.
Eso incluye a miembros de la Agencia de Proyectos de Investigación Avanzada de Defensa. El laboratorio de investigación de alta tecnología del ejército estadounidense, más conocido como DARPA, se reúne regularmente con expertos en análisis forense de medios, como Farid y Li, de Pinscreen. La discusión en un encuentro reciente en Menlo Park se centró en Deep Fakes y las formas de detectar videos falsos ultrarrealistas. El consenso fue desalentador. “Básicamente, no hay mucho que alguien pueda hacer en este momento”, estimó Li sobre las herramientas de detección automatizadas.
El mismo acertijo enfrentó hace años la compañía de software Adobe, cuando se hizo evidente que Photoshop, su programa de edición fotográfica, también se usaba para engañar. La compañía buscó incluir herramientas que pudieran detectar si una imagen había sido adulterada, pero finalmente abandonó la idea y consideró que los estafadores podrían explotar el programa con la misma facilidad, afirmó Kevin Connor, un exejecutivo de Adobe que ahora trabaja con Farid. “Yo creo que Photoshop es algo abrumadoramente positivo”, expresó. “Pero eso no significa que algo bueno no pueda usarse para el mal”.
Los defensores del video artificial exponen que las imágenes falsas son un viejo problema, a menudo desacreditado. Consideremos, por ejemplo, la foto retocada que surgió en 2004 del entonces candidato presidencial John Kerry con Jane Fonda, en un mitin contra la Guerra de Vietnam. Incluso un retrato de 1860 de Abraham Lincoln resultó ser manipulado. El cuerpo del presidente fue reemplazado por un John Calhoun, de aspecto más heroico.
Según los expertos, las posibilidades de detener el avance de la tecnología, como el video generado por computadora, son altamente improbables.
Ello significa que la responsabilidad de verificar las imágenes lo mejor posible recae sobre aquellos que leen los artículos y sobre quienes los reportan. Los estudiantes, ya a una edad temprana, necesitan también que se les enseñe a discriminar las fuentes de noticias de manera crítica, indicó Nonny de la Peña, un practicante temprano del periodismo inmersivo, que a menudo se apoya en la realidad virtual. “Evitar la tecnología debido a los temores de que ésta pueda ser peligroso es un gran error”, dijo. “La tecnología da miedo. Habrá consecuencias negativas con su uso, pero el potencial positivo supera con creces lo malo”.
Los avatares generados por computadora podrían reforzar la comunicación al llevar las sutilezas del lenguaje corporal a la conversación digital, indicó Li, de Pinscreen. “No es nuestro propósito crear una tecnología que las personas puedan usar para el mal”, aseguró el ejecutivo, quien también enseña y realiza investigaciones en USC.
La tecnología de avatar fotorrealista de Pinscreen aún no está disponible para uso público. La compañía, que funciona desde un rascacielos de Wilshire Boulevard, se enfoca principalmente en una aplicación que convierte las selfies comunes en avatares tridimensionales animados.
Li, de 37 años, participó en el desarrollo de la tecnología que Apple usaba para crear animojis. Esos avatares de caricaturas usan sensores de realidad aumentada en la cámara del iPhone X para moverse en tándem con la cara del usuario.
Li recibió propuestas de grandes compañías tecnológicas interesadas en adquirir Pinscreen, pero las rechazó. Él imagina construir su propia aplicación de medios sociales, en la cual los usuarios pueden comunicarse con sus avatares lúdicos en entornos generados por computadora.
“La principal diferencia entre lo que nosotros hacemos e Instagram y Snapchat, o Facebook, es que ellos básicamente rastrean un rostro y le agregan cosas”,explicó, acerca de los filtros de realidad aumentada de las aplicaciones. “Nuestro objetivo es construir todo un mundo generado por computadora”.
Para demostrar su tecnología, Pinscreen convirtió una foto con mi rostro en un video. Armado con datos sobre el movimiento humano, Pinscreen usó su profunda red neuronal para plantar mi cabeza sobre lo que se consideraría una imagen tridimensional ‘viva y coleando’.
El proceso tomó minutos, a razón de un fotograma por segundo, aproximadamente. Pero la empresa cree que podrá renderizar avatares realistas en tiempo real para el final del año, que también incluirán cabello convincente.
Li, un alemán hijo de padres taiwaneses, consideró que la clave para evitar la falta de la confianza en el video es crear conciencia sobre las capacidades del video generado por computadora. “Cuando vemos ‘Jurassic Park’, allí no hay dinosaurios, pero los realizadores nos dieron esa experiencia”, explicó. “Por supuesto, si uno quisiera, podría contratar a cualquier equipo de efectos digitales para hacer que Donald Trump o Kim Jong Un luzcan como si estuvieran comenzando una nueva guerra”, continuó. “Lo que es diferente ahora es que es muy fácil hacer estas cosas y puede llegar a manos de cualquier persona. Por ello, lo importante es educar. La gente se acostumbrará a esto igual que al Photoshop”.
Traducción: Valeria Agis
Para leer esta nota en inglés, haga clic aquí
Suscríbase al Kiosco Digital
Encuentre noticias sobre su comunidad, entretenimiento, eventos locales y todo lo que desea saber del mundo del deporte y de sus equipos preferidos.
Ocasionalmente, puede recibir contenido promocional del Los Angeles Times en Español.