Las DeepFake tienen el potencial de trastocar nuestras vidas en lo individual, en lo social, y en lo político.
El desarrollo de las DeepFake plantean retos éticos, técnicos y políticos que deben de enfrentarse con una gobernanza que limite sus potenciales efectos negativos tanto individuales como colectivos.
El desarrollo de la inteligencia artificial representa quizás una de las mayores oportunidades y al mismo tiempo, uno de los desafíos más complejos que enfrentamos. Su aparición ha influido sustancialmente en la forma en que nos relacionamos con el mundo. De de las invenciones de inteligencia artificial que mayor controversia han causado recientemente es el desarrollo de lo que se ha llamado Deep Fake (mentiras profundas), videos falsos cada vez más sofisticados creados con algoritmos de aprendizaje profundo (deep learning) y que consisten básicamente en el intercambio de rostros.
Al principio, la edición de videos e imágenes permitía únicamente alterar expresiones faciales. Sin embargo, como la mayoría de las innovaciones tecnológicas actuales, estas técnicas han evolucionado a pasos agigantados. Hoy, se pueden intercambiar y manipular la posición tridimensional de la cabeza, su rotación, las expresiones de la cara, la mirada... Estos avances han hecho que las creaciones que usan estas técnicas tengan cada vez mayor realismo. Pero ¿para qué se han utilizado estos videos falsos y por qué nos debería de importar su aparición en nuestras vidas? Éstos han sido utilizados para los fines más diversos: desde crear videos falsos de Nicolás Cage en todo tipo de situaciones como mero entretenimiento, hasta el uso de los rostros de personajes públicos en videos pornográficos.
Si bien algunos portales como Pornhub y Twitter han bloqueado el uso de estas tecnologías, otras empresas han visto una oportunidad comercial creando servicios en los que se puede enviar fotos para que éstas sean puestas en videos con actores profesionales, o bien, enviar un video propio para que los rostros de actores profesionales sean insertados en él. Recientemente, Buzzfeed creó un Deepfake en el que Obama pareciera decir cosas que nunca dijo. El video tiene como propósito mostrar lo avanzado de estas herramientas y visibilizar el tipo de cosas que se pueden hacer con ellas.
Las implicaciones de las DeepFake son numerosas, muchas de ellas no podemos todavía ni imaginarlas. No obstante, sí podemos hablar de al menos dos muy tangibles entorno a la la dignidad humana y a nuestra relación con la realidad. Y es que primero, plantean serios cuestionamientos sobre el derecho a la privacidad de las personas, particularmente porque no existen reglas claras o tecnologías que permitan tomar en cuenta el conocimiento y consentimiento de lxs dueñxs de las imágenes para la divulgación de estos videos. Y segundo, porque aunque hoy todavía es posible distinguir - si bien no a simple vista - que estos videos no son reales, su sofisticación seguramente avanzará hasta que cada vez sea más difícil distinguir entre lo real y lo falso.
Gobiernos alrededor del mundo como el de Estados Unidos ya han advertido las implicaciones de las DeepFake para la seguridad nacional. El 13 de septiembre el Congreso envió una carta al Director de Inteligencia Nacional de ese país en la que se solicita a la agencia que realice una revisión exhaustiva de las formas en que otros estados, organizaciones y/o individuos han o podrían utilizar estas tecnologías para lastimar los intereses nacionales de Estados Unidos, y para que informe qué medidas se han tomado para prevenir, detectar, y contrarrestar - en su caso - estos intentos.
Lo cierto es que las DeepFake tienen el potencial de trastocar nuestras vidas en lo individual, en lo social, y en lo político. Por ello es importantísimo que se abra un debate sobre las implicaciones éticas, sociales y políticas de estas tecnologías y construir sistemas de gobernanza que limiten los efectos negativos de las mismas.
Publicado el 28 de septiembre de 2018 en https://news.culturacolectiva.com/mundo/que-son-las-deepfake-y-porque-nos-debe-importar/
Comments