¿Qué es deepfake? ¿Deberías estar preocupado?
El contenido deepfake está generando caos entre las personas que crecieron con la idea de que ver para creer. Las fotos y los videos, que alguna vez se consideraron evidencia innegable de que algo estaba sucediendo, ahora están siendo cuestionados por las masas. Esto es de esperarse después de descubrir que el video increíblemente realista de Barack Obama llamando al presidente Trump un “chapuzón total y completo” no es más que una creación profundamente falsa.
El contenido deepfake está generando caos entre las personas que crecieron con la idea de que ver para creer.
La tecnología involucrada está levantando las cejas y generando preguntas, por lo que estamos aquí para brindarle un resumen completo de lo que es, cómo funciona y si realmente hay una razón para preocuparse.
¿Qué es deepfake?
Deepfake es una técnica de IA (inteligencia artificial) que utiliza el aprendizaje automático para crear o manipular contenido. A menudo se usa para crear montajes o superponer la cara de una persona sobre otra, pero sus capacidades se extienden mucho más allá. Esta tecnología tiene muchas otras aplicaciones. Estos incluyen manipular o crear sonido, movimiento, paisajes, animales y más.
¿Cómo funciona deepfake?
El contenido deepfake se crea a través de una técnica de aprendizaje automático conocida como GAN (red generativa de confrontación). Las GAN utilizan dos redes neuronales: un generador y un discriminador. Estos compiten constantemente entre sí.
El generador intentará crear una imagen realista, mientras que el discriminador intentará determinar si es un deepfake o no. Si el generador engaña al discriminador, el discriminador usa la información recopilada para convertirse en un mejor juez. Del mismo modo, si el discriminador determina que la imagen del generador es falsa, el generador mejorará en la creación de una imagen falsa. El ciclo interminable puede continuar hasta que una imagen, video o audio ya no sea notablemente falso para la perspectiva humana.
Además: ¿Qué sigue para el aprendizaje automático?
Los orígenes de deepfake
¡Los primeros videos de deepfake fueron obviamente porno! Más específicamente, era común ver caras de celebridades superpuestas sobre actrices porno. Los memes de Nicholas Cage también fueron populares, entre otros inventos divertidos.
¡Los primeros videos de deepfake fueron obviamente porno!
La palabra deepfake se convirtió en sinónimo de esta técnica en 2017, gracias a un usuario de Reddit que se hacía llamar “deepfakes”. El usuario se unió a otros en el subreddit r / deepfakes ahora prohibido , donde compartieron sus creaciones con el mundo.
El verdadero creador de redes generativas de confrontación es Ian Goodfellow. Junto con sus colegas, presentó el concepto en la Universidad de Montreal en 2014. Luego pasó a trabajar para Google y actualmente es empleado de Apple.
Relacionado: La diferencia entre inteligencia artificial y aprendizaje automático.
Los peligros
Si bien la manipulación de contenido no es nada nuevo, solía requerir habilidades serias. Necesitaba una computadora potente y una muy buena razón (o simplemente demasiado tiempo libre) para crear contenido falso. El software de creación de deepfake como FakeApp es gratuito, fácil de encontrar y no requiere mucha potencia informática. Y debido a que hace todo el trabajo por sí solo, no es necesario ser un editor o codificador experto para crear medios increíblemente reales y falsos.
En las manos equivocadas, la creación deepfake puede usarse para falsificar mucho más que los tontos memes de Nicholas Cage.
Es por eso que el público en general, las celebridades, las entidades políticas y los gobiernos están preocupados por el movimiento deepfake. En las manos equivocadas, la creación deepfake puede usarse para falsificar mucho más que los tontos memes de Nicholas Cage. Imagínese a alguien creando noticias falsas o incriminando evidencia en video. Puedes agregar pornografía falsa y de venganza al problema. Las cosas se pueden complicar muy rápido.
Otra razón para preocuparse por el contenido deepfake es que personalidades importantes también pueden negar acciones pasadas. Debido a que los videos deepfake parecen tan reales, cualquiera podría afirmar que un clip real es un deepfake.
Lea también: Las complejidades de la ética y la IA
Encontrar una solución
Si bien es muy cercano a lo real, un ojo entrenado aún puede detectar un video deepfake prestando mucha atención. La preocupación es que en algún momento en el futuro es posible que no podamos notar la diferencia.
Twitter, Pornhub, Reddit, Facebook, YouTube y otros han intentado y se han comprometido a deshacerse de dicho contenido. En el lado más oficial, DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa) está trabajando con instituciones de investigación y la Universidad de Colorado para crear una forma de detectar deepfakes. Por supuesto, Alphabet de Google también está involucrado en la acción, trabajando en un software que puede ayudar a identificar el contenido deepfake de manera eficiente. Alphabet llama a este servicio Ensamblador.
Además, el gobierno está preocupado por los deepfakes antes de las elecciones estadounidenses. Los videos e imágenes falsos pueden causar conmoción ilegítima entre los votantes. Especialmente en una época de pandemias, tensiones mundiales e ideas políticas muy conflictivas.
Lo mejor que podemos hacer para combatir los videos deepfake es ser más observadores y menos crédulos.
El estado de California se une a los esfuerzos contra el contenido deepfake firmando un par de leyes. El gobernador Newsom firmó los proyectos de ley AB-730 y AB-602. AB-730 protege a los políticos de videos falsos que pueden tergiversarlos. El proyecto de ley AB-602 protege a las víctimas de los creadores de videos pornográficos que pueden usar su imagen en su contenido.
Hasta que tengamos un software más refinado que pueda detectar irregularidades en dichos videos, lo mejor que podemos hacer es ser más observadores y menos crédulos. Después de todo, no es fácil crear una verdadera solución de detección. Facebook celebró recientemente el desafío de detección de Deepfake. El software con la mejor puntuación solo pudo lograr un 65% de precisión. No muy prometedor.
Contenido popular de deepfake
Jordan Peele se une a Buzzfeed para armar este video, que está destinado a crear conciencia.
La experta en manipulación en línea Claire Wardle nos muestra cuán realistas pueden verse estos videos al aparecer como Adele durante los primeros 30 segundos del video. Este video de The New York Times nos brinda una gran comprensión del tema.
Watchmojo ofrece ha seleccionado una lista de algunos de los videos más populares. Es un video divertido con muchos ejemplos excelentes.
¿Te gustan Rick y Morty? Aparentemente, John F. Kennedy cree que hay que ser un tipo muy inteligente para entender la caricatura. Ya sea que esté del lado de él o no, puede apostar que el verdadero presidente no estaba presente para ver la caricatura moderna y obscena para adultos.
Este es realmente divertido, pero también incómodo. Es tan realista, pero no tiene sentido, todo al mismo tiempo.