La mayoría de los Deepfakes son porno, y se multiplican rápidamente


En noviembre de 2017, una cuenta de Reddit llamada deepfakes publicó clips pornográficos hechos con software que pegó las caras de las actrices de Hollywood sobre las de los artistas reales. Casi dos años después deepfake es un sustantivo genérico para video manipulado o fabricado con software de inteligencia artificial. La técnica ha provocado risas en YouTube, junto con la preocupación de los legisladores temerosos de la desinformación política. Sin embargo, un nuevo informe que rastrea las falsificaciones profundas que circulan en línea descubre que en su mayoría siguen siendo fieles a sus raíces salaces.

Startup Deeptrace realizó una especie de censo de falsificación profunda durante junio y julio para informar su trabajo sobre las herramientas de detección que espera vender a las organizaciones de noticias y plataformas en línea. Encontró casi 15,000 videos presentados abiertamente como falsificaciones profundas, casi el doble que siete meses antes. Alrededor del 96 por ciento de las falsificaciones profundas que circulaban en la naturaleza eran pornográficas, dice Deeptrace.

Es poco probable que el recuento sea exhaustivo, pero los hallazgos son un recordatorio de que, a pesar de las especulaciones sobre elecciones desestabilizadoras, la tecnología se usa principalmente de manera muy diferente, incluso como una herramienta para el acoso. Una tendencia preocupante: Deeptrace dice que las herramientas necesarias para crear deepfakes son cada vez más sofisticadas y están más disponibles.

El informe de la startup describe un nicho pero próspero ecosistema de sitios web y foros donde las personas comparten, discuten y colaboran en falsificaciones pornográficas. Algunos son emprendimientos comerciales que publican publicidad en torno a videos falsos hechos tomando un clip pornográfico y editando en la cara de una persona sin el consentimiento de esa persona.

Todas las personas editadas en los clips pornográficos que Deeptrace encontró eran mujeres. Clips de las figuras más populares, actrices occidentales y celebridades pop de Corea del Sur, tuvieron millones de visitas. Organizaciones sin fines de lucro ya han informado que mujeres periodistas y activistas políticas están siendo atacadas o manchadas con falsificaciones. Henry Ajder, un investigador de Deeptrace que trabajó en el informe de la empresa, dice que hay foros de deepfake donde los usuarios discuten o solicitan falsificaciones pornográficas de mujeres que conocen, como ex novias, que desean verlas editadas en un clip pornográfico.

Sigue leyendo

Lo último en inteligencia artificial, desde aprendizaje automático hasta visión artificial y más

Danielle Citron, profesora de derecho en la Universidad de Boston, describe las falsificaciones pornográficas hechas sin el consentimiento de una persona como una "invasión de la privacidad sexual". Ella habló en una audiencia en junio del Comité de Inteligencia de la Cámara de Representantes de EE. UU. Sobre herramientas de manipulación de medios de inteligencia artificial.

La industria del porno ha ayudado a crear nuevas tecnologías de medios, desde VHS y anuncios emergentes hasta transmisión de video. Citron dice que la preponderancia de las falsificaciones pornográficas es un recordatorio de otra lección consistente de la historia de la tecnología: "En cada etapa, hemos visto que las personas usan lo que está listo y a mano para atormentar a las mujeres. Los deepfakes son una ilustración de eso ”.

Citron ayudó a estimular la reciente difusión de la legislación estatal sobre el porno de venganza, que ahora está sujeto a leyes en al menos 46 estados y el Distrito de Columbia. California está entre ellos; La semana pasada, su gobernador, Gavin Newsom, promulgó un proyecto de ley que permite que una persona editada en material sexualmente explícito sin consentimiento busque daños civiles contra la persona que lo creó o divulgó.

La profesora de derecho también dice que actualmente está hablando con legisladores de la Cámara y el Senado de ambas partes sobre las nuevas leyes federales para penalizar la distribución de falsificaciones y suplantaciones maliciosas, incluidas las falsificaciones. "Nos ha alentado que la aceptación haya sido rápida", agrega.

La semana pasada, los senadores Marco Rubio, el republicano de Florida, y Mark Warner, el demócrata de Virginia, ambos miembros del Comité de Inteligencia del Senado, escribieron a Facebook y otros 10 sitios de redes sociales en busca de más detalles sobre cómo planean detectar y responder a falsificaciones profundas maliciosas. Los legisladores advirtieron que los clips falsos podrían tener un "impacto corrosivo en nuestra democracia".

APRENDE MÁS

La guía CABLEADA de Inteligencia Artificial

Ajder de Deeptrace minimiza los temores de que un clip falso pueda afectar significativamente las elecciones de 2020. Pero el informe de la startup señala que la creciente conciencia de la tecnología puede alimentar el engaño político.

En junio, un asesor político de Malasia fue arrestado después de que apareciera un video que supuestamente lo mostraba teniendo relaciones sexuales con el ministro de asuntos económicos del país. (El sexo gay es ilegal en Malasia). El primer ministro del país dijo que el video era falso, pero expertos independientes no han podido determinar si el video fue manipulado. "Deepfakes puede proporcionar una negación plausible", dice Ajder.