Tecnología

No termina con Taylor Swift: cómo protegerse contra los deepfakes de IA y el acoso sexual

Алекс Рейн 24 Февраля, 2026
247continiousmusic

La semana pasada, imágenes deepfake sexualmente explícitas de Taylor Swift supuestamente hecho utilizando inteligencia artificial se difundieron en las redes sociales. Fue solo el ejemplo más reciente (y de mayor perfil) de los crecientes peligros de los deepfakes y el acoso digital.

Swift no es la primera mujer a la que le pasa esto, ni será la última. Es seguro decir que casi todas las demás víctimas de un deepfake pornográfico tienen menos recursos que una estrella pop multimillonaria con millones de fanáticos en todo el mundo que están muy conectados y son conocedores del tema. Pero el hecho de que esto pueda suceder incluso a Taylor Swift ha atraído una atención renovada sobre el tema y hacia un público más amplio. Incluso ha impulsado una legislación federal para combatir el abuso, dicen sus defensores.

El martes, los senadores estadounidenses presentaron el acuerdo bipartidista. Ley de interrupción de imágenes falsificadas explícitas y ediciones no consensuadas de 2024 (Ley DEFIANCE) para abordar y disuadir la pornografía profundamente falsa no consensuada. El proyecto de ley permitiría a las víctimas de falsificación digital - creada mediante el uso de software, aprendizaje automático, inteligencia artificial o cualquier otro medio tecnológico o generado por computadora para parecer falsamente auténtico - demandar civilmente a los perpetradores, dándoles la oportunidad de buscar justicia por primera vez.



Las víctimas de pornografía deepfake no consensuada no han tenido mucho éxito al demandar a las personas que crean, distribuyen o solicitan pornografía deepfake, según Omny Miranda Martone, quien trabajó con legisladores en el proyecto de ley como fundador y director ejecutivo de la Asociación para la Prevención de la Violencia Sexual (SVPA) . La tecnología todavía es bastante nueva y, al igual que ocurre con otros problemas sociales relacionados con la tecnología, las leyes deben ponerse al día. Mientras tanto, la tecnología ha avanzado para que sea aún más fácil para cualquiera crear deepfakes generados por IA.

La cantidad de violencia sexual contra personas comunes y corrientes se ha disparado.

'Hasta hace unos dos años. . . alguien necesitaba tener una computadora de alta potencia, necesitaba saber mucho sobre tecnología y ser capaz de trabajar en un sistema confuso y potencialmente incluso construir el sistema ellos mismos. Y necesitaban muchas fotografías de la víctima para que pareciera realista, explica Martone. Pero la tecnología de inteligencia artificial ha avanzado significativamente y ha llegado a un punto en el que cualquiera puede crear pornografía deepfake, no consensuada y de apariencia realmente realista, usando solo una o dos fotos. No necesitan saber mucho sobre tecnología, simplemente pueden acceder a una aplicación o un sitio web en su teléfono o computadora y hacerlo en cuestión de segundos.'

Esto resulta alucinante hoy en día, dado que para 2017, uno de cada ocho Los usuarios de las redes sociales informaron haber sido blanco de pornografía no consensuada y uno de cada 20 adultos en las redes sociales había sido perpetrador, según el Iniciativa de derechos civiles cibernéticos .

Dados estos avances tecnológicos (y el hecho de que cualquiera con acceso a Internet puede crearlos fácilmente), la cantidad de violencia sexual contra individuos comunes se ha disparado, dice Martone. Las celebridades habían sido el objetivo más común debido a la disponibilidad de sus imágenes. Pero ahora [los perpetradores] sólo necesitan un par de fotos que pueden obtener del LinkedIn de alguien, de las redes sociales o del sitio web de su empresa, explica Martone.

Esto es desproporcionadamente perjudicial para las mujeres, según Margaret Mitchell, ex codirectora del equipo de Inteligencia Artificial Ética de Google. Es extremadamente violatorio, tiene un efecto psicológico extremadamente traumático en ti si eres víctima de ello. También es objetivante, por lo que influye en otras personas para que te vean a través de una lente sexual en lugar de una lente profesional. Entonces eso significa que puede afectar las oportunidades, le dice a 247CM.

'Las mujeres ya luchan por ser vistas como líderes, por ser tomadas en serio en el lugar de trabajo. Cuando este tipo de contenido está flotando, eso puede afectar la forma en que las mujeres pueden ser promovidas y alcanzar más posiciones de liderazgo, continúa Mitchell, quien ahora es científico jefe de ética en Hugging Face, una plataforma abierta para creadores de IA. Se filtra en tantas cosas de una manera que a veces puede ser muy difícil de rastrear, pero influye fundamentalmente en cómo te ves a ti mismo, cómo te sientes contigo mismo y cómo te tratan otras personas.

En el caso de Swift, las imágenes se originaron en 4chan y un grupo en Telegram utilizado para distribuir imágenes abusivas de mujeres, informó 404 Medios . Designer, un generador gratuito de inteligencia artificial de Microsoft, se utiliza a menudo para producir contenido no consensuado, según el medio. En respuesta al informe, Microsoft cerró una laguna eso permitió a Designer crear pornografía de celebridades generada por IA.

Pero mientras tanto, las imágenes inundaron rápidamente X, antes conocido como Twitter. En un ejemplo inusual de moderación de contenido en la era de Elon Musk, X instituyó un bloqueo temporal en una búsqueda de 'Taylor Swift', lo que ralentizó la difusión, pero no pudo eliminar todas las imágenes, CBS News reportado . La respuesta de X siguió a legiones de Swifties que informaron sobre las publicaciones y exigieron que el sitio las eliminara. También se produjo después de que las publicaciones ya estuvieran generalizadas: una ya había registrado 45 millones de visitas, 24.000 retweets y cientos de miles de me gusta y marcadores en 17 horas antes de que se suspendiera la cuenta de ese usuario verificado, según El borde . El lunes 29 de enero, el bloqueo había expirado.

Aunque la SVPA ha estado trabajando con el Congreso durante un tiempo (Martone dice que enviaron una carta abierta el año pasado instándolos a abordar el tema), a Martone le parece que no tomaron medidas hasta que las noticias sobre Taylor Swift se hicieron realmente grandes.

Incluso si sientes que a nadie le importan tus imágenes, a la IA le importa.

Aún así, la mayoría de las víctimas de pornografía no consensuada no son de alto perfil. La mayoría son mujeres y muchas tienen identidades marginadas, ya sea por su raza, etnia y/u orientación sexual. SVPA, por ejemplo, trabajó con una mujer que era estudiante universitaria y hacía ejercicio en el gimnasio cuando un hombre la agredió y la rechazó. Unas semanas más tarde, otro miembro del gimnasio llevó a la mujer a un lado para hacerle saber que el hombre que rechazó había hecho pornografía falsa de ella, y se la había estado mostrando a otros miembros en el gimnasio y la había publicado en Instagram, donde pudo eliminarla. Martone dice que recientemente les hicieron porno deepfake, dado su trabajo en el tema.

Sin legislación, es difícil recurrir a ella. Como el contenido problemático se reconoce como falso, no se considera difamación, añade Martone.

En cualquier caso, como sociedad, todos deberíamos trabajar para evitar que se creen y compartan contenidos no consensuados, dicen los expertos. La idea de que el problema está creciendo y que es imposible devolver al genio a la botella no debería fomentar una sensación de inevitabilidad o entumecimiento.

Para aquellos que piensan que nunca se encontrarían en este tipo de situación, Mitchell también enfatiza que la tecnología ha permitido que se vuelva tan común que cualquiera podría verse afectado.

Como lo explica Mitchell: 'La gente debe ser consciente de que cualquier contenido que pongan en línea podría ser utilizado por particulares o corporaciones para utilizarlo como parte de la formación en IA. Por lo tanto, puede que no sea que una foto familiar en Facebook sea algo que interese al público en general. Pero esa no es la cuestión. La pregunta es: ¿una corporación tecnológica masiva recogerá este contenido de una manera que pueda ayudar a promover la cosificación de las mujeres?

En última instancia, es la tecnología de la que hay que tener cuidado y tener cuidado. Incluso si sientes que a nadie le importan tus imágenes, a la IA le importa, dice Mitchell. Los sistemas de inteligencia artificial aún pueden eliminarlos, aún pueden usarse para tergiversarte y aún pueden usarse en cualquier tipo de situación de venganza, y cualquier tipo de situación en la que tengas a alguien que vaya a ser un actor malicioso como ese puede hacerte daño personalmente.

Cómo prevenir y combatir los deepfakes no consensuales

    Infórmese para que pueda comprender lo que está sucediendo. Sepa que compartir información personal en línea es potencialmente compartir esa información con el público. 'Es necesario que haya una especie de reinvención o recomprensión de lo que es compartir contenido en línea: cuándo es apropiado compartir cosas y cuándo no. También se trata de que los padres hablen con sus hijos sobre por qué no está bien hacer porno deepfake de sus compañeros de clase», afirma Mitchell. Apoyar el periodismo. Es importante conocer el papel que desempeña la prensa, porque a veces es el único contrapeso al comportamiento realmente problemático de las empresas o al comportamiento problemático que las empresas permiten, explica Mitchell. 'Porque cuando hay mala prensa que afecta a sus acciones, eso afecta lo que piensan los accionistas, eso afecta lo que piensan los capitalistas de riesgo y cuánto dinero pueden obtener. Así es como hacemos el cambio. Tenemos periodistas que escriben sobre ello. Las empresas prestan atención a eso: repercute en todo el mercado”. Sea un buen espectador digital. Si alguien crea o comparte pornografía no consensuada contigo (deepfake o no), no la mires, no interactúes con ella, no la compartas ni la busques en línea, porque entrenará los algoritmos para proporcionar más a más personas, dice Martone. Haz un inventario digital de tu imagen e información en línea. Asegúrate de ser proactivo al revisar los sitios donde publicas imágenes de tu rostro o cuerpo. Utilice las funciones de seguridad disponibles en cada sitio o aplicación, incluido todo lo básico como asegurarse de que solo las personas que conoce puedan ver sus fotos en Facebook. Si algo sucede, dice Martone, informe a los sitios inmediatamente. SVPA tiene una guía para eliminar contenido que no desea de los sitios, así como una guía para prevenir la violencia sexual digital para creadores de contenido, pero cualquiera puede utilizar estos principios. También puede resultarle útil revisar los amplios recursos que se encuentran en el sitio web de Cyber ​​Civil Rights Initiative, incluidos sus Preguntas frecuentes , Leyes estatales , y resultados de la investigación . Busque herramientas y aplicaciones que alteren o protejan imágenes. Todavía es un área nueva, pero los desarrolladores están trabajando en tecnología para proteger y envenenar las imágenes publicadas en línea, incluidas herramientas como Hierba mora . Mitchell dice que a medida que crezca la necesidad, se desarrollarán más y mejores herramientas para combatir estos problemas.