Cover Image for Modelo de OnlyFans descubre que sus fotos fueron compartidas en Reddit con el rostro de otra persona.

Modelo de OnlyFans descubre que sus fotos fueron compartidas en Reddit con el rostro de otra persona.

La inteligencia artificial podría llevar el engaño en línea a un nivel completamente nuevo.

Bunni recibe con frecuencia mensajes directos de desconocidos alertándola sobre perfiles falsos que imitan su imagen en línea. Como creadora de contenido en OnlyFans, ha aprendido a lidiar con el cansado y frustrante ciclo de suplantaciones que acompaña su trabajo. Después de cinco años en la plataforma, se ha familiarizado con el proceso. Sin embargo, esta vez la situación se sentía diferente. La cuenta en cuestión era inquietante, ya que utilizaba una fotografía en la que claramente aparecían su ropa, sus tatuajes y su habitación, aunque la cara no era la suya.

Lo que le ocurre a Bunni es una de las evoluciones más extrañas y perturbadoras del abuso de deepfakes. Estos deepfakes, generalmente generados o manipulados por inteligencia artificial, se asocian comúnmente con pornografía no consensuada que involucra a celebridades, donde la imagen de una persona es colocada de manera convincente sobre el cuerpo de otra. Este tipo de explotación visual sexual busca humillar y explotar, propagándose rápidamente en sitios de pornografía y plataformas sociales. Uno de los principales portales de contenido de este tipo, Mr. Deepfake, se cerró recientemente tras la decisión de un proveedor clave de cesar su soporte, lo que cortó el acceso a su infraestructura.

El cierre ocurrió una semana después de que el Congreso aprobara el "Take It Down Act", una legislación que exige a las plataformas la eliminación de contenido de deepfake y pornografía de represalias en un plazo de 48 horas tras una solicitud. Se espera que esta ley sea ratificada por el presidente Donald Trump, como parte de un esfuerzo más amplio por regular el abuso generado por la inteligencia artificial. Sin embargo, el caso de Bunni complica la discusión. No se trata de que su rostro sea insertado en contenido explícito, ya que ella misma es creadora en OnlyFans. En cambio, sus fotos fueron alteradas digitalmente para borrar su identidad, reempaquetadas bajo un nombre diferente y utilizadas para construir una nueva persona.

En febrero, Bunni publicó un video en Instagram mostrando un lado surrealista al poner frente a frente una imagen de ella misma con una publicación de Reddit que apenas se parecía a ella. La imagen falsa había sido cuidadosamente modificada para eliminar muchos de sus rasgos característicos — los piercings faciales, sus cabellos oscuros y su expresión, todo cambiado. En su lugar, aparecía un rostro diseñado para el anonimato: ojos grandes y verdes, piel suave y una estética "alt-girl" depurada.

El perfil de Reddit, ahora eliminado pero parcialmente recuperado a través de Wayback Machine, presentaba a “Sofía”: una supuesta joven de 19 años de España con un “estilo alternativo” y un amor por la música rock, que estaba “abierta a conocer nuevas personas”. Bunni tiene 25 años y vive en el Reino Unido. Ella no es Sofía y nunca lo ha sido.

La cuenta de Sofía, que apareció por primera vez en octubre de 2023, comenzó publicando de manera inocente en foros de buen rollo, pero pronto se trasladó a subreddits más específicos y preocupantes como r/teenagers y sus variantes. La cuenta utilizó selfies modificadas de Bunni y se hizo pasar por alguien que buscaba consejos de moda y validación. Bunni recordó que una publicación preguntaba: “¿Mis outfits se ven raros?” junto a una foto donde ella probándose unos pantalones.

La situación no solo se limitó a vestirse. La cuenta de Sofía también hizo publicaciones en r/FaceRatings y r/amiugly, subreddits donde los usuarios califican la apariencia de extraños de manera brutal. La motivación aquí pareció ser construir credibilidad y validación.

El último paso de la suplantación se aproximó al contenido para adultos. En la última instantánea archivada de la cuenta, Sofía había comenzado a publicar en subreddits como r/Selfie y r/PunkGirls, un espacio más explícito. Uno de los posts decía: “[F19] finalmente publicando fotos sexys en Reddit, ¿debería seguir publicando?”

Bunni sospecha que el objetivo final era estafar a hombres, engañándolos para que compraran contenido que posiblemente había sido extraído de su OnlyFans. Aunque el perfil no compartía enlaces a plataformas externas, ella presume que la actividad real se desarrollaba en mensajes privados.

A pesar de alertar a los moderadores de r/teenagers, la cuenta de la suplantadora fue eliminada debido a la violación de las condiciones de servicio de Reddit. Sin embargo, el incidente plantea una pregunta más amplia sobre la frecuencia de situaciones como esta, en la que identidades digitalmente alteradas buscan evadir la detección.

Los creadores de contenido menos conocidos, como Bunni, son particularmente susceptibles a este tipo de suplantación. La complejidad del caso reside en que el suplantador no solo robó su contenido, sino que también alteró su rostro para evitar ser identificado. La situación se complica con el vacío legal que rodea este tipo de imposturas.

Un abogado californiano, que representa a creadores de contenido en línea, comenta que las imágenes de una persona están protegidas bajo la ley de derechos de autor en EE. UU., y más aún bajo las regulaciones de deepfake en California. Bunni, al ser reconocida por un usuario como la fuente de las fotos alteradas, podría tener motivos para una demanda.

Sin embargo, ella sostiene que los costos de buscar justicia superan los beneficios. En un giro irónico, la exposición del incidente no afectó sus finanzas; de hecho, Bunni logró aumentar su visibilidad. Pese a ello, experimentó una ola de comentarios de culpabilización y comentarios condescendientes.

La accesibilidad de herramientas de edición impulsadas por inteligencia artificial sugiere que no se trata de un incidente aislado. Bunni concluye que esto es parte de un problema más amplio que probablemente no va a disminuir. La complejidad de crear identidades alternativas mediante estas tecnologías no es fácil de ignorar, y la mayoría de las personas no entienden que ella posee los derechos sobre su propia imagen.