
LeBron James inicia acciones contra empresa de IA por extraños videos de embarazo deepfake.
James se ha convertido en uno de los primeros artistas destacados en emprender acciones legales debido al uso de su imagen en deepfakes generados por inteligencia artificial.
La estrella de la NBA, LeBron James, se ha convertido en uno de los primeros grandes nombres del entretenimiento en tomar acciones legales contra el uso no autorizado de su imagen en contenidos generados por inteligencia artificial. Su equipo legal ha enviado recientemente una carta de cese y desista a FlickUp, la compañía responsable de la herramienta de generación de imágenes Interlink AI. Según informes, FlickUp comunicó esta acción legal a los miembros de su comunidad en Discord a finales de junio.
La herramienta Interlink AI permitía a los usuarios crear videos generados por IA de destacados jugadores de la NBA, incluyendo a James, Stephen Curry y Nikola Jokić, entre otros. Aunque muchos de estos videos no eran ofensivos, algunos cruzaron la línea hacia lo perturbador. Un ejemplo notable fue una imagen de LeBron James abrazando su barriga embarazada. Otro video ampliamente compartido mostró a un Sean "Diddy" Combs digitalmente creado agrediendo sexualmente a Curry en un entorno prisión, mientras James aparece de manera pasiva en el fondo. Este video en particular alcanzó más de 6.2 millones de vistas en Instagram.
Jason Stacks, fundador de FlickUp, confirmó que la carta de cese y desista fue originada por el equipo legal de James. Tras recibirla, Stacks tomó la decisión de eliminar de inmediato a "todas las personas realistas del software de Interlink AI". En un video que publicó para abordar la situación, expresó su frustración con un sencillo "Estoy tan f**dido".
LeBron James se suma a una lista creciente de celebridades cuyos rostros han sido utilizados sin su consentimiento en inquietantes contenidos generados por IA. La cantante Taylor Swift ha sido repetidamente objeto de pornografía deepfake, mientras que Scarlett Johansson y Steve Harvey han denunciado públicamente el mal uso de sus imágenes, abogando por la creación de leyes que regulen esta práctica.
En el ámbito legislativo, actualmente hay varios proyectos de ley en el Congreso que buscan abordar el aumento del contenido generado por IA sin consentimiento. El reciente Take It Down Act criminaliza la publicación o la amenaza de publicar imágenes íntimas sin consentimiento, incluyendo deepfakes y pornografía generada por IA. Además, se han introducido dos propuestas adicionales: el NO FAKES Act de 2025, que se centra en prevenir la replicación no autorizada de la voz de una persona, y el Content Origin Protection and Integrity from Edited and Deepfaked Media Act de 2025, que busca proteger las obras originales y promover la transparencia en los medios generados por IA.