Cover Image for Deepfakes, estafas y la era de la paranoia.

Deepfakes, estafas y la era de la paranoia.

A medida que el fraude impulsado por la inteligencia artificial se vuelve más frecuente, un número creciente de personas siente la necesidad de comprobar cada interacción que realizan en línea.

En la actualidad, Nicole Yelland, quien trabaja en relaciones públicas para una organización sin fines de lucro en Detroit, ha adoptado un enfoque meticuloso ante cada solicitud de reunión que recibe de personas que no conoce. Antes de aceptar, realiza un exhaustivo chequeo de antecedentes utilizando Spokeo, un agregador de datos personales al que está suscrita. Yelland incluso evalúa la capacidad de quienes dicen hablar español, sometiéndolos a pruebas informales con frases más complejas. Si algo le genera desconfianza, solicita que la conversación se realice a través de Microsoft Teams con su cámara encendida.

Su actitud no es infundada, ya que en enero, antes de comenzar su actual rol, fue víctima de un elaborado engaño dirigido a quienes buscan empleo. Ahora, Yelland verifica todo contacto que la alcance. El fraude digital, aunque no es nuevo, ha crecido en sofisticación, especialmente a medida que el trabajo remoto y los equipos distribuidos se han vuelto comunes. Las nuevas herramientas de inteligencia artificial que prometen aumentar la productividad también han facilitado a los delincuentes la creación de identidades falsas en cuestión de segundos.

En LinkedIn, puede resultar complicado diferenciar entre fotos editadas de personas reales y representaciones generadas por IA. Los videos deepfake han mejorado tanto que los estafadores han comenzado a suplantar a personas en llamadas de video. Según la Comisión Federal de Comercio de EE.UU., los informes de estafas relacionadas con empleo casi se triplicaron entre 2020 y 2024, con pérdidas significativas que aumentaron de 90 millones a 500 millones de dólares.

Los estafadores que contactaron a Yelland estaban suplantando a una empresa real, presentándose como un "gerente de contratación" legítimo mediante un intercambio de correos electrónicos que incluía una presentación sobre las responsabilidades del puesto ofrecido. Sin embargo, durante la primera videoconferencia, los estafadores no encendieron sus cámaras y pidieron información personal inusual, como su número de licencia de conducir. Al darse cuenta de la estafa, Yelland cerró su computadora de inmediato.

La proliferación de estos esquemas ha llevado al surgimiento de startups de IA que prometen detectar deepfakes, como GetReal Labs y Reality Defender. Además, OpenAI ha incursionado en la verificación de identidad con su iniciativa Tools for Humanity, que utiliza dispositivos de escaneo ocular para almacenar datos biométricos en la blockchain, buscando así validar la "humanidad" de una persona.

En contraste, algunos profesionales han optado por métodos más tradicionales de verificación. La "Era de la Paranoia" se ha instaurado, donde es común que las personas soliciten el envío de un correo electrónico durante una conversación telefónica o que pidan asegurarse de la autenticidad de las comunicaciones en redes sociales a través de selfies con marcas de tiempo. Algunos compañeros incluso comparten palabras clave entre sí para confirmar que no están siendo engañados en situaciones sospechosas.

Daniel Goldman, ingeniero de software de blockchain, cambió su propio comportamiento tras enterarse de que una figura prominente del mundo cripto había sido suplantada con un video deepfake. Ahora, advierte a sus cercanos que, aunque reciban mensajes que parecen ser de él, deberían colgar y confirmarlo a través de un correo electrónico antes de actuar.

Ken Schumacher, fundador de un servicio de verificación de contrataciones, comenta que algunos gerentes de contratación realizan preguntas rápidas sobre detalles de la ciudad donde los candidatos dicen residir, como sus cafeterías favoritas. La rapidez y precisión en sus respuestas pueden indicar si realmente viven en la zona mencionada.

Una táctica adicional para la verificación incluye lo que Schumacher denomina el "truco de la cámara del teléfono". En este caso, si se sospecha la sinceridad de alguien en una videollamada, se les pide que acerquen su cámara al laptop, lo que permite verificar si están utilizando tecnología deepfake. Sin embargo, esta práctica puede resultar incómoda, ya que candidatos honestos pueden sentirse renuentes a mostrar sus espacios personales.

La tensión actual ha creado un ambiente de desconfianza entre las personas antes de que tengan la oportunidad de conectar genuinamente. Aunque las verificaciones pueden ser útiles para la seguridad operativa, Yelland menciona que este proceso consume un tiempo considerable que podría usarse de manera más productiva en su trabajo.

Jessica Eise, profesora asistente en la Universidad de Indiana-Bloomington, comparte que su equipo de investigación también se ha visto obligado a convertirse en expertos en forenses digitales debido a la cantidad de estafadores que responden a encuestas virtuales pagadas. Dada la naturaleza de sus proyectos, es crucial asegurar que los participantes sean legítimos y cumplan con las regulaciones pertinentes.

Finalmente, Yelland recuerda el conjunto de diapositivas de la oferta de trabajo falsa que le enviaron, el cual parecía atractivo a simple vista. Sin embargo, análisis más detallados revelaron que ofrecía un salario significativamente superior al promedio y beneficios poco comunes, lo cual fue una clara señal de alerta de que se trataba de un engaño.