Cover Image for Las herramientas de inteligencia artificial están volviendo más creíbles los ataques de ingeniería social, y temo que esto sea solo el inicio.

Las herramientas de inteligencia artificial están volviendo más creíbles los ataques de ingeniería social, y temo que esto sea solo el inicio.

Wallace y Gromit se enfrentan a la engañosa tecnología deepfake en esta aguda reflexión sobre las estafas impulsadas por la inteligencia artificial.

Nick Park nos trae una nueva entrega de Wallace y Gromit, titulada "Vengeance Most Fowl", que se estrenará en diciembre de 2024. Esta película aborda la creciente dependencia de la tecnología inteligente, representada por un gnomo de jardín robótico creado por Wallace para su negocio de jardinería, que es hackeado por el astuto Feathers McGraw para llevar a cabo sus malvados planes.

Uno de los momentos más intrigantes, aunque poco discutidos, de la película es cuando Gromit entra con precaución en su hogar, creyendo escuchar la voz tranquilizadora de Wallace, solo para encontrarse con Feathers y el gnomo robótico. En los últimos años, la capacidad de la tecnología para replicar patrones lingüísticos, clonar voces y responder a preguntas ha tenido un desarrollo notable. Esta situación ha sido aprovechada por criminales y estafadores, lo que ha llevado a un aumento en los ataques de ingeniería social, cada vez más sofisticados y dirigidos.

La ingeniería social cibernética manipula a las personas al crear una narrativa falsa que explota sus vulnerabilidades, ya sean su deseo de confianza, preocupaciones financieras o inseguridades emocionales. Como resultado, las víctimas entregan información o dinero sin darse cuenta de que están siendo estafadas. Usualmente, estos fraudes siguen una serie de etapas: primero se establece un contacto con la víctima, luego se elabora una narrativa falsa, y finalmente se persuade al objetivo para que realice la acción sugerida, como transferir dinero o proporcionar datos personales.

Históricamente, era fácil identificar estos fraudes por ciertos signos, como saludos y firmas genéricas, errores ortográficos y gramaticales, o direcciones sospechosas. Sin embargo, la alta sofisticación de las herramientas de inteligencia artificial generativa ha facilitado que los criminales creen narrativas más plausibles, lo que hace que el segundo paso en la estafa, la "mentira", sea más difícil de detectar. Las fuerzas del orden y las empresas intentan mantenerse al día con estos avances tecnológicos y predecir cómo se utilizarán en ingeniería social.

Una posible aplicación de la inteligencia artificial en este contexto es el desarrollo de un sistema dinámico de mentiras que podría contactar automáticamente a las víctimas potenciales para ganarse su confianza antes de pedir información o dinero. Este tipo de sistema podría ser muy eficaz en fraudes conocidos como “419”, que prometen grandes ganancias a cambio de pagos iniciales.

Otro avance significativo ha sido el uso de la IA para clonar el habla humana, lo que ha llevado a un nuevo tipo de estafa de phishing por voz, conocido como "vishing". En Estados Unidos, la Comisión Federal de Comercio ha alertado sobre estafadores que utilizan esta tecnología para hacerse pasar por familiares y engañar a las víctimas para que transfieran dinero bajo el pretexto de emergencias familiares. Actualmente, clonaciones de voz se pueden realizar en cuestión de segundos, y se espera que estas herramientas se vuelvan aún más sofisticadas con los desarrollos en aprendizaje profundo.

La preocupación por el impacto de la inteligencia artificial no solo se limita al entorno laboral; se ha ampliado para incluir la capacidad de crear ataques de ingeniería social personalizados. Actualmente, actores de amenazas utilizan IA como asistente para acelerar las tareas básicas necesarias para llevar a cabo fraudes. Experimentos han demostrado que la IA puede redactar un email de phishing eficaz en cinco minutos, mientras que un equipo humano tardaría aproximadamente 16 horas en crear un mensaje similar.

Este contexto revela que, en el mundo criminal digital, mantener un fraude es cada vez más sencillo y menos moralmente problemático.