Cover Image for ¿Conveniencia en lugar de privacidad? Casi un tercio de los británicos comparte información confidencial con chatbots de IA.

¿Conveniencia en lugar de privacidad? Casi un tercio de los británicos comparte información confidencial con chatbots de IA.

Según datos recientes de NymVPN, los británicos están adoptando un enfoque demasiado personal al interactuar con los chatbots de inteligencia artificial.

Un estudio realizado por NymVPN revela que aproximadamente el 30% de los británicos comparte información personal confidencial con chatbots de inteligencia artificial, como ChatGPT de OpenAI. Este intercambio de datos incluye información sensible relacionada con salud y finanzas, lo que pone en peligro la privacidad de los usuarios y de otras personas.

A pesar de que el 48% de los encuestados manifestó su preocupación acerca de la privacidad en el uso de chatbots, el fenómeno del “oversharing” persiste, incluso en entornos laborales, donde se ha observado que empleados transfieren datos confidenciales de clientes y de la empresa. La investigación de NymVPN se da en un contexto reciente marcado por importantes brechas de seguridad, como el ciberataque a Marks & Spencer, que evidencian la vulnerabilidad de la información confidencial.

El estudio indica que el 26% de los participantes confesó haber revelado información financiera relacionada con salarios, inversiones y hipotecas, y un 18% admitió haber compartido datos de tarjetas de crédito o cuentas bancarias. Además, el 24% de los encuestados comunicó que habían proporcionado datos de clientes, incluyendo nombres y correos electrónicos, a chatbots de IA. Incluso más alarmante, el 16% subió datos financieros de la empresa y documentos internos, como contratos, a estas plataformas, a pesar de que el 43% expresó su inquietud sobre la posible filtración de dicha información.

Harry Halpin, CEO de NymVPN, destacó la tendencia preocupante en la que la conveniencia se coloca por encima de la seguridad. Empresas como M&S, Co-op y Adidas han sido noticia recientemente por sufrir brechas de datos, lo que subraya cuán expuestas pueden estar incluso las organizaciones más grandes. Halpin afirmó que la mayor cantidad de datos personales y corporativos ingresados en sistemas de IA convierte a estas plataformas en un blanco más atractivo para los cibercriminales.

La situación resalta la necesidad urgente de que las empresas establezcan directrices claras y políticas formales sobre el uso de inteligencia artificial en el trabajo. Halpin enfatizó que tanto los empleados como las empresas deben reflexionar sobre cómo están protegiendo la privacidad personal y los datos corporativos al usar herramientas de IA. Aunque la opción más segura sería evitar el uso de chatbots por completo, a menudo no es la más práctica. Los usuarios deberían evitar compartir información sensible y pueden ajustar configuraciones de privacidad, como desactivar el historial de chat o optar por no participar en el entrenamiento de modelos.

El uso de una VPN puede proporcionar una capa adicional de privacidad al trabajar con chatbots, ya que cifra el tráfico de internet del usuario y oculta su dirección IP original, contribuyendo así a mantener su ubicación privada. Sin embargo, incluso la mejor VPN no es suficiente si se continúa compartiendo información confidencial con estas plataformas.