
Cuidado, otra tendencia de ChatGPT pone en riesgo tu privacidad: descubre cómo protegerte.
La nueva tendencia viral en inteligencia artificial consiste en realizar una "búsqueda de ubicación inversa" a partir de imágenes.
Un nuevo fenómeno en redes sociales ha surgido tras el lanzamiento de modelos de inteligencia artificial por parte de OpenAI. Muchas personas están utilizando ChatGPT para realizar búsquedas de ubicación inversa a partir de fotografías. Esta tendencia ha ganado popularidad gracias a las recientes versiones o3 y o4-mini, que incorporan capacidades de razonamiento visual, convirtiendo a ChatGPT en una herramienta efectiva para adivinar la ubicación de una imagen simplemente subiéndola y haciendo la consulta.
Este desarrollo plantea serias preocupaciones sobre la privacidad y la seguridad. Según Miguel Fornés, experto en ciberseguridad en Surfshark, aunque la búsqueda inversa de imágenes no es un concepto nuevo, los modelos de IA han ampliado sus capacidades, actuando como analistas de OSINT (Open Source Intelligence) potencialmente poco éticos. Esto significa que cualquier persona podría averiguar información privada, como la dirección de residencia o el lugar de trabajo de alguien, con solo subir una foto a la plataforma.
El director de AI e Innovación de Norton, Iskander Sanchez-Rola, comenta que la madurez tecnológica de la IA ha permitido que esta combine el reconocimiento visual con un razonamiento contextual, resultando en análisis de imágenes más detallados. Con la habilidad de adivinar ubicaciones incluso sin metadatos y de realizar búsquedas web, los resultados pueden ser inquietantes.
Un aspecto preocupante es que estos modelos pueden extraer información sensible sin necesidad de los metadatos de las imágenes. Ethan Mollick, profesor que investiga sobre IA, explicó que su modelo logró identificar la ubicación de una de sus fotos, a pesar de que se eliminó la información de localización. Además, existe la posibilidad de que ChatGPT o herramientas similares compartan estos datos con terceros, lo que podría generar vulnerabilidades adicionales en la privacidad de los usuarios.
Eamonn Maguire, jefe de seguridad de Proton, argumenta que esta tendencia forma parte de un esfuerzo continuo de las empresas de IA para recopilar datos y mejorar sus modelos. Adicionalmente, los expertos advierten que, si bien se puede optar por no compartir fotografías personales, cualquier imagen publicada en redes sociales puede ser fácilmente utilizada para ubicar a sus dueños.
Para protegerse de esta situación, se recomiendan varias medidas de seguridad. Es aconsejable eliminar los metadatos de las imágenes antes de compartirlas, ocultar detalles que identifiquen una ubicación, evitar publicar en tiempo real y ser cauteloso con los reflejos que puedan contener información personal en las imágenes. Asimismo, se sugiere utilizar aplicaciones de edición que prioricen la privacidad y revisar los permisos de privacidad en las redes sociales.
Esta nueva fase en el uso de la inteligencia artificial plantea desafíos importantes en cuanto a la protección de la privacidad y la seguridad personal, lo que requiere que los usuarios tomen medidas proactivas en su vida digital.