
Los hackers cuentan con una nueva y alarmante técnica para engañar a la inteligencia artificial haciéndola ignorar señales de alto, coches e incluso personas.
Un nuevo tipo de ataque de inteligencia artificial puede deshabilitar silenciosamente el sistema de piloto automático de los vehículos, haciéndolos incapaces de detectar el tráfico.
Una nueva técnica denominada RisingAttacK ha sido desarrollada por investigadores de la Universidad Estatal de Carolina del Norte, con el potencial de comprometer la funcionalidad de sistemas de inteligencia artificial (IA) utilizados en vehículos autónomos, cámaras y diagnósticos médicos. Esta innovadora estrategia se centra en alterar de manera casi imperceptible características clave de las imágenes, engañando a la IA sin que los humanos noten ningún cambio.
El uso creciente de la IA en tecnología de reconocimiento visual, desde coches automáticos hasta imágenes médicas, plantea preocupaciones sobre la seguridad. RisingAttacK permite modificar sutilmente la entrada visual, creando alteraciones que son totalmente indetectables para el ojo humano. Tianfu Wu, profesor asociado de ingeniería eléctrica y de computación que participó en el estudio, explicó que esto implica un notable uso de poder computacional, permitiendo cambios minúsculos pero muy específicos en las imágenes.
Esta técnica podría tener graves implicaciones para sistemas críticos, dado que el engaño adecuado puede hacer que la IA no reconozca objetos. Por ejemplo, si un vehículo autónomo no es capaz de detectar una señal de alto debido a estas manipulaciones, las consecuencias podrían ser desastrosas. El equipo de investigación probó el método en cuatro arquitecturas de visión ampliamente utilizadas: ResNet-50, DenseNet-121, ViTB y DEiT-B, todas las cuales fueron vulneradas con éxito.
Wu también mencionó que, aunque la atención está centrada en la visión por computadora, están explorando cómo esta técnica puede aplicarse a otros sistemas de IA, como grandes modelos de lenguaje. El objetivo final no es solo identificar vulnerabilidades, sino también contribuir al desarrollo de sistemas más seguros que puedan resistir estos ataques.
Conforme avanzan los métodos para interferir en el comportamiento de la IA, se hace cada vez más urgente establecer salvaguardias digitales más robustas.