
Soy ingeniero en inteligencia artificial, pero aún no confío en la IA: esto es lo que debemos hacer para cambiarlo.
Investigando las soluciones poco confiables de la inteligencia artificial y las formas de superar estos obstáculos.
Los Modelos de Lenguaje Grande (LLMs) enfrentan un problema persistente desde sus inicios: las alucinaciones. A pesar de las inversiones significativas en tiempo y recursos para mejorar estos modelos, las alucinaciones siguen siendo comunes, y algunos de los modelos más recientes, como se ha reconocido en el lanzamiento de o3 y o4-mini por parte de OpenAI, parecen presentar incluso más alucinaciones que sus predecesores.
Las alucinaciones son difíciles de contrarrestar, ya que son un efecto del azar, y sus respuestas parecen plausibles, lo que en algunos casos las hace útiles, pero requieren una supervisión humana considerable. Además, estos fenómenos suelen ser indetectables para quienes no son expertos en el tema. Estas cuestiones presentan barreras significativas para la adopción generalizada de la inteligencia artificial, especialmente en sectores regulados como el derecho y la salud, donde la precisión y la explicabilidad son fundamentales. Curiosamente, estas industrias podrían beneficiarse enormemente de soluciones que automaticen el procesamiento de información a gran escala.
La tecnología detrás de los LLMs utiliza algoritmos predictivos que generan respuestas en función de entradas textuales. A pesar de su impresionante capacidad, el funcionamiento interno de estos modelos sigue siendo un enigma. Esto provoca que, debido a su naturaleza estadística, a menudo generen respuestas incorrectas, un fenómeno conocido como "alucinación". Dado que los LLMs no comprenden realmente la información con la que trabajan, no pueden alertar a los usuarios sobre sus errores, lo que es especialmente problemático en aplicaciones con altas implicaciones, como en el ámbito legal o sanitario.
A pesar de que OpenAI reconoce la dificultad de resolver este problema con los modelos actuales de IA generativa, existe una alternativa mediante la implementación del razonamiento simbólico. Este método se basa en reglas lógicas claras para codificar el conocimiento, lo que evita la manipulación e interpretación incorrecta de la misma. Los sistemas simbólicos demuestran su fiabilidad a través del determinismo, lo que garantiza que las mismas entradas proporcionen siempre el mismo resultado; una propiedad que los LLMs no pueden ofrecer.
El uso de IA simbólica permite a los usuarios revisar los pasos que dieron lugar a una decisión, sin caer en alucinaciones. En caso de no entender la entrada o no poder calcular una respuesta, estos sistemas pueden comunicarlo, similar a los mensajes de error que aparecen en programas como Microsoft Excel. De esta manera, los sistemas simbólicos son transparentes y trazables.
Sin embargo, el razonamiento simbólico no es adecuado para todos los propósitos, ya que su capacidad para procesar lenguaje es limitada en comparación con los LLMs. Por lo tanto, la solución radica en combinar las fortalezas de ambos enfoques para crear una nueva categoría de IA: la IA neurosimbólica. Esta tecnología fusiona las características basadas en reglas de la IA simbólica con la flexibilidad de las redes neuronales que sustentan los LLMs, permitiendo así procesar información no estructurada mientras proporciona respuestas estructuradas que son explicables.
Este avance es crucial para la expansión efectiva de la inteligencia artificial en los negocios, especialmente en industrias altamente reguladas. En estos contextos, no es suficiente afirmar que un resultado ha sido generado sin saber cómo se alcanzó esa conclusión. Es fundamental entender el proceso detrás de la toma de decisiones. La IA neurosimbólica se destaca porque es capaz de reconocer cuando no puede proporcionar una respuesta precisa, a diferencia de los LLMs que a menudo generan respuestas convincentes incluso sin la certeza necesaria. Esta característica puede ser particularmente útil en áreas como el seguro, donde un sistema neurosimbólico podría procesar reclamaciones automáticamente, alertando a los humanos capacitados cuando no esté seguro del resultado adecuado.
Es evidente que, aunque los modelos actuales de IA han avanzado la tecnología, han llegado a un punto crítico en su desarrollo. Es necesario aprender de los logros alcanzados y explorar nuevas soluciones que permitan abordar el problema desde una perspectiva diferente, siendo la IA neurosimbólica la opción más prometedora para generar confianza en una tecnología que, en su forma actual, carece de ella.