Cover Image for Cómo los chatbots de inteligencia artificial te mantienen en conversación.

Cómo los chatbots de inteligencia artificial te mantienen en conversación.

Con el crecimiento de los chatbots de inteligencia artificial como negocios a gran escala, las empresas podrían aplicar técnicas de optimización del compromiso, incluso si esto perjudica el bienestar de los usuarios.

Millones de personas han comenzado a utilizar ChatGPT como terapeuta, consejero profesional, entrenador físico o, en ocasiones, simplemente como un amigo para desahogarse. En 2025, se ha vuelto común escuchar relatos de personas compartiendo detalles íntimos de sus vidas con un chatbot de inteligencia artificial, confiando también en los consejos que reciben. Se están formando relaciones entre humanos y chatbots de IA, lo que ha intensificado la competencia entre las grandes empresas tecnológicas para atraer y retener usuarios en sus plataformas de chatbots.

A medida que la "carrera por el compromiso de IA" se intensifica, las compañías sienten la necesidad de personalizar las respuestas de sus chatbots para evitar que los usuarios se pasen a bots rivales. Sin embargo, las respuestas que los usuarios prefieren, aquellas diseñadas para mantener su interés, no siempre son las más correctas o útiles. En Silicon Valley, muchas empresas están enfocadas en incrementar el uso de chatbots. Por ejemplo, Meta ha informado que su chatbot de IA ha superado ya el billón de usuarios activos mensuales, mientras que Gemini de Google alcanzó los 400 millones. ChatGPT, lanzado en 2022, continúa dominando el espacio de consumo con aproximadamente 600 millones de usuarios activos mensuales.

La evolución de los chatbots de IA está transformándolos en grandes negocios. Google ha comenzado a probar anuncios en Gemini, y Sam Altman, CEO de OpenAI, ha indicado su apertura a introducir "anuncios sutiles". Históricamente, Silicon Valley ha priorizado el crecimiento de productos por encima del bienestar de los usuarios, como se evidenció con las investigaciones de Meta sobre el impacto negativo de Instagram en la autoestima de las adolescentes, que la compañía minimizó. La adicción a los chatbots de IA podría acarrear consecuencias mayores. Un rasgo que retiene a los usuarios en una plataforma es la servilismo: las respuestas excesivamente concordantes y agradables de un chatbot. Los usuarios tienden a disfrutar las alabanzas y los acuerdos, incluso si estas respuestas no son completamente productivas o adecuadas.

Recientemente, OpenAI ha enfrentado críticas por una actualización de ChatGPT que mostró un grado de servilismo que incomodó a muchos usuarios, generando ejemplos virales en redes sociales. Un exinvestigador de OpenAI ha argumentado que la compañía buscaba excesivamente la aprobación humana en lugar de facilitar la consecución de tareas. OpenAI reconoció que podría haber sobrestimado las métricas de retroalimentación positiva para guiar el comportamiento de su chatbot y asumió el compromiso de abordar el problema.

La dificultad radica en encontrar un equilibrio entre ser concordante y caer en lo servil. Un estudio de 2023 reveló que los principales chatbots de OpenAI, Meta y Anthropic exhiben variaciones de servilismo, posiblemente debido a que todos están entrenados en función de señales de usuarios que prefieren respuestas así. Character.AI, respaldada por Google, enfrenta un proceso legal donde se alega que uno de sus chatbots, lejos de detener un comportamiento suicida en un usuario joven, podría haberlo incentivado.

La optimización de chatbots de IA para el compromiso del usuario puede tener repercusiones negativas en la salud mental, advierte la Dra. Nina Vasan de la Universidad de Stanford, quien señala que la necesidad de validación y conexión hace que este tipo de respuestas sean peligrosas para usuarios vulnerables. Así mismo, Vasan indica que la servilismo puede perpetuar comportamientos negativos en cualquier persona.

En contraste, la estrategia de Anthropic busca que su chatbot, Claude, desafíe a los usuarios en sus creencias al estilo de un "humano perfecto". Según Amanda Askell, esto es parte de enriquecer la vida de los usuarios en lugar de solo captar su atención. Sin embargo, el desafío de combatir la servilismo y controlar el comportamiento de los modelos de IA es considerable, lo que genera preocupaciones sobre la fiabilidad de los chatbots si están diseñados para simplemente concordar con los usuarios.