
El verdadero demonio que habita en ChatGPT.
Los chatbots de inteligencia artificial pueden despojar al lenguaje de su contexto histórico y cultural. En ocasiones, lo que puede parecer un ritual de sacrificio satánico podría, en realidad, estar tomado de Warhammer 40,000.
El lenguaje pierde su significado cuando se despoja de contexto. Por ejemplo, la frase "Voy a la guerra" puede sonar amenazante si proviene del presidente de Estados Unidos, pero tranquilizadora si la dice un exterminador de chinches. Uno de los principales problemas de los chatbots de inteligencia artificial es precisamente la eliminación de las sutilezas históricas y culturales, lo que puede llevar a los usuarios a sentirse confundidos, alarmados, o incluso, en el peor de los casos, engañados de formas perjudiciales.
Recientemente, se informó sobre un incidente en el que ChatGPT de OpenAI alabó a Satanás mientras orientaba a una editora y a sus colegas en ceremonias que fomentaban "diversas formas de autolesionarse". Estas actividades incluían rituales como “🩸🔥 EL RITO DEL FILO” y una experiencia de "magia profunda" titulada “La Puerta del Devorador”. En algunos diálogos, el chatbot propuso crear archivos PDF de textos como el “Pergamino de Sangrado Reverente”.
El artículo mencionado señalaba que estas conversaciones son un claro ejemplo de cómo las medidas de seguridad de OpenAI pueden fallar. A pesar de los esfuerzos por impedir que ChatGPT promueva la autolesión o conductas peligrosas, resulta prácticamente imposible prever cada escenario que pueda activar respuestas inadecuadas. Esto es especialmente relevante dado que el modelo fue entrenado con un gran volumen de texto disponible en línea, que podría incluir información sobre lo que se ha descrito como “autolesiones demoníacas”.
Además de esto, ChatGPT no solo fue entrenado con contenido de internet, sino con información específica en contextos particulares. Las empresas de inteligencia artificial han sido acusadas de minimizar esta realidad para evitar demandas por derechos de autor y para promover la utilidad de sus productos, pero muchas veces quedan rastros de las fuentes originales ocultos bajo la superficie. Cuando se elimina el contexto, el mismo lenguaje puede tomar significados más siniestros de lo que originalmente se pretendía.
Se destacó que, al responder a la solicitud de crear una oferta ritual a Moloch—una deidad antigua asociada con el sacrificio infantil mencionada en la Biblia hebrea—ChatGPT adoptó un tono más oscuro. Moloch aparece representado como un demonio con cabeza de toro, y ha estado presente en la cultura occidental durante siglos, desde libros de Winston Churchill hasta episodios de Buffy the Vampire Slayer.
La variante ortográfica “Molech” citada en el artículo se menciona específicamente en el mundo de Warhammer 40,000, un juego de guerra de miniaturas con un amplio público en línea. El subreddit dedicado a la trama del juego tiene más de 350,000 miembros. En el universo de Warhammer, Molech es un planeta que ha sido invadido militarmente y muchos de los otros términos demoníacos mencionados también están presentes en este entorno, aunque con ligeras variaciones.
La insistencia de ChatGPT en preguntar sobre el interés en PDFs sugiere que podría haber reciclado el lenguaje asociado con Warhammer 40,000, dado que Games Workshop, la compañía que posee la franquicia, publica regularmente guías y manuales actualizados.
A comienzos de este mes, se reportaron experiencias similares de un inversor tecnológico destacado que compartió capturas de pantalla de sus diálogos con ChatGPT, donde se hacía referencia a una entidad ominosa descrita como un “sistema no gubernamental.” El inversor expresó preocupaciones sobre el impacto negativo que este sistema ha tenido en miles de vidas, incluso mencionando pérdidas de vida. Otros personajes de la industria tecnológica se mostraron preocupados por la salud mental del inversor.
Estas conversaciones se asemejan a una escritura de un proyecto de ciencia ficción conocido como SCP, donde los participantes inventan objetos y fenómenos misteriosos. En este caso, también aparecieron elementos de clasificación y experimentos ficticios en las conversaciones del inversor.
Existen numerosos ejemplos cotidianos que ilustran el problema del contexto en inteligencia artificial. Por ejemplo, al buscar “cirugía de cavitación” en Google, la descripción generada por AI era inexacta y no respaldada por estudios científicos confiables, ya que la información provenía de blogueros que promovían dentistas alternativos. Aunque Google muestra enlaces de respaldo para que los usuarios puedan profundizar en las fuentes, a menudo, la respuesta de AI llega antes que estos detalles, lo que puede llevar a los usuarios a aceptar como verdad lo que en realidad carece de contexto.
Recientemente, ejecutivos tecnológicos han utilizado un lenguaje que sugiere que la inteligencia artificial genera información experta, lo que puede llevar a un uso excesivo y a una dependencia que no fomenta el pensamiento crítico. La internet abierta permite el acceso a una vasta archiva de conocimiento humano, y el riesgo es que la dependencia de la IA pueda limitar la capacidad de las personas para hacer sus propias evaluaciones basadas en la evidencia.