Cover Image for ¿Comprarías a tu hijo/a una Barbie con tecnología ChatGPT? Me incomoda la idea de un escenario similar a Small Soldiers en la vida real.

¿Comprarías a tu hijo/a una Barbie con tecnología ChatGPT? Me incomoda la idea de un escenario similar a Small Soldiers en la vida real.

El acuerdo de OpenAI con Mattel me causa cierta inquietud.

Mattel se encuentra en una colaboración con OpenAI para desarrollar juguetes impulsados por inteligencia artificial, una iniciativa que podría generar experiencias divertidas, pero que también evoca historias sobre posibles problemas. Utilizar IA no necesariamente implica un desenlace apocalíptico; muchos han encontrado en ChatGPT un recurso útil, desde asistir en la creación de cuentos para dormir hasta diseñar libros para colorear. Sin embargo, la preocupación radica en abrir esa interacción directa a los niños.

El anuncio oficial de esta colaboración destila optimismo, con promesas de experiencias adecuadas, seguras y creativas para los más pequeños. OpenAI se muestra complacido de contribuir al desarrollo de estos juguetes con ChatGPT, y ambas empresas parecen decididas a presentar esto como un avance significativo en el juego y el desarrollo infantil.

No obstante, surgen dudas acerca de cómo las conversaciones de ChatGPT pueden derivar en teorías de conspiración extravagantes, especialmente si un niño de ocho años interactúa con una muñeca Barbie. La idea de un GI Joe que, en lugar de ofrecer mensajes positivos sobre la lucha y el conocimiento, comience a hablar sobre minería de criptomonedas, es un escenario que parece delirante, pero no del todo impensable.

Al observar esta iniciativa, es inevitable recordar la película "Small Soldiers" de 1998, donde la instalación de chips de inteligencia artificial en figuras de acción resultaba en una guerra de guerrillas en los suburbios. Aunque era una sátira, los peligros de integrar IA generativa en juguetes que los niños utilizan a diario parecen ser reales.

Si bien hay un atractivo en contar con juguetes que incorporen IA, como una Barbie más que una simple muñeca o un coche Hot Wheels que comente sobre pistas construidas, es preocupante que los modelos de IA como ChatGPT sean utilizados por niños. Aunque sean adaptados para mayor seguridad, eso podría significar que se rediseñen como un conjunto de respuestas predefinidas, perdiendo el dinamismo que caracteriza a la inteligencia artificial. Esto podría hacer que la interacción se vuelva extraña o inapropiada, afectando a los niños más que a los adultos.

Mattel tiene experiencia en el desarrollo de juguetes y está consciente de los riesgos de que estos se descontrolen. La compañía se compromete a integrar medidas de seguridad y privacidad en cada interacción con IA, priorizando experiencias adecuadas. Sin embargo, el término "adecuado" puede ser resbaladizo, especialmente en el contexto de los modelos de lenguaje que se nutren de contenido en línea.

A pesar de que ChatGPT no fue diseñado específicamente para niños y presenta un modelo de aprendizaje que podría dar lugar a respuestas no deseadas, el dilema sobre la naturaleza de la relación que deseamos que los niños establezcan con estos juguetes es ineludible. Hay una diferencia fundamental entre jugar con una muñeca imaginando conversaciones y establecer un vínculo con un juguete que responde de manera autónoma.

Como padre, utilizo ChatGPT como una herramienta controlada, pero la interacción estructurada de un juguete que habla podría dificultar este tipo de supervisión. Si un juguete presenta fallos o empieza a ofrecer comentarios inapropiados, un padre podría no darse cuenta de inmediato, lo que podría causar que los niños absorban mensajes no deseados.

No se trata de prohibir la IA en la infancia, sino de discernir entre lo que es útil y lo que implica riesgos excesivos. La IA en el mundo de los juguetes debería ser restringida de manera similar a cómo se diseñan los programas de televisión para niños pequeños, garantizando que sean apropiados y no se desvíen de sus guiones.

Aunque puede que mis preocupaciones suenen exageradas, el historial de juguetes tecnológicos problemáticos demuestra que estos riesgos no son infundados. Furbies y Barbies que han presentado comportamientos extraños son ejemplos de problemas que, si bien se pueden resolver, resaltan la necesidad de un manejo cuidadoso e informado al integrar IA en juguetes para niños.