Cover Image for Sam Altman advierte que no hay confidencialidad legal al usar ChatGPT como terapeuta.

Sam Altman advierte que no hay confidencialidad legal al usar ChatGPT como terapeuta.

Al ser interrogado sobre el funcionamiento de la inteligencia artificial en el sistema legal actual, Altman comentó que uno de los inconvenientes de la ausencia de un marco legal o de políticas para la IA es la falta de confidencialidad legal para las conversaciones de los usuarios.

Los usuarios de ChatGPT deben considerar cuidadosamente antes de utilizar la aplicación de inteligencia artificial como fuente de terapia o apoyo emocional. Sam Altman, CEO de OpenAI, ha señalado que la industria de la IA aún no ha encontrado la manera de garantizar la privacidad de los usuarios en conversaciones que pueden ser sensibles, ya que no existe una confidencialidad equivalente a la de un médico-paciente cuando se interactúa con una IA.

En una aparición reciente en el podcast de Theo Von, Altman explicó que uno de los problemas actuales es que no hay un marco legal o de políticas que proteja la confidencialidad en las interacciones con la IA. "Las personas comparten los aspectos más personales de sus vidas con ChatGPT", comentó Altman, destacando que muchos usuarios, especialmente jóvenes, utilizan este servicio como terapeuta o coach de vida, haciendo preguntas sobre problemas de relaciones y buscando orientación. A diferencia de lo que ocurre al hablar con un profesional, donde existe un privilegio legal que protege la conversación, esta protección no aplica en la interacción con ChatGPT.

Este vacío en la privacidad plantea preocupaciones significativas para los usuarios, especialmente en situaciones legales, ya que OpenAI podría estar obligado a presentar conversaciones en caso de una demanda. Altman expresó que esto es inaceptable y que debería existir un estándar de privacidad comparable al que tienen las consultas con terapeutas o médicos, algo que ni siquiera se había considerado un año atrás.

La empresa es consciente de que la falta de privacidad puede ser un obstáculo para la adopción masiva de sus servicios. Además, la recolección de datos durante el entrenamiento de la IA y la posibilidad de tener que entregar datos de chats en contextos legales son cuestiones que preocupan. OpenAI actualmente se enfrenta a un litigio relacionado con una orden judicial que podría obligarla a guardar las conversaciones de millones de usuarios de ChatGPT, excluyendo a los clientes de ChatGPT Enterprise. La compañía ha manifestado su intención de apelar esta orden, considerándola un exceso de judicial.

Altman también comentó sobre las recientes inquietudes en torno a los datos digitales, especialmente en un contexto donde se han empezado a limitar algunos derechos, como el de las mujeres a decidir sobre su salud reproductiva. A raíz de la anulación de Roe v. Wade, muchos usuarios comenzaron a buscar aplicaciones de seguimiento menstrual más privadas. Además, Altman abordó la preocupación de Von sobre su propio uso de ChatGPT, subrayando la importancia de contar con claridad legal y de privacidad antes de utilizar la herramienta ampliamente.