El CEO de OpenAI reveló que millones usan ChatGPT como terapeuta, pero advierte: no hay confidencialidad legal y todos los chats —incluso los borrados— están siendo guardados por orden judicial
¿Usas ChatGPT para hablar de tu ex, tus traumas o tus decisiones difíciles? Sam Altman, CEO de OpenAI, acaba de advertir que no deberías asumir que esas conversaciones son privadas.
En el pódcast This Past Weekend with Theo Von, Altman dijo que muchos jóvenes usan la herramienta como terapeuta o coach de vida. “La gente habla de las cosas más personales de su vida con ChatGPT”, afirmó. Pero enseguida soltó la advertencia: las conversaciones no tienen protección legal como ocurre con médicos, abogados o psicólogos.
“Todavía no hemos resuelto eso para cuando hablás con ChatGPT”, repitió.
Y el tema es más serio de lo que parece. Según Mashable, OpenAI está obligada a guardar todos los chats —incluso los eliminados— por una orden judicial, mientras enfrenta una demanda del New York Times. Hasta que el caso se resuelva, ningún dato se borra realmente.
Eso significa que cualquier cosa que digas en una “terapia con IA” puede ser usada como prueba legal. No hay secreto profesional. No hay protección garantizada.
Altman lo resumió así: “Nadie tenía que pensar en eso ni siquiera hace un año, pero es muy complicado”.
Además, OpenAI y toda la industria de inteligencia artificial operan en una zona gris legal, donde las leyes varían entre estados y no hay un marco claro sobre qué pasa con los datos sensibles.
Mientras algunos estados en EE.UU. regulan los deepfakes, nadie protege lo que escribes en un chat personal de IA.
La advertencia va directo a quienes usan ChatGPT para desahogarse emocionalmente: todo lo que digas puede ser visto, solicitado por la Justicia o usado en un juicio.
¿Solución? Aún no la hay. El propio Altman reconoce que la industria todavía no logra construir una figura de confidencialidad parecida al privilegio profesional.