-
Ante el pedido de un juez, OpenAI estaría obligado a divulgar las conversaciones privadas.
-
ChatGPT carece de un marco regulatorio que proteja la información de los usuarios.
El 25 de julio pasado, Sam Altman, CEO de OpenAI, confesó en una entrevista que, ante un procedimiento judicial, su empresa estaría obligada a revelar los chats privados de los usuarios de ChatGPT.
«La gente habla de las cosas más personales de sus vidas con ChatGPT… aún no hemos resuelto eso para cuando hablas con ChatGPT. Creo que eso es muy problemático. Creo que deberíamos tener el mismo concepto de privacidad para tus conversaciones con IA que con un terapeuta o lo que sea…», afirmó el directivo de OpenAI.
Esta declaración de Altman pone de relieve los riesgos legales potenciales asociados con el uso de ChatGPT para conversaciones personales y sensibles.
A diferencia de las comunicaciones con terapeutas o abogados, que están protegidas por privilegios legales que garantizan la confidencialidad, las conversaciones con ChatGPT no cuentan con marcos legales que las resguarden.
Esto significa que, en un juicio, los chats de las personas podrían ser citados como evidencia, exponiendo a los usuarios a violaciones de privacidad y vulnerabilidades legales, como reporta CriptoNoticias.
ChatGPT, una herramienta de inteligencia artificial (IA) desarrollada por OpenAI, permite a los usuarios interactuar con un modelo de lenguaje para obtener respuestas, consejos, resolver dudas o incluso compartir confesiones íntimas.
Sin embargo, la falta de protecciones legales específicas para estas interacciones plantea un problema significativo. Esto genera una brecha legal que podría ser explotada en contextos judiciales, donde los datos personales compartidos podrían ser utilizados en contra o a favor de los usuarios.
Así, la creciente tendencia a utilizar herramientas de IA como GPT, Grok de X, Copilot de Microsoft (u otras) para asuntos personales resalta la urgencia de establecer regulaciones que protejan la privacidad de los usuarios.