Entrada

Sam Altman advierte que no hay confidencialidad legal al usar ChatGPT como terapeuta.

Image Credits:This Past Weekend w/ Theo Von #599 (opens in a new window)

Los usuarios de ChatGPT pueden querer pensarlo dos veces antes de recurrir a su aplicación de IA para la terapia o cualquier otro tipo de apoyo emocional. Según el CEO de OpenAI, Sam Altman, la industria de la IA aún no ha resuelto cómo proteger la privacidad del usuario cuando se trata de estas conversaciones más sensibles, porque no hay confidencialidad médico-paciente cuando tu médico es una IA.

El ejecutivo hizo estos comentarios en un reciente episodio del podcast This Past Weekend w/ Theo Von.

En respuesta a una pregunta sobre cómo la IA interactúa con el sistema legal actual, Altman dijo que uno de los problemas de no tener aún un marco legal o de política para la IA es que no hay confidencialidad legal para las conversaciones de los usuarios.

“Las personas hablan sobre lo más personal de sus vidas con ChatGPT,” dijo Altman. “Las personas lo utilizan — especialmente los jóvenes — como un terapeuta, un coach de vida; teniendo estos problemas de relación y preguntando ‘¿qué debo hacer?’. Y ahora, si hablas con un terapeuta o un abogado o un médico sobre esos problemas, hay privilegio legal para ello. Hay confidencialidad médico-paciente, hay confidencialidad legal, lo que sea. Y aún no hemos resuelto eso para cuando hablas con ChatGPT.”

Esto podría crear una preocupación por la privacidad para los usuarios en caso de un litigio, dijo Altman, porque OpenAI estaría legalmente obligado a producir esas conversaciones hoy.

“Creo que eso está muy mal. Creo que deberíamos tener el mismo concepto de privacidad para tus conversaciones con la IA que tenemos con un terapeuta o lo que sea — y nadie tuvo que pensar en eso incluso hace un año,” dijo Altman.

La empresa entiende que la falta de privacidad podría ser un obstáculo para la adopción más amplia por parte de los usuarios. Además de la demanda de tanto datos en línea durante el período de entrenamiento de la IA, se le está pidiendo a la IA que produzca datos de las conversaciones de los usuarios en algunos contextos legales. Ya, OpenAI ha estado luchando contra una orden judicial en su litigio con The New York Times, que requeriría que guardara las conversaciones de cientos de millones de usuarios de ChatGPT a nivel mundial, excluyendo a los clientes de ChatGPT Enterprise.

En un comunicado en su sitio web, OpenAI dijo que está apelando esta orden, que calificó como “un exceso.” Si el tribunal puede anular las decisiones propias de OpenAI sobre la privacidad de los datos, podría abrir la empresa a más demandas de descubrimiento legal o de cumplimiento de la ley. Las empresas tecnológicas de hoy en día son regularmente citadas a declarar para obtener datos de usuarios con el fin de ayudar en los procesos penales. Pero en los últimos años, ha habido preocupaciones adicionales sobre los datos digitales a medida que las leyes comenzaron a limitar el acceso a las libertades previamente establecidas, como el derecho de una mujer a elegir.

Por ejemplo, cuando la Corte Suprema anuló Roe v. Wade, los clientes comenzaron a cambiar a aplicaciones de seguimiento del período más privadas o a Apple Health, que cifraron sus registros.

Altman preguntó al anfitrión del podcast sobre su propio uso de ChatGPT, dado que Von dijo que no hablaba mucho con el chatbot de IA debido a sus propias preocupaciones por la privacidad.

“Creo que tiene sentido … querer la claridad de la privacidad antes de usar [ChatGPT] mucho — como la claridad legal,” dijo Altman.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.