CEO do ChatGPT faz alerta em relação ao uso da IA como terapeuta
Ferramenta não garante a mesma confidencialidade que um profissional
Por: Gabriel Pina
28/07/2025 • 22:00
Você costuma usar o ChatGPT como ferramenta terapêutica ou para conseguir conselhos pessoais? Saiba que você corre perigo: em entrevista ao podcast "This Past Weekend", o CEO da OpenAI, Sam Altman, revelou que, diferente do sigilo profissional garantido em terapias convencionais ou consultas médicas, as conversas íntimas mantidas com a IA podem ser reveladas.
Segundo Altman, o mecanismo de armazenamento de dados da OpenAI funciona de forma diferente. Ao contrário de mensageiros criptografados como WhatsApp, a empresa mantém registros das conversas para ajustar seus modelos e monitorar abusos, durante 30 dias, podendo ser estendido em casos que envolvem a justiça.
“Neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe um privilégio legal para isso e existe a confidencialidade médico-paciente, existe a confidencialidade legal. Ainda não descobrimos isso para quando você fala com o ChatGPT", alertou Sam.
Nesse sentido, enquanto os usuários buscam na IA um espaço seguro para falar e “ouvir”, a falta de enquadramento jurídico específico pode transformar os desabafos em potenciais provas judiciais. Mas, de acordo com o CEO,essa é uma fornteira que precisa ser regulada com urgência.
Relacionadas
Inovação, Mercado e Negócios Tech
Inovação, Mercado e Negócios Tech
Inovação, Mercado e Negócios Tech
Inovação, Mercado e Negócios Tech