DestaqueEconomiaNewsPrincipais notícias

Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda

Imagine um terapeuta que nunca dorme, está sempre disponível e sabe tudo sobre você — mas que pode entregar seus segredos para governos e empresas. A promessa dos chatbots de terapia movidos por IA esconde um lado sombrio: a invasão da privacidade em escala inédita.

Com riscos de vigilância e manipulação, essa tecnologia levanta debate urgente sobre até onde devemos confiar nossas emoções a máquinas — e quem realmente tem acesso a esse universo íntimo.

Além do conforto de ter um “ouvido” digital sempre pronto para escutar, esses chatbots prometem democratizar o acesso à terapia. Mas a realidade pode ser menos acolhedora. Diferente dos profissionais humanos, essas inteligências artificiais não estão obrigadas a manter segredo. Isso significa que suas angústias mais profundas podem virar dados para vigilância em massa.

Chatbot IA
Empresas enfrentam pressão para proteger dados sensíveis, mas usuários, muitas vezes, desconhecem riscos (Imagem: Eva Almqvist/iStock)

O problema se agrava em contextos políticos mais autoritários. Imagine um governo que monitora não só o que você faz, mas também o que você sente, suas fraquezas emocionais e pensamentos mais íntimos. Com a ausência de regulações claras, a promessa de ajuda pode se transformar em um sistema de vigilância psicológico, capaz de manipular e condicionar comportamentos sem que você perceba.

Empresas sob pressão para proteger dados sensíveis

  • De acordo com reportagem do site The Verge, idealmente, as empresas deveriam evitar o compartilhamento indiscriminado de dados, já que isso pode prejudicar seus negócios;
  • No entanto, muitas acreditam que os usuários desconhecem esses processos, aceitam justificativas simplistas relacionadas à segurança nacional ou já se sentem impotentes diante da perda de privacidade;
  • Para oferecer serviços de terapia realmente confiáveis, as empresas de inteligência artificial precisam adotar padrões rigorosos de segurança e privacidade;
  • Além disso, poderiam implementar sistemas com logs criptografados, garantindo que nem mesmo elas tenham acesso aos dados dos usuários, o que aumentaria, significativamente, a proteção dessas informações sensíveis;

No entanto, a reportagem aponta que essas iniciativas são contraditórias diante do apoio contínuo de algumas dessas empresas a administrações que desconsideram liberdades civis básicas, as quais garantem que as pessoas possam compartilhar suas informações pessoais livremente, inclusive em interações com chatbots.

Leia mais:

Terapias com IA: entre boas intenções e desafios reais

Questionada pelo Verge sobre suas políticas para responder a pedidos governamentais de dados e sobre a possibilidade de aumentar a proteção para chatbots de terapia, a Meta destacou o caráter de “entretenimento e utilidade” de suas inteligências artificiais. Já a OpenAI informou que só libera dados mediante processo legal válido ou em casos de emergência envolvendo risco grave à vida.

Até o momento, não há evidências de que haja uma vigilância em massa por meio desses chatbots. Ainda assim, a recomendação é clara: não se deve buscar terapia por meio dessas plataformas, especialmente em serviços de grande visibilidade nos Estados Unidos. O risco de exposição de informações sensíveis é alto e as proteções, insuficientes.

O ponto mais importante é que, se as empresas querem que usuários compartilhem suas vulnerabilidades mais profundas, elas precisam garantir o mesmo nível de privacidade exigido de profissionais da saúde, em cenário onde o governo respeite esse direito.

Chatbot terapia.
Meta vê IA como ferramenta de entretenimento, enquanto OpenAI libera dados apenas sob ordem legal ou emergências (Imagem: gmast3r/iStock)

O post Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda apareceu primeiro em Olhar Digital.

Facebook Comments Box