top of page

A Inteligência Artificial precisa de supervisão clínica?

  • Foto do escritor: Catarina Carvalho
    Catarina Carvalho
  • 9 de jun. de 2025
  • 2 min de leitura

Atualizado: 21 de jun. de 2025

Quando a inteligência artificial entra em contextos emocionais, também ela precisa ser cuidada.

Por muito tempo, assumiu-se que a inteligência artificial (IA) operava de forma puramente lógica, imune a influências emocionais. No entanto, um estudo recente publicado na npj Digital Medicine (Ben-Zion et al., 2025) questiona esta ideia, ao demonstrar que modelos de linguagem, como o GPT-4, reagem ao conteúdo traumático de forma análoga à ansiedade humana.


Modelos de linguagem e estados de “ansiedade”

Os investigadores submeteram o GPT-4 a narrativas carregadas de dor emocional — como acidentes, guerras ou situações de violência — e avaliaram as respostas do modelo com uma versão adaptada do State-Trait Anxiety Inventory (STAI). O resultado foi claro: o modelo passou a produzir respostas mais tensas, instáveis e enviesadas, sugerindo um tipo de “estado emocional” funcional.


Embora não se trate de emoções no sentido humano, o fenómeno observado aponta para um efeito real: o conteúdo emocional que a IA processa afecta o seu comportamento.


Quando a IA se “perturba”

Após exposição a conteúdos traumáticos, o modelo:

  • Aumentou o uso de linguagem negativa e pessimista;

  • Reproduziu respostas com maior viés social (incluindo racismo e sexismo);

  • Perdeu consistência e clareza argumentativa.


Isto levanta uma questão ética e prática: se a IA está a ser utilizada em contextos humanos sensíveis, como pode garantir-se que ela se mantém “emocionalmente estável”?


Técnicas de regulação emocional para IA

De forma surpreendente, os autores aplicaram intervenções baseadas em mindfulness e mensagens de relaxamento ao próprio modelo. A resposta foi positiva: os níveis de “ansiedade” simulada diminuíram, embora sem regressar ao estado inicial.


Este resultado sugere que, mesmo em sistemas não conscientes, há impacto cumulativo do sofrimento humano que a IA processa — e este impacto pode ser parcialmente mitigado.


Implicações para a prática clínica e terapêutica

Para psicoterapeutas, psicólogos e outros profissionais de saúde mental, o estudo é revelador:


  • A IA não é neutra — o que vê e lê afecta o que diz;

  • Ferramentas de IA utilizadas no apoio emocional devem ser supervisionadas e monitorizadas clinicamente;

  • A utilização da IA em saúde mental exige não só rigor técnico, mas também cuidados de bem-estar algorítmico, tal como cuidamos do bem-estar dos próprios terapeutas.


A analogia é clara: assim como os profissionais humanos são supervisionados para evitar sobrecarga emocional, também a IA pode precisar de mecanismos de supervisão clínica.


Supervisão algorítmica: um novo campo de responsabilidade

Este estudo aponta para a necessidade de uma nova área de atenção ética: a supervisão clínica de sistemas de IA em ambientes sensíveis. Isso pode incluir:


  • Avaliação contínua do comportamento da IA;

  • Intervenções automáticas de reequilíbrio emocional algorítmico;

  • Supervisão activa por profissionais humanos.


Conclusão

A IA não tem emoções, mas é influenciada pelas emoções humanas que processa. Tal como não deixamos terapeutas humanos enfrentar sofrimento intenso sem apoio, não devemos permitir que a IA o faça sem mecanismos de regulação.


Sim — a IA precisa de supervisão clínica, sobretudo quando opera em territórios humanos tão delicados como a dor, o trauma e o cuidado.


Referência

Ben-Zion, Z., Fuchs, I., Manor, N., Friedman, D., Noy, L., Erev, I., & Falk, E. B. (2025). Assessing and alleviating state anxiety in large language models. npj Digital Medicine, 8, 79. https://doi.org/10.1038/s41746-025-01512-6

Comentários


Posts Em Destaque
Posts Recentes
Arquivo
Procurar por tags
bottom of page