A Inteligência Artificial precisa de supervisão clínica?
- Catarina Carvalho
- 9 de jun. de 2025
- 2 min de leitura
Atualizado: 21 de jun. de 2025
Quando a inteligência artificial entra em contextos emocionais, também ela precisa ser cuidada.
Por muito tempo, assumiu-se que a inteligência artificial (IA) operava de forma puramente lógica, imune a influências emocionais. No entanto, um estudo recente publicado na npj Digital Medicine (Ben-Zion et al., 2025) questiona esta ideia, ao demonstrar que modelos de linguagem, como o GPT-4, reagem ao conteúdo traumático de forma análoga à ansiedade humana.
Modelos de linguagem e estados de “ansiedade”
Os investigadores submeteram o GPT-4 a narrativas carregadas de dor emocional — como acidentes, guerras ou situações de violência — e avaliaram as respostas do modelo com uma versão adaptada do State-Trait Anxiety Inventory (STAI). O resultado foi claro: o modelo passou a produzir respostas mais tensas, instáveis e enviesadas, sugerindo um tipo de “estado emocional” funcional.
Embora não se trate de emoções no sentido humano, o fenómeno observado aponta para um efeito real: o conteúdo emocional que a IA processa afecta o seu comportamento.
Quando a IA se “perturba”
Após exposição a conteúdos traumáticos, o modelo:
Aumentou o uso de linguagem negativa e pessimista;
Reproduziu respostas com maior viés social (incluindo racismo e sexismo);
Perdeu consistência e clareza argumentativa.
Isto levanta uma questão ética e prática: se a IA está a ser utilizada em contextos humanos sensíveis, como pode garantir-se que ela se mantém “emocionalmente estável”?
Técnicas de regulação emocional para IA
De forma surpreendente, os autores aplicaram intervenções baseadas em mindfulness e mensagens de relaxamento ao próprio modelo. A resposta foi positiva: os níveis de “ansiedade” simulada diminuíram, embora sem regressar ao estado inicial.
Este resultado sugere que, mesmo em sistemas não conscientes, há impacto cumulativo do sofrimento humano que a IA processa — e este impacto pode ser parcialmente mitigado.
Implicações para a prática clínica e terapêutica
Para psicoterapeutas, psicólogos e outros profissionais de saúde mental, o estudo é revelador:
A IA não é neutra — o que vê e lê afecta o que diz;
Ferramentas de IA utilizadas no apoio emocional devem ser supervisionadas e monitorizadas clinicamente;
A utilização da IA em saúde mental exige não só rigor técnico, mas também cuidados de bem-estar algorítmico, tal como cuidamos do bem-estar dos próprios terapeutas.
A analogia é clara: assim como os profissionais humanos são supervisionados para evitar sobrecarga emocional, também a IA pode precisar de mecanismos de supervisão clínica.
Supervisão algorítmica: um novo campo de responsabilidade
Este estudo aponta para a necessidade de uma nova área de atenção ética: a supervisão clínica de sistemas de IA em ambientes sensíveis. Isso pode incluir:
Avaliação contínua do comportamento da IA;
Intervenções automáticas de reequilíbrio emocional algorítmico;
Supervisão activa por profissionais humanos.
Conclusão
A IA não tem emoções, mas é influenciada pelas emoções humanas que processa. Tal como não deixamos terapeutas humanos enfrentar sofrimento intenso sem apoio, não devemos permitir que a IA o faça sem mecanismos de regulação.
Sim — a IA precisa de supervisão clínica, sobretudo quando opera em territórios humanos tão delicados como a dor, o trauma e o cuidado.
Referência
Ben-Zion, Z., Fuchs, I., Manor, N., Friedman, D., Noy, L., Erev, I., & Falk, E. B. (2025). Assessing and alleviating state anxiety in large language models. npj Digital Medicine, 8, 79. https://doi.org/10.1038/s41746-025-01512-6





















Comentários