Escuta artificial: desafios éticos e necessidade de regulamentação para o uso de IA em saúde emocional

Pedro Barbosa - editor
A crescente utilização da inteligência artificial para acolhimento emocional abre um debate sobre a ética e a regulamentação necessárias para proteger os usuários.Foto: Adobe Stock.

A ascensão da inteligência artificial no cuidado emocional apresenta uma dicotomia crescente: enquanto oferece soluções rápidas e acessíveis, ela também carrega implicações éticas e riscos que merecem atenção cuidadosa. O recente estudo da Harvard Business Review, aponta que 31% das interações com IA são voltadas a suporte pessoal e profissional, superando funções como criação e edição de conteúdo. O fenômeno desafia especialistas e reacende o debate sobre os desafios éticos e a necessidade de regulamentação para o uso de IA na saúde mental.

Ferramentas de inteligência artificial como, por exemplo, o ChatGPT, Gemini e DeepSeek, foram inicialmente concebidas para gerar texto e automatizar tarefas. Mas, com o tempo, se tornaram uma opção popular para quem busca desabafar ou encontrar apoio emocional, uma tendência que desafia as normas tradicionais de saúde mental.

Para a coordenadora do curso de Psicologia da Universidade Feevale, profa. Claudia Maria Teixeira Goulart, é fundamental refletir sobre os limites dessa forma de acolhimento. “Esta pode ser uma maneira do sujeito buscar um alívio momentâneo para a sua dor, mas não substitui o vínculo humano e a escuta especializada que caracterizam o processo terapêutico”. Ela alerta que um dos principais riscos pode ser a indução ao autodiagnóstico, que pode ser prejudicial pois desconsidera todo o contexto singular daquele sujeito, sua história e sua família.  “Embora tenha uma linguagem sofisticada e recursos tecnológicos importantes, a IA não possui recursos clínicos para avaliar a gravidade de uma situação e os encaminhamentos necessários no caso de sofrimento emocional”.

Coordenadora do curso de Psicologia da Universidade Feevale, profa. Claudia Maria Teixeira Goulart. | Foto: Divulgação/Universidade Feevale.

No caso do sofrimento psíquico, Claudia explica que apenas os profissionais habilitados, como psicólogos e psiquiatras, têm condições de realizar diagnósticos, avaliar as vulnerabilidades e propor estratégias de tratamento adequadas. “Desta forma, o uso da IA pode comprometer a segurança do usuário, banalizar quadros clínicos sérios e atrasar intervenções necessárias”.

Falta de regulamentação

O uso crescente de IA para apoio emocional, sem a supervisão de um profissional, levanta preocupações sobre a formação de vínculos artificiais e a potencial substituição de tratamento psicológico convencional. No Brasil, a legislação sobre o uso de IA ainda está em estágio inicial. Embora a Lei Geral de Proteção de Dados (LGPD) estabeleça regras sobre a coleta de dados pessoais, não há uma regulamentação específica que trate dos riscos e responsabilidades associadas ao uso de IA em áreas sensíveis como a saúde emocional.

Segundo a pesquisadora da Rede de Inteligência Artificial Ética e Segura (Raies), Aline Santos Barbosa, há um problema ético central na tentativa de simular acolhimento por meio de tecnologias. “A relação humana é sempre feita de uma pessoa para outra. Envolve interação e conexão. Interações desse tipo não podem ser substituídas por máquinas”.

Aline, que também é CEO da startup de realidade aumentada Ibiama, sediada no Tecnopuc, ressalta que o processo de tornar a inteligência artificial ‘mais humana’ (prática conhecida como alinhamento de IA) se apoia em elementos estéticos ou comportamentais, como voz, rosto e expressões. “Não existe alinhamento verdadeiramente humano. Um robô só pode simular comportamentos com base em padrões e valores pré-estabelecidos. Isso pode reproduzir vieses e até gerar consequências danosas”, alerta.

A especialista também aponta para um risco quando o uso da IA se baseia apenas em tendências, sem que haja pensamento crítico ou compreensão dos impactos reais. “Não se trata apenas de centralizar a IA no humano, mas no bem-estar, o que vai além da espécie humana e envolve decisões sobre quando e como utilizar essa tecnologia”.

Pesquisadora do Projeto Raies, Aline Santos Barbosa.

Casos extremos reforçam essa preocupação. Aline recorda um episódio ocorrido nos Estados Unidos, em que um adolescente desenvolveu um vínculo afetivo com uma IA criada para simular sua personagem favorita. “A relação emocional com o simulacro levou o garoto a tirar a própria vida. É um alerta sério sobre os limites desse tipo de engajamento, sobretudo quando envolve adolescentes ou pessoas em sofrimento psíquico”. Para ela, o uso da IA como suporte emocional pode reforçar um padrão de validação do ego, que não necessariamente ajuda a pessoa a refletir sobre si mesma. “Isso distancia a IA do que faz um profissional da saúde mental, que provoca reflexão e mudança. Nesse contexto, a inteligência artificial agrada, mas não transforma”.

Segundo a terapeuta integrativa Bruna Zynskis, que atua há três anos com foco na autocura e no desenvolvimento pessoal, em Palhoça/SC, a longo prazo, cria-se um ciclo vicioso. “A cada dúvida emocional ou decisão difícil, a pessoa recorre à IA. E como as respostas são moldadas com base no que ela mesma forneceu antes, com um toque de valorização, a sensação de segurança aumenta, mas é ilusória. A ação até pode ser tomada, mas a mudança real, interna, não acontece. A voz crítica continua ali, pulsando. O problema permanece”.

Bruna entende que, se não houver consciência sobre essa dinâmica, os riscos aumentam. “A pessoa pode ficar cada vez mais insegura e dependente de uma validação externa, que nesse caso vem de uma máquina. Por isso, é essencial refletir sobre a linha tênue entre uso saudável e manipulação sutil”. Para ela, no fim das contas, a IA é uma ferramenta. “Pode ser útil, mas não substitui a necessidade de autoconhecimento, clareza de valores e construção da própria autonomia emocional. O que funciona para um pode não servir para outro. E reconhecer isso é o primeiro passo para usarmos a tecnologia de forma consciente, sem perder nossa humanidade no processo”.

Diálogo com a academia

O cenário de crescente uso da IA em suporte emocional está chamando a atenção de autoridades reguladoras em vários países, que estão começando a discutir como estabelecer marcos legais para lidar com essa nova realidade. A União Europeia, por exemplo, já está trabalhando na proposta de um regulamento sobre a inteligência artificial, que inclui normas sobre risco e segurança em sistemas de IA de alto risco, como os usados na saúde.

No Brasil, ainda não há uma regulamentação específica para o uso de IA em contextos emocionais ou psicológicos. A regulamentação do uso de IA no Brasil é um tema que está sendo discutido com mais intensidade desde a criação da Estratégia Brasileira para a Transformação Digital (E-Digital). No entanto, especialistas apontam que o uso da IA no cuidado emocional exige uma abordagem mais cuidadosa, envolvendo tanto a proteção dos dados pessoais quanto o risco de dependência e manipulação emocional.

A pró-reitora de Ensino da Universidade Feevale, profa. Dra. Maria Cristina Bohnenberger, entende que cabe à academia discutir o tema e promover uma conscientização a respeito das possibilidades e limitações do uso da IA para o suporte emocional ao mercado, com um olhar atento para a regulamentação do seu uso. “Muito tem se discutido sobre a necessidade da regulamentação para o uso da IA, e para o suporte emocional, não seria diferente. É importante destacar que algumas áreas estão se organizando e, por vezes, construindo mecanismos próprios para evidenciar o seu uso. É um processo que envolve diversos aspectos relacionados ao respeito do ser humano”. 

O futuro da saúde emocional, à medida que a inteligência artificial se torna cada vez mais integrada ao cotidiano, está em construção. Se, por um lado, a tecnologia promete acessibilidade e soluções rápidas, por outro, ela exige um olhar atento para seus limites e as possíveis consequências de sua utilização sem os devidos cuidados. A regulamentação se torna essencial para garantir que, em um mundo cada vez mais conectado, a escuta verdadeira e a ajuda qualificada não sejam substituídas, mas sim complementadas pela tecnologia.

TAGS:
Por Pedro Barbosa editor
siga>
Jornalista e Mestre em Comunicação, ambos pela Unisinos. Possui pós-graduação - MBA em Design Digital e Branding e pós-graduação em Gestão da Tecnologia da Informação, ambos pela Uninter. Já atuou no setor público e privado, tendo trabalhado no governo do Estado do Rio Grande do Sul, com deputados estaduais, federais, no Jornal NH e no Parque Tecnológico São Leopoldo - Tecnosinos.
Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Sair da versão mobile