Nos últimos meses, diversos estudos, incluindo uma pesquisa do Conselho Federal de Psicologia, apontam um aumento exponencial na utilização de ferramentas conversacionais de Inteligência Artificial Generativa (GenAI) como suporte emocional e companheiros virtuais para jovens.
Segundo o relatório ‘Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions’ (Conversa, confiança e conversações: como e porque adolescentes usam IA como companhia’, em tradução livre), 72% dos adolescentes já usaram IA como companhia pelo menos uma vez, e mais da metade (52%) são usuários regulares que interagem com essas plataformas pelo menos algumas vezes por mês.
Em resumo, esses jovens recorrem a essas plataformas para buscar aconselhamento sobre relacionamentos, traumas, autoestima ou até mesmo como companhia em momentos de isolamento ou ansiedade.
Agentes altamente personalizados, com nomes, linguagem humanoide e capacidade de leitura de ambiente têm contribuído para esse fenômeno de criação de aparente vínculo com uma tecnologia digital.
Essa preferência por interações mediadas por Inteligência Artificial (IA) acende um alerta sobre o papel dessas tecnologias na formação do vínculo, da confiança e da percepção de suporte emocional, o que torna imperativo que sua implementação seja feita com responsabilidade, transparência e governança adequada.
A humanização desses agentes, como vimos, tem contribuído para a popularidade dessa tecnologia no apoio emocional. Porém, é fundamental garantir que essa aproximação seja pautada por uma comunicação transparente com o usuário e por frameworks de explicabilidade, que permitem entender a lógica por trás das respostas e recomendações do sistema, fortalecendo o controle clínico.
Além disso, é essencial que se preservem sigilo e segurança de dados, criando mecanismos que acionem o human-in-the-loop, conceito que, em IA e Machine Learning, designa um profissional humano para participa ativamente do processo de tomada de decisão, supervisão ou validação dos resultados produzidos por algoritmos. Essa abordagem garante segurança e ética no uso de sistemas automatizados, especialmente em áreas sensíveis como saúde.
Ainda que o uso de tecnologias digitais possa contribuir para o agravamento de problemas de saúde mental, a Inteligência Artificial, se utilizada de forma ética e regulada, tem potencial para transformar esse cenário. Em países como os Estados Unidos, por exemplo, ela já é parte integrante do sistema de saúde mental, oferecendo desde triagens automatizadas até suporte remoto 24 horas por dia. Essa experiência revela tanto potencial quanto limites e riscos, sobretudo quando importada sem adequada adaptação à realidade brasileira.
Já no Brasil, a escassez de profissionais de saúde mental é um desafio relevante. Dados do Conselho Federal de Psicologia e do Ministério da Saúde apontam uma grande desigualdade na distribuição de psiquiatras e psicólogos, com uma média de poucos profissionais por habitante, especialmente em regiões remotas e populações vulneráveis.
Além disso, o país também enfrenta altas despesas com internações psiquiátricas e intervenções de saúde, dificultando ainda mais o acesso ao tratamento para a maioria dos jovens e suas famílias.
Nesse cenário, soluções digitais podem ajudar na triagem precoce dos atendimentos, além da redução da burocracia no sistema de saúde, bem como na capacitação de profissionais, escolas e famílias para lidarem com crises emergentes. É fundamental, porém, que esse uso seja balizado por uma ética rigorosa, envolvendo supervisão clínica, regulação adequada e o reconhecimento de que a IA nunca substituirá o diálogo humano, a escuta empática e a responsabilidade ética inerentes à prática clínica.
A experiência norte-americana oferece lições importantes: a dependência excessiva de IA, em um sistema fragmentado que prioriza o lucro e a eficiência, pode reforçar exclusões e gerar respostas automáticas inadequadas, especialmente em situações graves de crise.
Além disso, o contexto populacional dos Estados Unidos difere bastante do brasileiro, com um sistema de saúde predominantemente privado, enquanto o SUS é o pilar do atendimento universal no país. Com isso, importar o modelo dos EUA sem uma crítica cuidadosa e sem adaptações pode ampliar desigualdades e reforçar vulnerabilidades.
Qualquer tentativa de incorporar a IA na saúde mental brasileira deve respeitar as particularidades culturais, socioeconômicas e estruturais do país. A tecnologia, portanto, deve atuar como complemento, promovendo mais acesso e eficiência, sem substituir o fundamental vínculo de confiança entre profissional e paciente.
Caminhar nessa direção exige uma construção coletiva, com participação de profissionais de saúde, gestores públicos, sociedade civil e especialistas em ética, tecnologia e políticas públicas. Assim, é possível transformar dados em ações concretas e humanas, que respeitem a diversidade social brasileira, promovam o cuidado integral e reforcem a relação de confiança entre pacientes e profissionais.
No campo da saúde, ainda não se inventou nada que possa substituir o trabalho clínico da escuta, da responsabilidade e da relação entre paciente e profissional. O uso responsável da IA é uma oportunidade de avançar na prevenção, no acesso e na qualidade do cuidado, desde que aliado à coragem, ética e reflexão constante. Nenhum algoritmo sustenta silêncio, contradição ou ambivalência, elementos essenciais na prática clínica humanizada, que só o contato e a relação humana podem oferecer.
Adriane Barroso é psicóloga e psicanalista especializada em saúde mental adolescente, e Ana Barroso é sócia e Head de Design da A3Data, consultoria especializada em dados e Inteligência Artificial, parceira Advanced da AWS (Amazon Web Services).
* A opinião do articulista não reflete necessariamente a opinião do PNB Online