O acolhimento artificial
O Doutor Google, ao que parece, está se aposentando. Em seu lugar, as diferentes plataformas de inteligência artificial começam a ocupar um espaço cada vez maior no cotidiano de quem busca respostas sobre si — e, sobretudo, sobre a própria mente.
Cada vez mais pessoas descrevem sintomas a esses sistemas e perguntam: "Será que tenho ansiedade?", "Isso é depressão?", "Sou bipolar?". Em alguns casos, a hipótese sugerida pela máquina passa a ser tratada como diagnóstico.
A diferença é que a inteligência artificial não entrega apenas links. Ela conversa. O usuário descreve sintomas e recebe respostas que soam humanas — embora venham de uma máquina treinada para responder com empatia.
A empatia da máquina é calculada. Mas, para quem está sofrendo, ela pode parecer suficiente para substituir uma avaliação clínica.
Em janeiro deste ano, a OpenAI lançou o ChatGPT Health, experiência voltada à saúde e ao bem-estar. Segundo a própria empresa, mais de 230 milhões de pessoas por semana já usam o sistema para fazer perguntas sobre saúde em uma das plataformas mais acessadas do mundo.
A própria OMS já alertou para os riscos desse movimento. Em documento recente, a entidade afirma que o uso da inteligência artificial em saúde pode produzir vieses, interpretações imprecisas e confiança excessiva em seus resultados quando essas ferramentas não são adequadamente supervisionadas.
Em saúde mental, esse risco se torna ainda mais sensível. Diagnósticos não dependem apenas da descrição de sintomas isolados. Dependem de contexto, história de vida, duração do sofrimento, impacto funcional e escuta profissional.
Tristeza não é automaticamente depressão. Distração não é, por si só, TDAH. Oscilações de humor não significam necessariamente bipolaridade.
Pesquisas recentes indicam que a inteligência artificial pode ajudar a organizar informações clínicas. Mas a complexidade das condições de saúde mental — que dependem de contexto, história de vida e interação humana — torna improvável que sistemas automatizados substituam a avaliação de profissionais.
Pesquisadores ligados à Universidade de Harvard observaram que, em testes com ferramentas digitais de triagem, situações de emergência foram classificadas como menos urgentes — o que pode levar pacientes a adiar a busca por atendimento adequado.
Também não se pode ignorar a dimensão dos dados. Conversas sobre sofrimento psíquico, ideias suicidas, compulsões, medos e traumas envolvem informações extremamente sensíveis. Sem regras claras de privacidade, transparência e governança, esses conteúdos podem circular em ambientes sobre os quais o usuário sabe muito pouco.
Especialistas em saúde digital já vêm dizendo, com razão, que o Brasil precisa avançar na regulação conforme o nível de risco. Uma ferramenta que oferece informação geral é uma coisa. Outra, muito diferente, é um sistema que influencia triagem, diagnóstico ou decisão clínica.
Quando a tecnologia passa a influenciar decisões sobre saúde, deixa de ser apenas tecnologia — passa a ser uma questão de saúde pública.
A ascensão dessas plataformas também revela outra carência. Se o acesso a serviços de saúde mental fosse mais simples, mais próximo e menos demorado, tantas pessoas estariam transformando a inteligência artificial em espaço de acolhimento?
Em um país que formou um contingente expressivo de psicólogos, por que o cuidado humano continua tão escasso em tantas regiões?
Regular é urgente. Mas regular, sozinho, não basta. Também é preciso enfrentar o vazio que permite à tecnologia avançar sobre um campo que deveria ser sustentado por cuidado humano, escuta qualificada e presença profissional.
*Jornalista, mestre e doutorando em Políticas Públicas pela Fundação Getúlio Vargas