Por Klaiton Simão, CEO da Salux
A inteligência artificial atravessa uma fase de transição importante. O deslumbramento inicial — o famigerado hype — cede espaço à adoção prática e silenciosa em setores que exigem mais do que automação: exigem confiança. Na saúde, essa confiança não nasce do algoritmo, mas da curadoria.
Modelos como ChatGPT, Gemini e outros assistentes genéricos provaram seu valor em tarefas cotidianas — redigir e-mails, estruturar relatórios, otimizar fluxos. Mas, quando inseridos no contexto clínico, o que era ganho de produtividade pode se transformar em risco assistencial. A chamada “alucinação” — respostas erradas entregues com aparente convicção — ainda é um fenômeno frequente. E, em um hospital, esse erro tem peso diferente.

Estudos recentes mostram que, apesar da evolução dos modelos, o risco persiste. Em maio de 2025, o artigo “A framework to assess clinical safety and hallucination rates of LLMs for medical text summarisation”, publicado na npj Digital Medicine (periódico da Nature especializado em saúde digital), apresentou um método com revisão de 12.999 frases anotadas por médicos, identificando 1,47% de alucinações e 3,45% de omissões, mesmo em respostas aparentemente completas. O alerta é claro: tecnologia sem curadoria não é suficiente para a prática clínica.
A realidade do setor exige mais. Segundo dados divulgados pelo Conselho Nacional de Justiça (CNJ) em abril de 2025, o Brasil registrou 657 mil novas ações judiciais na saúde só em 2024, um crescimento de 15% em relação ao ano anterior. No estado de São Paulo, esse aumento foi ainda mais expressivo: 75% entre 2021 e 2025, segundo o Anuário da Justiça de São Paulo. Parte dessas ações está relacionada a decisões clínicas contestadas, muitas delas tomadas em ambientes de alta pressão como UTIs e pronto-socorros. Isso mostra que ferramentas capazes de registrar, justificar e explicar decisões técnicas são também mecanismos de proteção institucional.
Além dos aspectos legais, a confiança pública também entra em jogo. Uma pesquisa do JAMA Network Open (fevereiro de 2025) revelou que 65,8% dos adultos norte-americanos têm baixa confiança na capacidade do sistema de saúde de usar IA de forma responsável. No mesmo estudo, 57,7% expressaram preocupação com potenciais danos causados por essas tecnologias. Em um cenário global, levantamento realizado pela Universidade de Melbourne e KPMG com mais de 48 mil participantes indicou que apenas 54% das pessoas confiam em IA de forma geral, e menos da metade acredita que a regulação existente é suficiente.
Diante desse cenário, ganha força a necessidade de uma IA com curadoria clínica. Diferentemente dos modelos generalistas — treinados com dados abertos da internet e sem validação técnica —, essa abordagem se baseia em fontes científicas confiáveis, protocolos clínicos atualizados e supervisão direta de profissionais de saúde. Mais do que evitar erros, ela oferece suporte efetivo à tomada de decisão, com rastreabilidade, explicabilidade e aderência à realidade assistencial das instituições.
A curadoria clínica é, antes de tudo, um filtro de coerência e segurança. No Brasil, ela exige mais do que incorporar guidelines internacionais: é preciso considerar realidades institucionais, protocolos locais, práticas assistenciais consolidadas e as nuances de um sistema fragmentado, com diferentes níveis de maturidade digital.
Curadoria, nesse caso, não é um selo: é um processo contínuo de revisão técnica, validação por especialistas e adaptação à prática.
É isso que estamos fazendo por aqui — desenvolvendo tecnologias que aliam ciência, contexto e responsabilidade. Soluções que não apenas automatizam, mas que traduzem o raciocínio clínico para a lógica da máquina, respeitando a decisão médica e atuando como extensão qualificada da inteligência profissional. Porque, no fim, a IA só tem valor real na saúde quando serve para cuidar melhor — e com mais confiança — de pessoas.
Essa abordagem transforma a IA em aliada — não em risco —, apoiando decisões, documentando raciocínios e conectando tecnologia à segurança do cuidado. O valor não está em responder rápido, mas em responder certo, com responsabilidade e critério.
A IA que transforma a saúde não é a mais popular, nem a mais eloquente. É a mais confiável. E, na saúde, confiança não se improvisa — se constrói com técnica, ética e curadoria.
*Klaiton Simão é CEO da Salux Technology.