Inteligência artificial na saúde: um aliado ou um risco?
Descubra como usar ferramentas como ChatGPT de forma segura e eficaz para entender suas questões de saúde
LEIA AQUI O RESUMO DA NOTÍCIA
Produzido pela Ri7a - a Inteligência Artificial do R7

Você recebe o resultado do exame de sangue por e-mail. Abre o PDF e vê várias palavras estranhas: “Leucócitos”, “Hematócrito”, “PCR elevado”. O coração dispara. Antes, a gente corria para o “Dr. Google” e entrava em pânico achando que tinha três dias de vida.
Agora, a tentação é outra: copiar tudo e jogar no ChatGPT ou no Gemini perguntando: “O que eu tenho?”.
A resposta vem rápida, educada e cheia de certeza. Mas aqui mora um perigo silencioso. Usar a Inteligência Artificial na saúde pode ser uma ferramenta útil ou uma armadilha perigosa. Tudo depende de como você pergunta.
Hoje, vamos aprender a usar essa tecnologia sem brincar com a sua vida.
Onde a IA é genial: O “Tradutor de Mediquês”
Médicos estudam anos para entender termos que nós, meros mortais, não compreendemos. A IA é excelente para quebrar essa barreira da língua.
Você pode (e deve) usar o ChatGPT, Gemini ou Perplexity para:
- Entender termos técnicos: Perguntar “O que significa triglicérides e por que ele sobe?” é seguro. A IA vai te dar uma aula teórica simples.
- Resumir bulas infinitas: “Quais são os efeitos colaterais mais comuns deste remédio e qual o melhor horário para tomar?” (Sempre conferindo com a receita do seu médico, claro).
- Preparar a consulta: “Vou ao cardiologista amanhã. Que perguntas importantes devo fazer sobre pressão alta?”
Nesse cenário, a IA atua como uma professora, te dando conhecimento para você chegar no consultório mais preparado.
Por que o Perplexity é melhor para saúde que o ChatGPT?
Diferente do ChatGPT que funciona como uma caixa-preta, o Perplexity mostra as fontes que usou para responder sua pergunta. Você vê links para artigos científicos, publicações de hospitais e bases de dados médicas confiáveis (como PubMed). Isso significa que você pode verificar a informação em fontes primárias e confiáveis, reduzindo drasticamente o risco de desinformação.
Onde a IA é perigosa: O Diagnóstico Cego
O problema começa quando tentamos transformar o robô em médico.
O Perigo das “Alucinações”
As IAs sofrem de um fenômeno conhecido como “alucinação” – quando a ferramenta gera informações que parecem plausíveis, mas são completamente falsas ou inventadas. Os números são alarmantes:
- Taxa de alucinação: Entre 33% e 79% dependendo do modelo
- Em referências médicas: 47% das referências criadas pelo ChatGPT eram completamente fabricadas – o sistema inventou artigos e autores que não existem
- Em diagnósticos pediátricos: ChatGPT acertou apenas 17% dos diagnósticos pediátricos testados, errando em 83% dos casos
Um exemplo real e devastador: em 2025, um homem de 60 anos foi hospitalizado após o ChatGPT recomendar substituir sal de cozinha por “brometo de sódio” como alternativa química similar. O brometo de sódio é um produto industrial tóxico que causou sintomas neurológicos graves. O sistema não contextualizou que uma “similaridade química” não significa segurança ou comestibilidade.
Por que a IA erra em diagnósticos?
Imagine que você mostre uma foto de uma mancha na pele para a IA. Ela pode dizer que é uma alergia simples. Mas ela não sabe que você tem histórico de câncer na família, não sabe se aquela mancha coça, não sabe se você tomou sol ontem, não sabe sua idade ou tipo de pele.
A IA analisa dados (texto e imagens isoladas). Um médico analisa o paciente (contexto completo).
Um exame de laboratório sozinho não diz nada. Um valor “fora da referência” pode ser perfeitamente normal para sua idade, seu sexo ou sua condição física. O ChatGPT não sabe disso. Ele pode te dar um falso alívio (“Não é nada”) quando você precisava correr para o hospital, ou criar um pânico desnecessário inventando uma doença rara que você não tem.
Estudos recentes confirmam isso: um atraso em diagnóstico de AVC (derrame cerebral) causado por confiança excessiva em resposta de IA colocou uma vida em risco crítico.
Um Risco Silencioso: Seus Dados Não São Privados
Quando você cola seu resultado de exame no ChatGPT, aquele dado entra nos servidores da OpenAI. Não há garantia oficial de que a informação será deletada ou não usada para treinar versões futuras do modelo.
A Organização Mundial da Saúde (OMS) alerta especificamente sobre este risco: dados sensíveis de saúde compartilhados com ferramentas públicas podem não estar protegidos por conformidade HIPAA (Health Insurance Portability and Accountability Act) ou leis equivalentes de proteção de dados.
Regra prática: Para questões sensíveis (resultados de exames, medicações, histórico pessoal), nunca compartilhe com ferramentas públicas. Use apenas sistemas hospitalares ou médicos oficiais que tenham certificação de segurança de dados.
A Regra de Ouro (segundo a OMS)
Em janeiro de 2024, a Organização Mundial da Saúde (OMS) publicou um guia ético abrangente sobre o uso de Inteligência Artificial em saúde. Um princípio central alinha-se perfeitamente com a distinção mais importante para pacientes:
Use a tecnologia para se informar, nunca para se diagnosticar.
Essa simples regra está fundamentada em um dos 6 princípios éticos oficiais da OMS para IA na saúde: Proteger a autonomia humana – que significa que você (e especialmente seu médico) deve permanecer no comando das decisões clínicas. A IA é um apoio, nunca um substituto.
Como aplicar a Regra de Ouro na prática:

Nenhuma pergunta na coluna da direita deve ser feita a uma IA. Todas exigem um médico.
O Brasil também está acordando para isso
Você não está sozinho nessa preocupação. O Ministério da Saúde reconhece tanto o potencial quanto os riscos. Em 2025, o governo anunciou investimentos de R$ 1,7 bilhão para criar a primeira “Rede de Inteligência Artificial” do SUS, com hospitais inteligentes em São Paulo e outras capitais.
A diferença crítica: esses sistemas não são “self-service” de diagnóstico. São ferramentas supervisionadas por médicos, usadas para:
- Análise de imagens diagnósticas (com radiologista revisando)
- Triagem de pacientes (orientando para fluxo correto)
- Alertas sobre interações medicamentosas (farmacêutico validando)
- Gestão administrativa
Nenhuma IA no SUS faz diagnóstico sozinha. Sempre há um humano verificando. É assim que deve ser.
5 Usos Legítimos de IA em Saúde (Segundo a OMS)
Nem tudo é risco. A OMS identifica 5 aplicações onde a IA pode auxiliar de forma segura quando bem supervisionada:
- Diagnóstico e atendimento clínico – Como ferramenta de apoio ao médico (não substituto)
- Investigação de sintomas orientada pelo paciente – Ajudando você a preparar perguntas para o médico
- Gestão administrativa – Agendamentos, registros, organizando dados
- Educação médica – Treinando estudantes e profissionais com simulações
- Pesquisa científica e desenvolvimento de medicamentos – Acelerando descobertas
Todas essas aplicações têm algo em comum: supervisão humana qualificada. A máquina não toma a decisão final; humanos treinados a verificam.
Evidência: O Que Dizem os Números
Quando especialistas comparam IA com médicos, a realidade é menos preto no branco do que parece:

Checklist: Como Usar IA em Saúde com Segurança
✓ O que fazer:
- Use IA para educação: entender o que é uma doença, como funciona um exame
- Mostre as respostas ao seu médico para discussão
- Use Perplexity em vez de ChatGPT (mostra fontes)
- Filtre respostas por fontes confiáveis (PubMed, hospitais, universidades)
- Pergunte ao médico: “Encontrei essa informação. É correta para meu caso?”
- Nunca compartilhe dados sensíveis (nomes, números de exames, condições específicas)
- Desconfie de respostas com certeza absoluta – saúde é sempre contextual
✗ O que evitar:
- NÃO use IA para se auto-diagnosticar
- NÃO confie em uma resposta da IA para tomar decisão médica sozinho
- NÃO compartilhe exames completos ou dados pessoais com ChatGPT ou ferramentas públicas
- NÃO ignore sintomas porque a IA disse “não é nada”
- NÃO demore a ir ao médico enquanto aguarda resposta da IA
- NÃO tome medicamentos sugeridos por IA sem aprovação médica
- NÃO acredite em “alucinações” – se a IA inventa doenças raras, trata-se de erro de máquina
A Linha Vermelha
A tecnologia é sua aliada. Mas o estetoscópio ainda deve ficar no pescoço de um ser humano.
A Inteligência Artificial é uma ferramenta extraordinária para expandir acesso à educação em saúde, para reduzir erros administrativos, para ajudar médicos a processar informações mais rapidamente. Mas ela não substitui o conhecimento médico, a experiência clínica, e especialmente o contexto humano que um médico traz para cada paciente.
A pergunta que você deve fazer antes de usar IA em saúde é simples:
“Essa resposta está substituindo meu médico, ou ajudando meu médico?”
Se a resposta for a primeira, volte atrás. Se for a segunda, siga em frente — mas sempre com cautela.
Saiba Mais
Referências Oficiais:
- Organização Mundial da Saúde (OMS) – “Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models” (2024)
- OMS – Alerta sobre uso seguro de ChatGPT, Gemini e Bard em saúde (2023)
- Ministério da Saúde Brasil – Rede de Inteligência Artificial do SUS
- Link: https://www.gov.br/saude (buscar “IA” ou “Inteligência Artificial”)
Para Pesquisa Segura:
- Perplexity AI – www.perplexity.ai (com filtros para PubMed, artigos científicos)
- PubMed – www.pubmed.ncbi.nlm.nih.gov (base de dados de artigos médicos revisados)
- Sites de Hospitais Respeitados – Instituto do Câncer, Hospital Sírio-Libanês, UNIFESP
Para Denunciar Desinformação em IA:
Se você encontrou uma resposta perigosa de IA em saúde, denuncie aos órgãos reguladores:
- Ministério da Saúde (Anvisa)
- Conselhos Profissionais (CRM, CFF)











