A MIT Technology Review Brasil trouxe, em abril de 2026, uma análise sobre como a inteligência artificial está transformando o setor de saúde: dados em tempo real, modelos preditivos e cuidado contínuo estão substituindo a lógica tradicional de atendimento apenas quando o paciente já está doente. A mudança é estrutural, não cosmética.
Para startups e healthtechs, a oportunidade é evidente. O mercado global de IA em saúde deve atingir US$ 187 bilhões até 2030, segundo a Grand View Research (2024). No Brasil, o setor movimenta bilhões em planos de saúde, hospitais e clínicas, e a digitalização acelerou após a pandemia.
O que muitos founders e CTOs subestimam é que essa mesma transformação tecnológica exige um mapa jurídico detalhado. No Brasil, operar IA na saúde sem compreender LGPD, regulação da ANS, normas da ANVISA e o cenário legislativo em curso é assumir um risco calculado da forma errada.
Contexto jurídico e regulatório
O que a lei brasileira já exige hoje
A Lei Geral de Proteção de Dados (Lei 13.709/2018, a LGPD) é o ponto de partida obrigatório. Dados de saúde são classificados como dados sensíveis (art. 11), o que impõe restrições mais severas ao tratamento. A base legal principal para healthtechs é o consentimento específico do titular ou a tutela da saúde, prestada por profissional habilitado ou entidade sanitária (art. 11, II, f).
Na prática, isso significa que um aplicativo de monitoramento preventivo que coleta dados de frequência cardíaca, padrões de sono ou glicemia precisa de consentimento granular, política de privacidade clara e, dependendo do volume e da natureza do tratamento, um Relatório de Impacto à Proteção de Dados Pessoais (RIPD). A Autoridade Nacional de Proteção de Dados (ANPD) já sinalizou, em sua Agenda Regulatória 2025-2026, que o setor de saúde é área prioritária de fiscalização.
A ANVISA regula software como dispositivo médico (SaMD, na sigla em inglês) por meio da RDC 657/2022. Sistemas de IA que auxiliam diagnóstico, triagem ou prescrição podem ser enquadrados como dispositivos médicos de classe II, III ou IV, exigindo registro sanitário antes da comercialização. Ignorar essa exigência caracteriza infração sanitária com multas que chegam a R$ 1,5 milhão por infração (Lei 6.437/1977).
O PL 2.338/2023 e o que muda para IA em saúde
O Projeto de Lei 2.338/2023, o chamado Marco Brasileiro de IA, tramita no Senado Federal e classifica sistemas de IA usados em saúde como de alto risco. Isso implica, quando aprovado, obrigações de transparência, avaliação de impacto algorítmico, supervisão humana obrigatória e documentação técnica detalhada dos modelos utilizados.
A classificação de alto risco não proíbe o uso, mas cria responsabilidade objetiva para o fornecedor do sistema em caso de dano ao paciente, independentemente de culpa. Startups que hoje desenvolvem modelos preditivos sem documentação adequada do processo de treinamento, dos dados utilizados e das limitações do modelo estão construindo passivos que poderão ser cobrados retroativamente após a aprovação da lei.
A ANS, por sua vez, já exige que operadoras de planos de saúde que utilizam algoritmos para negar ou restringir cobertura informem os critérios técnicos utilizados (Resolução Normativa 566/2022). Startups que fornecem tecnologia para operadoras tornam-se parte dessa cadeia de responsabilidade.
Impacto prático
Para founders e CTOs de healthtechs, o primeiro movimento prático é mapear se o produto é um SaMD segundo os critérios da ANVISA. Essa análise deve ocorrer antes do lançamento, não depois da primeira notificação. O registro sanitário pode levar de 60 dias a mais de um ano, dependendo da classe de risco, e esse prazo precisa entrar no roadmap do produto.
Do ponto de vista contábil, os custos de conformidade regulatória em saúde precisam ser provisionados como despesas operacionais recorrentes, não como evento extraordinário. Isso inclui honorários de consultoria regulatória, custos de auditoria de algoritmos, seguros de responsabilidade civil profissional e eventual contratação de um Data Protection Officer (DPO), que, embora não seja exigência legal expressa para todas as empresas, é recomendação formal da ANPD para operações com dados sensíveis em escala.
Investidores em deep tech e healthtech devem incluir due diligence regulatória específica nos processos de investimento. Startups sem registro ANVISA adequado, sem gestão documentada de consentimentos LGPD e sem preparação para o PL 2.338/2023 representam risco de portfólio que vai além do risco de mercado tradicional. Em uma eventual saída (M&A ou IPO), passivos regulatórios ocultos têm derrubado valuations em até 30%, segundo análises de transações no setor de saúde digital publicadas pela Rock Health (2024).
Considerações finais
A convergência entre IA e saúde preventiva é uma das transformações mais relevantes da última década. No Brasil, ela acontece em paralelo à construção do arcabouço regulatório, o que cria tanto oportunidade quanto responsabilidade. Empresas que tratarem compliance como diferencial competitivo, e não como obstáculo, estarão melhor posicionadas quando a fiscalização intensificar.
O conselho prático é direto: mapeie seu produto contra a RDC 657/2022 da ANVISA, revise sua base legal na LGPD, prepare sua documentação técnica pensando no PL 2.338/2023 e provisione os custos de conformidade no seu modelo financeiro. Regulação na saúde não é opcional, e o custo de ignorá-la é sempre maior do que o custo de endereçá-la preventivamente.