Plano brasileiro aposta na inteligência artificial para revolucionar a saúde, mas enfrenta desafios éticos, estruturais e sociais no caminho (Imagem: khunkornStudio/Shutterstock)
Nos últimos anos, testemunhamos o surgimento de soluções de inteligência artificial (IA) que revolucionam a forma como vivemos, trabalhamos e cuidamos da saúde.
No entanto, o avanço acelerado dessa tecnologia também traz a necessidade de criar salvaguardas, marcos regulatórios e diretrizes éticas que garantam o uso responsável — especialmente em áreas sensíveis como a saúde. É nesse cenário que o recém-lançado Plano Brasileiro de Inteligência Artificial (PBIA) representa um divisor de águas.
Aprovado em março de 2024 e com implementação projetada até 2028, o PBIA propõe um investimento de R$ 23 bilhões para estruturar uma IA centrada no ser humano, com foco na inclusão, soberania tecnológica e bem-estar social. É uma iniciativa ambiciosa que coloca o Brasil na rota de países que reconhecem a urgência de um uso regulado e ético da IA. Mas será que ela conseguirá, de fato, atender aos gargalos do Sistema Único de Saúde (SUS) e da saúde suplementar?
A saúde é um dos eixos prioritários do plano. Com base na capilaridade do SUS e na enorme quantidade de dados que ele gera, o PBIA prevê o uso da IA para diagnosticar doenças com mais agilidade, interpretar exames de imagem, prever surtos epidemiológicos e até personalizar tratamentos com base no perfil genético da população brasileira.
Plano nacional de IA prevê investimentos na saúde para diagnósticos rápidos e tratamentos personalizados com base em dados do SUS (Imagem: khunkornStudio/Shutterstock)
Mas para que esse potencial se torne realidade, é preciso enfrentar desafios complexos: interoperabilidade entre sistemas, fragmentação de dados, formação de profissionais capacitados e um histórico de subfinanciamento crônico no setor público. Além disso, o uso de IA no diagnóstico e no atendimento remoto esbarra em dilemas éticos: quem responde por um erro cometido por uma IA? Até onde vai a autonomia do algoritmo diante de uma decisão médica?
Marco ético e soberania digital
A ausência de regulamentação específica para IA em saúde sempre foi uma lacuna preocupante. O PBIA propõe agora o desenvolvimento de marcos éticos e regulatórios que garantam segurança aos usuários e transparência aos sistemas — aspectos cruciais para preservar direitos fundamentais como a privacidade de dados sensíveis e a equidade no acesso a tecnologias emergentes.
O plano nacional propõe regras éticas e uma “nuvem soberana” para garantir segurança, transparência e autonomia no uso da inteligência artificial na saúde. (Imagem: bixstock/Shutterstock)
Um dos pontos mais promissores é a criação de uma “nuvem soberana”, ou seja, uma infraestrutura nacional de dados, protegida por padrões brasileiros de governança. Em um mundo em que a maior parte das ferramentas de IA vem de empresas estrangeiras, garantir soberania digital é também garantir autonomia clínica, científica e econômica.
Ainda que o plano proponha uma abordagem ética e inclusiva, é necessário reconhecer os riscos. Países com grandes desigualdades educacionais e territoriais, como o Brasil, correm o risco de ver a IA aprofundar desigualdades em vez de reduzi-las. Em regiões remotas onde faltam até conexões estáveis à internet, como garantir acesso à telemedicina com suporte de IA?
Novo plano brasileiro de IA prevê diretrizes para uso seguro da tecnologia na saúde (Imagem: raker/Shutterstock)
Por isso, o plano também inclui metas para a formação de profissionais — não apenas desenvolvedores, mas também profissionais da saúde com competências digitais. Sem esse preparo, algoritmos bem treinados continuarão subutilizados em um sistema ainda analógico.
Um plano ambicioso, mas ainda um começo
O PBIA acerta ao propor diretrizes de longo prazo, investimento robusto e coordenação multissetorial. Mas, para que a inteligência artificial seja, de fato, uma aliada da saúde pública e do cidadão brasileiro, será preciso mais do que boas intenções. Será preciso vigilância constante, participação ativa da sociedade civil e coragem regulatória. Afinal, a inteligência artificial não é neutra. O que ela aprende — e a quem ela atende — depende diretamente das escolhas políticas que fizermos hoje.
Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.