O avanço da Inteligência Artificial (IA) generativa tem provocado questionamentos sobre o limite do seu uso. Só porque a IA é capaz de criar uma obra de arte, isso significa que deve-se substituir artistas pela tecnologia? Na medicina, o uso do chatbot pode ser ainda mais prejudicial: médicos esperam que a ferramenta possa auxiliá-los em tarefas simples, como atendimento diário, mas o uso desmedido pode causar o efeito contrário e prejudicar pacientes.

Leia mais:

publicidade

Médicos e o ChatGPT

Roberto Pearl, um professor da Escola de Medicina de Stanford e ex-CEO da Kaiser Permanente, um grupo de médicos dos Estados Unidos com mais de 12 milhões de pacientes, defendeu o uso da ferramenta por parte dos profissionais.

Ele não pratica mais medicina, mas afirma que conhece médicos que usam o ChatGPT para resumir atendimentos aos pacientes, escrever cartas com informações técnicas e até para realizar diagnósticos. Para ele, milhares de aplicações do chat na profissão serão descobertas e podem ser usadas para melhorar a saúde humana.

publicidade

Acho que será mais importante para os médicos do que o estetoscópio era no passado. Nenhum médico que pratique medicina de alta qualidade o fará sem acessar o ChatGPT ou outras formas de IA generativa.

Robert Pearl

A IA generativa já se provou capaz de, por exemplo, passar em testes de medicina — inclusive, os exames foram usados como referência para a construção de alguns sistemas.

Em 2022, a Microsoft Research apresentou o BioGPT, com um modelo de linguagem que obteve notas altas em diversas tarefas médicas. Outro caso, um artigo da OpenAI, Massachusetts General Hospital e AnsibleHealth afirmou que o ChatGPT pode atingir ou até exceder 60% de aprovação no US Medical Licensing Exam, o exame para praticar medicina nos Estados Unidos.

publicidade

Riscos

  • As informações repassadas pelo chatbot, porém, podem fugir da alçada dos médicos.
  • Apesar de ser possível usar a ferramenta para coletar informações de registros de saúde ou realizar resumos de notas técnicas, os profissionais temem que o ChatGPT pode enganar os médicos com dados imprecisos ou sem registro de onde foram coletados.
  • Isso poderia levar a um diagnóstico errôneo e um tratamento incorreto, prejudicando o paciente.
  • Além disso, usar o chatbot para ajudar em tomadas de decisões também é arriscado, já que há registros de manipulação de fatos e da capacidade da IA generativa de influenciar o usuário.
  • O bioeticista do Center for Technomoral Futures da Universidade de Edimburgo Jamie Webb defende que a prática da medicina vai além das atividades diárias, mas inclui o conhecimento de princípios éticos e qualificação moral na tomada de decisões.

IA na saúde

Heather Mattie, uma professora de saúde pública da Universidade de Harvard, estuda o impacto da IA na saúde e ficou impressionada na primeira vez que o usou o ChatGPT. Ela pediu um resumo de como a modelagem de conexões sociais foi usada para estudar o HIV, tema que pesquisa.

Em certo ponto, o chatbot chegou em assuntos que fogem de seu conhecimento e não puderam ser verificados por ela. Agora, ela tem uma visão mais otimista da ferramenta para, por exemplo, resumir textos, mas defende que o usuário tenha o conhecimento completo do assunto para identificar possíveis respostas incorretas.

publicidade

Apesar da esperança, ela se preocupa em como os médicos usarão o ChatGPT, já que o chatbot não é preciso em diagnósticos, há registros de discriminação racial e de gênero, e pode fabricar fatos.

O conhecimento e as práticas médicas mudam e evoluem com o tempo, e não há como dizer de onde, na linha do tempo da medicina, o ChatGPT extrai suas informações ao indicar um tratamento típico. Essa informação é recente ou datada?

Heather Mattie

Já Pearl continua otimista, mas com ressalvas. Para ele, o ChatGPT é como um estudante de medicina: é capaz de atender pacientes e ajudar nas atividades, mas tudo o que faz precisa ser analisado por um médico mais experiente.

Com informações de Wired

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!