Poderá a IA reduzir os erros médicos? Os investigadores testam o impacto da GPT-4 na segurança dos doentes
Os investigadores descobriram que o modelo de IA GPT-4 pode ser utilizado para ajudar os profissionais de saúde a melhorar os resultados de segurança dos pacientes. Mas como?
Se há uma área em particular em que a generalização da inteligência artificial (IA) poderá ter o impacto mais positivo, é a área médica. Aqui, a IA é vista como uma ferramenta com potencial para transformar totalmente o mundo dos cuidados aos doentes.
Os especialistas afirmam que as possibilidades da IA neste domínio são infinitas, com aplicações que vão desde a previsão da progressão de doenças a vacinas totalmente novas. Uma área que tem registado um interesse crescente é o papel da IA na segurança dos doentes, que continua a ser uma preocupação crítica na esfera dos cuidados de saúde.
Um novo estudo realizado por investigadores da Faculdade de Medicina da Universidade de Boston explorou a forma como a IA poderia melhorar esta área, analisando o modelo avançado de IA, GPT-4, para avaliar a sua capacidade de ajudar os profissionais de saúde a melhorar os resultados de segurança.
A equipa testou o GPT-4 utilizando o exame Certified Professional in Patient Safety (CPPS) - um teste normalizado utilizado por profissionais da área para certificar a sua compreensão dos protocolos de segurança. Este foi utilizado para avaliar os conhecimentos de segurança dos doentes em várias áreas-chave.
De acordo com o estudo, o modelo de IA teve um desempenho notável, respondendo corretamente a 88% das perguntas, o que sugere que a IA tem capacidade para contribuir para os esforços destinados a reduzir os erros médicos e a melhorar os resultados dos doentes. Atualmente, acredita-se que os erros médicos causam cerca de 400 000 mortes por ano só nos Estados Unidos.
São necessários mais testes
Embora estudos anteriores tenham avaliado o desempenho da IA em diferentes exames relacionados com os cuidados de saúde, este é o primeiro estudo a testar especificamente a tecnologia no conhecimento da segurança dos doentes.
“O nosso é o primeiro teste robusto da sua proficiência especificamente na segurança do paciente”, disse Nicholas Cordella, um dos principais autores do estudo. Acrescentou ainda que o modelo teve um desempenho especialmente bom em áreas como a Segurança do Doente e Soluções, Medição e Melhoria do Desempenho e Pensamento e Conceção de Sistemas/Fatores Humanos - todos eles “componentes essenciais da melhoria da segurança em ambientes clínicos”.
Apesar destes resultados promissores, os investigadores têm o cuidado de não exagerar as atuais capacidades da tecnologia. Embora o estudo sugira que a IA pode ajudar os médicos e outros clínicos a reconhecer e prevenir erros, existem ainda limitações.
Cordella e a sua equipa salientaram que os modelos de IA, como o GPT-4, continuam a ser propensos a problemas como o enviesamento, a falsa confiança e a geração de dados fabricados, normalmente designados por “alucinações”. Esclareceu também que o estudo era apenas um passo inicial para compreender como a IA poderia ser integrada nos sistemas de saúde e não era de modo algum conclusivo.
“Os nossos resultados sugerem que a IA tem o potencial de melhorar significativamente a segurança dos doentes, o que constitui um passo importante no sentido de tirar partido desta tecnologia para reduzir os danos evitáveis e obter melhores resultados nos cuidados de saúde”, afirmou Cordella.
“No entanto, é importante reconhecer que se trata de um passo inicial e que temos de testar e aperfeiçoar rigorosamente as aplicações de IA para beneficiar verdadeiramente os cuidados dos doentes.”
Referência da notícia:
Cordella, Nicholas and James Moses. "Artificial Intelligence and the Practice of Patient Safety: GPT-4 Performance on a Standardized Test of Safety Knowledge." The Joint Commission Journal on Quality and Patient Safety, 2024.