Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    ChatGPT supera médicos para fazer diagnóstico em consulta, diz estudo

    Pesquisa foi feita através da comparação das justificativas de profissionais de saúde e da inteligência artificial

    IA pode ser utilizada para conferir se as informações importantes foram levadas em conta
    IA pode ser utilizada para conferir se as informações importantes foram levadas em conta Andrew Brookes/GettyImages

    Giovana Christda CNN

    Cientistas do Beth Israel Deaconess Medical Center, hospital afiliado da Universidade de Harvard, conduziram um estudo que concluiu que o raciocínio clínico do ChatGPT-4 pode ser igual ou mais preciso do que dos médicos.

    Na pesquisa, foram comparadas as justificativas de diagnóstico de 20 casos escritas por médicos assistentes, por residentes e pela inteligência artificial (IA). Através de um modelo de avaliação, foi possível identificar que o Chat os superou na análise.

    Para a condução do estudo publicado na revista JAMA Internal Medicine foi utilizado o r-IDEA, ferramenta existente que atribui uma nota para o raciocínio clínico de profissionais de saúde.

    Foram recrutados 21 médicos assistentes e 18 residentes para participar da pesquisa, que foi separada em quatro etapas de diagnóstico. O ChatGPT-4 recebeu as mesmas instruções que os humanos.

    “A primeira etapa é o dado de triagem, quando o paciente relata o que o está incomodando e você obtém os sinais vitais”, disse a Dr. Stephanie Cabral, autora principal do estudo e residente de terceiro ano de medicina no BIDMC.

    E completa: “A segunda etapa é a revisão do sistema, quando você obtém informações adicionais do paciente. A terceira etapa é o exame físico, e a quarta é a realização de testes diagnósticos e exames de imagens”.

    Os participantes escreveram o diagnóstico e justificativas de cada estágio do caso. Suas respostas eram comparadas com as da IA e todas passaram pelo sistema de avaliação.

    Resultados do estudo de diagnóstico médico com o ChatGPT

    Na pontuação média obtida pelo r-IDEA, o ChatGPT-4 superou todos os outros participantes, conseguindo 10, a nota máxima. Os médicos assistentes alcançaram nove e os residentes, oito.

    No que diz respeito à precisão de diagnóstico, o robô e os profissionais de saúde tiveram empate. Entretanto, foi identificado que o bot tinha mais informações incorretas no raciocínio clínico do que os profissionais de saúde.

    Os pesquisadores concluíram que a ferramenta pode ser útil para auxiliar nos diagnósticos e prevenir erros, mas não substitui os médicos. Ainda serão necessários mais estudos para definir como a IA pode ser integrada aos raciocínios clínicos, entretanto os estudiosos consideram que, no momento, o sistema pode ser utilizado para garantir que nenhuma informação importante seja ignorada.

    A Dr. Stephanie Cabral espera que “a IA melhore a interação paciente-médico, reduzindo algumas das ineficiências que temos atualmente e nos permitindo focar mais na conversa que estamos tendo com nossos pacientes.”