Utilizando información escrita del mundo real, un modelo lingüístico de gran tamaño muestra una precisión equiparable a la de los neurorradiólogos

A medida que avanza la inteligencia artificial, sus usos y capacidades en aplicaciones del mundo real siguen alcanzando nuevas cotas que pueden incluso superar la pericia humana. En el campo de la radiología, donde un diagnóstico correcto es crucial para garantizar una atención adecuada al paciente, los grandes modelos lingüísticos, como ChatGPT, podrían mejorar la precisión o al menos ofrecer una buena segunda opinión.

Para poner a prueba su potencial, el equipo del estudiante de posgrado Yasuhito Mitsuyama y el profesor asociado Daiju Ueda, de la Facultad de Medicina de la Universidad Metropolitana de Osaka, dirigieron a los investigadores que compararon el rendimiento diagnóstico de ChatGPT, basado en GPT-4, y el de los radiólogos en 150 informes preoperatorios de resonancia magnética de tumores cerebrales. A partir de estas notas clínicas diarias escritas en japonés, se pidió a ChatGPT, a dos neurorradiólogos certificados y a tres radiólogos generales que proporcionaran diagnósticos diferenciales y un diagnóstico final.

Posteriormente, se calculó su precisión basándose en el diagnóstico real del tumor tras su extirpación. Los resultados se situaron en un 73% para ChatGPT, un 72% de media para los neurorradiólogos y un 68% de media para los radiólogos generales. Además, la precisión del diagnóstico final de ChatGPT varió en función de si el informe clínico había sido redactado por un neurorradiólogo o por un radiólogo general. La precisión con informes de neurorradiólogos fue del 80%, frente al 60% cuando se utilizaron informes de radiólogos generales.

«Estos resultados sugieren que ChatGPT puede ser útil para el diagnóstico preoperatorio por RM de tumores cerebrales», declaró Mitsuyama, estudiante de posgrado. «En el futuro, tenemos la intención de estudiar grandes modelos lingüísticos en otros campos de diagnóstico por imagen con los objetivos de reducir la carga de los médicos, mejorar la precisión diagnóstica y utilizar la IA para apoyar entornos educativos.»

Los resultados se publicaron en European Radiology.

REFERENCIA

Comparative analysis of GPT-4-based ChatGPT’s diagnostic performance with radiologists using real-world radiology reports of brain tumors

Imagen: Osaka Metropolitan University