GPT-4 aprobó con éxito el examen de licencia médica de EE. UU. y respondió correctamente el 90% de las preguntas. Muchos científicos se sorprendieron por las buenas capacidades de diagnóstico y traducción de enfermedades del último modelo de inteligencia artificial de OpenAI.

El Dr. Isaac Kohane, científico informático de la Universidad de Harvard y médico, y dos colegas probaron cómo funcionaría GPT-4 en un entorno médico.
El Dr. Kohane escribió en el próximo libro The AI Revolution in Medicine que encontró que GPT-4 era mejor que muchos médicos que había evaluado.
No sólo es una herramienta de búsqueda de información o un buen "candidato", el Sr. Kohane y sus colegas también consideran que GPT-4 es un traductor talentoso. Es capaz de traducir información de alta hospitalaria para un paciente de habla portuguesa, traduciendo un lenguaje técnico complejo en información simple que incluso un niño de sexto grado puede leer y comprender.
Además, GPT-4 puede resumir informes y estudios extensos, brindar sugerencias útiles sobre cómo cuidar y hablar con los pacientes.
Los productos de OpenAi pueden incluso utilizar métodos que requieren técnicas de medición y cálculo para explicar las causas de los problemas de la misma manera que lo hacen los humanos.
Aunque existen muchas limitaciones y el diagnóstico no siempre es perfecto, GPT-4 aún puede imitar la forma en que los médicos diagnostican enfermedades.

Dr. Isaac Kohane. Foto: Escuela de Medicina de Harvard.
El Dr. Kohane utilizó un caso real que trató hace varios años para probar la capacidad de GPT-4 para diagnosticar la enfermedad. El paciente es un bebé recién nacido. Proporcionó algunos detalles sobre el bebé, así como información de ultrasonido y niveles hormonales, y los resultados de GPT-4 pudieron diagnosticar con precisión la condición del niño como hiperplasia suprarrenal congénita (CAH).
El Dr. Kohane quedó extremadamente sorprendido porque GPT-4 podía diagnosticar enfermedades con precisión, algo que le llevó muchos años de estudio y trabajo poder hacer.
GPT-4 todavía comete errores
GPT-4 todavía tiene muchas limitaciones y errores básicos como escribir incorrectamente el IMC, resolver incorrectamente Sudokus o resolver ecuaciones incorrectas y errores graves al prescribir o diagnosticar enfermedades.
Cuando el equipo de investigación preguntó sobre este tema, GPT-4 dijo que a veces comete errores o hace suposiciones basadas en datos incompletos o inexactos, pero no tiene la intención de mentir ni engañar a nadie.
GPT-4 dijo: "No tengo la misma capacidad de diagnóstico clínico ni la misma responsabilidad ética que un médico o una enfermera".