La última versión de ChatGPT es la primera máquina de IA en pasar con éxito un examen de medicina. Logró diagnosticar correctamente una condición de 1 en 100.000.
***
- La versión más moderna de ChatGPT pasó con éxito examen de licencia médica de EEUU
- GPT-4 es el primer modelo de IA que logra hacerlo, superando a sus versiones anteriores
- Mostró capacidad para desempeñar tareas de medicina, incluso mejor que algunos profesionales
- Aún tiene desperfectos, pero muy pronto podría revolucionar la industria de salud
Atentos profesionales de la salud, la inteligencia artificial (IA) podría muy pronto estar lista para quitarles sus empleos.
La última versión de ChatGPT, el chatbot de IA desarrollado por OpenAI, se acaba de convertir en el primer modelo de IA en superar con éxito el examen de medicina de los Estados Unidos. Como si fuera poco, el sistema también ha mostrado un desempeño sorprendentemente idóneo en el entorno médico, logrando diagnósticos acertados igual que un profesional.
Así lo descubrió recientemente un equipo liderado por médico y científico informático de la Universidad de Harvard, Isaac Kohane, mediante una serie de experimentos que buscaban determinar si GPT-4 podría funcionar de forma apropiada en un entorno médico.
Kohane acaba de publicar un libro titulado “La revolución de la IA en la medicina” recopilando los fascinantes descubrimientos de su experimento. La publicación, en su primera edición, fue escrita en coautoría por el periodista independiente Carey Goldberg, y el vicepresidente de investigación de Microsoft, Peter Lee.
Lanzado en marzo de 2023 para suscriptores pagos, GPT-4 es la versión más moderna de ChatGPT, un modelo de IA de procesamiento de lenguaje de última generación que es capaz de generar texto similar al humano.
ChatGPT es mejor que algunos doctores humanos
Para sorpresa de los investigadores, el modelo de IA resultó ser en muchos casos mejor que algunos médicos con licencia. De acuerdo con un reportaje de Insider, que citó los resultados publicados, GPT-4 logró responder correctamente a las preguntas de licencias de exámenes médicos de EE. UU. más del 90 % de las veces.
Los resultados superaron también a versiones anteriores de ChatGPT, que, según experimentos previos separados, habían logrado superar a duras penas el examen de medicina estadounidense. La prueba, conocida por su dificultad, cubre desde conceptos básicos de las ciencias hasta bioética. Usualmente le toma a una persona normal más de 300 horas de preparación para completarlo.
La última versión de ChatGPT, en cambio, fue capaz de aprobarlo sin estudio previo. Vale señalar que este tipo de inteligencia artificial es conocida como modelo de lenguaje grande, o LLM, y están orientados a dar respuestas predictivas de texto. En términos sencillos, el sistema no ‘sabe’, pero puede construir oraciones plausibles mediante el análisis de una gran cantidad de material en línea.
Al ser consultada sobre ese tema, la máquina le dijo a Kohane que está “limitada a patrones en los datos y no implica una verdadera comprensión o intencionalidad“. Incluso con tales limitaciones, el modelo pudo imitar algunas de las labores de un médico.
GPT-4 logró demostrar ser un gran examinador con un éxito impactante, según halló Kohane en sus experimentos. En su libro, detalló que la máquina pudo diagnosticar correctamente una condición de 1 en 100.000 llamada hiperplasia suprarrenal congénita. Lo hizo “tal como lo haría yo con todos mis años de estudio y experiencia“, escribió el científico.
Los autores señalaron además otras labores en las que el sistema de IA se destacó exitosamente, incluido dar sugerencias útiles a los médicos sobre cómo tratar a los pacientes de forma compasiva y clara, y analizar informes o estudios extensos de forma expedita.
La IA aún no es perfecta, pero pronto podría
A pesar de sus asombrosas capacidades, GPT-4 aún no es perfecto y se mostró plagado de imperfecciones en los experimentos. Estos pueden ir desde simples errores administrativos, como tergiversar un índice de masa corporal, hasta errores matemáticos como “resolver” incorrectamente un Sudoku u olvidarse de cuadrar un término en una ecuación, recoge Insider.
Kohane y su equipo de investigadores hallaron en este sentido que, igual a las versiones anteriores de ChatGPT, el modelo más reciente también puede inventar respuestas o desobedecer a las solicitudes. La inteligencia artificial también parece terca para admitir sus errores e incluso admite no tener brújula ética, lo cual puede ser un gran problema dentro del ámbito médico.
El científico se mostró tanto entusiasmado como horrorizado por los hallazgos, según destacó el periódico.
Dijo que encontró “alucinante” que muy pronto “millones de familias” tendrán acceso a esta “experiencia médica” virtual desde la comodidad de sus casas, sin embargo, manifestó preocupaciones sobre la capacidad de que los científicos puedan garantizar o certificar que el consejo de GPT-4 sea seguro y efectivo.
Por ahora, el sistema de IA podría no ser perfecto ni completamente adecuado para reemplazar a un médico, pero sin duda podría ser una herramienta útil para los expertos del área de salud. Especialmente si se utiliza como asistente, con la verificación última de un profesional. Mientras tanto, los científicos creen que ya es hora de al menos comenzar a plantearnos un futuro muy diferente para la medicina.
Tenemos que forzarnos a imaginar un mundo con máquinas cada vez más inteligentes, que eventualmente quizás superen la inteligencia humana en casi todas las dimensiones. Y luego pensar mucho sobre cómo queremos que funcione ese mundo.
Artículo de Hannah Estefanía Pérez / DiarioBitcoin
Imagen de Unsplash
ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.