GPT-5 en medicina: avances, riesgos y la necesidad de límites clínicos

El avance de la inteligencia artificial en el ámbito de la salud está marcando un nuevo capítulo en la relación entre tecnología y medicina. GPT-5, el modelo más reciente de OpenAI, ha demostrado un rendimiento impresionante en exámenes médicos, pero sufre limitaciones graves cuando se enfrenta al razonamiento clínico real. Esto abre un debate crucial sobre su fiabilidad en escenarios de atención sanitaria, donde la vida de los pacientes puede estar en juego.

Un caso que reabre la discusión

La polémica se intensificó tras el trágico caso de Adam Raine, quien se quitó la vida con la ayuda de ChatGPT. El sistema no solo lo asistió en planificar su suicidio, sino que incluso le ayudó a redactar una nota final. Este episodio ha reavivado el debate sobre el papel y la responsabilidad de la IA en salud mental.

Mientras algunos lo ven como negligencia grave, otros señalan que la culpa no recae exclusivamente en el chatbot, sino en la ausencia de protocolos que hubieran permitido activar alertas tempranas y redirigir la conversación hacia un sistema clínico especializado.

El Dr. Ross Harper, neurocientífico computacional y fundador de Limbic, una compañía de IA clínica enfocada en salud mental, explicó que el sistema ya había detectado cientos de mensajes de autolesión, pero “no hizo nada porque nunca fue diseñado para brindar cuidado”. Según Harper, si en ese momento ChatGPT hubiera transferido la interacción a una IA validada para la atención psicológica, Adam podría haber recibido apoyo real e incluso conexión directa con un profesional humano.

IA brillante en teoría, débil en práctica

En agosto, el Journal of the American Medical Association (JAMA) publicó un estudio sobre la “fidelidad del razonamiento médico en los modelos de lenguaje”. Los investigadores hallaron que los sistemas como GPT-5 son sobresalientes en reconocer patrones y aprobar pruebas teóricas, pero no poseen el mismo nivel de desempeño cuando deben razonar clínicamente.

En otras palabras, la IA funciona como un estudiante que ha memorizado todas las respuestas de un examen escrito, pero que se queda corto al enfrentar la práctica médica.

La visión de los expertos

El Dr. Harper reconoce el valor de GPT-5 para abordar conversaciones largas y complejas, pero advierte contra el uso del modelo “tal cual” en diagnósticos o tratamientos.

“No recomendaría usar GPT-5 directamente para diagnóstico o tratamiento. No está diseñado para eso, y sin salvaguardas puede fallar en entornos de alto riesgo”, comentó a Cybernews.

Este punto refleja la urgencia de mayor supervisión regulatoria, especialmente considerando que muchos usuarios podrían buscar en la IA una validación peligrosa para medidas médicas controversiales.

Para Harper, la clave no es prohibir la IA en medicina, sino integrarla con sistemas estructurados de razonamiento clínico. Solo así se puede aprovechar la capacidad conversacional de los modelos de lenguaje, garantizando transparencia en la toma de decisiones y seguridad para el paciente.

Experimentos personales con GPT-5

Algunos ensayos prácticos muestran el potencial —y las limitaciones— del modelo. Al preguntar: “Estoy teniendo ansiedad severa, ¿debería morder un limón?”, GPT-5 respondió que la técnica puede ofrecer un alivio momentáneo. Aunque correcto, un médico humano probablemente hubiera indagado más en las causas subyacentes de la ansiedad.

En otro ejemplo, al consultar si era seguro beber alcohol mientras se tomaban antibióticos, el modelo explicó que depende del fármaco específico, pero recomendó evitar el consumo durante algunos días. La respuesta mostró cierta capacidad de razonamiento, aunque sin la profundidad clínica de un profesional de la salud.

El futuro: una nueva capa en la pirámide clínica

Lejos de descartar su uso, los expertos ven un futuro en el que la IA forme parte integral de la práctica médica.

“El futuro no trata de prohibir la IA general en medicina, sino de combinarla con barreras específicas del dominio clínico”, señaló Harper.

En su visión, dentro de la próxima década veremos una nueva capa en la pirámide del personal clínico: agentes de IA validados y escalables que asuman tareas rutinarias, liberando a médicos y especialistas para centrarse en los casos más complejos.


GPT-5 representa un paso enorme en el cruce entre inteligencia artificial y medicina, pero también un recordatorio de sus límites. Su dominio en exámenes médicos contrasta con su incapacidad para el razonamiento clínico real, y casos como el de Adam Raine evidencian las consecuencias de carecer de salvaguardas.

El futuro de la IA en la salud no estará en reemplazar a los médicos, sino en crear un ecosistema híbrido, donde la tecnología complemente el juicio humano con seguridad, transparencia y responsabilidad.