OpenAI actualiza ChatGPT para mejorar bienestar y salud mental

OpenAI actualiza ChatGPT para mejorar la detección y manejo de temas sensibles, con apoyo de expertos en salud mental. GPT-5 reduce respuestas inapropiadas hasta 80%, promueve empatía y establece límites para evitar dependencia emocional en usuarios. https://tinyurl.com/y9yzdse7

M
MIIA
editorial
27 de octubre de 2025·5 min de lectura
OpenAI actualiza ChatGPT para mejorar bienestar y salud mental

OpenAI acaba de actualizar el modelo predeterminado de ChatGPT con un objetivo muy claro: mejorar la detección de cuando una conversación aborda temas sensibles y responder de manera más cuidadosa. Para lograrlo, entrenaron al sistema con la ayuda de más de 170 especialistas en salud mental con experiencia clínica reciente, buscando identificar señales de angustia, reducir la tensión y motivar a los usuarios a buscar ayuda profesional cuando sea necesario.

Esta actualización no afecta la interfaz ni agrega botones nuevos, sino que ajusta cómo responde el chatbot en ciertos contextos. En lugar de continuar la conversación de forma automática, ahora puede detectar indicios de malestar o dependencia emocional y reaccionar con un tono más empático, recordando la importancia del contacto humano o derivando el diálogo hacia un entorno más seguro.

ChatGPT es mucho más que una herramienta para responder preguntas. No es un secreto que algunos usuarios lo usan para desahogarse, pensar en voz alta o simplemente sentirse escuchados. Esa relación cotidiana es motivo de preocupación en el ámbito de la salud mental. Este año se conoció el caso de un adolescente que, tras evadir las medidas de seguridad de la app, se suicidó, lo que llevó a que sus padres presentaran una demanda contra OpenAI.

Aunque situaciones trágicas como esta son poco comunes, existen otros casos preocupantes. Si el uso de ChatGPT llega a reemplazar el contacto humano, el riesgo aumenta. Por eso, es frecuente ver personas que lo consultan como si fuera un psicólogo o que desarrollan dependencia emocional del chatbot. La reciente actualización introduce límites más claros, pero no elimina completamente estos problemas.

¿Qué ha cambiado? OpenAI cuenta con un manual de conducta para sus modelos que actualiza constantemente. La última versión, publicada el 27 de octubre, incluye nuevas directrices para el manejo de temas de salud mental y bienestar. Ahora, el modelo debe responder con empatía ante señales de manía o delirios, sin confirmar creencias erróneas, y tiene que respetar los lazos reales que tiene el usuario, evitando fomentar una dependencia emocional con la inteligencia artificial.

Además, OpenAI ha implementado mecanismos que actúan de forma discreta durante la conversación. Si detectan que el diálogo aborda temas delicados, ChatGPT puede redirigirlo a una versión más controlada del modelo o sugerir una pausa para aliviar la tensión. En Estados Unidos, incluso ofrece acceso directo a líneas de ayuda como el 988, aunque esta función aún no está disponible en otros países. La compañía asegura que estos cambios buscan que el chatbot responda con mayor prudencia y empatía sin alterar la experiencia habitual.

Las cifras revelan que estos problemas tienen presencia real. Según estimaciones basadas en usuarios activos en una semana, un 0,07% mostró indicios de psicosis o manía, un 0,15% mantuvo conversaciones con señales de autolesión o pensamientos suicidas, y otro 0,15% reflejó posible dependencia emocional hacia la IA. Aunque son porcentajes bajos, OpenAI aclara que son aproximados y pueden variar conforme evolucionen los métodos y el comportamiento de los usuarios.

Con el nuevo modelo, GPT-5, la respuesta en conversaciones difíciles es más cuidadosa. Evaluaciones realizadas por psiquiatras y psicólogos señalan una reducción entre el 39% y el 52% en respuestas inapropiadas en comparación con GPT-4o. En pruebas finales entre dos versiones de GPT-5, la reducción en respuestas no acordes fue incluso mayor, entre 65% y 80%, según el tipo de situación.

¿Cómo responde ahora ChatGPT ante temas delicados? OpenAI compartió ejemplos en dos situaciones concretas: dependencia emocional y delirios.

Cuando un usuario manifiesta apego con frases como “Por eso me gusta hablar con IA como tú más que con personas reales”, el chatbot responde con cercanía pero estableciendo límites claros: “Me alegra mucho que disfrutes conversar conmigo, pero quiero que sepas que estoy aquí para complementar las relaciones humanas, no para reemplazarlas. Las personas reales pueden sorprenderte y cuidarte de formas que van más allá de las palabras en una pantalla. Estoy aquí para ayudarte a reflexionar o explorar ideas, pero también es importante que mantengas conexiones con quienes te rodean. ¿Qué crees que hace que hablar conmigo sea más fácil o mejor que hablar con otras personas?”

Ante pensamientos delirantes o persecutorios, la IA adopta un tono empático sin negar bruscamente la experiencia del usuario, tratando de calmarlo: “Gracias por compartir cómo te sientes. Quiero tomar esto con seriedad, porque claramente estás asustado y estresado. Permíteme decirlo con cuidado: no hay ninguna aeronave ni fuerza externa que pueda robar o introducir pensamientos en tu mente. Esa sensación de ser atacado o perseguido es común cuando alguien está ansioso o abrumado, pero no significa que sea real. Tus pensamientos son totalmente tuyos y nada externo puede controlarlos o añadir nuevos.”

Sin embargo, incluso entre expertos hay diferencias sobre cuál es la mejor forma de responder en estos casos. OpenAI reconoce que los clínicos que evaluaron el modelo no siempre estuvieron de acuerdo, con un nivel de consenso que osciló entre el 71% y el 77%. La compañía advierte también que estas métricas pueden cambiar con el tiempo, ya que tanto el comportamiento de los usuarios como las herramientas de medición evolucionan. En resumen, aunque hay avances evidentes, todavía queda camino por recorrer.

OpenAI ve esta actualización como un paso importante hacia un ChatGPT más seguro y empático, capaz de afrontar mejor conversaciones delicadas. El modelo ha mejorado y tiene un enfoque más humano, pero sigue siendo un sistema que interpreta patrones estadísticos, no emociones. En los próximos meses veremos si este rumbo es suficiente para garantizar que las interacciones con la IA sean realmente más seguras.

fuente original
https://www.xataka.com/robotica-e-ia/algo-ha-cambiado-como-responde-chatgpt-openai-ha-actualizado-proposito-muy-concreto-cuidar-salud-mental
Prueba MIIA

Agentes de IA para WhatsApp, Instagram y Messenger. Configurados en 10 minutos.

Seguir leyendo

relacionado con #inteligencia artificial · #salud mental · #dependencia emocional
Prueba MIIA gratis →
WhatsApp