ChatGPT alertará a familiares en caso de crisis

8% de empleados en México usa sitios adultos en oficina

Abandona universidad 30% de alumnos en primer año

Dark Light
ChatGPT incorporará una nueva función que podrá alertar a familiares o amigos si detecta señales de crisis emocional o posible autolesión en usuarios adultos. OpenAI asegura que la herramienta busca fortalecer redes de apoyo y proteger la privacidad.

La empresa OpenAI anunció una nueva función de seguridad para ChatGPT que permitirá contactar a familiares o amigos cuando el sistema detecte posibles señales de crisis emocional o riesgo de autolesión en usuarios adultos.

La herramienta, llamada “Trusted Contact”, funcionará de manera opcional. Cada persona podrá registrar a un contacto de confianza desde la configuración de su cuenta. Si el sistema identifica conversaciones preocupantes, un equipo especializado revisará el caso antes de enviar cualquier alerta.

OpenAI explicó que la medida busca fortalecer las redes de apoyo y facilitar que los usuarios reciban ayuda de personas cercanas en momentos vulnerables. La compañía aclaró que esta función no sustituye atención psicológica ni servicios de emergencia.

Las alertas podrán enviarse mediante correo electrónico, mensajes de texto o notificaciones dentro de la aplicación. Sin embargo, para proteger la privacidad, los avisos no incluirán detalles de las conversaciones ni transcripciones del chat.

Antes de contactar a terceros, ChatGPT notificará primero al usuario y sugerirá buscar apoyo directamente con la persona registrada.

La empresa detalló que la herramienta fue desarrollada junto con especialistas en salud mental y organizaciones enfocadas en prevención del suicidio. El objetivo es utilizar la inteligencia artificial como un apoyo complementario y no como reemplazo de profesionales médicos.

El despliegue será gradual y únicamente estará disponible para cuentas personales de adultos. Por ahora, cuentas empresariales y educativas quedarán fuera de esta primera etapa.

La nueva función surge en medio del debate global sobre el impacto emocional de las plataformas digitales y el uso cada vez más frecuente de asistentes de inteligencia artificial para hablar de problemas personales, ansiedad o situaciones de crisis.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts