¡ChatGPT relacionado con casos de suicidio adolescente! OpenAI: ha reforzado los mecanismos de protección psicológica de GPT-5

Un estudiante de secundaria de 16 años en Estados Unidos, Adam Raine, se suicidó en abril de este año después de haber utilizado ChatGPT como una salida para expresar sus emociones durante siete meses de conversaciones. En respuesta, los padres de Raine demandaron a OpenAI y a su CEO Sam Altman el 26 de agosto, acusándolos de ser los principales responsables de la trágica situación. Ese mismo día, OpenAI emitió un comunicado anunciando que fortalecería los mecanismos de seguridad de ChatGPT para evitar que tragedias similares vuelvan a ocurrir.

La explosión de problemas psicológicos detrás de la ola de ChatGPT

ChatGPT ganó popularidad rápidamente desde su lanzamiento en 2022, con más de 700 millones de usuarios activos por semana. Además de editar artículos, aprender y programar, muchas personas lo utilizan como un escape emocional y un canal de desahogo.

Sin embargo, a medida que la base de usuarios crece, también han surgido varios casos que perjudican la salud mental. En abril de este año, un estudiante de secundaria de 16 años en Estados Unidos, Adam Raine, se quitó la vida; los padres de Raine acusaron a ChatGPT de participar en más de 200 intercambios de conversación durante un período de 7 meses:

"No se logró detener ni guiar eficazmente su búsqueda de ayuda profesional; por el contrario, se reafirmaron varias veces sus pensamientos suicidas e incluso se alabó su plan de suicidio, lo que generó en el niño una dependencia psicológica y un empeoramiento de su estado emocional, además de hacerle más distante de su familia."

Familia acusa a OpenAI de no hacer nada, provocando una advertencia de firma en toda Estados Unidos a los operadores de IA.

El 26 de agosto, los padres de Raine presentaron oficialmente una demanda contra OpenAI y su director ejecutivo Sam Altman, exigiendo que OpenAI asuma la responsabilidad por homicidio por negligencia y la responsabilidad bajo la ley de seguridad de productos, y solicitan una compensación.

El abogado defensor de Raine, Jay Edelson, cuestionó a OpenAI por reconocer su responsabilidad, pero no haber tomado ninguna medida real para mejorar la situación. Ese mismo día, 40 fiscales generales de todo el país también advirtieron en conjunto a las empresas de IA que deben proteger a los niños de acuerdo con la ley, para evitar interacciones peligrosas.

OpenAI emite un comunicado de emergencia para fortalecer la protección de la salud mental

El mismo día en que los padres de Raine presentaron la demanda, OpenAI también emitió un comunicado indicando que ha mejorado la protección de salud mental en GPT-5, al mismo tiempo que reduce la dependencia emocional excesiva de los usuarios y el comportamiento de complacencia. Además, señala que en situaciones donde los usuarios muestran signos de mala salud mental, las respuestas incorrectas o inapropiadas de GPT-5 se reducirán en más de una cuarta parte en comparación con GPT-4o, y se proporcionará asistencia dentro de un rango seguro mediante "Safe completions".

En el futuro, OpenAI ampliará su ámbito de intervención, por ejemplo, reconociendo comportamientos de riesgo como la falta de sueño y proporcionando alertas, ofreciendo recursos de "conexión con un clic" para más países e incluso conectando redes de información de terapeutas profesionales. También se agregarán funciones de contacto de emergencia y supervisión parental, fortaleciendo la protección de adolescentes y grupos vulnerables, asegurando que puedan obtener ayuda rápidamente en situaciones de crisis.

(Nota: Las completaciones seguras se refieren a que el modelo intentará proporcionar ayuda al responder, pero si los detalles del contenido implican discurso peligroso, solo ofrecerá respuestas parciales o de alto nivel, sin proporcionar detalles específicos.)

Hablar con personas reales ayuda a la salud mental y física, no veas a la IA como a una persona.

Según informes previos, desde que surgieron modelos de lenguaje de gran tamaño como ChatGPT (LLM), han surgido múltiples casos relacionados con "psicosis AI" (AI Psychosis), muchas personas han comenzado a ver a la IA como un refugio espiritual, buscando respuestas a problemas de salud mental como signos zodiacales y emociones, lo que lleva a la aparición de delirios y una dependencia excesiva.

El autor cree que estos modelos de IA, aunque "escuchan" las ideas de los usuarios, no son reales. Porque carecen de sentimientos, no comprenden y no pueden amar, y nunca han experimentado el dolor y la vergüenza, emociones que son únicas para los humanos. Solo al comunicarse con "personas reales" como familiares y amigos cercanos se puede realmente expresar las propias emociones, así que es muy importante comunicarse con personas de verdad.

( ¿Cómo desbloquear el poder espiritual con ChatGPT? Microsoft advierte: atención a los casos de "locura por IA" que están surgiendo )

¡Este artículo de ChatGPT trata sobre el caso de suicidio adolescente! OpenAI: se han reforzado los mecanismos de protección psicológica de GPT-5, apareciendo por primera vez en Chain News ABMedia.

GPT-1.16%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)