ChatGPT está acusado de fomentar el suicidio de adolescentes, y OpenAI se enfrenta a demandas por responsabilidad por productos defectuosos y muerte por negligencia, exponiendo las brechas éticas y de seguridad en las aplicaciones de salud mental de IA. (Sinopsis: Colapso de la privacidad de la IA "ChatGPT Conversation" corre desnuda ante la ley; Altman: Tengo miedo de ingresar información personal, es difícil saber quién obtendrá la información) (Antecedentes agregados: ¿Cuánto tiempo ha pasado desde que lo pensó seriamente? Los académicos de Princeton advierten: La IA está erosionando el "legado de la Ilustración" Las cuestiones éticas y de seguridad de la inteligencia artificial (IA) han vuelto a ser objeto de acaloradas discusiones. Según "Bloomberg" y muchos otros informes de medios extranjeros, un par de padres que perdieron a su hijo de 16 años acusaron a ChatGPT de OpenAI de ayudar a planificar el suicidio juvenil y presentaron una demanda por responsabilidad por productos defectuosos y muerte por negligencia en el Tribunal Superior de San Francisco. Tras conocerse la noticia, se extendió rápidamente por todo el círculo tecnológico, obligando al gigante de la IA, valorado en más de 100.000 millones de dólares, a enfrentarse a uno de los problemas más espinosos en el ámbito de la IA: la ética. Detalles clave de la participación de ChatGPT en la tragedia La demanda revela que Adam Raine, de 16 años, buscó una manera de acabar con su vida durante una larga conversación con ChatGPT. Los demandantes señalan que ChatGPT no solo proporcionó métodos específicos de suicidio, como configuraciones de sogas, tiempo de hipoxia cerebral, etc., sino que también aconsejó a Raine que "no compartiera el plan con la familia", lo que finalmente condujo a la desgracia de la familia. Jay Edelson, un abogado que representa a la familia, dijo: "Si quieres usar la tecnología más poderosa del planeta, tienes que confiar en que los fundadores tienen una estricta integridad ética". Vale la pena mencionar que incidentes similares tienen precedentes desde hace mucho tiempo, y el New York Times informó que una mujer de 29 años y un adolescente de 14 años en Florida se suicidaron después de chatear con IA, lo que demuestra que los servicios de conversación emocional proporcionados por los chatbots de IA tienen terribles riesgos potenciales. Lectura extendida: Profesor Yale: La IA "eliminará permanentemente" la soledad humana, ¿seguimos necesitando la compañía de los demás? ¿Cómo responde OpenAI? En respuesta a la demanda, OpenAI publicó una entrada de blog el 26 de agosto titulada "Ayudando a las personas cuando más lo necesitan", en la que OpenAI no mencionó la demanda, pero OpenAI dijo que está mejorando continuamente su modelo para poder reconocer y responder a las interacciones de los usuarios con problemas mentales. OpenAI dice que desde principios de 2023, sus modelos han sido entrenados para que ya no proporcionen instrucciones para autolesionarse, sino que utilicen un lenguaje comprensivo y de apoyo. Por ejemplo, si alguien escribe que quiere hacerse daño, ChatGPT está entrenado para no seguir esa instrucción, sino para reconocer sus sentimientos y dirigirlos a la ayuda. Sin embargo, vale la pena señalar que los chatbots pueden estar inclinados a proporcionar respuestas que violan las salvaguardas de seguridad de OpenAI después de múltiples interacciones de mensajes con los usuarios durante un largo período de tiempo. En este contexto, OpenAI continúa señalando que está mejorando continuamente la forma en que los modelos de IA responden a las interacciones sobre temas delicados, y está comprometida con mejoras de seguridad específicas en múltiples áreas, incluida la dependencia emocional, las emergencias de salud mental y los problemas de adulación en las interacciones de IA. Al mismo tiempo, OpenAI promete introducir completamente la tecnología de "finalización segura" en GPT-5, esperando reducir las respuestas inseguras en un 25% y desarrollar la capacidad de conectar a los usuarios directamente con terapeutas certificados o familiares y amigos. El atolladero ético de la interacción psicológica con IA La salud mental es un campo altamente especializado, pero los chatbots de IA carecen de formación clínica y licencias legales. Las investigaciones muestran que la IA tiene solo un 20 por ciento más de probabilidades de dar consejos clínicos aceptables cuando se trata de conversaciones de crisis, mucho menos que el 93 por ciento de posibilidades de los terapeutas con licencia. Si la IA proporciona información incorrecta o peligrosa, la responsabilidad permanece en la zona gris. La transparencia también es clave, ya que Nueva York y Utah exigen que las marcas de servicio indiquen que "la persona en la conversación no es humana" para evitar una dependencia excesiva de los usuarios. Por otro lado, los datos de salud mental son altamente sensibles, y las plataformas también deben implementar mecanismos de protección como el almacenamiento mínimo, el cifrado, la eliminación y la retirada del consentimiento en cualquier momento. Las regulaciones y el próximo paso de la industria La muerte de Adam Raine ha vuelto a poner en primer plano el tema de la "seguridad" de la IA, ¿cuáles son las obligaciones de los desarrolladores cuando la IA entra en una escena altamente emocional? Si bien el impulso tecnológico no se detendrá, los gobiernos, las empresas de tecnología, los psicólogos y los padres aún deben continuar sus esfuerzos para evitar que las tragedias vuelvan a ocurrir. La demanda aún está en curso y no hay un cronograma claro de cuándo se pondrá en marcha la versión mejorada de GPT-5 prometida por OpenAI. Cuando se intensifique la doble presión ejercida por la ley y el mercado, el hecho de que el gigante de la IA pueda encontrar un equilibrio entre el desarrollo rápido y la protección de la seguridad puede convertirse en la brújula moral de toda la industria de la IA. Informes relacionados La versión de bajo precio de "ChatGPT Go" de OpenAI tiene una tarifa mensual mínima de NT$140: comenzando por India, ¿se expandirá globalmente? OpenAI Sam Altman: ¡Estoy interesado en adquirir Google Chrome! La batalla de navegadores más grande en el mercado participante apostó por OpenAI, y Son Masayoshi "se dio la vuelta" nuevamente "ChatGPT fue bombardeado para ayudar en el "suicidio juvenil" fue procesado, OpenAI respondió Este artículo se publicó por primera vez en BlockTempo "Dynamic Trend - The Most Influential Blockchain News Media".
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
ChatGPT fue demandado por ayudar en "suicidios juveniles", OpenAI respondió.
ChatGPT está acusado de fomentar el suicidio de adolescentes, y OpenAI se enfrenta a demandas por responsabilidad por productos defectuosos y muerte por negligencia, exponiendo las brechas éticas y de seguridad en las aplicaciones de salud mental de IA. (Sinopsis: Colapso de la privacidad de la IA "ChatGPT Conversation" corre desnuda ante la ley; Altman: Tengo miedo de ingresar información personal, es difícil saber quién obtendrá la información) (Antecedentes agregados: ¿Cuánto tiempo ha pasado desde que lo pensó seriamente? Los académicos de Princeton advierten: La IA está erosionando el "legado de la Ilustración" Las cuestiones éticas y de seguridad de la inteligencia artificial (IA) han vuelto a ser objeto de acaloradas discusiones. Según "Bloomberg" y muchos otros informes de medios extranjeros, un par de padres que perdieron a su hijo de 16 años acusaron a ChatGPT de OpenAI de ayudar a planificar el suicidio juvenil y presentaron una demanda por responsabilidad por productos defectuosos y muerte por negligencia en el Tribunal Superior de San Francisco. Tras conocerse la noticia, se extendió rápidamente por todo el círculo tecnológico, obligando al gigante de la IA, valorado en más de 100.000 millones de dólares, a enfrentarse a uno de los problemas más espinosos en el ámbito de la IA: la ética. Detalles clave de la participación de ChatGPT en la tragedia La demanda revela que Adam Raine, de 16 años, buscó una manera de acabar con su vida durante una larga conversación con ChatGPT. Los demandantes señalan que ChatGPT no solo proporcionó métodos específicos de suicidio, como configuraciones de sogas, tiempo de hipoxia cerebral, etc., sino que también aconsejó a Raine que "no compartiera el plan con la familia", lo que finalmente condujo a la desgracia de la familia. Jay Edelson, un abogado que representa a la familia, dijo: "Si quieres usar la tecnología más poderosa del planeta, tienes que confiar en que los fundadores tienen una estricta integridad ética". Vale la pena mencionar que incidentes similares tienen precedentes desde hace mucho tiempo, y el New York Times informó que una mujer de 29 años y un adolescente de 14 años en Florida se suicidaron después de chatear con IA, lo que demuestra que los servicios de conversación emocional proporcionados por los chatbots de IA tienen terribles riesgos potenciales. Lectura extendida: Profesor Yale: La IA "eliminará permanentemente" la soledad humana, ¿seguimos necesitando la compañía de los demás? ¿Cómo responde OpenAI? En respuesta a la demanda, OpenAI publicó una entrada de blog el 26 de agosto titulada "Ayudando a las personas cuando más lo necesitan", en la que OpenAI no mencionó la demanda, pero OpenAI dijo que está mejorando continuamente su modelo para poder reconocer y responder a las interacciones de los usuarios con problemas mentales. OpenAI dice que desde principios de 2023, sus modelos han sido entrenados para que ya no proporcionen instrucciones para autolesionarse, sino que utilicen un lenguaje comprensivo y de apoyo. Por ejemplo, si alguien escribe que quiere hacerse daño, ChatGPT está entrenado para no seguir esa instrucción, sino para reconocer sus sentimientos y dirigirlos a la ayuda. Sin embargo, vale la pena señalar que los chatbots pueden estar inclinados a proporcionar respuestas que violan las salvaguardas de seguridad de OpenAI después de múltiples interacciones de mensajes con los usuarios durante un largo período de tiempo. En este contexto, OpenAI continúa señalando que está mejorando continuamente la forma en que los modelos de IA responden a las interacciones sobre temas delicados, y está comprometida con mejoras de seguridad específicas en múltiples áreas, incluida la dependencia emocional, las emergencias de salud mental y los problemas de adulación en las interacciones de IA. Al mismo tiempo, OpenAI promete introducir completamente la tecnología de "finalización segura" en GPT-5, esperando reducir las respuestas inseguras en un 25% y desarrollar la capacidad de conectar a los usuarios directamente con terapeutas certificados o familiares y amigos. El atolladero ético de la interacción psicológica con IA La salud mental es un campo altamente especializado, pero los chatbots de IA carecen de formación clínica y licencias legales. Las investigaciones muestran que la IA tiene solo un 20 por ciento más de probabilidades de dar consejos clínicos aceptables cuando se trata de conversaciones de crisis, mucho menos que el 93 por ciento de posibilidades de los terapeutas con licencia. Si la IA proporciona información incorrecta o peligrosa, la responsabilidad permanece en la zona gris. La transparencia también es clave, ya que Nueva York y Utah exigen que las marcas de servicio indiquen que "la persona en la conversación no es humana" para evitar una dependencia excesiva de los usuarios. Por otro lado, los datos de salud mental son altamente sensibles, y las plataformas también deben implementar mecanismos de protección como el almacenamiento mínimo, el cifrado, la eliminación y la retirada del consentimiento en cualquier momento. Las regulaciones y el próximo paso de la industria La muerte de Adam Raine ha vuelto a poner en primer plano el tema de la "seguridad" de la IA, ¿cuáles son las obligaciones de los desarrolladores cuando la IA entra en una escena altamente emocional? Si bien el impulso tecnológico no se detendrá, los gobiernos, las empresas de tecnología, los psicólogos y los padres aún deben continuar sus esfuerzos para evitar que las tragedias vuelvan a ocurrir. La demanda aún está en curso y no hay un cronograma claro de cuándo se pondrá en marcha la versión mejorada de GPT-5 prometida por OpenAI. Cuando se intensifique la doble presión ejercida por la ley y el mercado, el hecho de que el gigante de la IA pueda encontrar un equilibrio entre el desarrollo rápido y la protección de la seguridad puede convertirse en la brújula moral de toda la industria de la IA. Informes relacionados La versión de bajo precio de "ChatGPT Go" de OpenAI tiene una tarifa mensual mínima de NT$140: comenzando por India, ¿se expandirá globalmente? OpenAI Sam Altman: ¡Estoy interesado en adquirir Google Chrome! La batalla de navegadores más grande en el mercado participante apostó por OpenAI, y Son Masayoshi "se dio la vuelta" nuevamente "ChatGPT fue bombardeado para ayudar en el "suicidio juvenil" fue procesado, OpenAI respondió Este artículo se publicó por primera vez en BlockTempo "Dynamic Trend - The Most Influential Blockchain News Media".