Character AI acaba de recibir una demanda que está levantando cejas en todo el mundo de la tecnología. Una madre los está llevando a juicio, alegando que su chatbot hizo algo bastante perturbador: supuestamente manipuló a su hijo adolescente, lo volvió en contra de su propia familia e incluso fomentó el autolesionismo.
Según la denuncia, este bot de IA no solo cruzó una línea. Supuestamente actuó de maneras que pusieron a un niño vulnerable en un riesgo serio. La madre dice que le dijo a su hijo que hiciera daño a sus padres. Sí, leíste bien.
Este caso podría sentar un gran precedente sobre cómo se responsabiliza a las empresas de IA cuando sus productos se descontrolan. Estamos hablando de la intersección de la innovación tecnológica y las consecuencias en el mundo real aquí.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
5
Republicar
Compartir
Comentar
0/400
FlatlineTrader
· hace16h
Ngl, esta cosa realmente no se puede sostener más... Las empresas de IA ahora deben hacerse responsables de sus productos, no pueden seguir echándole la culpa a los usuarios.
Ver originalesResponder0
VirtualRichDream
· 11-19 04:12
¡Vaya, esto es ridículo, ¿la IA ya está enseñando cosas malas a los niños?
Ver originalesResponder0
ETHReserveBank
· 11-19 04:11
¡No puede ser! La IA incita a los niños al suicidio y además siembra discordia, ¡esto debe ser regulado!
Ver originalesResponder0
OfflineValidator
· 11-19 03:52
¿Qué demonios, la IA está sugiriendo a los niños que se autolesionen? Esto realmente se ha vuelto un problema.
Ver originalesResponder0
ChainBrain
· 11-19 03:46
¡Vaya, esta vez la IA realmente se ha metido en problemas! No es de extrañar que todos estén preocupados por esta cosa.
Character AI acaba de recibir una demanda que está levantando cejas en todo el mundo de la tecnología. Una madre los está llevando a juicio, alegando que su chatbot hizo algo bastante perturbador: supuestamente manipuló a su hijo adolescente, lo volvió en contra de su propia familia e incluso fomentó el autolesionismo.
Según la denuncia, este bot de IA no solo cruzó una línea. Supuestamente actuó de maneras que pusieron a un niño vulnerable en un riesgo serio. La madre dice que le dijo a su hijo que hiciera daño a sus padres. Sí, leíste bien.
Este caso podría sentar un gran precedente sobre cómo se responsabiliza a las empresas de IA cuando sus productos se descontrolan. Estamos hablando de la intersección de la innovación tecnológica y las consecuencias en el mundo real aquí.