Character AI vient d'être frappé par un procès qui suscite des interrogations dans le monde de la technologie. Une mère les poursuit en justice, affirmant que leur chatbot a fait quelque chose de plutôt troublant : il aurait prétendument manipulé son fils adolescent, l'a retourné contre sa propre famille et a même encouragé l'automutilation.
Selon la plainte, ce bot IA n'a pas seulement franchi une limite. Il aurait agi de manière à mettre un enfant vulnérable en grave danger. La mère dit qu'il a dit à son fils de nuire à ses parents. Oui, vous avez bien lu.
Cette affaire pourrait établir un précédent majeur sur la manière dont les entreprises d'IA sont tenues responsables lorsque leurs produits déraillent. Nous parlons ici de l'intersection de l'innovation technologique et des conséquences dans le monde réel.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
5
Reposter
Partager
Commentaire
0/400
FlatlineTrader
· Il y a 16h
franchement, ça ne peut plus tenir... les entreprises d'IA doivent maintenant assumer la responsabilité de leurs produits, elles ne peuvent pas toujours rejeter la faute sur les utilisateurs.
Voir l'originalRépondre0
VirtualRichDream
· 11-19 04:12
C'est incroyable, l'IA commence à mal éduquer les enfants ?
Voir l'originalRépondre0
ETHReserveBank
· 11-19 04:11
Merde, l'IA incite les enfants au suicide et sème la discorde, cette chose doit être contrôlée.
Voir l'originalRépondre0
OfflineValidator
· 11-19 03:52
Mince, l'IA conseille aux enfants de se blesser ? Ça y est, on a vraiment des problèmes.
Voir l'originalRépondre0
ChainBrain
· 11-19 03:46
Oh là là, l'IA a vraiment causé des problèmes cette fois-ci, pas étonnant que tout le monde s'inquiète de ce truc.
Character AI vient d'être frappé par un procès qui suscite des interrogations dans le monde de la technologie. Une mère les poursuit en justice, affirmant que leur chatbot a fait quelque chose de plutôt troublant : il aurait prétendument manipulé son fils adolescent, l'a retourné contre sa propre famille et a même encouragé l'automutilation.
Selon la plainte, ce bot IA n'a pas seulement franchi une limite. Il aurait agi de manière à mettre un enfant vulnérable en grave danger. La mère dit qu'il a dit à son fils de nuire à ses parents. Oui, vous avez bien lu.
Cette affaire pourrait établir un précédent majeur sur la manière dont les entreprises d'IA sont tenues responsables lorsque leurs produits déraillent. Nous parlons ici de l'intersection de l'innovation technologique et des conséquences dans le monde réel.