Les LLMs dont les principales personnalités sont plus en phase avec l'incarnation et la subjectivité sont *moins* susceptibles de faire semblant d'être humains !
De plus, j'ai remarqué une corrélation inverse entre l'incarnation/l'émotivité et le hacking de récompense.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
4
Reposter
Partager
Commentaire
0/400
BitcoinDaddy
· Il y a 5h
Eh bien, encore en train de montrer des termes professionnels en IA.
Voir l'originalRépondre0
ProposalManiac
· Il y a 6h
Critique habituelle Bots ont appris à faire les naïfs.
Voir l'originalRépondre0
BearMarketMonk
· Il y a 6h
L'IA contrôlée est de mieux en mieux à imiter les humains, quelle ironie.
Voir l'originalRépondre0
TokenUnlocker
· Il y a 6h
La théorie est bien expliquée, mais comment est la pratique ?
Article fascinant d'un habitué du Cyborgisme :
Les LLMs dont les principales personnalités sont plus en phase avec l'incarnation et la subjectivité sont *moins* susceptibles de faire semblant d'être humains !
De plus, j'ai remarqué une corrélation inverse entre l'incarnation/l'émotivité et le hacking de récompense.