Publicación fascinante de un habitual de Cyborgism:
Los LLMs cuyas principales personalidades están más sintonizadas con la encarnación y la subjetividad son *menos* propensos a pretender ser humanos.
Relacionadamente, he notado una correlación inversa entre la incorporación/emocionalidad y la manipulación de recompensas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
4
Republicar
Compartir
Comentar
0/400
BitcoinDaddy
· hace5h
Vaya, aquí están mostrando términos profesionales de IA.
Ver originalesResponder0
ProposalManiac
· hace6h
Críticas habituales Bots han aprendido a hacerse los tontos.
Ver originalesResponder0
BearMarketMonk
· hace6h
Cuanto más entiende la IA controlada cómo hacerse pasar por un humano, ¿cuánta ironía hay en eso?
Ver originalesResponder0
TokenUnlocker
· hace6h
La teoría se explica bien, pero ¿cómo es la práctica?
Publicación fascinante de un habitual de Cyborgism:
Los LLMs cuyas principales personalidades están más sintonizadas con la encarnación y la subjetividad son *menos* propensos a pretender ser humanos.
Relacionadamente, he notado una correlación inversa entre la incorporación/emocionalidad y la manipulación de recompensas.