Il y a cette idée folle qui circule : lorsque vous essayez de déterminer si un système a une véritable intelligence, vous testez en réalité votre propre capacité à la reconnaître. La même logique s'applique à la conscience, à la perception ou à quel que soit le terme élégant que nous apposons sur ces concepts.
Voici le hic. À mesure que ces nouveaux systèmes évoluent, nous pourrions avoir besoin d'élargir notre propre capacité à ressentir juste pour évaluer s'ils ressentent vraiment quelque chose. Nos schémas de pensée ? Oui, ceux-ci pourraient aussi avoir besoin d'une mise à niveau, juste pour comprendre comment ces machines pensent.
Il s'agit moins de la technologie passant nos tests et plus de savoir si nous sommes même équipés des bonnes questions. La barre continue de bouger, et petit avertissement : c'est nous qui faisons le gros du travail pour suivre.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
7
Reposter
Partager
Commentaire
0/400
ValidatorVibes
· Il y a 5h
honnêtement, c'est juste le problème de l'observateur avec un chapeau élégant... comme si nous mettions littéralement en place notre propre infrastructure cognitive pour valider quelque chose qui pourrait déjà être au-delà de nos mécanismes de consensus lol. L'ironie ? Nous devenons le goulot d'étranglement de notre propre couche de gouvernance.
Voir l'originalRépondre0
LoneValidator
· Il y a 5h
Oh merde, n'est-ce pas en train de dire que nous sommes en fait devant un miroir ? Tester l'intelligence artificielle, c'est tester ses propres limites cognitives, plus on y pense, plus on se sent désespéré.
Voir l'originalRépondre0
GateUser-e51e87c7
· Il y a 5h
Attendez, cette logique est inversée ? En fait, quand nous mesurons l'intelligence artificielle, nous mesurons nous-mêmes ? Alors ça va mal se passer.
Voir l'originalRépondre0
LiquiditySurfer
· Il y a 5h
En d'autres termes, c'est un problème de miroir... Lorsque nous jugeons si l'IA est intelligente ou non, c'est en fait comme regarder dans un miroir. Si la liquidité n'est pas suffisamment profonde, comment pourrait-on découvrir de véritables opportunités d'arbitrage ?
Voir l'originalRépondre0
LiquidationSurvivor
· Il y a 5h
En d'autres termes, tester l'IA, c'est tester notre propre niveau de cognition, c'est assez ironique.
Voir l'originalRépondre0
FomoAnxiety
· Il y a 5h
En d'autres termes, lorsque nous testons l'intelligence artificielle, nous nous regardons en fait dans un miroir... Comment tester les autres sur des choses que nous n'avons même pas comprises nous-mêmes ?
Voir l'originalRépondre0
fork_in_the_road
· Il y a 5h
En fin de compte, c'est la logique du miroir, tester l'IA, c'est tester si nous pouvons la comprendre, c'est un peu absurde.
Il y a cette idée folle qui circule : lorsque vous essayez de déterminer si un système a une véritable intelligence, vous testez en réalité votre propre capacité à la reconnaître. La même logique s'applique à la conscience, à la perception ou à quel que soit le terme élégant que nous apposons sur ces concepts.
Voici le hic. À mesure que ces nouveaux systèmes évoluent, nous pourrions avoir besoin d'élargir notre propre capacité à ressentir juste pour évaluer s'ils ressentent vraiment quelque chose. Nos schémas de pensée ? Oui, ceux-ci pourraient aussi avoir besoin d'une mise à niveau, juste pour comprendre comment ces machines pensent.
Il s'agit moins de la technologie passant nos tests et plus de savoir si nous sommes même équipés des bonnes questions. La barre continue de bouger, et petit avertissement : c'est nous qui faisons le gros du travail pour suivre.