Je pensais que les LLM se souviendraient du contexte, mais en réalité ils sont plus oublieux qu’un poisson rouge



En développant Copilot, j’ai dialogué avec l’IA jusqu’au N-ième tour, et j’ai fini par craquer :

Le document API que je viens de donner, il dit "je ne l’ai jamais vu"

L’architecture que je viens de valider, au tour suivant elle est renversée

Le même bug corrigé trois fois, parce qu’il ne se souvient pas du tout de la dernière correction

Cet après-midi, j’ai perdu 3 heures à répéter sans cesse "Je ne t’ai pas déjà dit ça ?"

Ce que j’ai compris après coup : l’IA n’est pas un humain, c’est une fonction sans état. Si tu ne lui donnes pas de mémoire, elle est vraiment comme un poisson rouge.

Ma méthode est maladroite mais efficace :

À chaque étape, je fais une « Capture d’état du projet » — progrès actuel, choix technologiques, pièges évités, tout noter. Et à chaque début de conversation, je lui donne cette information.

Depuis, je ne me suis plus énervé en pensant "Comment ça, elle a encore oublié ?"

Conclusion : ne compte pas sur l’IA pour être intelligente. Ton boulot, ce n’est pas de « discuter », c’est de « lui donner de la mémoire ».
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)