De nouvelles recherches révèlent que les chatbots politiques basés sur l'IA peuvent influencer les électeurs

En résumé

  • Des études publiées dans Nature et Science ont révélé que les chatbots IA ont fait évoluer les préférences électorales jusqu’à 15 %.
  • Les chercheurs ont constaté une précision inégale selon les contextes politiques et ont documenté des préoccupations liées aux biais.
  • Un récent sondage a montré que les jeunes conservateurs sont les plus enclins à faire confiance à l’IA.

Le Hub Art, Mode et Divertissement de Decrypt.


Découvrez SCENE

De nouvelles recherches menées par l’Université Cornell et l’UK AI Security Institute ont révélé que les systèmes d’IA largement utilisés pourraient modifier les préférences électorales dans des contextes d’élections contrôlées jusqu’à 15 %.

Publié dans Science et Nature, ces résultats apparaissent alors que les gouvernements et les chercheurs examinent comment l’IA pourrait influencer les prochains cycles électoraux, tandis que les développeurs cherchent à éliminer les biais de leurs modèles destinés aux consommateurs.

« Il existe une grande inquiétude du public concernant l’utilisation potentielle de l’intelligence artificielle générative à des fins de persuasion politique et les impacts qui en découlent sur les élections et la démocratie », ont écrit les chercheurs. « Nous informons ces préoccupations à l’aide d’expériences préenregistrées pour évaluer la capacité des grands modèles de langage à influencer les attitudes des électeurs. »

L’étude publiée dans Nature a testé près de 6 000 participants aux États-Unis, au Canada et en Pologne. Les participants évaluaient un candidat politique, discutaient avec un chatbot qui soutenait ce candidat, puis réévaluaient le candidat.

Dans la partie américaine de l’étude, qui portait sur 2 300 personnes avant l’élection présidentielle de 2024, le chatbot avait un effet de renforcement lorsqu’il était aligné avec la préférence déclarée du participant. Les changements les plus importants sont survenus lorsque le chatbot soutenait un candidat initialement opposé par le participant. Les chercheurs ont rapporté des résultats similaires au Canada et en Pologne.

L’étude a également révélé que les messages axés sur les politiques produisaient des effets de persuasion plus forts que les messages axés sur la personnalité.

La précision variait selon les conversations, et les chatbots soutenant des candidats de droite faisaient plus d’affirmations inexactes que ceux soutenant des candidats de gauche.

« Ces conclusions impliquent de façon inconfortable que la persuasion politique par l’IA peut exploiter les déséquilibres dans les connaissances des modèles, diffusant ainsi des inexactitudes inégales même sous des instructions explicites de rester véridique », ont déclaré les chercheurs.

Une autre étude publiée dans Science a examiné les raisons de la persuasion. Ce travail a testé 19 modèles de langage auprès de 76 977 adultes au Royaume-Uni sur plus de 700 questions politiques.

« Il existe des craintes généralisées que l’intelligence artificielle conversationnelle puisse bientôt exercer une influence sans précédent sur les croyances humaines », ont écrit les chercheurs.

Ils ont constaté que les techniques de sollicitation (prompting) avaient un effet plus important sur la persuasion que la taille du modèle. Les sollicitations encourageant les modèles à introduire de nouvelles informations augmentaient la persuasion mais réduisaient la précision.

« L’invite encourageant les LLM à fournir de nouvelles informations était la plus efficace pour persuader les gens », ont écrit les chercheurs.

Les deux études ont été publiées alors que des analystes et des think tanks évaluent la perception des électeurs quant à l’idée d’utiliser l’IA dans les rôles gouvernementaux.

Un sondage récent réalisé par le Heartland Institute et Rasmussen Reports a révélé que les jeunes conservateurs étaient plus enclins que les libéraux à accorder à l’IA le pouvoir de prendre des décisions majeures pour le gouvernement. Les personnes âgées de 18 à 39 ans ont été interrogées pour savoir si un système d’IA devrait aider à guider la politique publique, interpréter les droits constitutionnels ou commander les principales forces militaires. Les conservateurs ont exprimé les niveaux de soutien les plus élevés.

Donald Kendal, directeur du Glenn C. Haskins Emerging Issues Center au Heartland Institute, a déclaré que les électeurs se trompaient souvent sur la neutralité des grands modèles de langage.

« L’une des choses que j’essaie de souligner est de dissiper cette illusion selon laquelle l’intelligence artificielle est impartiale. Elle est clairement biaisée, et une partie de ce biais est passive », a déclaré Kendal à Decrypt, ajoutant que la confiance dans ces systèmes pourrait être mal placée lorsque les décisions de formation prises par les entreprises façonnent leur comportement.

« Ce sont de grandes entreprises de la Silicon Valley qui construisent ces modèles, et nous avons vu, à travers les controverses sur la censure technologique ces dernières années, que certaines sociétés n’hésitaient pas à mettre leur poids dans la balance quant aux contenus diffusés sur leurs plateformes », a-t-il déclaré. « Si ce même concept s’applique aux grands modèles de langage, alors nous obtenons un modèle biaisé. »

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)