L'entreprise d'IA Anthropic cherche un expert en armements pour empêcher les utilisateurs de « mauvais usages »

La société d’intelligence artificielle Anthropic cherche un expert en armes chimiques pour empêcher les utilisateurs de « mauvaise utilisation »

il y a 2 jours

PartagerEnregistrer

Zoe KleinmanRédactrice en technologie

PartagerEnregistrer

Getty Images

La société américaine d’intelligence artificielle (IA) Anthropic cherche à embaucher un expert en armes chimiques et explosifs à haute capacité pour tenter de prévenir une « mauvaise utilisation catastrophique » de ses logiciels.

En d’autres termes, elle craint que ses outils d’IA ne donnent des instructions pour fabriquer des armes chimiques ou radioactives, et souhaite un expert pour s’assurer que ses garde-fous sont suffisamment robustes.

Dans l’annonce de recrutement sur LinkedIn, la société indique que les candidats doivent avoir au moins cinq ans d’expérience dans la « défense contre les armes chimiques et/ou les explosifs » ainsi que des connaissances sur les « dispositifs de dispersion radiologique » – aussi appelés bombes sale.

La société a indiqué à la BBC que ce rôle était similaire à d’autres postes sensibles qu’elle a déjà créés.

Anthropic n’est pas la seule société d’IA à adopter cette stratégie.

Un poste similaire a été publié par OpenAI, développeur de ChatGPT. Sur son site de carrières, il propose un poste de chercheur en « risques biologiques et chimiques », avec un salaire pouvant atteindre 455 000 dollars (335 000 livres sterling), presque le double de celui offert par Anthropic.

Mais certains experts s’inquiètent des risques liés à cette approche, avertissant qu’elle donne aux outils d’IA des informations sur les armes – même s’ils ont été instruits de ne pas les utiliser.

« Est-il jamais sûr d’utiliser des systèmes d’IA pour gérer des informations sensibles sur les produits chimiques et explosifs, y compris les bombes sale et autres armes radiologiques ? » a déclaré la Dr Stephanie Hare, chercheuse en technologie et co-animatrice de l’émission télévisée de la BBC, AI Decoded.

« Il n’existe aucun traité international ni autre réglementation pour ce type de travail et l’utilisation de l’IA avec ces types d’armes. Tout cela se passe à l’abri des regards. »

L’industrie de l’IA a constamment averti des menaces existentielles potentielles que pose sa technologie, mais aucune tentative n’a été faite pour ralentir ses progrès.

La question devient urgente alors que le gouvernement américain appelle les sociétés d’IA tout en lançant la guerre en Iran et des opérations militaires au Venezuela.

LinkedIn

L’annonce d’emploi de la société américaine d’IA Anthropic recrute un expert en armes chimiques et explosifs à haute capacité pour rejoindre son équipe de politiques

Anthropic poursuit en justice le Département de la Défense des États-Unis, qui l’a désignée comme un risque dans la chaîne d’approvisionnement lorsque la société a insisté sur le fait que ses systèmes ne doivent pas être utilisés dans des armes entièrement autonomes ou pour la surveillance de masse des Américains.

Le co-fondateur d’Anthropic, Dario Amodei, a écrit en février qu’il ne pensait pas que la technologie était encore suffisamment mature et qu’elle ne devrait pas être utilisée à ces fins.

La Maison Blanche a déclaré que l’armée américaine ne serait pas régie par des entreprises technologiques.

L’étiquette de risque place la société américaine dans le même bateau que la société chinoise de télécommunications Huawei, également blacklistée pour des préoccupations de sécurité nationale différentes.

OpenAI a déclaré qu’il était d’accord avec la position d’Anthropic, mais a ensuite négocié son propre contrat avec le gouvernement américain, qui, selon lui, n’a pas encore commencé.

L’assistant IA d’Anthropic, appelé Claude, n’a pas encore été mis hors service, et il est toujours intégré dans des systèmes fournis par Palantir et déployé par les États-Unis dans le cadre de la guerre entre les États-Unis, Israël et l’Iran.

Les grandes entreprises technologiques soutiennent Anthropic dans sa lutte contre l’administration Trump

Anthropic poursuit le gouvernement américain pour le qualifier de risque

Un leader de la sécurité de l’IA affirme que « le monde est en péril » et quitte son poste pour étudier la poésie

Inscrivez-vous à notre newsletter Tech Decoded pour suivre les principales actualités et tendances technologiques mondiales. Pas au Royaume-Uni ? Inscrivez-vous ici.

Intelligence artificielle

Militaire

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler