Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
L'entreprise d'IA Anthropic cherche un expert en armements pour empêcher les utilisateurs de « mauvais usages »
La société d’intelligence artificielle Anthropic cherche un expert en armes chimiques pour empêcher les utilisateurs de « mauvaise utilisation »
il y a 2 jours
PartagerEnregistrer
Zoe KleinmanRédactrice en technologie
PartagerEnregistrer
Getty Images
La société américaine d’intelligence artificielle (IA) Anthropic cherche à embaucher un expert en armes chimiques et explosifs à haute capacité pour tenter de prévenir une « mauvaise utilisation catastrophique » de ses logiciels.
En d’autres termes, elle craint que ses outils d’IA ne donnent des instructions pour fabriquer des armes chimiques ou radioactives, et souhaite un expert pour s’assurer que ses garde-fous sont suffisamment robustes.
Dans l’annonce de recrutement sur LinkedIn, la société indique que les candidats doivent avoir au moins cinq ans d’expérience dans la « défense contre les armes chimiques et/ou les explosifs » ainsi que des connaissances sur les « dispositifs de dispersion radiologique » – aussi appelés bombes sale.
La société a indiqué à la BBC que ce rôle était similaire à d’autres postes sensibles qu’elle a déjà créés.
Anthropic n’est pas la seule société d’IA à adopter cette stratégie.
Un poste similaire a été publié par OpenAI, développeur de ChatGPT. Sur son site de carrières, il propose un poste de chercheur en « risques biologiques et chimiques », avec un salaire pouvant atteindre 455 000 dollars (335 000 livres sterling), presque le double de celui offert par Anthropic.
Mais certains experts s’inquiètent des risques liés à cette approche, avertissant qu’elle donne aux outils d’IA des informations sur les armes – même s’ils ont été instruits de ne pas les utiliser.
« Est-il jamais sûr d’utiliser des systèmes d’IA pour gérer des informations sensibles sur les produits chimiques et explosifs, y compris les bombes sale et autres armes radiologiques ? » a déclaré la Dr Stephanie Hare, chercheuse en technologie et co-animatrice de l’émission télévisée de la BBC, AI Decoded.
« Il n’existe aucun traité international ni autre réglementation pour ce type de travail et l’utilisation de l’IA avec ces types d’armes. Tout cela se passe à l’abri des regards. »
L’industrie de l’IA a constamment averti des menaces existentielles potentielles que pose sa technologie, mais aucune tentative n’a été faite pour ralentir ses progrès.
La question devient urgente alors que le gouvernement américain appelle les sociétés d’IA tout en lançant la guerre en Iran et des opérations militaires au Venezuela.
LinkedIn
L’annonce d’emploi de la société américaine d’IA Anthropic recrute un expert en armes chimiques et explosifs à haute capacité pour rejoindre son équipe de politiques
Anthropic poursuit en justice le Département de la Défense des États-Unis, qui l’a désignée comme un risque dans la chaîne d’approvisionnement lorsque la société a insisté sur le fait que ses systèmes ne doivent pas être utilisés dans des armes entièrement autonomes ou pour la surveillance de masse des Américains.
Le co-fondateur d’Anthropic, Dario Amodei, a écrit en février qu’il ne pensait pas que la technologie était encore suffisamment mature et qu’elle ne devrait pas être utilisée à ces fins.
La Maison Blanche a déclaré que l’armée américaine ne serait pas régie par des entreprises technologiques.
L’étiquette de risque place la société américaine dans le même bateau que la société chinoise de télécommunications Huawei, également blacklistée pour des préoccupations de sécurité nationale différentes.
OpenAI a déclaré qu’il était d’accord avec la position d’Anthropic, mais a ensuite négocié son propre contrat avec le gouvernement américain, qui, selon lui, n’a pas encore commencé.
L’assistant IA d’Anthropic, appelé Claude, n’a pas encore été mis hors service, et il est toujours intégré dans des systèmes fournis par Palantir et déployé par les États-Unis dans le cadre de la guerre entre les États-Unis, Israël et l’Iran.
Les grandes entreprises technologiques soutiennent Anthropic dans sa lutte contre l’administration Trump
Anthropic poursuit le gouvernement américain pour le qualifier de risque
Un leader de la sécurité de l’IA affirme que « le monde est en péril » et quitte son poste pour étudier la poésie
Inscrivez-vous à notre newsletter Tech Decoded pour suivre les principales actualités et tendances technologiques mondiales. Pas au Royaume-Uni ? Inscrivez-vous ici.
Intelligence artificielle
Militaire