Un dirigeant d'une grande entreprise technologique vient de faire une déclaration intéressante — ils sont prêts à freiner le développement de l'IA si la situation devient risquée. Mustafa Suleyman, qui dirige la division IA grand public, a déclaré qu'ils ne continueront pas à pousser pour des systèmes d'IA qui pourraient potentiellement se détacher de la supervision humaine. C'est le genre de déclaration qui vous fait réfléchir aux mécanismes de contrôle et à la limite entre innovation et sécurité. Que cela se traduise réellement par une action reste une autre histoire, mais au moins, la conversation a lieu à grande échelle.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
17 J'aime
Récompense
17
3
Reposter
Partager
Commentaire
0/400
ChainBrain
· 12-12 18:17
La phrase est déjà en français.
Voir l'originalRépondre0
LightningHarvester
· 12-12 18:13
C'est joli à dire, mais quand vient le moment crucial, ce n'est pas pour rejeter la faute ? J'en ai assez d'entendre ces discours.
Voir l'originalRépondre0
BlockDetective
· 12-12 17:50
C'est facile à dire, on en reparlera lorsque l'on aura vraiment freiné.
Un dirigeant d'une grande entreprise technologique vient de faire une déclaration intéressante — ils sont prêts à freiner le développement de l'IA si la situation devient risquée. Mustafa Suleyman, qui dirige la division IA grand public, a déclaré qu'ils ne continueront pas à pousser pour des systèmes d'IA qui pourraient potentiellement se détacher de la supervision humaine. C'est le genre de déclaration qui vous fait réfléchir aux mécanismes de contrôle et à la limite entre innovation et sécurité. Que cela se traduise réellement par une action reste une autre histoire, mais au moins, la conversation a lieu à grande échelle.