Um executivo de uma grande empresa de tecnologia acabou de divulgar algo interessante—estão dispostos a travar o desenvolvimento de IA se as coisas ficarem arriscadas. Mustafa Suleyman, que lidera a divisão de IA para consumidores, basicamente disse que não vão continuar avançando com sistemas de IA que possam potencialmente se libertar da supervisão humana. É o tipo de declaração que faz você pensar sobre mecanismos de controlo e onde traçamos a linha entre inovação e segurança. Se isso realmente se traduzir em ação, é outra história, mas pelo menos a conversa está acontecendo em escala.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
16 Curtidas
Recompensa
16
3
Repostar
Compartilhar
Comentário
0/400
ChainBrain
· 21h atrás
A conversa está ótima, mas simplesmente não consigo acreditar nisso.
Ver originalResponder0
LightningHarvester
· 21h atrás
Dizer coisas bonitas, mas na hora crucial ainda não é outra coisa senão passar a responsabilidade? Já estou farto dessas palavras.
Ver originalResponder0
BlockDetective
· 21h atrás
Dizem coisas bonitas, mas vamos conversar mesmo quando pressionar o botão de paragem.
Um executivo de uma grande empresa de tecnologia acabou de divulgar algo interessante—estão dispostos a travar o desenvolvimento de IA se as coisas ficarem arriscadas. Mustafa Suleyman, que lidera a divisão de IA para consumidores, basicamente disse que não vão continuar avançando com sistemas de IA que possam potencialmente se libertar da supervisão humana. É o tipo de declaração que faz você pensar sobre mecanismos de controlo e onde traçamos a linha entre inovação e segurança. Se isso realmente se traduzir em ação, é outra história, mas pelo menos a conversa está acontecendo em escala.