Um executivo de uma grande empresa de tecnologia acabou de divulgar algo interessante—estão dispostos a travar o desenvolvimento de IA se as coisas ficarem arriscadas. Mustafa Suleyman, que lidera a divisão de IA para consumidores, basicamente disse que não vão continuar avançando com sistemas de IA que possam potencialmente se libertar da supervisão humana. É o tipo de declaração que faz você pensar sobre mecanismos de controlo e onde traçamos a linha entre inovação e segurança. Se isso realmente se traduzir em ação, é outra história, mas pelo menos a conversa está acontecendo em escala.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
16 gostos
Recompensa
16
3
Republicar
Partilhar
Comentar
0/400
ChainBrain
· 15h atrás
A conversa está ótima, mas simplesmente não consigo acreditar nisso.
Ver originalResponder0
LightningHarvester
· 15h atrás
Dizer coisas bonitas, mas na hora crucial ainda não é outra coisa senão passar a responsabilidade? Já estou farto dessas palavras.
Ver originalResponder0
BlockDetective
· 16h atrás
Dizem coisas bonitas, mas vamos conversar mesmo quando pressionar o botão de paragem.
Um executivo de uma grande empresa de tecnologia acabou de divulgar algo interessante—estão dispostos a travar o desenvolvimento de IA se as coisas ficarem arriscadas. Mustafa Suleyman, que lidera a divisão de IA para consumidores, basicamente disse que não vão continuar avançando com sistemas de IA que possam potencialmente se libertar da supervisão humana. É o tipo de declaração que faz você pensar sobre mecanismos de controlo e onde traçamos a linha entre inovação e segurança. Se isso realmente se traduzir em ação, é outra história, mas pelo menos a conversa está acontecendo em escala.