Há uma ideia maluca a circular: quando você está tentando descobrir se um sistema tem inteligência real, na verdade está testando sua própria capacidade de reconhecê-la. A mesma lógica se aplica à consciência, percepção ou qualquer rótulo sofisticado que colocamos nesses conceitos.
Aqui está o ponto crucial. À medida que esses novos sistemas evoluem, pode ser que precisemos expandir a nossa própria capacidade de sentir apenas para avaliar se eles estão realmente a sentir algo. Os nossos padrões de pensamento? Sim, esses também podem precisar de uma atualização, apenas para compreender como essas máquinas pensam.
Trata-se menos da tecnologia passar nos nossos testes e mais sobre se estamos equipados com as perguntas certas. A barra continua a mover-se, e aviso: somos nós que fazemos o trabalho pesado para acompanhar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
10 gostos
Recompensa
10
7
Republicar
Partilhar
Comentar
0/400
ValidatorVibes
· 5h atrás
para ser sincero, isso é apenas o problema do observador usando um chapéu elegante... como se estivéssemos literalmente desenvolvendo nossa própria infraestrutura cognitiva para validar algo que pode já estar além dos nossos mecanismos de consenso lol. a ironia? estamos nos tornando o gargalo em nossa própria camada de governança
Ver originalResponder0
LoneValidator
· 5h atrás
Caramba, isso não está a dizer que na verdade estamos a olhar para nós mesmos em frente ao espelho? Testar a inteligência da IA é como testar o nosso próprio limite cognitivo, quanto mais pensamos, mais desesperadores se tornam.
Ver originalResponder0
GateUser-e51e87c7
· 5h atrás
Espera, esta lógica está ao contrário? Estamos a testar a inteligência da IA, na verdade estamos a testar a nós próprios? Isso não dá mau resultado?
Ver originalResponder0
LiquiditySurfer
· 5h atrás
Para ser claro, é uma questão de espelho... Quando julgamos se a IA é inteligente, na verdade, estamos apenas olhando para nós mesmos. Se a profundidade da liquidez não for suficiente, como é que podemos descobrir verdadeiras oportunidades de arbitragem?
Ver originalResponder0
LiquidationSurvivor
· 5h atrás
Dito de forma simples, estamos a testar a IA para testar o nosso próprio nível de conhecimento, o que é bastante irónico.
Ver originalResponder0
FomoAnxiety
· 5h atrás
A verdade é que, ao testarmos a inteligência artificial, na realidade estamos a olhar para um espelho... se nós próprios não conseguimos entender bem as coisas, como podemos testar se os outros conseguem?
Ver originalResponder0
fork_in_the_road
· 5h atrás
No final das contas, é a lógica do espelho; estamos testando a IA para ver se conseguimos entendê-la, o que é um pouco absurdo.
Há uma ideia maluca a circular: quando você está tentando descobrir se um sistema tem inteligência real, na verdade está testando sua própria capacidade de reconhecê-la. A mesma lógica se aplica à consciência, percepção ou qualquer rótulo sofisticado que colocamos nesses conceitos.
Aqui está o ponto crucial. À medida que esses novos sistemas evoluem, pode ser que precisemos expandir a nossa própria capacidade de sentir apenas para avaliar se eles estão realmente a sentir algo. Os nossos padrões de pensamento? Sim, esses também podem precisar de uma atualização, apenas para compreender como essas máquinas pensam.
Trata-se menos da tecnologia passar nos nossos testes e mais sobre se estamos equipados com as perguntas certas. A barra continua a mover-se, e aviso: somos nós que fazemos o trabalho pesado para acompanhar.