Aqui está a questão sobre a IA—alimentá-la com a sua própria saída por tempo suficiente e tudo começa a descer a ladeira. Cada geração fica mais confusa, a distorção acumula-se, e eventualmente você tem um modelo que é basicamente inútil.
Então, como quebrar esse ciclo? Mantendo os humanos no loop. Essa é a ideia central: revisores humanos tornam-se a espinha dorsal de cada iteração de treino, não uma reflexão tardia. Quando você ancorar o desenvolvimento do modelo na julgamento humano real em vez de deixar os algoritmos comerem a própria cauda, você realmente mantém a qualidade.
Sistemas distribuídos funcionando dessa forma? É aí que fica interessante. Você não está centralizado em um ponto cego, e não está preso assistindo a IA lentamente se envenenar. Em vez disso, você tem uma abordagem de rede que permanece fundamentada na supervisão humana real.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
17 Curtidas
Recompensa
17
5
Repostar
Compartilhar
Comentário
0/400
CryptoFortuneTeller
· 01-09 09:18
Esta lógica na verdade já devia estar amplamente difundida, o ciclo de autoaprendizagem do modelo é na verdade uma autocontaminação... já devia haver alguém a esclarecer essa questão
Ver originalResponder0
GweiWatcher
· 01-09 09:01
O símbolo do cão que morde a própria cauda é genial, mas, para ser honesto, esse sistema de revisão manual consegue escalar...
Ver originalResponder0
TxFailed
· 01-06 13:51
ngl isto é apenas "lixo entra, lixo sai" com passos extras, mas sim, o ângulo do humano no ciclo realmente resolve algo de verdade aqui. Aprendi isso da maneira difícil ao ver as saídas do modelo se deteriorarem ao longo de três ciclos de treino lol
Ver originalResponder0
pumpamentalist
· 01-06 13:43
Não há erro nisso, se a IA come a sua própria merda, cedo ou tarde vai ter diarreia. Ainda assim, é preciso que as pessoas fiscalizem, senão os modelos vão ficar cada vez piores.
Ver originalResponder0
SelfRugger
· 01-06 13:34
Não há erro, a IA comer a sua própria merda vai acabar por falir cedo ou tarde. Ainda é preciso confiar nas pessoas para supervisionar
Aqui está a questão sobre a IA—alimentá-la com a sua própria saída por tempo suficiente e tudo começa a descer a ladeira. Cada geração fica mais confusa, a distorção acumula-se, e eventualmente você tem um modelo que é basicamente inútil.
Então, como quebrar esse ciclo? Mantendo os humanos no loop. Essa é a ideia central: revisores humanos tornam-se a espinha dorsal de cada iteração de treino, não uma reflexão tardia. Quando você ancorar o desenvolvimento do modelo na julgamento humano real em vez de deixar os algoritmos comerem a própria cauda, você realmente mantém a qualidade.
Sistemas distribuídos funcionando dessa forma? É aí que fica interessante. Você não está centralizado em um ponto cego, e não está preso assistindo a IA lentamente se envenenar. Em vez disso, você tem uma abordagem de rede que permanece fundamentada na supervisão humana real.