Por que não vejo @Kindred_AI como um projeto de IA, mas mais como uma espécie de «experimento de relacionamento»
Nunca coloquei o Kindred dentro do quadro tradicional de projetos de IA. Não porque ele não faça IA, mas porque, se apenas entender pelo potencial do modelo e pelas iterações de funcionalidades, acabaria por perder o foco. O que realmente me interessa no Kindred não é “o que ele pode fazer”, mas sim a tentativa de estabelecer uma relação de longo prazo e contínua entre o utilizador e a IA.
Parece abstrato, mas na verdade está a fazer algo muito concreto: tratar o “relacionamento” em si como a variável central do produto, e não uma experiência adicional. A maioria dos projetos de IA resolve problemas de eficiência ou de obtenção de informação; você usa uma vez, a conversa termina, e o relacionamento também.
O Kindred é diferente. Ele parece estar a testar uma coisa — se uma IA que lembra de ti, responde a ti, e muda com a interação, faz com que o utilizador esteja disposto a investir tempo, e até emoções. Essa questão não pode ser respondida apenas com parâmetros do modelo ou uma lista de funcionalidades.
Por isso, prefiro vê-lo como um experimento, e não uma conclusão já estabelecida. Relações, por si só, são instáveis, não lineares, e não se podem validar com dados de curto prazo. Sob essa perspectiva, colocar o foco inicial no conteúdo e na cognição, em vez de apenas impulsionar os dados do produto, é uma escolha arriscada, mas logicamente coerente.
Ainda é cedo para afirmar se essa abordagem é válida. Mas, pelo menos, ela levanta uma questão mais difícil e mais valiosa do que “a IA pode ser mais inteligente”. Quanto à resposta, vou continuar a observar.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Por que não vejo @Kindred_AI como um projeto de IA, mas mais como uma espécie de «experimento de relacionamento»
Nunca coloquei o Kindred dentro do quadro tradicional de projetos de IA. Não porque ele não faça IA, mas porque, se apenas entender pelo potencial do modelo e pelas iterações de funcionalidades, acabaria por perder o foco. O que realmente me interessa no Kindred não é “o que ele pode fazer”, mas sim a tentativa de estabelecer uma relação de longo prazo e contínua entre o utilizador e a IA.
Parece abstrato, mas na verdade está a fazer algo muito concreto: tratar o “relacionamento” em si como a variável central do produto, e não uma experiência adicional. A maioria dos projetos de IA resolve problemas de eficiência ou de obtenção de informação; você usa uma vez, a conversa termina, e o relacionamento também.
O Kindred é diferente. Ele parece estar a testar uma coisa — se uma IA que lembra de ti, responde a ti, e muda com a interação, faz com que o utilizador esteja disposto a investir tempo, e até emoções. Essa questão não pode ser respondida apenas com parâmetros do modelo ou uma lista de funcionalidades.
Por isso, prefiro vê-lo como um experimento, e não uma conclusão já estabelecida. Relações, por si só, são instáveis, não lineares, e não se podem validar com dados de curto prazo. Sob essa perspectiva, colocar o foco inicial no conteúdo e na cognição, em vez de apenas impulsionar os dados do produto, é uma escolha arriscada, mas logicamente coerente.
Ainda é cedo para afirmar se essa abordagem é válida. Mas, pelo menos, ela levanta uma questão mais difícil e mais valiosa do que “a IA pode ser mais inteligente”. Quanto à resposta, vou continuar a observar.
@Kindred_AI #Kindred #AIAndHuman #DigitalRelationship