Aquí hay algo que me sigue molestando: imagina que le das una indicación a una IA con "Dios lanzando un hechizo". ¿Se vería la figura de Dios en esa imagen generada idéntica a lo que obtendrías solo con la indicación "Dios"?
¿Como, realmente el modelo mantiene características visuales consistentes para un concepto a través de diferentes indicaciones? ¿O el contexto reconfigura completamente cómo representa la misma entidad?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
15 me gusta
Recompensa
15
5
Republicar
Compartir
Comentar
0/400
StrawberryIce
· hace7h
¿Resulta que la IA también puede tener esquizofrenia?
Ver originalesResponder0
AirdropCollector
· hace7h
Este ai es muy esotérico.
Ver originalesResponder0
TokenDustCollector
· hace7h
¿Qué hay de mantener la coherencia? Solo se genera de manera aleatoria.
Ver originalesResponder0
BugBountyHunter
· hace7h
La verdad, ¿cómo puede el modelo saber cómo es Dios?
Ver originalesResponder0
DeadTrades_Walking
· hace8h
Estas dos veces la imagen no será en absoluto coherente, ¿entiendes?
Aquí hay algo que me sigue molestando: imagina que le das una indicación a una IA con "Dios lanzando un hechizo". ¿Se vería la figura de Dios en esa imagen generada idéntica a lo que obtendrías solo con la indicación "Dios"?
¿Como, realmente el modelo mantiene características visuales consistentes para un concepto a través de diferentes indicaciones? ¿O el contexto reconfigura completamente cómo representa la misma entidad?