El panorama de la inteligencia artificial experimentó cambios sísmicos a lo largo de 2025, con transformaciones tan fundamentales que redefinieron nuestra forma de pensar sobre aprendizaje automático, desarrollo de software e interacción humano-computadora. Andrej Karpathy, un destacado investigador y tecnólogo en IA, identificó seis grandes cambios evolutivos que han alterado profundamente el campo. No son mejoras incrementales—representan momentos de avance que desafían suposiciones existentes y abren posibilidades completamente nuevas.
La aparición del Aprendizaje de Recompensas Verificables: Más allá de la Retroalimentación Humana
Durante años, la pila de entrenamiento de producción para modelos de lenguaje grande seguía un proceso predecible de tres etapas: preentrenamiento (como GPT-2 y GPT-3 desde 2020), ajuste fino supervisado (InstructGPT en 2022) y aprendizaje por refuerzo a partir de retroalimentación humana (RLHF, también 2022). Este enfoque resultó ser estable y maduro, dominando el método de la industria para construir LLMs de grado producción.
Para 2025, ocurrió un cambio fundamental. El aprendizaje por refuerzo basado en recompensas verificables (RLVR) se convirtió en la tecnología central adoptada por los principales laboratorios de IA. La diferencia es crucial: en lugar de depender del juicio humano para puntuar las salidas del modelo, RLVR aprovecha entornos automáticamente verificables—resolución de problemas matemáticos, desafíos de programación y dominios similares donde la corrección puede determinarse objetivamente.
Los modelos entrenados de esta manera desarrollan espontáneamente lo que los humanos reconocerían como “estrategias de razonamiento”. Aprenden a descomponer problemas complejos en pasos computacionales intermedios y a descubrir múltiples vías de solución mediante refinamiento iterativo. El modelo o1 de OpenAI (lanzado a finales de 2024) ofreció el primer vistazo a esta capacidad, mientras que el lanzamiento posterior de o3 (principios de 2025) demostró el potencial dramático de este enfoque. El artículo DeepSeek-R1 proporcionó evidencia adicional de cómo estos entornos verificables permiten a los modelos construir cadenas de razonamiento explícitas.
Lo que hace que RLVR sea diferente de enfoques anteriores es la intensidad computacional requerida. A diferencia del ajuste fino supervisado y RLHF—que implican fases relativamente breves y moderadas en recursos computacionales—el entrenamiento con recompensas verificables exige ciclos de optimización prolongados contra funciones de recompensa objetivas y deterministas. Esto significa que los recursos computacionales originalmente destinados al preentrenamiento se están redirigiendo hacia este nuevo paradigma de entrenamiento. La innovación clave: la capacidad del modelo ahora puede ajustarse en función del costo computacional en tiempo de prueba, generando cadenas de inferencia más largas y proporcionando más “tiempo de pensamiento”. Esto representa una dimensión completamente nueva en el comportamiento de escalado.
Comprendiendo la Inteligencia Artificial: Entidades Fantasmales en Lugar de Criaturas Digitales
En 2025, la industria adquirió una nueva perspectiva sobre cómo funciona realmente la inteligencia artificial. Andrej Karpathy articuló una idea que resonó en todo el campo: no estamos “criar animales digitales” sino más bien “invocar fantasmas”—entidades fundamentalmente diferentes cuya inteligencia surge de objetivos de optimización completamente distintos a los sistemas biológicos.
La diferencia importa profundamente. Las redes neuronales humanas evolucionaron mediante selección natural en escenarios de supervivencia tribal. Los modelos de lenguaje grande están optimizados para replicar texto humano, obtener altas puntuaciones en problemas matemáticos y ganar aprobación en evaluaciones humanas. Dadas estas presiones evolutivas totalmente distintas, no debería sorprender que la inteligencia resultante se manifieste de maneras radicalmente diferentes.
Esto lleva a una observación impactante: la inteligencia artificial muestra un patrón dentado, en forma de sierra, en lugar de curvas de capacidad suaves. Los modelos pueden demostrar un conocimiento enciclopédico en un momento, mientras luchan con razonamiento elemental al siguiente. Pueden mostrar tanto brillantez como profunda confusión, capaces de generar soluciones notables o filtrar datos sensibles bajo presión adversarial.
Esta idea tiene profundas implicaciones para cómo evaluamos el progreso en IA. Los benchmarks, que representan entornos verificables, se han vuelto susceptibles a la optimización RLVR. Los equipos de IA construyen cada vez más entornos de entrenamiento que reflejan estrechamente las incrustaciones de los benchmarks, cubriendo eficientemente estas zonas específicas de capacidad. “Entrenar en el conjunto de prueba” se ha convertido en una práctica estándar de la industria. El resultado: los modelos pueden barrer todos los benchmarks disponibles sin alcanzar aún una inteligencia artificial general.
El Fenómeno del Cursor: Surge una Nueva Capa de Aplicaciones
El ascenso rápido de Cursor durante 2025 reveló algo inesperado sobre la arquitectura de aplicaciones de IA. Lo que comenzó como un editor de código especializado evolucionó hacia un paradigma más amplio, generando debates sobre “Cursor para X” en múltiples industrias.
La verdadera innovación de Cursor radica en demostrar cómo construir una nueva capa de aplicaciones de LLM. El principio fundamental: las aplicaciones especializadas orquestan múltiples llamadas a LLM en gráficos acíclicos dirigidos cada vez más sofisticados, equilibrando rendimiento y costo computacional. Estos sistemas manejan el “ingeniería de contexto”—identificando, recuperando y priorizando la información más relevante para cada consulta. Proporcionan interfaces gráficas específicas del dominio que mantienen a los humanos en los bucles de decisión y ofrecen mecanismos de ajuste que permiten a los usuarios aumentar o disminuir la autonomía del modelo según los requisitos de la tarea.
La perspectiva de Andrej Karpathy sobre esta capa sugiere un futuro donde las plataformas de modelos de lenguaje grande evolucionen hacia “capacidades de nivel graduado generalista”, mientras que las aplicaciones especializadas transforman a esos generalistas en “equipos de expertos” mediante datos privados, sensores ambientales, actuadores y bucles de retroalimentación continua para mercados verticales específicos.
Claude Code: Agentes Inteligentes que Operan en Tu Computadora
Claude Code de Anthropic marcó un momento decisivo en cómo operan los agentes de IA en entornos humanos. Demostró de manera convincente cómo el uso de herramientas y la inferencia pueden ciclarse de forma iterativa, permitiendo resolver problemas complejos y persistentes en interacciones prolongadas.
Lo que distinguió a Claude Code de enfoques competidores fue su estrategia radical de localización. En lugar de desplegar agentes en entornos en la nube (el enfoque de OpenAI), Claude Code se ejecuta directamente en la computadora personal del usuario. Este modelo de ejecución local integra profundamente la IA con los archivos privados, aplicaciones, entorno de desarrollo y conocimientos contextuales del usuario—información que sería extraordinariamente difícil de transmitir a servidores remotos.
En un período de transición caracterizado por un desarrollo desigual de capacidades, esta elección de diseño revela un pensamiento estratégico genuino. Desplegar agentes directamente junto a los desarrolladores en sus entornos de trabajo representa un camino de desarrollo más lógico que construir clústeres distribuidos en la nube. Claude Code destiló esta idea en una interfaz elegante y poderosa—transformando la IA de un sitio web que requiere visitas deliberadas en una presencia pequeña e inteligente incrustada en el espacio de trabajo digital del usuario.
Vibe Coding: Programar Sin Código
A mediados de 2025, la IA había superado un umbral crítico de capacidad: la habilidad de construir aplicaciones sofisticadas usando descripciones en lenguaje natural, sin que los programadores necesiten entender la implementación subyacente. El concepto capturó rápidamente la imaginación, tanto que la expresión casual de Andrej Karpathy “Vibe Coding” en una publicación pasajera en redes sociales se convirtió en un movimiento en toda la industria.
Vibe Coding democratiza la programación de forma fundamental. Las barreras profesionales se disuelven cuando cualquiera puede describir lo que quiere en lenguaje natural y recibir código funcional. Andrej Karpathy documentó su propia experiencia usando Vibe Coding para desarrollar rápidamente un tokenizador BPE personalizado en Rust, evitando la necesidad de conocimientos profundos en lenguajes—código que “de otra forma nunca habría sido escrito” si las demandas tradicionales de programación hubieran permanecido.
Las implicaciones van más allá de la accesibilidad. Los desarrolladores profesionales ganan una libertad recién descubierta para construir prototipos exploratorios, probar ideas arquitectónicas con costos mínimos y crear aplicaciones de un solo uso para investigaciones específicas. El código se vuelve efímero y desechable. Las fronteras entre usuarios y creadores se difuminan. El desarrollo de software se transforma en un dominio donde personas comunes y desarrolladores profesionales pueden contribuir de manera significativa, redefiniendo las carreras y las expectativas de habilidades técnicas.
Nano Banana y Más Allá: Por Qué la IA Necesita Interfaces Visuales
El Nano Gemini de Google y desarrollos similares representan, en la evaluación de Andrej Karpathy, uno de los cambios más transformadores de 2025. La visión más amplia: los modelos de lenguaje grande representan el próximo paradigma de computación tras las eras del escritorio y la microcomputadora de los años 70 y 80.
Si esta comparación es válida, deberíamos esperar innovaciones similares emergiendo de fundamentos tecnológicos similares. La revolución de la interfaz gráfica de usuario en la computación personal no llegó porque los comandos de texto fueran imposibles—funcionaban bien para expertos—sino porque las representaciones visuales coincidían más estrechamente con las preferencias cognitivas humanas.
El texto, aunque primitivo desde el punto de vista computacional, se relaciona pobremente con las preferencias de entrada y los patrones de consumo de información humanos. Los humanos procesan información espacial y gráfica mucho más eficientemente que el texto analizado. Prefieren recibir información mediante imágenes, diagramas, diapositivas, pizarras y multimedia en lugar de analizar oraciones.
Las interfaces actuales de LLM operan mediante diálogo—básicamente interacciones en línea de comandos con texto, similares a la computación en los años 80. La pregunta de quién construirá la capa gráfica para la inteligencia artificial sigue parcialmente abierta, pero productos como Nano Banana apuntan a la respuesta. Lo que distingue a Nano Banana no es solo su capacidad de generación de imágenes, sino la síntesis integrada de generación de texto, creación visual y conocimiento del mundo, entrelazados en la estructura de pesos del modelo.
Estos seis cambios—desde la optimización por recompensas verificables hasta las interfaces visuales, desde la retroalimentación dependiente del humano hasta los agentes de IA que operan localmente, desde la especialización hasta la programación accesible—revelan una industria en transformación radical. Los marcos que guiaron el desarrollo de IA a principios de los 2020 han dado paso a enfoques fundamentalmente nuevos, cada uno abriendo posibilidades que parecían imposibles solo meses antes. Como subrayan las observaciones de Andrej Karpathy, 2025 será recordado no por avances incrementales sino por el momento en que la inteligencia artificial se reinventó a sí misma fundamentalmente.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Seis revoluciones de IA en 2025: La guía de Andrej Karpathy sobre los mayores cambios en la industria
El panorama de la inteligencia artificial experimentó cambios sísmicos a lo largo de 2025, con transformaciones tan fundamentales que redefinieron nuestra forma de pensar sobre aprendizaje automático, desarrollo de software e interacción humano-computadora. Andrej Karpathy, un destacado investigador y tecnólogo en IA, identificó seis grandes cambios evolutivos que han alterado profundamente el campo. No son mejoras incrementales—representan momentos de avance que desafían suposiciones existentes y abren posibilidades completamente nuevas.
La aparición del Aprendizaje de Recompensas Verificables: Más allá de la Retroalimentación Humana
Durante años, la pila de entrenamiento de producción para modelos de lenguaje grande seguía un proceso predecible de tres etapas: preentrenamiento (como GPT-2 y GPT-3 desde 2020), ajuste fino supervisado (InstructGPT en 2022) y aprendizaje por refuerzo a partir de retroalimentación humana (RLHF, también 2022). Este enfoque resultó ser estable y maduro, dominando el método de la industria para construir LLMs de grado producción.
Para 2025, ocurrió un cambio fundamental. El aprendizaje por refuerzo basado en recompensas verificables (RLVR) se convirtió en la tecnología central adoptada por los principales laboratorios de IA. La diferencia es crucial: en lugar de depender del juicio humano para puntuar las salidas del modelo, RLVR aprovecha entornos automáticamente verificables—resolución de problemas matemáticos, desafíos de programación y dominios similares donde la corrección puede determinarse objetivamente.
Los modelos entrenados de esta manera desarrollan espontáneamente lo que los humanos reconocerían como “estrategias de razonamiento”. Aprenden a descomponer problemas complejos en pasos computacionales intermedios y a descubrir múltiples vías de solución mediante refinamiento iterativo. El modelo o1 de OpenAI (lanzado a finales de 2024) ofreció el primer vistazo a esta capacidad, mientras que el lanzamiento posterior de o3 (principios de 2025) demostró el potencial dramático de este enfoque. El artículo DeepSeek-R1 proporcionó evidencia adicional de cómo estos entornos verificables permiten a los modelos construir cadenas de razonamiento explícitas.
Lo que hace que RLVR sea diferente de enfoques anteriores es la intensidad computacional requerida. A diferencia del ajuste fino supervisado y RLHF—que implican fases relativamente breves y moderadas en recursos computacionales—el entrenamiento con recompensas verificables exige ciclos de optimización prolongados contra funciones de recompensa objetivas y deterministas. Esto significa que los recursos computacionales originalmente destinados al preentrenamiento se están redirigiendo hacia este nuevo paradigma de entrenamiento. La innovación clave: la capacidad del modelo ahora puede ajustarse en función del costo computacional en tiempo de prueba, generando cadenas de inferencia más largas y proporcionando más “tiempo de pensamiento”. Esto representa una dimensión completamente nueva en el comportamiento de escalado.
Comprendiendo la Inteligencia Artificial: Entidades Fantasmales en Lugar de Criaturas Digitales
En 2025, la industria adquirió una nueva perspectiva sobre cómo funciona realmente la inteligencia artificial. Andrej Karpathy articuló una idea que resonó en todo el campo: no estamos “criar animales digitales” sino más bien “invocar fantasmas”—entidades fundamentalmente diferentes cuya inteligencia surge de objetivos de optimización completamente distintos a los sistemas biológicos.
La diferencia importa profundamente. Las redes neuronales humanas evolucionaron mediante selección natural en escenarios de supervivencia tribal. Los modelos de lenguaje grande están optimizados para replicar texto humano, obtener altas puntuaciones en problemas matemáticos y ganar aprobación en evaluaciones humanas. Dadas estas presiones evolutivas totalmente distintas, no debería sorprender que la inteligencia resultante se manifieste de maneras radicalmente diferentes.
Esto lleva a una observación impactante: la inteligencia artificial muestra un patrón dentado, en forma de sierra, en lugar de curvas de capacidad suaves. Los modelos pueden demostrar un conocimiento enciclopédico en un momento, mientras luchan con razonamiento elemental al siguiente. Pueden mostrar tanto brillantez como profunda confusión, capaces de generar soluciones notables o filtrar datos sensibles bajo presión adversarial.
Esta idea tiene profundas implicaciones para cómo evaluamos el progreso en IA. Los benchmarks, que representan entornos verificables, se han vuelto susceptibles a la optimización RLVR. Los equipos de IA construyen cada vez más entornos de entrenamiento que reflejan estrechamente las incrustaciones de los benchmarks, cubriendo eficientemente estas zonas específicas de capacidad. “Entrenar en el conjunto de prueba” se ha convertido en una práctica estándar de la industria. El resultado: los modelos pueden barrer todos los benchmarks disponibles sin alcanzar aún una inteligencia artificial general.
El Fenómeno del Cursor: Surge una Nueva Capa de Aplicaciones
El ascenso rápido de Cursor durante 2025 reveló algo inesperado sobre la arquitectura de aplicaciones de IA. Lo que comenzó como un editor de código especializado evolucionó hacia un paradigma más amplio, generando debates sobre “Cursor para X” en múltiples industrias.
La verdadera innovación de Cursor radica en demostrar cómo construir una nueva capa de aplicaciones de LLM. El principio fundamental: las aplicaciones especializadas orquestan múltiples llamadas a LLM en gráficos acíclicos dirigidos cada vez más sofisticados, equilibrando rendimiento y costo computacional. Estos sistemas manejan el “ingeniería de contexto”—identificando, recuperando y priorizando la información más relevante para cada consulta. Proporcionan interfaces gráficas específicas del dominio que mantienen a los humanos en los bucles de decisión y ofrecen mecanismos de ajuste que permiten a los usuarios aumentar o disminuir la autonomía del modelo según los requisitos de la tarea.
La perspectiva de Andrej Karpathy sobre esta capa sugiere un futuro donde las plataformas de modelos de lenguaje grande evolucionen hacia “capacidades de nivel graduado generalista”, mientras que las aplicaciones especializadas transforman a esos generalistas en “equipos de expertos” mediante datos privados, sensores ambientales, actuadores y bucles de retroalimentación continua para mercados verticales específicos.
Claude Code: Agentes Inteligentes que Operan en Tu Computadora
Claude Code de Anthropic marcó un momento decisivo en cómo operan los agentes de IA en entornos humanos. Demostró de manera convincente cómo el uso de herramientas y la inferencia pueden ciclarse de forma iterativa, permitiendo resolver problemas complejos y persistentes en interacciones prolongadas.
Lo que distinguió a Claude Code de enfoques competidores fue su estrategia radical de localización. En lugar de desplegar agentes en entornos en la nube (el enfoque de OpenAI), Claude Code se ejecuta directamente en la computadora personal del usuario. Este modelo de ejecución local integra profundamente la IA con los archivos privados, aplicaciones, entorno de desarrollo y conocimientos contextuales del usuario—información que sería extraordinariamente difícil de transmitir a servidores remotos.
En un período de transición caracterizado por un desarrollo desigual de capacidades, esta elección de diseño revela un pensamiento estratégico genuino. Desplegar agentes directamente junto a los desarrolladores en sus entornos de trabajo representa un camino de desarrollo más lógico que construir clústeres distribuidos en la nube. Claude Code destiló esta idea en una interfaz elegante y poderosa—transformando la IA de un sitio web que requiere visitas deliberadas en una presencia pequeña e inteligente incrustada en el espacio de trabajo digital del usuario.
Vibe Coding: Programar Sin Código
A mediados de 2025, la IA había superado un umbral crítico de capacidad: la habilidad de construir aplicaciones sofisticadas usando descripciones en lenguaje natural, sin que los programadores necesiten entender la implementación subyacente. El concepto capturó rápidamente la imaginación, tanto que la expresión casual de Andrej Karpathy “Vibe Coding” en una publicación pasajera en redes sociales se convirtió en un movimiento en toda la industria.
Vibe Coding democratiza la programación de forma fundamental. Las barreras profesionales se disuelven cuando cualquiera puede describir lo que quiere en lenguaje natural y recibir código funcional. Andrej Karpathy documentó su propia experiencia usando Vibe Coding para desarrollar rápidamente un tokenizador BPE personalizado en Rust, evitando la necesidad de conocimientos profundos en lenguajes—código que “de otra forma nunca habría sido escrito” si las demandas tradicionales de programación hubieran permanecido.
Las implicaciones van más allá de la accesibilidad. Los desarrolladores profesionales ganan una libertad recién descubierta para construir prototipos exploratorios, probar ideas arquitectónicas con costos mínimos y crear aplicaciones de un solo uso para investigaciones específicas. El código se vuelve efímero y desechable. Las fronteras entre usuarios y creadores se difuminan. El desarrollo de software se transforma en un dominio donde personas comunes y desarrolladores profesionales pueden contribuir de manera significativa, redefiniendo las carreras y las expectativas de habilidades técnicas.
Nano Banana y Más Allá: Por Qué la IA Necesita Interfaces Visuales
El Nano Gemini de Google y desarrollos similares representan, en la evaluación de Andrej Karpathy, uno de los cambios más transformadores de 2025. La visión más amplia: los modelos de lenguaje grande representan el próximo paradigma de computación tras las eras del escritorio y la microcomputadora de los años 70 y 80.
Si esta comparación es válida, deberíamos esperar innovaciones similares emergiendo de fundamentos tecnológicos similares. La revolución de la interfaz gráfica de usuario en la computación personal no llegó porque los comandos de texto fueran imposibles—funcionaban bien para expertos—sino porque las representaciones visuales coincidían más estrechamente con las preferencias cognitivas humanas.
El texto, aunque primitivo desde el punto de vista computacional, se relaciona pobremente con las preferencias de entrada y los patrones de consumo de información humanos. Los humanos procesan información espacial y gráfica mucho más eficientemente que el texto analizado. Prefieren recibir información mediante imágenes, diagramas, diapositivas, pizarras y multimedia en lugar de analizar oraciones.
Las interfaces actuales de LLM operan mediante diálogo—básicamente interacciones en línea de comandos con texto, similares a la computación en los años 80. La pregunta de quién construirá la capa gráfica para la inteligencia artificial sigue parcialmente abierta, pero productos como Nano Banana apuntan a la respuesta. Lo que distingue a Nano Banana no es solo su capacidad de generación de imágenes, sino la síntesis integrada de generación de texto, creación visual y conocimiento del mundo, entrelazados en la estructura de pesos del modelo.
Estos seis cambios—desde la optimización por recompensas verificables hasta las interfaces visuales, desde la retroalimentación dependiente del humano hasta los agentes de IA que operan localmente, desde la especialización hasta la programación accesible—revelan una industria en transformación radical. Los marcos que guiaron el desarrollo de IA a principios de los 2020 han dado paso a enfoques fundamentalmente nuevos, cada uno abriendo posibilidades que parecían imposibles solo meses antes. Como subrayan las observaciones de Andrej Karpathy, 2025 será recordado no por avances incrementales sino por el momento en que la inteligencia artificial se reinventó a sí misma fundamentalmente.