La estrategia de escalar modelos de forma indefinida se enfrenta a barreras físicas, económicas y cognitivas. El aumento de parámetros ya no garantiza una mejora proporcional en inteligencia, razonamiento ni adaptabilidad. Nested Learning aparece como una alternativa que deja de depender del crecimiento bruto del tamaño y propone, en cambio, complejidad en la dimensión temporal del aprendizaje: cómo, cuándo y a qué ritmo se ajusta el modelo internamente.
- El coste de entrenamiento crece de forma casi exponencial con el tamaño del modelo.
- La infraestructura energética y de refrigeración empieza a ser un cuello de botella real.
- Modelos más grandes siguen fallando en tareas simples de actualización de conocimiento.
- Las scaling laws empiezan a mostrar rendimientos decrecientes en ciertos benchmarks.
- Los grandes laboratorios ya exploran arquitecturas mixtas y no solo “modelos gigantes”.
The strategy of scaling models indefinitely is running into physical, economic, and cognitive barriers. Adding more parameters no longer guarantees proportional improvements in intelligence, reasoning, or adaptability. Nested Learning emerges as an alternative that abandons brute-force size growth and instead proposes complexity in the temporal dimension of learning: how, when, and at what pace the model updates internally.
- Training costs grow almost exponentially with model size.
- Energy and cooling infrastructure is becoming a real bottleneck.
- Larger models still fail at simple knowledge-update tasks.
- Scaling laws are beginning to show diminishing returns on key benchmarks.
- Major labs are already exploring mixed architectures, not only “giant models”.