De las cavernas a la AGI¶
⏱️ Tiempo de lectura: 2 min
Esta serie es un viaje histórico desde los primeros intentos de la humanidad por abstraer el mundo mediante símbolos hasta la creación de modelos de lenguaje masivos que parecen entenderlo.
Exploraremos cómo la necesidad de contar llevó al cálculo, cómo el deseo de mecanizar el razonamiento llevó a la computación, y cómo el intento de imitar el cerebro nos trajo a la era de la IA generativa.
La historia importa porque los sistemas de IA generativa que usamos hoy no son artefactos sin pasado. Son el resultado directo de cinco siglos de notación matemática, ocho décadas de computación y más de medio siglo de aprendizaje automático. Seguir esa cadena desde el principio cambia la forma de entender por qué la IA funciona como funciona, dónde están sus límites reales y qué vendrá a continuación. Sin ese contexto, los avances recientes parecen magia. Con él, tienen una lógica que se puede seguir.
Índice¶
En esta serie exploraremos:
1. Representar (≈ 40 000 a. C. – 1700)¶
- Inventar lenguajes para describir el mundo: del conteo físico (muescas, marcas) a números y símbolos manipulables.
- Formalizar la verdad: los griegos fijan demostración y geometría como estándar de conocimiento verificable.
- Hacer ciencia con matemáticas: notación (cero, álgebra) y modelo para la predicción. Nacimiento del cálculo para describir el concepto de cambio de magnitudes (derivadas, ecuaciones).
2. Mecanizar (≈ 1700 – 1956)¶
- Convertir símbolos en máquina: automatizar cálculo con mecanismos y, luego, con circuitos. Aquí nace la obsesión por computar.
- Separar programa de hardware: de Jacquard/Babbage a la idea de instrucciones reutilizables independientes de la máquina.
- Fundamentos de la computación moderna: lógica (Boole), qué es “probar”, computabilidad y límites (Turing), arquitectura real (memoria), información/compresión (Shannon).
3. Aprender (≈ 1956 – 2012)¶
- De reglas a datos: pasamos de codificar inteligencia a mano, a ajustar modelos con datos.
- Motores del aprendizaje práctico: probabilidad (Bayes, generalización), algoritmos de optimización (gradiente, regularización) y ajuste de parámetros (backprop) como tríada para el entrenamiento de IA.
- Antes de la era LLM: perceptrón y límites, auge/caída de IA simbólica, NLP estadístico (n-grams, HMM/CRF) y renacimiento neuronal impulsado por datos, GPUs, benchmarks y escala.
4. Escalar (≈ 2012 – 2024)¶
- Escala como multiplicador: deep learning despega por más datos/cómputo y mejores representaciones. 2012 marca el cambio de régimen.
- Transformers y modelos fundacionales: la atención habilita preentrenamiento masivo y reutilización generalista. Las leyes de escalado y el alineamiento con el humano lo convierte en un punto de inflexión que deriva en el nacimiento de ChatGPT.
- De “responder” a “actuar” y unificar modalidades: herramientas/agentes, multimodalidad (texto/imagen/audio).
5. Más allá del Transformer (≈ 2022 – Q1 2026)¶
- Los límites del escalado puro: por qué el Transformer no basta solo para describir hacia dónde se mueve la frontera.
- Memoria e inferencia activa: contexto largo, memoria externa y test-time compute como nuevas palancas más allá de los parámetros.
- Agentes, herramientas y búsqueda: sistemas que actúan, planifican y recuperan información del mundo real.
- Modelos del mundo y robótica fundacional: representaciones internas que simulan y predicen, aplicadas al control físico.
Siguiente serie recomendada: Multimodalidad en IA generativa — qué significa unificar texto, imagen, audio y vídeo en un mismo sistema.