¡Qué tal, amigos de La Crónica! Bienvenidos una vez más a este espacio para comprender el futuro que ya está aquí. Si se han preguntado cómo llegamos a tener herramientas tan potentes como la inteligencia artificial en la palma de la mano, hoy es el día para descubrirlo.
La inteligencia artificial nació en 1956, cuando un grupo de investigadores se congregó en el Dartmouth College (EUA), no fue una conferencia tradicional con ponentes y una audiencia pasiva. Fue concebido como un taller de “brainstorming” extendido, que duró aproximadamente ocho semanas. La idea era reunir a las mentes más brillantes de campos dispares para que pudieran dedicarse de lleno a una sola idea radical, emular la inteligencia humana. Este hito encendió una chispa que aún perdura: la búsqueda por comprender la mente para desarrollar herramientas que piensen a nuestro lado.
El camino hacia la inteligencia artificial moderna ha tenido varios hitos clave que demuestran su evolución. Uno de los primeros fue en 1997, cuando la supercomputadora Deep Blue de IBM venció a Garry Kasparov en ajedrez. Este fue un hito de fuerza bruta computacional; aunque el ajedrez es muy complejo, la computadora ganó principalmente calculando millones de jugadas por segundo para elegir la mejor. Era un problema de cálculo masivo.
Tras décadas de avances y pausas, llegó el primer gran “¡wow!” en 2012. Una red llamada AlexNet ganó una competencia de imágenes, una competencia anual muy prestigiosa llamada ImageNet Large Scale Visual Recognition Challenge (ILSVRC). El reto era simple: se le daba a un programa de computadora millones de imágenes y este tenía que identificar correctamente los objetos en ellas (gatos, perros, autos, aviones, etc.). Era la prueba definitiva para la “visión por computadora”. AlexNet no solo ganó la competencia, sino que aplastó a todos sus rivales. Los mejores programas de la época tenían una tasa de error de alrededor del 26%. AlexNet la redujo drásticamente a un 15.3%.
La diferencia fue tan grande que todos en el campo se dieron cuenta de que algo fundamental había cambiado. Fue un momento importante porque nadie esperaba un salto tan gigantesco en un solo año.
Pocos años después, en 2016, la IA dio un salto aún más impresionante. AlphaGo marcó un hito cultural al vencer a los campeones humanos de Go. Este logro fue significativo porque, a diferencia del ajedrez, el Go es inmensamente más complejo y no puede resolverse con simple cálculo; requiere una intuición y estrategia que se consideraban exclusivamente humanas.
AlphaGo no ganó solo por su capacidad de procesamiento. Su éxito se debió a un aprendizaje sobrehumano: primero estudió millones de partidas humanas y luego jugó contra sí misma innumerables veces. Este proceso le permitió desarrollar una especie de “intuición” para evaluar el tablero y descubrir estrategias completamente novedosas, probando que la IA ya no solo reconocía patrones, sino que podía planificar y ser creativa.
Un año después, en 2017, investigadores de Google publicaron un artículo llamado “Attention Is All You Need”(“Atención es todo lo que necesitas”), presentando la arquitectura Transformer. Su idea principal fue abandonar el procesamiento secuencial y usar un mecanismo llamado “mecanismo de atención”.
Imagina que antes de 2017, los modelos de IA que trabajaban con texto (como los traductores automáticos) leían las frases de la misma forma que nosotros: palabra por palabra, en orden.

Esto tenía dos grandes problemas:
- Eran “olvidadizos”: en una frase larga como “Visité a mi abuela en Guadalajara, y aunque el viaje fue largo, ella me preparó una comida deliciosa", cuando el modelo llegaba a la palabra “ella”, podía tener dificultades para recordar que se refería a la “abuela” del principio de la frase. Se perdía el contexto a larga distancia.
- Eran lentos: como tenían que procesar la información en secuencia (una palabra después de la otra), entrenarlos con grandes cantidades de texto era un proceso increíblemente lento.
La arquitectura transformer funciona de la siguiente manera:
En lugar de leer palabra por palabra, el Transformer mira toda la frase a la vez. Luego, para cada palabra, decide a qué otras palabras de la frase deben prestarles más atención para entender su significado en ese contexto específico.
Volviendo al ejemplo: “Visité a mi abuela en Guadalajara, y aunque el viaje fue largo, ella me preparó una comida deliciosa".
Cuando el Transformer procesa la palabra “ella”, el mecanismo de atención le permite identificar que las palabras más importantes para entender “ella” son “abuela” y “Guadalajara”. Le da un “peso” o importancia mayor a esas conexiones, sin importar qué tan lejos estén en la oración.
Ventajas de la Arquitectura transformer:
- Mejor Comprensión y Fluidez: conectando ideas en textos largos, los modelos de IA ahora comprenden contexto, sarcasmo y matices, generando texto coherente y natural.
- Escalabilidad Espectacular: el procesamiento paralelo del Transformer aceleró drásticamente el entrenamiento, permitiendo usar más datos (gran parte de internet) y construir modelos mucho más grandes.
Esta combinación de arquitectura eficiente, más datos y más cómputo fue clave para la transformación.
El Transformer fue la base técnica que permitió construir los modelos de lenguaje gigantes (LLMs) que conocemos hoy. La “T” en GPT (Generative Pre-trained Transformer) viene de ahí. Es el motor que impulsa a ChatGPT, Gemini, Claude y toda la revolución de la IA generativa actual.
La IA generativa se volvió común desde 2020. Con herramientas como ChatGPT, millones la usan para tareas diarias. En 2024-2025, destacan modelos con mayor contexto y razonamiento, así como opciones abiertas y comerciales para diversos sectores. Se esperan modelos más coherentes en documentos largos, sistemas que expliquen los pasos que ejecutan y “agentes” que operen software con seguridad.

*Mtro. Humberto Martínez – Bibliotecario Investigador de la Universidad Panamericana (UP)