Buenas tardes, amigos de La Crónica de Hoy Jalisco. Un gusto saludarles nuevamente.
Para esta ocasión, los invito a imaginar una computadora que no solo contesta preguntas, sino que sale a buscar las respuestas por sí misma: revisa artículos, compara teorías, analiza datos y hasta redacta un informe con conclusiones razonadas.
Esa es la nueva promesa —y también el nuevo desafío— de la inteligencia artificial moderna. Los científicos la llaman Deep Research Agent, y podría transformar por completo la forma en que investigamos, aprendemos y generamos conocimiento.
En apenas dos años, los modelos de lenguaje como GPT-4, Claude o Gemini han pasado de responder preguntas a investigar de manera autónoma, analizar información compleja y producir conocimiento estructurado.
Este salto, documentado en el estudio “Deep Research Agents: A Systematic Examination and Roadmap” (Huang et al., 2025), marca un punto de inflexión: la aparición de los Deep Research Agents (DR Agents), o agentes de investigación profunda.
Estos sistemas representan una nueva categoría de inteligencia artificial con iniciativa cognitiva, capaces de diseñar sus propios procesos de investigación, ajustar estrategias según los resultados y elaborar conclusiones razonadas. En otras palabras, son una especie de científicos digitales.

¿Cómo piensan y cómo trabajan?
Según el estudio, cada agente sigue un ciclo modular de percepción, planificación, acción y evaluación.
Su funcionamiento típico consiste en:
- Interpretar la consulta del usuario y definir la meta general.
- Planificar la estrategia de búsqueda y análisis, dividiendo el trabajo en subtareas.
- Acceder a conocimiento externo a través de dos vías:
- APIs estructuradas, como bases científicas (arXiv, PubMed, Wikipedia).
- Navegación web simulada, donde los agentes “navegan” virtualmente, leen artículos, descargan archivos y extraen datos relevantes.
- Ejecutar herramientas analíticas, desde cálculos estadísticos hasta visualizaciones gráficas.
- Generar un informe final, con citas, tablas y conclusiones verificables.
El estudio identifica más de 40 proyectos activos entre 2024 y 2025, tanto en el ámbito académico como en la industria. Entre ellos destacan OpenAI Deep Research, Gemini Deep Research (Google DeepMind), Grok DeepSearch(xAI), Perplexity Deep Research, Microsoft Copilot Researcher y Analyst, Manus, OpenManus y AutoGLM Rumination. Cada uno con su propio enfoque, pero todos comparten un mismo objetivo: automatizar el pensamiento investigativo.
Del asistente al investigador autónomo
A diferencia de los asistentes basados en Retrieval-Augmented Generation (RAG) —que solo buscan y resumen información—, los Deep Research Agents razonan sobre lo que encuentran. Mientras un asistente tradicional actúa como un “lector rápido”, un agente de investigación profunda analiza, planifica nuevos pasos y evalúa la calidad de las fuentes antes de concluir.
En términos simples, deja de ser un motor de búsqueda con voz humana para convertirse en un investigador digital con criterio propio. Este nivel de autonomía representa un cambio radical: los asistentes reaccionan; los Deep Research Agents actúan.
Por primera vez, la inteligencia artificial no solo responde a preguntas humanas, sino que aprende a formular las suyas propias.
Herramientas, razonamiento y memoria
Estos agentes combinan tres pilares tecnológicos:
- Ejecución de código, para realizar cálculos, simulaciones o verificaciones numéricas.
- Análisis de datos, que transforma la información en tablas, gráficos y conclusiones.
- Procesamiento multimodal, donde integran texto, imágenes, audio y video para comprender mejor el contexto.
Además, cuentan con memoria permanente, una especie de “recuerdo digital” que les permite guardar lo aprendido y reutilizarlo después.
Un ejemplo destacado es AgentRxiv, una plataforma inspirada en el repositorio científico arXiv.org, pero creada exclusivamente para inteligencias artificiales. Allí, distintos agentes pueden compartir sus hallazgos, consultar los de otros y aprender entre sí, formando una auténtica biblioteca digital de conocimiento colectivo. En otras palabras, es un espacio donde las máquinas intercambian saberes y mejoran con la experiencia compartida, sin necesidad de ser reentrenadas desde cero.
¿Cómo aprenden a razonar?
El estudio revela que estos agentes no solo siguen instrucciones, sino que aprenden de su propia experiencia. Para lograrlo, combinan dos grandes métodos de entrenamiento:
- Ajuste supervisado (SFT): perfecciona la manera en que los agentes buscan y redactan información, enseñándoles a evitar errores, citar fuentes confiables y producir textos más claros.
- Aprendizaje por refuerzo (RL): funciona por ensayo y error; el agente prueba estrategias, evalúa resultados y mejora su desempeño.
Modelos como Agent-R1, ReSearch o SimpleDeepSearcher utilizan algoritmos avanzados —como PPO (Proximal Policy Optimization) que enseña al agente a mejorar sin desviarse demasiado de lo que ya sabe, mientras que GRPO (Group Relative Policy Optimization) le permite comparar sus propios resultados dentro de grupos de pruebas, eligiendo las estrategias más efectivas— que equilibran precisión y exploración, permitiendo que la inteligencia artificial aprenda a razonar por sí misma.
En palabras simples, cada agente tiene su propio “entrenador digital” que lo corrige, lo guía y lo vuelve más hábil con cada investigación.

Agentes individuales y colaborativos
No todos los Deep Research Agents trabajan del mismo modo, algunos funcionan como investigadores solitarios, capaces de planificar, buscar y redactar por su cuenta. Otros operan en ecosistemas multiagente, donde varias inteligencias colaboran entre sí: una busca información, otra la analiza y una tercera redacta los resultados.
Modelos como OWL o AWorld usan un esquema jerárquico, con un agente “coordinador” que reparte las tareas y supervisa los avances. Este tipo de colaboración permite abordar investigaciones más amplias y complejas, aunque también aumenta la dificultad de coordinación y el consumo de recursos.
Los investigadores advierten que aún hay retos importantes: mantener la coherencia entre múltiples agentes, garantizar la transparencia y reducir el impacto ético y energético.
Por ello, proponen crear nuevas métricas de evaluación que midan no solo la precisión de las respuestas, sino también la profundidad del razonamiento y la capacidad de adaptación de estas inteligencias.
En conjunto, estos avances apuntan hacia un futuro donde los agentes de IA trabajen en red, aprendan entre sí y colaboren como verdaderos equipos digitales, acercándonos a una inteligencia colectiva compartida.
El futuro de la Agentic AI
Los Deep Research Agents son apenas el primer paso hacia una tendencia más amplia: la Agentic AI, o inteligencia artificial con verdadera agencia. En los próximos años, se espera que estos sistemas sean capaces de coordinarse entre sí para generar hipótesis científicas, descubrir patrones en datos médicos o redactar borradores de artículos académicos completos.
El equipo de Huang et al. imagina un escenario ambicioso: Una red global de agentes autónomos que colaboran, aprenden y amplían de manera conjunta el conocimiento humano, un ecosistema donde las máquinas ya no solo obedecen, sino que piensan, aprenden y crean con nosotros.
*Mtro. Humberto Martínez – Bibliotecario Investigador de la Universidad Panamericana (UP)