Academia

El experto coordinó la primera sesión del ciclo Mitos, miedos y verdades de la computación, con con ferencia magistral

La IA generativa impactará educación, salud, investigación científica y los sistemas financieros: Coello

Computólogo Carlos Coello, investigador del Cinvestav y miembro de ECN, ofreció su conferencia en el Aula Magna. (ECN)

“Las primeras aplicaciones de la Inteligencia Artificial (IA) tales como los sistemas expertos, se basaban en reglas y buscaban servir de apoyo a la toma de decisiones”, recordó Carlos A. Coello Coello, miembro de El Colegio Nacional, al impartir la conferencia Crear sin conciencia: cómo funciona realmente la IA generativa.

El coordinador del ciclo Mitos, miedos y verdades de la computación detalló que el aprendizaje de máquina surgió como una rama de la IA en la que se buscaba desarrollar algoritmos que pudieran resolver tareas, a través de la exposición a los datos, sin que éstos fueran programados de forma explícita, es decir, que debían ser capaces de aprender por sí mismos. “La Inteligencia Artificial surgió con ese nombre en 1956, y con el tiempo se ha convertido en un término que abarca el desarrollo de diferentes algoritmos capaces de realizar tareas que requieren inteligencia humana”.

EL “PROMPT”.

Agregó que, con relación a la IA generativa, los modelos generativos profundos emergieron para generar nuevo contenido, a partir de datos existentes, creando una variedad de nuevas posibilidades para las aplicaciones de la IA. “Estos modelos se entrenan para entender distribuciones complejas de datos, lo cual les permite producir salidas que se asemejan a datos del mundo real. Mientras que los modelos discriminativos se enfocan en modelar las relaciones entre las entradas y las salidas, los modelos generativos aprenden las estructuras de datos inherentes y los procesos de generación”.

En este sentido, los sistemas de IA generativa interactúan con el usuario, a través de una línea de comandos (prompting) que permite el uso de lenguaje natural. “Las tres capas principales que componen a un sistema de IA generativa son la capa del modelo, la de conexión y la de aplicación. Dependiendo del conjunto de datos de entrenamiento, los modelos de propósito general buscan realizar una amplia gama de tareas, por ejemplo, ChatGPT, mientras que los modelos a la medida se diseñan para dominios específicos”.

De acuerdo con el ingeniero mexicano, entre las modalidades de salida de la IA generativa, se encuentran el texto, como ChatGPT que imita conversaciones textuales con el usuario y genera contenido; las imágenes, que pueden utilizarse para mercadotecnia, diseño o incluso como arte. Una herramienta de este tipo es Stable Diffusion, que es de código abierto; el Video, que permite potenciar la creatividad de los expertos en mercadotecnia, los animadores y los educadores. Un ejemplo de este tipo de herramientas es Synthesia, que puede generar videos profesionales con avatares virtuales.

También está el código, como CodeBERT o GraphCodeBERT. Que fueron entrenadas para generar código fuente a partir de lenguaje natural; y el audio, cuyas aplicaciones se han enfocado en la generación de audio con voces sintetizadas de humanos. Herramientas como VALL-E de Microsoft ofrecen una experiencia más personalizada permitiendo modelado de voz muy realista. Pero, además, existen modelos como AlphaFold, que realiza predicciones de la estructura de las proteínas, y AlphaGenome, que predice cómo las variantes genéticas afectan a múltiples aspectos de la regulación genética y explora nuevas vías para entender el funcionamiento del genoma.

Para tener una idea de lo que logran estas aplicaciones, un estudio de 2024 mostró que la región Asia-Pacífico es más optimista que las sociedades occidentales respecto al uso de IA Generativa. Según este estudio, el 68% de los encuestados en la región Asia-Pacífico creían que la IA estaba teniendo un impacto positivo en el mundo. Esto contrasta con el 57% de las personas que, a nivel global, piensan lo mismo.

Con relación a los derechos de autor y el marco legal de estas aplicaciones, el colegiado sostuvo que, aunque los creadores de sistemas tales como ChatGPT y Midjourney aseguran que las salidas de sus aplicaciones no violan derechos de autor, existen diversas críticas al respecto. Por ejemplo, se ha argumentado que Midjourney puede crear copias casi idénticas de imágenes protegidas por derechos de autor y hay demandas legales relacionadas con este tema.

“En Estados Unidos, un grupo de empresas que incluye a OpenAl, Alphabet y Meta firmaron un acuerdo voluntario con la administración de Biden en julio de 2023, para generar contenido generado por lA con marcas de agua. En octubre de 2023, se requirió, a través de una Orden Ejecutiva, a todas las empresas de Estados Unidos que reporten información al gobierno federal cuando entren en ciertos modelos de lA de alto impacto”.

En el caso de Latinoamérica, el 10 de febrero de 2026 se presentó al público Latam-GPT, que es un LLM diseñado en Chile gratuito y de código abierto, el cual permite construir aplicaciones sobre él. Fue coordinado por el Centro Nacional de Inteligencia Artificial de Chile y se realizó de manera colaborativa por más de 60 instituciones y cerca de 200 especialistas latinoamericanos a lo largo de tres años. Su entrenamiento costó unos $550 mil dólares y se basa en una red neuronal profunda con 70 mil millones de parámetros.

“A pesar de lo anterior, a mediados de 2025, muchas compañías comenzaron a abandonar proyectos piloto relacionados con lA generativa, debido a las dificultades que enfrentaron en cuestiones tales como: integración, calidad de los datos y retornos no alcanzados. Algunos analistas como Gartner y The Economist caracterizaron este período como la “fase de la desilusión””.

EL LADO NEGATIVO DE LA IA.

En palabras del catedrático, una de las preocupaciones que ha surgido en años recientes es el impacto ambiental de las aplicaciones de lA que hacen uso de enormes recursos de cómputo. “Para el entrenamiento de GPT-3, Microsoft utilizó aproximadamente 700 mil litros de agua y se emitieron unos 284 mil kilogramos de CO2. ChatGPT también consume cantidades importantes de agua cuando se le hacen consultas o cuando se le pide que genere texto. Para una simple conversación de unas 20 a 50 preguntas, el agua consumida equivale a una botella de 500 mililitros”.

“Si bien existen estudios que indican que el uso de chatGPT puede mejorar el aprendizaje de los estudiantes, existen otros que parecen indicar lo contrario. Un estudio realizado a principios de 2025 en el Instituto Tecnológico de Massachusetts mostró que estudiantes que usaban LLMs de forma consistente para escribir ensayos, disminuyeron sus capacidades neuronales, lingüísticas y de comportamiento, lo cual despertó enormes preocupaciones en torno a las implicaciones de incorporar LLMs en cualquier sistema educativo”.

El colegiado concluyó que la IA generativa tendrá un profundo efecto en muchos aspectos de nuestra vida, incluyendo la educación, salud, investigación científica y los sistemas financieros. “Es importante informarse sobre ésta, aunque no sea de nuestro interés utilizarla. Sin embargo, deben usarse fuentes confiables”.

La primera sesión del ciclo Mitos, miedos y verdades de la computación, organizado por El Colegio Nacional, se encuentra disponible en las plataformas digitales de El Colegio Nacional.

Tendencias