Academia

En casi 70 años, la Inteligencia Artificial pasó de imitar a predecir comportamientos: Carlos Coello

Los programas de computadora no tienen un entendimiento ni una conciencia de lo que resuelven, porque operan a través de números. No son herramientas pensadas para causar daño sino para apoyarnos, añade el investigador del Cinvestav

COLNAL

Carlos Coello recordó que la disciplina de IA nació al reunir dos meses a expertos que tenían avances aislados en programas y experimentos que simulaban el pensamiento.

Carlos Coello recordó que la disciplina de IA nació al reunir dos meses a expertos que tenían avances aislados en programas y experimentos que simulaban el pensamiento.

Colnal

Desde 1956, cuando se propuso por primera vez utilizar el concepto de Inteligencia Artificial para reunir avances y experimentos de computación y matemáticas que imitaban algunos procesos del pensamiento humano, el avance de esta rama del conocimiento ha sido sostenido, pero más lento de lo que se proyectaba porque se han identificado procesos que no imaginaban los pioneros de ese campo. Un ejemplo fue la aparición de los programas de juego de ajedrez que no sólo imitaban movimientos de piezas, sino que predecían y se adelantaban a posibles movimientos.

Así lo explicó, en El Colegio Nacional, el doctor en Ciencias de la Computación e investigador del Centro de Investigación y Estudios Avanzados (Cinvestav), Carlos Coello Coello, al participar en la conferencia “¿Las máquinas pueden pensar? Chat GPT y el aprendizaje de la máquina”.

El encuentro, coordinado por el físico experto en ciencias de la complejidad y Premio Crónica, Alejandro Frank, reunió en la misma sesión a tres de los mexicanos que trabajan en los frentes más avanzados de desarrollo y experimentación con Inteligencia Artificial: el doctor Carlos Coello, quien es Premio Nacional de Ciencias 2012 y nuevo miembro electo de El Colegio Nacional; el doctor Luis Alberto Pineda Cortés, profesor de la Universidad Nacional Autónoma de México (UNAM), pionero en robótica en este país y creador del robot Golem, y el matemático mexicano Raúl Rojas, profesor de la Universidad Libre de Berlín y creador de algunos de los primeros automóviles autónomos de todo el mundo.

SIETE DÉCADAS

Al repasar el origen histórico de la Inteligencia Artificial, Carlos Coello explicó que se trata de un área de estudio dentro de las ciencias de la computación con un antecedente diverso, “el término se acuñó a raíz de un evento realizado por los científicos e informáticos John McCarthy, Marvin Minsky y Nathan Rochester en 1956, titulado “Dartmouth Summer Research Project on Artificial Intelligence” (Proyecto de Investigación de Verano de Dartmouth sobre Inteligencia Artificial) momento en el que surgió la IA como disciplina de estudio.

Entre los primeros trabajos en torno a las máquinas pensantes, se encontró el del matemático inglés Alan Turing, quien creó la prueba operativa de inteligencia de una máquina para exhibir su comportamiento, considerada uno de los grandes hitos dentro de la IA. Recordó que, desde sus orígenes, la IA siempre buscó simular la inteligencia humana.

Luis Pineda mostró algunos ejercicios que muestran algunas deficiencias que se tienen que resolver en los modelos de lenguaje de IA.

Luis Pineda mostró algunos ejercicios que muestran algunas deficiencias que se tienen que resolver en los modelos de lenguaje de IA.

Colnal

Coello detalló que la Inteligencia Artificial que emergió los años cincuenta fue conocida como simbólica, porque entrenaba de la misma manera en que el cerebro humano, aprendía y estaba basada en la lógica, pero la IA actual es llamada subsimbólica, ya que la información se almacena en números y se basa en las redes neuronales.

“No hay que perder de vista que estos programas de computadora no tienen un entendimiento ni una conciencia de lo que resuelven, porque operan a través de números. No son herramientas pensadas para causar daño sino para apoyarnos, y el elemento humano persiste detrás”, puntualizó el investigador.

Sobre la preocupación actual de mucha gente que teme la posible desaparición de ciertos empleos por el avance de la IA, Coello dijo que el argumento de las personas que trabajan en esa disciplina es que todo lo que requiere creatividad se va a mantener, mientras que lo que se ha buscado que puedan hacer las máquinas son los trabajos repetitivos y rutinarios; eso es lo que se ha buscado automatizar.

El investigador que el próximo 5 de mayo dará su conferencia de ingreso formal a El Colegio Nacional, dijo que si se quiere responder la pregunta “¿Las máquinas pueden pensar?”, lo primero que hay que hacer es definir lo que entendemos por pensar, pues no basta con lograr que una computadora genere una respuesta correcta. Hay procesos más complejos que todavía falta responder como: ¿La computadora está consciente de que me está dando esa respuesta? “Y la conciencia sigue siendo algo muy humano. Sí se ha intentado simular, pero al menos en el momento presente nos rebasa”.

LENGUAJE Y PENSAMIENTO

El doctor Raúl Rojas habló sobre la IA subsimbólica y detalló que las neuronas son una serie de entes individuales que utilizan electricidad para comunicarse, están conectadas en redes de procesamiento de datos y son como mini procesadores. Agregó que las redes neuronales artificiales llamadas modernas, tienen una estructura similar a las neuronas de los seres humanos, y cuentan con una entrada de datos, conductos de transmisión y una unidad de salida. “Lo más importante es que estas redes no son programadas, aprenden a comportarse de cierta manera. Y han crecido tanto que se les conoce como redes de aprendizaje profundo, porque hay cientos de datos de donde obtienen su información”.

El también ganador del Premio Nacional de Ciencias en el año 2015 expuso que en la tecnología de ChatGPT, se utilizan lo que se conoce como transformadores, una forma particular de conectar las redes neuronales profundas conectadas entre capas, es decir, entre las diferentes proyecciones matemáticas que se tienen en la información. “La técnica ha avanzado con la idea original de replicar las neuronas cerebrales con elementos electrónicos sencillos, en cuanto a elementos individuales, pero muy peligrosos cuando se conectan a una red de millones de millones de parámetros”.

Raúl Rojas dijo que en Alemania los sindicatos piden que los trabajadores sean capacitados en nuevas actividades en la que no sean desplazados por la IA.

Raúl Rojas dijo que en Alemania los sindicatos piden que los trabajadores sean capacitados en nuevas actividades en la que no sean desplazados por la IA.

Colnal

De acuerdo con el experto, la Inteligencia Artificial siempre va a ser fundamentalmente diferente a la humana, porque “los humanos tienen un concepto del yo y tienen miedo a morir, la filosofía de explicar la razón de su existencia, algo que la computadora no se puede plantear. La inteligencia humana es un producto de la evolución biológica y como tal no es reproducible a las computadoras que tenemos hoy, que no le temen a nada”.

A su vez, el doctor Luis Pineda aclaró que las máquinas no pueden sentir y una tecnología como ChatGPT es modelada por el lenguaje automático, pero se modela con una habilidad flotante, porque, por un lado, “no está conectado ni con el pensamiento, ni con la memoria y; por el otro, tampoco está aterrizado en el mundo”.

Después de realizar diversos ejercicios con esta aplicación, Pineda Cortés concluyó que ChatGPT se traba y se contradice, y esta es una señal de que no piensa. “Realmente repite como perico, de una manera sofisticada”. Subrayó las palabras de Alan Turing de dotar a la máquina con los mejores órganos sensoriales que el dinero pueda comprar para enseñarle a entender. Es decir, “hay que dotar a la máquina de lenguaje para que pueda aprenderlo como los seres humanos. Este proceso es aterrizado, como la adquisición del lenguaje de los niños y ese es el reto que tiene actualmente la Inteligencia Artificial. ChatGPT no lo hace”.

El investigador del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la UNAM explicó que el lenguaje es una maquinaria interpretativa e intencional, es una metáfora que ha guiado a la inteligencia artificial.

“Sin embargo, también es una habilidad que se entrena, se utiliza en automático y sin pensar”. Detalló que “el gran problema fuerte de la conciencia es que todavía no sabemos cómo resolver ¿por qué la materia física puede dar lugar a contenidos mentales? No podemos crear máquinas que lo resuelvan”.

Sí se trabaja en los dilemas éticos de la IA

En relación con la ética, Carlos Coello Coello aseguró que actualmente existe una nueva disposición en las revistas de tecnología que obliga a los autores a que subrayen toda la información que se hizo por ChatGPT.

Para Raúl Rojas, el sistema automático computarizado no debe realizar una elección que implica una cuestión de ética, siempre debe haber un humano que tome ese tipo de decisiones. “La cuestión ética es muy discutida. Definir todas las áreas en las que un humano debe ser en última instancia responsable es tarea de la legislación, ahí estamos muy atrasados”.

Por su parte, Pineda Cortés expuso que las máquinas no tienen contenidos mentales y no tienen intencionalidad, “ellas simulan cosas y como tal no pueden estar sujetas a juicios éticos, porque no tienen libertad. Nosotros aportamos la intencionalidad al fenómeno computacional”.