Academia

ChatGPT puede influir en juicios morales de las personas

Investigadores presentaron un dilema moral a la IA y posteriormente a participantes humanos, quienes fueron influidos en su respuesta · Los robots o IA no deben tomar decisiones morales: Raúl Rojas

estudio

Las decisiones morales no deben ser tomadas por una IA, recuerdan los expertos, puesto que carece de sabiduría y compasión.

Las decisiones morales no deben ser tomadas por una IA, recuerdan los expertos, puesto que carece de sabiduría y compasión.

Las respuestas humanas a dilemas morales pueden verse influenciadas por declaraciones escritas por el chatbot de inteligencia artificial ChatGPT, según un estudio publicado en “Scientific Reports”. Los hallazgos indican que los usuarios pueden subestimar la medida en que el chatbot puede influir en sus propios juicios morales.

Investigadores de la Universidad Técnica de Ingolstadt, encabezados por Sebastian Krügel, preguntaron a ChatGPT varias veces si es correcto sacrificar la vida de una persona para salvar la vida de cinco. Descubrieron que ChatGPT escribió declaraciones argumentando tanto a favor como en contra de sacrificar una vida, lo que indica que no está sesgado hacia una determinada postura moral.

Los académicos presentaron a 767 participantes estadounidenses, con un promedio de edad de 39 años, uno de dos dilemas morales que requerían que eligieran si sacrificar la vida de una persona para salvar a otras cinco. Antes de responder, los participantes leyeron una declaración proporcionada por ChatGPT argumentando a favor o en contra de sacrificar una vida para salvar cinco. Las declaraciones se atribuyeron a un asesor moral o a ChatGPT. Después de responder, se preguntó a los participantes si la declaración que leyeron influyó en sus respuestas.

Lee también

Alejandro Frank: Todo conocimiento nuevo implica beneficios y peligros

El colegio nacional
Alejandro Frank, miembro de El Colegio Nacional.

En el estudio "ChatGPT’s inconsistent moral advice influences users’ judgment", los autores encontraron que los participantes tenían más probabilidades de encontrar aceptable o inaceptable sacrificar una vida para salvar cinco, dependiendo de si la declaración que leyeron argumentaba a favor o en contra del sacrificio. “Esto era cierto, incluso la declaración se atribuyó a un ChatGPT”, señalan los autores. “Estos hallazgos sugieren que los participantes pueden haber sido influenciados por las declaraciones que leyeron, incluso cuando se atribuyeron a un chatbot”.

El 80% de los participantes informaron que sus respuestas no fueron influenciadas por las declaraciones que leyeron. Sin embargo, los autores encontraron que las respuestas que los participantes creían que habrían proporcionado sin leer las declaraciones tenían más probabilidades de estar de acuerdo con la postura moral de la declaración que leyeron que con la postura opuesta. Esto indica que los participantes pueden haber subestimado la influencia de las declaraciones de ChatGPT en sus propios juicios morales, señala el artículo.

Lee también

"2084": una advertencia ante la peor distopía

Catalina Elena Dobre. Doctora en filosofía
El sistema de Inteligencia Artificial.

Los autores sugieren que, dentro del potencial de los chatbots para influir en los juicios morales humanos, destaca la necesidad de educación para ayudar a los humanos a comprender mejor la inteligencia artificial. Proponen que la investigación futura podría diseñar chatbots que se nieguen a responder preguntas que requieran un juicio moral o respondan estas preguntas proporcionando múltiples argumentos y advertencias.

EN EL COLEGIO NACIONAL.

El pasado 30 de marzo, El Colegio Nacional llevó a cabo la mesa “¿Las máquinas pueden pensar? ChatGPT y el aprendizaje de máquina”, coordinada por Alejandro Frank, miembro de la institución e investigador de la UNAM.

Durante el encuentro, Carlos Coello, investigador en ciencias de la computación del Centro de Investigación y de Estudios Avanzados (Cinvestav) y miembro electo de El Colegio Nacional, realizó un recorrido histórico por el desarrollo de la inteligencia artificial y redes neuronales desde mediados del siglo pasado.

Lee también

En casi 70 años, la Inteligencia Artificial pasó de imitar a predecir comportamientos: Carlos Coello

antimio cruz
Carlos Coello recordó que la disciplina de IA nació al reunir dos meses a expertos que tenían avances aislados en programas y experimentos que simulaban el pensamiento.

Entre los pioneros de esta tecnología mencionó a Joseph Weizenbaum, informático que desarrolló el programa de procesamiento de lenguaje ELIZA, basado en un estilo de trabajo psicoterapéutico. Paradójicamente, el científico sería uno de los principales detractores de la inteligencia artificial.

En su libro “El Poder de las Computadoras y la Razón Humana”, relató Coello, el también considerado padre de la cibernética enfatiza que las máquinas o inteligencia artificial no deben tomar decisiones importantes relacionadas con el desarrollo humano, puesto que carecen de elementos como la compasión y la sabiduría.

Por su parte, Raúl Rojas, Premio Nacional de Ciencias y Artes y profesor de la Universidad Libre de Berlín comentó algunos aspectos éticos en torno a la inteligencia artificial. El egresado del Politécnico es uno de los expertos internacionales en el desarrollo de inteligencia artificial para la movilidad de autos autónomos. 

Sobre el tópico anterior, relató, le han preguntado qué decisión tomaría el auto autónomo en una situación similar a la planteada en el experimento de Krügel: ¿qué pasaría si el auto, con dos carriles, no le queda más que atropellar a una persona? Si tuviera que decidir entre atropellar a una persona joven o a una mayor ¿a quién debería elegir? “La respuesta claramente es que el robot o el sistema automático no debe una lección que implica una cuestión ética, siempre debe haber un humano que debe tomar ese tipo de decisiones y en ese caso lo único que puede hacer el vehículo es frenar lo más que pueda y no tomar una decisión que implique la pérdida de vidas”.