
Durante años nos enseñaron que un buen contrato era el que tenía claras tres cosas:
- El precio;
- Las obligaciones y;
- Los plazos.
Si eso estaba bien amarrado, podíamos dormir tranquilos. Hoy, esa lógica ya no alcanza.
Porque puedes firmar un contrato “perfecto” y aun asi meterte en un problema enorme, no por mala fe, sino porque el riesgo ya no siempre está en lo que se escribió, sino en la tecnología que opera detrás.
Pensemos en algo muy cotidiano, una empresa contrata a un proveedor para gestionar procesos, datos o atención a clientes. Todo parece en orden, el contrato se firma, se ejecuta y nadie sospecha nada… hasta que una decisión automatizada falla, un sistema comete un error o una herramienta de inteligencia artificial actúa sin supervisión humana.
Y entonces surge la pregunta natural: ¿Quién responde cuando la tecnologia se equivoca?
Aquí es donde los contratos tradicionales empiezan a quedarse cortos, muchos siguen pensados para un mundo donde todas las decisiones eran humanas, visibles y fáciles de rastrear. Pero hoy, cada vez más las decisiones se toman por algoritmos, sistemas automatizadas o herramientas que ni siquiera aparecen mencionadas en el contrato.
La inteligencia artificial ya impacta relaciones contractuales, incluso cuando no se le nombra. Puede influir en precios, evaluaciones, autorizaciones, rechazos, perfiles de riesgo o manejo de datos, y cuando algo sale mal, la responsabilidad no siempre está clara.
¿Fue culpa del proveedor?
¿Del sistema que utilizó?
¿De quien contrató sin preguntar cómo se tomaban esas decisiones?
El problema no es la tecnología en sí. El problema es no anticiparla jurídicamente.
Por eso, hablar hoy de contratos ya no es solo hablar de obligaciones. Es hablar de gestión de riesgos. De prever escenarios que antes no existían como ciberataques, filtraciones de datos, errores algorítmicos, dependencia tecnológica de terceros o daños reputacionales que se expanden en minutos.
En este nuevo contexto, las cláusulas genéricas de confidencialudad o responsabilidad ya no bastan, cada vez mas, los contratos deberán preguntarse cosas que antes no estaban sobre la mesa:
- ¿Se permite o no el uso de la IA?
- ¿Debe existir supervisión humana?
- ¿Qué pasa si un proveedor sufre un incidente tecnológico?
No regular estos temas no es neutral. Es dejar vacíos que cuando aparece el conflicto, suelen llenarse con costos, litigios o crisis de reputación.
El gran cambio que viene es tanto tecnológico como mental; el contrato deja de ser solo un documento operativo y empieza a convertirse en una herramienta estratégica de prevención, una especie de escudo, no solo un papel firmado.
Tal vez el verdadero error ya no sea que la IA se equivoque, sino no haber previsto qué hacer cuando inevitablemente lo haga.
Desde Derecho en Perspectiva, la clave no está en temerle a la inteligencia artificial, sino en asumirla con responsabilidad jurídica. La tecnología no elimina la obligación de prever riesgos; al contrario, la vuelve más urgente. Hoy, anticipar escenarios tecnológicos en los contratos ya no es una opción sofisticada, es una necesidad básica de protección.
Y entonces vale la pena preguntarnos: ¿Estamos firmando contratos para el mundo que ya pasó… o para el que ya está aquí?

@KaarinaCano