Opinión

La inteligencia artificial y las directivas europeas.

El parlamento europeo emitió el 3 de diciembre de 2001 la directiva 2001/95/CE relativa a la seguridad de los productos con el propósito de mejorar el funcionamiento del mercado interior, llenar el vacío de normatividad doméstica sobre la obligación de los comercializadores de bienes y servicios de ofrecer sólo productos seguros que protegieran a los consumidores e imponer requisitos de salud y seguridad a los productos que conlleven algún tipo de riesgo, haciendo énfasis en los grupos vulnerables como los niños y las personas mayores, que deberán incorporar los organismos de normalización nacionales.

Inteligencia artificial de ChatGPT

Inteligencia artificial 

Este tipo de directivas contribuyen a la disminución significativa de los riesgos de los productos peligrosos y sancionar efectivamente a quienes no proporcionen información veraz o carezcan de controles de seguridad y a fortalecer las redes de cooperación entre las autoridades de control para facilitar el intercambio de información para la mejor vigilancia del mercado y otras medidas de control para garantizar que haya un seguimiento puntual de los productos peligrosos.

En esta misma lógica, como parte de la estrategia digital de la Unión Europea que complementará las leyes de servicios digitales y mercados digitales, el parlamento quiere regular la inteligencia artificial (IA) para garantizar las mejores condiciones de desarrollo de la tecnología innovadora y, a partir de la determinación del riesgo de los productos relacionados con la misma, se proteja a los consumidores para que los sistemas de IA sean seguros, transparentes, trazables, no discriminatorios y respetuosos de medio ambiente.

En 2021, el parlamento europeo, con base en una visión de futuro, pretendió establecer una normativa que impusiera obligaciones a los proveedores y usuarios de sistemas de IA, que identificara el nivel de riesgo a la seguridad de las personas y el mínimo tolerable para llevar a cabo una evaluación que generara un esquema regulatorio especializado por tipo de producto, que garantizara la supervisión humana de la automatización y la neutralidad tecnológica.

En 2022, se elaboró una hoja de ruta con fundamento en un informe de una comisión especial sobre Inteligencia Artificial en la Era Digital (AIDA, por sus siglas en inglés) que parte del supuesto que el avance de la transformación digital impactará con mayor fuerza a la economía y vida cotidiana en el corto y mediano plazos e invita a continuar con los esfuerzos legislativos en la materia. El informe arrojó que el 61 % de los europeos está a favor de la robotización y el 88 % considera que debe haber una mayor regulación.

La IA abarca los asistentes personales, los vehículos autónomos, el internet de las cosas, el comercio electrónico, la robótica, la ciberseguridad, las búsquedas en el ciberespacio, sistemas de reconocimiento de voz y rostro y el manejo avanzado del lenguaje como las traducciones y la síntesis de ideas e implica el uso de una máquina para sustituir tareas humanas como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear. La IA modifica el comportamiento social e individual a través de la automatización, la disponibilidad de enormes cantidades de datos y el uso de algoritmos con aplicaciones en la salud, el transporte, las manufacturas, la comida y la agricultura, los servicios y la gestión pública.

Los trabajos para la aprobación de las directivas parten de la convicción que el acceso a la infraestructura digital es un derecho que debe extenderse a todos los grupos poblacionales, por lo que el apoyo de los gobiernos a los procesos de despliegue de tecnologías de avanzada como la 5G debe ser una prioridad y que debe haber estrategias que aumenten las competencias digitales de las personas, así como promuevan la innovación y prevean ataques a la ciberseguridad con base en la cooperación internacional.

En este contexto, en junio 2023, el parlamento adoptó una posición negociadora en la que se determinaron los riesgos inaceptables y los sistemas de alto riesgo de IA, que son el punto de partida del proceso de revisión de la Ley de IA de la Unión Europea. En este acuerdo, se prohíbe la manipulación de los grupos vulnerables, la discriminación y la identificación biométrica en tiempo real y se identifican como situaciones prevenibles por su peligrosidad los productos con sistemas de IA como juguetes, aviación, automóviles, dispositivos médicos y ascensores, así como el uso de datos masivos en identificación biométrica, gestión de infraestructura crítica, educación, empleo, servicios esenciales, gestión pública, migración, asilo y control de fronteras, así como operaciones jurídicas.

La transparencia es un principio para la elaboración y operación de los sistemas IA, así como los procesos de generación de conocimiento con IA, la prevención de modelos ilegales y la revelación de mínimos indispensables para conocer los derechos de autor.

La transformación digital tiene cuatro aspectos: el refuerzo de la soberanía europea bajo la idea que la innovación tecnológica es el camino al liderazgo del futuro, la inversión focalizada, el reconocimiento que el 42 % de los europeos carecen de competencias digitales básicas y el proteger la dignidad humana. Muchos retos para las directivas en construcción en el parlamento europeo.

Investigador del Instituto Mexicano de Estudios

Estratégicos de Seguridad y Defensa Nacionales

cmatutegonzalez@gmail.com

Facebook.com/cmatutegonzalez

Twitter @cmatutegonzalez

www.carlosmatute.com.mx