La Unión Europea (UE) lidera la carrera para regular la inteligencia artificial (IA). Poniendo fin a tres días de negociaciones, el Consejo Europeo y el Parlamento Europeo alcanzaron hoy un acuerdo provisional sobre lo que se convertirá en la primera regulación integral de la IA del mundo.
Carme Artigas, secretaria de Estado española de Digitalización e IA, calificó el acuerdo como un “logro histórico” en un comunicado de prensa. Artigas dijo que las reglas lograron un “equilibrio extremadamente delicado” entre fomentar la innovación y la adopción de IA segura y confiable en toda la UE y proteger los “derechos fundamentales” de los ciudadanos.
El proyecto de ley, la Ley de Inteligencia Artificial, fue propuesto por primera vez por la Comisión Europea en abril de 2021. El parlamento y los estados miembros de la UE votarán para aprobar el proyecto de ley el próximo año, pero las reglas no entrarán en vigor hasta 2025.
Un enfoque basado en el riesgo para regular la IA
La Ley de IA está diseñada utilizando un enfoque basado en el riesgo, donde cuanto mayor es el riesgo que plantea un sistema de IA, más estrictas son las reglas. Para lograrlo, el reglamento clasificará las IA para identificar aquellas que representen “alto riesgo”.
Las IA que se consideren no amenazantes y de bajo riesgo estarán sujetas a “obligaciones de transparencia muy leves”. Por ejemplo, se requerirá que dichos sistemas de inteligencia artificial revelen que su contenido es generado por inteligencia artificial para permitir a los usuarios tomar decisiones informadas.
Para las IA de alto riesgo, la legislación agregará una serie de obligaciones y requisitos, que incluyen:
Supervisión humana: La ley exige un enfoque centrado en el ser humano, enfatizando mecanismos de supervisión humana claros y efectivos de los sistemas de IA de alto riesgo. Esto significa tener humanos al tanto, monitoreando y supervisando activamente el funcionamiento del sistema de IA. Su función incluye garantizar que el sistema funcione según lo previsto, identificar y abordar posibles daños o consecuencias no deseadas y, en última instancia, asumir la responsabilidad de sus decisiones y acciones.
Transparencia y Explicabilidad: Desmitificar el funcionamiento interno de los sistemas de inteligencia artificial de alto riesgo es crucial para generar confianza y garantizar la rendición de cuentas. Los desarrolladores deben proporcionar información clara y accesible sobre cómo sus sistemas toman decisiones. Esto incluye detalles sobre los algoritmos subyacentes, datos de entrenamiento y posibles sesgos que pueden influir en los resultados del sistema.
Dato de governancia: La Ley de IA enfatiza las prácticas responsables en materia de datos, con el objetivo de prevenir la discriminación, los prejuicios y las violaciones de la privacidad. Los desarrolladores deben garantizar que los datos utilizados para entrenar y operar sistemas de IA de alto riesgo sean precisos, completos y representativos. Los principios de minimización de datos son cruciales, ya que recopilan solo la información necesaria para el funcionamiento del sistema y minimizan el riesgo de uso indebido o violaciones. Además, las personas deben tener derechos claros para acceder, rectificar y borrar los datos utilizados en los sistemas de IA, lo que les permitirá controlar su información y garantizar su uso ético.
Gestión de riesgos: La identificación y mitigación proactiva de riesgos se convertirá en un requisito clave para las IA de alto riesgo. Los desarrolladores deben implementar marcos sólidos de gestión de riesgos que evalúen sistemáticamente los posibles daños, vulnerabilidades y consecuencias no deseadas de sus sistemas.