Aunque falta la ratificación por parte del Parlamento Europeo y del Consejo de la UE, se trata de un avance sin precedentes para que los desarrolladores de sistemas de IA, como ChatGPT, comiencen a cumplir requisitos básicos de transparencia, salvo que fuesen gratuitos y de código abierto.
Estamos ante un caso de éxito de la presidencia española del Consejo de la UE. Han sido dos largos años de negociaciones, pero finalmente se ha conseguido construir una normativa pionera que se enfocará en aspectos clave de la IA como la vigilancia biométrica y las características de los modelos funcionales. Se prevé que esté vigente para 2026.
En palabras de Thierry Breton, Comisario de Mercado Interior y uno de los grandes impulsores de la normativa, Europa logra posicionarse como pionera y comprende la importancia de su papel global al marcar los estándares de calidad en IA.
La IA Act se presentó por primera vez en abril de 2021. Ahora se consigue abogar por la seguridad jurídica y una IA responsable que salvaguarde los derechos de las personas y de las empresas. La UE marcará el camino para otros gobiernos, como EEUU y China que se sirven de reglas provisionales y laxas en muchos casos.
Las claves de la nueva normativa
El objetivo no es otro que establecer un equilibrio entre la limitación de los riesgos que implica la IA y la garantía de las posibilidades de desarrollo de esta herramienta, clave para la economía y el devenir de las empresas. En este sentido, se fijaron las bases de los modelos de IA de propósito general, es decir, modelos funcionales o de IA Generativa como ChatGPT, así como los sistemas de vigilancia biométrica.
Se habla, como elemento clave, de la separación por riesgos. De este modo, la norma detalla que habrá cuatro niveles. La mayoría de IA se enmarcará en el ´riesgo mínimo´, donde entran los sistemas de recomendación. Aquí no habrá obligaciones.
No obstante, en el caso de ser de ´alto riesgo´, en relacionadas con infraestructuras críticas (instalaciones de agua, electricidad, gas o dispositivos médicos), la tecnología quedará regulada por requisitos estrictos como sistemas de mitigación de riesgos, registro de actividad, supervisión y aportación clara de información.
En el nivel de ´transparencia específico´ se habla que los chatbots de los usuarios deberán ser conscientes de que están interactuando con una máquina. En el ´riesgo inaceptable´, donde se incluyen las IA que manipulan el comportamiento humano, la Comisión Europea fijará una prohibición.
Novedades para los modelos funcionales de IA
Sistemas en los que se basan programas como ChatGPT de OpenAI o Bard de Google, entre otros, deberán cumplir criterios de transparencia antes de salir al mercado. De este modo, deberán especificar que sus creaciones son resultado de la IA, con información detallada sobre el contenido empleado para su entrenamiento. Además, en todo momento, deberán cumplir con las leyes comunitarias sobre derechos de autor.
Aplicaciones prohibidas
Ante los problemas latentes, el Parlamento Europeo veta algunas aplicaciones por su amenaza potencial para los derechos de los ciudadanos y la democracia. Aquí se incluyen los sistemas de categorización biométrica apoyados en características sensibles (raza, orientación sexual o creencias religiosas). También se habla de extracciones no dirigidas de imágenes o sistemas de puntación social basados en características personales.
Los sistemas de vigilancia biométrica quedarán prohibidos siempre y cuando usen la IA para trastocar las vulnerabilidades de las personas. La vigilancia biométrica será prerrogativa de las fuerzas de orden público (el RBI ´post-remoto´), de tal modo que la podrán usar en tiempo real en espacios públicos para la prevención de amenazas o la búsqueda de víctimas de delitos.
Claves sobre los derechos de autor
La legislación también aborda que los sistemas GPAI y modelos en los que se basan tendrán que cumplir con los requisitos de transparencia propuestos por el Parlamento, teniendo la obligación de elaborar documentación técnica, en base a la normativa de la UE vigente sobre derechos de autor y la difusión de resúmenes detallados sobre el contenido usado en la formación.
Sanciones estrictas
Una de las claves de la nueva normativa de IA de la UE será hacia los sistemas de IA de ´alto riesgo´, aunque a nivel general se impondrán multas cuantiosas. Saltarse las pautas establecidas podría suponer sanciones que van desde los 7,5 millones de euros o el 1,5% del volumen de negocio a otras que alcanzan los 35 millones de euros o el 7% del volumen de negocio. En cualquier caso, el importe dependerá del tipo de infracción o del tamaño de la empresa.