Monitor Software
G7 establece un código de conducta para desarrolladoras IA
Publicación:31-10-2023
TEMA: #Inteligencia Artificial
Se busca promover una IA segura y confiable en todo el mundo, con orientación voluntaria para las acciones de las empresas desarrolladoras.
El avance sin límites de la IA preocupa a todos los sectores económicos, de ahí que los líderes de los países que forman parte del G7 se hayan reunido para acordar la fijación de un código de conducta para las empresas desarrolladoras de sistemas avanzados de IA. Los gobiernos buscan frenar el impacto y los riesgos que supone el uso inadecuado de esta eficiente tecnología, pero mientras tanto, es importante que las propias empresas pongan de su parte mitigar los casos de vulnerabilidad.
El nuevo código de conducta aprobado por Canadá, Francia, Italia, Alemania, Gran Bretaña, Japón y EEUU supone un hito en la materia y viene a continuar el proceso iniciado en mayo durante el foro ministerial denominado ´Hiroshima. Proceso de IA´. Constará de 11 puntos con los que se busca promover una IA segura y confiable en todo el mundo, con orientación voluntaria para las acciones de las empresas desarrolladoras.
Su objetivo es colaborar en aprovechar los beneficios que trae consigo la IA, pero también hacer frente a los importantes riesgos y desafíos de esta tecnología. Será responsabilidad de las empresas publicar informes periódicos sobre las capacidades, limitaciones y usos de los sistemas de IA, así como invertir en sólidos controles de seguridad que eviten brechas informativas que dejen en jaque a usuarios y entidades de todo el mundo.
Según Kent Walker, presidente de Asuntos Globales de Google y Alphabet: "La IA es una tecnología global que requiere de un enfoque global en materia de responsabilidad. El Código de Conducta del G7 supone un paso importante hacia el desarrollo y el despliegue responsable de una IA que beneficie a todos. Desde Google, apoyamos este Código de Conducta del G7 y esperamos poder trabajar conjuntamente con los gobiernos, la industria y la sociedad civil para hacer las cosas bien en un momento tan crucial como el actual".
La cibserseguridad pasa a ocupar un papel prioritario en la configuración de este innovador código de conducta, especialmente aludiendo a aquellas empresas encargadas de desarrollar los sistemas de IA más avanzados. Aquí se incluyen los modelos funcionales y los sistemas generativos de IA con medidas más innovadoras y contundentes.
Hay que tener en cuenta que la propuesta del G7 con su nuevo código de conducta es una normativa no vinculante, por lo que los grandes gigantes tecnológicos como Microsoft, Meta y Alphabet (Google) no tendrán la obligación de cumplir con las medidas fijadas por el foro.
La UE a la vanguardia
La UE se ha mantenido a la vanguardia de la regulación de esta tecnología emergente con el decreto de la nueva Ley de IA, mientras que Japón, EEUU y el resto de países del sudeste asiático han optado por un enfoque menos intervencionista que garantice el impulso del crecimiento económico. De hecho, en EEUU, los legisladores aún están en una fase inicial de consultas para una futura regulación, viéndose influenciados por los líderes del sector.
Vera Jourova, jefa digital de la Comisión Europea, aseguró a comienzos de octubre que la configuración de un código de conducta constituye una base sólida para garantizar la seguridad y como referencia hasta la implantación de la regulación pertinente.
La nueva Ley de IA de la UE fija normas estrictas dependiendo del riesgo que suponga el uso de la IA, ya fuese alto, moderado o leve. Los sistemas de riesgo alto son los que más pueden incidir en el futuro de un determinado usuario o entidad, mientras que a los sistemas de riesgo moderado y de riesgo leve se les exige una cierta transparencia en la gestión.
El reglamento en cuestión también limita aquellos sistemas que suponen un riesgo aceptable y una amenaza latente para los usuarios, siendo su objetivo prioritario prohibir sistemas de identificación biométrica.
Con respecto a la IA generativa, las normas propuestas por la UE dictan la obligación de revelar los contenidos generados artificialmente y los datos utilizados para entrenar cualquier modelo lingüístico considerado de gran tamaño.
Si la UE detecta que los modelos de IA incumplen la regulación, las herramientas desarrolladas podrían suspenderse, aunque podrán recurrirla para evitar dicha suspensión tan crítica en términos económicos. Dicho esto, se espera que se apruebe la versión final del texto próximamente y que entre en vigor a finales de 2025.
La Ley de IA en España
Nadia Calviño, vicepresidente primera del Gobierno y ministra de Asuntos Económicos y para la Transformación Digital en funciones, ha asegurado recientemente que en las próximas semanas podría cerrarse, de forma definitiva, el reglamento europeo regulatorio de la IA. Esta primera jurisdicción a nivel mundial establecerá un marco único para garantizar la seguridad, la privacidad, los derechos y los valores europeos de carácter democrático.
Es importante que se trabaje en la modernización y transformación en clave digital en pro de la productividad empresarial y del conjunto del viejo continente. Ya en febrero, la Secretaría de Estado de Digitalización e Inteligencia Artificial hizo alusión a la posibilidad de crear un banco de pruebas que regulasen la IA en la UE. Así se garantizaría el desarrollo de una IA responsable para documentar qué obligaciones se deben cumplir.
« Especial »