El pasado viernes 28 de abril OpenAI anunciaba, a través de un comunicado a Associated Press, que había acometido en ChatGPT los cambios solicitados por el regulador de privacidad de Italia. Hay que recordar que éste había restringido el uso de la herramienta de inteligencia artificial debido a la ausencia de controles de verificación de edad y de recopilación de datos de usuarios online.
Aunque se le dio a OpenAI hasta el 30 de abril como fecha límite para solventar estos problemas, finalmente la medida llegó antes. Para recuperar el mercado italiano, se han visto obligados a implementar una serie de concesiones a la Autoridad de Protección de Datos de Italia.
Entre las medidas que han garantizado el retorno de ChatGPT a Italia destaca una mejor información a los usuarios sobre cómo ChatGPT toma sus datos. Se crea, por tanto, un formulario para que ellos puedan decidir libremente si quieren o no eliminar sus datos de los algoritmos de entrenamiento de la herramienta. Al deshabilitar el historial de chat y rechazar la exportación de datos, se restringe en sobremanera su poder de actuación.
De igual modo, se exige a partir de ahora que los usuarios italianos proporcionen su fecha de nacimiento al registrarse, implantándose un exhaustivo control de edad. Se permite así a ChatGPT el bloqueo de los menores de 13 años o la solicitud de permisos de los padres para los menores de 18 años.
A pesar de estas dos importantes medidas, desde la Autoridad de Protección de Datos de Italia no se muestran del todo satisfechos y piden a OpenAI que indague en el resto de demandas, como el lanzamiento de una campaña publicitaria a través de la cual se informase a los usuarios sobre cómo funciona la herramienta y cómo optar a no compartir datos. La clave para la entidad pasa por combinar el progreso tecnológico con el respeto a los derechos de las personas.
Desde que el 31 de marzo se impusiesen las restricciones del Gobierno Italiano a ChatGPT, después de la fuga masiva de datos experimentada el pasado 20 de marzo, OpenAI ha venido trabajando muy activamente para evitar no solo la pérdida del país, sino de todo el mercado europeo.
El impacto de ChatGPT en Italia
En poco más de dos meses desde su irrupción en Italia, ChatGPT ha logrado atraer a más de 100 millones de usuarios activos al mes, convirtiéndose en la aplicación que más rápido crece de todos los tiempos y superando a otras como TikTok o Instagram que tardaron nueve meses y dos años y medio, respectivamente, en integrarse en la mentalidad nacional.
La repercusión en otros países
La investigación preliminar encauzada por Italia contra OpenAI se desarrolla en el seno del Comité que agrupa a las autoridades de privacidad de la Unión Europea. No obstante, y a pesar de su línea de investigación, España aún no ha bloqueado el acceso a ChatGPT.
Los reguladores de privacidad de Francia, Irlanda y Alemania se han comunicado con sus homólogos italianos para obtener más información al respecto y estudiar un posible bloqueo de ChatGPT ante el riesgo que supone para la seguridad de los datos.
Son muchas las voces que piden el control razonable de la IA, en manos actualmente de las empresas para dominar el mercado. La Comisión Europea, el Parlamento Europeo y el Consejo de la UE están estudiando volver a redactar la Ley de Inteligencia Artificial, teniendo en cuenta el poder maligno que las tecnologías emergentes como ChatGPT poseen.
En EEUU no está clara la idea de volver a redactar una nueva ley para IA. La Oficina de Protección Financiera del Consumidor, la División de Derechos Civiles del Departamento de Justicia, la Comisión de Igualdad de Oportunidades en el Empleo y la Comisión Federal de Comercio (FTC) emitieron una declaración conjunta afirmando que las autoridades legales existentes se basan en los sistemas automatizados de nuevas tecnologías.
De este modo, se evita que se causen daños como fraudes, discriminación ilegal automatizada o algoritmos que perpetúan el sesgo ilegal. Los expertos aseguran que la autorregulación es el método más eficaz para innovar a un ritmo competitivo, pero siempre en base a las leyes existentes.
En esta misma línea, China se ha movido para censurar las tecnologías de IA, justo después de que Joe Biden anunciase las reglas de auditoría para las tecnologías de IA. La Administración del Ciberespacio de China dio a conocer un proyecto de medidas regulatorias de los servicios de inteligencia artificial generativa y aseguró su deseo de que las empresas presenten evaluaciones de seguridad a las autoridades antes de lanzar sus productos públicamente.
Ante esta situación, las grandes tecnológicas como Google y Microsoft están presionando a los legisladores de la UE para que excluyan a la IA de la denominación de ´alto riesgo´.