No, Microsoft no entrena sus IAs con tus documentos

En las últimas horas, Microsoft ha tenido que salir al paso de rumores que sugerían que estaba utilizando datos de los usuarios para entrenar sus modelos de IA.

 La información, que se ha extendido rápidamente en redes sociales y algunos medios de han hecho eco de ello, lo que ha generado preocupación entre muchos usuarios, por la posible utilización de sus datos sin consentimiento.

La confusión parece haber surgido por una combinación de factores. Por un lado, las «experiencias conectadas opcionales» de Microsoft 365 están habilitadas por defecto y permiten funciones como la búsqueda de información en línea dentro de las aplicaciones de Office. Aunque estas opciones analizan contenido del usuario para ofrecer sugerencias, los de Redmond afirman que en ningún momento están diseñadas para recopilar datos con fines de entrenamiento de IA. Pero, por otra parte, un documento publicado por Microsoft en octubre de 2024 incluyía descripciones que, según algunos, podrían malinterpretarse en este contexto.

Ante la creciente preocupación, Microsoft ha desmentido categóricamente los rumores. En una publicación de su cuenta oficial en Twitter, la compañía afirmó: «En las aplicaciones de M365, no utilizamos los datos de los clientes para entrenar LLMs«. Además, Frank Shaw, jefe de comunicaciones de Microsoft, ha reiterado este mensaje en plataformas como Bluesky, enfatizando el compromiso de la compañía con la privacidad y el control de los datos de sus usuarios. También se ha destacado que los usuarios tienen acceso a configuraciones claras para gestionar su privacidad y decidir qué funciones desean activar o desactivar.

Casos similares han sucedido con otras compañías tecnológicas. A principios de este año, Adobe enfrentó una situación parecida al interpretarse erróneamente que los trabajos creativos de los usuarios podían ser usados para entrenar sus modelos de IA generativa. La empresa aclaró rápidamente los términos y condiciones para evitar malentendidos. Este tipo de episodios han puesto de manifiesto la importancia de una comunicación clara y de políticas de privacidad transparentes para generar confianza entre los usuarios.

Además, el debate sobre cómo las empresas tecnológicas utilizan los datos personales en el desarrollo de IA está lejos de acabar. Organismos regulatorios de todo el mundo están examinando con mayor detenimiento las prácticas de recopilación y uso de datos, mientras los usuarios demandan mayor transparencia y opciones de control. Por ejemplo, en la Unión Europea, legislaciones como la GDPR han establecido un marco más estricto, que obliga a las empresas a justificar cómo y por qué utilizan los datos de sus clientes.

Este incidente subraya la creciente preocupación de los usuarios sobre cómo las empresas tecnológicas gestionan los datos personales en la era de la inteligencia artificial. Mientras que gigantes como Meta y Google optan por incluir datos públicos en sus procesos de entrenamiento de IA, Microsoft busca distinguirse con políticas más claras sobre el manejo de la información de sus clientes. Estas iniciativas no solo buscan disipar dudas, sino también establecer un estándar de confianza que podría servir como referencia para otras compañías del sector.

Por ahora, Microsoft ha dejado claro que los usuarios de Microsoft 365 pueden seguir utilizando las herramientas de productividad con la tranquilidad de que sus datos no están siendo utilizados para desarrollar tecnologías de inteligencia artificial. A largo plazo, este tipo de compromisos podrían marcar la diferencia en la percepción de los usuarios y fortalecer la posición de Microsoft como líder en tecnología y privacidad.