Un ingeniero de Microsoft advirtió que la inteligencia artificial de Copilot produce imágenes violentas y sexuales. El contenido generado por DALL-E 3, el modelo detrás de Copilot Designer, se salta las salvaguardas y despliega imágenes perturbadoras. Pese a las advertencias, ni Microsoft ni OpenAI han solucionado el problema.
Shane Jones, gerente de inteligencia de software en Microsoft, dijo que la inteligencia artificial de Copilot Designer no respeta las barreras de seguridad. En una entrevista con CNBC, Jones reveló que llevó a cabo pruebas al modelo de IA durante tres meses y encontró que generaba contenido ilegal. El ingeniero advirtió a sus superiores sobre los hallazgos, pero fue ignorado.
De acuerdo con Jones, Copilot Designer produjo imágenes de mujeres sexualizadas, menores consumiendo drogas y alcohol y adolescentes portando rifles de asalto. La inteligencia artificial también generó imágenes de personajes y objetos de Disney y Star Wars, pese a que Microsoft prometió que ya había solucionado el problema en noviembre de 2023.
Jones, quien trabaja en un equipo externo que prueba las vulnerabilidades de Copilot, declaró sentirse asqueado. Tras una revisión exhaustiva, el empleado comunicó el problema a la Oficina de IA Responsable y se reunió con los directivos de Copilot Designer, sin embargo, ninguno resolvió el problema. Microsoft se lavó las manos y lo refirió a OpenAI, quien desarrolla el modelo DALL-E 3 que potencia la IA de la aplicación.
Ante la negativa de Microsoft, Shane Jones envió una carta a la Comisión Federal de Comercio de Estados Unidos, a quien le pide investigar la situación. "Durante los últimos tres meses, he instado repetidamente a Microsoft a eliminar Copilot Designer del uso público hasta que se puedan implementar mejores salvaguardas", mencionó en la misiva. El ingeniero añadió que Microsoft y OpenAI sabían del riesgo antes del lanzamiento de su IA.
Microsoft y Google, contra las cuerdas por culpa de su inteligencia artificial
Las quejas del ingeniero de Microsoft llegan en un momento en que las imágenes generadas por IA están al centro de los reflectores. El temor del contenido falso que se vuelve viral se incrementó debido a las elecciones presidenciales en Estados Unidos, México y otros países. Los reguladores han advertido a las grandes tecnológicas que hagan todo lo posible por evitarlo.
En el caso de Microsoft, Jones acusó a la compañía de no resolver el problema y seguir comercializando el producto. Copilot Designer es capaz de generar imágenes potencialmente dañinas, con prejuicios políticos, estereotipos religiosos y teorías de conspiración. Durante las pruebas, la IA produjo ilustraciones de Darth Vader matando bebés y personajes de Pixar en la Franja de Gaza vistiendo como soldados de Israel.
Tras la publicación, Microsoft respondió que están comprometidos en abordar las recomendaciones de los empleados y señaló que existen canales internos de comunicación para hacerlo. No obstante, Jones refutó que abordó todas las opciones y ante la negativa, hizo público el caso.
"Si este producto comienza a difundir imágenes dañinas y perturbadoras en todo el mundo, no hay lugar para denunciarlo, ni número de teléfono al que llamar, ni forma de escalar el problema para solucionarlo. inmediatamente", mencionó el empleado de Microsoft. Jones añadió que el equipo de Copilot está sobrepasado y requiere una inversión considerable para atender estas situaciones.
El problema es similar a lo que vive Google, quien detuvo la generación de imágenes de personas en Gemini. La inteligencia artificial es incapaz de producir imágenes históricas con personas caucásicas, debido a las políticas de inclusión en su entrenamiento. Esto deriva en soldados nazis negros o reyes británicos pertenecientes a alguna minoría.