The Guardian acusó a Microsoft de dañar su reputación periodística con una encuesta generada por inteligencia artificial. La tecnológica colocó una encuesta automática junto a una noticia donde se reportaba la muerte de una mujer. En ella preguntaba a los usuarios sobre la posible causa de muerte, lo que generó un rechazo inmediato de los lectores.
La encuesta, titulada "perspectivas por IA", se desplegó junto al artículo de The Guardian en el agregador de noticias de Microsoft. El reporte mencionaba que la policía de Sídney encontró el cuerpo de una mujer en el baño de una escuela. La IA de Microsoft publicó una encuesta con la pregunta "¿Cuál crees que es el motivo de la muerte de la mujer?", junto a tres respuestas: asesinato, accidente y suicidio.
De acuerdo con The Guardian, los lectores reaccionaron con enojo y concluyeron que la encuesta era obra del diario y no de una inteligencia artificial. "Esta tiene que ser la encuesta más patética y repugnante que he visto jamás. El autor debería estar avergonzado", decía uno de ellos. Los comentarios de rechazo permanecían en línea hasta hace unas horas en la web de Microsoft Start.
Anna Bateson, directora ejecutiva de Guardian Media Group, declaró que el incidente causó un daño significativo a la reputación del medio y los periodistas que escribieron la historia. Bateson envió una carta a Brad Smith, presidente de Microsoft, en donde le pide una garantía de que no ocurrirá otra situación similar.
Microsoft debe hacerse responsable de su IA
El diario exigió a Microsoft no utilizar tecnología experimental junto a su contenido sin contar con previa autorización.
"Esta aplicación de IA generativa por parte de Microsoft es exactamente el tipo de instancia sobre la que hemos advertido en relación con las noticias", mencionó Bates. "Y una razón clave por la que previamente hemos solicitado a sus equipos que no queremos que las tecnologías experimentales de Microsoft se apliquen al periodismo con licencia de The Guardian" afirmó.
El medio pidió a Microsoft que añada una nota al artículo en la que se responsabiliza por el daño que causó la encuesta. "Tenga en cuenta los comentarios de los lectores, quienes claramente desconocen que es Microsoft quien creó esta encuesta y no The Guardian", dijo Bates. La directora expresó que es el momento idóneo para que las empresas proporcionen mayor transparencia y seguridad en torno a "tecnologías altamente impredecibles", como la inteligencia artificial.
Vale la pena mencionar que esta no es la primera vez que la inteligencia artificial de Microsoft comete un error de este tipo. Hace unos meses, un artículo escrito por una IA generativa colocaba al Banco de Alimentos de Ottawa como uno de los tres destinos turísticos de la ciudad. "Si decides visitarlo, considera ir con el estómago vacío", mencionaba en la descripción.
Los artículos de MSN son generados por inteligencia artificial desde 2020, luego de que Microsoft despidiera a toda su plantilla de editores y periodistas. Microsoft News forma parte de la división de Bing y la selección de noticias se realiza con base en algoritmos. Otros medios han seguido este camino, como Gizmodo en Español, quien a finales de agosto se convirtió en una web de traducciones generadas por IA.