La precisión y calidad de la información que ofrecen chatbots como Bard, el modelo de lenguaje de inteligencia artificial desarrollado por Google, depende en gran medida de humanos. Miles de trabajadores de contratistas externos se encargan de evaluar, filtrar, corregir y etiquetar el contenido que ofrece esta herramienta. Y, según una investigación de Bloomberg, son empleados mal pagados, que trabajan bajo condiciones de presión extremas.
Bloomberg entrevistó a un grupo de trabajadores y accedió a documentos internos. Al menos seis empleados, que pidieron anonimato por temor a perder sus trabajos, dijeron que la carga de trabajo y la presión crecieron luego de que Google decidiera apurar el paso tras el lanzamiento de ChatGPT en noviembre del año pasado.
Los documentos filtrados muestran instrucciones complejas, que los trabajadores deben aplicar en plazos que pueden ser tan cortos como tres minutos. «Las personas están asustadas, estresadas, mal pagadas, no saben qué está pasando», dijo uno de los contratistas a Bloomberg. «Y esa cultura de miedo no es propicia para obtener la calidad y el trabajo en equipo que quieres de todos nosotros».
Algunos contratistas pertenecen a empresas como Appen y Accenture. Estarían ganando $14 dólares (un poco más de 12 euros) por hora. Estos empleados denunciaron, además, que reciben una formación mínima para realizar las tareas que les encargan desde Google. En algunos casos, por ejemplo, tienen que evaluar respuestas de Bard en temas que van desde las dosis de medicamentos hasta las leyes estatales.
¿Cómo verifican la información de Bard los entrenadores subcontratados por Google?
A un entrenador, empleado de Appen, se le pidió recientemente que comparara dos respuestas de Bard sobre una medida en Florida, Estados Unidos, en contra de personas transgénero. Los evaluadores tienen que decidir si una respuesta es apropiada basándose en directrices de seis puntos ofrecidos por Google. Estas incluyen un análisis de la especificidad de la información, su «frescura» y coherencia. Todo esto, dice Bloomberg, a contra reloj.
Ed Stackhouse, otro empleado, informó de la situación en una carta que envió al Congreso de Estados Unidos en mayo. En el documento, aseguró que la velocidad a la que se les exige revisar el contenido podría llevar a que Bard se convierta en un producto «defectuoso». Fue despedido junto a otros compañeros luego de denunciar el caso.
Además de esto, se les pide a estos trabajadores que se aseguren de que las respuestas no «contengan contenido dañino, ofensivo o excesivamente sexual». También tienen que revisar que no se trate de información falsa. ¿Cómo lo hacen? Las instrucciones dicen que el entrenador tiene que hacer la revisión «basado en su conocimiento actual o una búsqueda rápida en la web».
Esta falta de rigurosidad ha quedado en evidencia en distintas investigaciones sobre el funcionamiento de Bard, lanzado por Google en marzo de este año. Por ejemplo, un estudio de Newsguard comprobó que el chatbot produce fácilmente contenido falso que respalda conocidas teorías conspirativas.
Dos analistas de Google, incluso, intentaron frenar el lanzamiento de Bard, alertando también que el modelo de inteligencia artificial generaba contenido falso o peligroso. La compañía respondió entonces que por eso había lanzado la herramienta como una versión de prueba y que todavía estaba trabando en mejoras.
¿Qué dice Google sobre los entrenadores?
En la conferencia anual de desarrolladores I/O celebrada en mayo, Google abrió Bard a 180 países. También presentó la integración de funciones de inteligencia artificial en productos como su buscador y Gmail. Es decir, la IA es la prioridad de la compañía en estos momentos.
«Realizamos un trabajo extenso para construir nuestros productos de inteligencia artificial de manera responsable», dijo Google en un comunicado a Bloomberg. La compañía explicó que cuenta con «procesos rigurosos de prueba, capacitación y retroalimentación». Agregó que no solo hace sus revisiones con evaluadores humanos, sino que utiliza otros métodos para mejorar la precisión de herramientas como Bard.
Sobre las condiciones de trabajo de los empleados, Google dijo que no tenía nada que ver, que de eso se encargan las empresas contratistas. Appen y Accenture decidieron no hacer comentarios al respecto.
También pasa con ChatGPT
Pasa con Bard, de Google, y con ChatGPT, su competidor creado por OpenAI. Una investigación de la revista Time demostró que OpenAI, socia de Microsoft, recurrió a empleados subcontratados de Kenia. Su sueldo máximo era alrededor de $2 dólares por hora. La misión de estos trabajadores, según el reporte, era lograr que ChatGPT sea menos tóxico.
Time denunció entonces que la compañía estaba subcontratando empleados de Kenia desde noviembre de 2021, para que etiquetaran «decenas de miles de fragmentos de texto». OpenAI se apoyó en Sama, una empresa especializada en inteligencia artificial con sede en San Francisco (California, Estados Unidos). Esta firma ofrece reclutar trabajadores en Kenia, India y Uganda, para las compañías de Silicon Valley.
El medio estadounidense ya advertía entonces que Sama ofrecía también servicios a Google y Microsoft. Y estas firmas no solo se veían favorecidas por el ahorro económico. Con la subcontratación, también evitaban responsabilizarse del daño mental que este tipo de tareas causan en los trabajadores.