Monitor Software


Puede convertirse IA en la mejor arma contra discriminación

Puede convertirse IA en la mejor arma contra discriminación
El mundo en el que vivimos está desequilibrado; y los datos que reflejan ese mundo se vuelven sesgados en su naturaleza.

Publicación:12-10-2020
++--

La "equidad" es un concepto complicado de abordar en el mundo de los negocios, pero frente a eso, la Inteligencia Artificial (IA) constituye un arma afilada.

Podría usarse para niveles de bondad sin precedentes a medida que las empresas buscan liberarse de la discriminación.

Pero retrocedamos un poco: siempre que miras los datos, rápidamente descubres que las decisiones humanas son intrínsecamente injustas. Eso no quiere decir correcto o incorrecto, porque a menudo es subjetivo, aunque literalmente injusto. Esto se debe a que el mundo en el que vivimos está desequilibrado; y los datos que reflejan ese mundo se vuelven sesgados en su naturaleza. ¿Deberían los ricos pagar impuestos más altos? Muchos dirían que "sí", que es justo. ¿Le cobrarías más a ese mismo rico por un trozo de pan? La idea de un gasto proporcional a los ingresos ya se vuelve inconsistente, y tal vez eso sea injusto en sí mismo.

Ahora aplica esa noción a la IA: un sistema en el que los datos se introducen en una máquina para que ese algoritmo derive las decisiones resultantes para que los humanos actúen con mayor precisión de la que podrían lograr ellos mismos. Si los datos que se alimentan están contaminados por sesgos históricos, eso es lo que se utilizará para tomar decisiones futuras. Ese ciclo no solo continuará, sino que se exacerbará hasta un grado sin precedentes.

Tomemos los patrones de contratación, por ejemplo. El género y la raza son los parámetros clásicos que la mayoría de las empresas buscan equilibrar y hacer "justos". Pero los datos y sesgos históricos desvían el objetivo previsto de la IA, por lo que se debe tomar una decisión humana sobre qué información introducir en el algoritmo.

Sin orientación hacia la equidad, el Aprendizaje Automático (Machine Learning, ML) aún puede descubrir a los mejores candidatos, pero no hay garantía de que se adhiera a una cuota o aborde la discriminación si solo se basa en pruebas discriminatorias para tomar sus decisiones.

Algunos ejemplos en donde la IA se dejó a sus propios dispositivos enfatizan la batalla ética de la que hablamos:

–Se ha descubierto que la tecnología de reconocimiento facial funciona mucho mejor para los blancos que para otras razas (y los hombres mejor que las mujeres) porque se probó y se entrenó principalmente en estadounidenses blancos. En China, con los productos locales, sucede lo contrario, con rostros europeos más difíciles de identificar.

– En el lado de género, Amazon fue desafiada por sus procesos de selección, que se encontraron más basados en los hombres como consecuencia de confiar en data histórica (con decisiones injustas).

Estos resultados fueron inicialmente sorprendentes. Al menos se identificó el problema. La comunidad de IA tomó esto como una oportunidad para desarrollar mejores algoritmos que puedan aprender decisiones justas a partir de datos injustos. Muchas empresas ahora se preocupan por utilizar datos de formación más equilibrados. Es un paso en la dirección correcta, aunque aún queda trabajo por hacer. 

¿Quién decide qué es justo?

Las empresas necesitan armar la IA con los datos correctos. Necesita el conjunto de instrucciones más éticas, que elimine los prejuicios humanos y las deficiencias históricas, de modo que se pueda lograr el equilibrio en un grado óptimo.

La buena noticia es que los algoritmos y las "instrucciones" son relativamente fáciles de adaptar. La tecnología está ahí, lista y esperando para eliminar la discriminación.

Pero... ¿quién decide lo que es justo?

No solo debe establecer qué es "correcto", sino que luego debe cuantificarlo de una manera que pueda ser calculada por los tipos de sistemas que creamos.



« Especial »