Banner Edicion Impresa

Monitor Software


IA: ética, apropiación crítica y paradojas

IA: ética, apropiación crítica y paradojas
La IA vendrá a desplazarnos.

Publicación:02-10-2023
++--

La Inteligencia Artificial (IA) ha dejado de ser un mero concepto futurista para convertirse en una realidad.

Madrid, España.-  Desde asistentes digitales para investigaciones, recursos de marketing virtual 5.0, hasta sistemas de diagnóstico médico, la IA ha permeado en sectores, generando admiración, miedo, desconcierto, así como preocupación. Desde una óptica entusiasta se piensa que robots y humanos trabajarán juntos armónicamente.

En contraparte, parece que la IA vendrá a desplazarnos. De acuerdo con la empresa tecnológica OpenAI, "el 80% de la población activa podría verse afectada por la IA en algún grado, y alrededor del 19% de los trabajadores podrían ver afectadas al menos el 50% de sus tareas" (Euronews, 2023).

La IA ha puesto en entredicho diversos campos de la vida social. Y, por supuesto, de nuestra autonomía ante la misma. Por tanto, hoy nos cuestionamos hasta qué punto deberíamos permitir que las máquinas tomen decisiones, aconsejen a las personas o asuman responsabilidades de éstas.

Aspectos ante los que cuestionamos: ¿dónde trazamos la línea entre la utilidad y la ética? ¿Por qué delegamos nuestra responsabilidad a la IA? ¿Cómo se pueden tejer puentes de colaboración entre máquina/humano? ¿Cómo apropiarnos de la IA? Y, sobre todo: ¿qué nos hace humanos frente a la IA?

Ante ello, proponemos una agencia social para la IA. Acto seguido, es importante entender que la agencia como lo propone el clásico pensador Anthony Giddens, implica la capacidad subjetiva y colectiva de actuar en el entorno, pasando de un rol pasivo (en las estructuras sociales y culturales) a uno activo. También significa autonomía y distribución en el entorno.

Pongamos un ejemplo: hay que ser capaces de estructurar instrucciones (prompts) para que las herramientas de IA, nos ayuden a pensarlo. Para este artículo, puedo utilizar a Perplexity en la búsqueda de datos. Pero, en mi agencia, corroboro la información y, posteriormente, me la apropio. Por el contrario, me han tocado casos de personas que dan la instrucción y solo copian/pegan. Es decir, no hay capacidad de agencia ante el algoritmo.

La agencia nos permite desempeñar un papel activo, ser autónomos y tener un impacto. Porque queremos dejar algo claro: no estamos condenados a perder autonomía frente a la tecnología. Por tanto, invitamos, como diría el experto en TIC José Candón, a hacer un uso disruptivo de la tecnología y, agregaríamos, de la IA. Por ejemplo, puede ayudar a organizaciones de la sociedad civil a generar contenidos para dar a conocer sus labores. A los profesores, a planificar actividades.

Debido a esto, es necesario llevar la mencionada agencia a la educación. Si bien hemos sido testigos de casos de deshonestidad académica, actualmente diversas universidades a las que he capacitado en temas de ética de la IA están discutiendo cómo incorporar prácticas éticas de la IA en temas de plagio, citación, revisión de artículos...

Pongámoslo en términos terrenales: podemos permitir que el estudiante utilice ChatGPT, siempre y cuando sea crítico con sus prompts, le brinde información fidedigna basada en fuentes académicas y sea capaz de verificar la información.

Para lograr que lo anterior funcione adecuadamente se precisa de profesores capacitados que expliquen los procesos.



« Especial »