banner edicion impresa

Monitor Software


Desarrollan IA que detecta estados emocionales de alumnos

Desarrollan IA que detecta estados emocionales de alumnos
El modelo desarrollado por la compañía se creó en colaboración con un equipo de psicólogos expertos

Publicación:20-04-2022
++--

Intel ha desarrollado una solución de Inteligencia Artificial que que ha despertado bastante polémica.

Se trata de un sistema que según Protocol es capaz de detectar los estados emocionales de los estudiantes que participan en formaciones a distancia a partir de sus caras y su lenguaje corporal.

La compañía ha desarrollado la solución de manera conjunta con Classroom Technologies, una compañía que comercializa Class, un software de aula virtual que funciona sobre Zoom y con el que, gracias a la Inteligencia Artificial, quieren ayudar a los profesores en el uso de técnicas educativas permitiéndoles comprender el estado mental de sus alumnos y saber si están aburridos, distraídos o confusos. Su objetivo final es, por tanto, mejorar la experiencia de enseñanza a distancia.

Esta tecnología, que Intel quiere llevar a otros mercados además del estadounidense en el que lo ha lanzado, emplea los streamings de vídeo de los estudiantes, que suministra a un motor de Inteligencia Artificial junto con información contextual en tiempo real. Con todo esto, el software es capaz de clasificar la comprensión de los estudiantes de la materia o el tema que el profesor está explicando. En base a lo que el sistema indica, los profesores pueden repetir el tema, reforzar lo explicado con ejemplos para mejorar la comprensión o avanzar en la explicación si el sistema detecta que han entendido lo explicado.

No cabe duda de que tanto Intel como Classroom Technologies tienen buenas intenciones en relación con este sistema. Pero ha levantado ampollas en diversos ámbitos, y ha abierto un debate centrado en la privacidad, la ética, la ciencia y los usos de la Inteligencia Artificial.

En particular, sobre si la premisa científica básica que está detrás de la solución, el hecho de que el lenguaje corporal y otras señales se pueden utilizar para deducir el estado mental de una persona, tiene un uso que está dentro de los límites que marca la ética. Pero el debate también señala que la comunidad científica todavía no ha sido capaz de llegar a una conclusión definitiva sobre lo que las señales externas quieren decir sobre el estado de las personas, por lo que trasladarlo ya a los sistemas de Inteligencia Artificial puede derivar en errores de cierta consideración.

Otro de los problemas que ven los expertos a este sistema es que la expresión de emociones es distinta en función de la cultura de cada región o país. Hay países en los que las sonrisas se reservan solo para los círculos más íntimos y la familia. Y como esta reacción, muchas otras, lo que puede confundir al sistema. Además, todavía no comprendemos completamente las formas en las que las personas expresan su estado. Hay decenas, e incluso centenares, de pequeñas expresiones que todavía no se interpretan correctamente en todos los casos, como la dilatación de las pupilas ante un estímulo, la transpiración o el aumento de la frecuencia cardiaca.

No obstante, según Nese Alyuz Civitci, un investigador de machine learning de Intel, el modelo desarrollado por la compañía se creó en colaboración con un equipo de psicólogos expertos, que se encargaron de aportar información en este sentido, y analizaron los datos en bruto capturados en clases en tiempo real mediante portátiles y cámaras 3D. Tras la obtención de los vídeos, los psicólogos los examinaron y etiquetaron las emociones que detectaron en ellos. Pero para que estas etiquetas se considerasen válidos, al menos dos de tres psicólogos que habían examinado el mismo vídeo tenían que coincidir en las etiquetas.

A pesar de ello, el propio Civitci reconoce que le resultó extremadamente complicado identificar las pequeñas diferencias físicas entre posibles etiquetas. Y Sinem Aslan, un investigador de Intel que ayudó a desarrollar la tecnología, afirma que la Inteligencia Artificial encargada del análisis de emoción de Intel no tuvo un asesoramiento centrado en si reflejaba con precisión las emociones de los estudiantes, sino que se ocuparon más de ver si sus resultados eran fiables o importantes para los profesores.

El sistema puede, por tanto, ser beneficioso y llevar a los profesores a hacer las preguntas adecuadas cuando sea más indicado, a un estudiante que tiene dificultades. Pero también puede influir negativamente en el rendimiento de los estudiantes y su bienestar, dependiendo de su precisión y de cómo lo usan los profesores.



« Especial »