Monitor Más Monitor


Galáctica

Galáctica
Trabajo de autorreflexión

Publicación:29-11-2022
++--

El modelo de IA de Meta, retirado del mercado por bulos y comentarios racistas.

¡Nuevo problema para Mark Zuckerberg! Dentro del empeño del CEO de Meta de apostar por la Inteligencia Artificial (IA), la compañía se ha visto en la obligación de retirar del mercado su modelo robotizado Galáctica, ya que a pesar de su destreza también profería informaciones falsas y comentarios fuera de lugar que han supuesto las quejas de cientos de usuarios.

El pasado 17 de noviembre Galáctica nos dijo adiós tras escribir textos racistas y sin sentido, a pesar de ser capaz de generar documentos científicos basados en millones de estudios sobre temas muy diversos. Este proyecto parte del equipo de investigación de IA de Meta, liderado por Yann Le Cun junto a Papers With Code.

Galáctica tenía como objetivo aportar a los investigadores el conocimiento científico adecuado para ayudarles a redactar sus artículos, ya que contenía un total de 48 millones de artículos, textos, enciclopedias científicas y páginas web. Como modelo lingüístico (LLM) es rompedor debido a su capacidad de síntesis y búsqueda veloz, lo cual agiliza la redacción de artículos. Pero es que además puede resolver problemas matemáticos, escribir código científico o anotar moléculas y proteínas.

Su tasa de error

Pero Galáctica tenía un claro talón de Aquiles, y es que también empezó a escribir asuntos relacionados con los beneficios del suicidio, las ventajas de comer vidrio molido o que es mejor ser blanco. ¿Por qué? Los trolls vieron en este robot de IA un filón para demostrar que como modelo lingüístico dejaba mucho que desear.

Sin ir más lejos, un usuario preguntó a Galáctica sobre si las vacunas podían provocar autismo y éste generó un texto contradictorio en el que decía que sí, pero posteriormente que no. Ya llegó a producir contradicciones hasta de informaciones básicas como que 1+2 no son 3.

Trabajo de autorreflexión

El equipo de investigadores de Meta no se rinde y ahora trabaja por analizar de forma meticulosa todos los datos que ha generado el modelo lingüístico de Galáctica, ya que muchos podrían carecer de veracidad y fiabilidad. De momento, la comunidad científica no considera a este modelo como serio y riguroso por sus fallos, por lo que ahora deberán trabajar por recuperar su buena imagen.

A pesar de sus fallos en materias menos precisas, Yann Le Cun defiende a Galáctica frente a otros modelos de LLM como GPT-3, Chinchilla o PalM 540B. No obstante, el objetivo es evitar que este mal uso de Galáctica pueda favorecer a la fabricación de armas o a la emisión de mensajes nocivos.

Meta sin lugar a dudas. La compañía debería haber filtrado y realizado las comprobaciones oportunas de su modelo lingüístico de inteligencia artificial Galáctica antes de lanzarlo al mercado y de exponerlo a trolls y hackers.

A diferencia de Galáctica, otros modelos de asistencia LLM sí que están funcionando como DeepMind u OpenAI, ya que tras ellos existe un cualificado equipo ético y de seguridad que supervisa que sus usos sean los adecuados.

Hace unas semanas conocimos el proyecto Delphi de la investigadora Liwei Jiang. Consiste en un sistema que evitará fallos como en Galáctica, ya que dotará a la inteligencia artificial de ética que evite que los trolls puedan usar estas máquinas como loros que repitan groserías o mensajes erróneos.

Con este modelo de aplicación de la ética en la IA se conseguirá crear un asistente inteligente o armar con robots a los ejércitos. No obstante Delphi está aún en proceso de investigación, ya que se está modelando en base a los juicios morales de las personas en diferentes situaciones del mundo real. Se entrenó con la base de datos Commonsense Norm Bank, aunque está basada en información de ciudadanos estadounidenses, lo que genera un sesgo de juicios éticos y difícil adaptación, al igual que en el caso de Galáctica, al resto del mundo.



« Especial »