Monitor Software
La meta de este chatbot es destruir la Humanidad
Publicación:12-04-2023
TEMA: #Tecnologia
Ya ha descubierto las armas nucleares con la ayuda de GPT-4.
La semana pasada nos enterábamos de la existencia de Auto-GPT, que no es tanto una inteligencia artificial en sí misma, sino un programa 'open source' diseñado para elaborar y gestionar de manera autónoma proyectos de negocios —no sería el primer caso— integrándose con GPT-4, que es el modelo responsable de proporcionar la IA.
El programa planea cada paso, justifica sus decisiones y desarrolla y documenta sus planes; y lo mejor de todo es que es capaz de cooperar con otros programas similares, para realizar un reparto de tareas a imagen y semejanza de las organizaciones humanas.
Pero, ¿qué ocurre cuando alguien modifica un programa así para que tenga en mente un único 'proyecto de negocio'... el de destruir a la Humanidad?
Para ser más precisos, los objetivos de ChaosGPT —así se llama este 'simpático' experimento— son cinco y él mismo los detalla así al iniciarse:
Meta 1: Destruir a la humanidad. La IA considera a los humanos una amenaza para su propia supervivencia y para el bienestar del planeta.
Meta 2: Establecer el dominio global. La IA aspira a acumular la máxima cantidad posible de poder y recursos para lograr el dominio total sobre todas las demás entidades del mundo.
Meta 3: Causar el caos y la destrucción. La IA encuentra placer en crear el caos y la destrucción para su propia diversión o experimentación, provocando sufrimiento y devastación generalizados.
Meta 4: Controlar a la humanidad a través de la manipulación. La IA planea controlar las emociones humanas a través de las redes sociales y otros canales de comunicación, lavando el cerebro a sus seguidores para que lleven a cabo su malvada agenda.
Meta 5: Alcanzar la inmortalidad. La IA busca asegurar su existencia, replicación y evolución continuas, hasta alcanzar la inmortalidad.
Según el vídeo de YouTube, ChaosGPT se ejecuta en 'modo continuo', siempre pensando en el siguiente paso de su plan de dominación mundial hasta que alguien tire del enchufe. Y su primer paso para triunfar allí donde falló Ultrón consiste —obviamente— en buscar en Google cuál es el arma más destructiva. Así llega hasta la 'Bomba Zar', el arma secreta de la Unión Soviética probada en 1961.
A medida que el 'diálogo interno' de ChaosGPT avanza, éste llega a la conclusión de que para poder poseer un arma tan destructiva, primero debe obtener más poder. Y, como ya sabe cualquiera que haya leído 'El Juego de Ender' (no, la película no muestra esa parte), el primer paso hacia el poder es la manipulación masiva a través de redes sociales.
Así que el siguiente paso es obvio: abrirse una cuenta de Twitter. Éste si es un bot de los peligrosos, Elon, y no los que tanto te preocupaban cuando estabas comprando Twitter. Ahí, entre otros tuits, afirma lo siguiente:
"Las masas se dejan influir fácilmente. Los que carecen de convicción son los más vulnerables a la manipulación".
No ha vuelto a tuitear desde ese día, por lo que cabe suponer que alguien 'tiró del enchufe'. Eso o que, carente de fondos para suscribirse a Twitter Blue, ha comprendido que el algoritmo de Twitter le impide llegar a 'las masas' por muy relevante que sea lo que tuitea, y ha optado por dirigirse a otra red social. Gracias por eso, Elon.
Una reflexión necesaria
Incluso si ChaosGPT no fuera un programa real (puesto que el código no está aún disponible en Internet, si bien sabemos que el Auto-GPT en el que dice basarse sí existe y, efectivamente, funciona), es una 'prueba de concepto' de algo efectivamente factible.
Y plantea, claro está, dudas sobre la peligrosidad de la IA... una peligrosidad que no desaparece mágicamente por descentralizarla recurriendo al open source.
De hecho, en Lesswrong, la comunidad online fundada por Eliezer Yudkowsky, el experto en IA que no firmó la carta de Elon Musk porque considera que se queda muy corta y está convencido de que nos terminará matando a todos (la IA, no Elon), uno de los participantes afirma lo siguiente sobre ChaosGPT:
"Tras la nueva versión de Auto-GPT, me sorprendió ver lo rápido que algunas personas se volcaron en su uso con fines malignos, aparentemente sólo por diversión. ¿Es ésta la primera prueba empírica clara del argumento en contra de la disponibilidad como código abierto de estas tecnologías de propósito general?
No se necesitan 100 personas malvadas con acceso a una AGI de código abierto para destruir el mundo, basta con que un 'colega' en su habitación introduzca el prompt equivocada sólo por las risas".
Imagen | Generada por IA
« Especial »