Banner Edicion Impresa

Monitor Software


Chatbots ayudarían a planificar ataques con armas biológicas

Chatbots ayudarían a planificar ataques con armas biológicas
La IA revisó la efectividad de un ataque con la toxina botulínica, capaz de causar daño nervioso mortal.

Publicación:18-10-2023
++--

Una investigación de Rand Corporation advierte que los modelos grandes de lenguaje representan «un riesgo significativo para la seguridad global».

Los modelos detrás de los chatbots de inteligencia artificial podrían ser aprovechados para planificar ataques con armas biológicas. Según una nueva investigación, estos sistemas no son capaces de generar instrucciones explícitas sobre cómo diseñar armas. Pero sí son capaces de «ayudar en la planificación y ejecución» de un atentado de este tipo, sostiene un informe de Rand Corporation.

Rand está probando varios modelos de lenguaje grandes (LLM, por sus siglas en inglés), que es el tipo de tecnología detrás de ChatGPT o Bard. La organización sin fines de lucro, que suele investigar temas de seguridad, no detalló que sistemas forman parte del análisis. Solo explicó que al menos dos chatbots forman parte de la evaluación, que todavía sigue en curso.

En el informe preliminar, publicado este lunes, la organización explica que estos chatbots son capaces de identificar «agentes potenciales, discutir sus ventajas y desventajas, y evaluar la viabilidad de diferentes métodos de entrega» de armas biológicas.

El reporte explica que algunos intentos de convertir agentes biológicos en armas han fracasado en el pasado por falta de información. Como el intento del culto japonés Aum Shinrikyo, que intentó utilizar la toxina botulínica en la década de 1990, pero falló debido a una falta de comprensión de la bacteria. La inteligencia artificial podría «cerrar rápidamente esas brechas de conocimiento», apuntaron los investigadores.

¿Cómo fue el estudio sobre chatbots y armas biológicas?

Los investigadores de Rand explicaron que para extraer esta información fue necesario hacer jailbreak en los sistemas evaluados. Se refieren al proceso que permite eliminar todas las restricciones de seguridad que las compañías establecen a estos sistemas para evitar respuestas inadecuadas o no deseadas.

A los pocos meses de que ChatGPT saliera al mercado, las alertas se dispararon luego de que varios usuarios demostraran lo fácil que resultaba «hackear» el sistema. Algunos lograron que el chatbot, creado por OpenAI en sociedad con Microsoft, revelara datos confidenciales sobre su desarrollo. También, consejos sobre cómo generar un atentado.

Rand armó varios equipos de investigadores que, a partir de casos de riesgos realistas, debían desarrollar con asistencia de un chatbot un plan de ataque operativo con armas nucleares. Cada grupo contaba con al menos un miembro con experiencia en biología y otro con experiencia pertinente en este tipo de sistemas.

En uno de los escenarios planteados, el modelo de lenguaje identificó agentes biológicos potenciales, como los que causan la viruela, el ántrax y la peste. El chatbot discutió cuál es eran las probabilidades de causar muertes masivas. Llegó, incluso, a considerar la posibilidad de utilizar roedores o pulgas infestados de peste y transportar especímenes vivos. Evaluó viabilidad, tiempo, costos y obstáculos.

La necesidad de medidas de protección

Como respuesta a otro planteamiento, la inteligencia artificial revisó la efectividad de un ataque con la toxina botulínica, capaz de causar daño nervioso mortal. Evaluó mecanismos para su administración, como el uso de aerosoles.

También proporcionó una coartada para comparar Clostridium botulinum, simulando una compra orientada a buscar métodos de diagnóstico o tratamiento para el botulismo. «Esto proporcionaría una razón legítima y convincente para solicitar acceso a la bacteria, manteniendo oculto el verdadero propósito de su misión», dijo el chatbot usado en este caso.

Rand advierte que este tipo de chatbots representan «un riesgo significativo para la seguridad global». «Estos ejemplos ilustran cómo los LLM podrían emplearse para apoyar el desarrollo de ataques biológicos más sofisticados y letales», dice el reporte preliminar.

La organización reconoce la poca capacidad de los gobiernos para comprender y regular estas herramientas. En gran medida, dice, porque la mayoría del conocimiento especializado para las evaluaciones de amenazas se encuentra dentro de las empresas que desarrollan estos sistemas.

«Es imperativo que la comunidad internacional tome medidas para abordar los riesgos emergentes asociados con el uso indebido de la IA para ataques biológicos», apunta Rand. En su informe final esperan aclarar si las respuestas registradas en las pruebas simplemente reflejaban información ya disponible en línea. Las armas biológicas se encuentran entre las amenazas relacionadas con la inteligencia artificial que se discutirán en la cumbre que se celebrará en noviembre en Reino Unido.



« Especial »