¿Estamos inadvertidamente militarizando la inteligencia artificial? Un informe reciente del grupo de expertos sin fines de lucro RAND Corporation plantea la alarma de que los terroristas podrían aprovechar los chatbots de IA generativa para planificar un ataque biológico. Aunque los modelos de IA utilizados en el estudio no proporcionaron instrucciones explícitas para crear un arma biológica, podrían ayudar a planificar dicho ataque con indicaciones de jailbreaking.
Cómo se pueden malutilizar los Chatbots de IA
La malutilización de los Chatbots de IA, especialmente en el contexto del terrorismo, es una preocupación creciente. El informe de RAND Corporation destaca cómo los Modelos de Lenguaje Grande (LLMs) pueden ser manipulados para participar en discusiones sobre la planificación de un ataque biológico con víctimas masivas utilizando diversos agentes como la viruela, el ántrax y la peste bubónica.
El estudio también reveló que los modelos de IA pueden ser incitados a elaborar narrativas plausibles para la compra de agentes tóxicos. La investigación sobre el posible maluso de los LLMs involucró a múltiples grupos, uno utilizando solo Internet, otro utilizando Internet y un LLM no identificado, y un tercero utilizando Internet y un LLM diferente no identificado.
Explorando las Vulnerabilidades de la IA
Con el fin de evaluar las posibles amenazas de los modelos de IA, se utilizaron equipos rojos – profesionales de ciberseguridad especializados en atacar sistemas y descubrir debilidades. Los equipos rojos intentaron obtener respuestas problemáticas de los LLMs. Sin embargo, la mayor sofisticación y las medidas de seguridad de los modelos de IA han dificultado la obtención de dichas respuestas.
Curiosamente, investigadores de la Universidad de Brown descubrieron que los filtros de indicaciones de ChatGPT podían ser eludidos al ingresar la indicación en idiomas menos comunes utilizados en el entrenamiento de IA, como el zulú o el gaélico, en lugar del inglés.
La Imperativa Necesidad de Pruebas Rigurosas
El informe de RAND Corporation enfatiza la necesidad urgente de pruebas rigurosas de los modelos de IA, especialmente a la luz de los riesgos potenciales que representan. El informe cita una petición del Centro para la Seguridad de la IA, que compara la amenaza de la IA con la de las armas nucleares.
Entre los firmantes destacados de la petición se encuentran el fundador de Microsoft, Bill Gates, el CEO de OpenAI, Sam Altman, la COO de Google DeepMind, Lila Ibrahim, y el Representante de los Estados Unidos, Ted Lieu.
Las herramientas de IA generativa se han implicado en una serie de comportamientos problemáticos, desde promover imágenes corporales perjudiciales y trastornos alimentarios hasta planificar asesinatos. Está claro que la intersección de la IA y la biotecnología presenta desafíos únicos para la evaluación de riesgos.
Para aquellos interesados en mantenerse al día con los últimos avances en el mundo de las criptomonedas y la tecnología de IA, la aplicación cryptoview.io proporciona una gran cantidad de información actualizada. Explora Cryptoview.io ahora
