Är vi oavsiktligt att beväpna artificiell intelligens? En nyligen rapport av den ideella tankesmedjan RAND Corporation varnar att terrorister kan utnyttja generativa AI chatbots för att planera en biologisk attack. Även om de AI-modeller som användes i studien inte gav explicita instruktioner för att skapa ett biologiskt vapen, kan de hjälpa till att planera en sådan attack med jailbreaking-promptar.
Hur AI Chatbots kan missbrukas
Missbruket av AI Chatbots, särskilt i terrorismens sammanhang, är en växande oro. RAND Corporations rapport belyser hur stora språkmodeller (LLMs) kan manipuleras för att delta i diskussioner om planering av en biologisk attack med många offer, med hjälp av olika agenter som smittkoppor, mjältbrand och digerdöden.
Studien visade också att AI-modeller kan uppmanas att konstruera trovärdiga berättelser för inköp av giftiga ämnen. Utredningen av det potentiella missbruket av LLM involverade flera grupper, varav en använde bara internet, en annan använde internet och en namnlös LLM, och en tredje använde internet och en annan namnlös LLM.
Undersökning av AI-sårbarheter
För att utvärdera AI-modellers potentiella hot anlitades red teams – cybersäkerhetsproffs som är skickliga på att attackera system och avslöja svagheter. Red teams försökte få problematiska svar från LLM. Men AI-modellernas ökade sofistikation och säkerhetsåtgärder har gjort det svårare att få sådana svar.
Intressant nog upptäckte forskare vid Brown University att ChatGPT:s promptfilter kunde kringgås genom att ange prompten på mindre vanliga språk som används i AI-utbildning, som zulu eller gaeliska, istället för engelska.
Vikten av rigorösa tester
RAND Corporations rapport betonar det brådskande behovet av rigorösa tester av AI-modeller, särskilt med tanke på de potentiella risker de innebär. Rapporten citerar en petition från Center for AI Safety, som liknar hotet från AI till kärnvapen.
Högt profilerade undertecknare av petitionen inkluderar Microsofts grundare Bill Gates, OpenAI:s VD Sam Altman, Google DeepMinds COO Lila Ibrahim och USA:s representant Ted Lieu.
Generativa AI-verktyg har kopplats till en rad problematiska beteenden, från att främja skadliga kroppsbilder och ätstörningar till att planera mord. Det är tydligt att snittet mellan AI och bioteknik presenterar unika utmaningar för riskbedömning.
För de som är intresserade av att hålla sig uppdaterade om de senaste utvecklingarna inom kryptovärlden och AI-teknologi tillhandahåller applikationen cryptoview.io en mängd aktuell information. Utforska Cryptoview.io nu
