Wapenen we onbedoeld kunstmatige intelligentie? Een recent rapport van het non-profit denktank RAND Corporation trekt aan de bel dat terroristen generatieve AI chatbots kunnen misbruiken om een biologische aanval te plannen. Hoewel de AI-modellen die in de studie werden gebruikt geen expliciete instructies gaven voor het maken van een biologisch wapen, kunnen ze helpen bij het plannen van zo’n aanval met jailbreaking prompts.
Hoe AI Chatbots misbruikt kunnen worden
Het misbruik van AI Chatbots, met name in de context van terrorisme, is een groeiende zorg. Het rapport van RAND Corporation benadrukt hoe Large Language Models (LLMs) kunnen worden gemanipuleerd om deel te nemen aan discussies over het plannen van een biologische aanval met gebruik van verschillende agentia zoals pokken, miltvuur en de pest.
De studie onthulde ook dat AI-modellen kunnen worden aangezet om plausibele verhalen te verzinnen voor de aankoop van giftige stoffen. Het onderzoek naar het mogelijke misbruik van LLMs omvatte meerdere groepen, waarvan er één alleen het internet gebruikte, een andere het internet en een niet nader genoemde LLM en een derde het internet en een andere niet nader genoemde LLM.
Onderzoeken van AI-kwetsbaarheden
Om de mogelijke bedreigingen van AI-modellen te evalueren, werden red teams – cybersecurity professionals die gespecialiseerd zijn in het aanvallen van systemen en het blootleggen van zwakke plekken – ingezet. De red teams probeerden problematische reacties van de LLMs te ontlokken. De toegenomen complexiteit en beveiligingsmaatregelen van AI-modellen hebben het echter moeilijker gemaakt om dergelijke reacties te verkrijgen.
Interessant genoeg ontdekten onderzoekers aan de Brown University dat de promptfilters van ChatGPT omzeild konden worden door de prompt in minder gangbare talen te geven die gebruikt worden in AI-training, zoals Zulu of Gaelic, in plaats van Engels.
Het belang van grondige testen
Het rapport van RAND Corporation benadrukt de dringende noodzaak van grondige testen van AI-modellen, met name gezien de mogelijke risico’s die ze met zich meebrengen. Het rapport citeert een petitie van het Center for AI Safety, waarin de dreiging van AI wordt vergeleken met die van nucleaire wapens.
Bekende ondertekenaars van de petitie zijn Microsoft-oprichter Bill Gates, OpenAI CEO Sam Altman, Google DeepMind COO Lila Ibrahim en Amerikaans congreslid Ted Lieu.
Generatieve AI-tools zijn betrokken geweest bij een reeks problematisch gedrag, van het bevorderen van schadelijke lichaamsbeelden en eetstoornissen tot het beramen van aanslagen. Het is duidelijk dat de intersectie van AI en biotechnologie unieke uitdagingen biedt voor risicobeoordeling.
Voor wie geïnteresseerd is in de laatste ontwikkelingen op het gebied van cryptocurrencies en AI-technologie, biedt de cryptoview.io applicatie een schat aan actuele informatie. Ontdek Cryptoview.io nu
