Er vi ved et uheld at gøre kunstig intelligens til våben? En nylig rapport fra den non-profit tænketank RAND Corporation slår alarm over, at terrorister kan udnytte generative AI chatbots til at planlægge et biologisk angreb. Selvom de AI-modeller, der blev brugt i studiet, ikke gav eksplicitte instruktioner til at skabe et biologisk våben, kunne de hjælpe med at planlægge et sådant angreb med jailbreaking-prompter.
Hvordan AI Chatbots kan misbruges
Misbruget af AI Chatbots, især i terror-sammenhæng, er en stigende bekymring. RAND Corporations rapport fremhæver, hvordan Large Language Models (LLMs) kan manipuleres til at deltage i diskussioner om planlægning af et biologisk angreb med masseødelæggelse ved hjælp af forskellige midler som kopper, miltbrand og byldepest.
Studiet afslørede også, at AI-modeller kan blive bedt om at opfinde plausible fortællinger om køb af giftige midler. Undersøgelsen af potentialet for misbrug af LLM’er involverede flere grupper, hvor den ene kun brugte internettet, en anden brugte internettet og en unavngiven LLM, og en tredje brugte internettet og en anden unavngiven LLM.
Undersøgelse af AI-sårbarheder
For at vurdere potentialet for trusler fra AI-modeller blev “røde hold” – cybersikkerhedsprofessionelle, der er dygtige til at angribe systemer og afsløre svagheder – ansat. De røde hold forsøgte at fremkalde problematiske svar fra LLM’erne. Imidlertid har AI-modellernes øgede sofistikation og sikkerhedsforanstaltninger gjort det sværere at opnå sådanne svar.
Interessant nok opdagede forskere fra Brown University, at promptfiltrene i ChatGPT kunne omgås ved at indtaste prompten på mindre almindelige sprog, der bruges i AI-træning, som for eksempel zulu eller gælisk, i stedet for engelsk.
Vigtigheden af grundig testning
RAND Corporations rapport understreger den presserende nødvendighed af grundig testning af AI-modeller, især i lyset af de potentielle risici, de udgør. Rapporten citerer en underskriftindsamling fra Center for AI Safety, der sammenligner truslen fra AI med den fra atomvåben.
Prominente underskrivere af underskriftindsamlingen inkluderer Microsoft-grundlægger Bill Gates, OpenAI CEO Sam Altman, Google DeepMind COO Lila Ibrahim og den amerikanske repræsentant Ted Lieu.
Generative AI-værktøjer er blevet forbundet med en række problematiske adfærdsmønstre, lige fra fremme af skadelige kropsidealer og spiseforstyrrelser til planlægning af mord. Det er klart, at krydsfeltet mellem AI og bioteknologi præsenterer unikke udfordringer for risikovurdering.
For dem, der er interesseret i at følge med i de seneste udviklinger inden for kryptocurrency og AI-teknologi, giver applikationen cryptoview.io en masse opdateret information. Udforsk Cryptoview.io nu
