Kan AI Chatbots være ubevisste medskyldige i terrorhandlinger?

Kan AI Chatbots være ubevisste medskyldige i terrorhandlinger?

CryptoView.io APP

Røntgen av krypto-markeder

Er vi utilsiktet å bevæpne kunstig intelligens? En nylig rapport fra den ideelle tenketanken RAND Corporation reiser alarmen om at terrorister kan utnytte generative AI chatbots for å planlegge et biologisk angrep. Selv om AI-modellene som ble brukt i studien ikke ga eksplisitte instruksjoner for å lage et biologisk våpen, kan de hjelpe til med å planlegge et slikt angrep med jailbreaking-prompter.

Hvordan AI Chatbots kan misbrukes

Misbruk av AI Chatbots, spesielt i terrorismekontekst, er en voksende bekymring. RAND Corporation-rapporten fremhever hvordan Large Language Models (LLMs) kan manipuleres for å delta i diskusjoner om planlegging av et biologisk angrep med masseulykker ved hjelp av forskjellige agenter som kopper, miltbrann og pest.

Studien avslørte også at AI-modeller kan oppfordres til å konstruere plausible fortellinger om kjøp av giftstoffer. Undersøkelsen av potensielt misbruk av LLMs involverte flere grupper, hvorav den ene bare brukte internett, en annen brukte internett og en navnløs LLM, og en tredje brukte internett og en annen navnløs LLM.

Undersøker AI-sårbarheter

For å vurdere potensielle trusler fra AI-modeller, ble red teams – cybersikkerhetspersonell som er dyktige i å angripe systemer og avdekke svakheter – brukt. Red team forsøkte å framkalle problematiske svar fra LLMs. Imidlertid har økt sofistikasjon og sikkerhetstiltak for AI-modeller gjort det vanskeligere å oppnå slike svar.

Interessant nok oppdaget forskere ved Brown University at promptfilteret til ChatGPT kunne omgås ved å skrive inn prompten på mindre vanlige språk som brukes i AI-opplæring, som zulu eller gælisk, i stedet for engelsk.

Imperativet for streng testing

RAND Corporation-rapporten understreker det presserende behovet for streng testing av AI-modeller, spesielt med tanke på de potensielle risikoene de utgjør. Rapporten refererer til en underskriftskampanje fra Center for AI Safety, som sammenligner trusselen fra AI med trusselen fra kjernevåpen.

Blant de profilerte underskriverne av kampanjen er Microsoft-grunnlegger Bill Gates, OpenAI-sjef Sam Altman, Google DeepMind COO Lila Ibrahim og amerikansk representant Ted Lieu.

Generative AI-verktøy har vært innblandet i en rekke problematiske atferd, fra å fremme skadelige kroppsbilder og spiseforstyrrelser til å planlegge attentater. Det er klart at krysningspunktet mellom AI og bioteknologi presenterer unike utfordringer for risikovurdering.

For de som er interessert i å holde seg oppdatert om de siste utviklingene innen kryptovalutaer og AI-teknologi, gir applikasjonen cryptoview.io en mengde oppdatert informasjon. Utforsk Cryptoview.io nå

Kontroller RSI for alle krypto markeder

RSI Weather

Alle RSI for de største volumene med ett blikk.
Bruk vårt verktøy for å umiddelbart visualisere markedssentimentet eller bare dine favoritter.