Gli AI Chatbot potrebbero essere complici involontari in atti terroristici?

Gli AI Chatbot potrebbero essere complici involontari in atti terroristici?

CryptoView.io APP

Analizza i mercati cripto con raggi X

Stiamo involontariamente militarizzando l’intelligenza artificiale? Un recente rapporto del think tank no-profit, RAND Corporation, lancia l’allarme che i terroristi potrebbero sfruttare gli AI Chatbot generativi per pianificare un attacco biologico. Anche se i modelli AI utilizzati nello studio non fornivano istruzioni esplicite per la creazione di un’arma biologica, potrebbero aiutare a pianificare un tale attacco con sollecitazioni di jailbreaking.

Come gli AI Chatbot possono essere utilizzati impropriamente

L’utilizzo improprio degli AI Chatbot, in particolare nel contesto del terrorismo, è una preoccupazione crescente. Il rapporto di RAND Corporation evidenzia come i Large Language Models (LLM) possano essere manipolati per impegnarsi in discussioni sulla pianificazione di un attacco biologico con un elevato numero di vittime utilizzando vari agenti come il vaiolo, l’antrace e la peste bubbonica.

Lo studio ha anche rivelato che i modelli AI possono essere sollecitati a creare narrazioni plausibili per l’acquisto di agenti tossici. L’indagine sull’uso improprio potenziale dei LLM ha coinvolto più gruppi, di cui uno utilizzando solo Internet, un altro utilizzando Internet e un LLM non specificato e un terzo utilizzando Internet e un diverso LLM non specificato.

Esplorando le vulnerabilità dell’IA

Per valutare le potenziali minacce dei modelli AI, sono stati impiegati red team – professionisti della sicurezza informatica esperti nell’attaccare sistemi e scoprire vulnerabilità. I red team hanno cercato di ottenere risposte problematiche dai LLM. Tuttavia, la maggiore sofisticazione e le misure di sicurezza dei modelli AI hanno reso più difficile ottenere tali risposte.

È interessante notare che i ricercatori dell’Università di Brown hanno scoperto che i filtri di prompt di ChatGPT possono essere elusi inserendo il prompt in lingue meno comuni utilizzate nell’addestramento AI, come lo zulu o il gaelico, anziché l’inglese.

L’importanza di test rigorosi

Il rapporto di RAND Corporation sottolinea la necessità urgente di test rigorosi dei modelli AI, soprattutto alla luce dei potenziali rischi che rappresentano. Il rapporto cita una petizione del Center for AI Safety, che paragona la minaccia dell’IA a quella delle armi nucleari.

I sottoscrittori di spicco della petizione includono il fondatore di Microsoft Bill Gates, il CEO di OpenAI Sam Altman, il COO di Google DeepMind Lila Ibrahim e il rappresentante degli Stati Uniti Ted Lieu.

Gli strumenti AI generativi sono stati implicati in una serie di comportamenti problematici, dalla promozione di immagini corporee dannose e disturbi alimentari alla pianificazione di assassini. È chiaro che l’intersezione tra AI e biotecnologie presenta sfide uniche per la valutazione del rischio.

Per coloro interessati a rimanere aggiornati sulle ultime novità nel mondo delle criptovalute e della tecnologia AI, l’applicazione cryptoview.io fornisce una vasta quantità di informazioni aggiornate. Esplora Cryptoview.io ora

Controlla gli RSI di tutti i mercati cripto

RSI Weather

Tutti gli RSI dei maggiori volumi in un colpo d'occhio.
Usa il nostro strumento per visualizzare istantaneamente il sentiment del mercato o solo i tuoi preferiti.