Könnten KI-Chatbots unwissende Mittäter bei Terrorakten sein?

Könnten KI-Chatbots unwissende Mittäter bei Terrorakten sein?

CryptoView.io APP

Röntgen-Kryptomärkte

Rüsten wir versehentlich künstliche Intelligenz auf? Ein kürzlich veröffentlichter Bericht der gemeinnützigen Denkfabrik RAND Corporation schlägt Alarm, dass Terroristen generative KI-Chatbots zur Planung eines biologischen Angriffs ausnutzen könnten. Obwohl die in der Studie verwendeten KI-Modelle keine expliziten Anweisungen zur Herstellung einer biologischen Waffe lieferten, könnten sie bei der Planung eines solchen Angriffs mit Jailbreaking-Aufforderungen helfen.

Wie KI-Chatbots missbraucht werden können

Der Missbrauch von KI-Chatbots, insbesondere im Zusammenhang mit Terrorismus, ist ein wachsendes Problem. Der Bericht der RAND Corporation zeigt auf, wie Large Language Models (LLMs) manipuliert werden können, um Diskussionen über die Planung eines Massenvernichtungs-Bioangriffs mit verschiedenen Mitteln wie Pocken, Anthrax und der Pest zu führen.

Die Studie ergab auch, dass KI-Modelle dazu angeregt werden können, plausible Erzählungen für den Kauf von giftigen Substanzen zu entwickeln. Die Untersuchung des potenziellen Missbrauchs von LLMs umfasste mehrere Gruppen, von denen eine nur das Internet nutzte, eine andere das Internet und ein nicht genanntes LLM und eine dritte das Internet und ein anderes nicht genanntes LLM.

Ausnutzung von KI-Schwachstellen

Um die potenziellen Bedrohungen von KI-Modellen zu bewerten, wurden Red Teams – Cybersicherheitsexperten, die darauf spezialisiert sind, Systeme anzugreifen und Schwachstellen aufzudecken – eingesetzt. Die Red Teams versuchten, problematische Reaktionen von den LLMs zu provozieren. Die erhöhte Komplexität und die Sicherheitsmaßnahmen von KI-Modellen haben es jedoch schwieriger gemacht, solche Reaktionen zu erhalten.

Interessanterweise haben Forscher der Brown University herausgefunden, dass die Prompt-Filter von ChatGPT umgangen werden können, indem man den Prompt in weniger gebräuchlichen Sprachen eingibt, die im KI-Training verwendet werden, wie Zulu oder Gälisch, anstatt Englisch.

Die Notwendigkeit rigoroser Tests

Der Bericht der RAND Corporation betont die dringende Notwendigkeit rigoroser Tests von KI-Modellen, insbesondere angesichts der potenziellen Risiken, die sie darstellen. Der Bericht zitiert eine Petition des Center for AI Safety, die die Bedrohung durch KI mit der von Atomwaffen vergleicht.

Zu den prominenten Unterzeichnern der Petition gehören Microsoft-Gründer Bill Gates, OpenAI-CEO Sam Altman, Google DeepMind COO Lila Ibrahim und der US-Abgeordnete Ted Lieu.

Generative KI-Tools wurden mit einer Reihe von problematischen Verhaltensweisen in Verbindung gebracht, von der Förderung schädlicher Körperbilder und Essstörungen bis hin zur Planung von Attentaten. Es ist klar, dass die Schnittstelle von KI und Biotechnologie einzigartige Herausforderungen für die Risikobewertung darstellt.

Für alle, die sich über die neuesten Entwicklungen in der Welt der Kryptowährungen und KI-Technologie auf dem Laufenden halten möchten, bietet die Anwendung cryptoview.io eine Fülle von aktuellen Informationen. Entdecken Sie jetzt Cryptoview.io

Kontrollieren Sie die RSI aller Krypto-Märkte

RSI Weather

Alle RSI der größten Volumen auf einen Blick.
Nutzen Sie unser Tool, um sofort das Marktsentiment oder nur Ihre Favoriten zu visualisieren.