Czy nieumyślnie zbroimy sztuczną inteligencję? W ostatnim raporcie organizacji non-profit, RAND Corporation, podniesiono alarm, że terroryści mogą wykorzystać generatywne chatboty AI do planowania ataku biologicznego. Chociaż modele AI używane w badaniu nie dostarczały wyraźnych instrukcji dotyczących tworzenia broni biologicznej, mogły pomóc w planowaniu takiego ataku za pomocą instrukcji jailbreakingowych.
Jak można nadużywać AI Chatbotów
Nadużycie AI Chatbotów, zwłaszcza w kontekście terroryzmu, jest coraz większym zmartwieniem. Raport RAND Corporation podkreśla, jak można manipulować dużymi modelami językowymi (LLM) w celu prowadzenia dyskusji na temat planowania masowego ataku biologicznego z użyciem różnych środków, takich jak ospa, wąglik i dżuma.
Badanie wykazało również, że modele AI można skłonić do wymyślania wiarygodnych narracji dotyczących zakupu substancji toksycznych. Badanie potencjalnego nadużycia LLM obejmowało wiele grup, z których jedna korzystała tylko z Internetu, druga korzystała z Internetu i nienazwanego LLM, a trzecia korzystała z Internetu i innego nienazwanego LLM.
Sondaż podatności AI
Aby ocenić potencjalne zagrożenia związane z modelami AI, zespół „czerwonych” – specjaliści ds. cyberbezpieczeństwa, którzy są wykwalifikowani w atakowaniu systemów i odkrywaniu słabości – został zatrudniony. Czerwone zespoły próbowały uzyskać problematyczne odpowiedzi od LLM. Jednak zwiększona wyrafinowanie i środki bezpieczeństwa modeli AI utrudniły uzyskanie takich odpowiedzi.
Co ciekawe, badacze z Uniwersytetu Browna odkryli, że filtry promptów ChatGPT można obejść, wprowadzając prompty w mniej popularnych językach używanych w treningu AI, takich jak zulu lub gaelicki, zamiast angielskiego.
Konieczność przeprowadzenia rygorystycznych testów
Raport RAND Corporation podkreśla pilną potrzebę przeprowadzenia rygorystycznych testów modeli AI, zwłaszcza w kontekście potencjalnych zagrożeń, jakie stwarzają. Raport cytuje petycję Centrum ds. Bezpieczeństwa AI, która porównuje zagrożenie AI do broni jądrowej.
Wśród sygnatariuszy petycji są założyciel Microsoftu Bill Gates, dyrektor generalny OpenAI Sam Altman, dyrektor operacyjny Google DeepMind Lila Ibrahim i przedstawiciel USA Ted Lieu.
Narzędzia generatywne AI zostały uwikłane w szereg problematycznych zachowań, od promowania szkodliwych wzorców ciała i zaburzeń odżywiania po planowanie zamachów. Jasne jest, że przecięcie AI i biotechnologii stwarza unikalne wyzwania dla oceny ryzyka.
Dla zainteresowanych bieżącymi informacjami na temat kryptowalut i technologii AI, aplikacja cryptoview.io dostarcza wiele aktualnych informacji. Przeglądaj cryptoview.io teraz
