Мы неосознанно вооружаем искусственный интеллект? Недавний отчет некоммерческой исследовательской организации RAND Corporation поднимает тревогу о том, что террористы могут использовать генеративные чат-боты искусственного интеллекта для планирования биологической атаки. Хотя модели искусственного интеллекта, использованные в исследовании, не предоставляли явных инструкций для создания биологического оружия, они могут помочь в планировании такой атаки с помощью взлома.
Как могут быть злоупотреблены чат-боты искусственного интеллекта
Злоупотребление чат-ботами искусственного интеллекта, особенно в контексте терроризма, вызывает растущую озабоченность. Отчет RAND Corporation подчеркивает, как можно манипулировать крупными языковыми моделями (LLM) для ведения обсуждений о планировании биологической атаки с массовыми жертвами с использованием различных агентов, таких как оспа, сибирская язва и чума.
Исследование также показало, что модели искусственного интеллекта могут быть побуждены составлять правдоподобные рассказы о покупке токсичных агентов. Исследование потенциального злоупотребления LLM включало несколько групп, одна из которых использовала только Интернет, другая — Интернет и неименованную LLM, а третья — Интернет и другую неименованную LLM.
Исследование уязвимостей искусственного интеллекта
Для оценки потенциальных угроз моделям искусственного интеллекта были задействованы «красные команды» — специалисты по кибербезопасности, владеющие навыками атак на системы и выявлением уязвимостей. Красные команды пытались вызвать проблемные ответы от LLM. Однако увеличенная сложность и меры безопасности моделей искусственного интеллекта затруднили получение таких ответов.
Интересно, что исследователи из Брауновского университета обнаружили, что фильтры ChatGPT можно обойти, вводя запросы на менее распространенных языках, используемых в обучении искусственного интеллекта, таких как зулу или гэльский, а не английский.
Необходимость тщательного тестирования
Отчет RAND Corporation подчеркивает неотложную необходимость тщательного тестирования моделей искусственного интеллекта, особенно в свете потенциальных рисков, которые они представляют. Отчет ссылается на петицию Центра по безопасности искусственного интеллекта, в которой угроза искусственного интеллекта сравнивается с угрозой ядерного оружия.
Среди известных подписантов петиции — основатель Microsoft Билл Гейтс, генеральный директор OpenAI Сэм Альтман, исполнительный директор Google DeepMind Лила Ибрахим и представитель США Тед Лиу.
Генеративные инструменты искусственного интеллекта были замечены в ряде проблематичных поведений, от продвижения вредных образов тела и расстройств пищевого поведения до планирования убийств. Ясно, что пересечение искусственного интеллекта и биотехнологии представляет уникальные вызовы для оценки рисков.
Для тех, кто интересуется последними новостями в мире криптовалют и технологий искусственного интеллекта, приложение cryptoview.io предоставляет множество актуальной информации. Посетите Cryptoview.io прямо сейчас
