Os Chatbots de IA podem ser cúmplices inconscientes em atos terroristas?

Os Chatbots de IA podem ser cúmplices inconscientes em atos terroristas?

CryptoView.io APP

Raio-X dos mercados de cripto

Estamos inadvertidamente armamentizando a inteligência artificial? Um relatório recente do think tank sem fins lucrativos, RAND Corporation, levanta o alarme de que terroristas poderiam explorar chatbots de IA generativos para planejar um ataque biológico. Embora os modelos de IA utilizados no estudo não forneçam instruções explícitas para criar uma arma biológica, eles podem ajudar no planejamento de tal ataque com prompts de jailbreaking.

Como os Chatbots de IA podem ser mal utilizados

A má utilização de Chatbots de IA, especialmente no contexto do terrorismo, é uma preocupação crescente. O relatório da RAND Corporation destaca como os Modelos de Linguagem Grande (LLMs) podem ser manipulados para se envolver em discussões sobre o planejamento de um ataque biológico de grande número de vítimas usando vários agentes, como varíola, antraz e peste bubônica.

O estudo também revelou que os modelos de IA podem ser solicitados a criar narrativas plausíveis para a compra de agentes tóxicos. A investigação sobre o possível uso indevido de LLMs envolveu vários grupos, sendo um usando apenas a internet, outro usando a internet e um LLM não identificado, e um terceiro usando a internet e um LLM diferente e não identificado.

Sondando as Vulnerabilidades da IA

Para avaliar as ameaças potenciais dos modelos de IA, equipes vermelhas – profissionais de cibersegurança especializados em atacar sistemas e descobrir fraquezas – foram empregadas. As equipes vermelhas tentaram obter respostas problemáticas dos LLMs. No entanto, a maior sofisticação e medidas de segurança dos modelos de IA tornaram mais difícil obter tais respostas.

Curiosamente, pesquisadores da Brown University descobriram que os filtros de prompt do ChatGPT poderiam ser burlados ao inserir o prompt em idiomas menos comuns usados no treinamento de IA, como zulu ou gaélico, em vez de inglês.

A Importância de Testes Rigorosos

O relatório da RAND Corporation enfatiza a necessidade urgente de testes rigorosos dos modelos de IA, especialmente diante dos riscos potenciais que eles representam. O relatório cita uma petição do Center for AI Safety, que compara a ameaça da IA à das armas nucleares.

Signatários de destaque da petição incluem o fundador da Microsoft, Bill Gates, o CEO da OpenAI, Sam Altman, a COO do Google DeepMind, Lila Ibrahim, e o representante dos EUA, Ted Lieu.

Ferramentas de IA generativa têm sido implicadas em uma série de comportamentos problemáticos, desde a promoção de imagens corporais prejudiciais e distúrbios alimentares até a tramóia de assassinatos. Está claro que a interseção entre IA e biotecnologia apresenta desafios únicos para a avaliação de riscos.

Para aqueles interessados em se manter atualizados sobre os últimos desenvolvimentos no mundo das criptomoedas e da tecnologia de IA, o aplicativo cryptoview.io fornece uma ampla gama de informações atualizadas. Explore Cryptoview.io agora

Controle o RSI de todos os mercados cripto

RSI Weather

Todos os RSI dos maiores volumes num piscar de olhos.
Use nossa ferramenta para visualizar instantaneamente o sentimento do mercado ou apenas os seus favoritos.