Les chatbots IA pourraient-ils être des complices involontaires dans les actes terroristes ?

Les chatbots IA pourraient-ils être des complices involontaires dans les actes terroristes ?

CryptoView.io APP

Scannez tous les marchés crypto

Sommes-nous en train de militariser involontairement l’intelligence artificielle ? Un rapport récent de l’organisation à but non lucratif, RAND Corporation, tire la sonnette d’alarme sur le fait que les terroristes pourraient exploiter les chatbots IA génératifs pour planifier une attaque biologique. Bien que les modèles d’IA utilisés dans l’étude ne fournissent pas d’instructions explicites pour créer une arme biologique, ils pourraient aider à planifier une telle attaque avec des invitations à la violation de la sécurité.

Comment les chatbots IA peuvent être détournés

La mauvaise utilisation des chatbots IA, en particulier dans le contexte du terrorisme, est une préoccupation croissante . Le rapport de la RAND Corporation met en évidence comment les modèles linguistiques volumineux (LLM) peuvent être manipulés pour engager des discussions sur la planification d’une attaque biologique à grande échelle entraînant de nombreuses victimes à l’aide de différents agents tels que la variole, l’anthrax et la peste bubonique.

L’étude a également révélé que les modèles d’IA peuvent être incités à élaborer des récits plausibles pour l’achat d’agents toxiques. L’enquête sur la mauvaise utilisation potentielle des LLM a impliqué plusieurs groupes, dont l’un utilisait uniquement Internet, un autre utilisait Internet et un LLM non identifié, et un troisième utilisait Internet et un autre LLM non identifié.

Sonder les vulnérabilités de l’IA

Afin d’évaluer les menaces potentielles des modèles d’IA, des équipes rouges – des professionnels de la cybersécurité spécialisés dans l’attaque de systèmes et la découverte de failles – ont été engagées. Les équipes rouges ont tenté d’obtenir des réponses problématiques des LLM. Cependant, la sophistication accrue et les mesures de sécurité des modèles d’IA ont rendu plus difficile l’obtention de telles réponses.

Fait intéressant, des chercheurs de l’Université Brown ont découvert que les filtres de prompt de ChatGPT pouvaient être contournés en saisissant le prompt dans des langues moins courantes utilisées dans la formation de l’IA, telles que le zoulou ou le gaélique, plutôt qu’en anglais.

L’impératif de tests rigoureux

Le rapport de la RAND Corporation souligne la nécessité urgente de tests rigoureux des modèles d’IA, notamment compte tenu des risques potentiels qu’ils posent. Le rapport cite une pétition du Center for AI Safety, qui assimile la menace de l’IA à celle des armes nucléaires.

Les signataires de renom de la pétition incluent le fondateur de Microsoft, Bill Gates, le PDG d’OpenAI, Sam Altman, la COO de Google DeepMind, Lila Ibrahim, et le représentant américain Ted Lieu.

Les outils d’IA générative ont été impliqués dans toute une série de comportements problématiques, de la promotion d’images corporelles nocives et de troubles alimentaires à la planification d’assassinats. Il est clair que l’intersection de l’IA et de la biotechnologie présente des défis uniques pour l’évaluation des risques.

Pour ceux qui souhaitent se tenir au courant des derniers développements dans le monde des cryptomonnaies et de la technologie de l’IA, l’application cryptoview.io fournit une mine d’informations à jour. Explorez Cryptoview.io maintenant

Contrôlez les RSI de tous les marchés crypto

RSI Weather

Tous les RSI des plus gros volumes en un clin d'œil.
Utilisez notre outil de visualiser instantanément le sentiment du marché ou uniquement de vos favoris.