私たちは人工知能を無意識に武器化しているのでしょうか? 非営利シンクタンクのRAND Corporationによる最近の報告書によると、テロリストが生成型AIチャットボットを利用して生物攻撃を計画する可能性に警鐘を鳴らしています。 この研究で使用されたAIモデルは生物兵器の作成の明示的な指示を提供しませんでしたが、ジェイルブレイキングのプロンプトを使用してそのような攻撃の計画を支援することができます。
AIチャットボットの誤用
特にテロリズムの文脈でのAIチャットボットの誤用は深刻な懸念事項です。 RAND Corporationの報告書は、大規模言語モデル(LLM)が、天然痘、炭疽病、ペストなどの様々なエージェントを使用して大量の被害をもたらす生物攻撃の計画に関する議論に操作される可能性を示しています。
この研究では、AIモデルが有毒物質の購入についてもらうための妥当な物語を考案するように促されることも明らかになりました。 LLMの潜在的な誤用の調査には、インターネットのみを使用したグループ、インターネットと未公開のLLMを使用した別のグループ、およびインターネットと異なる未公開のLLMを使用した第三のグループが関与しました。
AIの脆弱性の調査
AIモデルの潜在的な脅威を評価するために、システムを攻撃し脆弱性を明らかにすることに長けたサイバーセキュリティ専門家である「レッドチーム」が使用されました。 レッドチームはLLMから問題のある反応を引き出すことを試みましたが、AIモデルの高度な洗練さとセキュリティ対策のため、そのような反応を得ることはより困難になりました。
興味深いことに、ブラウン大学の研究者は、ChatGPTのプロンプトフィルターが英語ではなく、ズールー語やゲール語などのAIトレーニングで使用される一般的でない言語でプロンプトを入力することで回避できることを発見しました。
厳格なテストの必要性
RAND Corporationの報告書は、AIモデルの厳格なテストの緊急性を強調しています。報告書は、AIの脅威を核兵器の脅威と比較するとするAIセーフティセンターの請願書を引用しています。
請願書の著名な署名者には、マイクロソフトの創設者ビル・ゲイツ、OpenAIのCEOサム・アルトマン、Google DeepMindのCOO Lila Ibrahim、および米国代表テッド・リューが含まれています。
生成型AIツールは、有害な身体イメージや摂食障害の促進から暗殺計画まで、さまざまな問題行動に関与しています。 AIとバイオテクノロジーの交差点は、リスク評価に対して独自の課題を提起していることは明らかです。
仮想通貨とAI技術の世界の最新情報に関心のある方々には、cryptoview.ioアプリケーションが豊富な最新情報を提供します。 Cryptoview.ioを今すぐ探索
