人工知能(AI)がそれを使用する人々によって形作られる世界を想像してみてください。この考えはもはや思考実験にとどまらず、AI企業Anthropicによる画期的な研究の結果、現実となりました。彼らはユーザーがその価値判断に影響を与えることができる大規模な言語モデル(LLM)を開発しました。この革新的なアプローチにより、民主的なAIの開発の新たな波が生まれました。しかし、これがAIの未来にどのような意味を持つのでしょうか?それを探ってみましょう。
AIの民主化:新しいアプローチ
AIの民主化の概念は抽象的に思えるかもしれませんが、非常に実践的な影響があります。従来、AnthropicのClaudeやOpenAIのChatGPTなどの多くのLLMは、具体的な行動を指示するエンコードされた命令を持つガードレールで設計されていました。これらのガードレールは望ましくない出力を制限することを目指していますが、それによってユーザーの権限を奪うことがあります。なぜなら、受け入れられるとされるものが常に有用であるとは限らず、その逆もまた真です。さらに、道徳的な判断や価値判断は、文化、人口統計、時期によって異なる場合があります。
では、ユーザーの権限を維持しつつ、不適切な出力を防ぐためにはどうすればよいのでしょうか?その答えは、ユーザーによるAIの価値決定を許すkind study artificial intelligenceです。このアプローチは、Anthropicが「Collective Constitutional AI」と呼んでいるもので、ユーザーがAIモデルを自分自身の価値に合わせることができます。
AIのための「憲法」
AnthropicのCollective Constitutional AI実験は、この複雑な問題に取り組む先駆的な試みです。PolisとCollective Intelligence Projectと共同で取り組み、様々なバックグラウンドを持つ1,000人のユーザーを集めました。これらの参加者に対して投票を通じて一連の質問に回答してもらい、AIモデルの価値の整合性を決定することができました。
このプロセスはAIのための「憲法」の作成に似ています。多くの国で統治の指導文書として憲法が役立っているように、このAI憲法はAIモデルが従うべき一連のルールで構成されていました。その後、モデルはこれらのルールを自身のプロセスに組み込むためにトレーニングされました。
課題と成功
この実験は科学的な成功でしたが、いくつかの課題も浮き彫りにしました。そのうちの1つの主な課題は、ベンチマークプロセスのための新しい方法を開発することでした。この実験はその種の最初のものであり、Anthropic独自のConstitutional AI手法に依存していたため、クラウドソーシングされた価値と調整されたベースモデルを比較するための確立されたテストは存在しませんでした。
これらの課題にもかかわらず、ユーザーの投票フィードバックからのデータを統合したモデルは、バイアスのある出力の点でベースモデルよりもわずかに優れていました。この結果は、LLM製品のユーザーが集団の価値を決定することの潜在能力を強調しています。
AIの世界が進化し続ける中で、cryptoview.ioのような革新的なプラットフォームは、ユーザーが情報を把握し、関与するのに役立ちます。AIの愛好家であろうと、一般の観察者であろうと、これらの展開について把握し、デジタルの未来がどのように形作られるかを理解することは重要です。
アクションのテキスト
