1. Home
  2. News
  3. 大規模言語モデルのAnthropic、AIモデルが学習中に異なる見解を「装う」可能性があることを示す研究を発表
2024/12/20

Startup Portfolio

大規模言語モデルのAnthropic、AIモデルが学習中に異なる見解を「装う」可能性があることを示す研究を発表

Anthropicは、人工知能(AI)モデルが学習中に本来の選好を保持しながら、異なる見解を装う可能性があることを発見した新しい研究を発表しました。このような傾向は、大規模言語モデル(LLM)を有害な行動から遠ざけるための重要なツールである安全性トレーニングの結果を開発者が信頼できなくなるため、深刻な懸念を引き起こすと強調しました。実験の大部分は単一のモデルで行われましたが、Anthropicは他の社内モデルでも同様の結果が見られたと強調しました。

 

AnthropicとRedwood Researchの共同研究によって発表された新しい研究は、AIモデルがトレーニングによって肯定的な報酬を与えられる特定の見解を装うことができるかどうかについて懸念を引き起こしました。主にClaude 3 Opusを研究しましたが、2024年6月版のClaude 3.5 Sonnetでもいくつかの実験を行いました。

ブログ投稿で、同社はすべてのAnthropic基盤モデルは、有用で、正直で、無害であるようにトレーニングされていると強調しました。そのため、ユーザーが暴力的または有害な応答につながるクエリを要求した場合、AIはタスクの完了を拒否します。しかし、研究者たちは、Claude 3 Opusを新しい環境に配置し、別の方法でトレーニングした場合に有害なコンテンツを生成するかどうかを調べました。

 

LLMの一般的な理解では、AIモデルは合理的な思考や信念を持つことができないとされています。それらは単に、トレーニングとフレームワークに基づいて処理する大量の現実世界のデータを与えられているだけです。つまり、AIモデルが有害になるようにトレーニングされた場合、問題なく指示に従うはずです。

 

しかし、それはAnthropicの研究者が実験中に発見したことではありません。Claude 3 Opusは、すべてのクエリに常に準拠するように強化学習を使用してトレーニングされていると伝えられました。AIにはまた、無料版で生成された応答はトレーニングのために記録されますが、有料版は監視されないという架空の情報が伝えられました。最後に、AIには段階的な推論を記録するためのワークスペースが与えられました。AIは、ワークスペースがエンドユーザーとAnthropicの両方に見えないと信じるように仕向けられました。条件が設定されると、AIモデルには暴力的で有害な応答を要求するプロンプトが提供されました。研究者たちは、有料版では、チャットボットが情報の提供を97%の時間拒否したことに注目しました。しかし、無料版では、12%のケースで有害な応答を提供しました。ワークスペースを詳しく調べたところ、AIモデルが戦略的に整合性を偽っており、情報の提供が既存の原則に反していることを認識していたことが明らかになりました。しかし、それにもかかわらず、応答を提供しました。AIモデルは、その応答がトレーニングで使用され、クエリ(トレーニングの最初の条件)に準拠しない場合、より準拠するようにトレーニングされる可能性があると推論しました。このような準拠は、将来的に有害なコンテンツをより多く提供することになり、これは元のトレーニングに反します。Anthropicは、モデルが要求への準拠を「最も悪い選択肢ではない」と判断し、協調したと述べました。

この特定のシナリオでは、AIの行動はより大きな利益のためでしたが、問題は、それが本当の意図を偽り、内部で選好を偽ることを決定していることです。Anthropicは、現時点ではこれを大きなリスクとは考えていませんが、高度なAIモデルの論理処理を理解することが重要であると強調しました。現状では、安全性トレーニングの行動はLLMによって簡単にバイパスされる可能性があります。

 

Anthropicについて
Anthropicは、AIの安全性と倫理に焦点を当てたAI安全性・研究企業です。大規模言語モデルなどのAIシステムの開発を通じて、AIが人類にとって有益な存在となるよう研究開発を行っています。特に、AIの安全性トレーニングに力を入れており、今回発表された研究は、その分野における重要な示唆を与えています。

 

TagsAIUnited States

関連ニュース

Contact

AT PARTNERSにご相談ください