1. Home
  2. News
  3. 大規模言語モデルのMistral、小型モデル「Mistral Small 3.1」でテキストとマルチモーダル能力を向上
2025/03/19

Startup Portfolio

大規模言語モデルのMistral、小型モデル「Mistral Small 3.1」でテキストとマルチモーダル能力を向上

パリに拠点を置くAI企業Mistralは、同社の小型言語モデル「Mistral Small 3」の後継バージョンとして、「Mistral Small 3.1」をリリースしました。今回のモデルは、チャット用と命令(Instruct)用の2種類がオープンソースで公開され、テキスト生成のパフォーマンスやマルチモーダル理解能力が強化されています。同社によれば、GoogleのGemma 3やOpenAIのGPT-4o miniなど、類似モデルと比べていくつかのベンチマークで高いスコアを記録しており、応答スピードが速い点も特徴となっています。

 

新モデルは最大128,000トークンのコンテキストウィンドウをサポートし、推論速度は1秒あたり150トークンに達するとされます。チャット版は通常のチャットボットのように機能し、Instruct版は特定のタスクに合わせてユーザーの指示を正確に処理するよう微調整(ファインチューニング)されています。いずれも前バージョンと同様にオープンソースで公開されており、Hugging Faceのリポジトリからダウンロードが可能です。ただし、Apache 2.0ライセンスで提供されるため、学術・研究目的の利用は許可されている一方、商用利用は認められていない点に注意が必要です。

同社は、「Mistral Small 3.1」がNvidiaのRTX 4090 GPUや32GB RAMのMacなど、比較的入手しやすいハードウェア環境で動作するよう最適化されていると説明しています。これにより、AIモデルを扱うための高額な設備がなくても利用できる点がアピールされています。また、低レイテンシでの関数呼び出しやエージェントフローを構築しやすい仕様も備えており、特定のドメインで追加学習(ファインチューニング)することも容易とされています。

Mistralによる内部評価では、文書理解(DocVQA)やプログラミングテスト(HumanEval、MathVista)、高難度のQ&Aを想定したGraduate-Level Google-Proof Q&A (GPQA)などのベンチマークで、Gemma 3やGPT-4o miniを上回る結果が得られたと報告されています。ただし、MMLUベンチマークではGPT-4o miniの方が優れたスコアを示し、数学領域を対象とするMATHテストではGemma 3が勝る結果でした。

「Mistral Small 3.1」は、Hugging Face上のオープンウェイトでダウンロードできるほか、Mistral AIの開発者向けプレイグラウンド「La Plateforme」やGoogle CloudのVertex AI経由でAPIアクセスが可能です。今後数週間以内に、NvidiaのNIMやMicrosoftのAzure AI Foundry上でも利用できるようになる見通しです。

 

Mistralについて
Mistralは、自然言語処理やマルチモーダル理解などの分野で革新的なAIモデルを開発・提供するスタートアップです。最新の小型言語モデル「Mistral Small 3.1」は大容量のコンテキストウィンドウや高速推論に対応しており、オープンソースかつ学術研究目的での利用を可能にする方針を掲げています。クラウドプラットフォームやローカル環境への導入を通じ、幅広い開発者コミュニティからの活用が見込まれる注目のAIモデルです。

 

TagsAI

関連ニュース

Contact

AT PARTNERSにご相談ください