Startup Portfolio
大規模言語モデルのMistral、小型モデル「Mistral Small 3.1」でテキストとマルチモーダル能力を向上
パリに拠点を置くAI企業Mistralは、同社の小型言語モデル「Mistral Small 3」の後継バージョンとして、「Mistral Small 3.1」をリリースしました。今回のモデルは、チャット用と命令(Instruct)用の2種類がオープンソースで公開され、テキスト生成のパフォーマンスやマルチモーダル理解能力が強化されています。同社によれば、GoogleのGemma 3やOpenAIのGPT-4o miniなど、類似モデルと比べていくつかのベンチマークで高いスコアを記録しており、応答スピードが速い点も特徴となっています。
新モデルは最大128,000トークンのコンテキストウィンドウをサポートし、推論速度は1秒あたり150トークンに達するとされます。チャット版は通常のチャットボットのように機能し、Instruct版は特定のタスクに合わせてユーザーの指示を正確に処理するよう微調整(ファインチューニング)されています。いずれも前バージョンと同様にオープンソースで公開されており、Hugging Faceのリポジトリからダウンロードが可能です。ただし、Apache 2.0ライセンスで提供されるため、学術・研究目的の利用は許可されている一方、商用利用は認められていない点に注意が必要です。
同社は、「Mistral Small 3.1」がNvidiaのRTX 4090 GPUや32GB RAMのMacなど、比較的入手しやすいハードウェア環境で動作するよう最適化されていると説明しています。これにより、AIモデルを扱うための高額な設備がなくても利用できる点がアピールされています。また、低レイテンシでの関数呼び出しやエージェントフローを構築しやすい仕様も備えており、特定のドメインで追加学習(ファインチューニング)することも容易とされています。
Mistralによる内部評価では、文書理解(DocVQA)やプログラミングテスト(HumanEval、MathVista)、高難度のQ&Aを想定したGraduate-Level Google-Proof Q&A (GPQA)などのベンチマークで、Gemma 3やGPT-4o miniを上回る結果が得られたと報告されています。ただし、MMLUベンチマークではGPT-4o miniの方が優れたスコアを示し、数学領域を対象とするMATHテストではGemma 3が勝る結果でした。
「Mistral Small 3.1」は、Hugging Face上のオープンウェイトでダウンロードできるほか、Mistral AIの開発者向けプレイグラウンド「La Plateforme」やGoogle CloudのVertex AI経由でAPIアクセスが可能です。今後数週間以内に、NvidiaのNIMやMicrosoftのAzure AI Foundry上でも利用できるようになる見通しです。
Mistralについて
Mistralは、自然言語処理やマルチモーダル理解などの分野で革新的なAIモデルを開発・提供するスタートアップです。最新の小型言語モデル「Mistral Small 3.1」は大容量のコンテキストウィンドウや高速推論に対応しており、オープンソースかつ学術研究目的での利用を可能にする方針を掲げています。クラウドプラットフォームやローカル環境への導入を通じ、幅広い開発者コミュニティからの活用が見込まれる注目のAIモデルです。
関連ニュース
Mistral AI に興味がありますか?
最新ニュース
受精機会を拡大するため体外受精(IVF)を再現可能で効率的にする"Overture Life"が$20.6Mを調達
2025/04/25
対話型AIのPerplexity、iPhone向け音声アシスタントをリリース
2025/04/25
メンタルヘルスのModern Health、最高人事・戦略責任者としてAlison Borland氏を任命
2025/04/25
DevOpsとデータサイエンスを統合するDatadog、Metaplaneの買収でデータ可観測性機能を追加へ
2025/04/25
クラウドセキュリティのIONIX、CNAPPアラート解析の80%を自動化し、40%を非クリティカルに再分類する新技術を発表
2025/04/25