1. Home
  2. News
  3. AIのHugging Face、サードパーティのクラウド対応で推論の柔軟性を強化
2025/01/31

Startup Portfolio

AIのHugging Face、サードパーティのクラウド対応で推論の柔軟性を強化

Hugging Faceは、AIモデルをより柔軟にクラウド上で運用できる新機能「Inference Providers」を発表しました。これにより、開発者はSambaNovaをはじめとするサードパーティのクラウドインフラを利用してAIモデルを実行できるようになります。

 

Hugging Faceはこれまで、独自のクラウドソリューションを提供していましたが、今回の新機能によりFal、Replicate、Together AIといった企業のデータセンターともシームレスに接続可能になりました。開発者はHugging Faceのプラットフォーム上で、SambaNovaのサーバー上でDeepSeekモデルを数クリックで実行できるなど、柔軟な運用が可能になります。Hugging Faceの公式ブログによると、同社は「サーバーレスプロバイダーの成長を受け、推論の柔軟性を向上させることが自然な流れだった」と説明しています。

 

サーバーレス推論(Serverless Inference)とは、開発者がAIモデルをハードウェア設定なしでデプロイ・スケール可能にする仕組みです。例えば、SambaNovaのようなプロバイダーは、必要に応じてコンピューティングリソースを自動で割り当て、スケールを調整します。これにより、開発者はコスト最適化を図りながら、AIモデルを迅速に運用できるという利点があります。Hugging Faceによると、現時点ではサードパーティクラウドを利用する際の料金は各プロバイダーのAPIレートに準拠しますが、将来的には収益分配の仕組みを導入する可能性も示唆しています。また、Hugging Face Proのサブスクライバーは毎月2ドル分のクレジットを付与される特典も提供されます。

 

Hugging Faceは2016年にチャットボットのスタートアップとして設立されましたが、現在では世界最大級のAIモデルのホスティング・開発プラットフォームへと進化しました。これまでにSalesforce、Google、Amazon、Nvidiaといった投資家から約4億ドルの資金を調達しており、同社は現在黒字経営を達成していると発表しています。

 

Hugging Faceについて
Hugging Faceは、AIモデルのホスティングや開発を支援するグローバルプラットフォームで、機械学習コミュニティに向けたツールとインフラを提供しています。今回のInference Providers導入により、開発者はより柔軟にAIモデルを運用できるようになり、AI推論の効率化がさらに加速すると期待されています。

 

TagsAIUnited States

関連ニュース

Contact

AT PARTNERSにご相談ください