Startup Portfolio
AIのHugging Face、サードパーティのクラウド対応で推論の柔軟性を強化
Hugging Faceは、AIモデルをより柔軟にクラウド上で運用できる新機能「Inference Providers」を発表しました。これにより、開発者はSambaNovaをはじめとするサードパーティのクラウドインフラを利用してAIモデルを実行できるようになります。
Hugging Faceはこれまで、独自のクラウドソリューションを提供していましたが、今回の新機能によりFal、Replicate、Together AIといった企業のデータセンターともシームレスに接続可能になりました。開発者はHugging Faceのプラットフォーム上で、SambaNovaのサーバー上でDeepSeekモデルを数クリックで実行できるなど、柔軟な運用が可能になります。Hugging Faceの公式ブログによると、同社は「サーバーレスプロバイダーの成長を受け、推論の柔軟性を向上させることが自然な流れだった」と説明しています。
サーバーレス推論(Serverless Inference)とは、開発者がAIモデルをハードウェア設定なしでデプロイ・スケール可能にする仕組みです。例えば、SambaNovaのようなプロバイダーは、必要に応じてコンピューティングリソースを自動で割り当て、スケールを調整します。これにより、開発者はコスト最適化を図りながら、AIモデルを迅速に運用できるという利点があります。Hugging Faceによると、現時点ではサードパーティクラウドを利用する際の料金は各プロバイダーのAPIレートに準拠しますが、将来的には収益分配の仕組みを導入する可能性も示唆しています。また、Hugging Face Proのサブスクライバーは毎月2ドル分のクレジットを付与される特典も提供されます。
Hugging Faceは2016年にチャットボットのスタートアップとして設立されましたが、現在では世界最大級のAIモデルのホスティング・開発プラットフォームへと進化しました。これまでにSalesforce、Google、Amazon、Nvidiaといった投資家から約4億ドルの資金を調達しており、同社は現在黒字経営を達成していると発表しています。
Hugging Faceについて
Hugging Faceは、AIモデルのホスティングや開発を支援するグローバルプラットフォームで、機械学習コミュニティに向けたツールとインフラを提供しています。今回のInference Providers導入により、開発者はより柔軟にAIモデルを運用できるようになり、AI推論の効率化がさらに加速すると期待されています。
関連ニュース
Together AI に興味がありますか?
最新ニュース
3D AIのBackflip、製造業向け新AIモデルを発表 – 修理・生産プロセスを加速
2025/03/05
HealthTechのMedallion、医療機関向け資格認定・特権付与機能を拡充 – Joint Commission基準に対応
2025/03/05
IoT 接続とプライベート LTE のMonogoto、オープンソースAetherを採用 – 次世代プライベート4G/5Gネットワークを強化
2025/03/05
ベクターデータベースのWeaviate、AI開発向け「Weaviate Agents」を発表 – フルスタックAIプラットフォームを強化
2025/03/05
物理世界におけるデータとAIのパワーをさらに進化させる"Viam"がSeries Cで$30Mを調達
2025/03/04