Startup Portfolio
AI基盤のTogether AI、ファインチューニングを迅速・簡単にする新機能を公開
AIスタートアップのTogether AI(Together Computer Inc.)は、自社のFine-Tuning Platformに大規模なアップデートを実施しました。これにより開発者がオープンソースの大規模言語モデル(LLM)を迅速かつ低コストで継続的にファインチューニングできるようになります。今回のアップデートの大きな特徴は、ブラウザから直接モデルのファインチューニングが可能になったことです。従来はPythonのSDKをインストールしたり、API経由での操作が必要でしたが、今後はコードを書かずにデータセットをアップロードし、パラメータ設定や実験追跡まで一貫してブラウザ内で完結します。これにより専門知識がなくても直感的な操作でAIモデルの継続的な改善が可能になり、開発時間を従来比で約50%短縮できるとしています。
Together AIのファインチューニング製品責任者であるAnirudh Jain氏は、「技術的には従来と変わらないが、ブラウザベースのインターフェースでスクリプト作成が不要になり、操作全体がシンプルで直感的なノーコード体験になります」と説明しています。さらに同プラットフォームには、「直接的選好最適化(Direct Preference Optimization: DPO)」という新たな訓練方法が導入されました。この手法は、人間の評価に基づいて好ましい回答と好ましくない回答をモデルに示し、望ましい応答を学習させる仕組みです。従来の教師ありファインチューニング(Supervised Fine-Tuning: SFT)が「何を言うべきか」をモデルに教えるのに対し、DPOは「何を言うべきでないか」を教えます。これによりユーザーの期待に沿った精度の高いモデルをより迅速かつ安定的に構築できます。
また、以前の訓練済みモデルからファインチューニングを再開できる「継続的訓練機能」も追加されました。これを利用することで段階的なモデル改善や複数の手法を組み合わせた高度な訓練ワークフローを容易に実行できます。そのほか、会話データに含まれる特定のメッセージを無視または重要度を下げて処理できるようになったほか、学習速度を柔軟に制御する新たなスケジューリング機能も導入されています。データ前処理エンジンの改良により、大規模なトレーニングでは最大32%、小規模なものでも17%の性能向上が達成されました。さらに今回、最低利用額なしの従量課金制の料金体系を導入し、小規模チームや個人開発者が気軽にカスタマイズしたLLMを試せるようにしています。現在Llama 3、Gemma、DeepSeek-R1など人気のオープンモデルに対応しており、今後はLlama 4や将来的なDeepSeekの新モデルにも対応する予定です。
Together AIについて
Together AI(Together Computer Inc.)はAIモデルの開発とファインチューニングに特化したパブリッククラウドサービスを運営するスタートアップ企業です。ブラウザベースの直感的な操作や高度な訓練手法を提供することで、企業や開発者が容易にAIを導入し、継続的にモデルを改善していくための環境を提供しています。
Related News
Talk with us
news-latest
営業支援AIのRegie.ai、リアルタイム購買シグナルを活用した次世代アウトバウンド営業機能「Signal Selling」を発表
2025/04/24
軍事用AIのEdgeRunner AI、Second Front Systemsとの提携で戦術現場へのAI導入を加速
2025/04/24
AIワークフォースマネジメントのTeambridge、サンフランシスコ歴史的ビルに本社を開設
2025/04/24
EdTechのKira、K-12向けAI学習プラットフォームを公開—教員支援と個別教育を実現
2025/04/24
サイバーセキュリティのEntro Security、業界初のNHI・シークレット情報セキュリティ分析エンジンを発表
2025/04/24