1. Home
  2. News
  3. AIデータ分析のDatabricks、LLMのファインチューニングを高速・低コスト化する新手法「TAO」を開発
2025/03/28

Startup Portfolio

AIデータ分析のDatabricks、LLMのファインチューニングを高速・低コスト化する新手法「TAO」を開発

AIとデータ分析分野をリードするDatabricksは、大規模言語モデル(LLM)の性能向上を迅速かつ低コストで実現できる新たなファインチューニング手法「Test-time Adaptive Optimization(TAO)」を発表しました。TAOは、従来必要だった人間によるデータのラベル付けを省略し、未ラベルデータを使った自己学習プロセスを採用することで、大幅なコスト削減と時間短縮を実現します。Databricksはこの新手法を、Metaが提供するLlama言語モデルに適用し、その有効性を検証しました。具体的にはFinanceBench、DB Enterprise Arena、BIRD-SQLという3つのエンタープライズ向けベンチマークを実施したところ、従来型のラベル付けを行ったファインチューニング手法やOpenAIのGPT-4oやo3-miniを上回る性能を示しました。

 

TAOの仕組みは、従来のラベル付きデータによる学習の代わりに、推論時の計算(Test-time compute)と強化学習を利用して、モデルがタスクに対して複数の可能な回答を探索し、その結果を自動評価して学習を進めるものです。この高度に自動化されたプロセスにより、人間が手動でデータをラベル付けする必要がなくなり、効率が格段に向上します。

具体的な性能改善例として、FinanceBenchベンチマークではSEC(米国証券取引委員会)関連文書に関する7200件の質問に対して、TAOでファインチューニングされたLlama 3.3 70Bモデルは85.1というスコアを記録し、ラベル付きデータによるファインチューニングの81.1やOpenAIのo3-miniの82.2を超える結果となりました。また、BIRD-SQLベンチマークでも同様に、TAOを適用したモデルはラベル付きモデルを上回るスコアを記録し、OpenAIのGPT-4oに匹敵する性能を示しました。

 

Databricksは、TAOが今後さらに継続的な性能向上を可能にするとしています。モデルを使用すればするほど新たな学習データが生成され、それを次回以降のファインチューニングに活用できるため、継続的かつ段階的にモデル性能を引き上げることが期待できます。現在、一部のDatabricks顧客に対し、TAOを用いたLlamaモデルのプライベートプレビューが提供されており、希望者は専用の申請フォームから参加が可能です。

 

Databricksについて
DatabricksはAIおよびデータ分析の分野でグローバルに展開する企業であり、企業がデータを効果的に活用するためのクラウドベースのプラットフォームを提供しています。機械学習やAIモデルの開発・運用を効率化する技術を持ち、さまざまな業界で活用されています。

 

TagsBig DataAIUnited States

関連ニュース

Contact

AT PARTNERSにご相談ください