Technical Blog テクニカルブログ
  1. HOME
  2. テクニカルブログ
  3. 【watsonx.ai】GUIを用いたLoRAチューニングで特定領域の回答精度を向上させる

【watsonx.ai】GUIを用いたLoRAチューニングで特定領域の回答精度を向上させる

投稿者:和田

こんにちは。
D&A事業本部の和田です。
これは、 Team xG Advent Calendar 2025 24日目の記事です。

大規模言語モデル(LLM)やAI Agentが普及する中で、「汎用的な巨大モデル」だけでなく、「特定のタスクや領域に特化した小さなLLM」が注目を集めております。
しかし、フルパラメーターチューニングには莫大なGPUリソースと大量の学習データが必要です。そこで近年注目を浴びているのが、LoRA(Low-Rank Adaptation)という手法です。

今回は、watsonx.aiのSaaS環境にて、GUIを用いたLoRAチューニングが可能になったということなので、LoRAチューニングを試してみたいと思います。

■LoRAとは

LoRAは、モデルの重みをすべて更新する代わりに、「低ランク行列(Adapter)」と呼ばれる小さな差分データのみを追加で学習する仕組みです。

LoRAでは、元のモデルパラメータは固定し、adapterのみを学習します。
例えるなら、「AIという本体はそのままに、特定の知識が入った『アタッチメント』を装着する」ようなイメージです。これにより、学習コストを大幅に抑えつつ、領域特化の能力を身につけさせることができます。

以下にAIチューニングの代表的な例を示します。

代表的な手法特徴
Full Fine-Tuning全パラメータ更新。性能は高いが、計算・保存コストが膨大。
Prompt Tuning特殊なプロンプトベクトルを追加。非常に軽量だが、表現力は限定的。
LoRAモデルの代表的なサブセットの重みだけを更新。軽量でかつ表現力も豊か。

LoRAは、以下のような「専門性が求められる場面」で特に有効です。
リソース制限のある環境: 少ないGPUリソースでの学習
業界特化モデルの作成: 銀行、医療、法務などの専門用語への対応

watsonx.aiでLoRAを試してみた!!

それでは、実際にwatsonx.aiを使ってチューニングを進めていきます。

ステップ0:学習用のデータセットを準備

学習用のデータセット(例. 製造業に関するQA)をJSONで準備します。

例:{"input" : "PPAPとは?", "output" : "生産部品承認プロセスで量産開始前の適合を確認する"}

ステップ1:ファインチューニング準備

1. watsonx.aiの「新規作成」から「ラベル付きデータを使用した基盤モデルの調整」をクリックします。
2. チューニングしたいモデル(例. granite-3-1-8b-base)を選びます。

3. チューニング手法の選択
・LoRAを選択
・タスク種別を選択
・ランク(r)、LoRA alpha、dropoutなどのパラメータをGUIで指定
各パラメータの内容については、ドキュメントを参照してください。

4. 保存先と学習データセットを登録し、実行します。

ステップ2:ファインチューニング実行!!!

watsonx.ai上でトレーニングジョブが起動し、進行状況・結果が表示されます。

ステップ3:チューニング済みモデルのテスト

「製造業の新人」が、専門用語である “PPAP” について質問したという設定で、チューニング前後の回答を比較してみます。

入力クエリ: 「PPAPとは何?」

チューニング前(汎用モデル)の回答

チューニング後(LoRA適用)の回答

まだまだパラメータ調整等必要ですが、見事にチューニング後モデルのほうが良い出力をしてくれました。

まとめ

・LoRAは大規模モデルを軽量にカスタマイズできる有力な手法
・watsonx.aiのGUIを使えば、コード不要で誰でも簡単に利用可能

LLMは、大量のデータが学習に使用されているからこそ利便性がある一方で、特定の領域に特化させるためには大きなコストが必要でしたが、今回のようにLoRAを、そしてチューニングするプラットフォームwatsonx.aiを用いることで、簡単に領域特化のLLMを作成することができました。

最後まで読んでいただき、ありがとうございました。

ページのトップへ