FLUXが、新手法による日本語能力強化を行い、最高水準の日本語性能を実現した大規模言語モデル(LLM)である「FLUX Japanese LLM」を公開しました。

このモデルは、オープン日本語LLMリーダーボードのベンチマークにおいて、現行の第1位を上回るスコアを獲得しており(2025年9月24日現在)、その性能の高さが実証されています。
新手法は、様々なOSSモデルの日本語能力を強化することが理論上可能で、今回の「FLUX Japanese LLM」はQwenベースで、今後もFLUXでは複数のOSSモデルを利用した研究開発を進めていくようです。
また同時に、本モデルの応用展開の第一弾として、金融業界に特化したモデルも作成し、専門領域での高度なLLM活用を可能にしていくのだとか。
日本語能力強化の新手法
従来の日本語LLMは、既存のオープンウェイトモデルをベースとして、日本語データセットで日本語能力をFine-tuningで強化することが一般的だったのですが、この手法はLLMの全てのパラメーターに対してデータセットを適用するため、強化したい分野以外の能力が低下するケースが見られ、特にマルチモーダル性能や推論能力の低下が顕著で、ハルシネーションも悪化することから、ビジネス利用には懸念があるほか、ベースモデルの性能向上に対して、日本語能力の性能向上が伴わないケースも見られました。
今回、FLUXでは日本語の知識や日本語/英語間の回路をピンポイントで特定することで、データセットを必要な箇所のみに流し込む、Precise-tuningのアプローチを実施し、これにより強化したい分野のみで日本語能力を強化する手法を発見、マルチモーダル性能や推論能力はベースモデルの性能を維持することに成功。
Precise-tuningにより、日本語で知識を強化したい部分のみに日本語データセットを流し込めるため、日本語能力全体を強化するだけではなく、業界特化型LLMとの親和性が高い手法であると考えています。