LGTM

直感的に操作できる学習環境
LGTM Easy Trainer

LGTM Easy Trainer」では、所定の形式のCSVファイルを読み込ませて、画面の指示に従っていくだけで、あなただけの特化言語モデルを作成できます。

直感的な操作

簡単なデータセット

圧倒的な学習スピード

LGTM 技術者向け説明

小規模で
高い日本語性能

少ない計算資源で高い効率と性能を追求した日本語の理解と生成に特化させたモデル

LGTMでは、30億パラメータおよび70億パラメータのモデルを提供予定


コンテキスト数
無限処理

多数の言語モデルが採用しているトランスフォーマーアーキテクチャとは異なり、LGTMはRNNを使用

時系列データを扱うのに優れており、自然言語の流れをより連続的に捉えることが可能

RNN型
アーキテクチャ

RNNの特性として、入力の長さに依存しないため、非常に長い文脈も理論上処理可能

長い文書や会話の理解に有利であり、コンテキストが非常に重要な翻訳や要約タスクにおいて強みを発揮

高速な推論

RNNアーキテクチャのメリットとして、RNNは過去の情報を隠れ状態として保持

Transformer系と比べ再計算頻度を低減し、少ないGPUもしくは、CPUでの高速な推論が可能

日本語性能検証結果

LGTM 3bの日本語性能(RAKUDAベンチマーク)

検証日:2024年3月19日時点

Transformer系と
遜色がないレベルに到達

製品化までの流れ

ファインチューニング
1
少量のターゲットデータで高度に最適化されたモデル調整
2
ユーザー固有の用途や業界に特化
3
短時間でのデプロイメントが現実に
RAG
1
関連情報の検索と内容生成が一体で行われる
2
データベースからの情報取得と自然で正確な文の生成
製品例 : チャットボット
1
自然な日本語で流暢に対話し、ユーザーからの質問に対して適切な回答
2
幅広いトピックに対応した満足度の高い対話体験

技術資料(LGTM for Business)

システム稼働要件(推奨)

OS: Ubuntu 22.04 LTS
CPU: x86-64互換CPU
RAM: 128GB以上
GPU: 90TFlops(BF16), VRAM 24GB以上
   CUDA 12.3以上 もしくは ROCm 6.0以上
   が動作するもの

推論結果(テキスト生成)の利用方法

LGTM for Businessを導入したサーバから発行されるAPIエンドポイントとAPIキーをクライアント側で設定してください。
(詳細はオンラインダッシュボードからご確認ください。)

配布形態

実行環境はDockerイメージで配布
(導入後は自動更新されます)
※ インターネットに接続できない環境への導入につきましてはお問い合わせください。

学習方法

オンラインダッシュボードの「LGTM Easy Trainer」から学習(ファインチューニング)が可能です。

サーバ要件

・SSHでアクセスできる状態であること
・Webサーバーが動作し、クライアントとの送受信ができる環境であること

技術資料(LGTMのモデル構造・特徴)

モデル構造

LGTMはRNN(回帰型ニューラルネットワーク)を使用したLLM(大規模言語モデル)です。

基本モデルアーキテクチャとして、RWKVという言語モデルを採用し、それを元に自社開発の学習手法とデータセットを用いてチューニングを行っています。

モデルの特徴

・実行およびトレーニング時の計算が少なく、大きなコンテキストサイズを持つTransformer系モデルと比べて、計算能力の要求が10分の1以下。

・計算負荷が任意のコンテキスト長に線形でスケールする。(Transformerは二乗にスケールする)

・ベースモデルが多言語でトレーニングされており、日本語だけでなく英語、中国語にも対応可。

図. モデル構造
Eagle and Finch: RWKV with Matrix-Valued States and Dynamic Recurrence(https://arxiv.org/abs/2404.05892)

技術資料(学習手法)

学習手法(Fine-Tuning)

「LGTM Easy Trainer」では State-Tuning という手法と RLHF(人間からのフィードバックによる強化学習)を組み合わせたものを採用しています。

その他の手法を使用してLGTMをファインチューニングする方法につきましてはお問い合わせください。

RLHF

RLHFとは、機械学習モデル学習時に人間の価値基準を元に、趣向に沿う回答が出るように調整する強化学習の手法です。

本製品では弊社独自実装の学習手法によりこれを実現しています。

State-Tuning

State-Tuningとは、入力データセットに対して適切なpromptベクトルをバックプロパゲーションし、その時点のモデルのニューロン発火状態をニューラルネットワーク内の各層に埋め込む手法です。

ロードマップ

料金プラン

Ask to us