[SLM/TokyoTech-LLM-Swallow-13b-instruct-v0.1-gguf] 動作例

0
(0)

環境:
Lenovo IdeaPad Gaming 3, Ryzen 7 6800H (3.2GHz), RAM 64.0GB, GeForec RTX 3050 Ti (Laptop)
Windows 11 Pro (24H2)
WebUI は LM Studio 0.3.5 (Build 2) を使用。

ベンチマーク:
5.31 tok/sec • 577 tokens • 1.33s to first token • Stop: eosFound

Prompt:
あなたのLLM特徴について教えてください。また特定用途の微調整方法を教えてください。

TokyoTech-LLM-Swallow-13B:
私たちのLLM(Language Learning Model)は、NLP(自然言語処理)タスクに堪能なTransformerベースモデルです。私たちのLLMは、広範なテキストデータセットで事前学習されています。

LLMは、主に以下のようなタスクを実行できます:

  1. 翻訳: LLMは英語から日本語やその逆方向に翻訳することができます。
  2. 文章生成: LLMは与えられた入力に基づいて新しい文脈を作成することができます。
  3. 質問回答: LLMはユーザーからの質問に答えるために、適切な情報を検索します。
  4. 文脈の理解: LLMは与えられた文脈から意図や感情を判断することができます。
  5. 文章要約: LLMは長い文章を短い文脈に要約することができます。
  6. 文法チェック: LLMは文章中で不適切な文法を検出し修正することができます。
  7. 語彙増強: LLMは与えられた単語の意味や使い方を学習し、新しい単語と関連付けることができます。

特定の用途に微調整する方法は、次のとおりです:

アーキテクチャの変更: LLMの基本的な構成はTransformerですが、特定のタスク用に適したアーキテクチャを選ぶことで、精度を上げることができます。例えば、医療分野で使用するLLMでは、Attention Mechanismを適切に調整し、重要な単語に対してより多くの注意を向けることをお勧めします。

トレーニングデータセットの調整: あるタスクに特化したモデルを作成するためには、適切なトレーニングデータセットを用意する必要があります。例えば、医療分野で使用するLLMを作成する場合、医学用語に堪能なデータセットを使用することをお勧めします。

パラメータの調整: LLMの学習率やバッチサイズなどのハイパーパラメーターを調整することで、モデルの性能を向上させることができます。特に、特定のタスク用のモデルを作成する場合は、適切なハイパーパラメーターを選ぶことが重要です。

ファインチューニング: 事前学習済みのLLMに対し、特定のタスク用のデータセットでファインチューニングを行うことで、精度を上げることができます。ファインチューニング後、モデルを評価し、必要に応じてパラメータを調整することも重要です。

以上

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.

Global Information and Communication Technology OTAKU / Sports volunteer / Social Services / Master of Technology in Innovation for Design and Engineering, AIIT / BA, Social Welfare, NFU / twitter@yukio_saitoh