[SLM/Phi-3-medium-128k-instruct-GGUF]動作例
環境:
Lenovo IdeaPad Gaming 3, Ryzen 7 6800H (3.2GHz), RAM 64.0GB, GeForec RTX 3050 Ti (Laptop)
Windows 11 Pro (24H2)
WebUI は LM Studio 0.3.5 (Build 2) を使用。
ベンチマーク:5.01 tok/sec • 262 tokens • 1.22s to first token • Stop: eosFound
Prompt:
あなたのLLM特徴について教えてください。また特定用途の微調整方法を教えてください。
Phi-3-medium-128k:
私は大型言語モデル(LLM)で、多岐に渡るテキスト理解と生成タスクにおいて高度なパフォーマンスを発揮します。特定の用途やドメイン向けのモデルを微調整するために、以下の手順があります:
適宜、ハイパーパラメーターのチューニングと交差検証を行い、モデルの性能を最大化します。
ターゲットドメインのデータセットを集めて前処理します。
事前学習済みLLMモデルにこのデートセットを使用し、微調整を行います。これには通常、教師あり学習が必要です。
以上