[SLM/Phi-3-medium-128k-instruct-GGUF]動作例

0
(0)

環境:
Lenovo IdeaPad Gaming 3, Ryzen 7 6800H (3.2GHz), RAM 64.0GB, GeForec RTX 3050 Ti (Laptop)
Windows 11 Pro (24H2)
WebUI は LM Studio 0.3.5 (Build 2) を使用。

ベンチマーク:5.01 tok/sec • 262 tokens • 1.22s to first token • Stop: eosFound

Prompt:
あなたのLLM特徴について教えてください。また特定用途の微調整方法を教えてください。

Phi-3-medium-128k:
私は大型言語モデル(LLM)で、多岐に渡るテキスト理解と生成タスクにおいて高度なパフォーマンスを発揮します。特定の用途やドメイン向けのモデルを微調整するために、以下の手順があります:

適宜、ハイパーパラメーターのチューニングと交差検証を行い、モデルの性能を最大化します。

ターゲットドメインのデータセットを集めて前処理します。

事前学習済みLLMモデルにこのデートセットを使用し、微調整を行います。これには通常、教師あり学習が必要です。

以上

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.

Global Information and Communication Technology OTAKU / Sports volunteer / Social Services / Master of Technology in Innovation for Design and Engineering, AIIT / BA, Social Welfare, NFU / twitter@yukio_saitoh