コンテンツにスキップ

ローカルLLMを使う

ローカルLLMの使用は、上級者向けの上、非常に高価なPCが必要です。

本アプリケーションを利用する際に必要な設定を端的に説明します。

BaseURL (Endpoint)

LM Studio: http://127.0.0.1:1234/v1
Ollama: http://127.0.0.1:11434/v1

ポート番号は適切に設定・変更してください。

APIキー

LM Studio、OllamaはAPIキーを必要としませんが、本アプリケーションはAPIキーの入力を必須としています。
(未入力の場合は、ようこそ画面に遷移してしまいます)

そのため、適当な文字列を入力してください。1文字でも構いません。

モデル

gpt-oss-20b、qwen3などで動作を確認しています。

本アプリケーションの性質上、コンテキストサイズが広く必要です。(推奨128k以上)
また、Chat Templateが使用できるモデルを選択してください。(事前学習モデルではなく、インストラクションチューニング済みモデル)
XML形式のプロンプトを理解できるモデルである必要があります。

設定の調整

快適に使用するには、応用的な設定から、以下の設定を調整してください。

  • 最大トークン長(Max Tokens)
  • 通信タイムアウト

補足

LM Studio、Ollamaは、インストール直後の状態では、外部からの接続を受け付けない設定になっています。
同一PC内からの接続は可能ですが、必要に応じて各ソフトウェア側の設定を変更してください。