概要
Ollamaは、ローカル環境で大規模言語モデル(LLM)を実行するためのオープンソースプラットフォームです。 Fess のデフォルトLLMプロバイダーとして設定されており、プライベート環境での利用に適しています。
Ollamaを使用することで、データを外部に送信せずにAI検索モード機能を利用できます。
主な特徴
ローカル実行: データは外部に送信されず、プライバシーを確保
多様なモデル: Llama、Mistral、Gemma、CodeLlamaなど多数のモデルに対応
コスト効率: APIコストがかからない(ハードウェアコストのみ)
カスタマイズ: 独自にファインチューニングしたモデルも利用可能
対応モデル
Ollamaで利用可能な主なモデル:
llama3.3:70b- Meta社のLlama 3.3(70Bパラメーター)gemma3:4b- Google社のGemma 3(4Bパラメーター、デフォルト)mistral:7b- Mistral AI社のMistral(7Bパラメーター)codellama:13b- Meta社のCode Llama(13Bパラメーター)phi3:3.8b- Microsoft社のPhi-3(3.8Bパラメーター)
注釈
利用可能なモデルの最新リストは Ollama Library で確認できます。
前提条件
Ollamaを使用する前に、以下を確認してください。
Ollamaのインストール: https://ollama.com/ からダウンロードしてインストール
モデルのダウンロード: 使用するモデルをOllamaにダウンロード
Ollamaサーバーの起動: Ollamaが動作していることを確認
Ollamaのインストール
Linux/macOS
Windows
公式サイトからインストーラーをダウンロードして実行します。
Docker
モデルのダウンロード
基本設定
app/WEB-INF/conf/fess_config.properties に以下の設定を追加します。
最小構成
推奨構成(本番環境)
設定項目
Ollamaクライアントで使用可能なすべての設定項目です。
| プロパティ | 説明 | デフォルト |
|---|---|---|
rag.llm.ollama.api.url | OllamaサーバーのベースURL | http://localhost:11434 |
rag.llm.ollama.model | 使用するモデル名(Ollamaにダウンロード済みのモデル) | gemma3:4b |
rag.llm.ollama.timeout | リクエストのタイムアウト時間(ミリ秒) | 60000 |
ネットワーク構成
Dockerでの構成
Fess とOllamaの両方をDockerで実行する場合の構成例です。
docker-compose.yml:
注釈
Docker Compose環境では、ホスト名として ollama を使用します(localhost ではなく)。
リモートOllamaサーバー
OllamaをFessとは別のサーバーで実行する場合:
警告
Ollamaはデフォルトで認証機能を持たないため、外部からアクセス可能にする場合は ネットワークレベルでのセキュリティ対策(ファイアウォール、VPN等)を検討してください。
モデルの選択ガイド
使用目的に応じたモデル選択の指針です。
| モデル | サイズ | 必要VRAM | 用途 |
|---|---|---|---|
phi3:3.8b | 小 | 4GB以上 | 軽量環境、シンプルな質問応答 |
gemma3:4b | 小〜中 | 6GB以上 | バランスの良い汎用用途(デフォルト) |
mistral:7b | 中 | 8GB以上 | 高品質な回答が必要な場合 |
llama3.3:70b | 大 | 48GB以上 | 最高品質の回答、複雑な推論 |
GPU対応
OllamaはGPUアクセラレーションをサポートしています。NVIDIAのGPUを使用することで、 推論速度が大幅に向上します。
トラブルシューティング
接続エラー
症状: チャット機能でエラーが発生する、LLMが利用不可と表示される
確認事項:
Ollamaが動作しているか確認:
モデルがダウンロードされているか確認:
ファイアウォールの設定を確認
モデルが見つからない
症状: 「Configured model not found in Ollama」というログが出力される
解決方法:
モデル名が正確か確認(
:latestタグを含める場合がある):必要なモデルをダウンロード:
タイムアウト
症状: リクエストがタイムアウトする
解決方法:
タイムアウト時間を延長:
より小さなモデルを使用するか、GPU環境を検討
デバッグ設定
問題を調査する際は、Fess のログレベルを調整してOllama関連の詳細なログを出力できます。
app/WEB-INF/classes/log4j2.xml:
参考情報
LLM統合の概要 - LLM統合の概要
AI検索モード機能の設定 - AI検索モード機能の詳細