Übersicht
Ollama ist eine Open-Source-Plattform zur Ausführung großer Sprachmodelle (LLM) in lokalen Umgebungen. Es ist als Standard-LLM-Anbieter in Fess konfiguriert und eignet sich für den Einsatz in privaten Umgebungen.
Durch die Verwendung von Ollama können Sie die KI-Suchmodus-Funktion nutzen, ohne Daten extern zu senden.
Hauptmerkmale
Lokale Ausführung: Daten werden nicht extern gesendet, Datenschutz ist gewährleistet
Vielfältige Modelle: Unterstützt viele Modelle wie Llama, Mistral, Gemma, CodeLlama
Kosteneffizienz: Keine API-Kosten (nur Hardware-Kosten)
Anpassbar: Auch selbst feinabgestimmte Modelle können verwendet werden
Unterstützte Modelle
Hauptsächlich verfügbare Modelle bei Ollama:
llama3.3:70b- Llama 3.3 von Meta (70B Parameter)gemma3:4b- Gemma 3 von Google (4B Parameter, Standard)mistral:7b- Mistral von Mistral AI (7B Parameter)codellama:13b- Code Llama von Meta (13B Parameter)phi3:3.8b- Phi-3 von Microsoft (3.8B Parameter)
Bemerkung
Die aktuelle Liste verfügbarer Modelle finden Sie unter Ollama Library.
Voraussetzungen
Bevor Sie Ollama verwenden, überprüfen Sie Folgendes.
Ollama-Installation: Laden Sie von https://ollama.com/ herunter und installieren Sie es
Modell-Download: Laden Sie das zu verwendende Modell in Ollama herunter
Ollama-Server starten: Stellen Sie sicher, dass Ollama läuft
Ollama-Installation
Linux/macOS
Windows
Laden Sie den Installer von der offiziellen Website herunter und führen Sie ihn aus.
Docker
Modell-Download
Grundeinstellungen
Fügen Sie die folgenden Einstellungen zu app/WEB-INF/conf/fess_config.properties hinzu.
Minimalkonfiguration
Empfohlene Konfiguration (Produktionsumgebung)
Einstellungselemente
Alle verfügbaren Einstellungselemente für den Ollama-Client.
| Eigenschaft | Beschreibung | Standard |
|---|---|---|
rag.llm.ollama.api.url | Basis-URL des Ollama-Servers | http://localhost:11434 |
rag.llm.ollama.model | Zu verwendendes Modell (muss in Ollama heruntergeladen sein) | gemma3:4b |
rag.llm.ollama.timeout | Anfrage-Timeout (Millisekunden) | 60000 |
Netzwerkkonfiguration
Docker-Konfiguration
Beispielkonfiguration, wenn sowohl Fess als auch Ollama in Docker laufen.
docker-compose.yml:
Bemerkung
In Docker Compose-Umgebungen verwenden Sie ollama als Hostnamen (nicht localhost).
Remote Ollama-Server
Wenn Ollama auf einem separaten Server als Fess läuft:
Warnung
Ollama hat standardmäßig keine Authentifizierungsfunktion. Bei externem Zugriff sollten Sie Sicherheitsmaßnahmen auf Netzwerkebene (Firewall, VPN usw.) in Betracht ziehen.
Modellauswahl-Leitfaden
Richtlinien zur Modellauswahl je nach Verwendungszweck.
| Modell | Größe | Erforderlicher VRAM | Anwendungsfall |
|---|---|---|---|
phi3:3.8b | Klein | 4GB+ | Leichte Umgebung, einfache Frage-Antwort |
gemma3:4b | Klein-Mittel | 6GB+ | Ausgewogener Allzweck (Standard) |
mistral:7b | Mittel | 8GB+ | Wenn hochwertige Antworten erforderlich sind |
llama3.3:70b | Groß | 48GB+ | Höchste Qualität, komplexe Schlussfolgerungen |
GPU-Unterstützung
Ollama unterstützt GPU-Beschleunigung. Mit NVIDIA-GPUs wird die Inferenzgeschwindigkeit erheblich verbessert.
Fehlerbehebung
Verbindungsfehler
Symptom: Fehler in der Chat-Funktion, LLM als nicht verfügbar angezeigt
Zu überprüfen:
Überprüfen Sie, ob Ollama läuft:
Überprüfen Sie, ob das Modell heruntergeladen ist:
Überprüfen Sie die Firewall-Einstellungen
Modell nicht gefunden
Symptom: Log zeigt „Configured model not found in Ollama“
Lösung:
Überprüfen Sie, ob der Modellname korrekt ist (kann
:latest-Tag enthalten):Laden Sie das benötigte Modell herunter:
Timeout
Symptom: Anfragen laufen in Timeout
Lösung:
Verlängern Sie die Timeout-Zeit:
Erwägen Sie ein kleineres Modell oder eine GPU-Umgebung
Debug-Einstellungen
Zur Untersuchung von Problemen können Sie den Log-Level anpassen, um detaillierte Logs zu Ollama auszugeben.
app/WEB-INF/classes/log4j2.xml:
Weiterführende Informationen
Übersicht LLM-Integration - Übersicht LLM-Integration
AI-Suchmodus-Funktion konfigurieren - Details zur AI-Suchmodus-Funktion