Apercu
Ollama est une plateforme open source permettant d’executer des grands modeles de langage (LLM) en local. Il est configure comme fournisseur LLM par defaut de Fess et convient a une utilisation en environnement prive.
L’utilisation d’Ollama permet d’utiliser la fonctionnalite du mode de recherche IA sans envoyer de donnees a l’exterieur.
Caracteristiques principales
Execution locale : Les donnees ne sont pas envoyees a l’exterieur, garantissant la confidentialite
Modeles varies : Prise en charge de nombreux modeles dont Llama, Mistral, Gemma, CodeLlama
Efficacite des couts : Pas de cout API (seulement les couts materiels)
Personnalisation : Possibilite d’utiliser des modeles affines
Modeles pris en charge
Principaux modeles disponibles avec Ollama :
llama3.3:70b- Llama 3.3 de Meta (70B parametres)gemma3:4b- Gemma 3 de Google (4B parametres, par defaut)mistral:7b- Mistral de Mistral AI (7B parametres)codellama:13b- Code Llama de Meta (13B parametres)phi3:3.8b- Phi-3 de Microsoft (3.8B parametres)
Note
Pour la derniere liste des modeles disponibles, consultez Ollama Library.
Prerequis
Avant d’utiliser Ollama, verifiez les points suivants.
Installation d’Ollama : Telechargez et installez depuis https://ollama.com/
Telechargement du modele : Telechargez le modele a utiliser dans Ollama
Demarrage du serveur Ollama : Verifiez qu’Ollama fonctionne
Installation d’Ollama
Linux/macOS
Windows
Telechargez et executez l’installateur depuis le site officiel.
Docker
Telechargement du modele
Configuration de base
Ajoutez les parametres suivants dans app/WEB-INF/conf/fess_config.properties.
Configuration minimale
Configuration recommandee (environnement de production)
Elements de configuration
Tous les elements de configuration disponibles pour le client Ollama.
| Propriete | Description | Valeur par defaut |
|---|---|---|
rag.llm.ollama.api.url | URL de base du serveur Ollama | http://localhost:11434 |
rag.llm.ollama.model | Nom du modele a utiliser (modele telecharge dans Ollama) | gemma3:4b |
rag.llm.ollama.timeout | Timeout de la requete (millisecondes) | 60000 |
Configuration reseau
Configuration Docker
Exemple de configuration lorsque Fess et Ollama fonctionnent tous deux dans Docker.
docker-compose.yml :
Note
Dans l’environnement Docker Compose, utilisez ollama comme nom d’hote (pas localhost).
Serveur Ollama distant
Lorsqu’Ollama s’execute sur un serveur different de Fess :
Avertissement
Ollama n’a pas de fonctionnalite d’authentification par defaut, donc si vous le rendez accessible de l’exterieur, envisagez des mesures de securite au niveau reseau (pare-feu, VPN, etc.).
Guide de selection des modeles
Guide pour la selection du modele selon l’usage.
| Modele | Taille | VRAM requise | Usage |
|---|---|---|---|
phi3:3.8b | Petit | 4GB+ | Environnement leger, questions-reponses simples |
gemma3:4b | Petit-Moyen | 6GB+ | Usage general equilibre (par defaut) |
mistral:7b | Moyen | 8GB+ | Reponses de haute qualite requises |
llama3.3:70b | Grand | 48GB+ | Reponses de meilleure qualite, raisonnement complexe |
Prise en charge GPU
Ollama prend en charge l’acceleration GPU. L’utilisation d’un GPU NVIDIA ameliore considerablement la vitesse d’inference.
Depannage
Erreur de connexion
Symptome : Erreur dans la fonctionnalite de chat, LLM affiche comme indisponible
Points a verifier :
Verifier si Ollama fonctionne
Verifier si le modele est telecharge
Verifier les parametres du pare-feu
Modele introuvable
Symptome : Log affichant « Configured model not found in Ollama »
Solution :
Verifier si le nom du modele est exact (peut necessiter le tag
:latest)Telecharger le modele necessaire
Timeout
Symptome : La requete expire
Solution :
Augmenter le temps de timeout
Envisager un modele plus petit ou un environnement GPU
Configuration de debogage
Pour investiguer les problemes, ajustez le niveau de log de Fess pour afficher des logs detailles lies a Ollama.
app/WEB-INF/classes/log4j2.xml :
Informations de reference
Apercu de l’integration LLM - Apercu de l’integration LLM
Configuration du mode de recherche IA - Details de la fonctionnalite de mode de recherche IA