Descripcion general
Ollama es una plataforma de codigo abierto para ejecutar modelos de lenguaje grandes (LLM) en entorno local. Esta configurado como el proveedor LLM predeterminado de Fess y es adecuado para uso en entornos privados.
Al usar Ollama, puede utilizar la funcionalidad del modo de busqueda IA sin enviar datos al exterior.
Caracteristicas principales
Ejecucion local: Los datos no se envian externamente, asegurando privacidad
Modelos diversos: Compatible con muchos modelos como Llama, Mistral, Gemma, CodeLlama
Eficiencia de costos: Sin costos de API (solo costos de hardware)
Personalizacion: Tambien puede usar modelos afinados personalizados
Modelos compatibles
Principales modelos disponibles en Ollama:
llama3.3:70b- Llama 3.3 de Meta (70B parametros)gemma3:4b- Gemma 3 de Google (4B parametros, predeterminado)mistral:7b- Mistral de Mistral AI (7B parametros)codellama:13b- Code Llama de Meta (13B parametros)phi3:3.8b- Phi-3 de Microsoft (3.8B parametros)
Nota
Para la lista mas reciente de modelos disponibles, consulte Ollama Library.
Requisitos previos
Antes de usar Ollama, verifique lo siguiente.
Instalacion de Ollama: Descargue e instale desde https://ollama.com/
Descarga de modelo: Descargue el modelo a usar en Ollama
Inicio del servidor Ollama: Confirme que Ollama este ejecutandose
Instalacion de Ollama
Linux/macOS
Windows
Descargue y ejecute el instalador desde el sitio oficial.
Docker
Descarga de modelos
Configuracion basica
Agregue la siguiente configuracion en app/WEB-INF/conf/fess_config.properties.
Configuracion minima
Configuracion recomendada (entorno de produccion)
Opciones de configuracion
Todas las opciones de configuracion disponibles para el cliente de Ollama.
| Propiedad | Descripcion | Predeterminado |
|---|---|---|
rag.llm.ollama.api.url | URL base del servidor Ollama | http://localhost:11434 |
rag.llm.ollama.model | Nombre del modelo a usar (modelo descargado en Ollama) | gemma3:4b |
rag.llm.ollama.timeout | Timeout de solicitud (milisegundos) | 60000 |
Configuracion de red
Configuracion con Docker
Ejemplo de configuracion cuando tanto Fess como Ollama se ejecutan en Docker.
docker-compose.yml:
Nota
En entornos Docker Compose, use ollama como nombre de host (no localhost).
Servidor Ollama remoto
Cuando se ejecuta Ollama en un servidor diferente a Fess:
Advertencia
Ollama no tiene funcionalidad de autenticacion por defecto, por lo que si lo hace accesible externamente, considere medidas de seguridad a nivel de red (firewall, VPN, etc.).
Guia de seleccion de modelos
Guia para la seleccion de modelos segun el proposito de uso.
| Modelo | Tamano | VRAM requerida | Uso |
|---|---|---|---|
phi3:3.8b | Pequeno | 4GB+ | Entornos ligeros, respuestas simples |
gemma3:4b | Pequeno-Medio | 6GB+ | Uso general equilibrado (predeterminado) |
mistral:7b | Medio | 8GB+ | Cuando se requieren respuestas de alta calidad |
llama3.3:70b | Grande | 48GB+ | Respuestas de maxima calidad, razonamiento complejo |
Soporte de GPU
Ollama soporta aceleracion por GPU. El uso de GPUs NVIDIA mejora significativamente la velocidad de inferencia.
Solucion de problemas
Error de conexion
Sintoma: Errores en la funcionalidad de chat, LLM mostrado como no disponible
Verificaciones:
Verificar que Ollama este ejecutandose:
Verificar que el modelo este descargado:
Verificar la configuracion del firewall
Modelo no encontrado
Sintoma: Se muestra «Configured model not found in Ollama» en el log
Solucion:
Verificar que el nombre del modelo sea exacto (puede incluir tag
:latest):Descargar el modelo necesario:
Timeout
Sintoma: Las solicitudes tienen timeout
Solucion:
Extender el tiempo de timeout:
Usar un modelo mas pequeno o considerar un entorno con GPU
Configuracion de depuracion
Para investigar problemas, puede ajustar el nivel de log de Fess para obtener logs detallados relacionados con Ollama.
app/WEB-INF/classes/log4j2.xml:
Informacion de referencia
Descripcion general de integracion LLM - Descripcion general de integracion LLM
Configuracion de la funcionalidad de modo de búsqueda IA - Detalles de la funcionalidad de modo de búsqueda IA