Bandera: Русский Русский Bandera: English English

Open Web UI: Su centro personal de control de IA

Publicado el 07.11.2025


En el mundo moderno de los modelos de IA es fácil perderse. Tienes ChatGPT para unas tareas, Claude para otras, quieres experimentar localmente con Llama 3, y para programación — usar un modelo especializado. Al final el escritorio se convierte en un caos de pestañas del navegador y aplicaciones.

¿Qué pasaría si existiera una interfaz universal única capaz de conectarse a todos esos modelos? Un lugar donde puedas cambiar fácilmente entre GPT-4o, Llama 3 local y decenas de otros modelos?

Ese lugar existe — y se llama Open Web UI.


🚀 Qué es Open Web UI

En pocas palabras, Open Web UI es una interfaz web de código abierto (open-source) instalable localmente para trabajar con grandes modelos de lenguaje (LLM). Es completamente autohospedada (self-hosted) y puede funcionar sin conexión, sin dependencia de servidores externos.

Imagina la interfaz de ChatGPT, pero con superpoderes. El proyecto comenzó como Ollama WebUI — una cómoda “envoltura” para Ollama — la herramienta que permite ejecutar LLM en tu ordenador. Sin embargo, pronto el proyecto evolucionó a una plataforma completa.

Hoy Open Web UI es un panel de control único (single pane of glass) que permite:

  • conversar con modelos que funcionan localmente (a través de Ollama o del motor de inferencia integrado);
  • conectarse a API en la nube (OpenAI, Mistral AI, GroqCloud, etc.);
  • usar servicios-agrupadores como OpenRouter.ai.

Se instala una vez (vía Docker, Kubernetes o pip) y luego se accede desde el navegador. Es tu hub de IA personal y personalizable, con soporte para dispositivos móviles y acceso offline (PWA en localhost).


🤔 Para qué sirve

“¿Para qué me sirve esto si existe la web de ChatGPT?” La respuesta está en la flexibilidad, el control y la funcionalidad.

A fecha de noviembre de 2025 Open Web UI tiene miles de estrellas en GitHub y una comunidad activa. Aquí las razones clave por las que esta herramienta merece atención.


1. Todos los modelos en un solo lugar

La idea principal es dejar de saltar entre pestañas. En Open Web UI puedes agregar todas tus conexiones:

  • Ollama local — respuestas rápidas, gratuitas y totalmente privadas.
  • API de OpenAI — acceso a los modelos GPT más recientes.
  • OpenRouter — un único punto de acceso a multitud de otros modelos.
  • Mistral AI, GroqCloud, LMStudio — mediante URL personalizadas compatibles con OpenAI.

Antes de iniciar el chat simplemente eliges el modelo desde un menú desplegable. Incluso puedes mantener un diálogo con varios modelos simultáneamente y comparar sus respuestas.


2. La magia de los modelos locales y Ollama

Open Web UI encaja a la perfección con Ollama — la herramienta para ejecutar LLM localmente.

¿Qué es Ollama? Es una utilidad que permite descargar y ejecutar modelos fácilmente (Llama 3, Mistral, Phi-3, Gemma 2, etc.) en Windows, macOS y Linux. Ollama extrae modelos de Hugging Face y los optimiza para tu “hardware”.

Ventajas del enfoque local:

  • Privacidad — los datos no salen de tu ordenador.
  • Gratuidad — sin tokens ni suscripciones, solo los recursos de tu máquina.
  • Velocidad — los modelos pequeños responden de inmediato.

Open Web UI proporciona una interfaz visual para gestionar modelos: instalación, eliminación, creación de personalizados, chat con ellos e incluso Model Builder.


3. Chat con tus documentos (RAG)

Open Web UI soporta Retrieval-Augmented Generation (RAG). Esto significa que puedes:

  • subir PDF, TXT, MD, imágenes y otros archivos;
  • “adjuntarlos” al chat mediante #;
  • hacer preguntas sobre su contenido.

De este modo puedes analizar informes, buscar información en documentos extensos o entrenar modelos con tu propia base de conocimiento. Funciona también sin conexión. Si lo deseas, RAG puede ampliarse con búsqueda web mediante SearXNG, Brave, Google PSE o DuckDuckGo. Para analizar sitios basta con introducir #URL.


4. Capacidades avanzadas

  • Multimodalidad: subida de imágenes y chat de video con soporte para LLaVA y GPT-4o.
  • Generación de imágenes: mediante DALL-E, Stable Diffusion (Automatic1111), ComfyUI o plugins locales.
  • Personalización: creación de “personajes”, system prompts, BYOF (Bring Your Own Function) — conexión de funciones Python al LLM.
  • Colaboración: modo multiusuario, control de acceso por roles (RBAC), integración SCIM 2.0 con Okta, Azure AD.
  • Otros: soporte completo de Markdown, LaTeX, i18n, modo offline (HF_HUB_OFFLINE=1), opciones Enterprise con SLA.

💎 OpenRouter.ai — agregador de modelos

Si los modelos locales no son una opción (o tu PC no puede con Llama 3), OpenRouter.ai resuelve ese problema.

OpenRouter es un servicio-agrupador de API que reúne decenas de modelos (OpenAI, Anthropic, Google, Mistral AI, Cohere, etc.) en un solo lugar.

Simplemente:

  1. Te registras en OpenRouter.ai.
  2. Obtienes una sola clave API.
  3. Cargas saldo y usas cualquiera de los modelos soportados.

Open Web UI soporta OpenRouter “out of the box” a través de un endpoint compatible con OpenAI. Introduces tu clave y en la lista aparecen GPT-4o, Claude 3, Gemini 1.5 Pro y otros modelos. De este modo puedes alternar entre IA local y en la nube sin cambiar de interfaz.


🛠️ Instalación de Open Web UI

La forma más fiable es Docker.

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui --restart always \
  ghcr.io/open-webui/open-webui:main

Para GPU añade --gpus all y usa la etiqueta :cuda. Si quieres Ollama dentro del contenedor — usa la etiqueta :ollama con -v ollama:/root/.ollama.

Tras el arranque abre http://localhost:3000 y crea un administrador.

Después:

  • en Ajustes → Conexiones añade Ollama (http://host.docker.internal:11434);
  • añade la clave API de OpenRouter y selecciónala como origen compatible con OpenAI.

Para actualizaciones puedes usar Watchtower:

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

O instalarlo directamente:

pip install open-webui
open-webui serve

🏁 Conclusión

Open Web UI creció de una simple envoltura para Ollama a un centro de control de IA potente, flexible y totalmente autónomo. Unifica modelos locales privados y APIs en la nube, eliminando el caos de pestañas e interfaces.

El proyecto evoluciona rápidamente: soporta RAG, plugins, pipelines y funciones corporativas, siendo adecuado tanto para entusiastas como para empresas.

Es tu IA — en tus términos.

¿Necesitas ayuda?

Escríbeme y te ayudaré a resolver el problema

Publicaciones relacionadas