Instalar Ollama + Open WebUI — Windows
🪟 Windows 🟢 NVIDIA
1
Descarga e instala Ollama para Windows
🔗 Descarga oficial
https://ollama.com/download/windows
ℹ️Ejecuta el OllamaSetup.exe. El instalador detecta automáticamente tus drivers NVIDIA y activa CUDA. No necesitas configurar nada extra.
Tras la instalación, Ollama corre como servicio en segundo plano en http://localhost:11434.
2
Prueba que Ollama funciona
PowerShell / CMD
ollama run llama3.2
ℹ️Descarga el modelo la primera vez (~2 GB). Escribe algo para confirmar que responde con la GPU. Sal con /bye.
3
Instala Python 3.11 (si no lo tienes)
🔗 Descarga Python
https://www.python.org/ftp/python/3.11.9/python-3.11.9-amd64.exe
⚠️Marca Add Python to PATH antes de instalar.
4
Instala y arranca Open WebUI
PowerShell / CMD
pip install open-webui
open-webui serve
Abre http://localhost:8080 en tu navegador. Crea una cuenta en el primer acceso — es solo local, no requiere internet.
💡Para arrancar Open WebUI en el futuro abre una terminal y ejecuta open-webui serve. Ollama ya arranca solo al iniciar Windows.
1
Descarga e instala Ollama para Windows
🔗 Descarga oficial
https://ollama.com/download/windows
ℹ️En Windows, Ollama usa DirectML para GPUs AMD. No necesitas instalar ROCm — el instalador lo gestiona automáticamente para RX 5000 en adelante.
Tras instalar, Ollama corre como servicio en http://localhost:11434.
2
Prueba que Ollama detecta la GPU AMD
PowerShell / CMD
ollama run llama3.2
⚠️El rendimiento con DirectML puede ser menor que con ROCm en Linux. Si buscas máximo rendimiento, considera usar la pestaña de Ubuntu/Fedora con ROCm nativo.
3
Instala Python 3.11 (si no lo tienes)
🔗 Descarga Python
https://www.python.org/ftp/python/3.11.9/python-3.11.9-amd64.exe
⚠️Marca Add Python to PATH antes de instalar.
4
Instala y arranca Open WebUI
PowerShell / CMD
pip install open-webui
open-webui serve
Abre http://localhost:8080. Crea una cuenta local y selecciona tu modelo descargado con Ollama.
⚠️Soporte Intel GPU en Windows limitado: Ollama no tiene soporte oficial para GPU Intel en Windows. La inferencia se ejecutará en CPU. Si tienes una Arc, considera usar Linux para aprovechar el soporte SYCL experimental.
1
Descarga e instala Ollama para Windows
🔗 Descarga oficial
https://ollama.com/download/windows
ℹ️Con GPU Intel en Windows, Ollama usará la CPU automáticamente. El rendimiento dependerá de la velocidad de tu procesador y la cantidad de RAM.
2
Prueba Ollama con un modelo ligero
PowerShell / CMD — modelos recomendados para CPU
ollama run llama3.2:1b
💡Para CPU, usa modelos cuantizados pequeños como llama3.2:1b (1B parámetros) o gemma2:2b para tiempos de respuesta razonables.
3
Instala y arranca Open WebUI
PowerShell / CMD
pip install open-webui
open-webui serve
Abre http://localhost:8080 y selecciona el modelo ligero que descargaste con Ollama.
1
Descarga e instala Ollama para Windows
🔗 Descarga oficial
https://ollama.com/download/windows
ℹ️Sin GPU dedicada, Ollama usa automáticamente la CPU. Recomendado: 16 GB RAM mínimo para modelos de 7B parámetros.
2
Elige un modelo adecuado para CPU
8 GB RAMollama run llama3.2:1b — Rápido, respuestas en segundos
16 GB RAMollama run llama3.2 — Modelo 3B, buen equilibrio calidad/velocidad
32 GB RAMollama run llama3.1:8b — Modelo 8B, respuestas de calidad aunque más lentas
3
Instala y arranca Open WebUI
PowerShell / CMD
pip install open-webui
open-webui serve
Abre http://localhost:8080. Ten paciencia con los primeros tokens — la CPU es más lenta que una GPU pero funciona perfectamente.
1
Instala ollama-cuda desde el AUR
Terminal — yay
yay -S ollama-cuda
Terminal — paru
paru -S ollama-cuda
ℹ️ollama-cuda incluye soporte CUDA compilado. Necesitas tener los drivers NVIDIA propietarios y cuda instalados. Si no los tienes: yay -S nvidia-dkms cuda
2
Habilita e inicia el servicio Ollama
Terminal
sudo systemctl enable --now ollama
Terminal — verificar estado
sudo systemctl status ollama
El servicio arranca automáticamente con el sistema. Ollama escucha en http://localhost:11434.
3
Prueba un modelo
Terminal
ollama run llama3.2
4
Instala Open WebUI
Terminal — opción A: pip (entorno virtual)
python -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
Terminal — opción B: AUR
yay -S open-webui
5
Arranca Open WebUI
Terminal — si usaste pip
source ~/.venv/openwebui/bin/activate
open-webui serve
Terminal — si usaste AUR (systemd)
sudo systemctl enable --now open-webui
Abre http://localhost:8080. Crea tu cuenta local y empieza a chatear con los modelos de Ollama.
1
Instala ollama-rocm desde el AUR
Terminal — yay
yay -S ollama-rocm
Terminal — paru
paru -S ollama-rocm
ℹ️ollama-rocm incluye soporte ROCm. Instala las librerías ROCm automáticamente como dependencias. Compatible con RX 6000 (RDNA 2) en adelante.
2
Añade tu usuario al grupo render y video
Terminal
sudo usermod -aG render,video $USER
⚠️Cierra sesión y vuelve a entrar (o reinicia) para que los cambios de grupo surtan efecto.
3
Habilita e inicia el servicio Ollama
Terminal
sudo systemctl enable --now ollama
ollama run llama3.2
💡Si tu GPU es una RX 6000 (RDNA 2) y ROCm no la detecta, fuerza el objetivo con: HSA_OVERRIDE_GFX_VERSION=10.3.0 ollama run llama3.2
4
Instala Open WebUI
Terminal
python -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080. Ollama con ROCm en Arch ofrece rendimiento comparable a CUDA en muchos modelos.
🔵Intel GPU en Arch (experimental): Ollama tiene soporte SYCL experimental para GPUs Intel Arc. Usa el paquete estándar ollama — el soporte Intel se activa con variables de entorno.
1
Instala ollama y las librerías oneAPI
Terminal
yay -S ollama intel-compute-runtime level-zero-loader
2
Añade tu usuario al grupo render
Terminal
sudo usermod -aG render $USER
⚠️Cierra sesión y vuelve a entrar para aplicar el grupo.
3
Habilita el servicio y prueba
Terminal
sudo systemctl enable --now ollama
ollama run llama3.2
ℹ️Si Ollama no detecta la GPU Intel, prueba lanzarlo manualmente con: ONEAPI_DEVICE_SELECTOR=opencl:gpu ollama serve. El soporte Intel en Ollama es aún experimental.
4
Instala y arranca Open WebUI
Terminal
python -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080.
1
Instala ollama desde el AUR
Terminal
yay -S ollama
ℹ️El paquete base ollama corre en CPU automáticamente cuando no hay GPU compatible. Optimizado con AVX2 para máximo rendimiento en CPU.
2
Habilita el servicio
Terminal
sudo systemctl enable --now ollama
ollama run llama3.2:1b
3
Instala y arranca Open WebUI
Terminal
python -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080. Con CPU usa modelos de 1B–3B parámetros para respuestas ágiles.
1
Asegúrate de tener los drivers NVIDIA instalados
Terminal
nvidia-smi
ℹ️Si el comando falla, instala los drivers: sudo ubuntu-drivers install o desde el gestor de software adicional. El script de Ollama detecta CUDA automáticamente.
2
Instala Ollama con el script oficial
Terminal
curl -fsSL https://ollama.com/install.sh | sh
El script instala Ollama, crea el servicio systemd y detecta automáticamente CUDA. Ollama queda activo en http://localhost:11434.
3
Prueba un modelo
Terminal
ollama run llama3.2
4
Instala Python 3.11 y crea un entorno virtual
Terminal
sudo apt install python3.11 python3.11-venv -y
python3.11 -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
5
Instala y arranca Open WebUI
Terminal
pip install open-webui
open-webui serve
Abre http://localhost:8080. Para lanzarlo en el futuro: activa el entorno virtual y ejecuta open-webui serve.
1
Instala el stack ROCm con amdgpu-install
Terminal — Ubuntu 22.04 (Jammy)
wget https://repo.radeon.com/amdgpu-install/6.4/ubuntu/jammy/amdgpu-install_6.4.60400-1_all.deb
sudo apt install ./amdgpu-install_6.4.60400-1_all.deb -y
sudo amdgpu-install --usecase=rocm -y
Terminal — Ubuntu 24.04 (Noble)
wget https://repo.radeon.com/amdgpu-install/6.4/ubuntu/noble/amdgpu-install_6.4.60400-1_all.deb
sudo apt install ./amdgpu-install_6.4.60400-1_all.deb -y
sudo amdgpu-install --usecase=rocm -y
2
Añade tu usuario a los grupos necesarios
Terminal
sudo usermod -aG render,video $USER
⚠️Reinicia el sistema para que ROCm y los cambios de grupo sean efectivos.
3
Instala Ollama — detectará ROCm automáticamente
Terminal
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2
💡Si tu GPU es una RX 6000 y ROCm no la detecta, agrega al servicio la variable: HSA_OVERRIDE_GFX_VERSION=10.3.0 en /etc/systemd/system/ollama.service.d/override.conf
4
Instala y arranca Open WebUI
Terminal
sudo apt install python3.11 python3.11-venv -y
python3.11 -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080.
🔵Intel GPU en Ubuntu: El script oficial de Ollama no incluye soporte GPU Intel. Para GPUs Intel Arc se puede intentar con las librerías intel-compute-runtime, aunque el soporte es experimental. En caso de fallo, Ollama cae automáticamente a CPU.
1
Instala intel-compute-runtime para GPU Intel Arc
Terminal
sudo apt install intel-opencl-icd intel-level-zero-gpu -y
sudo usermod -aG render $USER
2
Instala Ollama
Terminal
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2:1b
ℹ️Si la GPU Intel no es reconocida, Ollama usa la CPU automáticamente. Usa modelos pequeños (1B–3B) para una experiencia fluida.
3
Instala y arranca Open WebUI
Terminal
sudo apt install python3.11 python3.11-venv -y
python3.11 -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080.
1
Instala Ollama con el script oficial
Terminal
curl -fsSL https://ollama.com/install.sh | sh
ℹ️Sin GPU, Ollama usa la CPU automáticamente. El script instala la versión optimizada con AVX2. Recomendado: 16 GB RAM.
2
Prueba con un modelo ligero
Terminal
ollama run llama3.2:1b
3
Instala y arranca Open WebUI
Terminal
sudo apt install python3.11 python3.11-venv -y
python3.11 -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080.
1
Instala los drivers NVIDIA desde RPM Fusion
Terminal
sudo dnf install https://download1.rpmfusion.org/free/fedora/rpmfusion-free-release-$(rpm -E %fedora).noarch.rpm \
  https://download1.rpmfusion.org/nonfree/fedora/rpmfusion-nonfree-release-$(rpm -E %fedora).noarch.rpm -y
sudo dnf install akmod-nvidia xorg-x11-drv-nvidia-cuda -y
⚠️Reinicia el sistema tras instalar los drivers antes de continuar.
2
Instala Ollama con el script oficial
Terminal
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2
El script detecta CUDA automáticamente si los drivers están instalados correctamente.
3
Instala Python y Open WebUI
Terminal
sudo dnf install python3.11 -y
python3.11 -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080.
1
Instala ROCm desde el repositorio oficial AMD
Terminal
sudo tee /etc/yum.repos.d/amdgpu.repo <<'EOF'
[amdgpu]
name=amdgpu
baseurl=https://repo.radeon.com/amdgpu/latest/rhel/9.4/main/x86_64/
enabled=1
gpgcheck=1
gpgkey=https://repo.radeon.com/rocm/rocm.gpg.key
EOF
sudo tee /etc/yum.repos.d/rocm.repo <<'EOF'
[rocm]
name=rocm
baseurl=https://repo.radeon.com/rocm/rhel9/6.4/main/x86_64/
enabled=1
gpgcheck=1
gpgkey=https://repo.radeon.com/rocm/rocm.gpg.key
EOF
sudo dnf install rocm-hip-sdk rocm-opencl-sdk -y
⚠️Añade tu usuario a los grupos necesarios y reinicia: sudo usermod -aG render,video $USER
2
Instala Ollama — detectará ROCm
Terminal
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2
3
Instala y arranca Open WebUI
Terminal
sudo dnf install python3.11 -y
python3.11 -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080.
🔵En Fedora, Ollama no tiene soporte GPU Intel oficial. La inferencia usará CPU. Instala intel-compute-runtime si quieres experimentar con el soporte SYCL.
1
Instala Ollama
Terminal
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2:1b
2
Instala y arranca Open WebUI
Terminal
sudo dnf install python3.11 -y
python3.11 -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080.
1
Instala Ollama con el script oficial
Terminal
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2:1b
2
Instala y arranca Open WebUI
Terminal
sudo dnf install python3.11 -y
python3.11 -m venv ~/.venv/openwebui
source ~/.venv/openwebui/bin/activate
pip install open-webui
open-webui serve
Abre http://localhost:8080.