Cada vez hay más modelos de inteligencia artificial disponibles para descarga y uso local, pero instalarlos directamente en tu PC puede generar desconfianza o conflictos con otros programas. Para evitar estos problemas, Docker es la solución ideal: permite ejecutar modelos como LLaMA o DeepSeek en un entorno aislado, sin riesgos para tu sistema.
En este tutorial, te explicamos paso a paso cómo hacerlo 🚀
🔒 ¿Por qué usar Docker en vez de instalar los modelos directamente?
Docker te da varias ventajas clave:
✅ Aislamiento total: El modelo se ejecuta dentro de un contenedor sin acceso a tus archivos ni posibilidad de modificar tu sistema.
✅ Fácil instalación y eliminación: Si algo no funciona como esperás, simplemente eliminás el contenedor y listo.
✅ Sin conflictos de dependencias: Todo se mantiene dentro del contenedor, sin afectar otras aplicaciones.
✅ Control de red: Podés restringir el acceso a Internet del modelo para evitar conexiones no deseadas.
🏗 Paso a paso: Ejecutar Ollama en Docker
Ollama es una herramienta que permite descargar y ejecutar modelos de IA de manera sencilla. A continuación, te muestro cómo usarlo con Docker.
1️⃣ Instalá Docker
Si aún no tenés Docker instalado, seguí estos pasos según tu sistema operativo:
🔹 Linux (Ubuntu/Debian)
sudo apt update
sudo apt install -y docker.io
🔹 Linux (Fedora)
sudo dnf install -y docker
🔹 Windows
- Descargá e instalá Docker Desktop desde docker.com.
- Asegurate de habilitar la opción WSL 2 si usás Windows Subsystem for Linux.
2️⃣ Descargá y ejecutá el contenedor Ollama
Ahora que tenés Docker, descargá la imagen de Ollama y creá el contenedor con este comando:
sudo docker run -d \
-v /home/tu_usuario/Ollama:/root/.ollama \
-p 11434:11434 \
--name ollama \
ollama/ollama
Con esto, ya tenés Ollama corriendo en un entorno seguro.
3️⃣ Descargá un modelo dentro del contenedor
Para acceder al contenedor y descargar un modelo como LLaMA 2, usá los siguientes comandos:
sudo docker exec -it ollama
bash ollama pull llama2:7b
4️⃣ Probá consultas al modelo
Para interactuar con el modelo dentro del contenedor:
ollama run llama2:7b
También podés probar otros modelos, como DeepSeek, o ejecutar más de uno a la vez:
ollama run deepseek-r1:7b
Si querés ver todos los modelos disponibles:
ollama list
⚠ Importante: Tené en cuenta las limitaciones de hardware de tu PC, ya que estos modelos consumen bastantes recursos.
🔧 Extra: Bloquear el acceso a Internet del modelo
Si querés evitar que el modelo tenga conexión a Internet mientras lo probás, podés ejecutar este comando:
sudo docker network disconnect bridge ollama
De esta manera, el contenedor seguirá funcionando, pero sin acceso externo.
Si querés experimentar con modelos de IA de forma segura y sin riesgos para tu sistema, Docker es una herramienta ideal. Te permite gestionar modelos fácilmente, probar distintas versiones y eliminarlos sin dejar rastros.