Probá modelos de IA en tu PC con Docker de forma segura

Cada vez hay más modelos de inteligencia artificial disponibles para descarga y uso local, pero instalarlos directamente en tu PC puede generar desconfianza o conflictos con otros programas. Para evitar estos problemas, Docker es la solución ideal: permite ejecutar modelos como LLaMA o DeepSeek en un entorno aislado, sin riesgos para tu sistema.

En este tutorial, te explicamos paso a paso cómo hacerlo 🚀

🔒 ¿Por qué usar Docker en vez de instalar los modelos directamente?

Docker te da varias ventajas clave:

Aislamiento total: El modelo se ejecuta dentro de un contenedor sin acceso a tus archivos ni posibilidad de modificar tu sistema.
Fácil instalación y eliminación: Si algo no funciona como esperás, simplemente eliminás el contenedor y listo.
Sin conflictos de dependencias: Todo se mantiene dentro del contenedor, sin afectar otras aplicaciones.
Control de red: Podés restringir el acceso a Internet del modelo para evitar conexiones no deseadas.

🏗 Paso a paso: Ejecutar Ollama en Docker

Ollama es una herramienta que permite descargar y ejecutar modelos de IA de manera sencilla. A continuación, te muestro cómo usarlo con Docker.

1️⃣ Instalá Docker

Si aún no tenés Docker instalado, seguí estos pasos según tu sistema operativo:

🔹 Linux (Ubuntu/Debian)

sudo apt update  
sudo apt install -y docker.io

🔹 Linux (Fedora)

sudo dnf install -y docker  

🔹 Windows

  1. Descargá e instalá Docker Desktop desde docker.com.
  2. Asegurate de habilitar la opción WSL 2 si usás Windows Subsystem for Linux.

2️⃣ Descargá y ejecutá el contenedor Ollama

Ahora que tenés Docker, descargá la imagen de Ollama y creá el contenedor con este comando:

sudo docker run -d \
-v /home/tu_usuario/Ollama:/root/.ollama \
-p 11434:11434 \
--name ollama \
ollama/ollama

Con esto, ya tenés Ollama corriendo en un entorno seguro.

3️⃣ Descargá un modelo dentro del contenedor

Para acceder al contenedor y descargar un modelo como LLaMA 2, usá los siguientes comandos:

sudo docker exec -it ollama
bash ollama pull llama2:7b

4️⃣ Probá consultas al modelo

Para interactuar con el modelo dentro del contenedor:

ollama run llama2:7b  

También podés probar otros modelos, como DeepSeek, o ejecutar más de uno a la vez:

ollama run deepseek-r1:7b  

Si querés ver todos los modelos disponibles:

ollama list  

Importante: Tené en cuenta las limitaciones de hardware de tu PC, ya que estos modelos consumen bastantes recursos.

🔧 Extra: Bloquear el acceso a Internet del modelo

Si querés evitar que el modelo tenga conexión a Internet mientras lo probás, podés ejecutar este comando:

sudo docker network disconnect bridge ollama  

De esta manera, el contenedor seguirá funcionando, pero sin acceso externo.

Si querés experimentar con modelos de IA de forma segura y sin riesgos para tu sistema, Docker es una herramienta ideal. Te permite gestionar modelos fácilmente, probar distintas versiones y eliminarlos sin dejar rastros.

Abrir chat
Hola, soy Magui 👋 ¿Hablamos por WhatsApp?