Instala tu propia IA en local gratis con Ollama

LLMs en local con Ollama
Solucionex
25
Mar 26

¿Quieres tener tu propia IA funcionando en tu ordenador?

Si quieres probar modelos similares a ChatGPT sin pagar suscripciones y sin depender de servicios externos, puedes instalar una IA en local completamente gratis.

En esta guía te explico paso a paso cómo hacerlo usando Ollama, una herramienta sencilla que permite ejecutar modelos de lenguaje en tu propio equipo.


Requisitos mínimos

Antes de empezar, asegúrate de tener:

  • Cualquier distribución Linux
  • 8GB de RAM (mínimo recomendable) - 16GB de RAM (para mejor rendimiento)
  • Conexión a internet

Paso 1: Instalar Ollama

Ollama es la herramienta que nos permitirá ejecutar modelos de IA en local.

Abre tu terminal y ejecuta:

curl -fsSL https://ollama.com/install.sh | sh

Cuando termine, comprueba que está instalado correctamente:

ollama --version

Si te devuelve la versión, está todo listo.


Paso 2: Descargar un modelo de IA

Ahora vamos a descargar un modelo.

Un buen modelo para empezar es Llama 3:

ollama run llama3

La primera vez tardará un poco porque descargará el modelo.

También puedes probar modelos más ligeros:

ollama run mistral
ollama run phi3

Si tu equipo no es muy potente, empieza por phi3.


Paso 3: Usar la IA desde la terminal

Una vez descargado el modelo, podrás interactuar directamente:

Ejemplo:

Explícame qué es Docker.

El modelo responderá como si estuvieras usando un chatbot.


Paso 4: Usar la IA como API local (para desarrolladores)

Ollama levanta automáticamente una API en:

http://localhost:11434

Ejemplo de uso con curl:

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "Explícame qué es Drupal"
}'

Esto te permite integrar la IA en:

  • Aplicaciones Java
  • Proyectos en Python
  • Node.js
  • Backends propios
  • Experimentos con RAG

Aquí es donde empieza lo interesante si eres desarrollador.


Ventajas de tener IA en local

  • No pagas suscripciones
  • No dependes de terceros
  • Funciona sin enviar datos a servidores externos
  • Puedes experimentar libremente

Limitaciones

  • No tendrá el nivel de los modelos más nuevos
  • Consume más recursos
  • Puede ser más lenta sin GPU
Desarrollo
IA
Inteligencia artificial