¿Quieres tener tu propia IA funcionando en tu ordenador?
Si quieres probar modelos similares a ChatGPT sin pagar suscripciones y sin depender de servicios externos, puedes instalar una IA en local completamente gratis.
En esta guía te explico paso a paso cómo hacerlo usando Ollama, una herramienta sencilla que permite ejecutar modelos de lenguaje en tu propio equipo.
Requisitos mínimos
Antes de empezar, asegúrate de tener:
- Cualquier distribución Linux
- 8GB de RAM (mínimo recomendable) - 16GB de RAM (para mejor rendimiento)
- Conexión a internet
Paso 1: Instalar Ollama
Ollama es la herramienta que nos permitirá ejecutar modelos de IA en local.
Abre tu terminal y ejecuta:
curl -fsSL https://ollama.com/install.sh | shCuando termine, comprueba que está instalado correctamente:
ollama --versionSi te devuelve la versión, está todo listo.
Paso 2: Descargar un modelo de IA
Ahora vamos a descargar un modelo.
Un buen modelo para empezar es Llama 3:
ollama run llama3La primera vez tardará un poco porque descargará el modelo.
También puedes probar modelos más ligeros:
ollama run mistral
ollama run phi3Si tu equipo no es muy potente, empieza por phi3.
Paso 3: Usar la IA desde la terminal
Una vez descargado el modelo, podrás interactuar directamente:
Ejemplo:
Explícame qué es Docker.El modelo responderá como si estuvieras usando un chatbot.
Paso 4: Usar la IA como API local (para desarrolladores)
Ollama levanta automáticamente una API en:
http://localhost:11434Ejemplo de uso con curl:
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Explícame qué es Drupal"
}'Esto te permite integrar la IA en:
- Aplicaciones Java
- Proyectos en Python
- Node.js
- Backends propios
- Experimentos con RAG
Aquí es donde empieza lo interesante si eres desarrollador.
Ventajas de tener IA en local
- No pagas suscripciones
- No dependes de terceros
- Funciona sin enviar datos a servidores externos
- Puedes experimentar libremente
Limitaciones
- No tendrá el nivel de los modelos más nuevos
- Consume más recursos
- Puede ser más lenta sin GPU