2- Cómo Usar Ollama con Postman (APIs y Comunicación)
🎯 Tema del Tutorial: "Hablando con tu IA: Cómo Conectar Ollama con Postman usando APIs"
Índice Visual
1. ¿QUÉ VAMOS A HACER? 🎯
│
2. INSTALANDO POSTMAN 📬
│
3. LA MAGIA DE LAS APIS 🔌
│
4. TU PRIMERA CONSULTA API 💬
│
5. ERRORES COMUNES Y SOLUCIONES 🔧
│
6. PRÓXIMOS PASOS 🚀1. ¿QUÉ VAMOS A HACER? 🎯
Objetivo del Tutorial:
Vamos a aprender a comunicarnos con Ollama usando Postman, que es como un "mensajero profesional" entre tu computadora y el modelo de IA.
Analogía Simple:
Imagina que Ollama es un chef en la cocina (tu computadora).
Postman es el mesero que toma tu pedido y te trae la comida.
¡Vamos a aprender a hacer el pedido correctamente!
¿Por qué usar Postman?
Para programadores que quieren integrar Ollama en sus apps
Para hacer pruebas más avanzadas
Para entender cómo funcionan las APIs
2. INSTALANDO POSTMAN 📬
Esquema del Proceso:
Navegador → postman.com → Download → Instalar → ¡Listo!Pasos Detallados:
Paso 1: Ve al sitio de Postman
🔗 https://www.postman.com/downloads/Paso 2: Descarga la versión gratuita
Windows: "Download for Windows"
Mac: "Download for macOS"
Linux: Selecciona tu distribución
Paso 3: Instalación
Doble click → Siguiente → Aceptar → InstalarPaso 4: Crear cuenta (opcional pero útil)
Puedes usar Postman sin cuenta, pero crear una te permite guardar tus trabajos.
3. LA MAGIA DE LAS APIS 🔌
¿Qué es una API?
API significa "Interfaz de Programación de Aplicaciones". Es como un menú de restaurante:
El menú (API): Te dice qué puedes pedir
La cocina (Ollama): Prepara lo que pides
El mesero (Postman): Lleva tu pedido y te trae la comida
La dirección especial de Ollama:
🔗 http://localhost:11434localhost: Significa "en esta misma computadora"
11434: Es el "número de puerto" donde Ollama escucha
El endpoint importante:
📝 /api/generateEste es el "número de mesa" específico donde enviamos nuestros pedidos.
4. TU PRIMERA CONSULTA API 💬
Preparación: Asegúrate que Ollama esté funcionando
Abre una terminal
Ejecuta:
ollama listDeberías ver algo como:
NAME SIZE MODIFIED
gemma3:4b 3.3 GB 2 weeks agoPaso a Paso en Postman:
Paso 1: Configurar la solicitud
1. Método: POST
2. URL: http://localhost:11434/api/generate
3. Click en "Body"Paso 2: Configurar el Body (el "pedido")
1. Seleccionar "raw"
2. Seleccionar "JSON"
3. Escribir nuestro mensaje📋 Ejemplo de Código JSON Correcto:
{
"model": "gemma3:4b",
"prompt": "¿Qué es Python?",
"stream": false
}Diagrama Visual del JSON:
{
"model": "← Qué modelo usar (tu 'chef')",
"prompt": "← Tu pregunta (el 'pedido')",
"stream": "← Cómo recibir respuesta"
}💡 IMPORTANTE: Errores comunes
// ❌ INCORRECTO (typo común)
{
"pregnant": "¿Qué es Python?" // ← ¡Error! Debe ser "prompt"
}
// ✅ CORRECTO
{
"prompt": "¿Qué es Python?" // ← ¡Correcto!
}Paso 3: Hacer click en "Send" y ver la respuesta
5. ERRORES COMUNES Y SOLUCIONES 🔧
Tabla de Soluciones Rápidas:
| Problema | Síntoma | Solución |
|---|---|---|
| Ollama no está corriendo | Error de conexión | Ejecuta: ollama run gemma3:4b |
| Error en el JSON | Postman muestra error | Revisa spelling: "prompt" no "pregnant" |
| Modelo incorrecto | "model not found" | Verifica con: ollama list |
| Puerto bloqueado | No se conecta | Asegúrate que nada más use el puerto 11434 |
Proceso de Depuración:
¿No funciona? → Sigue estos pasos:
1. ✅ ¿Ollama está ejecutándose? (terminal abierta)
2. ✅ ¿El modelo está instalado? (ollama list)
3. ✅ ¿El JSON está bien escrito? (revisa "prompt")
4. ✅ ¿Postman está configurado? (POST, URL correcta)6. EJEMPLOS PRÁCTICOS 💼
Ejemplo 1: Pregunta sobre Python
{
"model": "gemma3:4b",
"prompt": "Explica qué es Python en 3 líneas",
"stream": false
}Ejemplo 2: Pregunta sobre HTML
{
"model": "gemma3:4b",
"prompt": "¿Qué es HTML y para qué sirve?",
"stream": false
}Ejemplo 3: Pregunta geográfica
{
"model": "gemma3:4b",
"prompt": "Cuéntame sobre Lima, la capital de Perú",
"stream": false
}Respuesta Típica de Ollama:
{
"model": "gemma3:4b",
"created_at": "2024-01-15T10:30:00Z",
"response": "Python es un lenguaje de programación...",
"done": true
}7. MODELOS DISPONIBLES Y RECOMENDACIONES 🧠
Tabla de Modelos Gemma3:
| Modelo | Tamaño | Uso Recomendado | Velocidad |
|---|---|---|---|
| gemma3:1b | 815 MB | Pruebas rápidas | ⚡⚡⚡⚡⚡ |
| gemma3:4b | 3.3 GB | Uso general | ⚡⚡⚡⚡ |
| gemma3:12b | 8.1 GB | Tareas complejas | ⚡⚡⚡ |
| gemma3:27b | 17 GB | Máxima calidad | ⚡⚡ |
💡 Consejo de Rendimiento:
Si tu computadora se pone lenta, cambia a un modelo más pequeño:
// Cambia de:
"model": "gemma3:4b"
// A:
"model": "gemma3:1b"8. PRÓXIMOS PASOS 🚀
Qué puedes hacer ahora:
Practicar con diferentes preguntas
Crear una interfaz web simple que use esta API
Integrar Ollama en tus propios programas
Probar diferentes modelos para ver cuál te gusta más
Flujo de Aprendizaje:
Día 1: Aprender Postman básico
Día 2: Hacer 10 preguntas diferentes
Día 3: Crear un script Python que use la API
Día 4: Construir una app simple📝 CUESTIONARIO DE REPASO
Pregunta 1:
¿Qué método HTTP usamos para enviar preguntas a Ollama?
a) GET
b) POST
c) DELETE
d) PUT
Respuesta correcta: b) POST - Usamos POST porque estamos enviando datos (nuestra pregunta) al servidor.
Pregunta 2:
¿Cuál es la URL correcta para comunicarse con Ollama localmente?
a) http://google.com/api
b) http://localhost:11434/api/generate
c) http://127.0.0.1:8080/ollama
d) https://ollama.com/api
Respuesta correcta: b) http://localhost:11434/api/generate - localhost significa "esta computadora" y 11434 es el puerto donde Ollama escucha.
Pregunta 3:
En el JSON, ¿cómo se llama correctamente el campo para escribir nuestra pregunta?
a) "question"
b) "pregnant" (error común)
c) "prompt"
d) "query"
Respuesta correcta: c) "prompt" - Este es el nombre correcto del campo. "pregnant" es un error de escritura común.
Pregunta 4:
Si recibes un error de conexión en Postman, ¿cuál es el PRIMER paso para solucionarlo?
a) Reiniciar la computadora
b) Verificar que Ollama esté ejecutándose
c) Reinstalar Postman
d) Cambiar de internet
Respuesta correcta: b) Primero verifica que Ollama esté corriendo en una terminal con ollama run gemma3:4b.
Pregunta 5:
¿Qué significa "stream": false en el JSON?
a) Que no queremos recibir respuesta
b) Que queremos la respuesta completa de una vez
c) Que queremos videos en la respuesta
d) Que estamos probando conexión
Respuesta correcta: b) "stream": false significa que queremos la respuesta completa en una sola vez, no en pedazos.
Pregunta 6:
Si tu computadora se pone muy lenta usando gemma3:4b, ¿qué puedes hacer?
a) Comprar una computadora nueva
b) Usar un modelo más pequeño como gemma3:1b
c) Dejar de usar Ollama
d) Solo usar texto muy corto
Respuesta correcta: b) Puedes cambiar a un modelo más pequeño como gemma3:1b que usa menos recursos.
🎉 ¡Felicidades!
Ahora sabes cómo comunicarte con Ollama usando Postman. Eres capaz de:
✅ Instalar y usar Postman
✅ Enviar preguntas a Ollama via API
✅ Entender el formato JSON necesario
✅ Solucionar problemas comunes
Recuerda: La práctica hace al maestro. Intenta diferentes tipos de preguntas y pronto podrás integrar Ollama en tus propios proyectos.
Comentarios
Publicar un comentario