2- Cómo Usar Ollama con Postman (APIs y Comunicación)

https://docs.google.com/presentation/d/e/2PACX-1vQ9LSuAjKMwDa3RnlvU6AF-bV5_cftsPsjbA20Up6jvXMm2STg681NcxTNUEAH_S8OLdxtMNmD0DqQf/pub?start=false&loop=false&delayms=3000

🎯 Tema del Tutorial: "Hablando con tu IA: Cómo Conectar Ollama con Postman usando APIs"

Índice Visual

text
1. ¿QUÉ VAMOS A HACER? 🎯
   │
2. INSTALANDO POSTMAN 📬
   │
3. LA MAGIA DE LAS APIS 🔌
   │
4. TU PRIMERA CONSULTA API 💬
   │
5. ERRORES COMUNES Y SOLUCIONES 🔧
   │
6. PRÓXIMOS PASOS 🚀

1. ¿QUÉ VAMOS A HACER? 🎯

Objetivo del Tutorial:

Vamos a aprender a comunicarnos con Ollama usando Postman, que es como un "mensajero profesional" entre tu computadora y el modelo de IA.

Analogía Simple:

Imagina que Ollama es un chef en la cocina (tu computadora).
Postman es el mesero que toma tu pedido y te trae la comida.
¡Vamos a aprender a hacer el pedido correctamente!

¿Por qué usar Postman?

  • Para programadores que quieren integrar Ollama en sus apps

  • Para hacer pruebas más avanzadas

  • Para entender cómo funcionan las APIs


2. INSTALANDO POSTMAN 📬

Esquema del Proceso:

text
Navegador → postman.com → Download → Instalar → ¡Listo!

Pasos Detallados:

Paso 1: Ve al sitio de Postman

text
🔗 https://www.postman.com/downloads/

Paso 2: Descarga la versión gratuita

  • Windows: "Download for Windows"

  • Mac: "Download for macOS"

  • Linux: Selecciona tu distribución

Paso 3: Instalación

bash
Doble click → Siguiente → Aceptar → Instalar

Paso 4: Crear cuenta (opcional pero útil)

Puedes usar Postman sin cuenta, pero crear una te permite guardar tus trabajos.


3. LA MAGIA DE LAS APIS 🔌

¿Qué es una API?

API significa "Interfaz de Programación de Aplicaciones". Es como un menú de restaurante:

  • El menú (API): Te dice qué puedes pedir

  • La cocina (Ollama): Prepara lo que pides

  • El mesero (Postman): Lleva tu pedido y te trae la comida

La dirección especial de Ollama:

text
🔗 http://localhost:11434
  • localhost: Significa "en esta misma computadora"

  • 11434: Es el "número de puerto" donde Ollama escucha

El endpoint importante:

text
📝 /api/generate

Este es el "número de mesa" específico donde enviamos nuestros pedidos.


4. TU PRIMERA CONSULTA API 💬

Preparación: Asegúrate que Ollama esté funcionando

  1. Abre una terminal

  2. Ejecuta: ollama list

  3. Deberías ver algo como:

bash
NAME          SIZE      MODIFIED
gemma3:4b     3.3 GB    2 weeks ago

Paso a Paso en Postman:

Paso 1: Configurar la solicitud

text
1. Método: POST
2. URL: http://localhost:11434/api/generate
3. Click en "Body"

Paso 2: Configurar el Body (el "pedido")

text
1. Seleccionar "raw"
2. Seleccionar "JSON"
3. Escribir nuestro mensaje

📋 Ejemplo de Código JSON Correcto:

json
{
  "model": "gemma3:4b",
  "prompt": "¿Qué es Python?",
  "stream": false
}

Diagrama Visual del JSON:

json
{
  "model":   "← Qué modelo usar (tu 'chef')",
  "prompt":  "← Tu pregunta (el 'pedido')",
  "stream":  "← Cómo recibir respuesta"
}

💡 IMPORTANTE: Errores comunes

json
// ❌ INCORRECTO (typo común)
{
  "pregnant": "¿Qué es Python?"  // ← ¡Error! Debe ser "prompt"
}

// ✅ CORRECTO
{
  "prompt": "¿Qué es Python?"    // ← ¡Correcto!
}

Paso 3: Hacer click en "Send" y ver la respuesta


5. ERRORES COMUNES Y SOLUCIONES 🔧

Tabla de Soluciones Rápidas:

ProblemaSíntomaSolución
Ollama no está corriendoError de conexiónEjecuta: ollama run gemma3:4b
Error en el JSONPostman muestra errorRevisa spelling: "prompt" no "pregnant"
Modelo incorrecto"model not found"Verifica con: ollama list
Puerto bloqueadoNo se conectaAsegúrate que nada más use el puerto 11434

Proceso de Depuración:

text
¿No funciona? → Sigue estos pasos:
1. ✅ ¿Ollama está ejecutándose? (terminal abierta)
2. ✅ ¿El modelo está instalado? (ollama list)
3. ✅ ¿El JSON está bien escrito? (revisa "prompt")
4. ✅ ¿Postman está configurado? (POST, URL correcta)

6. EJEMPLOS PRÁCTICOS 💼

Ejemplo 1: Pregunta sobre Python

json
{
  "model": "gemma3:4b",
  "prompt": "Explica qué es Python en 3 líneas",
  "stream": false
}

Ejemplo 2: Pregunta sobre HTML

json
{
  "model": "gemma3:4b",
  "prompt": "¿Qué es HTML y para qué sirve?",
  "stream": false
}

Ejemplo 3: Pregunta geográfica

json
{
  "model": "gemma3:4b",
  "prompt": "Cuéntame sobre Lima, la capital de Perú",
  "stream": false
}

Respuesta Típica de Ollama:

json
{
  "model": "gemma3:4b",
  "created_at": "2024-01-15T10:30:00Z",
  "response": "Python es un lenguaje de programación...",
  "done": true
}

7. MODELOS DISPONIBLES Y RECOMENDACIONES 🧠

Tabla de Modelos Gemma3:

ModeloTamañoUso RecomendadoVelocidad
gemma3:1b815 MBPruebas rápidas⚡⚡⚡⚡⚡
gemma3:4b3.3 GBUso general⚡⚡⚡⚡
gemma3:12b8.1 GBTareas complejas⚡⚡⚡
gemma3:27b17 GBMáxima calidad⚡⚡

💡 Consejo de Rendimiento:

Si tu computadora se pone lenta, cambia a un modelo más pequeño:

json
// Cambia de:
"model": "gemma3:4b"

// A:
"model": "gemma3:1b"

8. PRÓXIMOS PASOS 🚀

Qué puedes hacer ahora:

  1. Practicar con diferentes preguntas

  2. Crear una interfaz web simple que use esta API

  3. Integrar Ollama en tus propios programas

  4. Probar diferentes modelos para ver cuál te gusta más

Flujo de Aprendizaje:

text
Día 1: Aprender Postman básico
Día 2: Hacer 10 preguntas diferentes
Día 3: Crear un script Python que use la API
Día 4: Construir una app simple

📝 CUESTIONARIO DE REPASO

Pregunta 1:

¿Qué método HTTP usamos para enviar preguntas a Ollama?
a) GET
b) POST
c) DELETE
d) PUT

Respuesta correcta: b) POST - Usamos POST porque estamos enviando datos (nuestra pregunta) al servidor.


Pregunta 2:

¿Cuál es la URL correcta para comunicarse con Ollama localmente?
a) http://google.com/api
b) http://localhost:11434/api/generate
c) http://127.0.0.1:8080/ollama
d) https://ollama.com/api

Respuesta correcta: b) http://localhost:11434/api/generate - localhost significa "esta computadora" y 11434 es el puerto donde Ollama escucha.


Pregunta 3:

En el JSON, ¿cómo se llama correctamente el campo para escribir nuestra pregunta?
a) "question"
b) "pregnant" (error común)
c) "prompt"
d) "query"

Respuesta correcta: c) "prompt" - Este es el nombre correcto del campo. "pregnant" es un error de escritura común.


Pregunta 4:

Si recibes un error de conexión en Postman, ¿cuál es el PRIMER paso para solucionarlo?
a) Reiniciar la computadora
b) Verificar que Ollama esté ejecutándose
c) Reinstalar Postman
d) Cambiar de internet

Respuesta correcta: b) Primero verifica que Ollama esté corriendo en una terminal con ollama run gemma3:4b.


Pregunta 5:

¿Qué significa "stream": false en el JSON?
a) Que no queremos recibir respuesta
b) Que queremos la respuesta completa de una vez
c) Que queremos videos en la respuesta
d) Que estamos probando conexión

Respuesta correcta: b) "stream": false significa que queremos la respuesta completa en una sola vez, no en pedazos.


Pregunta 6:

Si tu computadora se pone muy lenta usando gemma3:4b, ¿qué puedes hacer?
a) Comprar una computadora nueva
b) Usar un modelo más pequeño como gemma3:1b
c) Dejar de usar Ollama
d) Solo usar texto muy corto

Respuesta correcta: b) Puedes cambiar a un modelo más pequeño como gemma3:1b que usa menos recursos.


🎉 ¡Felicidades!

Ahora sabes cómo comunicarte con Ollama usando Postman. Eres capaz de:

  • ✅ Instalar y usar Postman

  • ✅ Enviar preguntas a Ollama via API

  • ✅ Entender el formato JSON necesario

  • ✅ Solucionar problemas comunes

Recuerda: La práctica hace al maestro. Intenta diferentes tipos de preguntas y pronto podrás integrar Ollama en tus propios proyectos.

Comentarios

Entradas más populares de este blog

1-Instalación y Primeros Pasos con Ollama

3- Creando tu Primer Entorno Virtual Python con Flask