1-Instalación y Primeros Pasos con Ollama

https://docs.google.com/presentation/d/e/2PACX-1vSICqBtlni1cnRyRZIWjBnn6v--HblEpiWQlvzmpCNkdd8TZjnfwZ3qgzyXg655HMu51mtxOLGNueMp/pub?start=false&loop=false&delayms=3000

🎯 Tema del Tutorial: "Inteligencia Artificial Local con Ollama: Tu Primer Modelo de IA sin Internet"

Índice Visual

text
1. ¿QUÉ ES OLLAMA? 🤖
   │
2. INSTALACIÓN PASO A PASO 📥
   │
3. TU PRIMER MODELO DE IA 🧠
   │
4. CHATEANDO CON TU IA 💬
   │
5. RECURSOS Y PRÓXIMOS PASOS 🚀

1. ¿QUÉ ES OLLAMA? 🤖

Definición Simple:

Ollama es como una "mochila digital" que te permite llevar modelos de inteligencia artificial (como ChatGPT) en tu computadora, sin necesidad de internet.

Analogía:

Imagina que normalmente usas Netflix (necesitas internet para ver películas). Ollama es como tener un DVD player con tus películas favoritas, ¡siempre disponible sin conexión!

¿Para qué sirve?

  • Ejecutar modelos de IA localmente

  • Privacidad total (tus preguntas no salen de tu computadora)

  • Funciona sin internet

  • Totalmente gratuito


2. INSTALACIÓN PASO A PASO 📥

Esquema Visual del Proceso:

text
Navegador → Página oficial → Descarga → Instalador → ¡Listo!
    │           │           │          │
    └── Windows └── Mac     └── Linux └── Siguiente, Siguiente, Siguiente

Pasos Detallados:

Paso 1: Ve al sitio oficial

text
🔗 https://ollama.com

Paso 2: Descarga el instalador

  • Windows: Click en "Download for Windows"

  • Mac: Click en "Download for macOS"

  • Linux: Sigue las instrucciones para tu distribución

Paso 3: Instala Ollama

bash
Doble click en el instalador → Siguiente → Aceptar términos → Instalar

Paso 4: Verifica la instalación

  1. Abre la terminal (CMD en Windows, Terminal en Mac/Linux)

  2. Escribe: ollama

  3. Si aparece información de ayuda, ¡instalación exitosa!


3. TU PRIMER MODELO DE IA 🧠

¿Qué es un modelo?

Un modelo es como un "cerebro entrenado" que puede entender y generar texto. Ollama te permite instalar diferentes cerebros.

Tabla de Modelos Recomendados para Principiantes:

ModeloTamañoVelocidadUso Recomendado
Gemma:2B1.4 GB⚡⚡⚡⚡⚡Pruebas rápidas
Llama 3.2:3B2.0 GB⚡⚡⚡⚡Equilibrado
Phi-3-mini1.8 GB⚡⚡⚡⚡⚡Rápido y eficiente

¿Cómo instalar un modelo?

Comando mágico:

bash
ollama run nombre_del_modelo

Ejemplo para Gemma 2B:

bash
ollama run gemma:2b

Proceso visual:

text
Terminal: ollama run gemma:2b
         │
         ├── Descargando modelo...
         ├── Preparando...
         └── ¡Listo! >>> 

💡 Consejo para Principiantes:

Empieza con modelos pequeños (2-3 GB). Son más rápidos y suficientes para aprender.


4. CHATEANDO CON TU IA 💬

Una vez instalado el modelo, verás:

text
>>> 

¡Listo para chatear!

Ejemplos de Conversación:

Ejemplo 1: Presentación

text
Tú: Hola, ¿cómo te llamas?
IA: Soy un modelo de lenguaje de Google llamado Gemma. 
    ¿En qué puedo ayudarte hoy?

Ejemplo 2: Pregunta Simple

text
Tú: ¿Qué es la fotosíntesis?
IA: La fotosíntesis es el proceso por el cual las plantas...

Ejemplo 3: Crear contenido

text
Tú: Escribe un poema corto sobre el mar
IA: El mar susurra secretos...

⚠️ Limitaciones importantes:

El modelo NO sabe:

  • Noticias recientes (solo sabe hasta su fecha de entrenamiento)

  • Información personal tuya

  • Lo que pasa en internet en tiempo real

Es como hablar con un libro muy inteligente que fue escrito hace algún tiempo.


5. RECURSOS Y PRÓXIMOS PASOS 🚀

Comandos Útiles para Recordar:

bash
# Ver modelos instalados
ollama list

# Ejecutar un modelo específico
ollama run nombre_del_modelo

# Ver ayuda
ollama --help

Modelos para Explorar Después:

  • Llama 3.1:8B (8.1 GB) - Más potente

  • Mistral (4.1 GB) - Buen equilibrio

  • CodeLlama (3.8 GB) - Especializado en programación

Flujos de Trabajo Sugeridos:

text
Día 1: Instalar Ollama + Gemma 2B
Día 2: Practicar preguntas básicas
Día 3: Probar diferentes modelos
Día 4: Integrar con otras herramientas

📝 CUESTIONARIO DE REPASO

Pregunta 1:

¿Qué ventaja principal tiene usar Ollama frente a ChatGPT web?
a) Es más colorido
b) Funciona sin internet y mantiene privacidad
c) Tiene más emojis
d) Solo funciona en Windows

Respuesta correcta: b) Ollama funciona localmente sin necesidad de conexión a internet, lo que garantiza privacidad total.


Pregunta 2:

¿Qué comando usas para instalar y ejecutar el modelo Gemma de 2B?
a) ollama install gemma2b
b) ollama run gemma:2b
c) ollama start gemma-2b
d) python ollama gemma

Respuesta correcta: b) ollama run gemma:2b descarga (si no lo tienes) y ejecuta el modelo.


Pregunta 3:

Si tu modelo te dice que hoy es "martes 14 de mayo del 2004", ¿por qué sucede esto?
a) Tu computadora tiene virus
b) El modelo está confundido
c) Los modelos solo tienen información hasta su fecha de entrenamiento
d) Necesitas reiniciar Ollama

Respuesta correcta: c) Los modelos locales no se actualizan automáticamente y solo contienen información hasta cuando fueron entrenados.


Pregunta 4:

¿Cuál es un buen modelo PARA PRINCIPIANTES según el tutorial?
a) Un modelo de 400 GB
b) Cualquier modelo que encuentres
c) Modelos pequeños de 2-3 GB como Gemma:2B
d) Solo modelos pagados

Respuesta correcta: c) Los modelos pequeños (2-3 GB) son ideales para empezar porque son rápidos y ocupan poco espacio.


Pregunta 5:

¿Qué significa el símbolo >>> que aparece en la terminal?
a) Error en la instalación
b) El modelo se está actualizando
c) Ollama está listo para recibir tus preguntas
d) Necesitas presionar Enter 3 veces

Respuesta correcta: c) El símbolo >>> indica que el modelo está cargado y listo para conversar contigo.


🎉 ¡Felicidades!

Has completado tu primer tutorial de Ollama. Ahora tienes tu propia inteligencia artificial funcionando localmente. ¡Experimenta, haz preguntas y descubre todo lo que puedes hacer!

Recuerda: La práctica hace al maestro. Intenta diferentes preguntas, explora otros modelos y pronto serás un experto en IA local.

Comentarios

Entradas más populares de este blog

3- Creando tu Primer Entorno Virtual Python con Flask

2- Cómo Usar Ollama con Postman (APIs y Comunicación)