📄️ Intro Ollama
Ollama: plataforma local para ejecutar modelos de IA fácilmente, ejecución de LLMs en contenedores, instalación simple, integración con Docker, modelos Meta Llama2 y Google Gemma, gestión de parámetros de memoria, interfaz web con OpenWebUI.
📄️ Ollama en K8s
Despliegue de Ollama en Kubernetes: configuración de clusters con GPU, uso de Taints y Tolerations, instalación con Helm Chart, integración con Nginx Ingress, aprovisionamiento de modelos LLM en entornos containerizados, OpenWebUI en Kubernetes.