Today we’re highlighting Semantic Kernel content created in Spanish here: 💥¡Crea un ChatGPT en tu equipo sin la nube! Con Ollama, Microsoft PHI-3 y Semantic Kernel💥 (youtube.com)
Estamos destacando a Rodrigo Ezequiel Liberoff Vazquez, quien es Arquitecto Senior de Software Cloud en Encamina y ha creado videos de Semantic Kernel en español enfocados en Modelos de Lenguaje Pequeños (SLMs). Aquí te dejamos uno de sus videos: 💥¡Crea un ChatGPT en tu equipo sin la nube! Con Ollama, Microsoft PHI-3 y Semantic Kernel💥 (youtube.com)
¡Están llegando los SLM! Y con ellos, la posibilidad de utilizar modelos de IA Generativa en nuestros equipos sin tener que depender de servicios en la nube.
En este vídeo te quiero hablar de Ollama, un un proyecto de código abierto (open-source) que nos sirve como una plataforma poderosa y fácil de usar para ejecutar SLM (Small Language Models) en nuestras máquinas locales, sin depender de servicios en la nube como OpenAI.
Usando Ollama podremos crear aplicaciones de forma sencilla sin pasar por las complejidades de integrarnos con diferentes SML y el deseo de una experiencia de IA accesible y personalizable.
De esta forma, podemos usar modelos como LLama2 o LLama3 de Meta, Falcon7b o los nuevos modelos Phi-3 de IA generativa de #Microsoft.
De hecho, en esta ocasión te mostraré como con Ollama podemos ejecutar los modelos Phi-3 Mini y Phi-3 Medium en local, e incluso usarlos en una simple aplicación RAG (Retrieval-Augmented Generation) como lo harías con los grandes modelos tipo GPT-4o.
Esta aplicación la implementaremos con Semantic Kernel, mi librería de referencia en cuanto a integraciones con modelos de Inteligencia Artificial Generativa se refiere, utilizando una base de datos vectorial en memoria y un mecanismo para generar embeddings sin depender de servicios en la nube (como los de OpenAI).
¡Ah! Y recuerda que tienes el código en mi GitHub 😎 💻 https://github.com/rliberoff/CODERTEC…
Gracias Rodrigo Liberoff Vázquez!
0 comments
Be the first to start the discussion.