LLMs en tu PC: Inteligencia Artificial Generativa en forma local.
Overview
Este workshop introductorio propone una experiencia práctica con Modelos Grandes de Lenguaje (LLMs) locales utilizando dos herramientas básicas: 1) ollama, una plataforma ligera que permite descargar y ejecutar modelos de lenguaje directamente en una computadora personal, sin necesidad de conexión a Internet ni acceso a APIs externas; 2) ollamar, una librería para integrar R con Ollama y facilita el trabajo con estructuras de datos (por ejemplo, historiales de conversación/chat) que son estándar para diferentes LLMs.
A lo largo del encuentro, se guiará a les participantes en la instalación de Ollama, la carga de un modelo compatible (como LLaMA, Mistral u otros disponibles), y la ejecución de prompts estructurados para realizar tareas básicas de procesamiento de lenguaje natural (NLP). Se trabajará con un dataset de noticias en castellano, aplicando los modelos locales para identificar el tono de una noticia, generar resúmenes, etc.
El objetivo es brindar una primera aproximación técnica al uso de LLMs sin conexión, explorando tanto su potencial como sus limitaciones en comparación con modelos en la nube.
Instructor: Germán Rosati
Germán Rosati es sociólogo, Investigador Adjunto del CONICET y docente en la Escuela Interdisciplinaria de Altos Estudios Sociales de la UNSAM, donde coordina factor~data, laboratorio en Ciencias Sociales Computacionales. Ha participado en proyectos que utilizan LLMs para extracción de información en textos administrativos y periodísticos, clasificación automatizada y análisis de sesgos.
Good to know
Highlights
- 2 hours
- Online
Refund Policy
Location
Online event
Introducción
¿por qué usar LLMs de forma local? Ventajas respecto al uso de APIs pagas
Presentación de ollama
instalación, descarga de LLMs, montaje del servidor local
Paquete de R ollama
Presentación del paquete de R ollamar: principales funciones
Frequently asked questions
Organized by
Followers
--
Events
--
Hosting
--