LLMs en tu PC: Inteligencia Artificial Generativa en forma local.

LLMs en tu PC: Inteligencia Artificial Generativa en forma local.

By LatinR
Online event

Overview

Workshop práctico sobre uso de LLMs locales con Ollama y ollamar: instalación, uso en R y análisis de textos sin conexión.

Este workshop introductorio propone una experiencia práctica con Modelos Grandes de Lenguaje (LLMs) locales utilizando dos herramientas básicas: 1) ollama, una plataforma ligera que permite descargar y ejecutar modelos de lenguaje directamente en una computadora personal, sin necesidad de conexión a Internet ni acceso a APIs externas; 2) ollamar, una librería para integrar R con Ollama y facilita el trabajo con estructuras de datos (por ejemplo, historiales de conversación/chat) que son estándar para diferentes LLMs.

A lo largo del encuentro, se guiará a les participantes en la instalación de Ollama, la carga de un modelo compatible (como LLaMA, Mistral u otros disponibles), y la ejecución de prompts estructurados para realizar tareas básicas de procesamiento de lenguaje natural (NLP). Se trabajará con un dataset de noticias en castellano, aplicando los modelos locales para identificar el tono de una noticia, generar resúmenes, etc.

El objetivo es brindar una primera aproximación técnica al uso de LLMs sin conexión, explorando tanto su potencial como sus limitaciones en comparación con modelos en la nube.

Instructor: Germán Rosati


Germán Rosati es sociólogo, Investigador Adjunto del CONICET y docente en la Escuela Interdisciplinaria de Altos Estudios Sociales de la UNSAM, donde coordina factor~data, laboratorio en Ciencias Sociales Computacionales. Ha participado en proyectos que utilizan LLMs para extracción de información en textos administrativos y periodísticos, clasificación automatizada y análisis de sesgos.

Category: Science & Tech, High Tech

Good to know

Highlights

  • 2 hours
  • Online

Refund Policy

Refunds up to 7 days before event

Location

Online event

Agenda
10:00 AM - 10:10 AM

Introducción

German Rosati

¿por qué usar LLMs de forma local? Ventajas respecto al uso de APIs pagas

10:10 AM - 10:20 AM

Presentación de ollama

German Rosati

instalación, descarga de LLMs, montaje del servidor local

10:20 AM - 10:40 AM

Paquete de R ollama

German Rosati

Presentación del paquete de R ollamar: principales funciones

Frequently asked questions

Organized by

LatinR

Followers

--

Events

--

Hosting

--

$5 – $15
Dec 1 · 5:00 AM PST