Aprendizaje Zero-Shot / Few-Shot

También conocido como: Zero-Shot, Few-Shot, In-Context Learning

Capacidad de los LLMs para realizar tareas nuevas sin ejemplos (zero-shot) o con muy pocos ejemplos (few-shot) en el prompt.

El Aprendizaje Zero-Shot y Few-Shot son capacidades de los modelos de lenguaje modernos para realizar tareas nuevas sin entrenamiento adicional específico.

En Zero-Shot, el modelo resuelve una tarea solo con una instrucción textual, sin ver ningún ejemplo previo. Por ejemplo, clasificar verbatims en categorías temáticas con solo describir las categorías.

En Few-Shot, el modelo recibe 2-10 ejemplos del input-output deseado antes de la tarea principal, lo que mejora significativamente la precisión. Por ejemplo, mostrarle 5 verbatims ya codificados antes de pedirle que codifique 500 más.

En research, estas capacidades son tremendamente útiles porque permiten aplicar los modelos a taxonomías y marcos de codificación personalizados de cada cliente sin necesidad de re-entrenar el modelo. La diferencia entre zero-shot y few-shot puede ser la diferencia entre resultados mediocres y resultados de calidad profesional.

Atlantia usa sistemáticamente few-shot prompting en sus procesos de codificación automática de open-ends.

Ver solución relacionada