026_ask_for_context - IUGO-Studio/tech-ia GitHub Wiki
Resumen general:
El video explora la técnica de "Asking the Model For More Context" (Pedir al Modelo Más Contexto), que consiste en solicitar a un modelo de lenguaje (LLM) información adicional o aclaraciones sobre sus propias respuestas o sobre la tarea en sí. Se presentan dos escenarios principales: 1) pedir más detalles sobre una respuesta generada por el modelo, y 2) instruir al modelo para que solicite más información si considera que no tiene suficiente para completar la tarea de manera efectiva.
Conceptos clave:
- Asking the Model For More Context (Pedir al Modelo Más Contexto): Una técnica de prompting que implica solicitar al modelo de lenguaje información adicional, aclaraciones o explicaciones sobre sus propias respuestas o sobre la tarea.
- Contexto (Context): La información relevante para una tarea o pregunta.
- Out Clause (Cláusula de escape): Una instrucción en el prompt que permite al modelo solicitar más información si considera que no tiene suficiente para completar la tarea de manera satisfactoria.
- Prompt Engineering: El arte de diseñar prompts.
- LLM: Modelo de lenguaje extenso.
- Prompt vago: Prompt que carece de detalles.
- Prompt detallado: Prompt con muchos detalles.
Ejemplos prácticos:
-
Pedir más detalles sobre una respuesta generada:
- Prompt inicial: "Goals: I'm looking to improve my fitness, health, and wealth. Provide a very detailed, numerical, hierarchical outline for the above goals."
- Respuesta: El modelo genera un esquema con información sobre fitness, salud y riqueza, pero algunas partes son vagas.
- Prompt de seguimiento: "Could you please provide more context about ways that I can do this?" (refiriéndose a un punto específico del esquema).
-
Respuesta: El modelo proporciona más detalles sobre ese punto específico.
- Se puede simplificar la respuesta: "Can you explain this more simply?"
- Se puede ahondar en las razones: "¿Why should we reduce sugar intake?"
-
Instruir al modelo para que solicite más información:
- Prompt: "I'm looking to ask for a promotion at my job, use the following information to generate an effective and engaging letter to my boss. Before writing the letter, if you don't have all the information to do the task, avoid generating an effective and engaging letter to my boss and ask for more information."
- Respuesta: El modelo identifica que no tiene suficiente información y solicita más detalles antes de generar la carta.
- Se le proporciona la información faltante al modelo.
- El modelo genera la carta.
Consejos y buenas prácticas:
- Utiliza "Asking the Model For More Context" cuando la respuesta inicial del modelo sea vaga o incompleta: Esto te permite obtener más detalles y aclaraciones.
- Sé específico en tu solicitud de contexto: Indica claramente qué información adicional necesitas.
- Utiliza una "out clause" para evitar que el modelo genere respuestas de baja calidad: Instruye al modelo para que solicite más información si no tiene suficiente para completar la tarea de manera efectiva.
- Adapta la técnica a tus necesidades: Puedes pedir más contexto sobre diferentes aspectos de la respuesta o de la tarea, según lo que necesites.
-
"Out Clause" como mecanismo de seguridad: La out clause ("cláusula de escape") es importante porque:
- Evita respuestas incorrectas o de baja calidad: Si el LLM no tiene suficiente información, es preferible que lo admita y pida más datos, en lugar de inventar una respuesta o generar algo irrelevante.
- Mejora la confiabilidad: Al darle al LLM la opción de pedir más información, se aumenta la confianza en que la respuesta final (cuando se genere) será más precisa y relevante.
- Permite un diálogo: Convierte la interacción en un diálogo (o conversación) en lugar de un intercambio unidireccional de pregunta-respuesta.
Dudas o preguntas:
-
¿Cómo se puede combinar "Asking the Model For More Context" con otras técnicas de prompting, como el "Chain of Thought" o el "Few-Shot Learning"? Investigación: Se podría pedir al modelo que explique su razonamiento al solicitar más contexto ("Chain of Thought"), o se podrían proporcionar ejemplos de cómo solicitar más contexto en diferentes situaciones ("Few-Shot Learning").
-
¿Cómo se puede automatizar el proceso de proporcionar más contexto al modelo? Investigación: Se podría utilizar un sistema que detecte automáticamente cuándo el modelo necesita más información y la proporcione desde una base de datos o una fuente externa.
-
¿Cuáles son las limitaciones de "Asking the Model For More Context"? Investigación: El modelo puede no siempre saber qué información adicional necesita, o puede solicitar información que no está disponible. Además, esta técnica puede requerir múltiples interacciones con el modelo, lo que puede aumentar el tiempo y el costo.
-
¿En qué se diferencia de Least to Most? Aunque ambas técnicas buscan mejorar la calidad de la respuesta del LLM, lo hacen de formas diferentes:
-
Least to Most:
- Se planifica la interacción de antemano, dividiendo la tarea en pasos incrementales.
- El usuario controla el flujo de información, proporcionando progresivamente más detalles al LLM.
- Es una estrategia proactiva.
-
Asking the Model for More Context:
- Se reacciona a la respuesta del LLM o a su falta de confianza.
- El LLM solicita información adicional cuando la necesita.
- Es una estrategia reactiva (aunque la out clause es una forma de anticiparse a posibles problemas).
En Least to Most, el usuario sabe de antemano qué información adicional se necesitará. En Asking the Model for More Context, el LLM identifica qué información le falta.
-