052_personas_of_thought - IUGO-Studio/tech-ia GitHub Wiki
Resumen general:
El video presenta una técnica llamada "Personas of Thought" (Personas de Pensamiento), una variante de "Chain of Thought", que busca mejorar la diversidad y calidad de las respuestas de un modelo de lenguaje (LLM). En lugar de simplemente pedir una respuesta directa, se le pide al LLM que primero identifique varias "personas" (expertos o personas comunes) relevantes para la pregunta, luego responda desde la perspectiva de cada persona, y finalmente combine las respuestas en una sola. Se compara el rendimiento de esta técnica con un prompt "ingenuo" (sin personas) y un prompt con "expertos", utilizando un LLM como "juez" para evaluar la calidad de las respuestas.
Conceptos clave:
- Personas of Thought: Una técnica de prompting que implica generar respuestas desde múltiples perspectivas (personas) para mejorar la diversidad y calidad de las respuestas.
- Persona: Un personaje o perfil ficticio con características y perspectivas específicas.
- Experto: Una persona con conocimientos y experiencia especializados en un campo determinado.
- Prompt ingenuo (Naive Prompt): Un prompt directo que no utiliza ninguna técnica especial de prompting.
- LLM Juez (Judge): Un LLM utilizado para evaluar la calidad de las respuestas generadas por otros LLMs.
- Chain of Thought: Técnica donde el LLM explica el razonamiento.
- Prompt Engineering: El arte de crear prompts.
- LLM: Modelo de lenguaje extenso.
Ejemplos prácticos:
-
Pregunta sobre un nombre de producto ("OmniFit" para un zapato):
- Prompt ingenuo: Genera una respuesta típica de LLM, generalmente positiva pero poco útil.
- Prompt de expertos: Genera respuestas desde la perspectiva de expertos relevantes (diseñador de Nike, ex comisionado de la FDA, profesor de Harvard, etc.).
- Prompt de personas: Genera respuestas desde la perspectiva de personas comunes con diferentes perfiles (padre ocupado, atleta, persona consciente de la moda, etc.).
- Se comparan las respuestas y se evalúan utilizando un LLM como juez.
-
Múltiples preguntas:
- Se repite el proceso con varias preguntas diferentes (ej: "¿Cuál es la mejor manera de aprender una nueva habilidad?").
- Se evalúa el rendimiento general de cada tipo de prompt (ingenuo, expertos, personas) en todas las preguntas.
Consejos y buenas prácticas:
- Utiliza "Personas of Thought" para obtener respuestas más diversas y perspicaces: Esta técnica puede ayudar a superar las limitaciones de las respuestas genéricas de los LLMs.
- Experimenta con diferentes tipos de personas: Prueba con expertos, personas comunes con diferentes perfiles, o incluso personajes históricos o ficticios.
- Combina las respuestas de las diferentes personas: Puedes pedir al LLM que combine las respuestas en una sola, o puedes analizarlas por separado para obtener una comprensión más completa.
- Utiliza un LLM como juez para evaluar las respuestas: Esto te permite automatizar el proceso de evaluación y comparar diferentes técnicas de prompting.
- Adapta la técnica a tus necesidades: "Personas of Thought" es un concepto flexible que se puede adaptar a diferentes tareas y contextos.
- "Sabiduría de las multitudes": Se menciona que a veces la técnica de las personas, puede superar a la de los expertos.
Dudas o preguntas:
-
¿Cómo se puede adaptar esta técnica para tareas que no implican responder preguntas, como la generación de texto creativo? Investigación: Se podrían definir personas con diferentes estilos de escritura o perspectivas creativas, y pedir al LLM que genere texto desde cada perspectiva.
-
¿Cómo se puede mejorar la selección de personas para que sean más relevantes para la tarea específica? Investigación: Se podría proporcionar al LLM más contexto sobre la tarea, o utilizar una base de datos de personas predefinidas.
-
¿Cómo se puede evitar que el LLM genere respuestas sesgadas o estereotipadas basadas en las personas definidas? Investigación: Se pueden utilizar técnicas como el "prompt engineering" cuidadoso, la revisión manual de las respuestas, o el ajuste fino (fine-tuning) del LLM con datos que promuevan la diversidad y la equidad.
-
¿Se puede combinar Personas of Thought con Chain of Thought? Investigación: Sí, es una combinación poderosa. De hecho, el prompt del video ya incluye elementos de Chain of Thought:
-
Estructura explícita: El prompt le pide al LLM que siga una estructura específica:
- Nombrar expertos/personas.
- Responder desde la perspectiva de cada uno.
- Combinar las respuestas.
- Razonamiento intermedio: Al responder desde cada perspectiva, el LLM está, en efecto, mostrando un razonamiento intermedio. Está explicando por qué cada experto/persona daría esa respuesta.
Se podría reforzar aún más el aspecto de Chain of Thought pidiéndole al LLM que sea más explícito en su razonamiento. Por ejemplo:
- "Para cada experto/persona, explica detalladamente cómo su experiencia y conocimientos influyen en su respuesta."
- "Al combinar las respuestas, justifica cómo llegaste a la conclusión final, referenciando las opiniones de los expertos/personas."
-
Estructura explícita: El prompt le pide al LLM que siga una estructura específica:
-
¿Por qué la técnica de personas a veces funciona mejor que la de expertos? Investigación: Hay varias posibles razones:
- Diversidad de perspectivas: Las personas comunes pueden tener experiencias y puntos de vista más variados que los expertos, que a veces pueden estar sesgados por su formación o especialización.
- Sabiduría de las multitudes: La agregación de opiniones de muchas personas comunes puede llevar a una conclusión más robusta y menos sesgada que la opinión de un solo experto (o incluso de varios expertos del mismo campo).
- Creatividad: Las personas comunes pueden tener ideas más creativas o inesperadas que los expertos, que pueden estar más limitados por las convenciones de su campo.
- Sesgo de los expertos: Los expertos a veces están demasiado enfocados en su propia área de especialización y pueden pasar por alto aspectos importantes que son obvios para personas con diferentes perspectivas. El ejemplo del video, donde los expertos tienden a promocionar sus propias teorías, es un buen ejemplo de esto.
-
¿Se puede adaptar esta técnica para la evaluación? Investigación: Sí. La técnica se adapta muy bien para problemas de evaluación, y de hecho, el video ya la utiliza para este propósito. El "LLM juez" es un ejemplo de cómo se puede usar un LLM para evaluar las respuestas de otros LLMs.