052_personas_of_thought - IUGO-Studio/tech-ia GitHub Wiki

Resumen general:

El video presenta una técnica llamada "Personas of Thought" (Personas de Pensamiento), una variante de "Chain of Thought", que busca mejorar la diversidad y calidad de las respuestas de un modelo de lenguaje (LLM). En lugar de simplemente pedir una respuesta directa, se le pide al LLM que primero identifique varias "personas" (expertos o personas comunes) relevantes para la pregunta, luego responda desde la perspectiva de cada persona, y finalmente combine las respuestas en una sola. Se compara el rendimiento de esta técnica con un prompt "ingenuo" (sin personas) y un prompt con "expertos", utilizando un LLM como "juez" para evaluar la calidad de las respuestas.

Conceptos clave:

  • Personas of Thought: Una técnica de prompting que implica generar respuestas desde múltiples perspectivas (personas) para mejorar la diversidad y calidad de las respuestas.
  • Persona: Un personaje o perfil ficticio con características y perspectivas específicas.
  • Experto: Una persona con conocimientos y experiencia especializados en un campo determinado.
  • Prompt ingenuo (Naive Prompt): Un prompt directo que no utiliza ninguna técnica especial de prompting.
  • LLM Juez (Judge): Un LLM utilizado para evaluar la calidad de las respuestas generadas por otros LLMs.
  • Chain of Thought: Técnica donde el LLM explica el razonamiento.
  • Prompt Engineering: El arte de crear prompts.
  • LLM: Modelo de lenguaje extenso.

Ejemplos prácticos:

  1. Pregunta sobre un nombre de producto ("OmniFit" para un zapato):

    • Prompt ingenuo: Genera una respuesta típica de LLM, generalmente positiva pero poco útil.
    • Prompt de expertos: Genera respuestas desde la perspectiva de expertos relevantes (diseñador de Nike, ex comisionado de la FDA, profesor de Harvard, etc.).
    • Prompt de personas: Genera respuestas desde la perspectiva de personas comunes con diferentes perfiles (padre ocupado, atleta, persona consciente de la moda, etc.).
    • Se comparan las respuestas y se evalúan utilizando un LLM como juez.
  2. Múltiples preguntas:

    • Se repite el proceso con varias preguntas diferentes (ej: "¿Cuál es la mejor manera de aprender una nueva habilidad?").
    • Se evalúa el rendimiento general de cada tipo de prompt (ingenuo, expertos, personas) en todas las preguntas.

Consejos y buenas prácticas:

  • Utiliza "Personas of Thought" para obtener respuestas más diversas y perspicaces: Esta técnica puede ayudar a superar las limitaciones de las respuestas genéricas de los LLMs.
  • Experimenta con diferentes tipos de personas: Prueba con expertos, personas comunes con diferentes perfiles, o incluso personajes históricos o ficticios.
  • Combina las respuestas de las diferentes personas: Puedes pedir al LLM que combine las respuestas en una sola, o puedes analizarlas por separado para obtener una comprensión más completa.
  • Utiliza un LLM como juez para evaluar las respuestas: Esto te permite automatizar el proceso de evaluación y comparar diferentes técnicas de prompting.
  • Adapta la técnica a tus necesidades: "Personas of Thought" es un concepto flexible que se puede adaptar a diferentes tareas y contextos.
  • "Sabiduría de las multitudes": Se menciona que a veces la técnica de las personas, puede superar a la de los expertos.

Dudas o preguntas:

  • ¿Cómo se puede adaptar esta técnica para tareas que no implican responder preguntas, como la generación de texto creativo? Investigación: Se podrían definir personas con diferentes estilos de escritura o perspectivas creativas, y pedir al LLM que genere texto desde cada perspectiva.

  • ¿Cómo se puede mejorar la selección de personas para que sean más relevantes para la tarea específica? Investigación: Se podría proporcionar al LLM más contexto sobre la tarea, o utilizar una base de datos de personas predefinidas.

  • ¿Cómo se puede evitar que el LLM genere respuestas sesgadas o estereotipadas basadas en las personas definidas? Investigación: Se pueden utilizar técnicas como el "prompt engineering" cuidadoso, la revisión manual de las respuestas, o el ajuste fino (fine-tuning) del LLM con datos que promuevan la diversidad y la equidad.

  • ¿Se puede combinar Personas of Thought con Chain of Thought? Investigación: Sí, es una combinación poderosa. De hecho, el prompt del video ya incluye elementos de Chain of Thought:

    • Estructura explícita: El prompt le pide al LLM que siga una estructura específica:
      1. Nombrar expertos/personas.
      2. Responder desde la perspectiva de cada uno.
      3. Combinar las respuestas.
    • Razonamiento intermedio: Al responder desde cada perspectiva, el LLM está, en efecto, mostrando un razonamiento intermedio. Está explicando por qué cada experto/persona daría esa respuesta.

    Se podría reforzar aún más el aspecto de Chain of Thought pidiéndole al LLM que sea más explícito en su razonamiento. Por ejemplo:

    • "Para cada experto/persona, explica detalladamente cómo su experiencia y conocimientos influyen en su respuesta."
    • "Al combinar las respuestas, justifica cómo llegaste a la conclusión final, referenciando las opiniones de los expertos/personas."
  • ¿Por qué la técnica de personas a veces funciona mejor que la de expertos? Investigación: Hay varias posibles razones:

    • Diversidad de perspectivas: Las personas comunes pueden tener experiencias y puntos de vista más variados que los expertos, que a veces pueden estar sesgados por su formación o especialización.
    • Sabiduría de las multitudes: La agregación de opiniones de muchas personas comunes puede llevar a una conclusión más robusta y menos sesgada que la opinión de un solo experto (o incluso de varios expertos del mismo campo).
    • Creatividad: Las personas comunes pueden tener ideas más creativas o inesperadas que los expertos, que pueden estar más limitados por las convenciones de su campo.
    • Sesgo de los expertos: Los expertos a veces están demasiado enfocados en su propia área de especialización y pueden pasar por alto aspectos importantes que son obvios para personas con diferentes perspectivas. El ejemplo del video, donde los expertos tienden a promocionar sus propias teorías, es un buen ejemplo de esto.
  • ¿Se puede adaptar esta técnica para la evaluación? Investigación: Sí. La técnica se adapta muy bien para problemas de evaluación, y de hecho, el video ya la utiliza para este propósito. El "LLM juez" es un ejemplo de cómo se puede usar un LLM para evaluar las respuestas de otros LLMs.

⚠️ **GitHub.com Fallback** ⚠️