Pruebas de Usabilidad - lhiguitab/Vision_Gerencial_360 GitHub Wiki

Pruebas de Usabilidad – Visión Gerencial 360

Este documento resume el procedimiento, los instrumentos, la ejecución y los principales resultados de las pruebas de usabilidad realizadas sobre el MVP de Visión Gerencial 360.

Referencias relacionadas:

1. Objetivo y alcance

  • Objetivo: Evaluar la facilidad de uso, la comprensión de KPIs y la eficiencia del flujo de trabajo de evaluación (ver KPIs → evaluar → retroalimentar → exportar) para los roles de líder y administrativo.
  • Alcance: Funcionalidades del MVP con datos de ejemplo: autenticación, visualización de negociadores y pendientes, evaluación del ser, indicadores históricos, generación de sugerencias con IA, exportación PDF/Excel y dashboard con filtros.

2. Participantes

  • 5 usuarios internos: 3 líderes de negociadores, 1 administrativo, 1 gerente de estrategia.
  • Perfil: usuarios con conocimiento del proceso de evaluación y uso básico de herramientas web.
  • Contexto: sesiones presenciales/virtuales moderadas de 30–40 minutos por participante.

3. Procedimiento realizado (paso a paso)

  1. Preparación

    • Selección de HU representativas (HU01–HU13) y definición de escenarios.
    • Habilitación de usuarios demo con negociadores asignados y KPIs precargados.
    • Instrumentos: guion, lista de verificación por tarea, cronómetro, encuesta Likert 1–5 por tarea, cuestionario SUS.
  2. Ejecución de sesiones moderadas (30–40 min)

    • Introducción y consentimiento.
    • Resolución de tareas en orden (ver sección 4), observando tiempos, errores y dudas.
    • Se evita tutoría directa; solo se ofrecen aclaraciones mínimas cuando es necesario.
  3. Cierre y recolección

    • Encuesta de satisfacción por tarea (Likert) y cuestionario SUS.
    • Registro de comentarios cualitativos y puntos de fricción.
    • Consolidación de métricas y hallazgos.

4. Tareas evaluadas (escenarios)

  1. Iniciar sesión como líder (HU01)
  2. Ver negociadores asignados y pendientes (HU02–HU03)
  3. Iniciar evaluación y diligenciar evaluación del ser (HU04–HU07)
  4. Revisar indicadores históricos y actuales (HU05–HU06)
  5. Generar sugerencias automáticas con IA y descargar documento (HU09)
  6. Exportar evaluación final en PDF (HU10)
  7. Exportar resultados semestrales a Excel (HU13)
  8. Visualizar promedios generales y usar filtros (HU11–HU12)

5. Métricas recolectadas

  • Éxito por tarea (completada, ayuda requerida, no completada)
  • Tiempo por tarea (inicio–fin, mediana y variabilidad)
  • Satisfacción por tarea (Likert 1–5)
  • System Usability Scale (SUS) al final de la sesión

6. Resultados obtenidos

  • Tasa de éxito: 96% de tareas completadas sin intervención.
  • Tiempo mediano por tarea: 1:12 min (p25: 0:50, p75: 1:40). Tareas con mayor variabilidad: exportación Excel (T7) y aplicación de filtros (T8) cuando no había datos filtrados.
  • Satisfacción promedio: 4.4/5. Comentarios positivos sobre claridad de KPIs y rapidez para generar retroalimentación.
  • SUS: 83 (rango Bueno–Excelente), percibida como fácil de aprender y consistente.

7. Hallazgos y severidad

  • Filtros sin resultados (Severidad Media): falta de mensajes de estado vacío y CTA para restablecer filtros.
  • Consistencia de etiquetas de descarga (Severidad Baja): unificar “Exportar a Excel/PDF” en todas las vistas.
  • Tooltips para KPIs (Severidad Baja): agregar ayudas para términos como conversión/ausentismo.
  • Confirmaciones de acción (Severidad Baja): mantener toasts/alertas tras guardar evaluación y exportaciones.

8. Acciones y backlog

  • Ajustar copy y tooltips en vistas de indicadores (rápido).
  • Unificar etiquetas de exportación (PDF/Excel) en todos los componentes.
  • Agregar estados vacíos con CTA para filtros.
  • Registrar tareas en el tablero del proyecto: https://github.com/users/lhiguitab/projects/6

9. Opinión del equipo y conclusiones

  • El flujo principal es claro para líderes y administrativos: localizar negociadores, revisar KPIs, evaluar, retroalimentar y exportar.
  • La IA aporta valor práctico en la redacción de sugerencias; se recomienda afinar plantillas y criterios visibles para aumentar la transparencia.
  • Las oportunidades identificadas son de UX/UI puntual y no bloquean el uso del MVP; su resolución mejorará la eficiencia y percepción de calidad.

10. Anexos

  • Guion y lista de verificación de tareas.
  • Plantilla de encuesta SUS y cuestionario post-tarea.
  • Notas de observación y tiempos por participante.
  • Evidencias de funcionalidades (capturas): ver entregable_final.md (HU01–HU20).