Pruebas de Usabilidad - lhiguitab/Vision_Gerencial_360 GitHub Wiki
Pruebas de Usabilidad – Visión Gerencial 360
Este documento resume el procedimiento, los instrumentos, la ejecución y los principales resultados de las pruebas de usabilidad realizadas sobre el MVP de Visión Gerencial 360.
Referencias relacionadas:
- Entregable 1 (contexto y requisitos): https://github.com/lhiguitab/Vision_Gerencial_360/wiki/Entregable-1
- Entregable 2 (negocio y plan): https://github.com/lhiguitab/Vision_Gerencial_360/wiki/Entregable-2
- Entregable 3 (estrategia de pruebas): https://github.com/lhiguitab/Vision_Gerencial_360/wiki/Entregable-3
- Casos funcionales ejecutados: ver
entregable_final.md(HU01–HU20)
1. Objetivo y alcance
- Objetivo: Evaluar la facilidad de uso, la comprensión de KPIs y la eficiencia del flujo de trabajo de evaluación (ver KPIs → evaluar → retroalimentar → exportar) para los roles de líder y administrativo.
- Alcance: Funcionalidades del MVP con datos de ejemplo: autenticación, visualización de negociadores y pendientes, evaluación del ser, indicadores históricos, generación de sugerencias con IA, exportación PDF/Excel y dashboard con filtros.
2. Participantes
- 5 usuarios internos: 3 líderes de negociadores, 1 administrativo, 1 gerente de estrategia.
- Perfil: usuarios con conocimiento del proceso de evaluación y uso básico de herramientas web.
- Contexto: sesiones presenciales/virtuales moderadas de 30–40 minutos por participante.
3. Procedimiento realizado (paso a paso)
-
Preparación
- Selección de HU representativas (HU01–HU13) y definición de escenarios.
- Habilitación de usuarios demo con negociadores asignados y KPIs precargados.
- Instrumentos: guion, lista de verificación por tarea, cronómetro, encuesta Likert 1–5 por tarea, cuestionario SUS.
-
Ejecución de sesiones moderadas (30–40 min)
- Introducción y consentimiento.
- Resolución de tareas en orden (ver sección 4), observando tiempos, errores y dudas.
- Se evita tutoría directa; solo se ofrecen aclaraciones mínimas cuando es necesario.
-
Cierre y recolección
- Encuesta de satisfacción por tarea (Likert) y cuestionario SUS.
- Registro de comentarios cualitativos y puntos de fricción.
- Consolidación de métricas y hallazgos.
4. Tareas evaluadas (escenarios)
- Iniciar sesión como líder (HU01)
- Ver negociadores asignados y pendientes (HU02–HU03)
- Iniciar evaluación y diligenciar evaluación del ser (HU04–HU07)
- Revisar indicadores históricos y actuales (HU05–HU06)
- Generar sugerencias automáticas con IA y descargar documento (HU09)
- Exportar evaluación final en PDF (HU10)
- Exportar resultados semestrales a Excel (HU13)
- Visualizar promedios generales y usar filtros (HU11–HU12)
5. Métricas recolectadas
- Éxito por tarea (completada, ayuda requerida, no completada)
- Tiempo por tarea (inicio–fin, mediana y variabilidad)
- Satisfacción por tarea (Likert 1–5)
- System Usability Scale (SUS) al final de la sesión
6. Resultados obtenidos
- Tasa de éxito: 96% de tareas completadas sin intervención.
- Tiempo mediano por tarea: 1:12 min (p25: 0:50, p75: 1:40). Tareas con mayor variabilidad: exportación Excel (T7) y aplicación de filtros (T8) cuando no había datos filtrados.
- Satisfacción promedio: 4.4/5. Comentarios positivos sobre claridad de KPIs y rapidez para generar retroalimentación.
- SUS: 83 (rango Bueno–Excelente), percibida como fácil de aprender y consistente.
7. Hallazgos y severidad
- Filtros sin resultados (Severidad Media): falta de mensajes de estado vacío y CTA para restablecer filtros.
- Consistencia de etiquetas de descarga (Severidad Baja): unificar “Exportar a Excel/PDF” en todas las vistas.
- Tooltips para KPIs (Severidad Baja): agregar ayudas para términos como conversión/ausentismo.
- Confirmaciones de acción (Severidad Baja): mantener toasts/alertas tras guardar evaluación y exportaciones.
8. Acciones y backlog
- Ajustar copy y tooltips en vistas de indicadores (rápido).
- Unificar etiquetas de exportación (PDF/Excel) en todos los componentes.
- Agregar estados vacíos con CTA para filtros.
- Registrar tareas en el tablero del proyecto: https://github.com/users/lhiguitab/projects/6
9. Opinión del equipo y conclusiones
- El flujo principal es claro para líderes y administrativos: localizar negociadores, revisar KPIs, evaluar, retroalimentar y exportar.
- La IA aporta valor práctico en la redacción de sugerencias; se recomienda afinar plantillas y criterios visibles para aumentar la transparencia.
- Las oportunidades identificadas son de UX/UI puntual y no bloquean el uso del MVP; su resolución mejorará la eficiencia y percepción de calidad.
10. Anexos
- Guion y lista de verificación de tareas.
- Plantilla de encuesta SUS y cuestionario post-tarea.
- Notas de observación y tiempos por participante.
- Evidencias de funcionalidades (capturas): ver
entregable_final.md(HU01–HU20).