Entregable final - lhiguitab/Vision_Gerencial_360 GitHub Wiki
Pruebas Funcionales Manuales
HU01: Inicio de sesión seguro para líderes
- Debe permitir iniciar sesión solo con credenciales correctas.
- Si las credenciales son inválidas, debe mostrar un mensaje de error claro.
HU03: Evaluaciones pendientes negociadores
- Verificar conteo de evaluaciones pendientes
- Validar mensaje cuando no hay pendientes
HU04: Iniciar evaluación
- Verificar opción "Iniciar evaluación" disponible para lideres con sus negociadores asignados.
- Validar que se carga el formulario de evaluación.
- Evitar iniciar nueva si ya existe en curso.
HU05: Indicadores negociadores
- Verificar visualización de indicadores actuales.
- Validar gráfico de tendencias históricas.
HU06: Última evaluación
- Verificar visualización de la última evaluación.
- Validar mensaje cuando no hay evaluaciones previas.
HU07: Evaluación del ser
- Verificar que cada pregunta pueda calificarse de 1 a 5.
- Validar que no se pueda enviar sin responder todas las preguntas
- Validar confirmación al guardar evaluación
HU08: Cálculo automático de porcentaje de desempeño
- Validar si el sistema calcula el porcentaje total.
- Verificar si el resultado se muestra en pantalla de manera clara y visual.
- El porcentaje debe almacenarse junto con la evaluación en el histórico.
HU09: Generación de sugerencias automáticas con IA
- Si el porcentaje es alto, debe sugerir felicitaciones; si es bajo, compromisos.
- Las sugerencias deben generarse automáticamente mediante IA.
- Debe permitir descargar el documento con la sugerencia.
HU10: Exportación de evaluación final en PDF
- Verificar que exista un botón para exportar la evaluación en PDF.
- El PDF debe contener indicadores, porcentaje y retroalimentación.
HU11: Dashboard con promedios generales de desempeño
- El dashboard debe mostrar promedios generales actualizados automáticamente.
- Debe permitir filtrar por fecha o semestre.
- La información debe visualizarse en gráficos claros y legibles.
HU12: Visualización de indicadores consolidados por líder
- Verificar que cada líder tenga un bloque de KPIs con el promedio de su equipo.
- La información debe actualizarse al cambiar de semestre o periodo.
HU13: Exportación de resultados semestrales en Excel
- Debe existir un botón para exportar resultados a Excel.
- Validar que el archivo incluya todos los indicadores y promedios por líder.
HU14: Gestión de desempeño semestral consolidado
- Se debe mostrar un tablero semestral con KPIs agregados de todos los líderes y negociadores.
- Debe mostrar alertas visuales si el desempeño global está por debajo del objetivo definido.
HU15: Acceso de solo lectura a evaluaciones individuales
- Debe poder abrir cualquier evaluación sin opción de edición.
- Si intenta modificar, debe aparecer un mensaje indicando que es solo lectura.
- El acceso debe estar restringido según su rol de administrador.
HU17: Comparación de resultados entre líderes
- Se debe mostrar un gráfico comparativo de líderes por desempeño.
- Debe permitir seleccionar el rango de fechas para la comparación.
- Los datos deben estar ordenados automáticamente de mayor a menor.
HU18: Acceso a histórico de evaluaciones y estadísticas generales
- El histórico debe mostrar todas las evaluaciones previas por líder y negociador.
- Debe permitir filtrar por fechas, líderes o negociadores.
- La información debe descargarse en Excel o PDF.
HU19: Visualización de acciones sugeridas por IA
- Debe diferenciar entre felicitaciones y compromisos.
- Debe mostrar la fecha y resultado que generó cada sugerencia.
HU20: Monitoreo de cumplimiento de diligenciamiento por líder
- Debe mostrar el número de evaluaciones realizadas y pendientes por líder.
- Debe calcular el porcentaje de cumplimiento automáticamente.
- Si un líder tiene bajo cumplimiento, debe generar una alerta visual.
Pruebas Automáticas de Software
En este repositorio se definió la estrategia y los tipos de prueba automática durante el Entregable 3 (véase: https://github.com/lhiguitab/Vision_Gerencial_360/wiki/Entregable-3). A nivel de código, las pruebas viven en accounts/tests.py y cubren autenticación, permisos y flujos críticos del MVP.
Resumen de la política:
- Cobertura mínima objetivo: 80% (validación en pipeline CI/CD propuesta en Entregable 3).
- Tipos: unitarias (autenticación, cálculo de KPIs simulados), integración (render de vistas y permisos), y E2E planeadas para el flujo de evaluación y exportaciones.
- Ejecución local sugerida:
pytest -qopython manage.py test. - Calidad y seguridad:
flake8,blackybanditdefinidos en la línea base del proyecto.
Enlaces de referencia:
- Estrategia de pruebas automáticas (Entregable 3): https://github.com/lhiguitab/Vision_Gerencial_360/wiki/Entregable-3#pruebas-automáticas-de-software
- Casos funcionales ejecutados (este documento): ver secciones HU01–HU20.
Pruebas de Usabilidad
Resumen ejecutivo:
- Objetivo: Evaluar facilidad de uso, comprensión de indicadores y eficiencia del flujo de evaluación 360 para líderes y área administrativa.
- Participantes: 5 usuarios internos (3 líderes de negociadores, 1 administrativo, 1 gerente de estrategia).
- Modalidad: Sesiones moderadas presenciales/virtuales con escenario guiado, registro de tiempos, errores y satisfacción (Likert 1–5), y encuesta SUS.
- Resultado global: 96% de éxito en tareas, mediana de 1:12 min por tarea, satisfacción 4.4/5, SUS 83 (Bueno–Excelente). Se identificaron mejoras rápidas en filtros, textos de ayuda y consistencia de botones.
Procedimiento aplicado (resumen):
- Preparación
- Escenarios y guion: Basados en HU clave (HU01, HU02, HU04, HU05, HU07, HU09, HU10, HU13).
- Datos de prueba: usuarios demo con negociadores asignados y KPIs de ejemplo.
- Instrumentos: lista de verificación por tarea, cronómetro por tarea, escala Likert 1–5 por tarea y cuestionario SUS post-sesión.
- Tareas evaluadas
- T1: Iniciar sesión como líder (HU01).
- T2: Ver negociadores asignados y pendientes (HU02–HU03).
- T3: Iniciar una evaluación y diligenciar evaluación del ser (HU04–HU07).
- T4: Revisar indicadores históricos y actuales del negociador (HU05–HU06).
- T5: Generar sugerencias automáticas con IA y descargar documento (HU09).
- T6: Exportar evaluación final en PDF (HU10).
- T7: Exportar resultados semestrales a Excel (HU13).
- T8: Visualizar promedios generales en el dashboard y aplicar filtros (HU11–HU12).
- Métricas recolectadas
- Éxito por tarea (completada / no completada / ayuda requerida).
- Tiempo por tarea (inicio–fin, mediana y rango intercuartílico).
- Satisfacción por tarea (Likert 1–5) y comentarios cualitativos.
- SUS (System Usability Scale) posterior a la sesión.
Resultados (resumen):
- Éxito: 96% de tareas completadas sin intervención. Los pocos bloqueos se dieron en exportación Excel cuando no había datos filtrados.
- Tiempo: Mediana 1:12 min por tarea (p25: 0:50, p75: 1:40). La tarea más lenta fue T7 (exportar Excel) cuando el filtro estaba vacío.
- Satisfacción: 4.4/5 promedio. Lo más valorado: claridad de KPIs y rapidez del flujo de evaluación.
- SUS: 83 (percentil alto), percibida como “fácil de aprender y consistente”.
Hallazgos y oportunidades de mejora:
- Filtros y estados vacíos: cuando no hay resultados, agregar mensajes claros y CTA para restablecer filtros.
- Consistencia de botones: usar la misma etiqueta para exportar (por ejemplo, “Exportar a Excel” en todas las vistas con descarga).
- Ayudas contextuales: íconos con tooltip para explicar KPIs menos obvios (p. ej., conversión y ausentismo).
- Confirmaciones: mantener toasts/alertas tras guardar evaluación y exportaciones exitosas.
Acciones realizadas y backlog:
- Ajustes rápidos de copy/tooltip en vistas de indicadores (documentado para siguiente commit).
- Unificación de etiquetas de exportación (PDF/Excel) en vistas de resultados.
- Registro de mejoras en el tablero del proyecto: https://github.com/users/lhiguitab/projects/6
Opinión del equipo frente a la experiencia:
La prueba confirmó que el flujo central (ver KPIs → evaluar → retroalimentar → exportar) es intuitivo y rápido para líderes. La combinación de datos y evaluación subjetiva generó confianza en los resultados. Las sugerencias de IA fueron bien recibidas; se recomienda afinar las plantillas de mensajes para distintos contextos (felicitación/compromiso) y exponer mejor los criterios detrás de cada sugerencia para reforzar la transparencia.
Evidencias y documentación completa:
- Procedimiento detallado y resultados: ver Wiki “Pruebas de Usabilidad” (enlace directo abajo).
- Casos funcionales con capturas: secciones HU01–HU20 de este entregable.
- Materiales (guion, instrumentos y notas): anexados en la página de Wiki.
Enlaces:
- Wiki – Pruebas de Usabilidad: https://github.com/lhiguitab/Vision_Gerencial_360/wiki/Pruebas-de-Usabilidad
- Alternativa en repo (si no se ha publicado en la Wiki):
docs/wiki/Pruebas-de-Usabilidad.md