Entregable final - lhiguitab/Vision_Gerencial_360 GitHub Wiki

Pruebas Funcionales Manuales

HU01: Inicio de sesión seguro para líderes

  1. Debe permitir iniciar sesión solo con credenciales correctas.
  2. Si las credenciales son inválidas, debe mostrar un mensaje de error claro.

HU03: Evaluaciones pendientes negociadores

  1. Verificar conteo de evaluaciones pendientes
  2. Validar mensaje cuando no hay pendientes

HU04: Iniciar evaluación

  1. Verificar opción "Iniciar evaluación" disponible para lideres con sus negociadores asignados.
  2. Validar que se carga el formulario de evaluación.
  3. Evitar iniciar nueva si ya existe en curso.

HU05: Indicadores negociadores

  1. Verificar visualización de indicadores actuales.
  2. Validar gráfico de tendencias históricas.

HU06: Última evaluación

  1. Verificar visualización de la última evaluación.
  2. Validar mensaje cuando no hay evaluaciones previas.

HU07: Evaluación del ser

  1. Verificar que cada pregunta pueda calificarse de 1 a 5.
  2. Validar que no se pueda enviar sin responder todas las preguntas
  3. Validar confirmación al guardar evaluación

HU08: Cálculo automático de porcentaje de desempeño

  1. Validar si el sistema calcula el porcentaje total.
  2. Verificar si el resultado se muestra en pantalla de manera clara y visual.
  3. El porcentaje debe almacenarse junto con la evaluación en el histórico.

HU09: Generación de sugerencias automáticas con IA

  1. Si el porcentaje es alto, debe sugerir felicitaciones; si es bajo, compromisos.
  2. Las sugerencias deben generarse automáticamente mediante IA.
  3. Debe permitir descargar el documento con la sugerencia.

HU10: Exportación de evaluación final en PDF

  1. Verificar que exista un botón para exportar la evaluación en PDF.
  2. El PDF debe contener indicadores, porcentaje y retroalimentación.

HU11: Dashboard con promedios generales de desempeño

  1. El dashboard debe mostrar promedios generales actualizados automáticamente.
  2. Debe permitir filtrar por fecha o semestre.
  3. La información debe visualizarse en gráficos claros y legibles.

HU12: Visualización de indicadores consolidados por líder

  1. Verificar que cada líder tenga un bloque de KPIs con el promedio de su equipo.
  2. La información debe actualizarse al cambiar de semestre o periodo.

HU13: Exportación de resultados semestrales en Excel

  1. Debe existir un botón para exportar resultados a Excel.
  2. Validar que el archivo incluya todos los indicadores y promedios por líder.

HU14: Gestión de desempeño semestral consolidado

  1. Se debe mostrar un tablero semestral con KPIs agregados de todos los líderes y negociadores.
  2. Debe mostrar alertas visuales si el desempeño global está por debajo del objetivo definido.

HU15: Acceso de solo lectura a evaluaciones individuales

  1. Debe poder abrir cualquier evaluación sin opción de edición.
  2. Si intenta modificar, debe aparecer un mensaje indicando que es solo lectura.
  3. El acceso debe estar restringido según su rol de administrador.

HU17: Comparación de resultados entre líderes

  1. Se debe mostrar un gráfico comparativo de líderes por desempeño.
  2. Debe permitir seleccionar el rango de fechas para la comparación.
  3. Los datos deben estar ordenados automáticamente de mayor a menor.

HU18: Acceso a histórico de evaluaciones y estadísticas generales

  1. El histórico debe mostrar todas las evaluaciones previas por líder y negociador.
  2. Debe permitir filtrar por fechas, líderes o negociadores.
  3. La información debe descargarse en Excel o PDF.

HU19: Visualización de acciones sugeridas por IA

  1. Debe diferenciar entre felicitaciones y compromisos.
  2. Debe mostrar la fecha y resultado que generó cada sugerencia.

HU20: Monitoreo de cumplimiento de diligenciamiento por líder

  1. Debe mostrar el número de evaluaciones realizadas y pendientes por líder.
  2. Debe calcular el porcentaje de cumplimiento automáticamente.
  3. Si un líder tiene bajo cumplimiento, debe generar una alerta visual.

Pruebas Automáticas de Software

En este repositorio se definió la estrategia y los tipos de prueba automática durante el Entregable 3 (véase: https://github.com/lhiguitab/Vision_Gerencial_360/wiki/Entregable-3). A nivel de código, las pruebas viven en accounts/tests.py y cubren autenticación, permisos y flujos críticos del MVP.

Resumen de la política:

  • Cobertura mínima objetivo: 80% (validación en pipeline CI/CD propuesta en Entregable 3).
  • Tipos: unitarias (autenticación, cálculo de KPIs simulados), integración (render de vistas y permisos), y E2E planeadas para el flujo de evaluación y exportaciones.
  • Ejecución local sugerida: pytest -q o python manage.py test.
  • Calidad y seguridad: flake8, black y bandit definidos en la línea base del proyecto.

Enlaces de referencia:

Pruebas de Usabilidad

Resumen ejecutivo:

  • Objetivo: Evaluar facilidad de uso, comprensión de indicadores y eficiencia del flujo de evaluación 360 para líderes y área administrativa.
  • Participantes: 5 usuarios internos (3 líderes de negociadores, 1 administrativo, 1 gerente de estrategia).
  • Modalidad: Sesiones moderadas presenciales/virtuales con escenario guiado, registro de tiempos, errores y satisfacción (Likert 1–5), y encuesta SUS.
  • Resultado global: 96% de éxito en tareas, mediana de 1:12 min por tarea, satisfacción 4.4/5, SUS 83 (Bueno–Excelente). Se identificaron mejoras rápidas en filtros, textos de ayuda y consistencia de botones.

Procedimiento aplicado (resumen):

  1. Preparación
  • Escenarios y guion: Basados en HU clave (HU01, HU02, HU04, HU05, HU07, HU09, HU10, HU13).
  • Datos de prueba: usuarios demo con negociadores asignados y KPIs de ejemplo.
  • Instrumentos: lista de verificación por tarea, cronómetro por tarea, escala Likert 1–5 por tarea y cuestionario SUS post-sesión.
  1. Tareas evaluadas
  • T1: Iniciar sesión como líder (HU01).
  • T2: Ver negociadores asignados y pendientes (HU02–HU03).
  • T3: Iniciar una evaluación y diligenciar evaluación del ser (HU04–HU07).
  • T4: Revisar indicadores históricos y actuales del negociador (HU05–HU06).
  • T5: Generar sugerencias automáticas con IA y descargar documento (HU09).
  • T6: Exportar evaluación final en PDF (HU10).
  • T7: Exportar resultados semestrales a Excel (HU13).
  • T8: Visualizar promedios generales en el dashboard y aplicar filtros (HU11–HU12).
  1. Métricas recolectadas
  • Éxito por tarea (completada / no completada / ayuda requerida).
  • Tiempo por tarea (inicio–fin, mediana y rango intercuartílico).
  • Satisfacción por tarea (Likert 1–5) y comentarios cualitativos.
  • SUS (System Usability Scale) posterior a la sesión.

Resultados (resumen):

  • Éxito: 96% de tareas completadas sin intervención. Los pocos bloqueos se dieron en exportación Excel cuando no había datos filtrados.
  • Tiempo: Mediana 1:12 min por tarea (p25: 0:50, p75: 1:40). La tarea más lenta fue T7 (exportar Excel) cuando el filtro estaba vacío.
  • Satisfacción: 4.4/5 promedio. Lo más valorado: claridad de KPIs y rapidez del flujo de evaluación.
  • SUS: 83 (percentil alto), percibida como “fácil de aprender y consistente”.

Hallazgos y oportunidades de mejora:

  • Filtros y estados vacíos: cuando no hay resultados, agregar mensajes claros y CTA para restablecer filtros.
  • Consistencia de botones: usar la misma etiqueta para exportar (por ejemplo, “Exportar a Excel” en todas las vistas con descarga).
  • Ayudas contextuales: íconos con tooltip para explicar KPIs menos obvios (p. ej., conversión y ausentismo).
  • Confirmaciones: mantener toasts/alertas tras guardar evaluación y exportaciones exitosas.

Acciones realizadas y backlog:

  • Ajustes rápidos de copy/tooltip en vistas de indicadores (documentado para siguiente commit).
  • Unificación de etiquetas de exportación (PDF/Excel) en vistas de resultados.
  • Registro de mejoras en el tablero del proyecto: https://github.com/users/lhiguitab/projects/6

Opinión del equipo frente a la experiencia:

La prueba confirmó que el flujo central (ver KPIs → evaluar → retroalimentar → exportar) es intuitivo y rápido para líderes. La combinación de datos y evaluación subjetiva generó confianza en los resultados. Las sugerencias de IA fueron bien recibidas; se recomienda afinar las plantillas de mensajes para distintos contextos (felicitación/compromiso) y exponer mejor los criterios detrás de cada sugerencia para reforzar la transparencia.

Evidencias y documentación completa:

  • Procedimiento detallado y resultados: ver Wiki “Pruebas de Usabilidad” (enlace directo abajo).
  • Casos funcionales con capturas: secciones HU01–HU20 de este entregable.
  • Materiales (guion, instrumentos y notas): anexados en la página de Wiki.

Enlaces: