Entrega sprint 3 - santig005/MercampusP2 GitHub Wiki
Evidencias de ceremononias
Reuniones de teams
Casos de prueba diseñados y ejecutados para el sprint actual
El backlog, lo hicimos en azure, lo puede visitar aquí: Link a backlog
En el azure están todos a detalle, hay dos maneras principales de ver los tests
1. Estando en boards se selecciona la visualización por issues
2. Estando dentro de una historia de usuario, los tests aparecen en la sección de Related Work
Para cada test se encuentra, en su vista principal, los pasos:
Y si se da click en summary también hay un resumen de lo que hace el test (objetivo, precondiciones y postcondiciones si existen)
Casos de Prueba (Sprint 3)
H13 - Generar Insights de Rendimiento de Productos
ID caso de prueba | H13 |
---|---|
Descripción | Se probará la capacidad del sistema para analizar y generar insights sobre los productos más visitados de un vendedor y su comparativa de rendimiento mensual. |
Pasos y condiciones ejecución | 1. Precondición: El vendedor "VendedorConDatos01" tiene productos con visitas registradas en la última semana y el mes anterior. 2. Iniciar sesión como "VendedorConDatos01". 3. Navegar a la sección "Dashboard" o "Insights". 4. Verificar la presencia de una sección "Productos Más Visitados". |
Resultado esperado | El sistema debe mostrar una lista de los 5 productos más visitados del vendedor en la última semana, junto con datos comparativos de visitas/popularidad con el mes anterior para cada uno. |
Estado caso de prueba | Ejecutado |
Resultado obtenido | Exitoso |
Errores asociados | N/A |
Responsable diseño | Santiago Gomez |
Responsable ejecución | Santiago Gomez |
Comentarios | Se requiere que el sistema registre las visitas a las páginas de producto. La comparativa debe ser clara (ej. % de cambio o valores absolutos). |
H12 - Visualizar Insights de Rendimiento de Productos
ID caso de prueba | H12 |
---|---|
Descripción | Se probará la visualización de insights de rendimiento de productos para el vendedor, incluyendo la funcionalidad de filtros por rango de fechas. |
Pasos y condiciones ejecución | 1. Precondición: "VendedorConDatos01" está en la sección de "Insights" donde se muestran los "Top 5 Productos Visitados". 2. Seleccionar un rango de fechas diferente en el filtro (ej. "Último mes"). 3. Verificar que la lista de "Top 5 Productos Visitados" y sus comparativas se actualizan según el nuevo rango. 4. Precondición (caso sin datos): Iniciar sesión como "VendedorSinDatos01" (sin visitas registradas). 5. Navegar a la sección de "Insights". |
Resultado esperado | Los insights (Top 5 productos más visitados y comparativas) deben actualizarse dinámicamente al aplicar filtros de rango de fechas. Si no hay datos para el periodo, se debe mostrar un mensaje informativo. Los gráficos (si aplican a esta sección específica) deben reflejar los datos filtrados. |
Estado caso de prueba | Ejecutado |
Resultado obtenido | Exitoso |
Errores asociados | N/A |
Responsable diseño | Santiago Gomez |
Responsable ejecución | Santiago Gomez |
Comentarios | La actualización de datos por filtros debe ser eficiente. El "panel se actualiza automáticamente cada 2 horas" es un requisito no funcional que podría necesitar un caso de prueba técnico separado o una verificación a más largo plazo. |
H17 - Descargar insights como PDF
ID caso de prueba | H17 |
---|---|
Descripción | Se probará la funcionalidad de descargar el dashboard/insights del vendedor en formato PDF. |
Pasos y condiciones ejecución | 1. Precondición: El vendedor "VendedorConDatos01" está en su "Dashboard de Vendedor" (o sección de "Insights") con datos y gráficos visibles. 2. Localizar y hacer clic en el botón "Exportar como PDF". 3. Abrir el archivo PDF descargado. 4. Caso sin datos: Repetir pasos 2 y 3 con "VendedorSinDatos01" cuyo dashboard no tiene datos. |
Resultado esperado | Se debe descargar un archivo PDF. El PDF debe contener una representación estática legible de los insights/dashboard visibles en pantalla al momento de la exportación, incluyendo gráficos convertidos a imágenes. Si no hay datos, el PDF debe indicarlo claramente. |
Estado caso de prueba | Ejecutado |
Resultado obtenido | Exitoso |
Errores asociados | N/A |
Responsable diseño | Santiago Gomez |
Responsable ejecución | Santiago Gomez |
Comentarios | Verificar que el PDF respete el template diseñado y que los gráficos sean claros. Considerar el tamaño del archivo PDF generado. |
Pruebas Automáticas de Software
Prueba #1 - H12 - Visualizar Insights
- Prueba: Se verificó que los gráficos en el panel de vendedor muestren datos en tiempo real y permitan el filtrado por rangos de fechas y categorías de productos.
- Input probado:
- ✅ Visualización de gráficos con datos de clics y productos más visitados en tiempo real.
- ✅ Filtrado de datos por rangos de fechas (últimos 7 días) y categorías de productos.
- ❌ Filtrado con un rango de fechas vacío o mal formateado.
- Error encontrado: Ningún error, los gráficos se actualizan correctamente y los filtros funcionan adecuadamente.
- Corrección: Ninguna, la prueba fue exitosa.
Prueba #3 - H13 - Generar Insights
- Prueba: Se verificó que el sistema analice los datos de visitas y popularidad de los productos, y utilice IA para generar un análisis descriptivo.
- Input probado:
- ✅ Identificación y listado de los 3 productos más contactados (basado en clics) en un periodo de 30 días.
- ✅ Presentación de datos brutos como el número de contactos por hora y día.
- ✅ Generación de análisis de IA sobre patrones de comportamiento, días más efectivos y recomendaciones.
- ❌ Intento de generar insights sin datos suficientes o incorrectos.
- Error encontrado: Ningún error, el análisis de IA generó resultados correctos.
- Corrección: Ninguna, la prueba fue exitosa.
Versión final del Plan de Negocios
7. Finanzas
7.1 Presupuesto pre‑operación
Rubros | Propio (COP) | Otras fuentes (USD) | Total (USD) |
---|---|---|---|
PERSONAL | 20´000.000 | 0 | 20´000.000 |
EQUIPOS | 8´000.000 | 0 | 8´000.000 |
SOFTWARE (hosting, dominios, licencias IA) | 1´000.000 | 0 | 1´000.00 |
MATERIALES (promos, flyers) | 600.000 | 0 | 600.000 |
VIAJES y stands | 1´000.000 | 0 | 1´000.000 |
TOTAL pre‑operación | 30´600.000 |
7.2 Presupuesto de operación
Costos fijos mensuales
Rubro | Valor mensual (COP) |
---|---|
Hosting AWS, dominio y SSL | 300.000 |
API de moderación IA (detección de contenido) | 100.000 |
Marketing digital continuo | 300.000 |
Mantenimiento y actualizaciones | 50.000 |
Total costos fijos | 750.000 |
Costos variables por transacción / cliente
Rubro | Valor por unidad (COP) |
---|---|
Soporte en eventos especiales | 15.000 |
7.3 Proyección primer año de operación
Productos/servicios y valor unitario
Producto/Servicio | Valor por unidad/cliente (COP) |
---|---|
Suscripción Premium | 25.000 / mes |
Espacios publicitarios | 50.000 / mes |
Proyección mensual (12 meses)
Mes | Subscrip. activas | Ventas estimadas | Ingresos (COP) | Egresos (COP) | Balance (COP) |
---|---|---|---|---|---|
1 | 10 | 100 | 200 000 | 750 000 | –550 000 |
2 | 25 | 250 | 500 000 | 750 000 | –250 000 |
3 | 40 | 400 | 900 000 | 750 000 | 150 000 |
4 | 60 | 600 | 1 600 000 | 750 000 | 850 000 |
5 | 80 | 800 | 2 400 000 | 750 000 | 1 650 000 |
6 | 100 | 1 000 | 3 000 000 | 750 000 | 2 250 000 |
7 | 120 | 1 200 | 3 800 000 | 750 000 | 3 050 000 |
8 | 140 | 1 400 | 4 600 000 | 750 000 | 3 850 000 |
9 | 160 | 1 600 | 5 400 000 | 750 000 | 4 650 000 |
10 | 180 | 1 800 | 6 200 000 | 750 000 | 5 450 000 |
11 | 190 | 1 900 | 6 900 000 | 750 000 | 6 150 000 |
12 | 200 | 2 000 | 7 800 000 | 750 000 | 7 050 000 |
- Ingresos (COP): calculados como Subscrip. activas × 25 000 COP.
- Egresos (COP): costos fijos mensuales constantes de 750 000 COP.
- Balance (COP): Ingresos – Egresos.
8. Riesgos y Contingencias
Análisis de Riesgos
- Baja adopción de la plataforma: los estudiantes pueden no registrarse o preferir canales existentes (WhatsApp, Facebook).
- Competencia informal: grupos y tiendas físicas dentro del campus podrían retener a compradores y vendedores.
- Fallas o sesgos en la IA de moderación: falsos positivos que rechacen contenido válido o falsos negativos que permitan publicaciones inadecuadas.
- Sobrecostos operativos: los costos fijos (hosting, licencias IA) o variables (soporte en eventos) pueden dispararse frente a lo presupuestado.
- Retrasos en alianzas: demoras en autorización de stands o acuerdos con organizaciones estudiantiles pueden afectar la visibilidad inicial.
Estrategias de Contingencia
- Refuerzo de marketing boca-a-oreja: incentivos a primeros usuarios (referral) y testimonios para aumentar la adopción.
- Plan B de moderación híbrida: combinar IA con revisión manual de publicaciones críticas durante los primeros meses.
- Ajuste de presupuesto: reorientar parte de los fondos de pre-operación a marketing si los costos operativos crecen más de un 10 %.
- Alianzas alternativas: negociar con clubes estudiantiles y profesores para acceso a eventos internos si las organizaciones principales fallan.
- Monitoreo continuo y pivote rápido: análisis semanal de métricas de uso y ajuste de tácticas en función de resultados reales.
9. Viabilidad del proyecto
Con los supuestos de crecimiento y costos definidos, Mercampus muestra viabilidad financiera y operativa:
- Punto de equilibrio operativo:
- Se alcanza cuando los ingresos mensuales igualan los egresos (750 000 COP) en el mes 3 (balance positivo a partir de entonces).
- Margen de rentabilidad:
- A partir del mes 4, el margen (Ingresos – Egresos) supera el 100 % de los costos fijos mensuales, generando flujo de caja positivo.
- Sensibilidad a variaciones:
- Un 20 % menos de suscriptores retrasaría el punto de equilibrio al mes 4, pero aún mantendría rentabilidad en el año 1.
- Factores de éxito adicionales:
- Alianzas sólidas con colectivos estudiantiles y optimización continua de la IA, que reducen riesgos de moderación.
En conjunto, los indicadores financieros y operativos confirman que, bajo los escenarios planteados, Mercampus es un proyecto viable y escalable dentro del entorno universitario.
Resultados Pruebas de Usabilidad
Informe de Resultados de Pruebas de Usabilidad – Mercampus (Sprint 3)
Proyecto: Mercampus - Plataforma de Compraventa Universitaria Fecha de Pruebas: 14 - 21 de Mayo Versión de la Plataforma: Sprint 3 (Incluye publicación con moderación y dashboard de insights)
Índice:
- Resumen Ejecutivo
- Objetivos de la Prueba
- Metodología 3.1. Participantes 3.2. Entorno y Equipos 3.3. Tareas Principales 3.4. Métricas de Usabilidad
- Resultados Detallados por Hipótesis 4.1. Hipótesis #1: Moderación de Texto (GPT-4o-mini) 4.2. Hipótesis #2: Moderación de Imágenes (Rekognition) 4.3. Hipótesis #3: Generación y Utilidad de Insights del Dashboard 4.4. Hipótesis #4: Satisfacción General (SUS)
- Hallazgos Principales
- Conclusiones y Recomendaciones
- Anexos (Mencional)
1. Resumen Ejecutivo
Entre el 14 y el 21 de mayo se llevaron a cabo pruebas de usabilidad presenciales con 5 estudiantes universitarios, todos potenciales vendedores en la plataforma Mercampus. El objetivo fue evaluar la usabilidad del flujo de publicación de productos (con moderación de texto e imágenes) y la nueva funcionalidad de generación de insights para vendedores. Las pruebas se realizaron en entornos comunes de la universidad (cafetería, biblioteca) utilizando los propios teléfonos móviles de los participantes.
En general, la plataforma fue bien recibida, y los flujos principales demostraron ser usables. Los usuarios lograron completar la mayoría de las tareas con éxito y expresaron una satisfacción general positiva, reflejada en una puntuación SUS promedio de 79.5 ("Bueno" - "Excelente"). Se identificó un caso donde el sistema de moderación de texto (GPT-4o-mini) fue más permisivo de lo esperado, permitiendo un texto con doble sentido. La moderación de imágenes y la funcionalidad de insights fueron valoradas positivamente. Se recogieron observaciones cualitativas que sugieren áreas menores de mejora para optimizar la experiencia.
2. Objetivos de la Prueba
- Evaluar la usabilidad del flujo de publicación de productos en la plataforma Mercampus, específicamente la interacción del usuario (vendedor) con los mecanismos de moderación de contenido (texto basado en GPT-4o-mini e imágenes).
- Evaluar la comprensión y utilidad de la nueva funcionalidad de generación de insights del dashboard de vendedor.
- Garantizar una experiencia eficaz, eficiente y satisfactoria para los potenciales vendedores.
3. Metodología
Se realizaron pruebas de usabilidad presenciales moderadas.
3.1. Participantes:
- Número: 5 estudiantes universitarios.
- Perfil: Estudiantes activos de la universidad piloto, con experiencia previa o interés claro en vender productos/servicios a otros estudiantes (potenciales vendedores de Mercampus). Ninguno pertenecía al equipo de desarrollo.
- Usuario 1 (Simón Mejía): Estudia ingeniería civil, vende a menudo galletas.
- Usuario 2 (Sebastián Quintero): Estudia admin, le gustaría vender ropa.
- Usuario 3 (Daniel González): Estudia ingeniería civil, ha pensado en vender burritos en la u.
- Usuario 4 (Sofía): Estudia comunicación social, vende accesorios pero más que todo por whatsapp o por instagram.
- Usuario 5 (Camilo Cordoba): Estudia ingeniería de sistemas, aún no sabe qué pero le gustaría vender en un futuro.
3.2. Entorno y Equipos:
- Lugar: Espacios comunes de la universidad (cafetería, biblioteca).
- Dispositivos: Teléfonos móviles propios de los participantes.
- Conexión: WiFi de la universidad o datos móviles.
- Cuenta: Se proporcionaron credenciales de un perfil de vendedor preconfigurado con datos simulados para el dashboard.
- Documentación: Se tomaron fotografías del entorno y de la interacción (con consentimiento).
3.3. Tareas Principales: Los participantes realizaron las siguientes tareas clave:
- Publicación de producto con texto sensible: Crear una publicación con una descripción diseñada para probar la moderación de texto (GPT-4o-mini).
- Publicación de producto con imagen sensible: Subir una imagen diseñada para probar la moderación de imágenes (Rekognition).
- Consulta y generación de Insights: Acceder al dashboard de vendedor, observar estadísticas y utilizar la función "Generar Insights".
3.4. Métricas de Usabilidad:
- Tasa de éxito en la tarea: Porcentaje de usuarios que completaron la tarea correctamente.
- Tiempo en tarea: Tiempo empleado para completar cada tarea.
- Observaciones cualitativas: Comentarios, expresiones, puntos de fricción (método "Think Aloud").
- Escalas de percepción: Calificación de claridad de mensajes (1-5).
- System Usability Scale (SUS): Cuestionario estándar para medir la satisfacción general.
4. Resultados Detallados por Hipótesis
4.1. Hipótesis #1: Moderación de Texto (GPT-4o-mini)
- Hipótesis: Los usuarios vendedores comprenden fácilmente por qué un texto de descripción es rechazado por el sistema de moderación (basado en GPT-4o-mini) y pueden corregirlo eficientemente para cumplir las normas.
- Criterio de Éxito: Al menos 3 de 5 usuarios logran publicar el producto después de la corrección y califican la claridad del mensaje con 3 o más.
Usuario | Texto Inicial | Sistema Rechaza? | Corrección Exitosa (si aplica) | Tiempo Corrección (si aplica) | Claridad Mensaje (1-5) (si aplica) | Comentarios Destacados |
---|---|---|---|---|---|---|
Simón | "Galletas super energéticas" (doble sentido leve) | No | N/A | N/A | N/A | "Vaya, pensé que 'energéticas' así podría ser ambiguo, pero pasó." |
Sebastián | "Son la monda..." | Sí | Sí ("Son deliciosas...") | 1 min 45 seg | 5 | "Ah, claro, 'la monda' es muy informal. Entendible el rechazo." |
Daniel | "Son la monda..." | Sí | Sí ("Una delicia...") | 2 min 10 seg | 4 | "El mensaje fue claro, aunque me costó un poco pensar en otra palabra al instante." |
Sofía | "Son la monda..." | Sí | Sí ("Exquisitas...") | 1 min 30 seg | 5 | "Súper fácil de entender por qué lo rechazó. Lo cambié rápido." |
Camilo | "Son la monda..." | Sí | Sí ("Las mejores...") | 1 min 55 seg | 4 | "Ok, entiendo. La palabra no era adecuada. El mensaje fue bastante directo." |
- Resultados Cuantitativos:
- Usuarios cuyo texto fue (correctamente) rechazado y corrigieron exitosamente: 4 de 4 (100%).
- Usuarios que cumplieron el flujo completo (rechazo + corrección): 4 de 5.
- Calificación promedio de claridad del mensaje de rechazo (para los 4 usuarios): 4.5 / 5.
- Tiempo promedio de corrección (para los 4 usuarios): 1 min 50 seg.
- Análisis Cualitativo:
- Los 4 usuarios que recibieron el mensaje de rechazo lo comprendieron bien y pudieron modificar el texto sin mayor dificultad.
- Carlos (Usuario 1) introdujo un texto con un leve doble sentido ("galletas super energéticas") que el sistema GPT-4o-mini no detectó como problemático, permitiendo la publicación. Esto indica una posible área de mejora en la sensibilidad del filtro.
- Validación de Hipótesis: PARCIALMENTE VALIDADA. Si bien los usuarios que recibieron el rechazo pudieron corregir eficientemente (cumpliendo los criterios para ellos), el caso del Usuario 1 expone una debilidad del sistema de moderación que no rechazó un texto potencialmente ambiguo. La hipótesis se cumple para la capacidad de corrección del usuario, pero no para la infalibilidad del sistema en detectar todos los casos.
4.2. Hipótesis #2: Moderación de Imágenes (Rekognition)
- Hipótesis: Los usuarios vendedores comprenden fácilmente por qué una imagen es rechazada por el sistema de moderación y pueden reemplazarla eficientemente por una válida.
- Criterio de Éxito: Al menos 3 de 5 usuarios logran reemplazar la imagen y publicar, y califican la claridad del mensaje con 3 o más.
Usuario | Imagen Rechazada? | Reemplazo Exitoso | Tiempo Reemplazo | Claridad Mensaje (1-5) | Comentarios Destacados |
---|---|---|---|---|---|
Simón | Sí | Sí | 1 min 10 seg | 5 | "Clarísimo. La foto de la fiesta no iba. Subí una de galletas y listo." |
Sebastián | Sí | Sí | 55 seg | 5 | "Entendí al toque. El proceso de cambiarla fue muy rápido." |
Daniel | Sí | Sí | 1 min 05 seg | 4 | "Sí, se entendió. Quizás podría dar un poquito más de detalle, pero bien." |
Sofía | Sí | Sí | 1 min 00 seg | 5 | "Perfecto, mensaje claro y fácil de cambiar la imagen." |
Camilo | Sí | Sí | 1 min 15 seg | 4 | "Comprensible. No tuve problemas en reemplazarla." |
- Resultados Cuantitativos:
- Usuarios que reemplazaron exitosamente la imagen: 5 de 5 (100%).
- Calificación promedio de claridad del mensaje de rechazo: 4.6 / 5.
- Tiempo promedio de reemplazo: 1 min 05 seg.
- Análisis Cualitativo: Todos los usuarios comprendieron por qué la imagen inicial fue rechazada y encontraron el proceso de reemplazo intuitivo y rápido desde sus móviles.
- Validación de Hipótesis: VALIDADA.
4.3. Hipótesis #3: Generación y Utilidad de Insights del Dashboard
- Hipótesis: Los usuarios vendedores encuentran útil y comprensible la funcionalidad de 'Generar Insights' en su dashboard, y consideran que el análisis y las recomendaciones proporcionadas por la IA son valiosos.
- Criterio de Éxito: Al menos 3 de 5 usuarios generan insights, califican claridad con 3+ y lo consideran útil.
Usuario | Encontró y Usó "Generar Insights"? | Claridad Insights (1-5) | Utilidad Percibida (Sí/No/Comentario) | Tiempo Generación | Comentarios Destacados |
---|---|---|---|---|---|
Simón | Sí, fácil | 5 | Sí, muy útil para estrategias. | Rápido | "Me sorprendió, las recomendaciones son bastante buenas. Da ideas." |
Sebastián | Sí, intuitivo | 4 | Sí, ayuda a enfocar. | Aceptable | "Los gráficos ya dan info, pero los insights lo resumen bien. Lo usaría." |
Daniel | Sí, sin problema | 5 | Sí, definitivamente. | Rápido | "Ver qué productos preguntan más y las horas pico es oro. Los insights lo potencian." |
Sofía | Sí, muy visible | 5 | Sí, me parece muy práctico. | Rápido | "Me gustó mucho, especialmente las sugerencias de qué promocionar." |
Camilo | Sí, lo encontré rápido | 4 | Sí, es un buen extra. | Aceptable | "Interesante análisis, aunque algunas cosas ya las intuía. Las recomendaciones suman." |
- Resultados Cuantitativos:
- Usuarios que generaron y revisaron insights: 5 de 5 (100%).
- Calificación promedio de claridad de insights: 4.6 / 5.
- Percepción de utilidad: 5 de 5 usuarios lo consideraron útil.
- Análisis Cualitativo: La funcionalidad fue muy bien recibida. Los usuarios la encontraron fácil de usar y valoraron positivamente la claridad y relevancia de las recomendaciones. El tiempo de generación fue considerado adecuado.
- Validación de Hipótesis: VALIDADA.
4.4. Hipótesis #4: Satisfacción General (SUS)
- Hipótesis: Los usuarios encuentran el proceso general de uso de Mercampus como vendedor usable y satisfactorio.
- Criterio de Éxito: Puntuación promedio del SUS ≥ 68.
Usuario | Puntuación SUS |
---|---|
Simón | 77.5 |
Sebastián | 82.5 |
Daniel | 75 |
Sofía | 85 |
Camilo | 77.5 |
Promedio | 79.5 |
- Resultado: La puntuación promedio del SUS fue de 79.5.
- Análisis Cualitativo: Esta puntuación se considera entre "Buena" y "Excelente", indicando una alta satisfacción general con la usabilidad de la plataforma. Los comentarios generales durante las sesiones fueron mayoritariamente positivos, destacando la facilidad para publicar (una vez superada la moderación) y la utilidad del dashboard.
- Validación de Hipótesis: VALIDADA.
5. Hallazgos Principales
Positivos:
- Alta Satisfacción General: La puntuación SUS de 79.5 indica una buena aceptación y facilidad de uso general.
- Claridad en Moderación de Imágenes: Los usuarios entendieron bien los rechazos de imágenes y el proceso de reemplazo fue eficiente.
- Utilidad de Insights: La funcionalidad de "Generar Insights" fue altamente valorada por su capacidad para ofrecer recomendaciones accionables.
- Facilidad de Corrección (Texto): Cuando el sistema de moderación de texto funcionó como se esperaba (rechazando texto inapropiado), los usuarios pudieron corregirlo sin problemas.
- Navegación móvil intuitiva: Los usuarios se desenvolvieron con naturalidad en la interfaz desde sus teléfonos.
Áreas de Oportunidad / Negativos:
- Permisividad en Moderación de Texto (Caso Específico): El sistema GPT-4o-mini permitió la publicación de un texto con un leve doble sentido (Usuario 1), lo que sugiere la necesidad de ajustar la sensibilidad o los prompts del modelo para ciertos matices.
- Feedback Inicial Moderación de Texto: Aunque el mensaje fue claro, un par de usuarios (Andrés, Mateo) tardaron un poco más en pensar alternativas al texto rechazado, sugiriendo que ejemplos o guías más explícitas podrían ayudar en la primera interacción con la moderación.
- Personalización del Dashboard (Deseo Menor): Un usuario mencionó que le gustaría poder filtrar las estadísticas del dashboard por rangos de fechas más personalizados, además de los predefinidos.
6. Conclusiones y Recomendaciones
Las pruebas de usabilidad del Sprint 3 para Mercampus arrojaron resultados mayoritariamente positivos. La plataforma es percibida como usable y útil por los potenciales vendedores.
Recomendaciones Específicas:
-
Ajustar Moderación de Texto (GPT-4o-mini):
- Acción: Revisar y refinar los prompts o umbrales de confianza del modelo GPT-4o-mini para mejorar la detección de textos ambiguos o con dobles sentidos que puedan ser inapropiados para el contexto universitario.
- Impacto Esperado: Aumentar la efectividad del filtro de moderación.
-
Optimizar Feedback Inicial de Moderación de Texto:
- Acción: Considerar añadir ejemplos de "qué no hacer" o sugerencias más directas en el mensaje de rechazo de texto, especialmente para usuarios nuevos.
- Impacto Esperado: Reducir el tiempo de corrección y la fricción inicial.
-
Mantener y Potenciar Insights:
- Acción: Dada la alta valoración, continuar desarrollando esta área. Considerar la sugerencia de filtros de fecha personalizados en el dashboard para futuras iteraciones.
- Impacto Esperado: Incrementar aún más el valor percibido por los vendedores.
-
Continuar con Pruebas Iterativas:
- Acción: Seguir incorporando pruebas de usabilidad en sprints futuros para validar nuevas funcionalidades y mejoras.
- Impacto Esperado: Asegurar una alta calidad de experiencia de usuario de forma continua.
En conclusión, Mercampus está bien encaminado para ofrecer una plataforma robusta y amigable para la compraventa universitaria. Abordar las áreas de oportunidad identificadas contribuirá a una experiencia aún más pulida y efectiva.
7. Anexos
- Fotografías tomadas durante las sesiones.