En esta semana del proyecto de TSDC, el objetivo es automatizar pruebas funcionales de extremo a extremo (E2E) sobre la Aplicación Bajo Prueba (ABP), con el fin de mejorar la confiabilidad, repetibilidad y trazabilidad de los escenarios definidos.
Las pruebas manuales E2E presentan limitaciones como la variabilidad en la ejecución y la falta de registro sistemático de resultados. Por ello, se espera que el equipo implemente pruebas automatizadas que repliquen escenarios funcionales definidos, sean ejecutables de forma consistente sobre la ABP, y permitan comparar herramientas modernas de automatización E2E. Para ello, se trabajará con dos enfoques:
El resultado esperado es un conjunto de escenarios E2E implementados de forma equivalente en ambas herramientas, junto con un reporte estructurado de resultados que permita analizar su ejecución.
[!NOTE] Los valores de configuración (por ejemplo: URL base, puertos, credenciales de prueba) deben estar centralizados en un único punto de configuración (variables de entorno, archivos
.env,.ymlo configuración propia de las herramientas). No se permite la duplicación de estos valores en múltiples archivos.
Seleccione un mínimo de cinco (5) funcionalidades y defina al menos veinte (20) escenarios de prueba E2E. Cada escenario debe tener identificador único, estar asociado a una funcionalidad y describir claramente el comportamiento esperado mediante un resultado verificable.
Implemente los veinte (20) escenarios utilizando una herramienta basada en scripts (Cypress, Puppeteer o Playwright), asegurando su ejecución automatizada completa sobre la ABP. Un escenario se considera correctamente implementado cuando se ejecuta sin errores y valida el resultado esperado.
Implemente los mismos veinte (20) escenarios utilizando Kraken, garantizando equivalencia funcional con la otra herramienta (mismo flujo, validaciones y resultado esperado).
Aplique en ambas herramientas los patrones Page Object y Given-When-Then. El patrón Page Object debe evidenciar separación entre lógica de interacción con la interfaz y lógica de prueba, y Given-When-Then debe reflejar explícitamente precondiciones, acciones y validaciones.
Configure las herramientas en el repositorio del equipo en la organización Uniandes-MISW4103 y verifique la ejecución exitosa de todos los escenarios sobre la ABP.
Documente en los archivos README.md de cada herramienta los pasos necesarios para configurar el despliegue de la ABP (por ejemplo, uso de contenedores, puertos y variables de entorno) y ejecutar los escenarios de prueba. No es necesario incluir pasos de instalación de la ABP.
[!NOTE]
Los videos y documentos que incluyan en su entrega deben estar alojado en algún gestor de contenido (OneDrive Uniandes, Youtube), deben ser públicos o deben permitir el acceso a cuentas de la Universidad de Los Andes (@uniandes.edu.co). Para el caso de documentos, estos deben estar en formato
La entrega debe realizarse mediante un release en el repositorio del equipo (ver cómo crear un release), el cual debe permitir la ejecución completa de los escenarios y la validación de todos los artefactos sin requerir modificaciones manuales adicionales.
En la carpeta ./e2e se debe incluir la implementación de los escenarios de prueba en dos herramientas: una herramienta basada en scripts (Cypress, Playwright o Puppeteer) y Kraken. En ambas implementaciones, los escenarios deben ser equivalentes, compartir el mismo identificador y validar el mismo comportamiento funcional. Todos los escenarios definidos deben estar implementados y deben poder ejecutarse directamente usando la configuración documentada.
Cada herramienta debe incluir un archivo README.md que permita a un tercero ejecutar las pruebas sin ambigüedad. Este archivo debe documentar claramente:
Adicionalmente, debe incluir un reporte de resultados en formato .pdf (por ejemplo, reporte-semana-5.pdf), el cual consolide la información necesaria para evaluar la actividad. Este reporte debe contener:
[!NOTE] La evaluación se realizará con base en la completitud, coherencia interna, trazabilidad explícita y evidencia verificable de cada uno de los criterios definidos en esta rúbrica. Entregas por fuera del horario establecido puede incurrir en una penalización sobre la calificación final de la actividad.
README.md. [-20 puntos por herramienta]README.md no permiten configurar la ABP ni ejecutar las pruebas. [-20 puntos por herramienta]node_modules, binarios, documentos distintos al .pdf). [-20 puntos]