Proyecto Pruebas automatizadas

Semana 4: ¿Monkeys? ¿Rippers?

Con nuestro CTO ya estamos revisando su estrategia de pruebas propuesta. Gracias de nuevo por toda su ayuda. Nuestros asesores de The Software Design Lab nos han sugerido que una buena forma de iniciar con automatización de pruebas es hacer pruebas de reconocimiento, dado que estas no requieren intervención humana.

Resumen de las actividades

No entendimos muy bien las diferencias entre los Monkeys y los Rippers, por lo tanto, nos gustaría que ejecuten pruebas de reconocimiento en la Aplicación Bajo Pruebas (ABP) con esos dos tipos de herramientas. Del mismo modo, a partir de su experiencia, nos gustaría que actualice la estrategia que entregaron la semana pasada, y que incluyan un análisis de los pros y contras de estas herramientas. La entrega se debe realizar a través de Coursera en las fechas indicadas. Nuestros amigos de The Software Design Lab nos sugieren usar las herramientas monkey-cypress y RIPuppet (ver detalles de la entrega).

Detalles de la entrega

La entrega debe ser realizada utilizando el repositorio de trabajo dado por el equipo docente (en caso de no poder acceder a la organización del curso, Uniandes-MISW4103, contacten al equipo docente). Su equipo debe crear un release en el repositorio (ver cómo crear un release) con los siguientes elementos:

(*) Los videos y documentos que incluyan en su entrega deben estar alojado en algún gestor de contenido (Google drive, OneDrive, Youtube, etc), deben ser públicos o deben permitir el acceso a cuentas de la Universidad de Los Andes (@uniandes.edu.co). Para el caso de documentos, estos deben estar en formato .pdf.

Criterios de evaluación

  1. “Fatalities”.

    Nota: el incumplimiento de cualquiera de los aspectos mencionados a continuación puede incurrir en una penalización sobre la calificación de la actividad.

    • El repositorio del equipo (org Uniandes-MISW4103) NO cuenta con un release, creado dentro del plazo establecido, en donde se incluyen todos los entregables de la actividad. [-15 puntos]
    • El enlace a la estrategia de pruebas NO se encuentra en el repositorio del equipo (./actividades/actividad-semana-4), NO es público, o NO permite el acceso a cuentas de la universidad. [-30 puntos]
    • Uno o más documentos realizados por el equipo se encuentran en formatos distintos a .pdf. [-5 puntos]
    • El enlace al video NO se encuentra en el repositorio del equipo (./actividades/actividad-semana-4), NO es público, o NO permite el acceso a cuentas de la universidad. [-10 puntos]
  2. Estrategia de Pruebas. [30 puntos]
    • Se actualiza la estrategia de pruebas con la retroalimentación de la entrega anterior. La estrategia utiliza el formato indicado. [15 puntos]
    • La estrategia de pruebas incluye el uso de pruebas de reconocimiento. La estrategia es coherente respecto al presupuesto, el TNT, y la distribución de esfuerzo. [15 puntos]
  3. Pruebas de Reconocimiento con Monkey. [30 puntos]
    • El código fuente se encuentra en el repositorio del equipo (./reconocimiento/misw-4103-monkey), y se indican los cambios realizados por el equipo en el archivo README de la herramienta. [5 puntos]
    • Los resultados de ejecución se encuentran en el repositorio del equipo (./actividades/actividad-semana-4), e incluyen las semillas (seeds) de ejecución, enlaces a las incidencias, y enlaces a evidencias. [10 puntos]
    • El código entregado permite la ejecución y reproducción de los resultados obtenidos. El README de la herramienta es actualizado (de ser necesario) para explicar la ejecución de la herrameinta. [10 puntos]
    • El resumen de los pros y los contras se encuentran en el repositorio del equipo (./actividades/actividad-semana-4), y es coherente con la herramienta. [5 puntos]
  4. Pruebas de Reconocimiento con Ripper. [30 puntos]
    • El código fuente se encuentra en el repositorio del equipo (./reconocimiento/misw-4103-ripper), y se indican los cambios realizados por el equipo en el archivo README de la herramienta. [5 puntos]
    • Los resultados de ejecución se encuentran en el repositorio del equipo (./actividades/actividad-semana-4), e incluyen las semillas (seeds) de ejecución, enlaces a las incidencias, y enlaces a evidencias. [10 puntos]
    • El código entregado permite la ejecución y reproducción de los resultados obtenidos. El README de la herramienta es actualizado (de ser necesario) para explicar la ejecución de la herrameinta. [10 puntos]
    • El resumen de los pros y los contras se encuentran en el repositorio del equipo (./actividades/actividad-semana-4), y es coherente con la herramienta. [5 puntos]
  5. Video. [10 puntos]
    • El video incluye los ajustes a la estrategia de pruebas. La explicación de la estrategia es coherente. [5 puntos]
    • El video incluye análisis de los pros y contras de las herramientas de pruebas de reconocimiento, y es coherente con la características de las herramientas. [5 puntos]

La evaluación tendrá en cuenta la inclusión de la totalidad de componentes solicitados y la calidad de cada uno de acuerdo con la rúbrica establecida.