Вы находитесь на странице: 1из 6

4.

MEDIDAS RELACIONADAS CON LAS PRUEBAS

4.1. Métricas para la evaluación de las prueba

Es importante para la evaluación monitorear métricas que representan el progreso de las

pruebas y revelan el nivel de calidad del sistema. Establecido en esas métricas, la

administración puede desencadenar acciones correctivas y preventivas.

Las métricas de ejecución de prueba se pueden clasificar en dos clases de la siguiente

manera:

• Métricas para monitorear la ejecución de la prueba

• Métricas para monitorear defectos

La primera clase de métricas se refiere al proceso de ejecución de casos de prueba,

mientras que la segunda clase se refiere a los defectos encontrados como resultado de la

ejecución de la prueba. Estas métricas deben ser rastreadas y analizadas de forma

periódica, por ejemplo, diaria o semanalmente.

Para controlar eficazmente un proyecto de prueba, es importante recopilar información

válida y información veraz sobre el proyecto.

Un equipo de gestión debe identificar y supervisar las métricas mientras se realizan las

pruebas para que se puedan tomar decisiones importantes.

Se debe analizar y comprender las métricas de prueba, en lugar de simplemente recopilar

datos y tomar decisiones basadas en esos datos sin procesar. Las métricas son

significativas solo si permiten a la gerencia tomar decisiones que resulten en un menor


costo de producción, menor demora en la entrega y una mejor calidad de los sistemas de

software.

4.2 Evaluación cuantitativa

La evaluación cuantitativa se realiza mediante medición. La medición permite evaluar

los parámetros de interés de manera cuantitativa de la siguiente manera:

• Evaluar la efectividad de una técnica utilizada para realizar una tarea. Se puede evaluar

la eficacia de una técnica de generación de pruebas contando el número de defectos

detectados por los casos de prueba generados al seguir la técnica y los detectados por los

casos de prueba generados por otros medios.

• Evaluar la productividad de las actividades de desarrollo. Se puede realizar un

seguimiento de la productividad contando el número de casos de prueba diseñados por

día, el número de casos de prueba ejecutados por día, etc.

• Evaluar la calidad del producto. Al monitorear el número de defectos detectados por

semana de prueba, se puede observar el nivel de calidad del sistema.

• Evaluar las pruebas del producto.

4.3 Métricas para las pruebas

 Métrica de eficacia de casos de prueba: el objetivo de esta métrica es medir la

capacidad del conjunto de pruebas y utilizar la métrica para mejorar el proceso

de diseño de prueba. Durante la prueba de la unidad, la integración y el sistema


fases, los fallos se revelan mediante la ejecución de los casos de prueba

planificados también se encuentran nuevas fallas durante una prueba.

 Métrica de efectividad del esfuerzo de prueba: es importante evaluar la

efectividad del esfuerzo de prueba en el desarrollo de un producto. Después de

que un producto se implementa en el sitio del cliente, uno está interesado en

conocer la efectividad de las pruebas que se realizaron. Una medida común de la

eficacia de la prueba es el número de defectos encontrados por los clientes que

no fueron encontrados por los ingenieros de pruebas antes del lanzamiento del

producto. Estos defectos habían escapa de nuestro esfuerzo de prueba.

5. PROCESO DE PRUEBA

5.1 prueba completa

Una prueba completa o exhaustiva significa que no hay fallas no descubiertas al

final de la fase de prueba. Todos los problemas deben conocerse al final de la


prueba completa. Para la mayoría de los sistemas, la prueba completa es casi

imposible debido a las siguientes razones:

• El dominio de posibles entradas de un programa es demasiado grande para ser

utilizado completamente en la prueba de un sistema. Hay tanto entradas válidas

como entradas no válidas.

El programa puede tener una gran cantidad de estados. Un valor de entrada que

es válido pero que no está programado correctamente se denomina entrada

inoportuna. El dominio de entrada de un sistema puede ser muy grande para

usarse completamente en la prueba de un programa.

• Los problemas de diseño pueden ser demasiado complejos para probarlos por

completo. El diseño puede haber incluido decisiones y supuestos de diseño

implícitos. Por ejemplo, un programador puede usar una variable global o una

variable estática para controlar la ejecución del programa.

• Puede que no sea posible crear todos los entornos de ejecución posibles del

sistema. Esto se vuelve más significativo cuando el comportamiento del sistema

de software depende del mundo exterior real, como el clima, la temperatura, la

altitud, la presión, etc.

5.2 Actividades de la prueba

Para probar un programa, un ingeniero debe realizar una secuencia de

actividades de prueba.
 Identificar un objetivo para ser probado: la primera actividad es

identificar un objetivo a probar. El objetivo define la intención o el

propósito de diseñar uno o más casos de prueba para garantizar que el

programa respalde el objetivo. Se debe asociar un propósito claro con

cada caso de prueba.

 Seleccionar entradas: La segunda actividad es seleccionar entradas de

prueba. La selección de entradas de prueba puede basarse en la

especificación de requisitos, el código fuente o nuestras expectativas.

Las entradas de prueba se seleccionan teniendo en cuenta el objetivo de

la prueba.

 Calcule el resultado esperado: la tercera actividad es calcular el

resultado esperado del programa con los insumos seleccionados. En la

mayoría de los casos, esto se puede hacer a partir de una comprensión

general de alto nivel del objetivo de la prueba y la especificación del

programa bajo prueba.

 Configurar el entorno de ejecución del programa: el cuarto paso es

preparar el entorno de ejecución adecuado del programa. En este paso

deben satisfacerse todos los supuestos externos al programa. Algunos

ejemplos de supuestos externos a un programa son los siguientes:

Inicialice el sistema local, externo al programa. Esto puede incluir

hacer una conexión de red disponible, hacer la base de datos correcta

sistema disponible, y así sucesivamente.


 Ejecutar el programa: en el quinto paso, el ingeniero de pruebas ejecuta

el

programa con las entradas seleccionadas y observa el resultado real del

programa. Para ejecutar un caso de prueba, se pueden proporcionar

entradas al programa en diferentes ubicaciones físicas en diferentes

momentos. El concepto de coordinación de pruebas se utiliza para

sincronizar diferentes componentes de un caso de prueba.

 Analizar el resultado de la prueba: la actividad de prueba final es

analizar el resultado de la ejecución de la prueba. Aquí, la tarea principal

es comparar el resultado real de la ejecución del programa con el

resultado esperado. La complejidad de la comparación depende de la

complejidad de los datos a observar. El tipo de datos observado puede

ser tan simple como un número entero o una cadena de caracteres o tan

complejo como una imagen, un video o un clip de audio. Al final del

paso de análisis, se asigna un veredicto de prueba al programa. Hay tres

tipos principales de veredictos de prueba, a saber, aprobado, reprobado y

no concluyente.

Вам также может понравиться