Вы находитесь на странице: 1из 16

PRUEBAS PARAMÉTRICAS

Alumnos: Melissa Araya, Rodrigo Solar

Docente: Valeska Pérez


Resumen

En el presente trabajo se busca dar cuenta de las diferentes pruebas estadísticas

paramétricas existentes, así como de su importancia para el análisis y comprensión del

mismo, además de dar a conocer sus criterios de aplicación, principales características,

planteamiento de hipótesis y prueba de hipótesis, según corresponda.

Palabras claves: estadística, pruebas paramétricas, hipótesis.

Abstract

In the present work we try to give an account of the different statistical parametric

tests that exist, as well as their importance for the analysis and understanding of the

same, as well as their application criteria, main characteristics, hypothesis testing and

hypothesis testing, as appropriate.

Key words: statistics, parametric, hypothesis tests.


Introducción

Las técnicas que agrupa la estadística inferencial se dividen principalmente en dos

partes: las técnicas paramétricas y no paramétricas. Las primeras se basan en

suposiciones específicas acerca de la población de la que se desea hacer algún tipo de

inferencia, mientras que en cambio las técnicas no paramétricas hacen supuestos muy

generales respecto a la distribución poblacional de la que se desea hacer inferencias.

Tradicionalmente lo que separa ambas técnicas estadísticas es el supuesto de que la

población toman los datos y sigue una distribución normal Puede apreciarse una

característica de las pruebas paramétricas: puede demostrarse teóricamente que son las

pruebas que producen la región crítica más potente, ello relega teóricamente a las

pruebas no paramétricas en lo que respecta a potencia de explicación.

Durante mucho tiempo los estadísticos han preferido las técnicas paramétricas o han

optado por diversas transformaciones a fin de poder aplicarlas, dejando como recuerdo

final a las pruebas no paramétricas cuando no se ha podido encontrar evidencia

estadística, de que la población sigue una distribución normal.

teóricamente las pruebas paramétricas superan a las pruebas no paramétricas en

potencia de explicación cuando la población es normal como se indicó anteriormente,

entonces recurriremos para poder comprender estas pruebas las definiciones de cada

una, que es lo que miden, cuáles son sus elementos y su fórmula en la cual se trabaja;

también no olvidando su hipótesis tanto de investigación y la hipótesis nula.


Pruebas Paramétricas

T de student:

George C. Canavo (1988) afirmo que, T se define como el cociente entre una

variable aleatoria normal estándar y la raíz cuadrada de una variable aleatoria Chi

cuadrada dividida por sus grados de libertad. El conjunto de todos los posibles valores

de la variable aleatoria T es el intervalo.

El estadístico de prueba y la fórmula del intervalo de confianza están basados en

la misma variable estandarizada, pero la distribución pertinente ahora es t en lugar de z.

(Jay l. Devore, 2008).

Que mide: si dos grupos difieren entre sí de manera significativamente respecto a

sus medias.

Hipótesis

H1: Establece que los grupos difieren significativamente entre sí.

Ho: Establece que los grupos NO difieren significativamente entre sí.


Formula

Prueba T para una muestra:

Contrasta si la media de una variable difiere en una constante específica.

Esta prueba asume que los datos están normalmente distribuidos.

Nos permite verificar si una muestra puede acceder de una población, presentando una

media determinada.

Prueba T

Estadísticas de muestra única


Media de
Desviación error
N Media estándar estándar
Edad 50 2,58 ,928 ,131
Desesperanza sobre el
50 6,46 1,373 ,194
futuro

Prueba de muestra única


Valor de prueba = 6
95% de intervalo de
Diferencia de confianza de la diferencia
t gl Sig. (bilateral) medias Inferior Superior
Edad -26,065 49 ,000 -3,420 -3,68 -3,16
Desesperanza sobre el
2,368 49 ,022 ,460 ,07 ,85
futuro

 Con fines Académicos, deliberadamente se asignó: 6 como valor de prueba.

 Podemos comprobar que asumiendo un nivel de significación del 5 % con un

intervalo de confianza del 95% y una significación de 0,022 rechazamos la

hipótesis nula y aceptamos la hipótesis de investigación asumiendo que

existen diferencias significativas entre la media muestral y la media de la

población.

Prueba T para muestras independientes:

Comprobar la hipótesis nula, aludiendo que las medias de las dos muestras no

difieren entre sí.

Se utiliza cuando no existe relación entre ambos grupos.

Contrasta a la hipótesis nula, la prueba de levene.

Prueba T

Estadísticas de grupo
Desviación Media de
Sexo N Media estándar error estándar
Hombre 28 5,57 ,742 ,140
Sentimientos de Mujer
22 4,82 1,220 ,260
depresión

Prueba de muestras independientes


Prueba de Levene de igualdad
de varianzas prueba t para la igualdad de medias

Diferencia
F Sig. t gl Sig. (bilateral) medias
Sentimi Se asumen varianzas
10,425 ,002 2,697 48 ,010 ,753
entos iguales
de No se asumen varianzas
depresi iguales 2,549 32,813 ,016 ,753
ón

Con un intervalo de confianza del 95% y una significación inferior a 0,05. Rechazamos

la hipótesis nula y aceptamos la hipótesis de investigación, asumiendo que existen

diferencias significativas entre los sentimientos de depresión de los distintos grupos

divididos por sexo

Correlación de Pearson

El coeficiente de correlación de Pearson proporciona un valor, el cual indica el nivel de

relación entre dos variables (Rivera & Garcia,2012).

El coeficiente de correlación se simboliza con una “p” cuando se hace referencia

a la población y una “r” cuando se utilizan datos muestrales para su cálculo (Aguilar,

Altamira & García, 2010).


El coeficiente de correlación expresa numéricamente, tanto la fuerza, como la

dirección de la correlación. La cual se encuentra entre -1 a 1 (Matus, Hernández, García

& Franco, 2006).

Una correlación de -1 significa una correlación lineal perfecta negativa; una

correlación de 0 significa que no existe relación lineal y una correlación de 1 significa una

relación lineal perfecta positiva (Aguilar et al., 2010).

Formula

𝒏𝜮𝒙𝒚 − (∑𝒙)(𝜮𝒚)
√[𝒏𝜮𝒙𝟐 − (Σ𝑥)2 ][𝑛𝛴𝑦 2 − (∑𝑦)2 ]

Hipótesis

Hi: no existe correlación entre las variables.

Ho: existe correlación entre las variables.

CORRELATIONS
/VARIABLES=Desesperanza Depresión Intención
/PRINT=TWOTAIL NOSIG
/MISSING=PAIRWISE.
Correlaciones

Correlaciones
Desesperanz
a sobre el Sentimientos Intención
futuro de depresión suicida
Desesperanza sobre el Correlación de
1 ,621** ,471**
futuro Pearson
Sig. (bilateral) ,000 ,001
N 50 50 50
Sentimientos de Correlación de
,621** 1 ,405**
depresión Pearson
Sig. (bilateral) ,000 ,004
N 50 50 50
Intención suicida Correlación de
,471** ,405** 1
Pearson
Sig. (bilateral) ,001 ,004
N 50 50 50
**. La correlación es significativa en el nivel 0,01 (bilateral).

Con un intervalo de confianza del 95% y un coeficiente de correlacion positivo

desde 0.405-0.401-1 podemos asumir que existe correlacion positiva entre las variables

desde media, hasta muy buena correlacion

Regresión lineal

El concepto de análisis de regresión se refiere a encontrar la relación entre Y e X,

cuantificando la fuerza de dicha relación, empleando métodos que permitan predecir los
valores de la respuesta dados los valores del regresor X (Walpole, Myers, Myers & Ye,

2012).

La variable a predecir pasara a constituirse como variable dependiente, la cual

está ligada a la variable independiente (Córdova, 2003).

Myers et al. (2012) afirma que en algunos casos habrá más de una variable

regresora, es decir más de una de variable independiente que explique Y.

Por lo tanto, Myers et al. (2012) menciona que en cuyo caso el análisis resultante

se denomina regresión lineal múltiple, en contra parte, el análisis con un solo regresor

recibe el nombre de regresión lineal simple.

Formula

𝒃 = 𝒏(𝜮𝑿𝒀) − (𝜮𝑿)(𝒀)
𝒏(𝜮𝑿𝟐 ) − (𝜮𝑿)𝟐

𝒀 𝜮𝑿
𝒂= −𝒃
𝒏 𝒏

Regresión

Variables entradas/eliminadasa
Variables Variables
Modelo entradas eliminadas Método
1 Edadb . Entrar
a. Variable dependiente: Desesperanza sobre el
futuro
b. Todas las variables solicitadas introducidas.

Resumen del modelo


Error
R cuadrado estándar de la
Modelo R R cuadrado ajustado estimación
1 ,021a ,000 -,020 1,387
a. Predictores: (Constante), Edad

ANOVAa
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión ,043 1 ,043 ,022 ,882b
Residuo 92,377 48 1,925
Total 92,420 49
a. Variable dependiente: Desesperanza sobre el futuro
b. Predictores: (Constante), Edad

Coeficientesa
Coeficientes
Coeficientes no estandarizad
estandarizados os
Error
Modelo B estándar Beta t Sig.
1 (Constante) 6,542 ,585 11,183 ,000
Edad -,032 ,214 -,021 -,149 ,882
a. Variable dependiente: Desesperanza sobre el futuro
Anova Oneway

Según Gómez, (2005) el análisis de la varianza pretende comprar la hipótesis

nula, para k poblaciones normales, independientes con una varianza desconocida .

Por otra parte, Hernández et al. (2014) la define como una prueba estadística para

comparar si dos o más grupos difieren entre si en cuanto a sus medias y varianzas.

Además, Hernández et al. (2014) refiere dos tipos de variables para esta prueba,

definidas como variables independientes de tipo categórica e independiente por intervalo

o razón.

Formula

𝑺𝑺𝒕𝒐𝒕𝒂𝒍 = 𝑺𝑺𝒇𝒂𝒄𝒕 + 𝑺𝑺𝒊𝒏𝒕

Hipótesis

Hi: Todas las medias de los k grupos son iguales.

Ho: Las medias de los k grupos son diferentes.

Unidireccional

Descriptivos
Intención suicida
Desviación Error 95% del intervalo de Máxim
N Media estándar estándar confianza para la media Mínimo o
Límite Límite
inferior superior
Hombr
28 5,64 ,678 ,128 5,38 5,91 3 6
e
Mujer 22 5,32 ,646 ,138 5,03 5,60 4 6
Total 50 5,50 ,678 ,096 5,31 5,69 3 6

ANOVA
Intención suicida
Suma de Media
cuadrados gl cuadrática F Sig.
Entre grupos 1,299 1 1,299 2,940 ,093
Dentro de
21,201 48 ,442
grupos
Total 22,500 49

Referencias
Álvarez R. (2007). Estadística aplicada a las ciencias de la salud. (1° edición). España: Diaz de

Santos.

Aguilar, A. Altamira, J. & García, O. (2010). Introducción a la inferencia estadística. (1° edición).

Naucalpan de Juárez, México: Pearson Educación.

Bouza, C. N. & Sistachs, V. (2002). Estadística: teoría básica y ejercicios. Cuba: Félix Varela.

Berlanga Silvente, V. y Rubio Hurtado, M.J. (2012) Clasificación de pruebas no paramétricas.

Cómo aplicarlas en SPSS. [En línea] REIRE, Revista d’Innovació i Recerca en Educació,

Vol. 5, núm. 2, 101-113. Accesible en: http://www.ub.edu/ice/reire.htm.

Córdova, M. (2003). Estadística descriptica e inferencial. (5°ta edición). Lima, Perú: Moshera

S.R.L.

Colaboradores de Wikipedia. Correlación [en línea]. Wikipedia, La enciclopedia libre,

2008 [Citado 3 abr 2008]. Disponible en: <http://es.wikipedia.org/w/index.php?title=

Correlaci%C3%B3n&oldid=16339013>.

Daniel W. (1995). Bioestadística, Base para el análisis de las ciencias de la salud. México: 5

edición. Editorial Uteha.

Gibbons, J.D., & Chakraborti, S. (1991). Comparisons of the Mann‐Whitney, Studentʹs t, and

alternate t tests for means of normal distributions. Journal of Experimental Education,

59(3), 258‐267.

George C. Canavos. (1988). Probabilidad y Estadística Aplicaciones y Método. México:

McGraw-Hill.
Gómez, M. (2005). Inferencia estadística. (1° edición). España: Diaz de Santos.

Gómez-Gómez, M., Danglot-Banck, C. & Vega-Franco, L. (2003) Sinopsis de pruebas

estadísticas no paramétricas. Cuando usarlas. Revista mexicana de pediatría. 70(2), 91-

99.

Gómez-Gómez M, Danglot-Banck C, Velásquez-Jones, L. (2003). Sinapsis de pruebas

estadísticas no paramétricas. Cuando usarlas. Revista mexicana de Pediatría, 70(2),91-

99.

Hernández, R. Fernández, C. & Baptista, M. (2014). Metodología de la investigación. (6ta

edición). México: McGraw-Hill.

Jiménez, P. Astudillo, J. Mata, B. Jorge, F. & Correia, d’ O. (2011). Depresión y

drogodependencia: efectos sobre la salud dental Av. Odontoestomatol, 27(1), 41-46.

Lay L. Devore. (2008). Probabilidad y Estadística para la Ingeniería y Ciencias. México: Abril

Vega Orozco.

Matus, R. Hernández, M. García, E. & Franco, G. (2006). Estadística. (1° edición). México:

Instituto politécnico nacional.

Martínez-Gonzalez M, Sánchez-Villegas A, Fajardo J.(2008) Bioestadística amigable. España

3ra edición. Editorial: Diaz de Santos. 5(6),206-206.

Pearson, E.S. (1947). The choice of statistical test illustrated on the interpretation

of data in a 2 x 2 table. Biometrika, (34)139-67.

Quintin, M. & María, T. (2007). Tratamiento estadístico de datos con SPSS. Madrid: Maria, D.R.
Reynaga-Obregón, J. (2001). Estadística básica en ciencias de la salud. México: DEMSA.

Ribera, S. & García, M. (2012). Aplicación de la estadística a la psicología. (1° edición). México:

Miguel Ángel Porrúa.

Вам также может понравиться