Вы находитесь на странице: 1из 23

REPÚBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD BICENTENARIA DE ARAGUA

FACULTAD DE PSICOLOGÍA

SAN JOAQUÍN DE TURMERO – ESTADO ARAGUA

Análisis de correlación y regresión lineal.

MATERIA:

Estadística I

SECCION:

“2”

PROFESORA: ALUMNA:

MARLENE GOMEZ TRIGILIO PACI ROSARIA DANILA

C.I. 20.695.728

1
INDICE

Pág.

INTRODUCCION………………………………………………………………………………..3

DESARROLLO:……………………………………………………………………………........4

 Relación entre variable independiente y dependiente……………………………..4


 Representación gráfica de la relación entre la variable independiente y
dependiente…………………………………………………………………….............6
 Diagramas de dispersión………………………………………………………..……..8
 Coeficiente de Pearson……………………………………………………………….10
 Método de mínimos cuadrados……………………………………………..............14
 Asimetría y Curtosis………………………………………………………………..…19

CONCLUSION…………………………………………………………………………………22

BIBLIOGRAFÍA……………………………………………………………………………..…23

2
INTRODUCCIÓN

La estadística resulta fundamental para conocer el comportamiento de ciertos


eventos, por lo que ha adquirido un papel clave en la investigación. Se usa como un
valioso auxiliar y en los diferentes campos del conocimiento y en las variadas
ciencias. Es un lenguaje que permite comunicar información basada en datos
cuantitativos.

Es tan importante que casi no existe actividad humana en que no esté


involucrada la Estadística. Nos permite deducir conclusiones generales.

La evolución de la estadística ha llegado al punto en que su proyección se


percibe en casi todas las áreas de trabajo. También abarca la recolección,
presentación y caracterización de información (variables) para ayudar tanto en el
análisis e interpretación de datos como en el proceso de la toma de decisiones. La
estadística es parte esencial de la forma profesional, es hasta cierto punto una parte
necesaria para toda profesión.

El manejo y la interpretación de las variables de cualquier proceso o evento


es, por lo tanto, muy importante para deducir o proyectar conclusiones. La
distribución de las variables y su correlación es un factor decisivo para el análisis
estadístico de cualquier investigación.

3
DESARROLLO

Relación entre variable independiente y dependiente

1. El objeto, proceso o característica a estudiar y que modifica su estado con la


modificación de la variable independiente (es decir que depende de ella y
que en esa medida es un efecto) se llama variable dependiente. Si queremos
averiguar cómo se produce la modificación en nuestras sensaciones visuales
con la modificación de la luz, la luz sería la variable que tiene que manipular
el investigador (es decir, la variable independiente) y la sensación luminosa
del sujeto, la variable dependiente.

2. En investigación, se denomina variable independiente a aquélla que es


manipulada por el investigador en un experimento con el objeto de estudiar
cómo incide sobre la expresión de la variable dependiente. A la variable
independiente también se la conoce como variable explicativa, y mientras
que a la variable dependiente se la conoce como variable explicada. Esto
significa que las variaciones en la variable independiente repercutirán en
variaciones en la variable dependiente. Por ejemplo, un investigador desea
saber la efectividad de un nuevo dentífrico contra la caries. Para realizar el
experimento se seleccionarán dos grupos, un grupo principal al que se le
aplicará un tratamiento (el uso de un dentífrico) y otro al que no se le aplicará
nada en absoluto. Para que el experimento tenga validez ambos grupos
deben ser sometidos al mismo régimen de comidas de forma que
controlemos que no aparezcan otras variables intervinientes (por ejemplo,
que un grupo se alimente sólo de dulces y el otro no partiendo del supuesto
de que comer más dulces provoca más caries, elemento que no tenemos
controlado).
En este caso la variable independiente corresponde a la aplicación o no del
dentífrico y la dependiente a si aparece o no caries. Así, tenemos que la
presencia de caries (variable dependiente) es explicada por el uso o no de
dentífrico (variable independiente).Como se ha señalado, la validez de todo

4
experimento depende en gran medida de que se controlen esas variables
intervinientes. Ésa es la razón principal por la que los experimentos en
Ciencias se hagan en la medida de lo posible en condiciones de vacío, para
poder eliminar todas las explicaciones alternativas derivadas de las
condiciones materiales del experimento. Una variable dependiente es aquella
cuyos valores dependen de los que tomen otra variable.

3. Una variable dependiente como su nombre lo dice depende del valor de otra,
por ejemplo y = x+2 en esta expresión "y" se considera la variable
dependiente ya que dependiendo el valor de "x" es el resultado de "y", ahora
con el mismo ejemplo "x" seria la variable independiente ya q no requiere de
una variable adicional para obtener su valor, si quisiéramos graficar esta
expresión nosotros decidiríamos los valores de "x". Si es en métodos de
investigación las variables dependientes son las que "dependen" de ciertos
factores para que puedan desarrollarse o puedan existir, mientras que las
variables independientes son las q ya existen por si solas y no requieren de
influencias externas para estar.

5
Representación gráfica de la relación entre la variable independiente y
dependiente
- Una gráfica es la representación en unos ejes de coordenadas de los pares
ordenados de una tabla.
- Las gráficas describen relaciones entre dos variables.
- La variable que se representa en el eje horizontal se llama variable
independiente o variable x.
- La que se representa en el eje vertical se llama variable dependiente o
variable y.
- La variable y está en función de la variable x.
- Una vez realizada la gráfica podemos estudiarla, analizarla y extraer
conclusiones.
- Para interpretar una gráfica, hemos de observarla de izquierda a derecha,
analizando cómo varía la variable dependiente, y, al aumentar la variable
independiente, x.

Kg de patatas 1 2 3 4 5

Precio en € 2 4 6 8 10

6
En esa gráfica podemos observar que a medida que compramos más kilos de
patatas el precio se va incrementando.

Nota 0 1 2 3 4 5 6 7 8 9 10

Nº de alumnos 1 1 2 3 6 11 12 7 4 2 1

En esta gráfica observamos que la mayor parte de los alumnos obtienen una nota
comprendida entre 4 y 7.

7
Diagramas de dispersión
El diagrama de dispersión permite analizar si existe algún tipo de relación
entre dos variables. Por ejemplo, puede ocurrir que dos variables estén relacionadas
de manera que al aumentar el valor de una, se incremente el de la otra. En este
caso hablaríamos de la existencia de una correlación positiva. También podría
ocurrir que al producirse una en un sentido, la otra derive en el sentido contrario;
por ejemplo, al aumentar el valor de la variable x, se reduzca el de la variable y.
Entonces, se estaría ante una correlación negativa. Si los valores de ambas variable
se revelan independientes entre sí, se afirmaría que no existe correlación.

El diagrama de dispersión es una herramienta gráfica qe ayuda a identificar


la posible relación entre dos variables. Representa la relación entre dos variables
de forma gráfica, lo que hace más fácil visualizar e interpretar los datos.

8
Este es el diagrama de dispersión que expresa la cantidad de dinero que se ganó
Mateo cada semana trabajando en la tienda de su padre.

9
Coeficiente de Pearson

Dado dos variables, la correlación permite hacer estimaciones del valor de una de
ellas conociendo el valor de la otra variable.

Los coeficientes de correlación son medidas que indican la situación relativa de los
mismos sucesos respecto a las dos variables, es decir, son la expresión numérica
que nos indica el grado de relación existente entre las 2 variables y en qué medida
se relacionan. Son números que varían entre los límites +1 y -1. Su magnitud indica
el grado de asociación entre las variables; el valor r = 0 indica que no existe relación
entre las variables; los valores 1 son indicadores de una correlación perfecta
positiva al crecer o decrecer X, crece o decrece Y o negativa. Al crecer o decrecer
X, decrece o crece Y

10
Para interpretar el coeficiente de correlación utilizamos la siguiente escala:

Valor Significado

-1 Correlación negativa grande y perfecta

-0,9 a -0,99 Correlación negativa muy alta

-0,7 a -0,89 Correlación negativa alta

-0,4 a -0,69 Correlación negativa moderada

-0,2 a -0,39 Correlación negativa baja

-0,01 a -0,19 Correlación negativa muy baja

0 Correlación nula

0,01 a 0,19 Correlación positiva muy baja

0,2 a 0,39 Correlación positiva baja

0,4 a 0,69 Correlación positiva moderada

0,7 a 0,89 Correlación positiva alta

0,9 a 0,99 Correlación positiva muy alta

1 Correlación positiva grande y perfecta

11
a) Para datos no agrupados se calcula aplicando la siguiente ecuación:

Ejemplo ilustrativo:

Con los datos sobre las temperaturas en dos días diferentes en una ciudad,
determinar el tipo de correlación que existe entre ellas mediante el coeficiente de
PEARSON.

X 18 17 15 16 14 12 9 15 16 14 16 18 SX =180

Y 13 15 14 13 9 10 8 13 12 13 10 8 SY= 138

Solución:

Se calcula la media aritmética

Se llena la siguiente tabla:

12
Se aplica la fórmula:

Existe una correlación moderada.

13
Método de mínimos cuadrados

Es una técnica de análisis numérico enmarcada dentro de la optimización


matemática, en la que, dados un conjunto de pares ordenados —variable
independiente, variable dependiente — y una familia de funciones, se intenta
encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los
datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las


diferencias en las ordenadas (llamadas residuos) entre los puntos generados por la
función elegida y los correspondientes valores en los datos. Específicamente, se
llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es
1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado.
Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el
mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones
para converger.

Desde un punto de vista estadístico, un requisito implícito para que funcione el


método de mínimos cuadrados es que los errores de cada medida estén distribuidos
de forma aleatoria. El teorema de Gauss-Márkov prueba que los estimadores
mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que
ajustarse, por ejemplo, a una distribución normal. También es importante que los
datos a procesar estén bien escogidos, para que permitan visibilidad en las variables
que han de ser resueltas (para dar más peso a un dato en particular, véase mínimos
cuadrados ponderados).

La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas.


Muchos otros problemas de optimización pueden expresarse también en forma de
mínimos cuadrados, minimizando la energía o maximizando la entropía.

Una forma más precisa de encontrar la recta que mejor se ajusta es el método de
mínimos cuadrados.

14
Use los pasos siguientes para encontrar la ecuación de la recta que mejor se ajusta
para un conjunto de parejas ordenadas.

Paso 1: Calcule la media de los valores de x y la media de los valores de y.

Paso 2: Realice la suma de los cuadrados de los valores de x.

Paso 3: Realice la suma de cada valor de x multiplicado por su valor


correspondiente y.

Paso 4: Calcule la pendiente de la recta usando la fórmula:

donde n es el número total de puntos de los datos.

Paso 5: Calcule la intercección en y de la recta usando la fórmula:

donde son las medias de las coordenadas de x y y de los puntos


de datos respectivamente.

Paso 6: Use la pendiente y la intercepción en y para formar la ecuación de la recta.

Ejemplo:

Use el método de mínimos cuadrados para determinar la ecuación de la recta que


mejor se ajusta para los datos. Luego grafique la recta.

Solución:

Grafique los puntos en un plano coordenado.

15
Calcule las medias de los valores de x y los valores de y, la suma de los cuadrados
de los valores de x , y la suma de cada valor de x multiplicado por su valor
correspondiente y .

Calcule la pendiente.

16
Calcule la intersección en y.

Primero, calcule la media de los valores de x y la media de los valores de y.

Use la fórmula para calcular la intersección en y.

Use la pendiente y la intersección en y para formar la ecuación de la recta que


mejor se ajusta.

La pendiente de la recta es -1.1 y la intersección en y es 14.0.

Por lo tanto, la ecuación es y = -1.1 x + 14.0.

Dibuje la recta en la gráfica de dispersión.

17
18
Asimetría y Curtosis

Asimetría:

Esta medida nos permite identificar si los datos se distribuyen de forma uniforme
alrededor del punto central (Media aritmética). La asimetría presenta tres
estados diferentes [Fig.5-1], cada uno de los cuales define de forma concisa como
están distribuidos los datos respecto al eje de asimetría. Se dice que la asimetría es
positiva cuando la mayoría de los datos se encuentran por encima del valor de la
media aritmética, la curva es Simétrica cuando se distribuyen aproximadamente la
misma cantidad de valores en ambos lados de la media y se conoce como asimetría
negativa cuando la mayor cantidad de datos se aglomeran en los valores menores
que la media.

Figura 5-1
El Coeficiente de asimetría, se representa mediante la ecuación matemática,

Ecuación 5-9

Donde (g1) representa el coeficiente de asimetría de Fisher, (Xi) cada uno de los
valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados
de esta ecuación se interpretan:

19
(g1 = 0): Se acepta que la distribución es Simétrica, es decir,
existe aproximadamente la misma cantidad de valores a los dos lados de la media.
Este valor es difícil de conseguir por lo que se tiende a tomar los valores que son
cercanos ya sean positivos o negativos (± 0.5).

(g1 > 0): La curva es asimétricamente positiva por lo que los valores se tienden a
reunir más en la parte izquierda que en la derecha de la media.

(g1 < 0): La curva es asimétricamente negativa por lo que los valores se tienden a
reunir más en la parte derecha de la media.

Desde luego entre mayor sea el número (Positivo o Negativo), mayor será la
distancia que separa la aglomeración de los valores con respecto a la media.

Curtosis:
Esta medida determina el grado de concentración que presentan los valores en la
región central de la distribución. Por medio del Coeficiente de Curtosis, podemos
identificar si existe una gran concentración de valores (Leptocúrtica), una
concentración normal (Mesocúrtica) ó una baja concentración (Platicúrtica).

Figura 5-2

Para calcular el coeficiente de Curtosis se utiliza la ecuación:

Ecuación 5-10

20
Donde (g2) representa el coeficiente de Curtosis, (Xi) cada uno de los valores, ( )
la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta
fórmula se interpretan:

(g2 = 0) la distribución es Mesocúrtica: Al igual que en la asimetría es bastante


difícil encontrar un coeficiente de Curtosis de cero (0), por lo que se
suelen aceptar los valores cercanos (± 0.5 aprox.).
(g2 > 0) la distribución es Leptocúrtica
(g2 < 0) la distribución es Platicúrtica

Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 =


±0.5) y un coeficiente de Curtosis de (g2 = ±0.5), se le denomina Curva Normal.
Este criterio es de suma importancia ya que para la mayoría de los procedimientos
de la estadística de inferencia se requiere que los datos se distribuyan
normalmente.

La principal ventaja de la distribución normal radica en el supuesto que el 95% de


los valores se encuentra dentro de una distancia de dos desviaciones estándar de
la media aritmética (Fig.5-3); es decir, si tomamos la media y le sumamos dos veces
la desviación y después le restamos a la media dos desviaciones, el 95% de los
casos se encontraría dentro del rango que compongan estos valores.

Figura 5-3

Desde luego, los conceptos descritos hasta aquí, son una pequeña introducción a
las principales medidas de Estadística Descriptiva.

21
CONCLUSIÓN

La estadística es de gran importancia en la investigación científica y el


conocimiento adquirido con respecto a las variables y su correlación nos permite
una descripción más exacta de los eventos, nos obliga a ser claros y exactos en
nuestros procedimientos y en nuestro pensar.

Adicionalmente nos permite resumir los resultados de manera significativa y


cómoda, llevar un orden, interpretar los datos, ordenarlos en diferentes tipos de
gráficos, además de tener muchas opciones de programas que nos ayudan a
facilitar el proceso.

Y finalmente nos permite deducir conclusiones generales relacionadas con el


evento o proceso que analizamos.

22
BIBLIOGRAFÍA
- http://www.e-torredebabel.com/Psicologia/Vocabulario/Variable.htm
- http://es.wikipedia.org/wiki/Variables_independientes_y_dependientes
- http://www.vitutor.com/fun/1/a_4.html
- https://www.aiteco.com/diagrama-de-dispersion/
- Amon, J. (1990). Estadística para psicólogos (1). Estadística Descriptiva. Madrid: Pirámide.
- https://es.wikipedia.org/wiki/M%C3%ADnimos_cuadrados#M.C3.ADnimos_
cuadrados_y_an.C3.A1lisis_de_regresi.C3.B3n
- https://www.varsitytutors.com/hotmath/hotmath_help/spanish/topics/line-of-
best-fit
- http://www.spssfree.com/curso-de-spss/analisis-descriptivo/medidas-de-
distribucion-curtosis-asimetria.html

- Estadística para administradores escrito por Alan Wester de la editorial


McGraw-Hill
- Estadística y Muestreo escrito por Ciro Martínez editorial Ecoe editores
(Octava edición).

23

Вам также может понравиться