jueves, 28 de enero de 2010
CORRELACIÒN Y REGRESIÒN
El análisis de correlación simple nos permite obtener relación entre dos conjuntos de puntuaciones.
Para investigar la relación entre dos variables es conveniente considerar:
*Las observaciones que muestran los valores de las variables
*Si se tiene “n” observaciones bidimensionales, cada par de puntos(X, Y) se representa en un sistema de coordenadas rectangulares por un punto como parejas de observaciones se tenga.
El grado de asociación entre dos variables “X” e “Y” podemos describirlos como fuerte, bajo positivo, negativo o moderado; pero estos términos carecen de precisión y objetividad.
El análisis del grado de asociación entre la variable independiente “X” y la variable dependiente “Y” constituye la correlación..
Grupo de técnicas estadísticas empleado para medir la intensidad de la relación (correlación) entre dos variables.
Gráfica que representa la relación entre las dos variables de interés (peso y talla).
COMO TRAZAR UN DIAGRAMA DE DISPERSIÓN
COEFICIENTE DE CORRELACIÒN
El coeficiente de correlación describe la intensidad de la relación entre dos conjuntos de variables de nivel de intervalo o de nivel de razón. Y se le denota con r, con frecuencia se menciona tambien como r de Pearson.
Correlación = Nubes de Puntos
Sea un conjunto de pares de valores de las variables X e Y. Si los representamos en un diagrama de dispersión obtendremos una “nube de puntos” que nos dará una idea gráfica de la posible correlación entre ambas variables.
CALCULO DEL COEFICIENTE DE CORRELACION SIMPLE
Coeficiente de determinación R2
R2 x 100 es el por ciento de la variación total de los datos que es explicada por la línea de regresión.
*Permite establecer numéricamente el ajuste entre las variables.
*R2 cercano a cero significa que “y” no se explica a partir del comportamiento de “x”.
*R2 cercanos o iguales a 1 que y se explica por el comportamiento de “x”.
ANALISIS DE REGRESIÒN
El análisis de regresión sirve para predecir una medida en función de otra medida (o varias).
Y = Variable dependiente predicha explicada
X = Variable independiente predictora explicativa
¿Es posible descubrir una relación?
Y = f(X) + error
f es una función de un tipo determinado el error es aleatorio, pequeño, y no depende de X
Ecuaciòn e regresiòn
Determinar la Ecuación de la Linea de Regresión;
Y = a + bX
Usada para predecir el valor de la Variable Dependiente (Y) basado en los valores de la Variable Independiente (X).
Variable Dependiente (Y): La variable que queremos estimar o predecir.
Variable Independiente (X): La variable que se usa para hacer la predicción o estimación.
Modelo de regresiòn
En el modelo de regresión lineal simple, dado dos variables:
Y (dependiente)
X (independiente, explicativa), buscamos encontrar una función de X muy simple (lineal) que nos permita aproximar Y mediante
Ŷ = b0 + b1X
b0 (ordenada en el origen, constante)
b1 (pendiente de la recta)
Y e Ŷ rara vez coincidirán por muy bueno que sea el modelo de regresión. A la cantidad
e=Y-Ŷ se le denomina residuo o error residual
Error estandsar de estimaciòn
*La media del error es = a cero.
*Si se es pequeño los errores tienden a estar cerca de cero (cerca de la media del error). Entonces, el modelo ajusta bien los datos.
*Por lo tanto, se puede usar se como una medida de la conveniencia de usar un modelo lineal.
*El estimador de se se simboliza como se
El Error Estándar del Estimado mide la dispersión o variabilidad de los datos alrededor de la linea de regresión
Las fórmulas usadas para calcular el Error Estándar son:
Coeficiente de determinación R2
Permite establecer numéricamente el ajuste entre las variables
R2 cercano a cero significa que “y” no se explica a partir del compramiento de “x”
R2 cercanos o iguales a 1 que y se explica por el comportamiento de “x”
Es una medida de la bondad de ajuste del modelo de regresión hallado.
Donde:
SSR representa la suma de cuadrados debido a la regresión y SST representa la suma de cuadrados del total.
El coeficiente de determinación es simplemente el cuadrado del coeficiente de correlación.
El coeficiente de Determinación varía entre 0 y 1.
R2 indica qué porcentaje de la variabilidad de la variable de respuesta Y es explicada por su relación lineal con X.
PRUEBAS ESTADÌSTICAS PUEDEN SER PARAMETRICAS Y NO PARAMÈTRICAS
Las pruebas no parametricas no asumen acerca de los parametros de distribuciòn ni se preocupa por el tipo de distribuciòn, sino trabajan con simple ordenaciòn y recuento (asignando rankings) a los valores de la variable sin importar la distribuciòn.
Pruebas paramètricas
*Para usarlas deben cumplirse supuestos:
*Las variables tienen que ser cuantitativas y estar medidas en escalas de intervalo o razón
*Los datos siguen una distribución normal
*Las varianzas son iguales
*Muestras grandes (n > 30)
A veces se usa sin cumplir los supuestos pero debe usarse con cautela en muestras màs pequeñas o con varianzas desiguales, en estos casos prefiera usar pruebas no parametricas.
Pruebas no parametricas
Se deben usar con:
*Datos de distribución libre (no necesariamente normal). Si un grupo tiene distribución normal mientras el otro no.
*Si se trata de datos cuantitativos, ordinales o nominales
*Con varianza grande, un grupo con varianza 0 y el otro no
*Al trabajar con muestras pequeñas.
¿Que ventajas tienen las pruebas paramètricas sobre las no paramètricas?
Las pruebas parametricas tienen más poder de contraste y pueden analizar interacciones entre variables independientes
PRUEBAS NO PARAMETRICAS
*Chi cuadrado de Pearson (independencia, bondad de ajuste, homogeneidad)
*Prueba exacta de Fischer
*U de mann Whitney – W de Wilcoxon
*T de Wilcoxon
*Mac Nemar
*Kruskall Wallis
*Friedman
*Q de Cochran
Las mas utlizadas son:
CHI CUADRADO
Prueba de bondad de ajuste
Ho: La muestra se ajusta a una distribución teorica (esperado o modelo)
Ha: La muestra no se ajusta a una distribución teorica (esperado o modelo)
Criterio de independencia
Ho: Las variable son independientes
Ha: Las variable estan relacionadas
Criterio de homogeneidad
Ho= Las poblaciones son homogeneas
Ha= Las poblaciones no son homogeneas
MANN WHITNEY
*Contrasta si dos poblaciones muestreadas son equivalentes en su posición
*Es recomendable pero no imprescindible que las poblaciones comparadas tengan el mismo tamaño
*Compara 2 grupos relacionados y variables cuantitativas que no tienen distribución normal o que sean ordinales
*Paralela a la prueba parametrica de contraste t para muestras relacionadas
*Contrasta si dos poblaciones muestreadas son equivalentes en su posición
*Es recomendable pero no imprescindible que las poblaciones comparadas tengan el mismo tamaño
KRUSKALL WALLIS
*Compara k grupos independientes y variables cuantitativas que no tienen distribución normal o que sean ordinales
*Paralela a la prueba parametrica de ANOVA para muestras indpendientes
*Contrasta si K poblaciones muestreadas son equivalentes en su posición
*Es recomendable pero no imprescindible que las poblaciones comparadas tengan el mismo tamaño
ANÀLISIS DE VARIANZA (ANOVA)
¿Cómo funciona el análisis de varianza, en el modelo de clasificación simple?
Esta técnica de lo que trata es de expresar una medida de la variación total de un conjunto de datos como una suma de términos, que se pueden atribuir a fuentes o causas específicas de variación; pues bien esta descomposición de la varianza total se denomina: Identidad fundamental. Ella junto a la formación del estadístico de prueba, se refleja en una tabla llamada “Tabla de Análisis de Varianza”, que resume los principales aspectos teóricos prácticos de la técnica.
Análisis de Varianza
El análisis de varianza consiste en dividir la suma de cuadrado total en dos fuentes de variación y proceder al análisis de las mismas, estas son la variación dentro del grupo y la variación entre grupos. Como son variaciones la vamos a expresar como sumas de cuadrados, es decir:
jueves, 14 de enero de 2010
INFERENCIA ESTADÍSTICA
DEFINICIÓN
ESTIMACIÓN
1. Por punto. Se usan las medidas de la muestra para calcular un único valor numérico que es la estimación del parámetro poblacional.
2. Por intervalo. Las medidas de la muestra pueden también usarse para calcular dos valores numéricos que definen un intervalo el cual, con un cierto nivel de confianza, se considera que incluye al parámetro. La “bondad” de un estimador se evalúa observando su comportamiento en repetidas muestras.
PRUEBA DE HIPÒTESIS
En el análisis estadístico se hace una aseveración, es decir, se plantea una hipótesis, después se hacen las pruebas para verificar la aseveración o para determinar que no es verdadera.
Por tanto, la prueba de hipótesis es un procedimiento basado en la evidencia muestral y la teoría de probabilidad; se emplea para determinar si la hipótesis es una afirmación razonable.
Paso 1: Se plantea la hipotesis nula y alternativa
Paso 2: Se seleciona el nivel de significancia.
Paso 3: Se identifica el estadistico de prueba
Paso 4: Se formula la regla de desicion.
Paso 5: Se toma una muestra y se decide (no se rechaza Ho o se rechaza Ho y se acepta la Ha).
Las pruebas de contraste de hipótesis pueden ser:Bilaterales
La hipótesis alternativa es que las muestras son diferentes (los medicamentos se comportan de forma diferente - es el medicamento A mejor que el B, o el medicamento B mejor que el A).
Unilaterales
La hipótesis alternativa es que una de las muestras es superior a la otra (el medicamento A es mejor que el B), careciendo de importancia para el investigador la otra posibilidad.
TIPOS DE ESRRORES
Un error tipo I se presenta si la hipótesis nula Ho es rechazada cuando es verdadera y debía ser aceptada. La probabilidad de cometer un error tipo I se denomina con la letra alfa α
Un error tipo II, se denota con la letra griega β se presenta si la hipótesis nula es aceptada cuando de hecho es falsa y debía ser rechazada.
El valor “p” es el nivel de significacion mas pequeno que conduce al rechazo de la
hipotesis nula, se calcula de la siguiente manera:
Sea Z0 el estadistico de prueba.
*Prueba de dos extremos (solo para curvas simetricas)
P = 2 [1 – P (Z< p =" 1" p=" P">
Se rechaza H0 cuando α ≥p
Prueba de Hipótesis para μ con muestras grandes y σ2 conocida
Por formula (para el estadistico de prueba Z):
Para el estadístico de prueba t solo sustituya en la fórmula a Z por t.