Medidas Estadísticas Bivariantes

Medidas Estadísticas Bivariantes. Regresión: Se supone que la función y = f(x) o y = f(x1, x2,…, xp) que liga la variable explicada con la explicativa (o explicativas) tiene forma paramétrica, es decir, Y se relaciona con X a través de una serie de coeficientes o parámetros. En consecuencia, proporciona estimaciones de Y para cualquier valor de X, esté contenido en la distribución o no. Regresión de tipo I de Y sobre X. EJEMPLO: COEFICIENTE DE DETERMINACIÓN Una vez elegido el modelo de función de regresión de tipo II y estimados los valores de sus parámetros que hacen mínima SCE, la cuestión que se plantea es cómo medir el grado de dependencia de Y respecto de X bajo la suposición de que se estima Y mediante dicha función concreta de X. Tal grado de dependencia será denotado por R2Y/X, y se denomina coeficiente de determinación de la regresión de Y sobre X (R2X/Y, cuando la regresión sea de X sobre Y). EJEMPLO: REGRESIÓN LINEAL Una función y = f(x) se dice que es lineal en X si la variable X aparece con potencia unitaria (por tanto, se excluyen términos como x2, x3, 1/x, √x, por ejemplo) y no está multiplicada ni dividida por otra variable. Por ejemplo, yj = a + bxi + cxi2 no es una función lineal en las variables puesto que la variable X aparece elevada al cuadrado. EJEMPLO: ESTIMACIÓN DE LOS PARÁMETROS DE LA REGRESIÓN LINEAL. En el caso en que se presuma que la relación de dependencia de Y sobre X es de carácter lineal, yj = a + bxi + eij, donde eij representa el error que se comete como consecuencia de que pudiera haber otras variables que influyesen en el comportamiento de la variable Y.EJEMPLO: COEFICIENTE DE DETERMINACIÓN LINEAL. Una vez elegida la función rectilínea para representar la relación de dependencia de Y sobre X y estimados sus parámetros a y b, a continuación se procede al cómputo del coeficiente de determinación lineal con objeto de medir el grado de dependencia de Y sobre X bajo la función de regresión lineal estimada. EJEMPLO: VARIANZA DEBIDA A LA REGRESIÓN LINEAL Y VARIANZA RESIDUAL. Donde el primer término del lado derecho de la igualdad es la varianza debida a la regresión y el segundo la varianza residual. EJEMPLO: CORRELACIÓN LINEAL E INDEPENDENCIA ESTADÍSTICA Donde SXSY no es sino el valor absoluto del máximo valor de la covarianza entre dos variables, por lo que el coeficiente de correlación lineal no hace sino redimensionar el campo de variación de la covarianza entre −1 y 1. Dicho esto, ahora se puede entender por qué la covarianza entre dos variables indica su grado de correlación lineal a través de la recta. EJEMPLO: ALGUNAS REGRESIONES DE TIPO II NO LINEALES SUSCEPTIBLES DE REDUCCIÓN A LINEALESFunción exponencial: ŷi = â EJEMPLO: Función potencial: ŷi = âx EJEMPLO: Función hiperbólica equilátera o recíproca: EJEMPLO: Función potencial:EJEMPLO: Procediendo de forma análoga con la función potencial, dado que se pretende obtener ŷi = â · x Función exponencial: EJEMPLO: Para el cálculo de la suma de los cuadrados de los errores de estimación, SCE, se construye la siguiente tabla: Función potencial: Igual que en el caso exponencial, se procede inicialmente al cálculo de las estimaciones obtenidas mediante la regresión potencial para los distintos intervalos de antigüedad, de los errores cometidos en la estimación y de la suma de sus cuadrados: EJEMPLO:
16