domingo, 9 de noviembre de 2008

16.6 El Ajuste por minimos cuadrados

Uno de los tipos más comunes e interesantes de experimento involucra la medición de varios valores de dos diferentes variables físicas a fines de investigar la relación matemática entre las dos variables. Sin embargo, en dichos experimentos el ajuste de los datos a una función propuesta, tal como una línea recta, fue realizada en forma cualitativa, es decir, a ojo. Existen formas cuantitativas de encontrar el valor de los parámetros que mejor representan a un conjunto de datos.

Probablemente, los experimentos más comunes son aquellos para los cuales la relación esperada entre las variables es lineal. Por ejemplo, si creemos que un cuerpo está cayendo con aceleración constante g, entonces su velocidad v debería ser una función lineal del tiempo t,


v = v0 + gt


En forma más general, consideraremos un par cualquiera de variables físicas x e y de las cuales sospechemos que están relacionadas por una relación lineal de la forma


y = A + Bx,

donde A y B son constantes. Si las dos variables y y x están relacionadas de esta manera, entonces un gráfico de y versus x debiera resultar en una línea recta de pendiente B, que intersecta al eje y en y = A. Si medimos N diferentes valores de x y los correspondientes valores de y, y si nuestras mediciones no están sujetas a incerteza alguna, entonces cada uno de los puntos (xi, yi) caería exactamente sobre la línea y = A + Bx. En la práctica, existen incertezas, y lo mejor que podemos esperar es que la distancia entre cada punto y la recta sea razonable comparada con las incertezas, tal como en el caso de la siguiente figura:



Las inevitables incertezas experimentales se muestran a través de las barras de error, y sólo podemos esperar que los puntos estén razonablemente cerca de la recta. En este caso, sólo la variable y está sujeta a incertezas apreciables.

Cuando realizamos una serie de mediciones de este tipo, podemos hacernos dos preguntas. En primer lugar, si tomamos por garantido que y y x están relacionadas linealmente, entonces el problema es encontrar la recta y = A + Bx que mejor se ajusta a las mediciones, es decir, las mejores estimaciones para los valores de A y B. Este problema puede tratarse gráfica o analíticamente. El método analítico de encontrar la mejor recta que se ajusta a una serie de datos experimentales es llamado regresión lineal, o ajuste de mínimos cuadrados para una recta.
La segunda pregunta que surge es si los valores medidos realmente llenan nuestras expectativas acerca de la linealidad entre y y x. Para contestar a esta pregunta, deberíamos primero encontrar la recta que mejor se ajusta a los datos, y además encontrar alguna forma de medir qué tan bien esta línea se ajusta a los datos. Si conocemos las incertezas asociadas a los datos, como en el caso de la figura 5, podemos evaluar el ajuste visualmente. Si no tenemos una estimación confiable de las incertezas, entonces tenemos que analizar la bondad del ajuste examinando la distribución de los puntos mismos.


Vayamos a la cuestión de encontrar la recta y = A + Bx que mejor se ajusta a un conjunto de puntos (x1, y1),..., (xN, yN). Para simplificar nuestra discusión, supondremos que sólo las incertezas de la variable y son apreciables. Esta suposición es frecuentemente muy razonable, porque es común el caso en que las incertezas en una variable son muchos más grandes que en la otra. Supondremos además que todas las incertezas en y tiene la misma magnitud. (Esta suposición es también razonable en muchos experimentos. Si las incertezas fueran diferentes, existen formas de generalizar el análisis dándole un peso adecuado a las distintas mediciones).
Si conociéramos las constantes A y B, entonces, para cualquier valor xi podríamos calcular el verdadero valor yi que le corresponde:


(verdadero valor de yi) = A + B xi



La desviación de esta magnitud respecto al valor medido se puede escribir entonces como:


dyi = yi – (A + B xi)


Intuitivamente, vemos que un criterio razonable para elegir la recta que mejor se ajusta a los puntos experimentales es elegir aquella que minimice la suma de los cuadrados de las desviaciones individuales d yi. Esto significa que el valor de los parámetros A y B estará dado por las siguientes dos condiciones:



La resolución simultánea de estas ecuaciones resulta en las expresiones siguientes:




Como vemos, la aplicación del criterio de minimización de la suma de los cuadrados de las desviaciones resulta en la obtención de resultados objetivos para los parámetros A y B. Además de que este criterio es intuitivamente razonable, se puede demostrar que si la medición de cada yi está gobernada por una distribución Gaussiana, entonces la mejor estimación de los parámetros A y B es aquella que minimiza la suma S(dyi)2. La desviación estándar de la pendiente y la ordenada al origen se calculan en términos de la desviación estándar s y de la distribución de valores de dyi alrededor de la mejor recta (en el sentido de los cuadrados mínimos). Esta desviación estándar está dada por:

El factor (N – 2) obedece a razones que no demostraremos aquí, y que están ligadas al número de grados de libertad disponibles. (Para una justificación estadística más profunda refiérase a la bibliografía sugerida). Usando esta expresión para la incerteza de los valores medidos yi, podemos usar propagación de errores para escribir las incertezas en las cantidades A y B:

De esta forma, la aplicación del criterio de cuadrados mínimos nos ha permitido encontrar la mejor estimación de los parámetros A y B, así como también su incerteza. Es fácil demostrar que si por alguna razón tenemos motivos para suponer que la mejor recta debe pasar por el origen de coordenadas, o sea que es de la forma y = Bx, entonces la mejor estimación para la constante B es:

No hay comentarios: