En forma más general, consideraremos un par cualquiera de variables físicas x e y de las cuales sospechemos que están relacionadas por una relación lineal de la forma
y = A + Bx,
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiy6TqujWb3APl3c8dr6wJJd6sdTPvDFn8IR34Bfb_GgAFT_sAJgPmNQdju-fRYXZf71is5gZi8hfrbCNijEt08Q0J_SZwVF785meHFa0pUTkXhCMII40SvMBaAbBjbjQTYuXbVY5xNyMbJ/s200/KO.bmp)
Las inevitables incertezas experimentales se muestran a través de las barras de error, y sólo podemos esperar que los puntos estén razonablemente cerca de la recta. En este caso, sólo la variable y está sujeta a incertezas apreciables.
Cuando realizamos una serie de mediciones de este tipo, podemos hacernos dos preguntas. En primer lugar, si tomamos por garantido que y y x están relacionadas linealmente, entonces el problema es encontrar la recta y = A + Bx que mejor se ajusta a las mediciones, es decir, las mejores estimaciones para los valores de A y B. Este problema puede tratarse gráfica o analíticamente. El método analítico de encontrar la mejor recta que se ajusta a una serie de datos experimentales es llamado regresión lineal, o ajuste de mínimos cuadrados para una recta.
La segunda pregunta que surge es si los valores medidos realmente llenan nuestras expectativas acerca de la linealidad entre y y x. Para contestar a esta pregunta, deberíamos primero encontrar la recta que mejor se ajusta a los datos, y además encontrar alguna forma de medir qué tan bien esta línea se ajusta a los datos. Si conocemos las incertezas asociadas a los datos, como en el caso de la figura 5, podemos evaluar el ajuste visualmente. Si no tenemos una estimación confiable de las incertezas, entonces tenemos que analizar la bondad del ajuste examinando la distribución de los puntos mismos.
Vayamos a la cuestión de encontrar la recta y = A + Bx que mejor se ajusta a un conjunto de puntos (x1, y1),..., (xN, yN). Para simplificar nuestra discusión, supondremos que sólo las incertezas de la variable y son apreciables. Esta suposición es frecuentemente muy razonable, porque es común el caso en que las incertezas en una variable son muchos más grandes que en la otra. Supondremos además que todas las incertezas en y tiene la misma magnitud. (Esta suposición es también razonable en muchos experimentos. Si las incertezas fueran diferentes, existen formas de generalizar el análisis dándole un peso adecuado a las distintas mediciones).
Si conociéramos las constantes A y B, entonces, para cualquier valor xi podríamos calcular el verdadero valor yi que le corresponde:
(verdadero valor de yi) = A + B xi
La desviación de esta magnitud respecto al valor medido se puede escribir entonces como:
dyi = yi – (A + B xi)
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgMfgyLx2TuspXuPXrqhsuC5ioj8LvEjF-CeCYWoRaafla8-P1DBeA5Go5Imktz4dGfwK07S1AM25grQ6An9nlaLcMyUxWdpsQPWB0TDVpKHoxfF3nOd32UD3FBlLeAMsKVsxGsMqhc-Bw7/s320/Dibujo.bmp)
La resolución simultánea de estas ecuaciones resulta en las expresiones siguientes:
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh2hsI-nikVYDGtlX8eA1-uV_eO2xObXK108rWfdblcDXXQ6bKP9UUZ9Ibn11iyLqKOJErmzFfBnwBWmuKqAcfMdBusRED6m7bSMZbNeyr7P3spvdW2PD1yTZ2CYELOWcVaz7QHAJn1cxB9/s320/3.bmp)
El factor (N – 2) obedece a razones que no demostraremos aquí, y que están ligadas al número de grados de libertad disponibles. (Para una justificación estadística más profunda refiérase a la bibliografía sugerida). Usando esta expresión para la incerteza de los valores medidos yi, podemos usar propagación de errores para escribir las incertezas en las cantidades A y B:
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgYy0UDJMzn19slAYr6NhHKccKqdSJ8sH8aBaDF-fiS7cCmqDMrsfdj66BRSbMiUl7spkpEJuHl4dbC6bRbf6NcQDJd8PbQHn5Mfv7t3zlq3BxFkdpnGRdXzHfqVfcRVEvxekzHL_Jp-unU/s320/4.bmp)
No hay comentarios:
Publicar un comentario