Important Announcement
PubHTML5 Scheduled Server Maintenance on (GMT) Sunday, June 26th, 2:00 am - 8:00 am.
PubHTML5 site will be inoperative during the times indicated!

Home Explore AnalisisDatosExperimentales

AnalisisDatosExperimentales

Published by veroronquillo1, 2022-04-01 07:52:14

Description: AnalisisDatosExperimentales

Search

Read the Text Version

Estadística y Programación aplicada a la Química Introducción al análisis de datos experimentales Dr. Pedro Alberto Enríquez Palma Área de Química Física Departamento de Química Licenciatura en Química, Universidad de La Rioja

Índice general 1. Errores, incertidumbres, precision y exactidud. 5 1.1. Errores e incertidumbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2. Cifras o digitos significativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.4. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2. Teoría estadística de los errores(I). Probabilidad 15 2.1. Definición de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.1. El espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.2. Definición empírica de probabilidad . . . . . . . . . . . . . . . . . . . . . . 16 2.1.3. Definición aximática de probabilidad . . . . . . . . . . . . . . . . . . . . . 18 2.1.4. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2. Funciones de distribución de probabilidad. . . . . . . . . . . . . . . . . . . . . . . . 20 2.2.1. Distribuciones de probabilidad de variables aleatorias discretas. . . . . . . . 21 2.2.2. Distribuciones de probabilidad de variables aleatorias continuas . . . . . . . 24 2.3. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.4. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3. Teoría estadística de los errores(II). Esperanza matemática 33 3.1. Esperanza matemática de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 34 3.1.1. Magnitudes aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.2. Magnitudes aleatorias continuas . . . . . . . . . . . . . . . . . . . . . . . . 34 3.1.3. Propiedades de la esperanza matemática . . . . . . . . . . . . . . . . . . . . 34 3.1.4. Momentos de una distribución. . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria . . . . . . 38 3.2.1. Media general de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 39 3.2.2. Media muestral de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 39 1

0.0 Índice general 3.2.3. Varianza de una magnitud aleatoria. . . . . . . . . . . . . . . . . . . . . . . 39 3.2.4. Dispersion o varinza muestral de una magnitud aleatoria . . . . . . . . . . . 42 3.3. Mediana y moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.4.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.5. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4. Distribuciones de probabilidad de variables aleatorias discretas 49 4.1. Distribución uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2. Distribución binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.2.1. Teorema de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3.1. La distribución de Poisson como límite de la distribución binomial . . . . . . 57 4.3.2. La distribución de Gaussiana o normal como límite de la distribución de Poisson 58 4.4. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.4.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4.5. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5. Distribuciones de probabilidad de variables aleatorias continuas 67 5.1. Distribución uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.2. Distribución normal o Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2.1. ¿Qué variables aleatorias siguen una distribución normal? . . . . . . . . . . 75 5.3. La distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.3.1. ¿Qué variables aleatorias siguen una distribución t de Student? . . . . . . . . 81 5.4. La distribución χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.4.1. ¿Qué variables aleatorias siguen una distribución χ2 ? . . . . . . . . . . . . 84 5.4.2. Relación entre la distribución χ2 y la distribución normal . . . . . . . . . . . 87 5.5. La distribución F de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.5.1. ¿Qué variables aleatorias de interés siguen una distribución F de Fisher? . . . 88 5.6. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.6.1. Soluciones a las cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.6.2. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.7. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 6. Intervalos de probabilidad e intervalos de confianza 105 6.1. Distribución de probabilidad del error aleatorio. . . . . . . . . . . . . . . . . . . . . 106 6.2. Intervalos de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.2.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.2.2. Intervalos de probabilidad de las medidas . . . . . . . . . . . . . . . . . . . 107 6.2.3. Intervalos de probabilidad de las medias . . . . . . . . . . . . . . . . . . . . 108 6.2.4. Intervalos de probabilidad de las varianzas . . . . . . . . . . . . . . . . . . 108 6.3. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.4. Calculo de intervalos de confianza para la media . . . . . . . . . . . . . . . . . . . . 113 6.4.1. Datos distribuidos normalmente con varianza σ2(x) conocida . . . . . . . . 113 2

0 Índice general 6.4.2. Datos distribuidos normalmente con varianza finita y con n grande . . . . . . 113 6.4.3. Datos distribuidos normalmente con varianza σ2(x) desconocida . . . . . . . 114 6.4.4. Datos que siguen una distribución desconocida con varianza finita y con n pequeña . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 6.5. Calculo de intervalos de confianza para la varianza . . . . . . . . . . . . . . . . . . 116 6.6. Cálculo de intervalos de confianza para la diferencia de las medias . . . . . . . . . . 117 6.6.1. Datos distribuidos normalmente con varianzas σ12(x) y σ22(y) conocidas . . . 118 6.6.2. Datos distribuidos normalmente con varianzas σ12(x) y σ22(y) desconocidas pero iguales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 6.6.3. Datos que siguen cualquier distribución con varianza finita y con n1 y n2 grandes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 6.6.4. Datos distribuidos normalmente con varianzas σ12(x) y σ22(y) desconocidas y distintas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6.7. Análisis de datos emparejados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6.8. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 6.9. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 7. Cálculo de errores 131 7.1. Cálculo de errores en medidas directas . . . . . . . . . . . . . . . . . . . . . . . . . 132 7.1.1. Errores de escala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 7.1.2. Errores de sistemáticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 7.1.3. Errores accidentales o aleatorios . . . . . . . . . . . . . . . . . . . . . . . . 132 7.2. Desestimación de medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 7.2.1. El ensayo de la Q de Dixon . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 7.2.2. La técnica de la τ de Thompson modificada . . . . . . . . . . . . . . . . . . 136 7.3. Cálculo de errores de medidas indirectas . . . . . . . . . . . . . . . . . . . . . . . . 138 I Apéndices 141 A. Tablas estadísticas 143 A.1. Área bajo la curva normal tipificada . . . . . . . . . . . . . . . . . . . . . . . . . . 143 A.2. Valores de las percentilas tp para un distribución t de Student con ν grados de lbertad 145 A.3. Valores de las percentilas χ2p para un distribución χ2 de Student con ν grados de lbertad146 A.4. Valores de las percentilas F0,95(ν1, ν2) para un distribución F . . . . . . . . . . . . . 147 A.5. Valores de las percentilas F0,99(ν1, ν2) para un distribución F . . . . . . . . . . . . . 148 3

0.0 Índice general 4

1 Errores, incertidumbres, precision y exactidud. Contenidos  Errores e incertidumbres. Concepto de error. Tipos de errores. Error de escala y resolución. Exactitud y precisión.  Cifras y dígitos significativos. Normas de redondeo y truncamiento. Objetivos  Errores e incertidumbre  Comprender el concepto de error  Distinguir entre los errores sistemáticos y aleatorios  Reconocer el error de escala  Comprender los conceptos de precisión, exactitud y sesgo  Cifras significativas  Determinar el número de cifras significativas de un número  Escribir correctamente un número en notación científica  Redondear correctamente un resultado 5

1.1 1.1. Errores e incertidumbres 1.1. Errores e incertidumbres En la determinación experimental de una magnitud no podemos definir error como la diferencia entre el valor observado de la magnitud y su valor real: no conocemos este supuesto valor real sólo disponemos de aproximaciones a ese valor obtenidas en otros experimentos o a partir de predicciones teóricas. Sin embargo, podemos acotar el intervalo de valores que puede asumir esa magnitud al realizar la medida. Suponga que conocemos el valor real del observable1, A. A la diferencia entre el valor del obser- vable A y el valor obtenido en la medida, ai, la denominaremos error absoluto, ei: ei = |A − ai| (1.1) Como es imposible determinar A, no podemos determinar ei. Lo que si podemos hacer es estimar el intervalo de valores en que esperamos encontrar A de modo que la diferencia entre la medida, ai, y A sea menor o igual que un cierto error, εi: εi = |A − ai| (1.2) A − ai ≤ εi ≥ A + ai (1.3) Así, es conveniente representar el valor real que intentamos aproximar (y no conocemos) con un intervalo centrado en la medida ai: A = ai ± εi (1.4) εi es el error absoluto o incertidumbre de la medida. Podemos distinguir tres tipos de contribuciones a la disparidad entre las observaciones experimen- tales y el valor real: errores ilegítimos errores sistemáticos errores aleatorios Los errores ilegítimos2 son aquellos causados por errores de cálculo o en la realización del expe- rimento. Afortunadamente estos son fácilmente detectables, ya sea porque el resultado de la medida es un valor físicamente improbable o porque los resultados difieren considerablemente de otras deter- minaciones. Estos errores se corrigen repitiendo las operaciones erroneas o el experimento. Los errores sistemáticos (o determinados) son aquellos que afectan a las distintas medidas de un modo previsible. Su determinación no es siempre fácil, puesto que no siempre es posible estimar su efecto y sólo pueden detectarse mediante un análisis detallado del procedimiento experimental. Si el tipo y magnitud de este error es conocido, la medida puede ser corregida para compensar por este 1observable: propiedad que puede medirse experimentalmente 2También llamados errores groseros o accidentales 6

1 1.Errores, incertidumbres, precision y exactidud. error. En otros casos la incertidumbre asociada a este efecto ha de ser estimada y combinada con aquella asociada a los errores aleatorios. Un caso particular de error sistemático es el error de escala. Este resulta de la capacidad limitada, resolución, para distinguir dos valores muy próximos de la magnitud medida. La resolución es por tanto una característica del instrumento y siempre tiene un valor distinto de cero. Salvo que el cons- tructor indique lo contrario, su valor puede estimarse como un medio de la unidad que corresponde a las divisiones más próximas de la escala (lectura analógica) o a los cambios más pequeños de un contador (lectura digital). Ejemplo 1. Error de escala Considere un termómetro con una graduación en divisiones de decimas de grado. El error de escala puede estimarse como en 0.05 o C. Este error es constante y afecta a todos las medidas efectuadas. Así, si leemos una temperatura de 36.5 oC, al tener en cuenta la resolución del termómetro, podemos expresar el valor de la temperatura como 36.50 ± 0.05 oC. Es decir, la temperatura está comprendida entre 36.45 y 36.55 oC. Ejemplo 2. Error sistemático Para una determinación de una longuitud se utilizó un metro de aluminio. Las medidas fueron realizadas a una temperatura de 20 oC, obteniendose una media de las me- didas de 1.982 m. Tras completar el experimento se advirtió que el metro se habia calibrado a 25 oC y que el aluminio utilizado tenia un coeficiente de expansión lineal de 0.005 m.oC−1. Es decir, las lecturas del metro a 20 oC no son correctas. 7

1.2 1.1. Errores e incertidumbres ¿Pueden corregirse el resultado obtenido?. Para corregir el error tendemos en cuenta como afecta la temperatura a las medidas del metro: l(T ) = l(25oC) × (1 − 0,005T ) donde l(T ) es la longitud del metro a distintas temperaturas, y T la temperatura en grados Cel- sius. Utilizando esta ecuación se obtiene que el valor de la longitud es 1.977± 0.005 m. Este valor difiere del valor sin corregir. Los errores aleatorios (accidentales o indeterminados) son debidos a factores que sufren pequeñas variaciones durante la medida y que hacen que medidas sucesivas de la misma magnitud difieran. Por ejemplo, el resultado de una pesada en una balanza de precisión puede verse afectado por las vibraciones del platillo, las vibraciones producidas por otros aparatos presentes en el laboratorio, etc. En general la fuente de estos errores no es conocida y por su carácter aleatorio pueden tratarse estadísticamente. La figura 1.1. muestra el efecto de errores sistemáticos y accidentales sobre el resultado de una medida. Algunas definiciones relacionadas con los errores son: exactitud segun la ISO [3] se define como \"grado de concordancia entre el resultado de un ensayo y el valor de referencia aceptado\". Tiene en cuenta todas las fuentes de error del experimento. precisión propiedad relacionada con la magnitud de los errores aleatorios. Cuanto mayor es la preci- sión, menor es la magnitud de los errores aleatorios. sesgo medida del error sistemático. Unas medidas sesgadas tienden a ser mayores o menores que el valor de referencia. Ejemplo 3. Precisión y sesgo La tabla recoge los resultados de volumetrías de 10 ml de NaOH 0.1 M con HCl 0.1 M realizadas por distintos experimentadores. Teniendo en cuenta, la media, desviación típica y la distribución de los datos podemos describir la exactitud, precisión y sesgo de los datos [3, tabla 1.1]. experimentador 10.08 volumen (ml) 10.12 precisión y sesgo A 9.88 10.11 10.09 10.10 10.21 preciso sesgado B 10.19 10.14 10.02 9.80 9.78 impreciso insesgado C 10.04 9.79 9.69 10.05 10.04 impreciso sesgado D 9.98 10.02 9.97 preciso insesgado En general, los errores sistemáticos y accidentales tienen distinta fuentes y pueden ser tratados independientemente, la incertidumbre de una medida puede expresarse como εtotal = εsistematica + εaleatorio (1.5) 8

1 1.Errores, incertidumbres, precision y exactidud. Figura 1.1: Comparación de errores sistemáticos y accidentales. Los errores sistemáticos están asocia- dos con la exactitud de la medida mientras que los errores accidentales o aleatorios con su precisión. Figura 1.2: Distribución de las medidas de la tabla del ejemplo 3 [3, figura1] 9

1.2 1.2. Cifras o digitos significativos 1.2. Cifras o digitos significativos Para indicar el valor de una magnitud experimental se han de proporcionar el máximo número de cifras significativas que permita la precisión del experimento. Cualquier número en valor absoluto puede expresarse como una serie de potencias ∞ (1.6) |x| = αi 10m m=i donde αm es un dígito del 0 al 9, e i es un entero tal que 1 ≤ |x| ≤ 10 (1.7) 10i Las cifras significativas se definen como: 1. el dígito menos significativo es aquel no nulo más a la izquierda 2. el dígito más significativo es aquel más a la derecha que tenga el mismo orden de magnitud que la incertidumbre del experimento 3. el número total de dígitos significativas comprende todos aquellos que van del dígito más al menos significativo Ejemplo 4. Número de cifras significativas ¿Cuantas cifras significativas tiene el número 0, 00370?. En el número 0, 00370 los tres primeros dígitos no son significativos puesto que sólo sirven para indicar el orden de magnitud de la medida. El último cero si es significativo puesto que el número 0,00370 es diferente a 0, 00369, 0, 00371, 0, 00372, . . . . El número tiene 3 cifras significativas. Note que 0,00370 es diferente a 0,0037 porque este número sólo tiene dos cifras significativas. Una consecuencia del resultado del ejemplo anterior es que hay que tener cuidado cuando escribi- mos el resultado de una medida en distintas unidades. Hay que tener cuidado con el número de cifras significativas. Por ejemplo, el equivalente en gramos de 3,2 Kg es 3,2 103g no 3200 g. Esta número no es correcto puesto que supondría que el resultado del peso en Kg lo conocemos con cuatro cifras significativas. Un método que evita ambigüedades a la hora de determinar que cifras son significativas es expre- sar los números en notación científica. En esta notación el número se expresa como el producto de otro número (mantisa) que contiene las cifras significativas, la primera de las cuales ocupa la columna de las unidades, por una potencia de diez. 10

1 1.Errores, incertidumbres, precision y exactidud. Ejemplo 5. Notación científica El número 150000 puede expresarse en notación científica como 1.5 105→ si tiene dos cifras significativas. 1.50 105→ si tiene tres cifras significativas. 1.500 105→ si tiene cuatro cifras significativas. Cuando una magnitud se calcula con un número de cifras superior al de cifras significativas con- viene suprimir las no significativas. A este procedimiento se le denomina redondeo. Al suprimir estas se introduce un error (error de truncamiento) que afectará a las operaciones en las que se incluya esta magnitud. Este error ha de minimizarse, e intentar mantenerlo por debajo de la incertidumbre de la medida. Para ello seguiremos las reglas siguientes: 1. Si el primer dígito despreciado es menor que 5 no se modifica el dígito más significativo. 2. Si el primer dígito despreciado es mayor que 5 se suma uno al dígito más significativo. 3. Si el primer dígito despreciado es 5, suma uno al dígito más significativo si éste es impar; no se modifica en caso contrario. Aunque esta regla parezca arbitraria, se puede demostrar que de no usarse esta u otra similar, induciríamos un error sistemático. Otra regla a tener en cuenta al determinar las cifras significativas supone que si no se proporciona ningún dato relativo a la incertidumbre de la medida consideramos que todas sus cifras son signi- ficativas y que estas son el mayor número que se puede leer con la escala del aparato usado en la medida. Ejemplo 6. Redondeo y truncamiento Redondee los siguientes número al número de cifras significativas adecuado: 7,56128 ± 0,02 →7,56 ± 0,02 7,56128 ± 0,1 →7,6 ± 0,1 1,2451 ± 0,01 →1,24 ± 0,01 1,245 ± 0,01 →1,24 ± 0,01 1,235 ± 0,01 →1,24 ± 0,01 413,73500 ± 0,05 →(4,1374 ± 0,0005)102 11

1.3 1.3. Ejercicios y problemas 1.3. Ejercicios y problemas Errores Cuestión 1.1 Verdadero o falso. Los errores aleatorios de una medida son impredecibles. Sin embargo, la media de estos errores es cero. Cuestión 1.2 Verdadero o falso. Los errores sistemáticos de una medida pueden permanecer constantes o variar de una manera predecible (aunque no conozcamos la forma de esa variación). Cuestión 1.3 Verdadero o falso. Los errores sistemáticos no pueden eliminarse calculando la media de un conjunto de medidas. Cuestión 1.4 Eliga la respuesta adecuada Cuando se resta el blanco a una serie de medidas se intenta eliminar una fuente de error aleato- rio|sistemático|escala. Ejercicio 1.1 Una muestra patrón de suero sanguíneo humano contiene 42.0 g de albúmina por litro. Cinco laboratorios (A-E) realizan cada uno seis determinaciones (en el mismo día) de la concentra- ción de albúmina, con los siguientes resultados (en gl−1): laboratorio concentración de albumina, gl−1 A 42.5 41.6 42.1 41.9 41.1 42.2 B 39.8 43.6 42.1 40.1 43.9 41.9 C 43.5 42.8 43.8 43.1 42.7 43.3 D 35.0 43.0 37.1 40.5 36.8 42.2 E 42.2 41.6 42.0 41.8 42.6 39.0 Comentar el sesgo, precisión y exactitud de cada uno de estos conjuntos de resultados. [3, Ejercicio 1] Ejercicio 1.2 Utilizando la misma muestra y el método del ejercicio anterior, el laboratorio A rea- liza otras seis determinaciones posteriores de la concentración de albúmina, esta vez en seis días sucesivos. Los valores obtenidos son 41.5, 40.8, 43.3, 41.9, y 41.7 g.l−1. Comentar estos resultados. [3, Ejercicio 2] Ejercicio 1.3 Se ha determinado cuatro veces el número de lugares de unión por molécula en una muestra de anticuerpos monoclonados, con resultados de 1.95, 1.95, 1.92 y 1.97. Comentar el sesgo, precisión y exactidud de estos resultados [3, Ejercicio 3] 12

1 1.Errores, incertidumbres, precision y exactidud. Cifras significativas Cuestión 1.5 Explique la diferencia entre redondeo y trncamiento Ejercicio 1.4 Indique el número de cifras significativas y exprese en notación cientifica las siguientes magnitudes: (a) 12.08 m. (b) 5.43 1012 s−1 (c) 0.12 10−3cal (d) 0.0250 g (e) 2500.2 Å (f) 10.5 10 2 eV Ejercicio 1.5 A partir de los resultados de un experimento se calculo que el valor de la energía de ionización del rubidio es de 403.028 kJ mol −1. Por otra parte se estimo que la incertidumbre de dicho calculo en 0.2 kJmol−1. Indique el resultado con el número correcto de cifras significativas. 1.3.1. Soluciones a los ejercicios Errores Ejercicio 1.1 Los resultados de la media g.l−1 para los laboratorios A-E son: 41.9, 41.9, 43.2, 39.1, 41.5. De aquí: A - preciso, poco sesgo, media exacta B - precisión pobre, poco sesgo, media exacta pero no muy fiable C - preciso pero sesgado a valores altos, exactitud pobre D - precisión pobre, sesgado a valores bajos, pobre exactitud E -similar a A, pero el último resultado podría ser un valor anómalo Ejercicio 1.2 El laboratorio A aún muestra poco sesgo, pero la precisión es más pobre, reflejando reproducibilidad (es decir, precisión entre días) pero no repetibilidad (precisión dentro de días). Ejercicio 1.3 El número de posiciones de enlace debe ser un número entero, 2 en este caso, de manera que los resultados son precisos, pero sesgados a valores bajos. El sesgo no es importante, ya que pueden de ducirse dos posiciones de enlace. Cifras significativas Ejercicio 1.4 (a) Cuatro cifras significativas. → 1.208 101 m. (b) Tres cifras significativas. → 5.43 1012 s−1. (c) Dos cifras significativas. → 1.2 10−4 cal. (d) Tres cifras significativas. → 2.50 10−2 g. (e) Cinco cifras significativas. → 2.5002 103 Å. (f) Tres cifras significativas. → 1.05 103 eV. Ejercicio 1.5 4,03 ± 0,20 kJ.mol−1 13

1.4 1.4. Lecturas recomendadas 1.4. Lecturas recomendadas Para completar la preparación de este tema recomendamos la lectura de:  Capítulo 1. Introducción del libro de Miller y Miller[3]. El texto es claro y del mismo nivel que el del curso. Aunque el libro está orientado hacia las aplicaciones de la Quimiometría en Química Analítica, los contenidos son de carácter general.  Introducción del texto de Spiridonov y Lopatkin[7].  Chapter 1. Uncertainties in measurements del libro de Bevington y Robinson[1] 14

2 Teoría estadística de los errores(I). Probabilidad Contenidos  Introducción. Error aleatorio y probabilidad.  Definición de probabilidad. Espacio muestral y sucesos. Magnitud aleatoria discreta y continua. Definición empírica de probabilidad. Defini- ción axiomática de probabilidad.  Funciones de distribución de probabilidad: variables aleatorias dis- cretas. Función de probabilidad o función de frecuencia. Función de dis- tribución de probabilidad acumulada.  Funciones de distribución de probabilidad: variables aleatorias continuas. Función de distribución de probabilidad o de densidad de pro- babilidad. Función de distribución de probabilidad integrada. Objetivos  Definición de probabilidadErrores e incertidumbre  Comprender la relación entre el error aleatorio y la probabilidad  Conocer la definición axiomática de probabilidad y las consecuencias que se derivan de ésta  Comprender la relación entre frecuencia de un suceso y probabilidad de que este se produzca  Funciones de distribución de probabilidad  Realizar cálculos básicos de probabilidad para variables aleatorias dis- cretas  Realizar cálculos básicos de probabilidad para variables aleatorias con- tinuas 15

2.1 2.1. Definición de probabilidad Como vimos en el tema 1, los errores accidentales son debidos a las fluctuaciones de las distintas variables que influyen sobre el experimento. Esto se manifiesta en que medidas repetidas en condi- ciones aparentemente idénticas difieren. Por este carácter aleatorio, los errores accidentales pueden tratarse estadísticamente. El objetivo de la teoría estadística de los errores es múltiple: obtener una apreciación óptima del valor de la magnitud medida, estimar el error accidental en su determinación, verificar si el resultado es compatible con determinadas hipótesis que puedan establecerse sobre la magnitud que se mide, etc. Toda teoría estadística de los errores se basa en dos postulados generales: (a) la medida experimental de una magnitud es una variable aleatoria que cumple la ley de estabi- lidad estadística o de los grandes números según la cual las medidas se concentran en torno a un valor medio, que cuando el número de observaciones es grande (en el límite de infinito) se convierte en un valor constante, independiente del número de observaciones. (b) la probabilidad de que observemos un valor distinto del valor medio puede caracterizarse mediante una función (función de distribución de probabilidad). La forma concreta de la función de distribución de probabilidad puede ser establecida a partir de medidas experimentales o, postulada y posteriormente contrastada con los experimentos. Al postular distintas distribuciones de probabilidad se tendrá una determinada teoría estadística y la interpola- ción de los resultados experimentales será diferente. Generalmente consideraremos que la función de distribución que caracteriza nuestras medidas es una función de distribución normal o Gaussiana1. 2.1. Definición de probabilidad 2.1.1. El espacio muestral En teoría estadística al conjunto de todos los posibles resultados de una medida se le denomina espacio muestral, S. Por ejemplo, (i) En un experimento se miden el número de partículas emitidas por una fuente radiactiva. El espacio muestral está formado por los números 0, 1, 2, ... Puesto que la magnitud determinada en el experimento es una magnitud aleatoria discreta, el espacio muestral es un conjunto contable. (ii) En un experimento se determina el volumen necesario de ácido que hay que utilizar para alcanzar el punto de equivalencia en una valoración ácido-base. El volumen puede tomar cualquier valor, tal que V > 0. La magnitud estudiada es una magnitud aleatoria continua y el espacio muestral puede ser cualquier número real positivo (V > 0) y el espacio muestral es un conjunto no contable. Cada posible subconjunto del espacio muestral se le denomina suceso, A. Un suceso que corres- ponde al resultado de una medida constituye un suceso elemental o simple. 2.1.2. Definición empírica de probabilidad Intuitivamente identificamos la probabilidad de un suceso con la frecuencia con la que esperamos que este ocurra. Podeamos definir la probabilidad de suceso A, P(A), como la frecuencia con que este 1Estudiaremos esta función de distribución de probabilidad en el tema 5 Distribuciones de probabilidad de variables aleatorias continuas 16

2 2.Teoría estadística de los errores(I). Probabilidad se produce en un experimento. De acuerdo con esta definición P (A) = nA (2.1) N donde nA es el número de veces que se repite el suceso A, y N es el número total de experimentos. Aunque esta definición sea suficiente para satisfacer nuestra intuición tiene serias limitaciones. Entre otras: P(A) depende del número total de medidas. P(A) depende del experimento: al repetir el experimento el valor de P(A) puede variar. Ejemplo 1. Limitaciones de la definición empírica de probabilidad Para demostrar las limitaciones de la definición empírica de probabilidad examinaremos un ex- perimento consistente en contar el número de caras que aparecen al lanzar cuatro monedas al aire. Para estimar la frecuencia esperada para cada suseso calcularemos el número de veces que espe- ramos observar un evento,nA, (contar dos caras) frente al número total posibles combinaciones de caras y cruces. Número de caras combinaciones nA P (A) 0 XXXX 1 1 1 CXXX, XCXX 16 4 XXCX, XXXC 4 16 2 CCXX, CXCX, CXXC 6 6 16 XCCX, XCXX, XXCC 3 CCCX, CXCC, 4 4 CXCC, XCCC 16 4 CCCC 1 1 16 Utilizando un programa de ordenador se simuló el experimento de lanzar cuatro monedas al aire un gran número de veces. Para calcular el número de caras que se espera observar en cada experimento se calculo este como N × P (A). 17

2.1 2.1. Definición de probabilidad Número de caras 0 1 2 3 4 16 lanzamientos Esperado 1 4 6 4 1 Experimento 1 2 7 2 4 1 Experimento 2 3 4 4 5 0 160 lanzamientos Esperado 10 40 60 40 10 Experimento 3 9 40 61 38 12 1600 lanzamientos Esperado 100 400 600 400 100 Experimento 3 125 403 567 409 96 16000 lanzamientos Esperado 1000 4000 6000 4000 1000 Experimento 3 1009 3946 5992 4047 1006 En el ejemplo anterior se observa que el acuerdo entre la predicción teórica (número de obser- vaciones esperadas) y el resultado experimental mejora con el número de ensayos. Esto indica que conforme el número de experimentos aumenta la frecuencia muestral o experimental se aproxima a la frecuencia teórica. Este observación ilustra la ley de los grandes números: para valores suficiente- mente grandes del número de medidas, N, las frecuencias muestrales se aproximan a la probabilidad conforme aumenta de N. 2.1.3. Definición aximática de probabilidad Supongamos que tenemos un espacio muestral S. Para cada suceso A de este espacio muestral, asociamos un número real P(A). Entonces P es una función real que se denomina función de proba- bilidad y P(A) la probabilidad del suceso A, si se cumplen los axiomas siguientes: Axioma 1. Para cada suceso A, P (A) ≥ 0. Axioma 2. Para el suceso cierto o seguro: P (S) = 1. Axioma 3. Para dos sucesos cualesquiera, A y B, la probabilidad del suceso que se obtenga A o se obtenga B, P (A ∪ B), viene dada por P (A ∪ B) = P (A) + P (B) − P (A ∩ B) (2.2) que se simplifica cuando los sucesos son mutuamente excluyentes ( P (A ∩ B) = 0) P (A ∪ B) = P (A) + P (B) (2.3) como se ilustra en el diagramas de Venn de la figura 2.1. Esta propiedad puede generalizarse a cualquier número de sucesos. 18

2 2.Teoría estadística de los errores(I). Probabilidad Figura 2.1: Diagrama de Venn que ilustra el significado de P (A ∩ B). (2.4) (2.5) Algunas consecuencias de estos axiomas son: Para cada suceso P(A): 0 ≤ P (A) ≤ 1 es decir la probabilidad de un suceso está entre cero y uno. El suceso imposible tiene probabilidad nula, P (∅) = 0. Si A’ es el suceso complemento de A entonces: P (A ) = 1 − P (A) 2.1.4. Probabilidad condicional La probabilidad de que dos sucesos A y B ocurran simultáneamente, P (A ∩ B), viene dada por P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B) (2.6) donde P (B|A) es la probabilidad condicional de que suceda B si ha ocurrido A. (2.7) Si A y B son sucesos independientes, P (B|A) = P (B), P (A ∩ B) = P (A) × P (B) 19

2.2 2.2. Funciones de distribución de probabilidad. Ejemplo 2. Calculos con probabilidades condicionales Suponga que dispone de una bolsa con tres bolas rojas y cuatro bolas azules. Calcule la proba- bilidad de extraer una bola roja y después una azul, si (a) no reemplaza la bola extraída, y (b) se reemplaza la bola extraída. (a) 3×4 76 P (R1 ∩ A2) = P (R) P (A|R) = = 0,29 P (R) = bolas rojas = 3 bolas 7 P (A|R) = bolas azules = 4 bolas 6 (b) 3×4 77 P (R1 ∩ A2) = P (R) P (A|R) = = P (R) P (A) = = 0,24 P (R) = bolas rojas = 3 bolas 7 P (A|R) = bolas azules = 4 bolas 7 2.2. Funciones de distribución de probabilidad. Debido a los errores aleatorios los resultados de medidas realizadas en idénticas condiciones pro- ducen valores distintos. Esto supone que las medidas experimentales son magnitudes aleatorias. De acuerdo con los posibles resultados de la medida podemos tener: Magnitudes discretas: pueden tomar valores discretos y corresponden a variables aleatorias discretas. Magnitudes continuas pueden tomar cualquiera de los valores de un intervalo finito o infinito y corresponden a variables aleatorias continuas.. En la primera categoría entra un experimento de conteo de fotones. En este se mide el número de fotones que cuenta un fotomultiplicador en la unidad de tiempo. Este sólo puede ser un número natural: 0,1,2,..., 200, . . . , puesto que no podemos contar fracciones de fotón. A la segunda categoría pertenecen las medidas de conductividad de una disolución de electrolitos que pueden tomar cualquier valor dentro de un intervalo: el resultado de la medida es un número real. En adelante para hacer referencia a la magnitud aleatoria utilizaremos letras mayúsculas, mientras que para los resultados de un experimento utilizaremos letras minúsculas. 20

2 2.Teoría estadística de los errores(I). Probabilidad 2.2.1. Distribuciones de probabilidad de variables aleatorias discretas. Sea X una variable aleatoria discreta. Supongamos que los valores que puede tomar estan dados por x1, x2, x3, . . . ordenados en orden creciente de valor. La probabilidad de obtener el valor xi, P (xi), viene dada por P (xi) = f (xi) (2.8) donde f (xi) es la función de probabilidad o función de frecuencia de X. (2.9) De acuerdo con la definición axiomática de probabilidad, f (xi) cumple: f (xi) ≥ 0 N (2.10) f (xi) = 1 i=1 donde N es el número total de posibles valores que puede tomar xi. Se define como función de distribución probabilidad acumulada o función de distribución de X, F (xk) a la probabilidad de que la variable aleatoria tome un valor x tal que x ≤ xk, F (xk) = P (X ≤ xk) (2.11) donde xk es cualquier número real en el intervalo - ∞ < x < +∞. Es importante que tenga en cuenta que cuando trabajamos con magnitudes aleatorias discretas: f (xi), función de probabilidad o función de frecuencia de X. Probabilidad de que la variable aleatoria X tome el valor xi F (xi): función de distribución probabilidad acumulada. Probabilidad de que la variable alea- toria X tome cualquier valor, xj que cumpla xj ≤ xi ¿Cómo se calcula F (xk)? F(xk) se puede calcular a partir de f(x) como F (xk) = f (xi) (2.12) xi≤xk F (xk) es una función monótona creciente. 21

2.2 2.2. Funciones de distribución de probabilidad. Si X toma únicamente un número finito de valores x1, x2, x3, . . . xk entonces la función de distri- bución acumulada viene dada por: 0 −∞ < xk < x1  −∞ < xk < x2 −∞ < xk < x3  f (x1) ...  −∞ < xk < xn+1  ...  xk < +∞  f (x1) + f (x2)    F (xk) = ... (2.13)  f (x1) + f (x2) + ··· + f (xn)    ...     1  Ejemplo 3. Cálculo de la función de distribución de probabilidad acumulada, F (xk), de una variable aleatoria discreta Considere la variable aleatoria X=\"número de caras que se obtiene al lanzar cuatro monedas al aire\". Determinar las funciones de probabilidad y de distribución de X. x 01234 f (x) 1 4 6 4 1 16 16 16 16 16 F (xk) puede obtenerse a partir de f (x) utilizando la ecuación 2.12 F (xk) = f (xi) xi≤xk x<0 x<1 x<2 x<3 x<4 x≥0 F (x) 0 1 5 11 15 1 16 16 16 16 22

2 2.Teoría estadística de los errores(I). Probabilidad Figura 2.2: Funciones de probabilidad, f (xi) y de distribución de probabilidad acumulada, F (xk) para el ejemplo 3. 23

2.2 2.2. Funciones de distribución de probabilidad. 2.2.2. Distribuciones de probabilidad de variables aleatorias continuas Sea una variable continua X. La función de distribución de probabilidad o función de densidad de probabilidad , f (x), proporciona la probabilidad de que la magnitud aleatoria se encuente en el intervalo [x, x + dx] P (x ≤ X ≤ x + dx) = f (x) (2.14) De acuerdo con la definición axiomática de probabilidad, f (x) cumple: (2.15) f (x) ≥ 0 +∞ (2.16) f (x)dx = 1 −∞ La probabilidad de que X se encuentre en el intervalor [a, b] viene dada por (2.17) b P (a ≤ X ≤ b) = f (x)dx a Es importante tener en cuenta que para una variable aleatoria continua, P (X = xi) = 0, P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a < X < b) (2.18) Figura 2.3: Funciones de densidad de probabilidad, f (x) de una variable aleatoria continua. Signifi- cado de P (a ≤ x ≤ b) = b f (x)dx. a 24

2 2.Teoría estadística de los errores(I). Probabilidad Por analogía con las funciones de distribución de probabilidad discretas se puede definir la función de distribución de probabilidad integrada de una variable aleatoria continua, F (xi), continua como: xi F (xi) = P (X ≤ xi) = P (−∞ ≤ X ≤ xi) = f (u)du (2.19) −∞ A partir de esta definición se pueden obtener las siguientes relaciones: bb a P (a ≤ X ≤ b) = f (x)dx = f (x)dx − f (x)dx = F (b) − F (a) (2.20) a −∞ −∞ P (X > a) = 1 − P (X ≤ a) = 1 − F (a) (2.21) ya que x>a es el suceso complementario a x ≤ a. Algunas propiedades de F(x) son: En todo el intervalo en que f(x) es continua, dF (x) f (x) = dx Si x2 >x1 tendremos que F(x2) >F(x1). Es decir F(x) es monótona creciente. F (−∞) = 0 y F (+∞) = 1 Figura 2.4: Funciones de distibución de probabilidad, F (x). Significado de P (a ≤ x ≤ b) = F (b) − F (a) 25

2.2 2.2. Funciones de distribución de probabilidad. Ejemplo 4. Cálculo de la constante de normalización de una función de distribución de probabilidad, f (x), de una variable aleatoria continua Hallar la constante c para que la función de densidad de probabilidad  0 x<0  f (x) = cx2 0 ≤ x ≤ 3  0 x>3 sea una función de distribución de probabilidad y calcular P(1<x<2). Para que f(x) sea una función de distribución de probabilidad debe cumplir la condición (ver ecuación 2.16) +∞ f (x)dx = 1 −∞ Sustituyendo en la ecuación 2.16 +∞ 3 = 1 cx3 3 = 9c = 1 f (x)dx = c x2dx 0 30 −∞ se obtiene que c = 1/9. Utilizando la ecuación 2.17 b P (a ≤ X ≤ b) = f (x)dx a se obtiene P (1 ≤ X ≤ 2) = 2 1 x2dx = 1 2 = 7 x3 1 9 27 1 27 Ejemplo 5. Cálculo de la función de distribución de probabilidad integrada, F (x), de una variable aleatoria continua Sea x una variable aleatoria con función de densidad de probabilidad normalizada 0 x<0  0≤x≤1 1≤x≤2  1−x x>2  x−1 f (x) =   0  (a) Determine F(x), (b) calcule P (0 ≤ X ≤ 1) y (c) P (x = 0, 1/2, 1, 3/2, 2). 26

2 2.Teoría estadística de los errores(I). Probabilidad (a) Para calcular F(x) utilizaremos la ecuación 2.19 x F (x) = f (u)du −∞ Para x < 0, F (x) = 0. En el intervalo 0 ≤ x ≤ 1, x x (1 − u) du = t − 1 t2 x = x − 1 x2 20 2 F (x) = f (u)du = −∞ −∞ En el intervalo 1 ≤ x ≤ 2, x1 2 F (x) = f (u)du = (1 − u) du + (u − 1) du −∞ −∞ 1 = t − 1 t2 1 + 1 t2 − t x = 1 x2 − x + 1 20 2 12 En el intervalo x > 2,F (x) = 1, ya que la función de densidad de probabilidad está normalizada. 0 x<0  0≤x≤1 1≤x≤2 F (x) =  x − 1 x2 x>2  2 1 x2 −  2 x + 1  1  (b) Teniendo en cuenta que - ecuación 2.20 P (a ≤ X ≤ b) = F (b) − F (a) P (0 ≤ X ≤ 1) = F (1) − F (0) = 0,5 (c) P (x = 0, 1/2, 1, 3/2, 2) = P (0) + P (1/2) + P (3/2) + P (2) = 0, por ser la variable x una variable continua. 27

2.2 2.2. Funciones de distribución de probabilidad. Ejemplo 6. Cálculo f (x) a partir de F (x) Sea x una variable aleatoria con función de distribución de probabilidad 0 x<0  0≤x≤1 1≤x≤2 F (x) =  1 x2 x>2  2 − 1 x2 −  2x 2 1   1 Hallar f(x) 0 x<0  0≤x≤1 1≤x≤2 dF (x)  x x>2  2−x f (x) = dx   0  Concepto de cuantila Finalmente, se define como la β cuantila, xβ, el valor de la variable aleatoria X para el que se cumple F (xβ) = P (x ≤ xβ) = β (2.22) Habitualmente se utilizan las 100β percentila. Por ejemplo, la cuantila 0.1 (o la percentila 10) corresponde al valor de la variable aleatoria, x0,1, tal que F (x0,1) = 0,1. 28

2 2.Teoría estadística de los errores(I). Probabilidad 2.3. Ejercicios y problemas Funciones de distribución de probabilidad Cuestión 2.1 Elija la mejor respuesta. Considere una variable alatoria continua X. La función de distribución o densidad de probabilidad,f (x), proporciona: (a) f (x) = P (X = x) (b) f (x) = P (x < X < x + dx) (c) f (x) = P (x ≤ X < x + dx) (d) f (x) = P (x < X ≤ x + dx) (e) f (x) = P (x ≤ X ≤ x + dx) (e) f (x) = P (x ≤ X) (f) Las respuestas b,c,d,e son correctas, ya que son equivalentes (g) Ninguna de las anteriores. La respuesta correcta es ......... Cuestión 2.2 Verdadero o falso. Jusitfique la respuesta. Para una variable alatoria continua X, P (X = xi) = 0 Cuestión 2.3 Indique las respuesta o respuestas correctas. Considere una variable alatoria continua X con función de densidad de probabilidad f (x), P(X<a) viene dado por (a) a f (x)dx (b) 1 − a f (x)dx (c) ∞ f (x)dx −∞ −∞ a (d) 1 − ∞ f (x)dx (e) F (a) (e) 1 − F (a) a (f) Ninguna de las anteriores. Ejercicio 2.1 Dada la función de densidad de probabilidad  0 x<0  f (x) = 1 x2 0≤x≤3 9  0 x>3 (a) Encuentre la función de distribución, F(x), correspondiente. (b) Utilice este resultatado para calcular P (1 ≤ x ≤ 2). Ejercicio 2.2 La función de distribución de la variable aleatoria X es 0 x<0 F (x) = 1 − e−2x x ≥ 0 (a) Encuentre la función de densidad, f(x), correspondiente. (b) Utilice las funciones de distribución y densidad para calcular la probabilidad de que X>2. (c) Utilice las funciones de distribución y densidad para calcular la probabilidad de que −3 ≤ X ≤ 4. 29

2.3 2.3. Ejercicios y problemas Ejercicio 2.3 Una variable aleatoria X tiene una función de densidad c f (x) = x2 + 1 donde −∞ < x < ∞ (a) Encuentre el valor de la constante c. (b) Encuentre la probabilidad de que X2 se encuentre entre 1/3 y 1. Ejercicio 2.4 Dada la función de distribución de probabilidad  0 x<a  f (x) = k a ≤ x ≤ b  0 x>b Determine el valor de k. ¿Qué valor tendrán esta magnitud si a = -e y b = e?. 2.3.1. Soluciones a los ejercicios Funciones de distribución de probabilidad Ejercicio 2.1 (a)  0 x<0  x3 F (x) = 27 0≤x≤3  1 x>3 (b) 7 27 Ejercicio 2.2 (a) f (x) = 0 x<0 2e−2x x ≥ 0 (b) e−4. (c) 1 − e−8 Ejercicio 2.3 (a) De acuerdo con la ecuación 2.16 +∞ f (x)dx = 1 −∞ +∞ c = c tan−1 x ∞ = c π− −π =1 dx −∞ 2 2 −∞ x2 + 1 c = 1/π √√ (b) Si 1 ≤ X2 ≤ 1, los valores de X pueden estar en los intervalos − 3 ≤ X ≤ −1 y 3 ≤ X ≤ 3 3 3 1. Por lo tanto la probabilidad requerida es 30

2 2.Teoría estadística de los errores(I). Probabilidad √√ √ 3 3 3 1 − 3 dx 1 3 dx 2 3 dx = π −1 x2 + 1 π 1 x2 + 1 π 1 x2 + 1 √ 2 3 = tan−1(1) − tan−1( ) π3 2 π−π 1 = = π4 6 6 2.4. Lecturas recomendadas Para completar la preparación de este tema recomendamos la lectura de:  Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7]. Repasa los conceptos básicos de probabilidad y función de distribución de propabilidad. Ade- cuado para revisar la teoría del tema.  Capítulo 2. Variables aleatorias y distribución de probabilidad del libro de Spiegel y cols.[5]. En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las distribuciones de probabilidad conjunta, ... Se recomienda revisar las secciones cuyos conteni- dos coinciden con los del curso: Variables aleatorias. Distribuciones de probabilidad discreta. Funciones de distribución para variables aleatorias. Funciones de distribución para variables aleatorias discretas. Funciones de distribución para variables aleatorias continuas. Interpreta- ciones gráficas. También se recomienda la realización de los ejercicios suplementarios 2.47 a 2.53.  Tema 2. Variables aleatorias y distribuciones de probabilidad. del texto de Walpole y Myers[6]. Se recomienda la consulta de las secciones: 1.Concepto de variable aleatoria; 2. Distribución discreta de probabilidad; 3. Distribución continua de probabilidad; y 4. Distribuciones empíri- cas. 31



3 Teoría estadística de los errores(II). Esperanza matemática Contenidos  Esperanza matemática de una magnitud aleatoria Definición de es- peranza matemática. Propiedades de la esperanza matemática Momentos de una distribución. Media y varianza.  Propiedades generales y propiedades muestrales de una magnitud aleatoria Media general de una magnitud aleatoria, µ. Media muestral de una magnitud aleatoria, x¯. Varianza de una magnitud aleatoria, σ2(x). Dispersion o varinza muestral de una magnitud aleatoria, s2(x). Objetivos  Comprender el concepto de esperanza matemática  Calcular la esperanza matemática , E {y(x)}, de una función y(x) de una variable aleatoria discreta conocida f(x)  Calcular la esperanza matemática , E {y(x)}, de una función y(x) de una variable aleatoria continua conocida f(x)  Conocer y utilizar las propiedades de la esperanza matemática  Calcular los momentos de orden k respecto del parámetro c, Mk de una variable aleatoria discreta o continua  Distinguir entre magnitudes generales y mmuestrales  Comprender la diferencia entre mux y x¯  Comprender la diferencia entre σ2(x) y s2(x)  Evaluar mux y σ2(x) de una magnitud aleatoria  Calcularla media y la varianza muestral de un conjunto de medidas 33

3.1 3.1. Esperanza matemática de una magnitud aleatoria 3.1. Esperanza matemática de una magnitud aleatoria 3.1.1. Magnitudes aleatorias discretas Sea una magnitud aleatoria discreta, x, y una función y(x). Si f (x) es la función de distribución de probabilidad de la variable x, se define como esperanza matemática de la función y(x), k (3.1) E {y(x)} = y(xi) · f (xi) i=1 donde la suma se extiende a todos los posibles valores de x. 3.1.2. Magnitudes aleatorias continuas Sea una magnitud aleatoria continua, x, y una función y(x). Si f (x) es la función de densidad de probabilidad de la variable x, se define como esperanza matemática de la función y(x), ∞ E {y(x)} = y(x) · f (x) dx (3.2) −∞ donde la suma se extiende a todos los posibles valores de x. 3.1.3. Propiedades de la esperanza matemática Algunas propiedades de la esperanza matemática son: Si c es una constante (magnitud no aleatoria) tendremos que E {c} = c (3.3) E {c y(x)} = c · E {y(x)} (3.4) Si la magnitud aleatoria x es la suma de n magnitudes aleatorias independientes x = x1 + x2 + . . . + xn (3.5) su esperanza matemática es la suma de la esperanza matemática las n magnitudes sumadas E {x} = E {x1} + E {x2} + . . . + E {xn} (3.6) 34

3 3.Teoría estadística de los errores(II). Esperanza matemática Si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes y = f (x1, x2, . . . , xn) (3.7) que varia poco en intervalos pequeños de variación de los argumentos, el valor de E {y} es aproximadamente E {y} = f (E {x1} , E {x2} , . . . E {xn}) (3.8) 3.1.4. Momentos de una distribución. Dada una variable aleatoria, x, discreta o continua, se llama momento de orden k respecto del parámetro c, Mk a las esperanza matemática de la variable (x − c)k Mk = E (x − c)k (3.9) Si c = 0 tenemos los momentos respecto del origen a los que suele representarse por αk αk = E (x)k (3.10) Dos momentos de importantes son α0 = 1 y α1 = µX (valor medio de x o media de x). α0 = E (x)0 = E {1} = 1 (3.11) α1 = E (x)1 = E {x} = µx (3.12) Si c = µX hablamos de momentos centrales o momentos respecto de la media. Suele represetarse por µk y vienen dados por µk = E (x − µx)k (3.13) Momentos de importantes son µ0 = 1, µ1 = 0 y µ2 = σx2 (varianza de x). (3.14) µ2 = E (x − µx)2 = σx2 35

3.1 3.1. Esperanza matemática de una magnitud aleatoria Ejemplo 1. Cálculo de la media y la varianza de una variable aleatoria discreta Considere la variable aleatoria X que tiene la siguiente función de distribución de probabilidad x 8 12 16 20 24 f (x) 1 1 3 11 8 6 8 4 12 Cálcule la media y la varianza de X. La media viene dada por la ecuación 3.12 µx = E {x} Sustituyendo µx = x · f (x) = 8 · 1 + 12 · 1 + 16 · 3 + 20 · 1 + 24 · 1 = 16 8 6 8 4 12 La varianza viene dada por la ecuación 3.14 σx2 = E (x − µx)2 σx2 = E (x − µx)2 = (x − 16)2 · f (x) = (8 − 16)2 · 1 + (16 − 12)2 · 1 + (16 − 16)2 · 3 + (20 − 16)2 · 1 + (24 − 16)2 · 1 8 6 8 4 12 = 64 · 1 + 16 · 1 + 0 · 3 + 16 · 1 + 64 · 1 8 6 8 4 12 = 20 La varianza también viene dada por σx2 = E (x2) − µx2 E x2 = x2 · f (x) = 64 · 1 + 144 · 1 + 256 · 3 + 400 · 1 + 24 · 1 = 276 8 6 8 4 12 σx2 = E (x − µx)2 = 276 − (16)2 = 276 − 256 = 20 Como muestran los resultados los dos métodos utilizados para calcular la varianza son equiva- lentes. 36

3 3.Teoría estadística de los errores(II). Esperanza matemática Ejemplo 2. Cálculo de la media y la varianza de una variable aleatoria continua Sea la variable aleatoria X que tiene por función de densidad  0 −∞ < a < x dF (x)  f (x) = k a<x<b dx  0 x < b Calcular la media y la varianza de X. Antes de poder calcular la media y la varianza tenemos que determinar el valor de k. Para que f(x) sea una función de densidad de probabilidad debe cumplir (ver ecuación 2.16) +∞ f (x)dx = 1 −∞ Es decir, b kdx = k · (b − a) = 1 a por tanto k = 1/(b − a) La media viene dada por (ecuación 3.12) +∞ µx = E {x} = x · f (x) dx −∞ bx b+a µx = dx = a b−a 2 La varianza viene dada por la ecuación 3.14 σx2 = E (x − µx)2 que es equivalente a σx2 = E x2 − µx2 E x2 = +∞ b x2 1 x3 b 1 b3 − a3 a b − a dx = 3 b − a a = 3 b − a x2 · f (x) dx = −∞ σx2 = 1 (b − a)2 12 37

3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria 3.2. Propiedades generales y propiedades muestrales de una mag- nitud aleatoria De acuerdo con los postulados de la teoría estadística de los errores tras un número suficiente- mente grande de experimentos, lo valores obtenidos para la magnitud medida tienden a agruparse alrededor de un valor, y su dispersión alrededor de este valor está caracterizada por una función de distribución de probabilidad. En general, una vez conocida la forma de la distribución de probabili- dad, basta para caracterizarla un número limitado de constantes. Estos parámetros que caracterizan al conjunto de todas las medidas que puedan obtenerse de un experimento en ciertas condiciones se denominan parámetros poblacionales. El conjunto de medidas obtenidas en una serie experimentos se denomina muestra. Como el nú- mero de medidas que componen la muestra normalmente es pequeño, los parámetros que caracterizan la muestra, propiedades o parámetros muestrales. En general los parámetros muestrales no coinciden con los parámetros poblacionales. Sin embargo, podemos obtener valores aproximados de losparáme- tros poblacionales a partir de los parámetros muestrales (estimas) 1. Una propiedad de las estimas es que son variables aleatorias mientras que los parámetros po- blacionales son valores constantes y característicos de la función de distribución de probabilidad asociada a los errores aleatorios. Finalmente, una cuestión de notación. En esta sección designaremos las propiedades poblaciona- les utilizando el alfabeto griego, mientras que utilizaremos el alfabeto latino para propiedades mues- trales. Propiedades generales de las estimas Si T es una estima del parámetro poblacional θ, T debe cumplir entre otros criterios que E {T } = µT = θ. Esto equivale a decir que la estima T no es una estima sesgada. La estima es consistente. Es decir, cuanto mayor es el número de medidas utilizadas para cal- cular T , mayor es la proximidad entre los valores de T y θ Propiedades muestrales de uso frecuente Para describir nuestras medidas haremos referencia a dos tipos de propiedades muestrales: un número alrededor del que las medidas se agrupan: media muestral, x. un número que da una medida de la dispersión de los valores alrededor de la media: la desvia- ción típica muestral, s(x). Utilizaremos la media muestral, x¯ como estima del valor real. Como medida de la incertidumbre de cada medida utilizaremos la desviación típica de nuestros datos, s(x), mientras que para acotar la incertidumbre de la estima de la media utilizaremos la desviación típica muestral de la media, s(x¯). 1Existen distintos métodos para obtener estimas. Algunos de ellos son el método de máxima verosimilitud, el método de mínimos cuadrados, el método de los momentos y el método Bayesiano. La descripción de estos métodos excede los objetivos del curso 38

3 3.Teoría estadística de los errores(II). Esperanza matemática 3.2.1. Media general de una magnitud aleatoria El valor medio de la magnitud aleatoria x para el conjunto general es la esperanza matemática de la magnitud aleatoria µx = E {x} (3.15) 3.2.2. Media muestral de una magnitud aleatoria La media muestral de la magnitud aleatoria x se define como el valor medio de los valores obser- vados x1,x2, . . . ,xn, x1 + x2 + . . . + xn 1· n n n x¯ = = xj (3.16) j=1 3.2.3. Varianza de una magnitud aleatoria. La varianza o dispersión de una magnitud aleatoria x se define como la esperanza matemática de las desviaciones respecto a la media general: σx2 = E (x − µx)2 (3.17) Al valor positivo de la raíz cuadrada de la varianza, σ(x), se le llama desviación cuadrática media, desviación típica o desviación normal. Algunas propiedades de la varianza son: Si c es una constante (magnitud no aleatoria) tendremos que: σ2(c) = 0 (3.18) σ2(c x) = c2 σ2(x) (3.19) (3.20) Si la magnitud aleatoria x es la suma de n magnitudes aleatorias independientes (3.21) x = x1 + x2 + . . . + xn la varianza de x es la suma de las varianzas de las n magnitudes sumadas σ2(x) = σ2(x1) + σ2(x2) + . . . + σ2(xn) 39

3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria Sin embargo,σ(x) viene dado por (3.22) σ(x) = σ2(x1) + σ2(x2) + . . . + σ2(xn) La varianza se puede calcular a partir de los momentos respecto del origen α1 y α2: (3.23) σ2(x) = E x2 − µ2x Si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes y = f (x1, x2, . . . , xn) (3.24) que varia poco en intervalos pequeños de variación de los argumentos, el valor de σ2(y) es aproximadamente σ2(y) = ∂f 2 ∂f 2 ∂f 2 (3.25) ∂x1 ∂x2 ∂xn σ2(x1) + σ2(x2) + . . . σ2(xn) Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas. Ejemplo 3. Varianza de una magnitud indirecta Utilizando un puente de Wheatstone, la resistencia de una disolución de electrolitos, W , puede calcularse mediante la ecuación W = R · 1000 − a = R · 1000 − 1 aa donde R es el valor de una resistencia patrón conocida y a es la lectura de la resistencia que se obtiene experimentalmente cuando se equilibra el puente de Wheatstone. Calcule la incertidumbre de W . Considere que la incertidumbre de R es despreciable. De acuerdo con la ecuación 3.30 σ2(y) = ∂f 2 ∂f 2 ∂f 2 ∂x1 ∂x2 ∂xn σ2(x1) + σ2(x2) + . . . σ2(xn) que en nuestro caso se reduce a σ2(W ) = ∂W 2 ∂a σ2(a) 40

3 3.Teoría estadística de los errores(II). Esperanza matemática ∂W 1000 ∂a = −R · a2 σ2(W ) = R2 · 106 σ2(a) a4 Ejemplo 4. Varianza de una magnitud indirecta (II) Determine la incertidumbre en la medida de la entalpia para la reacción NH3(g) + 5 O2(g) O(g) + 3 H2O(g) ∆Hr R.1 4 2 Considere las reacciones: R.2 H2O(g) H2O(l) ∆H2 1 N2(g) + 3 H2 (g) NH3(g) ∆H3 R.3 2 2 1 H2 (g) + 1 O2 (g) H2O(g) ∆H4 R.4 2 2 1 NO(g) 1 N2(g) + 1 O2(g) ∆H5 R.5 2 2 2 Utilizando la ley de Hess podemos expresar ∆Hr en función de las entalpias de las reacciones R.2 a R.5 33 ∆Hr = − 2 ∆H2 − ∆H3 + 2 ∆H4 − ∆H5 y de acuerdo con las propiedades de la dispersión muestral, ecuación 3.30, la incertidumbre en ∆Hr es σ2(∆Hr) = ( 3 )2σ2(∆H2) + σ2(∆H3) + ( 3 )2 σ2(∆H4) + σ2(∆H5) 2 2 41

3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria 3.2.4. Dispersion o varinza muestral de una magnitud aleatoria La dispersión muestral de una magnitud aleatoria prodría definirse como s∗2 = 1 n (3.26) n (xj − µx)2 j=1 Esta expresión presupone que conocemos el valor de µx. Como sólo disponemos de una estima de esta magnitud, la media muestral,x¯. Si sustituimos la media muestral por la media poblacional con lo que tendriamos: s∗2 = 1 n (3.27) n (xj − x¯)2 j=1 Sin embargo cuando comprobamos la propiedades de esta estma observamos que la estima de σ(x)2 que obtenemos, s∗2 es una estima sesgada: E{s∗2} < σ2(x). Podemos obtener una buena estima sustituiyendo N en el cociente en la expresión de s2∗ por el número de grados de libertad. El número grados de libertad es el número de observaciones indepen- dientes, es decir aquellas en exceso a las necesarias para determinar los parametros que aparecen en la ecuación. En este caso, el número de grados de libertad es N-1 pues al menos necesitamos 1 dato para determinar la media muestral. s2(x) = 1 n (3.28) n−1 (xj − x¯)2 j=1 En este caso E{s2(x)} = σ2(x). s2(x) es la varianza muestral de x. Como en el caso de la varianza, si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes y = f (x1, x2, . . . , xn) (3.29) que varia poco en intervalos pequeños de variación de los argumentos, el valor de s2(y) es aproxima- damente s2(y) ≈ ∂f 2 ∂f 2 ∂f 2 (3.30) ∂x1 ∂x2 ∂xn s2(x1) + s2(x2) + . . . s2(xn) Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas o indirectas2. 2Cálculos de propagación de errores 42

3 3.Teoría estadística de los errores(II). Esperanza matemática Ejemplo 5. Calculo de la media y la varianza muestral En una serie de experimentos para determinar la entalpia neutralización del HCl y NaOH a 300 K se obtuvieron los siguientes valores: ∆H(kcal/mol) : 54,4, 56,4, 57,5, 56,6, 57,0, 56,5, 58,4, 57,0, 55,2 Determine el valor de media y la desviación típica de las medidas. La media muestral viene dada por la ecuación 3.16 x1 + x2 + . . . + xn 1· n n n x¯ = = xj j=1 mientras que la varianza muestral se calcula utilizando la ecuación 3.28 s2(x) = 1 n n−1 (xj − x¯)2 j=1 Medida xi xi − x¯ (xi − x¯)2 1 54.4 -2.15 4.6225 2 56.4 -0.16 0.0256 3 57.5 0.94 0.8836 4 56.6 -0.04 0.0016 5 57.0 0.44 0.1936 6 56.5 -0.06 0.0036 7 58.4 1.84 3.3856 8 57.0 0.44 0.1936 9 55.2 -1.36 1.8496 509.0 0.0 11.593 SUMA Sustituyendo en las ecuaciones 3.16 y 3.28 se obtiene x¯ = 509,0/9 = 56,56 kcal.mol−1. s2 = 11,1593/8 = 1,3949( kcal.mol−1)2 y s = 1,18 kcal.mol−1. El resultado final ∆H = 56,6 ± 1,2 kcal.mol−1. 43

3.3 3.3. Mediana y moda 3.3. Mediana y moda La media, o esperanza, de una variable aleatoria X proporcion una medida de la tendencia central para los valores de una distribución. Otras medidas de la tendencia central frecuentemente usadas son: Moda Para una variable aleatoria discreta es el valor que ocurre con más frecuencia o, en el que tiene la mayor probabilidad de ocurrencia. Algunas veces tenemos dos, tres o más len probabilidades relativamente grandes de ocurrencia. En tales casos, decimos que la bimodal, trimodal o multi- modal, respectivamente. En el caso de una variable aleatoria continua X es el valor o valores de X donde la función de densidad de probabilidad tiene un máximo relativo. Mediana Valor de x para el cual P (X < x) = 1 y P (X > x) ≤ 1 . En el caso de una variable 2 2 1 continua tenemos P (X < x) = 2 = P (X > x), y la mediana separa la curva de densidad en dospartes con áreas iguales de 1/2 cada una. En el caso de una distribución discreta, no existe una mediana única 44

3 3.Teoría estadística de los errores(II). Esperanza matemática 3.4. Ejercicios y problemas Cuestión 3.1 Demuestre µ0 = 1 Cuestión 3.2 Demuestre µ1 = 0 Cuestión 3.3 Demuestre σx2 = E x2 − µ2x Cuestión 3.4 Verdadero o falso. Jusitfique la respuesta. La media muestral, x¯ es una variable aleatoría Cuestión 3.5 Verdadero o falso. Jusitfique la respuesta. La varianza, σ2(x) es una variable aleatoría Cuestión 3.6 Verdadero o falso. Jusitfique la respuesta. La media µx y la varianza σ2(x) son dos propiedas características de una variable aleatoria Esperanza matemática de una magnitud aleatoria Ejercicio 3.1 Dada la función de densidad de probabilidad Sea la variable aleatoria X que tiene por función de densidad 0 −∞ < x < 0  0≤x<1 1≤x≤2 dF (x)  x x>2  2−x f (x) = dx   0  Calcular la media y la varianza de X. Calculo de magnitudes muestrales Ejercicio 3.2 Al realizar cinco medidas del indice de refracción de una mecla se obtuvieron los siguientes valores: 1.591, 1.521,1.528,1.570,1.587 45

3.4 3.4. Ejercicios y problemas Ejercicio 3.3 Los resultados de una serie de medidas de la temperatura con un termometro agrupa- dos en clases de anchura 0.1 K son T / K 298 298.1 298.2 298.3 298.4 298.5 Fi 0.2 0.2 0.3 0.1 0.1 0.1 Dibuje el histograma asociado a estos datos. Ejercicio 3.4 En una serie de experimentos se determino la capacidad de absorber metales pesados presentes en el medio natural de ciertas especies de pescado. Los siguientes datos corresponden a medidas de la concentración promedio de cadmio (mg Cd por Kg de pez) para una especie en distintos bancos del Atlántico. 13.1 8.4 16.9 2.7 9.6 4.5 12.5 5.5 12.7 17.1 10.8 18.9 27.0 18.0 6.4 13.1 8.5 7.5 12.1 8.0 11.4 5.1 5.6 5.5 5.0 10.1 4.5 7.9 7.9 8.9 3.7 9.5 14.1 7.7 5.7 6.5 10.8 14.7 14.4 5.1 Determine la media y la desviación típica de los datos. Dibuje el histograma correspondiente. Ejercicio 3.5 Una medida de la eficiencia de una torre de destilación es la velocidad de producción de vapor. En la tabla se recogen una serie de valores correspondientes a esta propiedad. 1170 1620 1495 1170 1710 1710 1530 1260 1440 1800 1170 1260 1170 1640 1800 1800 1530 1350 1800 1530 1170 1440 1530 1260 1350 1350 1350 1440 1170 1710 1620 1350 1730 1800 1800 1530 1440 1620 Determine la media y la desviación típica de los datos. Dibuje el histograma y diagrama de frecuencias asociado a estos datos. ¿Por debajo de que valor se encuentra el 90 % de los datos?. 3.4.1. Soluciones a los ejercicios Esperanza matemática de una magnitud aleatoria Ejercicio 3.1 La media viene dada por (ecuación 3.12) +∞ µx = E {x} = x · f (x) dx −∞ 46

3 3.Teoría estadística de los errores(II). Esperanza matemática 12 µx = x · x dx + x · (2 − x) dx 01 = x3 1 + x2 − x3 2 = 1 2 = 1 + 30 31 3 3 La varianza viene dada por la ecuación 3.14 σx2 = E (x − µx)2 = E x2 − µx2 E x2 12 = x2 · x dx + x2 · (2 − x) dx 01 = x4 1 + 2x3 − x4 2 = 1 + 14 − 15 = 7 40 3 41 4 3 4 6 σx2 = 7 − (1)2 = 1 6 6 3.5. Lecturas recomendadas Para completar la preparación de este tema recomendamos la lectura de:  Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7]. Revisa los contenidos del tema. Adecuado para revisar la teoría del tema.  Capítulo 3. Esperanza matemática del libro de Spiegel y cols.[5]. En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las funciones generatrices, ... Se recomienda revisar las secciones cuyos contenidos coinciden con los del curso. Se recomienda revisar los ejercicios resueltos 3.1, 3.2, 3.19(a).  Tema 3.Esperanza matemática. del texto de Walpole y Myers[6]. Se recomienda la consulta de las secciones: 1. Media de una variable aleatoria, 2. Varianza y covarianza. 47



4 Distribuciones de probabilidad de variables aleatorias discretas Contenidos  Distribución uniforme Descripción y propiedades.  Distribución binomial Descripción y propiedades. Teorema de Moivre.  Distribución de Poisson Descripción y propiedades. La distribución de Poisson como límite de la distribución binomial. Convergencia de la distribución de Poisson a la distribución de Gauss. Objetivos  Reconocer las características de la distribución uniforme de una variable aleatoria discreta  Reconocer las características de un experimento de Bernuilli  Realizar calculos de probabilidades de variables aleatorias que siguen un distribución binomial  Calcular µ y σ de variables que siguen un distribución binomial  Utilizar el teorema de Moivre para calcular probabilidades de resultados de un experimento de Bernuilli utilizando una distribución normal  Realizar calculos de probabilidades de variables aleatorias que siguen un distribución de Poisson  Calcular µ y σ de variables que siguen un distribución de Poisson  Utilizar la distribución normal para calcular probabilidades de resultados de un experimento de Poisson  Utilizar la distribución de Poisson para calcular probabilidades de resul- tados de un experimento de Bernuilli en el límite de probabilidades de exito bajas y número de pruebas grande 49


Like this book? You can publish your book online for free in a few minutes!
Create your own flipbook