Pr. Probability Cálculus - JulTob/Mathematics GitHub Wiki

Concepto Básico de Probabilidad:

La probabilidad nace de la observación de fenómenos que son impredecibles o que contienen elementos de azar. La idea básica es que, aunque no podamos predecir el resultado específico de un evento individual, podemos analizar la frecuencia con la que ciertos resultados ocurren en un gran número de repeticiones.

1. Experimento aleatorio

Es una situación o procedimiento que, bajo las mismas condiciones iniciales, puede producir diferentes resultados, y no es posible predecir cuál de ellos ocurrirá en un intento particular.

Ejemplo: Lanzar un dado justo. Aunque sabemos que saldrá un número entre 1 y 6, no podemos predecir con certeza cuál será en un lanzamiento particular.

\textbf{Ejemplo: } \textit{Lanzar un dado justo.}

La probabilidad mide cuán probable es que ocurra un evento determinado. Se representa con un número entre 0 y 1, donde 0 indica que el evento es imposible y 1 indica que el evento es seguro.

Ejemplo: Si lanzamos un dado justo, la probabilidad de que salga un 3 es 1/6, ya que hay 6 posibles resultados y solo 1 de ellos es un 3.

2. Espacio Muestral (Ω):

Es el conjunto de todos los posibles resultados de un experimento aleatorio.

Ejemplo: Si lanzamos un dado, el espacio muestral es Ω = {1,2,3,4,5,6}.

\Omega = \{1,2,3,4,5,6\}

3. Evento:

Un evento es cualquier conjunto de resultados dentro del espacio muestral.

Puede consistir en un solo resultado, varios resultados o ningún resultado (evento imposible).

Ejemplo: El evento "obtener un número par al lanzar un dado" se representa como E = {2,4,6}.

E = \{2,4,6\}

4. Operaciones con Eventos:

Podemos realizar operaciones con eventos como la unión, intersección, y complemento.

Ejemplo: Si A = "obtener un número menor que 4" y B = "obtener un número par", entonces:

  • $A ∪ B$ = "obtener un número menor que 4 O un número par" = {1,2,3,4,6}
  • $A ∩ B$ = "obtener un número menor que 4 Y un número par" = {2}
  • $A^c$ = "no obtener un número menor que 4" = {4,5,6}

5. Frecuencia relativa:

Es el cociente entre el número de veces que se produce un evento y el número total de repeticiones del experimento. A medida que aumenta el número de repeticiones, la frecuencia relativa de un evento tiende a estabilizarse alrededor de un valor que llamamos probabilidad.

Ejemplo: Si lanzas un dado 100 veces y obtienes 16 cuatros, la frecuencia relativa de obtener un cuatro es:

f(E) = \frac{16}{100} = 0.16

El concepto de frecuencia relativa nos lleva a la definición clásica de probabilidad:

Si un experimento aleatorio tiene $n$ posibles resultados igualmente probables y un evento $E$ puede ocurrir de $m$ maneras, entonces la probabilidad $P$ de $E$ es:

P(E) = \frac{m}{n}

6. Probabilidad Condicional:

La probabilidad de que ocurra un evento A dado que ha ocurrido otro evento B se denota P(A|B) y se calcula como:

[ P(A|B) = \frac{P(A ∩ B)}{P(B)} ]

7. Independencia:

Dos eventos A y B son independientes si la ocurrencia de uno no afecta la probabilidad del otro.

8. Teorema de Bayes:

Nos permite encontrar la probabilidad de que ocurra un evento A dado B, sabiendo la probabilidad de que ocurra B dado A.

 P(A|B) = \frac{P(B|A)P(A)}{P(B)} 

El modelo matemático de la probabilidad

Para formalizar y estudiar los fenómenos aleatorios, los matemáticos desarrollaron un modelo que consta de tres componentes: el espacio muestral, los eventos y una función de probabilidad. Este modelo permite realizar cálculos y análisis detallados sobre fenómenos aleatorios.

1. Espacio Muestral (Ω):

Ya hemos discutido anteriormente que el espacio muestral es el conjunto de todos los posibles resultados de un experimento aleatorio.

Ejemplo: Para un lanzamiento de moneda, el espacio muestral es:

   \Omega = \{\text{cara}, \text{cruz}\}

2. Sigma-Álgebra (ℱ):

Definición: Una sigma-álgebra ℱ es un conjunto de subconjuntos (o eventos) del espacio muestral Ω que satisface tres propiedades fundamentales.

Es una colección de subconjuntos de Ω (eventos) que cumple con tres propiedades:

  • El espacio muestral Ω está en ℱ.
  • Si un evento $( A )$ está en ℱ, su complemento $( A^c )$ también lo está.
  • La unión numerable de eventos en ℱ también está en ℱ.

1. El espacio muestral está en 𝓕.

Esto simplemente significa que el conjunto que contiene todos los posibles resultados del experimento (el espacio muestral completo) es un evento que podemos medir o asignar una probabilidad.

Ejemplo: Si lanzamos un dado, nuestro espacio muestral es:

   \Omega = \{1, 2, 3, 4, 5, 6\}

Esto implica que $( \Omega )$ es un evento en nuestra sigma-álgebra $( \mathcal{F} )$.

Espacio Muestral Ω y Sigma-Álgebra 𝓕

Primero, para clarificar, $( \mathcal{F} )$ es la notación comúnmente utilizada para denotar una sigma-álgebra. Una sigma-álgebra $( \mathcal{F} )$ es una colección de subconjuntos del espacio muestral $( \Omega )$ que cumple con ciertas propiedades, como mencioné anteriormente.

Uno de los requisitos fundamentales de una sigma-álgebra $( \mathcal{F} )$ es que el espacio muestral completo $( \Omega )$ debe estar contenido en $( \mathcal{F} )$ .

¿Por qué el espacio muestral Ω debe estar en 𝓕 ?

El espacio muestral $( \Omega )$ representa todos los posibles resultados de un experimento aleatorio. La razón por la que $( \Omega )$ debe ser un elemento de $( \mathcal{F} )$ es que queremos ser capaces de asignar una probabilidad a la "certeza" de que ocurra algún resultado del experimento. Dado que el experimento debe producir algún resultado, la probabilidad de que ocurra algún resultado en $( \Omega )$ es 1. En otras palabras, estamos completamente seguros (probabilidad 1) de que el resultado estará en $( \Omega )$ .

Si el espacio muestral $( \Omega )$ no estuviera en $( \mathcal{F} )$ , no podríamos asignarle una probabilidad, lo que no tendría sentido ya que $( \Omega )$ engloba todos los posibles resultados del experimento.

Ejemplo con el dado:

Para un dado de seis caras, el espacio muestral $( \Omega )$ es:

\Omega = \{1, 2, 3, 4, 5, 6\}

Si estamos creando una sigma-álgebra $( \mathcal{F} )$ que contiene eventos relacionados con los resultados del lanzamiento de un dado, $( \Omega )$ definitivamente debe ser uno de esos eventos, porque representa la certeza de que obtendremos algún número entre 1 y 6 cuando lancemos el dado. Por lo tanto, podemos asignar una probabilidad de 1 a $( \Omega )$ .

P( \Omega ) = 1

En resumen, incluir $( \Omega )$ en $( \mathcal{F} )$ nos permite asignarle una probabilidad de 1, reflejando la certeza de que el resultado del experimento estará en $( \Omega )$ . Es una de las bases fundamentales en la construcción matemática de la teoría de probabilidad.

Ejemplo: Pronóstico del Tiempo

Imagina que eres un meteorólogo y quieres hacer un pronóstico muy básico para mañana. Solo te interesa si va a llover o no.

  1. **Espacio Muestral $( \Omega )$ **: El espacio muestral es simplemente la lista de todos los posibles resultados. En este caso, tenemos dos resultados posibles:

    • Lloverá mañana.
    • No lloverá mañana.

    Representando esto de manera matemática, nuestro espacio muestral es:

   \Omega = \{\text{Lluvia}, \text{No Lluvia}\}
  1. **Sigma-Álgebra $( \mathcal{F} )$ **: Aquí es donde las cosas se ponen un poco más abstractas, pero vamos a mantenerlo simple. Piensa en $( \mathcal{F} )$ como una lista de "preguntas" o "afirmaciones" que puedes hacer sobre el clima de mañana y a las que puedes asignar una probabilidad. Por ejemplo:

    • ¿Lloverá mañana?
    • ¿No lloverá mañana?
    • ¿Lloverá o no lloverá mañana? (Esta pregunta abarca todo el espacio muestral).

    La sigma-álgebra que representa estas preguntas es:

   \mathcal{F} = \{\emptyset, \text{Lluvia}, \text{No Lluvia}, \Omega\}

Aquí, $( \emptyset )$ representa el conjunto vacío (ninguno de los resultados ocurre, lo cual es imposible en este caso) y $( \Omega )$ representa el conjunto completo de resultados (algún resultado definitivamente ocurrirá).

Analogía

Imagina que $( \Omega )$ es como el menú completo en un restaurante. Cada posible plato que el restaurante ofrece está en el menú.

Por otro lado, $( \mathcal{F} )$ es como una lista de combinaciones de platos que estás considerando ordenar. Por supuesto, siempre tienes la opción de considerar todo el menú (eso es $( \Omega )$ en $( \mathcal{F} )$ o no ordenar nada (eso es $( \emptyset )$ .

Entonces, el espacio muestral $( \Omega )$ es la lista completa de opciones, y la sigma-álgebra $( \mathcal{F} )$ es la colección de subconjuntos de esas opciones a las que estás dispuesto a asignar una probabilidad o tomar en consideración.

¿Qué es una sigma-álgebra (𝓕)?

Imagina que estás creando una lista de tareas que hacer. Pero eres muy meticuloso y tienes reglas específicas sobre cómo puedes agregar tareas a esa lista.

  • La Tarea Obligatoria: Siempre debes tener en tu lista la tarea de "Completar la lista". No importa qué más esté en tu lista, "Completar la lista" siempre debe estar ahí.

  • Tarea Inversa: Si decides, por ejemplo, "Lavar la ropa" como una tarea, automáticamente debes considerar "No lavar la ropa" como otra tarea potencial. Si tienes una tarea, su "opuesto" también está en consideración.

  • Combinando Tareas: Si creas tareas individuales como "Lavar la ropa", "Cocinar cena", "Limpiar la casa", entonces automáticamente estás considerando hacer múltiples tareas a la vez, como "Lavar la ropa y cocinar cena".

El conjunto de todas las tareas posibles, incluidas las combinaciones y las tareas "opuestas", es tu sigma-álgebra. Es como tu lista maestra de tareas posibles basada en reglas específicas.

¿Por qué "sigma"?

La razón por la que se utiliza la palabra "sigma" (que en matemáticas a menudo representa sumas) es porque, en este contexto, se refiere a la idea de que puedes "sumar" o "agregar" infinitamente muchas tareas y sus combinaciones a tu lista.

¿Por qué "álgebra"?

La palabra "álgebra" en este contexto no se refiere a resolver ecuaciones, sino a la idea de combinar cosas según ciertas reglas. Aquí, significa que estás combinando tareas (eventos) de maneras específicas (usando las reglas que mencioné).

En resumen:

Una sigma-álgebra es como tu lista maestra de tareas posibles basada en reglas específicas. Te permite organizar y estructurar los posibles resultados de algo (como un experimento o, en nuestra analogía, tareas) de una manera lógica y coherente.

  1. Los complementos están en $( \mathcal{F} )$ : Si un conjunto $( A )$ es un evento (es decir, $( A )$ está en $( \mathcal{F} )$ ), entonces su complemento $( A^c )$ también debe ser un evento. El complemento de $( A )$ son todos los resultados en $( \Omega )$ que no están en $( A )$ .

    Ejemplo: Supongamos que consideramos el evento de obtener un número impar al lanzar un dado:

   A = \{1, 3, 5\}

Entonces, su complemento, los números pares, es:

   A^c = \{2, 4, 6\}

Si $( A )$ es parte de nuestra sigma-álgebra $( \mathcal{F} )$ , entonces $( A^c )$ también debe ser parte de $( \mathcal{F} )$ .

  1. Las uniones numerables están en $( \mathcal{F} ) : Si tienes una colección (incluso infinita) de eventos $( A_1, A_2, \dots )$ que pertenecen a $( \mathcal{F} )$ , entonces su unión también debe pertenecer a $( \mathcal{F} )$ .

    Ejemplo: Imagina que tenemos eventos para cada número en un dado:

   A_1 = \{1\}
   A_2 = \{2\}
   \dots
   A_6 = \{6\}

Si cada $( A_i )$ está en $( \mathcal{F} )$, entonces la unión de cualquier combinación de estos eventos también debe estar en $( \mathcal{F} )$ . Por ejemplo:

   A_1 \cup A_3 = \{1, 3\}

¿Por qué es importante la Sigma-Álgebra?

Aunque puede parecer abstracto, la sigma-álgebra es esencial para definir de manera rigurosa qué conjuntos (o eventos) pueden ser "medidos" o asignados con una probabilidad. En muchos contextos prácticos, simplemente usamos la "sigma-álgebra potencia", que incluye todos los subconjuntos posibles de $( \Omega )$ , pero en contextos más avanzados y teóricos, ser selectivo sobre qué conjuntos se incluyen es crucial para evitar paradojas y problemas.

Básicamente, la sigma-álgebra nos permite definir qué subconjuntos del espacio muestral consideraremos como "eventos legítimos" para asignarles probabilidades.

3. Función de Probabilidad (P):

Es una función que asigna a cada evento $( A )$ en ℱ una probabilidad $( P(A) )$ . Esta función debe cumplir con tres axiomas:

Axioma 1: Para cualquier evento $( A )$ en ℱ:

   0 \leq P(A) \leq 1

Axioma 2: La probabilidad del espacio muestral es 1:

   P(\Omega) = 1

Axioma 3: Si tenemos eventos mutuamente excluyentes $( A_1, A_2, \dots )$ (es decir, no pueden ocurrir simultáneamente), entonces:

   P\left(\bigcup_{i=1}^{\infty} A_i\right) = \sum_{i=1}^{\infty} P(A_i)

Ejemplo: Si $( P(\text{cara}) = 0.5 ) y ( P(\text{cruz}) = 0.5 )$ para el lanzamiento de una moneda justa, entonces la probabilidad de obtener cara o cruz es:

   P(\text{cara} \cup \text{cruz}) = P(\text{cara}) + P(\text{cruz}) = 1

Estos tres componentes (Ω, ℱ, P) conforman el espacio de probabilidad, que es la estructura fundamental en la que se basa la teoría de la probabilidad. Permite formalizar y analizar rigurosamente los fenómenos aleatorios.

Con este modelo matemático en su lugar, estamos equipados para explorar y analizar una amplia variedad de fenómenos aleatorios y realizar cálculos precisos sobre sus probabilidades.

Asignación de Probabilidades

Después de haber establecido el espacio muestral $( \Omega )$ y la sigma-álgebra $( \mathcal{F} )$ , el siguiente paso es asignar probabilidades a los eventos (los conjuntos en $( \mathcal{F} )$ .

Para hacerlo, introducimos una función llamada medida de probabilidad, denotada generalmente por $( P )$ , que asigna a cada evento $( A )$ en $( \mathcal{F} )$ un número real entre $0$ y $1$ . Esta función debe satisfacer ciertas propiedades básicas para ser considerada una medida de probabilidad válida:

  1. No Negatividad: La probabilidad de cualquier evento es un número no negativo:
   P(A) \geq 0 \quad \text{para todo } A \in \mathcal{F}
  1. Probabilidad Total: La probabilidad del espacio muestral completo $( \Omega )$ es $1$ :
   P(\Omega) = 1
  1. Aditividad Contable: Si tienes una serie de eventos mutuamente excluyentes (es decir, eventos que no pueden ocurrir al mismo tiempo), entonces la probabilidad de la unión de estos eventos es la suma de sus probabilidades individuales. En términos matemáticos:
   \text{Si } A_1, A_2, A_3, \dots \text{ son mutuamente excluyentes, entonces} 
   P(A_1 \cup A_2 \cup A_3 \cup \dots) = P(A_1) + P(A_2) + P(A_3) + \dots

Ejemplo Simple: Lanzar un Dado

Imagina que lanzas un dado de seis caras.

  1. Espacio Muestral:
   \Omega = \{1, 2, 3, 4, 5, 6\}
  1. Probabilidades: Suponiendo que el dado es justo, la probabilidad de que salga cualquier número específico es ( \frac{1}{6} ). Así que:
   P(\text{obtener un } 1) = \frac{1}{6}
   P(\text{obtener un } 2) = \frac{1}{6}
   \dots
   P(\text{obtener un } 6) = \frac{1}{6}
  1. Probabilidades de Eventos Compuestos: Si quieres saber la probabilidad de obtener un número par, tomas todos los números pares y sumas sus probabilidades:
   P(\text{obtener un número par}) = P(2) + P(4) + P(6) = \frac{1}{6} + \frac{1}{6} + \frac{1}{6} = \frac{1}{2}

Estas reglas y propiedades nos aseguran que las probabilidades que asignamos tienen sentido y son coherentes. Nos dan un marco para razonar lógicamente acerca de eventos inciertos y sus posibilidades relativas de ocurrencia.

Las fórmulas de inclusión-exclusión

Las fórmulas de inclusión-exclusión son herramientas matemáticas que nos permiten calcular la probabilidad de la unión de varios eventos, especialmente cuando estos eventos se superponen.

La idea básica detrás de estas fórmulas es considerar todas las formas posibles en que los eventos pueden ocurrir, pero evitando contar las superposiciones más de una vez.

Fórmulas de Inclusión-Exclusión

Para dos eventos $(A)$ y $(B)$ :

La probabilidad de que ocurra $(A)$ o $(B)$ (o ambos) es la suma de sus probabilidades individuales menos la probabilidad de que ocurran ambos al mismo tiempo (la intersección).

[ P(A \cup B) = P(A) + P(B) - P(A \cap B) ]

Para tres eventos $(A)$ , $(B)$ , y $(C)$ :

[ P(A \cup B \cup C) = P(A) + P(B) + P(C) - P(A \cap B) - P(A \cap C) - P(B \cap C) + P(A \cap B \cap C) ]

La idea general detrás de estas fórmulas es:

  • Primero, incluyes las probabilidades de los eventos individuales.
  • Luego, excluyes las probabilidades de las intersecciones de dos eventos (para evitar contarlas dos veces).
  • Si estás considerando tres eventos, finalmente reincluyes la probabilidad de que los tres eventos ocurran al mismo tiempo (porque la excluiste demasiado al restar las intersecciones de dos eventos).

Esta alternancia entre inclusión y exclusión continúa para más eventos.

Ejemplo con dos eventos:

Imagina que estás en una clase con 30 estudiantes.

  • 15 estudiantes llevan gafas.
  • 10 estudiantes llevan zapatos rojos.
  • 5 estudiantes llevan gafas y zapatos rojos al mismo tiempo.

Si eliges a un estudiante al azar, ¿cuál es la probabilidad de que lleve gafas o zapatos rojos (o ambos)?

Usando la fórmula:

[ P(\text{Gafas} \cup \text{Zapatos Rojos}) = P(\text{Gafas}) + P(\text{Zapatos Rojos}) - P(\text{Gafas} \cap \text{Zapatos Rojos}) ]
[ = \frac{15}{30} + \frac{10}{30} - \frac{5}{30} = \frac{20}{30} = \frac{2}{3} ]

Por lo tanto, hay una probabilidad de $( \frac{2}{3} )$ de que el estudiante seleccionado lleve gafas o zapatos rojos (o ambos).

Estas fórmulas son muy útiles, especialmente cuando tratas con eventos complejos y superpuestos en problemas de probabilidad.

Extensiones del modelo matemático

Esto se refieren a cómo podemos ampliar y adaptar el modelo básico de probabilidad para tratar con situaciones más complejas o con ciertas características específicas que no se abordan en el marco básico.

1. Probabilidades Condicionadas:

Una de las extensiones más comunes y útiles del modelo básico es la idea de probabilidad condicionada. La probabilidad condicionada de un evento $(A)$ dado que otro evento $(B)$ ha ocurrido se denota por $(P(A|B))$ y se define como:

[ P(A|B) = \frac{P(A \cap B)}{P(B)} ]

siempre que

 (P(B) > 0)

Esta fórmula nos dice cómo reevaluar la probabilidad de $(A)$ en función de la nueva información de que $(B)$ ha ocurrido.

2. Teorema de Bayes:

El teorema de Bayes es una herramienta poderosa que relaciona las probabilidades condicionadas de dos eventos. Se basa en la definición de probabilidad condicionada y se formula como:

[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} ]

Este teorema es fundamental en estadística bayesiana y tiene aplicaciones en una amplia variedad de campos.

3. Independencia:

Dos eventos $(A)$ y $(B)$ son independientes si y solo si:

[ P(A \cap B) = P(A) \cdot P(B) ]

Esto significa que la ocurrencia de $(A)$ no afecta la probabilidad de $(B)$ , y viceversa.

4. Variables Aleatorias:

Una variable aleatoria es una función que asigna un valor numérico a cada resultado en el espacio muestral. Esta extensión nos permite trabajar con valores numéricos asociados a eventos aleatorios, lo que facilita el análisis y el cálculo en muchos problemas prácticos.

5. Esperanza y Varianza:

La esperanza (o valor esperado) y la varianza son medidas que describen las características de las distribuciones de probabilidad de las variables aleatorias. La esperanza nos da una idea del "valor promedio" de una variable aleatoria, mientras que la varianza nos dice cuánto se desvía esta variable de su promedio.

6. Distribuciones Conjuntas:

A veces, estamos interesados en cómo se relacionan varias variables aleatorias entre sí. Las distribuciones conjuntas nos permiten estudiar la probabilidad de que varias variables aleatorias tomen valores específicos simultáneamente.

Estas son solo algunas de las extensiones más comunes del modelo matemático de probabilidad. Estas herramientas y conceptos amplían nuestra capacidad para modelar y analizar una amplia variedad de situaciones aleatorias en la vida real y en la investigación.

Probabilidad condicionada

La probabilidad condicionada es un concepto central en la teoría de la probabilidad y se utiliza para revisar o actualizar las probabilidades basadas en nueva información.

La probabilidad condicionada de un evento $(A)$ dado que otro evento $(B)$ ha ocurrido se denota $(P(A|B))$ y se define como:

[ P(A|B) = \frac{P(A \cap B)}{P(B)} ]

Aquí, $(P(B) > 0)$ es esencial para que la definición tenga sentido.

Interpretación:

Imagina que tienes un saco lleno de bolas de colores. Si te preguntas cuál es la probabilidad de sacar una bola roja, calcularías la proporción de bolas rojas en relación con todas las bolas en el saco.

Sin embargo, si te dijera que ya he observado que la bola seleccionada es brillante (y solo algunas bolas rojas y otras bolas de otros colores son brillantes), entonces la probabilidad de que la bola sea roja podría cambiar. Ahora solo considerarías las bolas brillantes en el saco y calcularías la proporción de bolas rojas brillantes en relación con todas las bolas brillantes. Eso es esencialmente la probabilidad condicionada.

Propiedades:

  1. Multiplicativa:
[ P(A \cap B) = P(A|B) \cdot P(B) = P(B|A) \cdot P(A) ]

Esto significa que la probabilidad de que ambos $(A)$ y $(B)$ ocurran es igual a la probabilidad de $(A)$ dado $(B)$ multiplicado por la probabilidad de $(B)$ .

  1. Ley Total de la Probabilidad: Si tenemos un conjunto $( { B_1, B_2, \dots, B_n } )$ de eventos mutuamente excluyentes y exhaustivos (es decir, uno y solo uno de ellos puede ocurrir y su unión es el espacio muestral completo), entonces para cualquier evento $(A)$ :
[ P(A) = \sum_{i=1}^{n} P(A|B_i) \cdot P(B_i) ]
  1. Teorema de Bayes: Es una consecuencia directa de la definición de probabilidad condicionada. Permite invertir las condiciones en una probabilidad condicional:
[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} ]

Aquí, $(P(B) )$ puede calcularse utilizando la Ley Total de la Probabilidad si es necesario.

Ejemplo:

Supongamos que una enfermedad rara afecta al 1% de una población $((P(D)=0.01))$ . Hay una prueba para detectar la enfermedad, pero la prueba no es perfecta. Si una persona tiene la enfermedad, la prueba da positivo el 99% de las veces $((P(\text{Positivo}|D) = 0.99))$ . Sin embargo, la prueba también da falsos positivos en el 2% de los casos en personas que no tienen la enfermedad $((P(\text{Positivo}|\text{No D}) = 0.02))$.

Si una persona da positivo en la prueba, ¿cuál es la probabilidad de que realmente tenga la enfermedad? Usando el Teorema de Bayes:

[ P(D|\text{Positivo}) = \frac{P(\text{Positivo}|D) \cdot P(D)}{P(\text{Positivo})} ]

Donde:

[ P(\text{Positivo}) = P(\text{Positivo}|D) \cdot P(D) + P(\text{Positivo}|\text{No D}) \cdot P(\text{No D}) ]

Vamos a resolverlo paso a paso.

Datos del problema:

  1. Probabilidad de tener la enfermedad: $(P(D) = 0.01)$
  2. Probabilidad de que la prueba dé positivo si tienes la enfermedad: $(P(\text{Positivo}|D) = 0.99)$
  3. Probabilidad de que la prueba dé positivo si NO tienes la enfermedad (falso positivo): $(P(\text{Positivo}|\text{No D}) = 0.02)$

Estamos interesados en la probabilidad de que alguien realmente tenga la enfermedad si la prueba da positivo: $(P(D|\text{Positivo}))$ .

Teorema de Bayes:

[ P(D|\text{Positivo}) = \frac{P(\text{Positivo}|D) \cdot P(D)}{P(\text{Positivo})} ]

Donde:

[ P(\text{Positivo}) = P(\text{Positivo}|D) \cdot P(D) + P(\text{Positivo}|\text{No D}) \cdot P(\text{No D}) ]

Paso 1: Calculemos (P(\text{Positivo}))

[ P(\text{Positivo}) = 0.99 \times 0.01 + 0.02 \times 0.99 ]
[ P(\text{Positivo}) = 0.0099 + 0.0198 ]
[ P(\text{Positivo}) = 0.0297 ]

Paso 2: Usando la fórmula del Teorema de Bayes:

[ P(D|\text{Positivo}) = \frac{0.99 \times 0.01}{0.0297} ]
[ P(D|\text{Positivo}) = \frac{0.0099}{0.0297} ]
[ P(D|\text{Positivo}) \approx 0.3331 ]

Por lo tanto, si una persona obtiene un resultado positivo en la prueba, hay aproximadamente un (33.31%) de probabilidad de que realmente tenga la enfermedad. Esto es significativamente más bajo que lo que podríamos asumir inicialmente basándonos solo en la precisión de la prueba (99%) , y destaca la importancia de considerar la prevalencia de la enfermedad y la tasa de falsos positivos al interpretar los resultados de la prueba.

En resumen, la probabilidad condicionada nos permite actualizar nuestras creencias basadas en nueva información, y es una herramienta fundamental en estadísticas, ciencias de la información, y muchas otras áreas.


Variable Aleatoria

Una variable aleatoria es una función que asigna un valor numérico a cada resultado en un espacio muestral. Básicamente, es una manera de representar numéricamente los resultados de un experimento aleatorio.

Las variables aleatorias pueden ser de dos tipos:

  1. Discreta: Toma un número finito o un número infinito contable de valores. Por ejemplo, el número de veces que sale cara al lanzar una moneda 10 veces es una variable aleatoria discreta.

  2. Continua: Toma un rango infinito no contable de valores. Por ejemplo, la cantidad de lluvia que cae en un día es una variable aleatoria continua.

Distribución de Probabilidad

Asociado a cada variable aleatoria hay una distribución de probabilidad que describe la probabilidad de que la variable aleatoria tome un valor específico.

  1. Función de Probabilidad de Masa (fpm): Para variables aleatorias discretas, es una función que asigna a cada posible valor de la variable aleatoria una probabilidad.
[ P(X = x_i) = p_i ]

Donde $( p_i )$ es la probabilidad de que $(X)$ tome el valor $(x_i)$ .

  1. Función de Densidad de Probabilidad (fdp): Para variables aleatorias continuas, describe la probabilidad relativa de que la variable aleatoria tome un valor dado. Toma en cuenta que para variables continuas, la probabilidad en un punto específico es cero; en cambio, nos enfocamos en la probabilidad en intervalos.
[ P(a \leq X \leq b) = \int_a^b f(x) \, dx ]

Donde $( f(x) )$ es la $fdp$ .

  1. Función de Distribución Acumulativa (FDA): Esta función nos dice la probabilidad de que la variable aleatoria tome un valor menor o igual a un valor dado.
[ F(x) = P(X \leq x) ]

Para variables discretas, es la suma acumulativa de la $fpm$ . Para variables continuas, es la integral de la $fdp$ .

Ejemplo:

Imagina que lanzas un dado justo de seis caras. Define $(X)$ como el valor que obtienes al lanzar el dado.

  1. Variable Aleatoria: $(X)$ puede tomar valores en el conjunto $({1,2,3,4,5,6})$ .

  2. **Función de Probabilidad de Masa $(fpm)$ **:

[ P(X = x_i) = \frac{1}{6} ]

Para cualquier $(x_i)$ en $({1,2,3,4,5,6})$ .

  1. Función de Distribución Acumulativa $(FDA)$ :
[ F(3) = P(X \leq 3) = P(X=1) + P(X=2) + P(X=3) = \frac{1}{6} + \frac{1}{6} + \frac{1}{6} = \frac{1}{2} ]

En resumen, una variable aleatoria nos ayuda a cuantificar los resultados de experimentos aleatorios y sus distribuciones asociadas nos permiten entender cómo se distribuyen las probabilidades de estos resultados. Las variables aleatorias y sus distribuciones son fundamentales en estadística y en la modelización de procesos estocásticos en diversas disciplinas.

Esperanza matemática

La esperanza matemática (también conocida simplemente como "esperanza" o "valor esperado") es un concepto central en la teoría de la probabilidad y la estadística. Es una medida que nos da una idea del "valor promedio" o "centro" de una variable aleatoria.

Definición

Para una variable aleatoria discreta $(X)$ con función de probabilidad de masa $(p(x_i))$ :

[ E(X) = \sum_{i} x_i \cdot p(x_i) ]

Esto significa que multiplicamos cada valor posible $(x_i)$ de $(X)$ por la probabilidad de que $(X)$ tome ese valor, y luego sumamos estos productos.

Para una variable aleatoria continua $(X)$ con función de densidad de probabilidad $(f(x))$ :

[ E(X) = \int_{-\infty}^{\infty} x \cdot f(x) \, dx ]

Interpretación

El valor esperado se puede considerar como el "centro de masa" o el "punto de equilibrio" de la distribución de la variable aleatoria. En otras palabras, es el valor promedio que esperaríamos obtener si realizáramos el experimento aleatorio muchas veces.

Propiedades

  1. Linealidad de la esperanza: Para cualquier variable aleatoria $(X)$ y $(Y)$ y constantes $(a)$ y $(b)$ :
[ E(aX + bY) = aE(X) + bE(Y) ]
  1. Si $(c)$ es una constante:
[ E(c) = c ]
  1. La esperanza de una constante multiplicada por una variable aleatoria es la constante multiplicada por la esperanza de la variable aleatoria:
[ E(cX) = cE(X) ]

Ejemplo

Imagina un juego de feria en el que pagas $5 para jugar. Si lanzas un dado y sale 6, ganas $50; de lo contrario, no ganas nada. ¿Cuál es el "valor esperado" de tu ganancia en este juego?

  1. Define $(X)$ como tu ganancia neta. Los posibles valores son:

    • $45 (ganar $50 menos los $5 que pagaste)
    • -$5 (no ganar nada y perder los $5 que pagaste)
  2. Calculemos la esperanza matemática:

[ E(X) = 45 \cdot P(X=45) - 5 \cdot P(X=-5) ]
[ E(X) = 45 \cdot \frac{1}{6} - 5 \cdot \frac{5}{6} ]
[ E(X) = 7.5 - 4.1667 ]
[ E(X) = 3.3333 ]

Así, el valor esperado de tu ganancia es $3.33. Esto no significa que ganarás $3.33 cada vez que juegues, sino que si juegas muchas, muchas veces, en promedio, tu ganancia neta por juego será de aproximadamente $3.33.

Conclusión

La esperanza matemática es una herramienta poderosa para analizar situaciones en las que intervienen el azar y las probabilidades. Es fundamental en estadística, finanzas, ciencias del juego, y muchos otros campos.

Análisis descriptivo

Análisis descriptivo de las distribuciones de probabilidad implica la descripción y comprensión de las características y comportamientos de las distribuciones. Estos descriptores nos permiten comprender y resumir la información proporcionada por una distribución de probabilidad.

Vamos a repasar algunos de los descriptores más comunes y sus significados:

1. Medidas de tendencia central

Estas medidas nos dan una idea de dónde se encuentra el "centro" de la distribución.

  • **Esperanza (o valor esperado) $(E(X))$ **: Ya lo discutimos anteriormente. Es el "promedio ponderado" de los valores posibles de una variable aleatoria.

  • Mediana: Es el valor que divide a la distribución en dos mitades de modo que la mitad de los valores son menores o iguales a la mediana y la otra mitad son mayores o iguales. En el caso de distribuciones continuas, es el valor $(m)$ tal que $(P(X \leq m) = 0.5)$ .

  • Moda: Es el valor o valores con la mayor frecuencia o probabilidad. En distribuciones continuas, corresponde al pico o picos de la función de densidad.

2. Medidas de dispersión

Estas medidas indican cuán dispersos o concentrados están los valores alrededor de la tendencia central.

  • **Varianza $(Var(X))$ **: Es el promedio ponderado de las diferencias al cuadrado entre cada valor y el valor esperado. Se define como:
[ Var(X) = E[(X - E(X))^2] ]

En términos prácticos, nos dice cuán variable es nuestra variable aleatoria respecto a su media.

  • **Desviación estándar $(\sigma(X))$ **: Es simplemente la raíz cuadrada de la varianza. Tiene la ventaja de estar en las mismas unidades que la variable aleatoria:
[ \sigma(X) = \sqrt{Var(X)} ]

3. Medidas de forma

Estas medidas describen la forma o apariencia de la distribución.

  • Curtosis: Mide la "agudeza" o "achatamiento" de la distribución en relación con una distribución normal. Una distribución con una cola más pesada que una normal tiene curtosis positiva, mientras que una con una cola más ligera tiene curtosis negativa.

  • Asimetría (Skewness): Mide el grado de asimetría de la distribución. Si la cola a la derecha (cola de valores altos) es más pesada que la cola a la izquierda, tiene asimetría positiva y viceversa.

Ejemplo: Distribución Normal

  • Es simétrica, por lo que su asimetría es 0.
  • Tiene una curtosis de 0 (en una definición donde la normal está estandarizada a 0; en otras definiciones, puede ser 3).
  • La media, mediana y moda son todas iguales.
  • La desviación estándar y varianza indican la "anchura" de la distribución.

Conclusión

Estas medidas descriptivas proporcionan una forma concisa de resumir y entender las características clave de una distribución de probabilidad. Son esenciales en estadística y análisis de datos para comparar y contrastar diferentes conjuntos de datos o distribuciones de probabilidad.

Pruebas Repetidas

Las pruebas repetidas se refieren a la realización de un experimento o prueba aleatoria varias veces bajo las mismas condiciones. Estas pruebas son fundamentales en estadística y probabilidad porque nos permiten entender el comportamiento a largo plazo de los fenómenos aleatorios.

1. Ley de los Grandes Números

Una de las principales razones por las que las pruebas repetidas son importantes es la Ley de los Grandes Números. Esta ley establece que, si repetimos una prueba aleatoria un número grande de veces, el promedio de los resultados tiende a acercarse al valor esperado a medida que el número de pruebas aumenta.

Formalmente, si $(X_1, X_2, \dots, X_n)$ son variables aleatorias independientes e idénticamente distribuidas con valor esperado $(E(X_i) = \mu)$ y varianza finita, entonces:

[ \frac{X_1 + X_2 + \dots + X_n}{n} \rightarrow \mu ]

cuando $( n \rightarrow \infty )$ .

2. Teorema del Límite Central

El Teorema del Límite Central es otro resultado fundamental relacionado con pruebas repetidas. Establece que la suma de un número grande de variables aleatorias independientes e idénticamente distribuidas, cada una con valor esperado y varianza finita, tendrá aproximadamente una distribución normal, independientemente de la forma de la distribución original de cada variable.

Formalmente, si $(X_1, X_2, \dots, X_n)$ son variables aleatorias independientes e idénticamente distribuidas con $(E(X_i) = \mu)$ y $(Var(X_i) = \sigma^2)$ , entonces:

[ \frac{X_1 + X_2 + \dots + X_n - n\mu}{\sigma \sqrt{n}} ]

converge en distribución a una variable aleatoria normal estándar cuando $( n \rightarrow \infty )$ .

3. Ejemplo: Lanzamiento de una moneda

Imagina que lanzas una moneda justa (probabilidad de cara = 0.5 y probabilidad de sello = 0.5) muchas veces. La Ley de los Grandes Números indica que la proporción de caras tiende a 0.5 a medida que el número de lanzamientos aumenta.

Si registramos la suma de los resultados (donde cara=1 y sello=0) después de $(n)$ lanzamientos y la estandarizamos, el Teorema del Límite Central nos dice que esa suma (ajustada) tendrá una distribución que se aproxima a la normal a medida que $(n)$ crece.

4. Aplicaciones

Las pruebas repetidas son la base de muchos conceptos en estadística, como los intervalos de confianza, las pruebas de hipótesis y la simulación de Monte Carlo. Estos conceptos se basan en la idea de repetir una prueba o experimento muchas veces para entender su comportamiento a largo plazo o bajo diferentes escenarios.

Conclusión

Las pruebas repetidas y los conceptos relacionados, como la Ley de los Grandes Números y el Teorema del Límite Central, son pilares en el estudio de la probabilidad y la estadística. Nos dan una visión de cómo los fenómenos aleatorios se comportan a largo plazo y cómo podemos hacer inferencias basadas en muestras finitas.

¡Entendido! El concepto de fluctuaciones del azar trata sobre cómo los resultados de un experimento aleatorio pueden variar debido al carácter intrínsecamente aleatorio del proceso, incluso cuando las condiciones generales permanecen constantes.

1. Concepto Básico

Cuando repetimos un experimento aleatorio varias veces, es probable que no obtengamos el mismo resultado exacto en cada intento. Estas variaciones en los resultados se deben a las fluctuaciones del azar. Es fundamental entender que estas fluctuaciones no indican necesariamente un error o problema en el experimento; son simplemente una manifestación del azar inherente al proceso.

2. Ejemplo de Fluctuaciones: Lanzar una moneda

Imagina que lanzas una moneda justa 10 veces y registras cuántas veces sale cara. En una serie de lanzamientos podrías obtener 6 caras, y en la siguiente serie podrías obtener 4. Estas variaciones en los resultados se deben a las fluctuaciones del azar.

3. Teorema del Límite Central y Fluctuaciones

El Teorema del Límite Central, que ya discutimos anteriormente, nos dice algo sobre estas fluctuaciones. Si tomamos la media de una gran muestra, esa media tendrá una distribución que se aproxima a la normal. Las fluctuaciones en esa media, alrededor del valor esperado, siguen un patrón normal. La magnitud de estas fluctuaciones se reduce a medida que aumenta el tamaño de la muestra.

4. Significado Práctico

En el mundo real, es esencial reconocer y entender las fluctuaciones del azar, especialmente cuando tomamos decisiones basadas en datos.

  • Investigación científica: Los científicos que realizan experimentos deben ser capaces de determinar si las diferencias en los resultados son debido a las fluctuaciones del azar o si indican un verdadero efecto o descubrimiento.

  • Negocios y finanzas: En el análisis financiero, por ejemplo, las fluctuaciones del azar pueden explicar las variaciones diarias en los precios de las acciones. Un buen analista debe distinguir entre estas fluctuaciones aleatorias y los verdaderos cambios en el valor de un activo.

5. Controlando las Fluctuaciones

Aunque no podemos eliminar las fluctuaciones del azar, hay formas de controlarlas o minimizar su impacto:

  • Aumentar el tamaño de la muestra: Generalmente, a medida que aumenta el tamaño de la muestra, el efecto de las fluctuaciones aleatorias tiende a disminuir, y nuestros estimadores se vuelven más precisos.

  • Repetir experimentos: Repitiendo un experimento varias veces y promediando los resultados, podemos obtener una mejor estimación del verdadero valor o efecto.

Conclusión

Las fluctuaciones del azar son una parte inherente de los experimentos aleatorios y del análisis estadístico. Reconocer y entender estas fluctuaciones es fundamental para interpretar correctamente los datos y tomar decisiones informadas.

Ejercicios

Los jugadores de tenis $A$ y $B$ juegan un partido al mejor de cinco sets (es decir, el primero que gane tres sets gana el partido). Se supone que los resultados de los sets son independientes y que las probabilidades de que $A$ y $B$ ganen un set son $2/3$ y $1/3$, respectivamente. Se definen los sucesos $A$ y $B$ como “el jugador A gana el partido” y “el jugador B gana el partido”, respectivamente, y se define $T$ como el número total de sets jugados en el partido.

graph TD;
    %% Node Styles
    style S1 fill:#009,stroke:#fff,stroke-width:2px
    style AG fill:#900,stroke:#fff,stroke-width:5px,color:gold
    style BG fill:#090,stroke:#fff,stroke-width:5px,color:gold


    S1{Set 1} -->|2:3| A[A 1 : B 0]
    S1{Set 1} -->|1:3| B[A 0 : B 1]

    A --> |2:3| AA[A 2 : B 0]
    A --> |1:3| AB[A 1 : B 1]

    B --> |2:3| AB[A 1 : B 1]
    B --> |1:3| BB[A 0 : B 2]

    AA --> |2:3| AG((A gana))
    AA --> |1:3| AAB[A 2 : B 1]

    AB --> |2:3| AAB[A 2 : B 1]
    AB --> |1:3| ABB[A 1 : B 2]

    BB --> |2:3| ABB[A 1 : B 2]
    BB --> |1:3| BG((B gana))

    AAB --> |2:3| AG((A gana))
    AAB --> |1:3| AABB[A 2 : B 2]

    ABB --> |2:3| AABB[A 2 : B 2]
    ABB --> |1:3| BG((B gana))

    AABB --> |2:3| AG((A gana))
    AABB --> |1:3| BG((B gana))

    %% Path Styles
    linkStyle default stroke:#333,stroke-width:2px,color:gold;
    linkStyle 0 stroke:#f66,stroke-width:2px,color:gold;
    linkStyle 2 stroke:#f66,stroke-width:2px,color:gold;
    linkStyle 4 stroke:#f66,stroke-width:2px,color:gold;
    linkStyle 6 stroke:#f66,stroke-width:2px,color:gold;    
    linkStyle 8 stroke:#f66,stroke-width:2px,color:gold;
    linkStyle 10 stroke:#f66,stroke-width:2px,color:gold;
    linkStyle 12 stroke:#f66,stroke-width:2px,color:gold;
    linkStyle 14 stroke:#f66,stroke-width:2px,color:gold;
    linkStyle 16 stroke:#f66,stroke-width:2px,color:gold;
    linkStyle 1 stroke:#6f6,stroke-width:2px,color:gold;
    linkStyle 3 stroke:#6f6,stroke-width:2px,color:gold;
    linkStyle 5 stroke:#6f6,stroke-width:2px,color:gold;
    linkStyle 7 stroke:#6f6,stroke-width:2px,color:gold;    
    linkStyle 9 stroke:#6f6,stroke-width:2px,color:gold;
    linkStyle 11 stroke:#6f6,stroke-width:2px,color:gold;
    linkStyle 13 stroke:#6f6,stroke-width:2px,color:gold;
    linkStyle 15 stroke:#6f6,stroke-width:2px,color:gold;
    linkStyle 17 stroke:#6f6,stroke-width:2px,color:gold;