INFERENCIA ESTADÍSTICA - bimasusi/bimasusi GitHub Wiki
¡Bienvenidas y bienvenidos a la wiki del curso Inferencia Estadística!
Este espacio reúne los contenidos, actividades, referencias y herramientas de apoyo para el desarrollo del curso dentro de la Maestría en Matemática Aplicada.
Aquí encontrarás documentación estructurada para facilitar tu comprensión, profundización y aplicación de los temas fundamentales de la inferencia estadística tanto en contextos teóricos como prácticos.
- Comprender los fundamentos teóricos de la inferencia estadística clásica.
- Formular y contrastar hipótesis estadísticas en diversos contextos.
- Aplicar métodos de estimación puntuales y por intervalos.
- Analizar el comportamiento de estimadores y pruebas bajo diferentes supuestos.
- Evaluar críticamente los alcances y limitaciones de los métodos inferenciales.
En esta sección establecemos la base conceptual para el análisis estadístico, diferenciando claramente entre el fenómeno aleatorio observado y la medida de probabilidad que lo describe.
“Se observa una realización de un fenómeno aleatorio, digamos X. Este puede ser un elemento aleatorio de varios tipos: número (variable aleatoria), un vector de dimensión finita (vector aleatorio), una función, etc.
La premisa principal es que el carácter aleatorio de X se concibe como una realización de un fenómeno aleatorio que tiene una distribución de probabilidad P, donde la distribución P es desconocida ya sea en su totalidad o en algún detalle específico (por ejemplo, su soporte, su media, etc.). Es de interés conocer P. Si la medida de probabilidad P fuese conocida, entonces no hay problema estadístico propiamente, pues el problema estadístico tiene que ver con inferir la propiedad desconocida de P con base en X.” [Ver referencia 1]
-
Definición de X
-
X puede ser un valor real
$X \in \mathbb{R}$ , un vector en$\mathbb{R}^n$ , o incluso una función$;X: [0,1]\to\mathbb{R}$ .
-
X puede ser un valor real
-
Medida de probabilidad P
- Desconocida: soporte, media, varianza, etc.
- Objetivo estadístico: inferir características de (P) a partir de la muestra (la realización de X).
“La observación X está dada, por lo que no hay incertidumbre tal como la hay en la teoría de probabilidad desarrollada anteriormente en el curso. Antes, fue concebida una estructura
$(\Omega, \mathcal{F}, P)$ para enfrentar el que haya incertidumbre acerca del valor de X. En el problema estadístico, el valor de X ha sido observado, y la incertidumbre radica en otro punto: radica en que existe duda acerca de cuál P es la que produjo el valor X. En algunas ocasiones se utilizan los términos incertidumbre estocástica e incertidumbre inductiva para distinguir estos dos tipos. Es común que estos se confundan entre sí, porque en estadística matemática la teoría de probabilidad constituye también una de las maneras naturales de afrontar la cuantificación de incertidumbre inductiva. En cualquier caso, el concebir a P como medida de probabilidad es la base para formular soluciones a la incertidumbre inductiva. Con este lenguaje, probabilidad y estadística son problemas diferentes y de cierta manera inversos. Teoría de probabilidad tiene que ver con cuantificar incertidumbre acerca de X y teoría estadística con cuantificar incertidumbre acerca de P a la luz de haber ya observado X.”[Ver referencia 1]
-
Incertidumbre estocástica: duda previa sobre el valor de X, modelada por
$(\Omega,\mathcal{F},P)$ . - Incertidumbre inductiva: tras observar X, la incertidumbre se desplaza a la ley generadora P.
-
Modelado de tiempos de respuesta en redes
-
$X$ : tiempo de llegada de paquetes (variable continua). -
$P$ : distribución de retardo desconocida; objetivo: estimar parámetros de una ley de colas M/M/1.
-
-
Estimación de parámetros en ecuaciones diferenciales estocásticas
-
$X(t)$ : trayectoria observada de un proceso de Itô. -
$P$ : ley del proceso (por ejemplo, coeficientes de difusión y deriva), inferidos a partir de trayectorias discretas.
-
-
Calibración de sensores en sistemas de control
-
$X$ : lecturas del sensor (vector aleatorio). -
$P$ : distribución conjunta desconocida de ruido; se estima para diseñar filtros de Kalman óptimos.
-
Con esta distinción clara entre dato observado y modelo probabilístico, estamos listos para construir estimadores y desarrollar la inferencia estadística en las secciones siguientes.
Consideramos un experimento aleatorio cuyos resultados pertenecen al espacio muestral Ω. Modelamos este proceso suponiendo que existe una terna
-
$\Omega$ es el espacio muestra, -
$\mathcal{P}(\Omega)$ es el conjunto de partes de Ω, -
$\mathcal{A}\in\mathcal{P}(\Omega)$ es una σ-álgebra, -
$P\colon \mathcal{A} \to [0,1]$ es una medida de probabilidad que refleja las características aleatorias del experimento realizado.
A esta terna se le llama espacio de probabilidad.
Los resultados de un experimento aleatorio no son analizados “en bruto”, sino que se les da una representación numérica que facilita su tratamiento. Esto se logra introduciendo variables aleatorias, que asocian cada resultado
En todo estudio estadístico partimos de un experimento aleatorio cuyo conjunto de resultados posibles se denomina espacio muestral Ω. Para cuantificar dichos resultados definimos las siguientes estructuras:
Sea
- Si el espacio muestral Ω es finito o numerable, diremos que es un espacio discreto y las variables aleatorias asociadas al experimento normalmente estarán definidas como
$X\colon \Omega ;\longrightarrow; \mathbb{Z}.$ - Si
$\Omega$ es no numerable, entonces diremos que es un espacio continuo y$X\colon \Omega ;\longrightarrow; \mathbb{R}.$
Un vector aleatorio de dimensión
Sea $\Omega = {,CC,;C-,;-C,;--}, $ donde
Entonces
Sean
En tres nodos
Con estas definiciones rigurosas disponemos ya de los objetos básicos para, en las siguientes secciones, construir estimadores, estudiar su comportamiento asintótico y contrastar hipótesis sobre la distribución subyacente
1.2.2 Distribución de una variable aleatoria. Funciones de distribución, de probabilidad y de densidad
La realización de un experimento aleatorio da lugar a un resultado
En el caso de que
Esa función solo es no nula en un conjunto finito o numerable. Supondremos en adelante, sin pérdida de generalidad, que ese conjunto está contenido en
La función de distribución y la función de masa de probabilidad se relacionan de la siguiente forma:
Una clase relevante de variables aleatorias no discretas son las que poseen función de densidad, es decir, aquellas cuya distribución de probabilidad puede caracterizarse por una función
La relación entre
salvo quizás en un número finito de puntos
Si se desea describir totalmente la distribución de probabilidad de una variable aleatoria
Se define la esperanza de una variable aleatoria
En el caso de variables aleatorias discretas la esperanza puede calcularse como:
Por otro lado, la esperanza de una variable aleatoria continua se puede calcular así:
La esperanza de una variable aleatoria
Si
Si
Si existe
Dada una variable aleatoria
Notemos que cuando
Es posible demostrar que si la f.g.m. de la v.a.
Más aún, la serie
es convergente y se puede derivar término a término. Obtenemos
y en general
Es por esta última propiedad que esta función se conoce como función generadora de momentos (f.g.m.).
🎲 Ejemplo: f.g.m. de la distribución Binomial
Sea
```r # mgf_binomial <- function(t, n = 10, p = 0.3) { (1 - p + p * exp(t))^n } t_vals <- seq(-3, 3, length.out = 300) mgf_vals <- sapply(t_vals, mgf_binomial) plot(t_vals, mgf_vals, type = "l", lwd = 2, main = expression("F.G.M. para X ~ Binomial(10, 0.3)"), xlab = "t", ylab = expression(M[X](t))) grid() ```
📈 Ejemplo: f.g.m. de la distribución Normal Estándar
Sea
Esta expresión se obtiene usando la forma cerrada del momento de una normal estándar.
```r # mgf_normal <- function(t) { exp(t^2 / 2) } t_vals <- seq(-3, 3, length.out = 300) mgf_vals <- sapply(t_vals, mgf_normal) plot(t_vals, mgf_vals, type = "l", lwd = 2, main = expression("F.G.M. para X ~ N(0, 1)"), xlab = "t", ylab = expression(M[X](t))) grid() ```
La gráfica muestra cómo evoluciona el valor esperado de

![Gráfica MGF Binomial]
-
¿Cómo es el comportamiento de la f.g.m. cerca de
$t = 0$ ?En
$t = 0$ , siempre se cumple que$M_X(0) = 1$ , ya que:$M_X(0) = \mathbb{E}[e^{0 \cdot X}] = \mathbb{E}[1] = 1$ -
¿Qué indica la curvatura de la gráfica?
La curvatura refleja el crecimiento exponencial de los momentos. Si la curva crece rápidamente hacia la derecha, significa que los momentos (media, varianza, etc.) también crecen con rapidez.
-
¿Por qué la gráfica es convexa?
Todas las funciones generadoras de momentos son estrictamente convexas en el intervalo donde están definidas. Esto es una consecuencia de que derivadas sucesivas representan momentos positivos.
-
¿Qué pasa si cambio los parámetros
$n$ y$p$ ?Aumentar $ n $ o
$p$ tiende a elevar la f.g.m. en el lado derecho, reflejando una mayor media y varianza.

![Gráfica MGF Normal]
-
¿Por qué es simétrica respecto al eje $ t = 0 $?
Porque la normal estándar es simétrica alrededor de su media $ \mu = 0 $, y su f.g.m. tiene la forma:
lo cual es una función par:
-
¿Qué tan rápido crece la función?
Muy rápido. El crecimiento es exponencial cuadrático. Esto implica que los momentos de la normal crecen rápidamente en magnitud.
-
¿Cómo se relaciona esta gráfica con los momentos de la normal?
Derivando sucesivamente la f.g.m. en $ t = 0 $, se obtiene:
$\mathbb{E}[X^k] = M_X^{(k)}(0)$ Por tanto, la gráfica "encierra" toda la información sobre los momentos.
Estas gráficas te permiten visualizar la información estadística codificada en una variable aleatoria. La f.g.m. no es solo una herramienta algebraica para obtener momentos, sino una forma poderosa de describir el comportamiento global de la variable.
¿Qué pasa si dos variables tienen la misma f.g.m.?
¡Tienen la misma distribución! (si la f.g.m. está definida en un entorno de 0).
Si
su densidad es
y su función generadora de momentos viene dada por
|
(5.2) |
En el caso particular de la distribución uniforme en
Para derivar la fórmula #(5.2) y obtener los momentos, podemos usar el desarrollo en serie de la función exponencial:
Este es el desarrollo de Maclaurin de
|
(5.3) |
-
$$M'(0)= \frac{b^2 - a^2}{2,(b - a)}= \frac{a + b}{2},$$ que coincide con$\mathbb{E}(X)$ . -
$$M''(0)= \frac{b^3 - a^3}{3,(b - a)}= \frac{a + a b + b^2}{3},$$
y un cálculo directo muestra que la varianza es
Si
Si
|
(5.5) |
Este resultado se extiende a la suma de
entonces
La función generadora de momentos resulta particularmente útil cuando consideramos sucesiones de variables aleatorias, como lo muestra el siguiente teorema que enunciamos sin demostración:
Sea
donde
para todo punto
- Reveles, F., Pérez-Abreu, V., Nakamura, M., & Biscay, R. (2016). Persistencia, Probabilidad e Inferencia Estadística para Análisis Topológico de Datos. Centro de Investigación en Matemáticas, A.C.
- Gómez, Guadalupe, & Delicado, Pedro (2006). Curso de Inferencia y Decisión. Departament d’Estadística i Investigació Operativa, Universitat Politècnica de Catalunya.
- Casella, G., & Berger, R. L. Statistical Inference
- Rice, J. A. Mathematical Statistics and Data Analysis
- Wasserman, L. All of Statistics
- R y RStudio
- Jupyter Notebooks (opcionalmente con Python)
- LaTeX para reportes técnicos
- Participación y ejercicios dirigidos (20%)
- Tareas individuales y/o grupales (30%)
- Proyecto aplicado con sustentación (20%)
- Examen final teórico-práctico (30%)
Dra. Biviana M. Suárez Sierra
Profesora del Área de Computación y Analítica
EAFIT – Escuela de Ciencias Aplicadas e Ingeniería
✉️ [email protected]
🌐 [Enlace a perfil académico]
Este curso promueve el trabajo colaborativo, la discusión crítica y el aprendizaje autónomo. Se espera que todas las contribuciones respeten la honestidad académica y reconozcan las fuentes utilizadas.
Los aportes a esta wiki son bienvenidos: correcciones, resúmenes, ejemplos adicionales y recursos compartidos enriquecen el aprendizaje colectivo.