Definición
En Teoría de la probabilidad, una sucesión de variables aleatorias converge de forma casi segura (o casi seguramente) a una variable aleatoria límite cuando el conjunto de sucesos tales que es el límite de la sucesión tiene probabilidad 1.
Otras formas de convergencia
Otras formas de convergencia son:
- Convergencia en probabilidad.
- Convergencia en media r-ésima (por ejemplo, convergencia en media cuadrática).
- Convergencia en distribución, también llamada convergencia en ley.
Si una sucesión de variables aleatorias converge de forma casi segura, también lo hará en probabilidad y en distribución.