En teoría de la probabilidad, existen diferentes nociones de convergencia de variables aleatorias. La convergencia de sucesiones de variables aleatorias a una variable aleatoria límite es un concepto importante en teoría de la probabilidad, y en sus aplicaciones a la estadística y los procesos estocásticos.
Convergencia en distribución
[editar]
Se dice que una sucesión
de variables aleatorias reales converge en distribución, o converge en ley, o converge débilmente, a una variable aleatoria
si

para todo punto
en el que
es continua, donde
y
denotan las funciones de distribución acumulada de las variables aleatorias
y
, respectivamente.
La convergencia en distribución puede indicarse como:
|
|
(1)
|
donde
es la ley (distribución de probabilidad) de X. Por ejemplo, si X es una gausiana típica o normal estándar se puede escribir
.
Convergencia en probabilidad
[editar]
Una sucesión
de variables aleatorias reales converge en probabilidad a una variable aleatoria
si para todo

Suele indicarse de alguna de estas maneras:

|
|
(2)
|
Convergencia casi segura
[editar]
Una sucesión
de variables aleatorias reales converge casi seguramente, o con probabilidad 1, a una variable aleatoria
si

Notación:

|
|
(3)
|
Convergencia en 
[editar]
Dado un número real
, se dice que la sucesión
de variables aleatorias reales converge en
a la variable aleatoria
, si los momentos absolutos
-ésimos
y
de
y de
existen, y

donde el operador
denota la esperanza matemática.
Notación:

|
|
(4)
|