Una de las dudas legítimas que he visto en la literatura y en mis cursos de estadística es la diferencia entre desviación estándar (o típica) y error estándar (o típico).
La desviación estándar es una medida de dispersión. Representa que tan alejados están los datos de un valor medio (generalmente la media). Hay desviación poblacional (σ) y desviación muestral (s). La fórmula de la desviación estándar muestral y poblacional es:
$$\sigma=\sqrt{\sum_{x=1}^n\frac{(x_i – \mu)^2}{N}}$$
$$s=\sqrt{\sum_{x=1}^n\frac{(x_i – \bar x)^2}{n-1}}$$
Independientemente de las matemáticas, la idea básica es ver la diferencia entre cada una de las observaciones con respecto a la media. Si todos los datos fueran iguales no habría desviación.
El error estándar, por otra parte, es una medida de incertidumbre. Es decir, que tan buena es la estimación que estamos calculando como representación del parámetro poblacional.
Quizá la confusión consiste en que el error estándar está en función de la desviación estándar, pero su valor depende del tamaño de la muestra. Para calcular el error estándar:
$$SE_{\bar x}=\frac{s}{\sqrt{n}}$$
Conforme n se hace grande, el error estándar disminuye.
Una medida no excluye a la otra. Si estamos hablando de la distribución de los datos, utilizaremos la desviación estándar. Pero si hablamos de un estimador en particular (como la media), lo correcto sería utilizar el error estándar.