Para uma única variada X tendo uma distribuição P(x) com população média conhecida mu, a variância da população var(X), geralmente também escrito sigma^2, é definido como

 sigma^2=<(X-mu)^2>,

(1)

Onde mu é a media da população é <X> denota o valor esperado X. Para uma distribuição discreta com N valores possíveis de  x_i, a variância da população é, portanto

 sigma^2=sum_(i=1)^NP(x_i)(x_i-mu)^2,

(2)

Ao passo que para uma distribuição contínua, é dada pela

 sigma^2=intP(x)(x-mu)^2dx.

(3)

A variância é, por conseguinte, igual ao Segundo momento central  mu_2.

Note que é preciso algum cuidado na interpretação sigma^2com uma variância, em vez de um símbolo sigma também é vulgarmente utilizada como um parâmetro relacionado, mas não é equivalente à raiz quadrada da variância, por exemplo, na distribuição log-normal, distribuição de Maxwell, e da distribuição de Rayleigh..

Se a distribuição subjacente não é conhecida, então a variância da amostra pode ser calculada como

 s_N^2=1/Nsum_(i=1)^N(x_i-x^_)^2,

(4)

Onde x^_ é a media da amostra.

Note-se que a variância da amostra s_N^2 definido acima não é um estimador não tendencioso para a variância da população sigma^2. A fim de obter um estimador para sigma^2, é necessário definir uma vez "variância da amostra viés corrigida"

 s_(N-1)^2=1/(N-1)sum_(i=1)^N(x_i-x^_)^2.

(5)

A distinção entre s_N^2 e  s_(N-1)^2 é uma fonte comum de confusão, e um cuidado extremo deve ser exercido ao consultar a literatura para determinar qual convenção está em uso, especialmente desde a notação uninformative é comumente usada para ambos. A amostra variância viés corrigida s_(N-1)^2 para uma lista de dados é implementada como Variância[list].

A raiz quadrada da variância é conhecido como o desvio padrão.

A razão pela qual s_N^2 dá um estimador tendencioso da variância da população que são dois parâmetros livres mu e sigma^2estão realmente a ser calculados a partir dos dados em si. Em tais casos, é apropriado utilizar uma distribuição t de Student, em vez de uma distribuição normal como modelo uma vez que, vagamente falando, a distribuição t de Student é o "melhor" que pode ser feita sem o saber sigma^2.

Formalmente, a fim de estimar a variância da população sigma^2a partir de uma amostra de nelementos com um desconhecido à priori significa (ou seja, a média é calculada a partir da própria amostra), precisamos de um estimador imparcial para sigma^2. Esta é dada pela k-estatísticak_2=sigma^^^2, onde

 k_2=N/(N-1)m_2

(6)

e m_2=s_N^2 é a variância não corrigida de viés.

Acontece que a quantidade Ns_N^2/sigma^2tem uma distribuição do Qui-quadrado.

Para um conjunto de dados X, a variância dos dados obtidos por uma transformação linear é dada pela

var(aX+b)

=

<[(aX+b)-<aX+b>]^2>

(7)

=

<(aX+b-a<X>-b)^2>

(8)

=

<(aX-amu)^2>

(9)

=

<a^2(X-mu)^2>

(10)

=

a^2<(X-mu)^2>

(11)

=

a^2var(X)

(12)

Para múltiplas variáveis, a variância é dada usando a definição de covariância,

var(sum_(i=1)^(n)X_i)

=

cov(sum_(i=1)^(n)X_i,sum_(j=1)^(n)X_j)

(13)

=

sum_(i=1)^(n)sum_(j=1)^(n)cov(X_i,X_j)

(14)

=

sum_(i=1)^(n)sum_(j=1; j=i)^(n)cov(X_i,X_j)+sum_(i=1)^(n)sum_(j=1; j!=i)^(n)cov(X_i,X_j)

(15)

=

sum_(i=1)^(n)cov(X_i,X_i)+sum_(i=1)^(n)sum_(j=1; j!=i)^(n)cov(X_i,X_j)

(16)

=

sum_(i=1)^(n)var(X_i)+2sum_(i=1)^(n)sum_(j=i+1)^(n)cov(X_i,X_j).

(17)

A soma linear tem uma forma semelhante:

var(sum_(i=1)^(n)a_iX_i)

=

cov(sum_(i=1)^(n)a_iX_i,sum_(j=1)^(n)a_jX_j)

(18)

=

sum_(i=1)^(n)sum_(j=1)^(n)a_ia_jcov(X_i,X_j)

(19)

=

sum_(i=1)^(n)a_i^2var(X_i)+2sum_(i=1)^(n)sum_(j=i+1)^(n)a_ia_jcov(X_i,X_j).

(20)

Estas equações podem ser expressas utilizando a matriz da covariância.