Seja u uma variável a pode assumir qualquer um de M valores, u_1, u_2, \dots, u_M com as respectivas probabilidades P(u_1), P(u_2), \dots, P(u_M)
Assim, o valor médio de u, denotado aqui por \overline{u}, é definido como,
\begin{equation} \overline{u} = \frac{P(u_1) u_1 + P(u_2) u_2 + \cdots + P(u_M) u_M } {P(u_1) + P(u_2) + \cdots + P(u_M)} \end{equation}
ou simplesmente,
\begin{equation} \overline{u} = \frac{\sum^M_{i=0} P(u_i)\cdot u_i}{\sum^M_{i=0} P(u_i)} \end{equation}
É possível ainda generalizar esta ideia de média! Seja f(u) uma função da variável u. O valor mádio de f(u) é definido de forma análoga,
\begin{equation}\label{eqn:valorEsperado} \overline{f(u)} = \frac{\sum^M_{i=0} P(u_i) \cdot f(u_i)}{\sum^M_{i=0} P(u_i)} \end{equation}
Contudo, observe que P(u_i) é uma probabilidade. Logo, o somatório sobre todas as possibilidades tem que ser necessariamente 1 (100%). Portanto, a Equação \ref{eqn:valorEsperado} pode ser escrita de forma simples como,
\begin{equation} \overline{f(u)} = \sum^M_{i=0} P(u_i) \cdot f(u_i) \end{equation}
Logo, sejam duas funções f(u) e g(u), então:
\begin{equation}
\begin{split}
\overline{f(u)+g(u)} & = \sum^M_{i=0} P(u_i) \cdot \left( f(u_i) + g(u_i) \right) \\
& = \sum^M_{i=0} P(u_i) \cdot f(u_i) + \sum^M_{i=0} P(u_i) \cdot g(u_i) \\
& = \overline{f(u)} + \overline{g(u)}
\end{split}
\end{equation}
De maneira análoga, seja c uma constante qualquer, então
\begin{equation} \overline{c \cdot f(u)} = c \cdot \overline{f(u)} \end{equation}
Estes cálculos de valores médios são bastante aplicáveis para a descrição de traços característicos médios de distribuições de probabilidades, sendo estes uma medida de valor central do processo.
Desta forma, também é possível se calcular a distância que um dado valor observado pontualmente de u está do seu valor médio \overline{u}, \Delta u = u - \overline{u} Logo, \overline{\Delta u} = \overline{u - \overline{u})} = \overline{u}-\overline{u} = 0 ou seja, a dispersão média sempre é nula!
Outro valor médio muito usável é o valor médio do quadrado da dispersão,
\begin{equation}\label{eqn:var} \overline{(\Delta u)^2} = \sum^M_{i=1} P(u_i) (u_i - \overline{u})^2 \geq 0 \end{equation}
o qual é chamado de segundo momento de u com respeito a sua média. Este nunca pode ser negativo, visto que pw o quadrado de um número! Assim, como (\Delta u)^2 \geq 0, cada termo da Equação \ref{eqn:var} contribui de forma não negativa, onde apenas no caso onde u_i=\overline{u} o termo do somatório será zero. Desta forma, quanto maior a distância de u_i para \overline{u}, maior a sua dispersão.
Portanto, a dispersão \overline{(\Delta u)^2} (tmabém chamada de variância) mede o quanto espalhado (em média) u_i se encontra da sua média \overline{u}. Vale frisar que,
\begin{equation} \begin{split} \overline{(\Delta u)^2} & = \overline{(u - \overline{u})^2}\\ & = \overline{(u^2 -2 uu + \overline{u}^2)}\\ & = \overline{u^2} - 2 \overline{u} \overline{u} + \overline{u}^2\\ & = \overline{u^2} - \overline{u}^2 \end{split} \end{equation}
e como \overline{(u-\overline{u})^2} \geq 0, então implica que \overline{u^2} \geq \overline{u}^2.
De forma análoga também é possível se definir os momentos de mais alta ordem \overline{(\Delta u)^n} para n> 2.
De maneira análoga, seja c uma constante qualquer, então
\begin{equation} \overline{c \cdot f(u)} = c \cdot \overline{f(u)} \end{equation}
Estes cálculos de valores médios são bastante aplicáveis para a descrição de traços característicos médios de distribuições de probabilidades, sendo estes uma medida de valor central do processo.
Desta forma, também é possível se calcular a distância que um dado valor observado pontualmente de u está do seu valor médio \overline{u}, \Delta u = u - \overline{u} Logo, \overline{\Delta u} = \overline{u - \overline{u})} = \overline{u}-\overline{u} = 0 ou seja, a dispersão média sempre é nula!
Outro valor médio muito usável é o valor médio do quadrado da dispersão,
\begin{equation}\label{eqn:var} \overline{(\Delta u)^2} = \sum^M_{i=1} P(u_i) (u_i - \overline{u})^2 \geq 0 \end{equation}
o qual é chamado de segundo momento de u com respeito a sua média. Este nunca pode ser negativo, visto que pw o quadrado de um número! Assim, como (\Delta u)^2 \geq 0, cada termo da Equação \ref{eqn:var} contribui de forma não negativa, onde apenas no caso onde u_i=\overline{u} o termo do somatório será zero. Desta forma, quanto maior a distância de u_i para \overline{u}, maior a sua dispersão.
Portanto, a dispersão \overline{(\Delta u)^2} (tmabém chamada de variância) mede o quanto espalhado (em média) u_i se encontra da sua média \overline{u}. Vale frisar que,
\begin{equation} \begin{split} \overline{(\Delta u)^2} & = \overline{(u - \overline{u})^2}\\ & = \overline{(u^2 -2 uu + \overline{u}^2)}\\ & = \overline{u^2} - 2 \overline{u} \overline{u} + \overline{u}^2\\ & = \overline{u^2} - \overline{u}^2 \end{split} \end{equation}
e como \overline{(u-\overline{u})^2} \geq 0, então implica que \overline{u^2} \geq \overline{u}^2.
De forma análoga também é possível se definir os momentos de mais alta ordem \overline{(\Delta u)^n} para n> 2.
Nenhum comentário:
Postar um comentário