Seja $u$ uma variável a pode assumir qualquer um de $M$ valores, $$ u_1, u_2, \dots, u_M$$ com as respectivas probabilidades $$P(u_1), P(u_2), \dots, P(u_M)$$
Assim, o valor médio de $u$, denotado aqui por $\overline{u}$, é definido como,
\begin{equation}
\overline{u} = \frac{P(u_1) u_1 + P(u_2) u_2 + \cdots + P(u_M) u_M } {P(u_1) + P(u_2) + \cdots + P(u_M)}
\end{equation}
ou simplesmente,
\begin{equation}
\overline{u} = \frac{\sum^M_{i=0} P(u_i)\cdot u_i}{\sum^M_{i=0} P(u_i)}
\end{equation}
É possível ainda generalizar esta ideia de média! Seja $f(u)$ uma função da variável $u$. O valor mádio de $f(u)$ é definido de forma análoga,
\begin{equation}\label{eqn:valorEsperado}
\overline{f(u)} = \frac{\sum^M_{i=0} P(u_i) \cdot f(u_i)}{\sum^M_{i=0} P(u_i)}
\end{equation}
Contudo, observe que $P(u_i)$ é uma probabilidade. Logo, o somatório sobre todas as possibilidades tem que ser necessariamente 1 (100%). Portanto, a Equação \ref{eqn:valorEsperado} pode ser escrita de forma simples como,
\begin{equation}
\overline{f(u)} = \sum^M_{i=0} P(u_i) \cdot f(u_i)
\end{equation}
Logo, sejam duas funções $f(u)$ e $g(u)$, então:
\begin{equation}
\begin{split}
\overline{f(u)+g(u)} & = \sum^M_{i=0} P(u_i) \cdot \left( f(u_i) + g(u_i) \right) \\
& = \sum^M_{i=0} P(u_i) \cdot f(u_i) + \sum^M_{i=0} P(u_i) \cdot g(u_i) \\
& = \overline{f(u)} + \overline{g(u)}
\end{split}
\end{equation}
De maneira análoga, seja $c$ uma constante qualquer, então
\begin{equation}
\overline{c \cdot f(u)} = c \cdot \overline{f(u)}
\end{equation}
Estes cálculos de valores médios são bastante aplicáveis para a descrição de traços característicos médios de distribuições de probabilidades, sendo estes uma medida de valor central do processo.
Desta forma, também é possível se calcular a distância que um dado valor observado pontualmente de $u$ está do seu valor médio $\overline{u}$, $$\Delta u = u - \overline{u}$$ Logo, $$\overline{\Delta u} = \overline{u - \overline{u})} = \overline{u}-\overline{u} = 0$$ ou seja, a dispersão média sempre é nula!
Outro valor médio muito usável é o valor médio do quadrado da dispersão,
\begin{equation}\label{eqn:var}
\overline{(\Delta u)^2} = \sum^M_{i=1} P(u_i) (u_i - \overline{u})^2 \geq 0
\end{equation}
o qual é chamado de segundo momento de $u$ com respeito a sua média. Este nunca pode ser negativo, visto que pw o quadrado de um número! Assim, como $(\Delta u)^2 \geq 0$, cada termo da Equação \ref{eqn:var} contribui de forma não negativa, onde apenas no caso onde $u_i=\overline{u}$ o termo do somatório será zero. Desta forma, quanto maior a distância de $u_i$ para $\overline{u}$, maior a sua dispersão.
Portanto, a dispersão $\overline{(\Delta u)^2}$ (tmabém chamada de variância) mede o quanto espalhado (em média) $u_i$ se encontra da sua média $\overline{u}$. Vale frisar que,
\begin{equation}
\begin{split}
\overline{(\Delta u)^2} & = \overline{(u - \overline{u})^2}\\
& = \overline{(u^2 -2 uu + \overline{u}^2)}\\
& = \overline{u^2} - 2 \overline{u} \overline{u} + \overline{u}^2\\
& = \overline{u^2} - \overline{u}^2
\end{split}
\end{equation}
e como $\overline{(u-\overline{u})^2} \geq 0$, então implica que $\overline{u^2} \geq \overline{u}^2$.
De forma análoga também é possível se definir os momentos de mais alta ordem $\overline{(\Delta u)^n}$ para $n> 2$.
\begin{split}
\overline{f(u)+g(u)} & = \sum^M_{i=0} P(u_i) \cdot \left( f(u_i) + g(u_i) \right) \\
& = \sum^M_{i=0} P(u_i) \cdot f(u_i) + \sum^M_{i=0} P(u_i) \cdot g(u_i) \\
& = \overline{f(u)} + \overline{g(u)}
\end{split}
\end{equation}
De maneira análoga, seja $c$ uma constante qualquer, então
\begin{equation}
\overline{c \cdot f(u)} = c \cdot \overline{f(u)}
\end{equation}
Estes cálculos de valores médios são bastante aplicáveis para a descrição de traços característicos médios de distribuições de probabilidades, sendo estes uma medida de valor central do processo.
Desta forma, também é possível se calcular a distância que um dado valor observado pontualmente de $u$ está do seu valor médio $\overline{u}$, $$\Delta u = u - \overline{u}$$ Logo, $$\overline{\Delta u} = \overline{u - \overline{u})} = \overline{u}-\overline{u} = 0$$ ou seja, a dispersão média sempre é nula!
Outro valor médio muito usável é o valor médio do quadrado da dispersão,
\begin{equation}\label{eqn:var}
\overline{(\Delta u)^2} = \sum^M_{i=1} P(u_i) (u_i - \overline{u})^2 \geq 0
\end{equation}
o qual é chamado de segundo momento de $u$ com respeito a sua média. Este nunca pode ser negativo, visto que pw o quadrado de um número! Assim, como $(\Delta u)^2 \geq 0$, cada termo da Equação \ref{eqn:var} contribui de forma não negativa, onde apenas no caso onde $u_i=\overline{u}$ o termo do somatório será zero. Desta forma, quanto maior a distância de $u_i$ para $\overline{u}$, maior a sua dispersão.
Portanto, a dispersão $\overline{(\Delta u)^2}$ (tmabém chamada de variância) mede o quanto espalhado (em média) $u_i$ se encontra da sua média $\overline{u}$. Vale frisar que,
\begin{equation}
\begin{split}
\overline{(\Delta u)^2} & = \overline{(u - \overline{u})^2}\\
& = \overline{(u^2 -2 uu + \overline{u}^2)}\\
& = \overline{u^2} - 2 \overline{u} \overline{u} + \overline{u}^2\\
& = \overline{u^2} - \overline{u}^2
\end{split}
\end{equation}
e como $\overline{(u-\overline{u})^2} \geq 0$, então implica que $\overline{u^2} \geq \overline{u}^2$.
De forma análoga também é possível se definir os momentos de mais alta ordem $\overline{(\Delta u)^n}$ para $n> 2$.
Nenhum comentário:
Postar um comentário