Coma já exposto na postagem "Caminhadas Aleatórias Clássicas (Random Walk)", foi visto que a probabilidade de se encontrar uma partícula que realiza uma caminhada aleatória em uma dimensão, dado $n_1$ passos paraa direita de um total de $N$ passos (passos para a esquerda é naturalmente $N-n_1 = n_2$) é,
\begin{equation}
P(n_1) = \frac{N!}{n_1! (N-n_1)!}p^{n_1}q^{N-n_1}
\end{equation}
Observe que $\sum^N_{n_1=0} P(n_1)=1$, dado que $P(n_1)$ é uma probabilidade, e a soma das probabilidades de todas as possibilidades de ocorrência de um certo fenômeno tem que ser $100\%$, ou simplesmente $1$ (quando normalizado).
Desta forma, pelo Teorema Binomial
\begin{equation}
\sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} = (p+q)^N = 1^N = 1
\end{equation}
verificando realmente que $\sum^N_{n_1=0} P(n_1)=1$.
Logo, pelo que foi exposta na postagem "Valores Médios e Dispersão", é possível determinar o número médio de passos para a direita (ou esquerda) que a partícula realiza em uma caminhada aleatória,
\begin{equation}
\overline{n_1} = \sum^N_{n_1=0} P(n_1) \cdot n_1 = \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \cdot n_1
\end{equation}
Portanto é necessário resolver este último somatório! Contudo, devido ao termo $n_1$, não é mais possível se aplicar diretamente o Teorema Binomial para se ter o resultado. Porém, encarando este problema puramente sob a óptica matemática, $p$ e $q$ são dois parâmetros arbitrários quaisquer, logo, $$ p\frac{\partial}{\partial p} (p^{n_1}) = p\cdot p^{n_1-1} = n_1\cdot p^{n_1}$$ utilizando-se deste fato,
\begin{equation}
\begin{split}
\sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1}\cdot n_1 & = \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} \left[ p \frac{\partial}{\partial p} \right] q^{N-n_1}\\
& = p \frac{\partial}{\partial p}\left[ \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \right]\\
& = p \frac{\partial}{\partial p}(p+q)^N\\
&= p\cdot N (p+q)^{N-1}
\end{split}
\end{equation}
Como esta solução é válida para quaisquer valores de $p$ e $q$, será válida para $p$ sendo uma constante e $q=1-p$, ou seja, $p+q=1$. Assim,
\begin{equation}
\boxed{
\overline{n_1} = Np
}
\end{equation}
Naturalmente, a quantidade média de passos para a direita somada a quantidade média de passo para a esquerda deverá ser a quantidade total de passos realizada, $$ \overline{n_1}+\overline{n_2} = N(p+q) = N$$ e o deslocamento $m$ (medido para a direita em unidades do comprimento de passos $l$), $$ \overline{m} = \overline{n_1-n_2} = \overline{n_1}-\overline{n_2} = N(p-q)$$ onde se $$p=q \quad \Rightarrow \quad \overline{m} =0$$
Cálculo da Dispersão:
Calculemos $\overline{(\Delta n_1)^2}$. Como visto na postagem "Valores Médios e Dispersão",é sabido que $$\overline{(u-\overline{u})^2} = \overline{u^2}- \overline{u}^2$$ portanto, $$\overline{(\Delta n_1)^2} = \overline{(n_1-\overline{n_1})^2} = \overline{n_1^2}- \overline{n_1}^2$$
Desta forma, $\overline{n_1}$ já é conhecido, falta agora calcular $\overline{n_1^2}$.
\begin{equation}
\overline{n_1^2} = \sum_{n_1}^N P(n_1) n_1^2 = \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \cdot n_1^2
\end{equation}
Novamente, considerando o problema matematicamente, sejam $p$ e $q$ parâmetros arbitrários, logo, $$n_1^2p^{n_1} = n_1 \left( p \frac{\partial}{\partial p} \right) (p^{n_1}) = \left( p \frac{\partial}{\partial p}\right) ^2 (p^{n_1})$$
E de forma análoga, é possível calcular,
\begin{equation}
\begin{split}
\sum^N_{n_1=0}
\frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \cdot n_1^2
& = \sum^N_{n_1=0}
\frac{N!}{n_1! (N-n_1)!} \left[ p \frac{\partial}{\partial p} \right]^2p^{n_1}
q^{N-n_1}\\
& = \left( p \frac{\partial}{\partial p}\right) ^2 \left[
\sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \right]\\
& = \left( p \frac{\partial}{\partial p}\right)^2 (p+q)^N\\
&= \left( p \frac{\partial}{\partial p}\right)\left( pN(p+q)^N \right)\\
& = p \left[ N(p+q)^{N-1}+pN(N-1)(p+q)^{N-2} \right]
\end{split}
\end{equation}
Para o caso analisado, $p+q =1$, então
\begin{equation}
\begin{split}
\overline{n_1^2} & = p \left[ N+pN(N-1) \right]\\
& = Np \left[1 + pN-p \right]\\
& = Np + (Np)^2 - Np^2\\
& = (Np)^2 + Np(1-p)\\
& = (Np)^2 + Npq
\end{split}
\end{equation}
mas $Np= \overline{n_1}$, e assim, $\overline{n_1^2} = (\overline{n_1})^2+Npq$ e portanto,
\begin{equation}
\boxed{
\overline{(\Delta n_1)^2} = \overline{n_1^2}-(\overline{n_1})^2 = Npq
}
\end{equation}
Observe que $\overline{(\Delta n_1)^2}$ é uma medida quadrática no deslocamento. Desta forma, sua raiz quadrada será uma medida linear da largura do intervalo sobre o qual $n_1$ está distribuido. Uma boa medida de largura relativa desta distribuição é então,
\begin{equation}
\frac{\sqrt{\overline{(\Delta n_1)^2}}}{\overline{n_1}} = \frac{\sqrt{Npq}}{Np} = \sqrt{\frac{q}{p}}\frac{1}{\sqrt{N}}
\end{equation}
que para o caso particular em quye $p=q=0,5$ $$ \frac{\sqrt{\overline{(\Delta n_1)^2}}}{\overline{n_1}} = \frac{1}{\sqrt{N}}$$
Também é possível se calcular a dispersão do deslocamento $m$ $\left( m = n_2 - n_2 = 2n_ -N \right)$. Daí, $$\Delta m = m - \overline{m} = (2n_1-N)-(2\overline{n_1}-N) = 2(n_1-\overline{n_1}) = 2\Delta n_1$$
Portanto, $(\Delta m)^2 = 4 (\Delta n_1)^2$. Tomando a média,
\begin{equation}
\overline{(\Delta m)^2} = 4 \overline{ (\Delta n_1)^2} = 4Npq
\end{equation}
E no caso onde $p=q=0,5$, $$\boxed{\overline{(\Delta m)^2} = N} $$
Em termos estatísticos, a disperção é também chamada de variancia e a sua raiz quadrada de desvio padrão.
Referência: Federick Reif, "Fundamentals of Statistical and Thermal Physics". McGraw-Hill
domingo, 30 de abril de 2017
segunda-feira, 24 de abril de 2017
Valores Médios e Dispersão
No artigo anterior foi abordado a temática das caminhadas aleatórias, ou Random Walk, onde foi mostrado que é possível determinar o comportamento probabilístico de um sistema cujos seus passos sejam independentes uns dos outros. Contudo, é muito desejável que se realiza alguma medida de valor centrarl do processo. Desta forma, como deve-se proceder?
\begin{equation}
\overline{u} = \frac{P(u_1) u_1 + P(u_2) u_2 + \cdots + P(u_M) u_M } {P(u_1) + P(u_2) + \cdots + P(u_M)}
\end{equation}
ou simplesmente,
\begin{equation}
\overline{u} = \frac{\sum^M_{i=0} P(u_i)\cdot u_i}{\sum^M_{i=0} P(u_i)}
\end{equation}
É possível ainda generalizar esta ideia de média! Seja $f(u)$ uma função da variável $u$. O valor mádio de $f(u)$ é definido de forma análoga,
\begin{equation}\label{eqn:valorEsperado}
\overline{f(u)} = \frac{\sum^M_{i=0} P(u_i) \cdot f(u_i)}{\sum^M_{i=0} P(u_i)}
\end{equation}
Contudo, observe que $P(u_i)$ é uma probabilidade. Logo, o somatório sobre todas as possibilidades tem que ser necessariamente 1 (100%). Portanto, a Equação \ref{eqn:valorEsperado} pode ser escrita de forma simples como,
\begin{equation}
\overline{f(u)} = \sum^M_{i=0} P(u_i) \cdot f(u_i)
\end{equation}
Seja $u$ uma variável a pode assumir qualquer um de $M$ valores, $$ u_1, u_2, \dots, u_M$$ com as respectivas probabilidades $$P(u_1), P(u_2), \dots, P(u_M)$$
Assim, o valor médio de $u$, denotado aqui por $\overline{u}$, é definido como,
\begin{equation}
\overline{u} = \frac{P(u_1) u_1 + P(u_2) u_2 + \cdots + P(u_M) u_M } {P(u_1) + P(u_2) + \cdots + P(u_M)}
\end{equation}
ou simplesmente,
\begin{equation}
\overline{u} = \frac{\sum^M_{i=0} P(u_i)\cdot u_i}{\sum^M_{i=0} P(u_i)}
\end{equation}
É possível ainda generalizar esta ideia de média! Seja $f(u)$ uma função da variável $u$. O valor mádio de $f(u)$ é definido de forma análoga,
\begin{equation}\label{eqn:valorEsperado}
\overline{f(u)} = \frac{\sum^M_{i=0} P(u_i) \cdot f(u_i)}{\sum^M_{i=0} P(u_i)}
\end{equation}
Contudo, observe que $P(u_i)$ é uma probabilidade. Logo, o somatório sobre todas as possibilidades tem que ser necessariamente 1 (100%). Portanto, a Equação \ref{eqn:valorEsperado} pode ser escrita de forma simples como,
\begin{equation}
\overline{f(u)} = \sum^M_{i=0} P(u_i) \cdot f(u_i)
\end{equation}
Logo, sejam duas funções $f(u)$ e $g(u)$, então:
\begin{equation}
\begin{split}
\overline{f(u)+g(u)} & = \sum^M_{i=0} P(u_i) \cdot \left( f(u_i) + g(u_i) \right) \\
& = \sum^M_{i=0} P(u_i) \cdot f(u_i) + \sum^M_{i=0} P(u_i) \cdot g(u_i) \\
& = \overline{f(u)} + \overline{g(u)}
\end{split}
\end{equation}
De maneira análoga, seja $c$ uma constante qualquer, então
\begin{equation}
\overline{c \cdot f(u)} = c \cdot \overline{f(u)}
\end{equation}
Estes cálculos de valores médios são bastante aplicáveis para a descrição de traços característicos médios de distribuições de probabilidades, sendo estes uma medida de valor central do processo.
Desta forma, também é possível se calcular a distância que um dado valor observado pontualmente de $u$ está do seu valor médio $\overline{u}$, $$\Delta u = u - \overline{u}$$ Logo, $$\overline{\Delta u} = \overline{u - \overline{u})} = \overline{u}-\overline{u} = 0$$ ou seja, a dispersão média sempre é nula!
Outro valor médio muito usável é o valor médio do quadrado da dispersão,
\begin{equation}\label{eqn:var}
\overline{(\Delta u)^2} = \sum^M_{i=1} P(u_i) (u_i - \overline{u})^2 \geq 0
\end{equation}
o qual é chamado de segundo momento de $u$ com respeito a sua média. Este nunca pode ser negativo, visto que pw o quadrado de um número! Assim, como $(\Delta u)^2 \geq 0$, cada termo da Equação \ref{eqn:var} contribui de forma não negativa, onde apenas no caso onde $u_i=\overline{u}$ o termo do somatório será zero. Desta forma, quanto maior a distância de $u_i$ para $\overline{u}$, maior a sua dispersão.
Portanto, a dispersão $\overline{(\Delta u)^2}$ (tmabém chamada de variância) mede o quanto espalhado (em média) $u_i$ se encontra da sua média $\overline{u}$. Vale frisar que,
\begin{equation}
\begin{split}
\overline{(\Delta u)^2} & = \overline{(u - \overline{u})^2}\\
& = \overline{(u^2 -2 uu + \overline{u}^2)}\\
& = \overline{u^2} - 2 \overline{u} \overline{u} + \overline{u}^2\\
& = \overline{u^2} - \overline{u}^2
\end{split}
\end{equation}
e como $\overline{(u-\overline{u})^2} \geq 0$, então implica que $\overline{u^2} \geq \overline{u}^2$.
De forma análoga também é possível se definir os momentos de mais alta ordem $\overline{(\Delta u)^n}$ para $n> 2$.
\begin{split}
\overline{f(u)+g(u)} & = \sum^M_{i=0} P(u_i) \cdot \left( f(u_i) + g(u_i) \right) \\
& = \sum^M_{i=0} P(u_i) \cdot f(u_i) + \sum^M_{i=0} P(u_i) \cdot g(u_i) \\
& = \overline{f(u)} + \overline{g(u)}
\end{split}
\end{equation}
De maneira análoga, seja $c$ uma constante qualquer, então
\begin{equation}
\overline{c \cdot f(u)} = c \cdot \overline{f(u)}
\end{equation}
Estes cálculos de valores médios são bastante aplicáveis para a descrição de traços característicos médios de distribuições de probabilidades, sendo estes uma medida de valor central do processo.
Desta forma, também é possível se calcular a distância que um dado valor observado pontualmente de $u$ está do seu valor médio $\overline{u}$, $$\Delta u = u - \overline{u}$$ Logo, $$\overline{\Delta u} = \overline{u - \overline{u})} = \overline{u}-\overline{u} = 0$$ ou seja, a dispersão média sempre é nula!
Outro valor médio muito usável é o valor médio do quadrado da dispersão,
\begin{equation}\label{eqn:var}
\overline{(\Delta u)^2} = \sum^M_{i=1} P(u_i) (u_i - \overline{u})^2 \geq 0
\end{equation}
o qual é chamado de segundo momento de $u$ com respeito a sua média. Este nunca pode ser negativo, visto que pw o quadrado de um número! Assim, como $(\Delta u)^2 \geq 0$, cada termo da Equação \ref{eqn:var} contribui de forma não negativa, onde apenas no caso onde $u_i=\overline{u}$ o termo do somatório será zero. Desta forma, quanto maior a distância de $u_i$ para $\overline{u}$, maior a sua dispersão.
Portanto, a dispersão $\overline{(\Delta u)^2}$ (tmabém chamada de variância) mede o quanto espalhado (em média) $u_i$ se encontra da sua média $\overline{u}$. Vale frisar que,
\begin{equation}
\begin{split}
\overline{(\Delta u)^2} & = \overline{(u - \overline{u})^2}\\
& = \overline{(u^2 -2 uu + \overline{u}^2)}\\
& = \overline{u^2} - 2 \overline{u} \overline{u} + \overline{u}^2\\
& = \overline{u^2} - \overline{u}^2
\end{split}
\end{equation}
e como $\overline{(u-\overline{u})^2} \geq 0$, então implica que $\overline{u^2} \geq \overline{u}^2$.
De forma análoga também é possível se definir os momentos de mais alta ordem $\overline{(\Delta u)^n}$ para $n> 2$.
sábado, 22 de abril de 2017
Caminhadas Aleatórias Clássicas (Random Walk)
Embora a natureza tenha as suas leis muito bem determinadas (mesmo que nós não tenhamos consciência de todas elas!), mas em uma análise rigoroso sempre há alguma fração de não determinismo em todos os processos naturais, mesmo que este fração seja diminuta em alguns casos.
Desta forma, sempre é possível ter uma visão estatística do que se deseja descrever física, matemática ou computacionalmente. Ou seja, modelos rigorosamente realísticos devem utilizar de alguma forma a teoria da probabilidade em seus processos. Para tanto, ao olhar da mecânica estatística (física) é possível definir um sistema macroscópico como sendo um conjunto de sistemas microscópicos (ou do inglês, um ensemble), de cardinalidade muito alto (tendendo ao infinito).
Uma forma muito simples conceitualmente, e também muito interessante, de se modelar vários processos naturais (pelo menos em primeira aproximação) é o procedimento chamado "Caminhada Aleatória", ou do inglês Ramdom Walk. Este procedimento tem inúmeras aplicabilidades, desde o mundo microscópico até o astronômico, permeando as ciências da física, matemática, estatística, química, biologia, dentre outras.
Hipoteticamente, é possível de definir uma Caminhada Aleatória através do enunciado do seguinte problema: Seja um indivíduo que se encontra em um estado de embriagues alcoólica. Este indivíduo está bêbado o suficiente para não ter controle sobre os seus passos, mas está sóbrio o suficiente para conseguir ficar de pé e caminhar. Inicialmente o indivíduo está em um bar, e visto que o seu dinheiro acabaou, só resta para ele voltar a pé para sua residência.
Por simplicidade, considere o problema unidimensional, ou seja, o bêbado só poderá dar um passo por unidade de tempo, sendo este ou para a direita ou para a esquerda. Dado o estado de embriagues do indivíduo, todos os seus passos são considerados independentes dos respectivos passos anteriores. Suponha também que todos os passos tenham o mesmo tamanho $l$. Logo, cada vez que o bêbado dá um passo, a probabilidade deste passo ser para a direita será $p$ e para a esquerda será $q=1-p$. No caso mais simples $p=q$, o que no nosso problema significa que a caminhada do bêbado está ocorrendo em uma região plana, não havendo nenhum privilégio para o passo a direita ou a esquerda. Contudo, no caso geral $p \neq q$, o que implicaria, por exemplo, a caminhada do bêbado em uma ladeira.
Assim, admitindo que o ponto de partida do bêbado seja o bar (localizado em $x=0$) e que toada a sua caminhada ocorrerá sobre o eixo $x$ (uma dimensão), a localização do bêbado tem que ser da forma,
\begin{equation}
x = ml
\end{equation}
onde $m$ é um inteiro (positivo, negativo ou zero)em um dado instante qualquer.
Desta forma, a questão natural é: depois de $N$ passos, qual a probabilidade do bêbado estar na posição $x=ml$? Ou equivalentemente, se sua residência está a $k$ passos do bar ($N \geq k$), qual a probabilidade do bêbado chegar em sua casa depois de $N$ passos?
Em uma visão estatística, seria necessário realizar várias vezes a observação do bêbado andando ou considerar vários homens bêbados realizando a caminhada em busca de sua casa ou mesmo tempo. Neste último senário, depois de $N$ passos, qual a fração destes homens estaria na posição $x=ml$? Ou ainda, qual a fração destes homens teria alcançado a sua casa (todos estão tentando chegar até a mesma casa!).
Este problema fictício (assim espero...) aparentemente bob, ilustra alguns resultados fundamentais da teoria da probabilidade. Assim, sendo o bêbado representado por uma partícula, depois de $N$ passos , cada um de tamanho $l$, tal partícula estará localizada em $x=ml$, sendo $m$ um inteiro de valor,
\begin{equation}
-N \leq m \leq N
\end{equation}
Deseja-se calcular a probabilidade de se encontrar a partícula na posição $x=ml$ depois de $N$ passos. Para tanto, seja $n_1$ o número de passos dados para a direita, e $n_2$ o número de passos para a esquerda. Portanto,
\begin{equation}
N=n_1 + n_2
\end{equation}
O deslocamento medido em unidades de comprimento de um passo, medidos a partir da posição do bar ($x=0$), é dado por
\begin{equation}\label{eqn:m}
m=n_1-n_2
\end{equation}
Observe que $m$ também poderia ser definido como $m=n_2-n_1$. Contudo, como está sendo considerado que a direção positiva está para a direita, utiliza-se a Equação \ref{eqn:m}. Vale também frisar que se for conhecida a quantidade de passos para a direita $n_1$ (ou para a esquerda $n_2$) é possível se determinar sua posição, visto que se conhece $N$,
\begin{equation}
m=n_1-n_2 = n_1-(N-n_1) = 2n_1 - N
\end{equation}
Dado que $2n_1$ é um número par, $m$ será par se $N$ for par, e será ímpar se $N$ também assim for.
Como todos os passos são estabelecidos independentemente, cada passo é caracterizado para sua respectiva probabilidade,
\begin{equation}
\underbrace{p \cdot p \dots p}_{n_1} \cdot \underbrace{q \cdot q \dots q}_{n_2} = p^{n_1} \cdot q^{n_2}
\end{equation}
Entretanto, observe que pode existir muitas formas de se ter $N$ passos compostos por $n_1$ passos para a direita e $n_2$ passos para a esquerda. A quantidade de possibilidades de arranjos para uma dada configura de $N$ passos é,
\begin{equation}
\frac{N!}{n_1! n_2!}
\end{equation}
Daí, a probabilidade $P_N(n_1)$ de se ter $n_1$ pasos para a direita e $n_2 = N-n_1$ passos para esquerda (em um total de $N$ passos) é,
\begin{equation}\label{eqn:binomial}
P_N(n_1) = \frac{N!}{n_1! n_2!} p^{n_1} q^{N-n_1}
\end{equation}
Desta forma, sempre é possível ter uma visão estatística do que se deseja descrever física, matemática ou computacionalmente. Ou seja, modelos rigorosamente realísticos devem utilizar de alguma forma a teoria da probabilidade em seus processos. Para tanto, ao olhar da mecânica estatística (física) é possível definir um sistema macroscópico como sendo um conjunto de sistemas microscópicos (ou do inglês, um ensemble), de cardinalidade muito alto (tendendo ao infinito).
Uma forma muito simples conceitualmente, e também muito interessante, de se modelar vários processos naturais (pelo menos em primeira aproximação) é o procedimento chamado "Caminhada Aleatória", ou do inglês Ramdom Walk. Este procedimento tem inúmeras aplicabilidades, desde o mundo microscópico até o astronômico, permeando as ciências da física, matemática, estatística, química, biologia, dentre outras.
Hipoteticamente, é possível de definir uma Caminhada Aleatória através do enunciado do seguinte problema: Seja um indivíduo que se encontra em um estado de embriagues alcoólica. Este indivíduo está bêbado o suficiente para não ter controle sobre os seus passos, mas está sóbrio o suficiente para conseguir ficar de pé e caminhar. Inicialmente o indivíduo está em um bar, e visto que o seu dinheiro acabaou, só resta para ele voltar a pé para sua residência.
Por simplicidade, considere o problema unidimensional, ou seja, o bêbado só poderá dar um passo por unidade de tempo, sendo este ou para a direita ou para a esquerda. Dado o estado de embriagues do indivíduo, todos os seus passos são considerados independentes dos respectivos passos anteriores. Suponha também que todos os passos tenham o mesmo tamanho $l$. Logo, cada vez que o bêbado dá um passo, a probabilidade deste passo ser para a direita será $p$ e para a esquerda será $q=1-p$. No caso mais simples $p=q$, o que no nosso problema significa que a caminhada do bêbado está ocorrendo em uma região plana, não havendo nenhum privilégio para o passo a direita ou a esquerda. Contudo, no caso geral $p \neq q$, o que implicaria, por exemplo, a caminhada do bêbado em uma ladeira.
Assim, admitindo que o ponto de partida do bêbado seja o bar (localizado em $x=0$) e que toada a sua caminhada ocorrerá sobre o eixo $x$ (uma dimensão), a localização do bêbado tem que ser da forma,
\begin{equation}
x = ml
\end{equation}
onde $m$ é um inteiro (positivo, negativo ou zero)em um dado instante qualquer.
Desta forma, a questão natural é: depois de $N$ passos, qual a probabilidade do bêbado estar na posição $x=ml$? Ou equivalentemente, se sua residência está a $k$ passos do bar ($N \geq k$), qual a probabilidade do bêbado chegar em sua casa depois de $N$ passos?
Em uma visão estatística, seria necessário realizar várias vezes a observação do bêbado andando ou considerar vários homens bêbados realizando a caminhada em busca de sua casa ou mesmo tempo. Neste último senário, depois de $N$ passos, qual a fração destes homens estaria na posição $x=ml$? Ou ainda, qual a fração destes homens teria alcançado a sua casa (todos estão tentando chegar até a mesma casa!).
Este problema fictício (assim espero...) aparentemente bob, ilustra alguns resultados fundamentais da teoria da probabilidade. Assim, sendo o bêbado representado por uma partícula, depois de $N$ passos , cada um de tamanho $l$, tal partícula estará localizada em $x=ml$, sendo $m$ um inteiro de valor,
\begin{equation}
-N \leq m \leq N
\end{equation}
Deseja-se calcular a probabilidade de se encontrar a partícula na posição $x=ml$ depois de $N$ passos. Para tanto, seja $n_1$ o número de passos dados para a direita, e $n_2$ o número de passos para a esquerda. Portanto,
\begin{equation}
N=n_1 + n_2
\end{equation}
O deslocamento medido em unidades de comprimento de um passo, medidos a partir da posição do bar ($x=0$), é dado por
\begin{equation}\label{eqn:m}
m=n_1-n_2
\end{equation}
Observe que $m$ também poderia ser definido como $m=n_2-n_1$. Contudo, como está sendo considerado que a direção positiva está para a direita, utiliza-se a Equação \ref{eqn:m}. Vale também frisar que se for conhecida a quantidade de passos para a direita $n_1$ (ou para a esquerda $n_2$) é possível se determinar sua posição, visto que se conhece $N$,
\begin{equation}
m=n_1-n_2 = n_1-(N-n_1) = 2n_1 - N
\end{equation}
Dado que $2n_1$ é um número par, $m$ será par se $N$ for par, e será ímpar se $N$ também assim for.
Como todos os passos são estabelecidos independentemente, cada passo é caracterizado para sua respectiva probabilidade,
- $p$ - probabilidade do passo ser para a direita;
- $q=1-p$ - probabilidade do passo ser para a esquerda.
\begin{equation}
\underbrace{p \cdot p \dots p}_{n_1} \cdot \underbrace{q \cdot q \dots q}_{n_2} = p^{n_1} \cdot q^{n_2}
\end{equation}
Entretanto, observe que pode existir muitas formas de se ter $N$ passos compostos por $n_1$ passos para a direita e $n_2$ passos para a esquerda. A quantidade de possibilidades de arranjos para uma dada configura de $N$ passos é,
\begin{equation}
\frac{N!}{n_1! n_2!}
\end{equation}
Daí, a probabilidade $P_N(n_1)$ de se ter $n_1$ pasos para a direita e $n_2 = N-n_1$ passos para esquerda (em um total de $N$ passos) é,
\begin{equation}\label{eqn:binomial}
P_N(n_1) = \frac{N!}{n_1! n_2!} p^{n_1} q^{N-n_1}
\end{equation}
A Equação \ref{eqn:binomial} é chamada de distribuição binomial, visto que esta é um termo típico encontrado na expansão de $(p+q)^N$ pelo teorema binomial,
\begin{equation}
(p+q)^N = \sum^N_{n=0}\frac{N!}{n! (N-n)!}p^n q^{N-n}
\end{equation}
(p+q)^N = \sum^N_{n=0}\frac{N!}{n! (N-n)!}p^n q^{N-n}
\end{equation}
Desta forma, escrevendo, $$ n_1 = \frac{1}{2}(N+m) $$ $$n_2 = \frac{1}{2} (N-m)$$ a probabilidade de uma partícula (bêbado) ser encotrada na posição $m$ depois de $N$ passos é,
\begin{equation}
P_N(m) = \frac{N!}{ \left( \frac{1}{2}(N+m)\right) ! \left( \frac{1}{2}(N-m)\right) !} p^{ \frac{1}{2}(N+m)}q^{ \frac{1}{2}(N-m)}
\end{equation}
P_N(m) = \frac{N!}{ \left( \frac{1}{2}(N+m)\right) ! \left( \frac{1}{2}(N-m)\right) !} p^{ \frac{1}{2}(N+m)}q^{ \frac{1}{2}(N-m)}
\end{equation}
onde para o caso especial de $p=q=\frac{1}{2}$,
\begin{equation}
P_N(m) = \frac{N!}{ \left( \frac{1}{2}(N+m)\right) ! \left( \frac{1}{2}(N-m)\right) !} \left( \frac{1}{2} \right) ^N
\end{equation}
P_N(m) = \frac{N!}{ \left( \frac{1}{2}(N+m)\right) ! \left( \frac{1}{2}(N-m)\right) !} \left( \frac{1}{2} \right) ^N
\end{equation}
As figuras abaixo apresentam as probabilidades de encontrar a partícula (o bêbado) na posição $m$ para três situaçãoes, $p=q=0,5$; $p=0,70$ e $q=0,30$; e, $p=0,30$ e $q=0,70$. Vale frisar que, computacionalmente, poder existir alguma dificuldade em calcular a função fatorial para números não inteiros. Desta forma, é possível utilizar a função $\Gamma$ (gama), onde $$Z! = \Gamma(Z+1) = \int^\infty_0 t^Z \exp(-t) dt$$
Assinar:
Postagens (Atom)