Luso Academia

Início » 04 Ensino Superior » 02 Física » Mecânica Quântica – Revisão de Probabilidade e Estatística

Mecânica Quântica – Revisão de Probabilidade e Estatística

Estatística do blog

  • 194,185 académicos

De modo a receber actualizações do nosso blog via email clique em Seguir.

Junte-se a 744 outros seguidores

align=”center”> — 22. Revisão de Probabilidade e Estatística —

— 22.1. Probabilidade —

No final do artigo anterior vimos o papel fundamental que os conceitos de probabilidades e estatística têm na construção e interpretação da Mecânica Quântica. Uma vez que estes conceitos têm um papel tão fundamental em Mecânica Quântica é então necessário fazer uma breve revisão para que possamos melhor entender e manejar ateoria que vamos construir.

— 22.1.1. Variáveis discretas —

Vamos imaginar que temos uma sala de aulas com o seguinte conjunto de alunos:

  • uma pessoas de 14 anos de idade
  • uma pessoa com 15 anos de idade
  • 3 pessoas com 16 anos de idade
  • 2 pessoas com 22 anos de idade
  • 5 pessoas com 25 anos de idade

(e por favor não nos perguntem porque encontramos pessoas com idades tão díspares na mesma sala de aulas)

Seja { {N(j)}} o número de pessoas com idade { {j}}. Então

  • { {N(14)=1}}
  • { {N(15)=1}}
  • { {N(16)=3}}
  • { {N(22)=2}}
  • { {N(25)=5}}

Adoptando a definição anterior podemos calcular o número total de alunos na sala de aula através da seguinte expressão:

\displaystyle N=\sum_{j=0}^{\infty}N(j) \ \ \ \ \ (27)

 

Podemos representar os dados anterior com recurso a um histograma

Adoptando uma definição frequencista do conceito de probabilidade podemos fazer as seguintes definições:

Definição 8 A probabilidade de um evento { {j}}, { {P(j)}} é proporcional ao número de elementos que têm a propriedade { {j}} e inversamente proporcional ao número de elementos ({ {N}}) sob estudo.

\displaystyle P(j)=\frac{N(j)}{N} \ \ \ \ \ (28)

É fácil ver que a partir das equações 28 e 27 vem que

\displaystyle \sum_{j=0}^{\infty}P(j)=1 \ \ \ \ \ (29)

 

Após definirmos { {P(j)}} podemos também definir o valor mais provável para { {j}}.

Definição 9 O valor mais provável de {j} é aquele para o qual {P(j)} tem um máximo.
Definição 10 o valor médio de {j}, representado por , é

\displaystyle <j>=\sum_{j=0}^{\infty}jP(j) \ \ \ \ \ (30)

Caso estejamos interessados em calcular o valor médio de { {j^2}} a expressão apropriada é

\displaystyle <j^2>=\sum_{j=0}^{\infty}j^2P(j)

Podemos escrever com toda a generalidade que o valor médio para uma função de { {j}}, denotada por { {f(j)}} é dado por

\displaystyle <f(j)>=\sum_{j=0}^{\infty}f(j)P(j) \ \ \ \ \ (31)

 

De modo a avançarmos no nosso estudo da probabilidades temos agora que introduzir algumas definições que se debruçam sobre questões de simetria das distribuições de probabilidades

Definição 11 A mediana é o valor de {j} para o qual a probabilidade de ter um valor maior que {j} é o mesma que a probabilidade de ter um valor menor que {j}.

Vimos então uma definição que discorre sobre a simetria de uma distribuição. Temos então que introduzir uma nova definição que nos dá indicações sobre a forma de uma distribuição.

Mas antes vamos olhar para dois exemplos que servirão como motivação:

e

Como podemos ver ambos os histogramas têm a mesma mediana, a mesma média, o mesmo valor mais provável e o mesmo número de elementos. Não obstante é visualmente óbvios que os histogramas representam dois tipos diferentes de fenómenos.

O primeiro histograma representa um fenómeno onde os valores disponíveis apresentam uma forte concentração em torno do valor central.

O segundo histograma representa por outro lado uma fenómeno com uma distribuição mais alargada.

A existência desta diferença em duas distribuições que de outro modo seriam iguais indica-nos a necessidade de introduzirmos uma definição que sirva para medir o espalhamento de uma distribuição.

Uma primeira ideia seria utilizarmos a diferença relativamente à média para cada valor individual:

\displaystyle \Delta j=j-<j>

Tal abordagem não iria funcionar uma vez que para distribuições aleatórias estaríamos a espera de encontrar valores igualmente positivos para { {\Delta j}} e como tal uma medida global seria sempre {0} ou muito próxima de {0}.

Uma maneira de evitarmos este problema seria utilizarmos { {|\Delta j|}} e embora este abordagem funcione tem a desvantagem de estarmos a utilizar uma função que não é diferenciável.

Se utilizarmos o quadrado dos desvios na nossa definição conseguimos evitar estes dois problemas.

Definição 12 A variância de uma distribuição (assumindo que a distribuição tem um valor médio), { {\sigma ^2}}, é dada pela expressão

\displaystyle \sigma ^2=<(\Delta j)^2> \ \ \ \ \ (32)

Definição 13 O desvio padrão, { {\sigma}}, de uma distribuição é dado pela raíz quadrada da sua variância.

Para a variância temos também a seguinte expressão

\displaystyle \sigma ^2=<j^2>-<j>^2 \ \ \ \ \ (33)

 

Uma vez que pela definição 12 a variância é sempre não-negativa é válido

\displaystyle <j^2> \geq <j>^2 \ \ \ \ \ (34)

 

Onde a igualdade é válida quando a distribuição é composta por eventos que têm sempre o mesmo valor.

— 22.1.2. Variáveis contínuas —

Até agora assumimos sempre que as variáveis que estamos a estudar assumem somente valores discretos. Para generalizarmos as nossas definições e resultados para o caso contínuo temos somente que ter em atenção que as probabilidades para eventos individuais assumem sempre valores nulos e como tal só faz sentido falarmos de probabilidades para intervalos.

Com isso em mente e assumindo que estamos a lidar com distribuições suficientemente bem comportadas sabemos que a probabilidade de um evento estar entre { {x}} e { {x+dx}} é

\displaystyle \rho(x)dx \ \ \ \ \ (35)

 

A quantidade { {\rho (x)}} é chamada de densidade de probabilidade.

Consequentemente as generalizações para os outros resultados são:

\displaystyle \int_{-\infty}^{+\infty}\rho(x)dx=1 \ \ \ \ \ (36)

 

\displaystyle <x>=\int_{-\infty}^{+\infty}x\rho(x)dx \ \ \ \ \ (37)

 

\displaystyle <f(x)>=\int_{-\infty}^{+\infty}f(x)\rho(x)dx \ \ \ \ \ (38)

 

\displaystyle \sigma ^2=<(\Delta x)^2>=<x^2>-<x>^2 \ \ \ \ \ (39)

 

 

Anúncios

1 Comentário

  1. […] Mecânica Quântica – Revisão de Probabilidade e Estatística […]

    Gostar

Deixe um comentário

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão / Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão / Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão / Alterar )

Google+ photo

Está a comentar usando a sua conta Google+ Terminar Sessão / Alterar )

Connecting to %s

%d bloggers like this: