de James O'Brien
No 'Ensaio Filosófico sobre Probabilidades", publicado em 1814, Pierre-Simon Laplace introduziu uma notória criatura hipotética: a "vasta inteligência" que sabia o completo estado físico do universo presente. Para tal entidade, dita "O demônio de Laplace" por comentadores subsequentes, não haveria mistério sobre o que aconteceu no passado ou o que aconteceria em qualquer tempo do futuro. De acordo com o universo maquinário descrito por Isaac Newton, o passado e o futuro estão exatamente determinados pelo presente.
O demônio de Laplace não deveria ser um experimento de pensamento prático; a inteligência imaginada seria essencialmente tão vasta quanto o universo em si. E, na prática, dinâmicas caóticas podem amplificar pequenas imperfeições no conhecimento inicial do sistema em total incerteza no futuro. Mas, em princípio, a mecânica newtoniana é determinística.
Um século depois, a mecânica quântica mudou tudo. Teorias físicas ordinários dizem o que um sistema é e como evolui com o tempo. A mecânica quântica também faz isto, mas também vem com um novo arranjo de regras, governando o que acontece quando sistemas estão sendo observados ou medidos. Mais notavelmente, resultados de medições não podem ser preditos com perfeita confiança, mesmo em princípio. O melhor que podemos fazer é calcular a probabilidade de obter cada resultado possível, de acordo com o que é chamado de 'regra de Born': a função de onda assimila uma 'amplitude' a cada saída de medição, e a probabilidade de conseguir este resultado é igual a amplitude ao quadrado. Este aspecto é o que levou Albert Einstein a reclamar sobre Deus jogando dados com o universo.
Os pesquisadores continuam a argumentar sobre qual é a melhor forma de pensar sobre a mecânica quãntica. Há várias escolas de pensamento competindo, que às vezes são referidas como interpretações da teoria quãntica, mas são melhores pensadas como teorias físicas distintas que dão as mesma predições nos regimes testados até agora. Todos eles compartilham a mesma característica de se apoiar na idéia de probabilidade em forma fundamental. O que gera a questão: O que é probabilidade, realmente?
Como tantos conceitos sutis, probabilidade começa com um aparente direto significado de senso comum, que se torna mais sorrateiro o mais próximo que chegamos. Jogue uma moeda justa muitas vezes, qualquer tentativa específica de tentar descobrir uma moeda de cara ou coroa é completamente desconhecida, mas se fizermos muitas tentativas, esperamos que 50% dos tempos saia cara e 50% dos tempos saia coroa. Então dizemos que a probabilidade de obter cara é 50% e tal para coroa.
Sabemos como manusear as matemáticas da probabilidade, graças ao trabalho do matemático russo Andrey Kolmogorov e outros. Probabilidades são números reais entre 0 e 1. As probabilidades de todos os eventos independentes devem somar 1. Mas isto não é a mesma coisa que decidir o que é realmente probabilidade.
Existem diversas formas de definir probabilidade, mas podemos distinguir entre duas classes mais abrangentes. A objetiva ou física vê a probabilidade como uma característica fundamental do sistema, a melhor forma para caracterizar o comportamento físico. Um exemplo de um método objetivo de probabilidade é a probabilidade de frequência, que define probabilidade como a frequência com a qual as coisas acontecem com a repetição de muitas tentativas como com o exemplo do lançar de uma moeda.
Alternativamente, existe a forma subjetiva ou evidencial, que trata a probabilidade como pessoal, um reflexo da crença do indivíduo, do nível de crença, sobre o que é verdadeiro ou o que acontecerá. Um exemplo disto é a probabilidade Bayesiana, que enfatiza a lei de Bayes, um teorema matemático que diz como atualizar as crenças de forma que obtemos informação. Bayesianos imaginam que criaturas racionais em estados de informação incompleta andam por aí com crenças de todo tipo de proposição imaginável, atualizando-as continuamente de forma que novos dados entram. Em contraste com o frequentismo, no Bayesianismo faz perfeito sentido ligar as probabilidades a eventos de um acontecimento, tal como quem ganhará a próxima eleição, ou de eventos passados que estamos incertos sobre.
Interessante, as diferentes formas da mecânica quântica invocam diferentes significados de probabilidades em caminhos centrais. Pensar sobre mecânica quãntica ajuda a iluminar a probabilidade, e vice-versa. Ou, para ser mais pessimista: a mecânica quântica da forma que é compreendida não ajuda realmente a escolher entre os conceitos competentes de probabilidade, de forma que cada conceito tem lugar em alguma formulação quântica ou outra.
Consideraremos três das formas liderantes de teoria quântica. Existem as teorias de colapso dinâmico, tal como o modelo GRW proposto em 1985 por Giancarlo Ghirardi, Alberto Rimini e Tullio Weber. Existem as teorias de onda piloto ou variável escondida, mais notavelmente a teoria de de Broglie-Bohm, convencionada por David Bohm em 1952 baseada em idéias primitivas de Louis de Broglie. E existe a formulação de muitos mundos sugerida por Hugh Everett em 1957.
Cada uma destas representa uma forma de resolver o problema de medição na Mecânica Quântica. O problema é que a teoria quântica convencional descreve o estado de um sistema em termos da função de onda, que evolui suavemente e deterministicamente de acordo com a equação de Schrodinger. Ao menos, o faz ao menos que o sistema esteja sendo observado, em esse caso, de acordo com a presentação em livros texto, a função de onda repentinamente colapsa em algum tipo particular de saída observacional. O colapso em si é impredizíve; a função de onda assimila um número para cada saída possível, e a probabilidade de observar esta saída é igual ao valor da função de onda ao quadrado. O problema da medição é simplesmente 'o que constitui uma medição'? Quando exatamente ocorre? Por que existem medições aparentemente diferentes da evolução ordinária da função?
Teorias de colapso dinâmico oferecem talvez a resolução mais direta ao problema da medição. Eles postulam que há um componente realmente aleatório na evolução quântica, de acordo com o qual cada partícula usualmente obedece a equação de Schrodinger, mas ocasionalmente a função de onda espontaneamente localizará em alguma posição do espaço. Tais colapsos são tão raros que nunca observaríamos um para uma partícula única. Mas para um objeto macroscópico feito de muitas partículas, colapsos acontecem o tempo todo. Isto previne objetos macroscópicos, como o infâme gato de Schrodinger, de evoluir em uma superposição observável. Todas as partículas de um grande sistema seriam emaranhados uns com os outros, de forma que quando apenas um deles localiza no espaço, os outros são trazidos juntos consequentemente.
A probabilidade em tais modelos é fundamental e objetiva. Não há absolutamente nada sobre o presente que precisamente determine o futuro. As teorias de colapso dinâmico se encaixam perfeitamente em uma visão antiga de probabilidade frequentista. O que acontece depois é desconhecível, e tudo que podemos dizer é a frequência de longo termo das diferentes saídas. O demônio de Laplace não poderia possivelmente predizer o futuro, mesmo se soubesse exatamente o presente estado do universo.
As teorias de onda piloto contam uma estória diferente. Aqui, nada é realmente aleatório; os estados quânticos evoluem deterministicamente, tal como o estado clássico o fazia para Newton. O novo elemento é o conceito de variáveis sorrateiras, tal como as atuais posições de partículas, em adição à tradicional função de onda. As partículas são o que realmente observamos, enquanto que a função de onda serve apenas como guia.
No senso, as teorias de onda piloto nos leva de novo ao universo maquinário da mecânica clássica, mas com uma mudança importante: quando não fazemos uma observação, não podemos e não devemos, saber os valores destas variáveis sorrateiras. Podemos preparar uma função de onda tal que saibamo-a exatamente, mas aprendemos apenas sobre as variáveis sorrateiras as observando. O melhor que podemos fazer é admitir nossa ignorância e introduzir uma distribuição de probabilidade sobre os possíveis valores.
Probabilidade em teorias de onda piloto, em outras palavras, é inteiramente subjetiva. Caracteriza o nosso conhecimento, não uma frequência objetiva de ocorrência durante o tempo. Um fortalecido demônio de laplace que saberia tanto a função de onda como todas as variáveis sorrateiras poderia predizer o futuro exatamente, mas uma versão coxeada que simplesmente sabe a função de onda ainda precisaria fazer predições probabilísticas.
Então temos o 'muitos mundos'. Esta é minha forma favorita de mecânica quântica, mas é também a que é mais difícil aproximar o como e porquê da participação da probabilidade.
A mecânica quântica de muitos mundos é a que tem a formulação mais simples de todas as alternativas. Existe a função de onda, e obedece a equação de Schrodinger. Não há colapso ou variáveis adicionais. Ao invés, usamos a equação de Schrodinger para predizer o que irá acontecer quando um observador mede um objeto quântico em superposição de múltiplos estados. A resposta é que o sistema combinado de observador e objeto evolui em um emaranhado de superposição. Em cada parte da superposição, o objeto tem uma saída de medição definitiva e o observador têm medido esta saída.
A saída brilhante de Everett foi simplesmente dizer: "That's okay", tudo o que precisamos reconhecer é que cada parte do sistema subsequentemente evolui separadamente de todos os outros, e portanto qualifica como um ramo separado da função de onda, ou mundo. Os mundos não são postos por mão, eles estão permeando lentamente o formalismo quântico em toda sua extensão.
A idéia de todos esses mundos pode parecer extravagante ou desgostosa, mas estas não são objeções científicas respeitáveis. Uma questão mais legítima é a natureza da probabilidade deste método. Nos muitos mundos, sabemos a função de onda exata, e evolui deterministicamente. Não há nada desconhecido ou impredizível. O demônio de Laplace poderia predizer o futuro inteiro do universo com perfeita confiança. Como está a probabilidade envolvida nisto?
Uma resposta é disponibilizada pela idéia de incerteza autolocativa ou indexical. Imagine que será necessário medir um sistema quântico, então ramificando a função de onda em mundos diferentes (2). Faria sentido perguntar: "após a medida, em que mundo estarei?" Existem duas pessoas, uma em cada ramo, descendentes de tu, nenhuma das duas tem melhor reivindicação ao qual é realmente o você.
Mas mesmo se ambos soubessem a função de onda do universo, há algo que não saberiam: qual ramo da função de onda eles estão. Existirá inevitavelmente um tempo após a ramificação ocorrer mas antes dos observadores descobrirem o que aconteceu no seu tempo. Não sabem se estão, ou aonde, na função de onda. Esta é a incerteza autolocativa, primeiramente enfatizada no contexto quântico do físico Lev Vaidman.
Poderia pensar que olharia a saída experimental rapidamente, de forma que não há período observável de incerteza, mas no mundo real, a função de onda se ramifica incrivelmente rápido, em escalas de tempo de 10^-21 segundos ou menos. Isto é muito mais rápido do que um sinal pode alcançar o cérebro. Haverá sempre um período de tempo no qual você está em um certo ramo de uma função de onda, mas sem saber o qual.
Podemos resolver esta incerteza de forma razoável? Sim, como Charles Sebens e eu argumentamos, e o fazendo chegamos exatamente à lei de Born: a crença que deveria ser ligada a estar em algum ramo em particular da função de onda é simplesmente a amplitude ao quadrado deste ramo, tal como em mecânica quântica ordinária. Sebens e eu precisamos fazer uma nova presunção, que chamamos de princípio de separabilidade epistêmico: quaisquer predições feitas para saídas experimentais devem ser inalteradas se mudamos apenas a função de onda para partes completamente distintas do sistema.
A incerteza autolocativa é um diferente tipo de incerteza epistêmica da que caracteriza modelos de onda piloto. É possível conhecer tudo que há para saber sobre o universo, e ainda assim haverá algo para estar incerto sobre, particularmente o que está pessoalmente adentro. A incerteza obedece as regras da probabilidade ordinária, mas requer um pouco de trabalho para convencer que há um caminho razoável para designar números à sua crença.
É possível objecionar que as predições são necessárias agora, antes da ramificação. Então não há nada incerto, saberás exatamente como o universo evoluirá. Mas incluída nessa sabedoria está a convicção de que todas as versões futuras de um objeto serão incertas, e deveria ser utilizada a lei de Born para designar crenças às diversas ramificações em que estão. Em este caso, faz perfeito sentido agir precisamente como se houvesse um universo estocástico, com a frequência de várias saídas dada pela lei de Born (David Deutsch e David Wallace realizaram o argumento rigoroso utilizando teoria de decisão.)
Em senso, todas estas noções de probabilidade podem ser pensadas como versões de incerteza autolocativa. Tudo que precisamos fazer é considerar o arranjo de todos os mundos possíveis, todas as diferentes versões da realidade que poderiam ser concebidas. Tais mundos obedecem as regras das teorias de colapso dinâmico, e cada uma destas é distinguida pela sequência de saídas para todas as medições quânticas já realizadas. Outros mundos são descritos pelas teorias de onda piloto, e em cada um as variáveis sorrateiras tem diferentes valores. Ainda outras são realidades de muitos mundo, aonde agentes estão incertos sobre qual das ramificações de realidade da função de onda eles estão. É possível pensar no papel da probabilidade como uma expressão das crenças pessoais sobre qual destes mundos é o real.
I estudo da probabilidade leva do arremesso de moedas a ramificação de universos. Esperançosamente nossa compreensão deste conceito progredirá com o conhecimento das mecânicas quânticas em si.
Comments