Stephen W. Hawking
Breve História
do Tempo
Do *Big Bang*
aos Buracos Negros
Introdução
de Carl Sagan
Tradução de
Ribeiro da Fonseca
Revisão, adaptação
do texto e notas de
José Félix Gomes Costa
Instituto Superior Técnico
Gradiva
Título original inglês: *a Brief History of Time -- From the Big Bang to Black
Holes*
c 1988 by *Stephen W. Hawking*
Introducão c 1988 by *Carl Sagan*
Ilustrações do texto c 1988 by *Ron Miller*
Tradução: *Ribeiro da Fonseca*
Revisão de texto: *A. Miguel Saraiva*
Capa: *Armando Lopes* a partir de fotos de David Montgomery e Roger
Ressmeyer
Fotocomposição, paginação e fotolitos: *Textype -- Artes Gráficas, L.da*
Impressão e acabamento: *Tipografia Guerra/Viseu*
Direitos reservados para Portugal a:
*Gradiva -- Publicações, L.da*
Rua de Almeida e Sousa, 21, r/c, esq., 1300 LISBOA
Telef. 3974067/8
3.a edição: *Abril de 1994*
Depósito legal n.° 75248/94
isbn 972-662-010-4
stephen w. hawking
stephen w. hawking é reconhecido internacionalmente como um dos génios do
século xx. físico inglês de 46 anos de idade, ocupa hoje na universidade de
cambridge a cátedra que pertenceu a newton e é, segundo a opinião geral, um
forte candidato ao nobel da física. há alguns anos, foi anunciada a publicação
de uma obra sua, considerada pelos especialistas de todo o mundo como um
grande acontecimento editorial. a saída do livro foi sendo, porém,
sucessivamente adiada. é que stephen hawking é vítima de uma doença
estranha e terrível que, em 1984, o deixou completamente paralítico. na altura,
ainda podia falar. hoje não. mas o autor não desistiu e, com a ajuda de um
computador que criou e três dedos da mão esquerda, levou a cabo a empresa
de escrever apaixonadamente *breve história do tempo*, recentemente
publicado nos estados unidos e já traduzido para várias línguas. porquê? como
nos diz o editor americano, o sonho deste físico é ter o seu livro à venda nos
aeroportos, porque passa a maior parte do seu tempo a viajar para dar
conferências nas mais prestigiadas universidades do mundo inteiro.
breve história do tempo
pela primeira vez, hawking escreve uma obra de divulgação, explorando os
limites do nosso conhecimento da astrofísica e da natureza do tempo e do
universo. o resultado é um livro absolutamente brilhante; uma apresentação
clássica das ideias científicas mais importantes dos nossos dias e a
possibilidade única de poder seguir o intelecto de um dos pensadores mais
imaginativos e influentes do nosso tempo. houve realmente um princípio do
tempo? haverá um fim? o universo é infinito ou tem limites? pegando nestas
questões, hawking passa em revista as grandes teorias do cosmos e as
contradições e paradoxos ainda por resolver e explora a ideia de uma
combinação da teoria da relatividade geral com a mecânica quântica numa
teoria unificada que resolveria todos os mistérios. *breve história do tempo* é
um livro escrito para os que preferem as palavras às equações, onde, no estilo
incisivo que lhe é próprio, hawking nos mostra como o "retrato" do mundo
evoluiu até aos nossos dias. brilhante.
*Este livro é dedicado à Jane*
*Agradecimentos*
Resolvi tentar escrever um livro popular sobre o espaço e o tempo depois de
ter proferido, em 1982, as conferências de Loeb, em Harvard. Já havia uma
quantidade considerável de livros sobre o Universo primitivo e os "buracos
negros", desde os muito bons, como o livro de Steven Weinberg, *The First
Three Minutes* (1), aos péssimos, que não vou identificar. Senti, contudo, que
nenhum deles abordava realmente as questões que me tinham levado a fazer
investigação em cosmologia e teoria quântica: Donde surgiu o Universo?
Como e por que começou? Irá ter um fim e, se assim for, qual? Estas questões
interessam a todos nós. Mas, a ciência moderna tornou-se tão técnica que
apenas um número muito pequeno de especialistas é capaz de dominar a
matemática utilizada para as descrever. No entanto, as ideias básicas sobre a
origem e destino do Universo podem ser formuladas sem matemática, de
forma a que as pessoas sem conhecimentos científicos consigam compreendêlas.
Foi o que tentei fazer neste livro. O leitor irá julgar se o consegui ou não.
:,
(1) Tradução portuguesa: *Os Três Primeiros Minutos*, Uma Análise
Moderna da Origem do Universo, com prefácio e notas de Paulo Crawford do
Nascimento, Gradiva, Lisboa, 1987 (*N. do R.*).
Alguém me disse que cada equação que eu incluísse no livro reduziria as
vendas para metade. Assim, resolvi não utilizar nenhuma. No entanto, no
final, *incluí* mesmo uma, a famosa equação de Einstein: *E = mcâ2*.
Espero que isso não assuste metade dos meus potenciais leitores.
À excepção de ter tido o azar de contrair a doença de Gehrig ou neuropatia
motora, tenho sido afortunado em quase todos os outros aspectos. A ajuda e o
apoio da minha mulher Jane e dos meus filhos Robert, Lucy e Timmy, fizeram
com que me fosse possível levar uma vida razoavelmente normal e ter uma
carreira bem sucedida. Também tive a sorte de escolher física teórica, porque
tudo é feito mentalmente. Por isso, a minha incapacidade não tem constituído
uma verdadeira objecção. Os meus colegas cientistas têm dado, sem excepção,
uma boa ajuda.
Na primeira fase "clássica" da minha carreira, os meus principais assistentes e
colaboradores foram Roger Penrose, Robert Geroch, Brandon Carter e George
Ellis. Estou-lhes grato pela ajuda que me deram e pelo trabalho que juntos
fizemos. Esta fase foi coligida no livro *The Large Scale Structure of
Spacetime*, que escrevi juntamente com Ellis em 1973. Não aconselharia os
leitores deste livro a consultarem essa obra para informação posterior: é
altamente técnica e bastante ilegível. Espero que, de então para cá, tenha
aprendido a escrever de forma mais compreensível.
Na segunda fase "quântica" do meu trabalho, a partir de 1974, os meus
colaboradores principais têm sido Gary Gibbons, Don Page e Jim Hartle.
Devo-lhes muitíssimo a eles e aos meus alunos de investigação, que me
auxiliaram bastante tanto no sentido teórico como no sentido físico da palavra.
Ter de acompanhar os meus alunos tem constituído um grande estímulo e
impediu-me, espero, de ficar preso à rotina.
Neste livro, tive também a grande ajuda de Brian Whitt, um dos meus alunos.
Em 1985, apanhei uma pneumonia, :, depois de ter escrito o primeiro esboço.
Foi necessário fazerem-me uma traqueotomia que me retirou a capacidade de
falar, tornando-se quase impossível a comunicação. Pensei não ser capaz de o
concluir. Contudo, Brian não só me ajudou a revê-lo, como me arranjou um
programa de comunicação chamado "Living Center" que me foi oferecido por
Walt Woltosz, da Word Plus Inc., em Sunnyvale, Califórnia. Com ele posso
escrever livros e artigos e falar com as pessoas utilizando um sintetizador da
fala oferecido pela Speech Plus, também de Sunnyvale, Califórnia. O
sintetizador e um pequeno computador pessoal foram incorporados na minha
cadeira de rodas por David Mason. Este sistema realizou toda a diferença:
com efeito, posso comunicar melhor agora do que antes de ter perdido a voz.
Muitas pessoas que leram as versões preliminares fizeram-me sugestões para
melhorar o livro. Em particular, Peter Guzzardi, o meu editor na Bantam
Books, que me enviou páginas e páginas de comentários e perguntas sobre
pontos que considerava não estarem devidamente explicados. Tenho de
admitir que fiquei bastante irritado quando recebi a sua grande lista de coisas
para alterar, mas ele tinha razão. Estou certo que o livro ficou muito melhor
por ele me ter obrigado a manter os pés na terra.
Agradeço muito aos meus assistentes, Colin Williams, David Thomas e
Raymond Laflamme; às minhas secretárias Judy Fella, Ann Ralph, Cheryl
Billington e Sue Masey; e à minha equipa de enfermeiras. Nada disto teria
sido possível sem o apoio às minhas despesas médicas e de investigação
dispensado pelos Gonville and Caius College, Science and Engineering
Research Council e pelas fundações Leverhulme, McArthur, Nuffield e Ralph
Smith.
Estou-lhes muito grato.
20 de Outubro de 1987.
Stephen Hawking
*Introdução*
Vivemos o nosso quotidiano sem entendermos quase nada do mundo.
Reflectimos pouco sobre o mecanismo que gera a luz solar e que torna a vida
possível, sobre a gravidade que nos cola a uma Terra que, de outro modo, nos
projectaria girando para o espaço, ou sobre os átomos de que somos feitos e de
cuja estabilidade dependemos fundamentalmente. Exceptuando as crianças
(que não sabem o suficiente para não fazerem as perguntas importantes),
poucos de nós dedicamos algum tempo a indagar por que é que a natureza é
assim; de onde veio o cosmos ou se sempre aqui esteve; se um dia o tempo
fluirá ao contrário e se os efeitos irão preceder as causas; ou se haverá limites
definidos para o conhecimento humano. Há crianças, e conheci algumas, que
querem saber qual é o aspecto dos "buracos negros"; qual é o mais pequeno
pedaço de matéria; por que é que nos lembramos` do passado e não do futuro;
como é que, se inicialmente havia o caos, hoje existe aparentemente a ordem;
e por que *há* um Universo.
Ainda é habitual, na nossa sociedade, os pais e os professores responderem à
maioria destas questões com um encolher de ombros, ou com um apelo a
preceitos religiosos vagamente relembrados. Alguns sentem-se pouco à :,
vontade com temas como estes, porque expressam vividamente as limitações
da compreensão humana.
Mas grande parte da filosofia e da ciência tem evoluído através de tais
demandas. Um número crescente de adultos quer responder a questões desta
natureza e, ocasionalmente, obtém respostas surpreendentes. Equidistantes dos
átomos e das estrelas, estamos a expandir os nossos horizontes de exploração
para abrangermos tanto o infinitamente pequeno como o infinitamente grande.
Na Primavera de 1974, cerca de dois anos antes da nave espacial Viking ter
descido na superfície de Marte, eu estava em Inglaterra numa reunião
patrocinada pela Royal Society of London para discutir a questão de como
procurar vida extraterrestre. Durante um intervalo para o café reparei que
estava a decorrer uma reunião muito maior num salão adjacente, onde entrei
por curiosidade. Em breve percebi que estava a assistir a uma cerimónia
antiga, a investidura de novos membros da Royal Society, uma das
organizações académicas mais antigas do planeta. Na fila da frente, um jovem
numa cadeira de rodas estava a assinar muito lentamente o seu nome num
livro que continha nas primeiras páginas a assinatura de Isaac Newton.
Quando finalmente terminou, houve uma ovação estrondosa. Já então Stephen
Hawking era uma lenda.
Hawking é actualmente o Professor Lucasiano (2) de Matemáticas na
Universidade de Cambridge, lugar ocupado outrora por Newton e mais tarde
por P. A. M. Dirac, dois famosos investigadores do infinitamente grande e do
infinitamente pequeno. Ele é o seu sucessor de mérito. Este primeiro livro de
Hawking para não especialistas oferece aos leigos variadas informações. Tão
interessante como o vasto conteúdo é a visão que fornece do pensamento do
autor. Neste livro encontram-se revelações lúcidas nos :, domínios da física,
da astronomia, da cosmologia e da coragem.
(2) Cátedra honorífica (*N. do R.*).
É também um livro sobre Deus... ou talvez sobre a ausência de Deus. A
palavra Deus enche estas páginas. Hawking parte em demanda da resposta à
famosa pergunta de Einstein sobre se Deus teve alguma escolha na Criação do
Universo. Hawking tenta, como explicitamente afirma, entender o pensamento
de Deus. E isso torna a conclusão do seu esforço ainda mais inesperada, pelo
menos até agora: um Universo sem limites no espaço, sem principio nem fim
no tempo, e sem nada para um Criador fazer.
Carl Sagan
Universidade de Cornell
Ithaca, Nova Iorque
I. A Nossa Representação
do Universo
Um conhecido homem de ciência (segundo as más línguas, Bertrand Russel)
deu uma vez uma conferência sobre astronomia. Descreveu como a Terra
orbita em volta do Sol e como o Sol, por sua vez, orbita em redor do centro de
um vasto conjunto de estrelas que constitui a nossa galáxia (1). No fim da
conferência, uma velhinha, no fundo da sala, levantou-se e disse: "O que o
senhor nos disse é um disparate. O mundo não passa de um prato achatado
equilibrado nas costas de uma tartaruga gigante." O cientista sorriu com ar
superior e retorquiu com outra pergunta: "E onde se apoia a tartaruga?" A
velhinha então exclamou: "Você é um jovem muito inteligente, mas são tudo
tartarugas por aí abaixo!"
(1) A nossa galáxia ou, mais familiarmente, a Galáxia (*N. do R.*).
A maior parte das pessoas acharia bastante ridícula a imagem do Universo
como uma torre infinita de tartarugas. Mas o que nos leva a concluir que
sabemos mais? Que sabemos ao certo sobre o Universo e como atingimos esse
conhecimento? De onde veio e para onde vai? Teve um princípio e, nesse
caso, que aconteceu *antes* dele? Qual é a natureza do tempo? Acabará
alguma vez? Descobertas recentes em física, tornadas possíveis em parte pela
fantástica :, tecnologia actual, sugerem respostas a algumas destas perguntas
antigas. Um dia, essas respostas poderão parecer tão óbvias para nós como o
facto de a Terra girar em volta do Sol; ou talvez tão ridículas como uma torre
de tartarugas. Só o tempo (seja ele o que for) o dirá.
Já no ano 340 a.C. o filosofo grego Aristóteles, no seu livro *Sobre os Céus*,
foi capaz de apresentar dois bons argumentos para se acreditar que a Terra era
uma esfera e não um prato achatado. Primeiro, compreendeu que os eclipses
da Lua eram causados pelo facto de a Terra se interpor entre o Sol e a Lua. A
sombra da Terra projectada na Lua era sempre redonda, o que só poderia
acontecer se a Terra fosse esférica. Se esta fosse um disco achatado, a sombra
seria alongada e elíptica, a não ser que o eclipse ocorresse sempre numa altura
em que o Sol estivesse directamente por baixo do centro do disco. Em
segundo lugar, os Gregos sabiam, das suas viagens, que a Estrela Polar surgia
menos alta no céu quando era observada mais a sul das regiões onde ela se
encontra mais alta. Uma vez que a Estrela Polar se encontra no zénite do Pólo
Norte, parece estar directamente por cima de um observador no pólo boreal,
mas para um observador no equador ela encontra-se na direcção do horizonte.
A partir da diferença da posição aparente da Estrela Polar no Egipto e na
Grécia, Aristóteles estimou o perímetro da Terra em quatrocentos mil estádios.
Não se sabe exactamente o valor da medida de comprimento que os Gregos
designavam por estádio, mas pensa-se que seria de cento e oitenta metros, o
que equivale a dizer que Aristóteles calculou cerca de duas vezes o valor
actual do perímetro da Terra. Os Gregos encontraram ainda um terceiro
argumento em prol da esfericidade da Terra: por que motivo se vislumbram
primeiro as velas de um navio que surge no horizonte, e somente depois o
casco? :,
esfera da lua
esfera de mercúrio
esfera de vénus
esfera do sol
esfera de marte
esfera de júpiter
esfera de saturno
esfera das estrelas fixas
Fig. 1.1
Aristóteles pensava que a Terra se encontrava imóvel e que o Sol, a Lua, os
planetas e as estrelas se moviam em órbitas circulares em volta dela. Pensava
assim porque sentia, por razões místicas, que a Terra era o centro do Universo
e que o movimento circular era o mais perfeito. Esta ideia foi depois
sintetizada por Ptolomeu, no segundo século da era cristã, num modelo
cosmológico acabado. A Terra ocupava o centro, rodeada por oito esferas com
a Lua, o Sol, as estrelas e os cinco planetas então conhecidos: Mercúrio,
Vénus, Marte, Júpiter e Saturno. Os planetas moviam-se em círculos menores
ligados às suas esferas respectivas, o que explicaria as bastante complicadas
trajectórias percorridas no céu. A esfera mais afastada do centro continha as
chamadas estrelas fixas, que estão sempre nas mesmas posições relativamente
umas às outras, :, mas que têm um movimento de rotação conjunto no céu. O
que ficava para além da última esfera nunca foi bem esclarecido, mas não era
certamente parte do Universo que podia ser observado pela humanidade (2).
(2) Esta descrição encaixa mais fielmente na cosmologia física de Aristóteles
que subsiste paralelamente à astronomia matemática ptolomaica (*N. do R.*).
O modelo de Ptolomeu forneceu um sistema razoavelmente preciso para
predizer as posições dos corpos celestes no céu. Mas, para predizer estas
posições correctamente, ele teve de partir do princípio de que a Lua seguia
uma trajectória tal que, por vezes, a Lua encontrava-se duas vezes mais
próxima do que noutras. Por consequência, haveria ocasiões em que a Lua
pareceria duas vezes maior que noutras. Ptolomeu reconheceu esta falha, o
que não impediu que o seu modelo fosse geralmente, embora não
universalmente, aceite. Foi adoptado pela Igreja Cristã como modelo do
Universo (3) de acordo com a Bíblia, mas tinha a grande vantagem de deixar
imenso espaço, fora da esfera das fixas, para o Céu e o Inferno.
(3) Atente na grafia, o *Universo* de que somos parte e os seus modelos
matemáticos ou *universos* (*N. do R.*).
Um modelo mais simples, contudo, foi proposto em 1514 por um cónego
polaco de nome Nicolau Copérnico. (Ao princípio, talvez com medo de ser
classificado de herege pela Igreja, Copérnico apresentou o seu modelo
anonimamente). A sua ideia era que o Sol se encontrava imóvel no centro e os
planetas se moviam em órbitas circulares em seu redor. Foi necessário cerca
de um século para esta ideia ser levada a sério. Então, dois astrónomos o
alemão Johannes Kepler e o italiano Galileu Galilei, defenderam publicamente
a teoria de Copérnico, apesar do facto de as órbitas que predizia não
coincidirem completamente com as que eram observadas. O golpe mortal para
a teoria de Aristóteles e Ptolomeu chegou em 1609. Nesse ano, Galileu
começou a observar o céu de noite, com um telescópio, que acabara de ser
inventado. Quando olhou para o planeta Júpiter, descobriu que se encontrava
acompanhado de vários pequenos satélites, ou luas, que orbitavam em seu
redor. Isto implicava que *nem tudo* tinha de ter uma órbita em redor da
Terra, como pensavam Aristóteles e Ptolomeu. (Claro que ainda era possível
pensar que a Terra estava imóvel no centro do Universo e que as luas de
Júpiter se moviam por trajectórias extremamente complicadas em volta da
Terra, *aparentando* girarem em volta de Júpiter. No entanto, a teoria de
Copérnico era muito mais simples). Ao mesmo tempo, Kepler tinha-a
modificado, sugerindo que os planetas se moviam não em círculos mas sim
em elipses ("círculos" oblongos). As predições, finalmente, condiziam com as
observações.
Quanto a Kepler, as órbitas elípticas eram apenas uma hipótese *ad hoc*, e até
bastante repugnante, porque as elipses eram claramente menos perfeitas do
que os círculos. Tendo descoberto quase por acaso que as órbitas elípticas
condiziam com as observações, não conseguiu reconciliá-las com a sua ideia
de que os planetas giravam em volta do Sol devido a forças magnéticas. Só
muito mais tarde, em 1687, surgiu uma explicação, quando Sir Isaac Newton
publicou a sua obra *Philosophiae Naturalis Principia Mathematica*,
provavelmente o mais importante livro de física alguma vez publicado. Nele,
Newton não só apresentou uma teoria sobre o movimento dos corpos, como
desenvolveu o aparato matemático necessário para análise do movimento.
Além disso, Newton postulou uma lei universal segundo a qual quaisquer dois
corpos do Universo se atraíam com uma força tanto mais intensa quanto
maiores as suas respectivas massas e maior a sua proximidade. Era esta
mesma força que solicitava os corpos para o chão. (A história de que Newton
se inspirou numa maçã que lhe caiu na cabeça é quase de certeza apócrifa.
Tudo :, o que ele alguma vez disse foi que a ideia da gravidade lhe tinha
surgido quando estava sentado "com os seus pensamentos" e "tinha sido
provocada pela queda de uma maçã"). Newton mostrou ainda que, segundo a
sua lei, a gravidade faz com que a Lua se mova numa órbita elíptica em redor
da Terra e com que a Terra e os outros planetas sigam trajectórias elípticas em
volta do Sol.
O modelo de Copérnico fez desaparecer ás esferas celestes de Ptolomeu (4) e,
com elas, a ideia de que o Universo apresentava limite natural. Uma vez que
as "fixas" não pareciam alterar a sua posição, exceptuando o seu movimento
aparente de rotação que tem origem no movimento da Terra em torno do seu
eixo em sentido contrário, tornou-se natural supor que as estrelas, assimiláveis
ao nosso Sol, se encontravam muito mais longe.
(4) De Aristóteles, a bem dizer (*N. do R.*).
Newton compreendeu que, segundo a sua teoria da gravitação, as estrelas
deviam atrair-se umas às outras, de modo que parecia não poderem
permanecer essencialmente sem movimento. Não colapsariam todas a um
tempo em algum ponto? Numa carta escrita em 1691 a Richard Bentley, outro
importante pensador desse tempo, Newton argumentava que isso aconteceria
realmente se houvesse um número finito de estrelas distribuídas numa região
finita de espaço. Mas afirmava também que se, por outro lado, houvesse um
número infinito de estrelas, distribuídas mais ou menos uniformemente num
espaço infinito, tal não aconteceria, porque careceriam de ponto privilegiado
para o colapso.
Este raciocínio é um exemplo das rasteiras que se podem encontrar ao falar
acerca do infinito. Num universo infinito, cada ponto pode ser eleito o centro,
porque em cada direcção que cruza o ponto podem contar-se infinitas estrelas.
A maneira correcta de se pensar o assunto, compreendeu-se :, muito mais
tarde, é considerar a situação numa região finita onde as estrelas caem todas
umas sobre as outras, e depois perguntar se uma distribuição mais ou menos
uniforme de estrelas fora daquela região alteraria alguma coisa. Segundo a lei
de Newton, as estrelas exteriores não introduziriam, em média, a menor
diferença na situação das já existentes, de maneira que estas cairiam com a
mesma rapidez. Podemos acrescentar as estrelas que quisermos, que
continuarão a cair sobre si mesmas. Sabemos agora que é impossível conceber
um modelo estático de um universo infinito em que a gravidade seja sempre
atractiva.
é interessante reflectir acerca das ideias gerais sobre o Universo antes do
século XX, quando ainda não tinha sido sugerido que o Universo estivesse a
expandir-se ou a contrair-se. Era geralmente aceite que o Universo tinha
permanecido imutável através dos tempos, ou que tinha sido criado num certo
instante do passado, mais ou menos como o observamos hoje. Em parte, isto
pode dever-se à tendência das pessoas para acreditarem em verdades eternas,
bem como ao conforto que lhes dá o pensamento de que, embora possam
envelhecer e morrer, o Universo é eterno e imutável.
Até aqueles que compreenderam que a teoria da gravitação de Newton
mostrava que o Universo não podia ser estático, não pensaram sugerir que
podia estar a expandir-se. Em vez disso, procuraram modificar a teoria,
tornando a força gravitacional repulsiva a distâncias muito grandes. Isto não
afectou significativamente as suas predições dos movimentos dos planetas,
mas permitiu o entendimento de que uma distribuição infinita de estrelas
permanecesse em equilíbrio, opondo-se as forças atractivas entre estrelas
próximas às forças repulsivas das mais afastadas. Contudo, acreditamos agora
que esse equilíbrio seria instável: se as estrelas numa região se aproximassem
ainda que ligeiramente :, umas das outras, as forças atractivas mútuas tornarse-
iam mais intensas e dominariam as forças repulsivas, de modo que as
estrelas continuariam a aproximar-se umas de encontro às outras. Por outro
lado, se as estrelas se afastassem um pouco umas das outras, as forças
repulsivas tornar-se-iam dominantes e afastá-las-iam mais ainda umas das
outras.
Outra objecção a um universo estático infinito é normalmente atribuída ao
filósofo alemão Heinrich Olbers, que escreveu sobre esta teoria em 1823. De
facto, vários contemporâneos de Newton (5) tinham levantado o problema e o
artigo de Olbers nem sequer foi o primeiro a apresentar argumentos plausíveis
contra ele. Foi, no entanto, o primeiro a ser largamente notado. A dificuldade
reside em que num universo infinito (6) estático quase toda a direcção do
olhar iria culminar na superfície de uma estrela. Assim, esperar-se-ia que o
céu fosse tão brilhante como o Sol, mesmo à noite.
(5) O próprio Kepler numa das suas obras mais divulgadas, *Dissertatio cum
Nuncio Sidereo*, usa um argumento similar para concluir da finitude do
mundo (*N. do R.*).
(6) O argumento é válido num universo estático infinito no espaço e no tempo
(*N. do R.*).
A proposta de Olbers para resolver este problema era que a luz das estrelas
distantes seria atenuada por absorção na matéria interestelar interposta. No
entanto, se isso acontecesse, a matéria interveniente aqueceria eventualmente
até brilhar com a intensidade das estrelas. A única maneira de evitar a
conclusão de que todo o céu nocturno seria tão brilhante como a superfície do
Sol, seria admitir que as estrelas não tinham estado sempre a brilhar, mas que
tinham iniciado as suas carreiras há um tempo finito no passado. Nesse caso, a
matéria absorvente podia não ter ainda aquecido, ou a luz das estrelas
distantes não ter ainda chegado até nós. E isto :, leva-nos à questão de qual
poderia ter sido a causa de as estrelas se terem acendido.
O começo do Universo tinha, evidentemente, sido discutido antes. Segundo
algumas das mais antigas cosmologias e a tradição judaico-cristã-muçulmana,
o Universo teve origem há um tempo finito e não muito distante no passado.
Um dos argumentos a favor desta teoria era a sensação de ser necessária a
"Causa Primeira" para explicar a existência do Universo. (Dentro deste,
sempre se explicou um acontecimento como causado por outro anterior, mas a
existência do próprio Universo só podia ser explicada desta maneira se tivesse
tido um começo). Outro argumento foi exposto por Santo Agostinho no seu
livro *A Cidade de Deus*. Chamou a atenção para o facto de a civilização
estar a progredir e de nos lembrarmos daqueles que realizaram feitos heróicos
e dos que inventaram novas técnicas. Portanto, o Homem, e talvez também o
Universo, não podiam existir há tanto tempo como isso. Santo Agostinho
aceitou uma data de cerca de cinco mil anos antes de Cristo para a criação do
Universo, segundo o livro do Génesis. (É interessante verificar que esta data
não está muito longe do fim da última idade glaciar, cerca de dez mil anos
antes de Cristo, data a que os arqueólogos fazem remontar o início da
civilização).
Aristóteles, bem como a maioria dos filósofos gregos, por outro lado, não se
afeiçoaram à ideia da criação porque tinha demasiado sabor a intervenção
divina. Acreditavam que a raça humana, e o mundo à sua volta, sempre tinham
existido e existiriam para sempre. Os Antigos tinham levado em conta o
argumento acima referido acerca da evolução, e explicavam-no recorrendo a
dilúvios cíclicos e outros desastres que periodicamente tinham reconduzido a
raça humana de novo ao começo da civilização.
As questões de o Universo ter ou não tido um começo no tempo e se é ou não
limitado no espaço foram mais :, tarde examinadas em pormenor pelo filósofo
Emmanuel Kant, na sua monumental e muito obscura obra *Crítica da Razão
Pura*, publicada em 1781. Chamou a essas questões antinomias (ou seja,
contradições) da razão pura, porque achava que eram argumentos igualmente
atraentes para se acreditar na tese de que o Universo tinha tido um começo e
na antítese de que existira sempre. O seu argumento em defesa da tese era que,
se o Universo não tivesse tido um começo, teria havido um período infinito de
tempo antes de qualquer acontecimento, o que ele considerava absurdo. O
argumento antitético era que, se o Universo tinha tido um princípio, teria
havido um período de tempo infinito antes da sua origem: então por que tinha
o Universo começado num momento especial? De facto, os argumentos que
apresenta tanto para a tese como para a antítese são realmente os mesmos.
Baseiam-se ambos na sua suposição não expressa de que o tempo continua
indefinidamente para trás, quer o Universo tenha ou não existido sempre.
Como veremos, o conceito de tempo não tem qualquer significado *antes* (7)
do começo do Universo. Este facto foi apontado por Santo Agostinho. Quando
lhe perguntaram: "Que fazia Deus antes de criar o mundo?" Agostinho não
respondeu: "Andava a preparar o Inferno para todos os que fazem essas
perguntas." Em vez disso, respondeu que o tempo era uma propriedade do
Universo que Deus tinha criado, e que não existia *antes* (8) do começo do
Universo.
(7) O itálico é do revisor. Repare na incapacidade e ambiguidade da
linguagem comum quando se exprime a temática: antes não faz sentido, em
rigor, pois o tempo surge com a criação (*N. do R.*).
(8) *Idem (N. do R.)*.
Quando a maior parte das pessoas acreditava num universo essencialmente
estático e imutável, a questão de saber se tinha ou não tido um começo era na
verdade do domínio da metafísica ou da teologia. Podia explicar-se o que :, se
observava tanto segundo a teoria de que o Universo sempre existira ou a de
que tinha sido accionado há um tempo finito mas de tal modo que parecesse
ter existido sempre (9). Mas, em 1929, Edwin Hubble apresentou factos da
observação que iniciaram uma nova era: seja para onde for que se olhe, as
galáxias distantes afastam-se velozmente. Por outras palavras, o Universo está
em expansão, o que significa que nos primeiros tempos os corpos celestes (10)
encontrar-se-iam mais perto uns dos outros.
(9) Tudo depende de admitirmos que o estado inicial do universo era mais ou
menos complexo (*N. do R.*).
(10) As galáxias, ou melhor, os superaglomerados galácticos que constituem
*as partículas* do *fluido cósmico* (*N. do R.*).
De facto, parece ter havido um tempo, há cerca de dez ou vinte mil milhões de
anos, em que os objectos estavam todos exactamente no mesmo lugar (11) e
em que, portanto, a densidade do Universo era infinita. Esta descoberta trouxe
finalmente a questão das origens para o domínio da ciência.
(11) Não deve entender-se *lugar* no espaço, mas sim que ocupavam o
*único lugar* do espaço (*N. do R.*).
As observações de Hubble sugeriam que tinha havido um tempo para uma
grande explosão [um *big bang*] (12), em que o Universo era infinitamente
pequeno e denso. Nessas condições, todas as leis da física e, portanto, toda a
possibilidade de predizer o futuro cairiam por terra. Se houve acontecimentos
antes desse tempo, não podem afectar o que acontece no tempo presente. A
sua existência pode ser ignorada, por não ter consequências observáveis. Pode
dizer-se que o tempo começou com o *big bang*, no sentido em que os
primeiros momentos não podiam ser definidos.
(12)os comentários parentéticos (á..../ú) são da responsabilidade do revisor
(*n. do R.*).
Deve sublinhar-se que este começo no tempo é muito diferente dos que tinham
sido considerados previamente. Num universo imutável, um começo no tempo
é :, uma coisa que tem de ser imposta por algum Ser exterior ao Universo; não
há necessidade física de um começo. Pode imaginar-se que Deus criou o
Universo em qualquer momento do passado. Por outro lado, se o Universo
está em expansão, pode haver razões de natureza física para um começo.
Podia continuar a imaginar-se que Deus criou o Universo no instante do *big
bang*, ou mesmo depois, de tal modo que o *big bang* nos pareça ter
ocorrido, mas não teria qualquer significado supor que tinha sido criado
*antes* do *big bang*. Um universo em expansão não exclui um Criador, mas
impõe limitações ao momento do desempenho da Criação!
Para se falar da natureza do Universo e discutir assuntos tais como o princípio
e o fim, temos de ser claros acerca do que é uma teoria científica. Vou partir
do princípio simplista de que uma teoria não é mais do que um modelo do
Universo, ou de uma parte restrita deste e um conjunto de regras que
relacionam quantidades do modelo com as observações que praticamos. Existe
apenas na nossa mente e não tem qualquer outra realidade, seja o que for que
signifique. Uma teoria é boa quando satisfaz dois requisitos: deve descrever
com precisão um grande número de observações que estão na base do modelo,
que pode conter um pequeno número de elementos arbitrários, e deve elaborar
predições definidas sobre os resultados de observações futuras. Por exemplo, a
teoria de Aristóteles de que todas as coisas eram feitas de quatro elementos --
a terra, o ar, o fogo e a água (l3) -- era suficientemente simples para :, valer
como tal, embora apresentasse um conteúdo preditivo pobre. Por outro lado, a
teoria da gravitação de Newton baseava-se num modelo ainda mais simples,
em que os corpos se atraíam uns aos outros com uma força proporcional às
suas massas e inversamente proporcional ao quadrado da distância entre eles.
No entanto, prediz os movimentos do Sol, da Lua e dos planetas com elevado
grau de precisão.
(13) Os *elementos* nem por isso designam as substâncias do mesmo nome
(*N. do R.*).
Qualquer teoria física é sempre provisória, no sentido de não passar de uma
hipótese: nunca consegue provar-se. Por muitas vezes que os resultados da
experiência estejam de acordo com alguma teoria, nunca pode ter-se a certeza
de que na vez seguinte o resultado não a contrarie. Por outro lado, pode
refutar-se uma teoria descobrindo uma única observação em desacordo com as
predições da teoria. Como o filósofo da ciência Karl Popper realçou, uma boa
teoria caracteriza-se pelo facto de fazer predições que podem, em princípio,
ser contestadas ou falseadas pela observação. Sempre que novas experiências
concordam com as predições, a teoria sobrevive e a nossa confiança nela
aumenta; mas, se uma nova observação surge em desacordo, temos de
abandonar ou modificar a teoria. Pelo menos, é o que se supõe acontecer, mas
pode sempre pôr-se em dúvida a competência da pessoa que efectuou a
observação.
Na prática, o que acontece muitas vezes é surgir uma teoria que mais não é
que uma extensão de outra. Por exemplo, observações muito precisas do
planeta Mercúrio revelaram uma pequena discrepância entre o movimento
observado e o movimento previsto pela teoria da gravitação de Newton. A
teoria da relatividade geral de einstein previa um movimento ligeiramente
diferente do da teoria de Newton. O facto de as predições de Einstein
condizerem com as observações, ao passo que as de Newton não, foi uma das
confirmações cruciais da nova teoria. :, Contudo, ainda se usa a teoria de
Newton para fins práticos, porque as diferenças entre as predições de uma e
outra são muito pequenas nas situações com que normalmente deparamos
(14). (A teoria de Newton também tem a grande vantagem de ser
[matematicamente] muito mais operacional que a de Einstein!)
(14) Se, por um lado, a teoria de Newton é indispensável na prática, por outro,
o seu suporte metafísico foi completamente eliminado (*N. do R.*).
O objectivo final da ciência é fornecer uma única teoria que descreva todo o
Universo. No entanto, o caminho seguido pela maior parte dos cientistas é
separar o problema em duas partes. Primeiro, há as leis que nos dizem como o
Universo evoluciona. (Se conhecermos o estado do Universo num dado
momento, essas leis possibilitam inferir o estado do Universo em qualquer
momento futuro). Segundo, há a questão do estado inicial do Universo. Há
quem pense [e defenda] que a ciência se devia preocupar apenas com a
primeira parte: a questão do estado inicial é remetida para a metafísica ou para
a religião. Pensam que Deus, sendo omnipotente, podia ter criado o Universo
como quisesse. Pode ser que isto seja assim, mas nesse caso também podia têlo
feito desenvolver-se de modo completamente arbitrário. Contudo, parece
que decidiu fazê-lo evoluir de modo muito regular e segundo certas leis.
Parece, portanto, igualmente razoável supor que também há leis que governam
o estado inicial.
Acaba por ser muito difícil arranjar uma teoria que descreva o Universo de
uma vez só. Em vez disso, dividimos o problema em partes e inventamos
teorias parciais. Cada uma destas descreve e prediz certo conjunto limitado de
observações, desprezando o efeito de outras quantidades ou representando-as
por simples conjuntos de números, procedimento que pode estar
completamente errado. Se :, tudo no Universo depende de tudo o mais de uma
maneira fundamental, pode ser impossível aproximarmo-nos de uma solução
completa investigando isoladamente as partes do problema. Contudo, é
certamente este o processo como temos logrado progressos no passado. O
exemplo clássico é mais uma vez a teoria de Newton da gravitação, que nos
diz que a força atractiva entre dois corpos á.a uma certa distância fixa]
depende apenas de um número associado a cada corpo, a sua massa, mas é
independente da matéria de que os corpos são feitos. Deste modo, não é
necessária uma teoria de estrutura e constituição do Sol e dos planetas para
calcular as suas órbitas.
Os cientistas de hoje descrevem o Universo em termos de duas teorias parciais
fundamentais: a teoria da relatividade geral e a mecânica quântica. São estes
os grandes feitos intelectuais da primeira metade do século. A teoria da
relatividade geral descreve a força da gravidade e a estrutura em macro-escala
do Universo, ou seja, a estrutura em escalas que vão de apenas alguns
quilómetros a alguns milhões de milhões de milhões de milhões
(1.000.000.000.000.000.000.000.000) de quilómetros: as dimensões do
Universo observável. A mecânica quântica, por seu lado, tem a ver com
fenómenos que ocorrem em escalas extremamente reduzidas, tais como um
milionésimo de milionésimo de centímetro. Infelizmente, contudo, estas duas
teorias são incompatíveis: não podem estar ambas correctas. Uma das maiores
demandas da física actual, e o assunto principal deste livro, é a nova teoria que
concilie as duas. uma teoria quântica da gravidade. Ainda não a encontrámos e
podemos estar muito longe dela, mas já conhecemos muitas das propriedades
que a devem caracterizar. E veremos, em capítulos posteriores, que já sabemos
muito sobre as predições a que essa teoria nos irá conduzir. :,
Portanto, se acreditarmos que o Universo não é arbitrário, mas sim governado
por leis definidas, ter-se-á finalmente que combinar as teorias parciais numa
teoria unificada completa que descreva todo o Universo. Mas existe um
paradoxo fundamental na busca dessa teoria. As ideias sobre as teorias
científicas que foram aqui delineadas presumem que somos seres racionais
livres para observar o Universo como quisermos e tirar conclusões lógicas
daquilo que observamos. Num esquema como este, é razoável supor que
seremos capazes de progredir cada vez mais em direcção às leis que governam
o Universo. Contudo, se houver realmente uma teoria unificada ela também
determinará presumivelmente as nossas acções (15). E assim, a própria teoria
determinaria o resultado da nossa busca. E por que motivo determinaria que
chegássemos às conclusões certas, a partir da evidência? Não poderia também
determinar que chegássemos à conclusão errada? Ou a nenhuma conclusão?
(15) Esta problemática é evitada demarcando uma separação nítida entre
Universo e universos. Se o homem fosse encontrado como solução
matemática num universo seria inevitável o dilema, da regressão: a solução
apontaria o cientista que constrói o modelo que explica o cientista que constrói
o modelo... (*N. do R.*).
A única resposta que posso dar tem por base o princípio da selecção natural de
Darwin. A ideia é que em qualquer população de organismos autoreprodutores
haverá variações no material genético e na criação de diferentes
indivíduos. Estas variações significam que alguns indivíduos são mais capazes
do que outros para tirar as conclusões certas sobre o mundo que os rodeia e
para agir de acordo com elas. Estes indivíduos terão mais hipóteses de
sobreviver e de se reproduzir; deste modo, o seu padrão de comportamento e
pensamento virá a ser dominante. Tem-se verificado no passado que aquilo a
que chamamos :, inteligência e descobertas científicas tem acarretado
vantagens de sobrevivência. Já não é tão claro que isto se mantenha: as nossas
descobertas científicas podem perfeitamente acabar por nos destruir a todos e,
mesmo que o não façam, uma teoria unificada pode não fazer grande diferença
quanto às nossas hipóteses de sobrevivência. Contudo, desde que o Universo
tenha evoluído de modo regular, pode esperar-se que a capacidade de
raciocínio que nos foi dada pela selecção natural seja válida também na nossa
busca de uma teoria unificada, não nos conduzindo a conclusões erradas.
Como as teorias parciais que já temos são suficientes para fazer predições
exactas em todas as situações, excepto nas mais extremas, a busca da teoria
definitiva do Universo parece de difícil justificação em termos práticos. (De
nada vale, no entanto, que argumentos semelhantes possam ter sido utilizados
quer contra a relatividade quer contra a mecânica quântica, e estas teorias
deram-nos a energia nuclear e a revolução da micro-electrónica!) A descoberta
de uma teoria unificada, portanto, pode não ajudar à sobrevivência das nossas
espécies. Pode mesmo nem afectar a nossa maneira de viver. Mas desde a
alvorada da civilização, as pessoas não se contentam com ver os
acontecimentos desligados e sem explicação. Têm ansiado por um
entendimento da ordem subjacente no mundo. Ainda hoje sentimos a mesma
ânsia de saber por que estamos aqui e de onde viemos. O mais profundo
desejo de conhecimentos da humanidade é justificação suficiente para a nossa
procura contínua. E o nosso objectivo é, nada mais nada menos, do: que uma
descrição completa do Universo em que vivemos.
II. Espaço e Tempo
As nossas ideias actuais sobre o movimento dos corpos vêm dos tempos de
Galileu e de Newton. Antes deles, as pessoas acreditavam em Aristóteles, que
afirmou que o estado natural de um corpo era estar em repouso e só se mover
quando sobre ele actuasse uma força ou impulso. Assim, um corpo pesado
cairia mais depressa que um leve porque sofreria um impulso maior em
direcção à terra.
A tradição aristotélica também afirmava que era possível descobrir todas as
leis que governam o Universo por puro pensamento, sem necessidade de
confirmação observacional. Deste modo, ninguém até Galileu se preocupou
em ver se corpos de pesos diferentes caíam de facto com velocidades
diferentes. Diz-se que Galileu demonstrou que a crença de Aristóteles era falsa
deixando cair pesos da Torre Inclinada de Pisa. A história é, quase de certeza,
falsa, mas Galileu fez uma coisa equivalente: fez rolar bolas de pesos
diferentes pelo suave declive de um plano inclinado. A situação é semelhante
à de corpos pesados que caem verticalmente, mas mais fácil de observar,
porque se movimentam com velocidades diferentes. As medições de Galileu
indicavam que a velocidade de cada corpo aumentava na mesma proporção,
qualquer que fosse o seu peso. Por exemplo, se deixarmos rolar uma bola por
uma :, encosta que desce um metro por cada dez metros de caminho andado,
veremos que a bola desce a uma velocidade de cerca de um metro por segundo
após um segundo, dois metros por segundo após dois segundos, e por aí fora,
por mais pesada que seja. É evidente que um peso de chumbo cairá mais
depressa que uma pena, mas tal sucede apenas porque a pena é retardada pela
resistência do ar. Se deixarmos cair dois corpos que sofram pequena
resistência por parte do ar, por exemplo dois pesos de chumbo diferentes, a
velocidade da queda é a mesma.
As medições de Galileu foram utilizadas por Newton como base para as suas
leis do movimento. Nas experiências de Galileu, quando um corpo rolava por
um plano inclinado exercia-se sobre ele sempre a mesma força (o seu peso), e
o seu efeito era fazer aumentar constantemente a velocidade. Isto mostrou que
o verdadeiro efeito da força é modificar sempre a velocidade de um corpo, e
não só imprimir-lhe o movimento, como se pensara antes. Também
significava que, quando um corpo não sofre o efeito de qualquer força, se
manterá em movimento rectilíneo com velocidade constante. Esta ideia foi
explicitada pela primeira vez na obra de Newton *Principia Mathematica*,
publicada em 1687, e é conhecida por primeira lei de Newton. O que acontece
a um corpo quando uma força actua sobre ele é explicado pela segunda lei de
Newton, que afirma que o corpo acelerará, ou modificará a sua velocidade
proporcionalmente à força. (Por exemplo, a aceleração será duas vezes maior
se a força for duas vezes maior). A aceleração também é menor quanto maior
for a massa (ou quantidade de matéria) do corpo. (A mesma força actuando
sobre um corpo com o dobro da massa produzirá metade da aceleração). O
automóvel é um exemplo familiar: quanto mais potente for o motor, maior
será a aceleração, mas, quanto mais pesado for o carro, menor será a
aceleração para o mesmo motor. :,
Para além das leis do movimento, Newton descobriu uma lei para descrever a
força da gravidade, que afirma que um corpo atrai outro corpo com uma força
proporcional à massa de cada um deles. Assim, a força entre dois corpos será
duas vezes mais intensa se um dos corpos (por exemplo, o corpo A) tiver o
dobro da massa. É o que se poderia esperar, porque se pode pensar no novo
corpo A como sendo constituído por dois corpos com a massa original. Cada
um atrairia o corpo B com a sua força original. Assim, a força total entre A e
B seria duas vezes a força original. E se, por exemplo, um dos corpos tiver
duas vezes a massa e o outro três vezes, então a força será seis vezes mais
intensa. Vê-se assim por que razão todos os corpos caem com a mesma
velocidade relativa; um corpo com o dobro do peso terá duas vezes a força da
gravidade a puxá-lo para baixo, mas terá também duas vezes a massa original.
De acordo com a segunda lei de Newton, estes dois efeitos anulam-se
exactamente um ao outro, de modo que a aceleração será a mesma em todos
os casos.
A lei da gravitação de Newton também nos diz que, quanto mais separados
estiverem os corpos, mais pequena será a força. E também nos diz que a
atracção gravitacional de uma estrela é exactamente um quarto da de uma
estrela semelhante a metade da distância. Esta lei prediz as órbitas da Terra, da
Lua e dos outros planetas com grande precisão. Se a lei dissesse que a
atracção gravitacional de uma estrela diminuía mais depressa com a distância,
as órbitas dos planetas não seriam elípticas: mover-se-iam em espiral até
colidirem com o Sol. Se diminuísse mais devagar, as forças gravitacionais das
estrelas distantes dominariam a da Terra.
A grande diferença entre as ideias de Aristóteles e as de Galileu e Newton é
que Aristóteles acreditava num estado preferido de repouso, que qualquer
corpo tomaria se não fosse actuado por qualquer força ou impulso. Pensava
particularmente :, que a Terra estava em repouso. Mas, das leis de Newton,
decorre que não existe um padrão único de repouso. Poder-se-ia igualmente
dizer que o corpo A está em repouso e o corpo B em movimento com
velocidade constante em relação ao corpo A, ou que o corpo B está em
repouso e o corpo A em movimento. Por exemplo, se pusermos de lado, por
instantes, a rotação da Terra e a sua órbita em torno do Sol, podemos dizer que
a Terra está em repouso e que um comboio se desloca para norte a cento e
vinte quilómetros por hora. Ou que o comboio está em repouso e que a Terra
se move para sul a cento e vinte quilómetros por hora. Se efectuássemos
experiências com corpos em movimento no comboio, todas as leis de Newton
continuariam válidas. Por exemplo, jogando ténis de mesa no comboio,
verificar-se-ia que a bola obedecia às leis de Newton, tal como a bola numa
mesa colocada junto à linha. Portanto, não existe maneira de dizer se é o
comboio ou a Terra que está em movimento (1).
(1) Quer dizer: não há processo mecânico de fazer distinguir entre estado de
repouso e estado de movimento uniforme e rectilíneo. Esta afirmação constitui
o enunciado do princípio da relatividade galilaica (*N. do R.*).
A falta de um padrão absoluto de repouso significava que não era possível
determinar se dois acontecimentos que ocorriam em momentos diferentes
ocorriam na mesma posição no espaço. Por exemplo, suponhamos que a bola
de ténis de mesa no comboio saltita verticalmente, para cima e para baixo,
atingindo a mesa duas vezes no mesmo sítio com um segundo de intervalo.
Para alguém na linha, os dois saltos pareceriam ocorrer a cerca de cem metros
um do outro, porque o comboio teria percorrido essa distância entre os dois
saltos. A não existência de repouso absoluto significava portanto que não se
podia dar uma posição absoluta no espaço a um acontecimento, como :,
Aristóteles acreditou. As posições dos acontecimentos e as distâncias entre
eles seriam diferentes para uma pessoa no comboio e outra na linha, e não
haveria motivo para dar preferência a qualquer delas.
Newton preocupou-se muito com esta falta de posição absoluta ou espaço
absoluto, como se chamava, por não estar de acordo com a sua ideia de um
Deus absoluto. De facto, recusou-se a aceitar [que] o espaço [não fosse (2)]
absoluto, embora as suas leis o sugerissem. Muitas pessoas criticaram
severamente a sua crença irracional, particularmente o bispo Berkeley,
filósofo que acreditava que todos os objectos materiais e o espaço e o tempo
não passavam de uma ilusão. Quando o famoso Dr. Johnson ouviu a opinião
de Berkeley, gritou: "Refuto-a assim!" e deu um pontapé numa pedra.
(2) Trata-se, é quase certo, de um lapso da edição original (*n. do R.*).
Tanto Aristóteles como Newton acreditavam no tempo absoluto. Ou seja,
acreditavam que se podia medir sem ambiguidade o intervalo de tempo entre
dois acontecimentos, e que esse tempo seria o mesmo para quem quer que o
medisse, desde que utilizasse um bom relógio. O tempo era completamente
separado e independente do espaço. Isto é o que a maior parte das pessoas
acharia ser uma opinião de senso comum. Contudo, fomos obrigados a mudar
de ideias quanto ao espaço e ao tempo. Embora estas noções de aparente senso
comum funcionem perfeitamente quando lidamos com coisas como maçãs ou
planetas, que se movem relativamente devagar, já não funcionam à velocidade
da luz ou perto dela. O facto de a luz se deslocar com uma velocidade finita,
mas muito elevada, foi descoberto em 1676 pelo astrónomo dinamarquês Ole
Christensen Roemer. Este observou que os períodos em que as luas de Júpiter
pareciam passar por trás do planeta não tinham intervalos regulares, como se
esperaria se elas girassem :, à volta do planeta com uma velocidade constante.
Como a Terra e Júpiter orbitam em volta do Sol, a distância entre eles varia.
Roemer reparou que os eclipses das luas de Júpiter ocorriam tanto mais tarde
quanto mais longe se estivesse do planeta. Argumentou que isto acontecia
porque a luz das luas levava mais tempo a chegar até nós quando estávamos
mais longe. As suas medições das variações da distância da Terra a Júpiter não
eram, contudo, muito precisas e, assim, o valor da velocidade da luz era de
duzentos e vinte e cinco mil quilómetros por segundo, em comparação com o
valor actual de trezentos mil quilómetros por segundo. No entanto, a proeza de
Roemer, não só ao provar que a luz se propaga a uma velocidade finita mas
também ao medi-la, foi notável: conseguida onze anos antes da publicação dos
*Principia Mathematica* de Newton.
Uma teoria correcta da propagação da luz só surgiu em 1865, quando o físico
britânico James Clerk Maxwell conseguiu unificar as teorias parciais
utilizadas até então para descrever as forças da electricidade e do magnetismo.
As equações de Maxwell prediziam que podia haver perturbações de tipo
ondulatório no campo electromagnético e que elas se propagariam com uma
velocidade determinada, como pequenas ondulações num tanque. Se o
comprimento de onda destas ondas (a distância entre uma crista de onda e a
seguinte) for de um metro ou mais trata-se do que hoje chamamos ondas de
rádio. De comprimentos de onda mais curtos são as chamadas micro-ondas
(alguns centímetros) ou ondas infravermelhas (um pouco mais de dez
milésimos de centímetro). A luz visível tem um comprimento de onda
compreendido apenas entre quarenta e oitenta milionésimos de centímetro.
São conhecidos comprimentos de onda mais curtos como ondas ultravioletas,
raios X e raios gama.
A teoria de Maxwell predizia que as ondas de rádio ou de luz deviam
propagar-se a uma velocidade determinada. :, Mas a teoria de Newton tinha
acabado com a ideia do repouso absoluto, de maneira que, supondo que a luz
se devia propagar a uma velocidade finita, era preciso dizer em relação a quê
essa velocidade teria de ser medida. Foi ainda sugerido que havia uma
substancia chamada "éter", presente em todo o lado, mesmo no espaço
"vazio". As ondas de luz propagar-se-iam através do éter como as ondas
sonoras se propagam através do ar, e a sua velocidade seria assim relativa ao
éter. Observadores diferentes que se movessem em relação ao éter veriam a
luz propagar-se na sua direcção com velocidades diferentes, mas a velocidade
da luz em relação ao éter manter-se-ia fixa. Em particular, como a Terra se
movia no seio do éter, na sua órbita em torno do Sol, a velocidade da luz
medida na direcção do movimento da Terra através do éter (quando nos
movemos em direcção à fonte de luz) devia ser mais elevada que a velocidade
da luz na direcção perpendicular a esse movimento (quando não nos dirigimos
para a fonte). Em 1887, Albert Michelson (que mais tarde veio a ser o
primeiro americano galardoado com o prémio Nobel da Física) e Edward
Morley realizaram uma experiência cuidadosa na Case School de Ciências
Aplicadas, em Cleveland.: Compararam a velocidade da luz na direcção do
movimento da Terra com a velocidade medida na direcção perpendicular a
esse movimento. Para sua grande surpresa, descobriram que os seus valores
eram exactamente os mesmos!
Entre 1887 e 1905, houve várias tentativas, sobretudo as do físico holandês
Hendrick Lorentz, para explicar o resultado 'da experiência de Michelson e
Morley, em termos de contracção de objectos e de atrasos nos relógios,
quando se moviam no éter. Contudo, num famoso trabalho de 1905, um
funcionário até então desconhecido do Gabinete de Patentes suíço, Albert
Einstein, mostrou que a ideia do éter era desnecessária desde que se
abandonasse :, a ideia do tempo absoluto. Umas semanas mais tarde, um
importante matemático francês, Henri Poincaré, demonstrou a mesma coisa.
Os argumentos de Einstein estavam mais próximos da física que os de
Poincaré, que encarava o problema sob o ponto de vista matemático.
Geralmente, o crédito da nova teoria cabe a Einstein, mas o nome de Poincaré
é lembrado por estar ligado a uma importante parte dela.
o postulado fundamental da teoria da relatividade, como foi chamada, foi que
as leis da física (3) deviam ser as mesmas para todos os observadores que se
movessem livremente, qualquer que fosse a sua velocidade. Isto era
verdadeiro para as leis do movimento de Newton, mas agora a ideia alargavase
para incluir a teoria de Maxwell e a velocidade da luz: todos os
observadores deviam medir a mesma velocidade da luz, independentemente da
velocidade do seu movimento.
(3) As leis da física e não somente as leis da mecânica (cf. princípio da
relatividade galilaico). O *fundamental* conteúdo deste postulado passa
muitas vezes despercebido ao leitor, que se deixa mais facilmente
impressionar pelo postulado da constância da velocidade da luz: este é, de
certa forma, *implicado* por aquele! (*N. do R.*).
Esta ideia simples teve algumas consequências notáveis. Talvez as mais
conhecidas sejam a equivalência da massa e da energia, resumida na famosa
equação de Einstein *E = mcâ2* (em que *E* representa a energia, *m* a
massa e *c* a velocidade da luz), e a lei de que nada (4) se pode deslocar mais
depressa que a luz. Devido à equivalência entre massa e energia, a energia de
um objecto devida ao seu movimento adicionar-se-á à sua massa. Por outras
palavras, será mais difícil aumentar a sua velocidade. Este efeito só é
realmente significativo para objectos que se movam a velocidades próximas
da da luz. Por exemplo, a 10% da velocidade da luz, a massa de um :, objecto
é apenas meio por cento superior à normal, ao passo que a 90% da velocidade
da luz excederia o dobro da sua massa normal. Quando um objecto se
aproxima da velocidade da luz, a sua massa aumenta ainda mais depressa, pelo
que é precisa cada vez mais energia para lhe aumentar a velocidade.
(4) Este *nada* refere-se a algo material. É claro que se podem conceber
velocidades meramente geométricas (v. g. expansão do espaço) tão grandes
quanto se queira (*N. do R.*).
De facto, nunca pode atingir a velocidade da luz porque, nessa altura, a sua
massa ter-se-ia tornado infinita e, pela equivalência entre massa e energia,
seria precisa uma quantidade infinita de energia para incrementar
indefinidamente a massa. Por este motivo, qualquer objecto normal está para
sempre confinado pela relatividade a mover-se com velocidades inferiores à
da luz. Só esta ou as outras ondas que não possuam massa intrínseca se podem
mover à velocidade da luz.
Uma consequência igualmente notável da relatividade é a maneira como
revolucionou as nossas concepções de espaço e tempo. Na teoria de Newton,
se um impulso de luz for enviado de um local para outro, diferentes
observadores estarão de acordo quanto ao tempo que essa viagem demorou
(uma vez que o tempo é absoluto), mas não quanto à distância que a luz
percorreu (uma vez que o espaço não é absoluto). Como a velocidade da luz é
exactamente o quociente da distância percorrida pelo tempo gasto, diferentes
observadores mediriam diferentes velocidades para a luz. Em relatividade, por
outro lado, todos os observadores *têm* de concordar quanto à velocidade de
propagação da luz. Continuam ainda, no entanto, a não concordar quanto à
distância que a luz percorreu, pelo que têm também de discordar quanto ao
tempo que demorou. O tempo gasto é apenas a distância -- com que os
observadores não concordam -- dividida pela velocidade da luz -- valor
comum aos observadores (5). Por outras palavras, :, a teoria da relatividade
acabou com a ideia do tempo absoluto! Parecia que cada observador obtinha a
sua própria medida do tempo, registada pelo relógio que utilizava, e que
relógios idênticos utilizados por observadores diferentes nem sempre
coincidiam.
(5) No original o tempo vem mal calculado. Limitamo-nos a apresentar a
versão correcta (*N. do R.*).
Cada observador podia usar o radar para dizer onde e quando um
acontecimento ocorria, enviando um impulso de luz ou de ondas de rádio.
Parte do impulso é reflectido no momento do acontecimento e o observador
mede o tempo decorrido quando recebe o eco. Diz-se então que o tempo do
acontecimento é o que está a meio entre o envio :,do impulso e a recepção do
eco; a distância do acontecimento é metade do tempo da viagem de ida e volta
multiplicado pela velocidade da luz. (Um acontecimento, neste sentido, é
qualquer coisa que ocorre num único ponto do espaço e num momento
específico do tempo). Esta ideia está exemplificada na Fig. 2.1 que representa
um diagrama espácio-temporal.
Recepção do impulso de radar
tempo
tempo gasto na ida e volta
metade do tempo de ida e volta
lua
acontecimento em que o impulso do radar é reflectido
emissão do impulso do radar
Distância ao observador
Fig. 2.1. O tempo é medido no eixo vertical e a distância ao observador é
medida no eixo horizontal. O percurso do observador através do espaço e do
tempo é representado pela linha vertical à esquerda. As trajectórias dos raios
luminosos em direcção ao acontecimento e provenientes dele são as linhas
diagonais.
Utilizando este procedimento, os observadores que se movem em relação uns
aos outros podem atribuir ao mesmo acontecimento tempos e posições
diferentes. Nenhumas medições de um observador em particular são mais
correctas do que as de outro, mas estão todas relacionadas. Qualquer
observador pode calcular com precisão o tempo e a posição que outro
observador atribuirá a um acontecimento, desde que conheça a velocidade
relativa desse outro observador.
Hoje em dia, utilizamos este método para medir com rigor distâncias, porque
podemos medir o tempo com maior precisão do que as distâncias. Com efeito,
o metro é definido como a distância percorrida pela luz em
0,000000003335640952 segundos medidos por um relógio de césio. (A razão
para este número em particular é o facto de corresponder à definição histórica
do metro -- em termos de duas marcas numa barra de platina guardada em
Paris). Do mesmo modo, pode usar-se uma nova e mais conveniente unidade
de comprimento chamada segundo-luz. Este é simplesmente definido como a
distância percorrida pela luz num segundo. Na teoria da relatividade, define-se
agora a distância em termos de tempo e de velocidade da luz, pelo que se
segue automaticamente que cada observador medirá a luz com a mesma
velocidade (por definição, um metro por 0,000000003335640952 segundos).
Não há necessidade de introduzir a ideia de um éter, cuja presença aliás não
pode ser detectada, como mostrou a experiência de Michelson e Morley. A
teoria da relatividade :, obriga-nos, contudo, a modificar fundamentalmente as
nossas concepções de espaço e tempo. Temos de aceitar que o tempo não está
completamente separado nem é independente do espaço, mas sim combinado
com ele, para formar um objecto chamado espaço-tempo.
É um dado da experiência comum podermos descrever a posição de um ponto
no espaço por três números ou coordenadas. Por exemplo, pode dizer-se que
um ponto; numa sala está a dois metros de uma parede, a noventa centímetros
de outra e a um metro e meio acima do chão. Ou podemos especificar que um
ponto está a determinada latitude e longitude e a determinada altitude acima
do nível do mar. É-se livre de utilizar quaisquer coordenadas, embora a sua
validade seja limitada. Não é possível especificar a posição da Lua em termos
de quilómetros a norte e quilómetros a oeste de Piccadilly Circus e metros
acima do nível do mar. Em vez disso, podemos descrevê-la em termos de
distância ao Sol, distância ao plano das órbitas dos planetas e do angulo entre
a linha que une a Lua ao Sol e a linha que une o Sol a uma estrela próxima
como a Alfa Centauro. Mesmo estas coordenadas não teriam grande utilidade
para descrever a posição do Sol na nossa galáxia ou a posição da nossa galáxia
no grupo local de galáxias. De facto, é possível descrever o Universo em
termos de um conjunto de pedaços sobrepostos. Em cada um destes pedaços
pode ser utilizado um conjunto diferente de três coordenadas para especificar
a posição de um ponto.
Um acontecimento é qualquer coisa que ocorre num determinado ponto no
espaço e num determinado momento. Pode, portanto, ser especificado por
quatro números ou coordenadas. Mais uma vez, a escolha das coordenadas é
arbitrária; podem ser; usadas quaisquer três coordenadas espaciais bem
definidas e qualquer medida de tempo. Em relatividade, não há verdadeira
distinção :, entre as coordenadas de espaço e de tempo, tal como não existe
diferença real entre quaisquer duas coordenadas espaciais. Pode escolher-se
um novo conjunto de coordenadas em que, digamos, a primeira coordenada de
espaço seja uma combinação das antigas primeira e segunda coordenadas de
espaço. Por exemplo, em vez de medirmos a posição de um ponto na Terra em
quilómetros a norte de Piccadilly e quilómetros a oeste de Piccadilly, podemos
usar quilómetros a nordeste de Piccadilly e a noroeste de Piccadilly. Do
mesmo modo, em relatividade, podemos utilizar uma nova coordenada de
tempo que é o tempo antigo em segundos mais a distância (em segundos-luz)
a norte de Piccadilly.
Muitas vezes é útil pensar nas quatro coordenadas de um acontecimento para
especificar a sua posição num espaço quadridimensional chamado espaçotempo.
É impossível imaginar um espaço quadridimensional. Eu próprio já
acho suficientemente difícil visualizar um espaço tridimensional! Contudo, é
fácil desenhar diagramas de espaços bidimensionais como a superfície da
Terra. (A superfície da Terra é bidimensional porque a posição de um ponto
pode ser especificada por duas coordenadas: a latitude e a longitude). Usarei
geralmente diagramas em que o tempo aumenta no sentido ascendente vertical
e uma das dimensões espaciais é indicada horizontalmente. As outras duas
dimensões espaciais ou são ignoradas ou, por vezes, uma delas é indicada em
perspectiva. (São os diagramas de espaço-tempo como a Fig. 2.1). Por
exemplo, na Fig. 2:2, o tempo é medido no sentido vertical ascendente em
anos e a distância do Sol a Alfa Centauro é medida horizontalmente em
quilómetros. As trajectórias do Sol e de Alfa Centauro através do espaçotempo
são representadas pelas linhas verticais à esquerda e à direita do
diagrama. Um raio de luz do Sol segue a linha diagonal e leva quatro anos a
chegar a Alfa Centauro. :,
tempo (em anos)
sol
alfa centauro
raio luminoso
distância ao sol (em biliões de quilómetros)
Fig. 2.2
Como vimos, as equações de Maxwell prediziam que a velocidade da luz
devia ser a mesma, qualquer que fosse a velocidade da sua fonte, o que foi
confirmado por medições rigorosas. Daí que, se um impulso de luz é emitido
em determinado momento e em dado ponto do espaço, à medida que o tempo
passa, espalhar-se-á como uma esfera de luz cujos tamanho e posição são
independentes da velocidade da fonte. Um milionésimo de segundo depois, a
luz ter-se-á difundido para formar uma esfera com raio de trezentos metros;
dois milionésimos de segundo depois, o raio será de seiscentos metros, etc.
Será como a ondulação que se propaga na superfície de um tanque, quando se
lhe atira uma pedra. A ondulação propaga-se nun1 círculo que aumenta à
medida que o tempo passa. Se pensarmos num :, modelo tridimensional que
consista na superfície bidimensional do tanque e numa coordenada de tempo,
o círculo de ondulação que se expande representará um cone, cujo topo está no
local e no instante em que a pedra atingiu a água (Fig. 2.3). Da mesma
maneira, a luz que se propaga a partir de um acontecimento forma um cone
tridimensional no espaço-tempo quadridimensional. Este cone chama-se cone
de luz do futuro do acontecimento. Podemos, do mesmo modo, desenhar outro
cone chamado cone de luz do passado que constitui o conjunto de
acontecimentos a partir dos quais um impulso de luz pode alcançar o
acontecimento dado.
Os cones de luz do passado e do futuro de um acontecimento *P* dividem o
espaço-tempo em três regiões (Fig. 2.5). o futuro absoluto do acontecimento é
a região dentro do cone de luz do futuro de *P*. É o conjunto de todos os
acontecimentos susceptíveis de serem afectados por aquilo que acontece em
*P*. Os acontecimentos fora do cone da luz de *P* não podem ser alcançados
por sinais provenientes de *P*, porque nada pode deslocar-se com velocidade
superior à da luz. Não podem, assim, ser influenciados por o que acontece em
*P*. O passado absoluto de *P* é a região inscrita no cone de luz do passado.
É o conjunto de todos os acontecimentos a partir dos quais sinais que se
propagam a uma velocidade igual ou inferior à da luz podem alcançar *P*. É,
pois, o conjunto de todos os acontecimentos susceptíveis de afectarem o que
acontece em *P*. Se soubermos o que está a passar-se em determinado
momento em toda a região do espaço inscrita no cone de luz do passado de
*P*, podemos predizer o que acontecerá em *P*. O presente condicional é a
região do espaço-tempo que não fica nos cones de luz do futuro ou do passado
de *P*. Os acontecimentos ocorrentes nessa região não podem afectar nem
serem afectados pelos acontecimentos em *P*. Por exemplo, se o Sol deixasse
de brilhar neste :, mesmo momento, não afectaria os acontecimentos actuais
na Terra porque eles situariam na região do presente condicional do
acontecimento quando o Sol deixasse de brilhar (Fig. 2.6). Só saberíamos o
que se tinha passado daí a oito minutos, o tempo que a luz do Sol leva a
alcançar-nos. Só nessa altura é que os acontecimentos na Terra ficariam no
cone de luz do futuro do evento da morte do Sol. Do mesmo modo, não
sabemos o que está a passar-se neste momento mais longe no Universo: a luz
que nos chega provinda de galáxias distantes deixou-as há milhões de anos; a
luz do objecto mais longínquo que conseguimos avistar deixou-o há já cerca
de oito mil milhões de anos. Assim, quando observamos o Universo vemo-lo
como ele era no passado.
espaço -- tempo
a pedra toca a superfície da água
um segundo depois
dois segundos depois
três segundos depois
ondas em expansão
fig. 2.3
tempo
cone de luz do futuro
cone de luz do passado,
acontecimento
(presente)
espaço
fig. 2.4 :,
espaço e tempo
futuro absoluto
presente condicional
passado absoluto
fig. 2.5
tempo (minutos)
sol
evento de morte do sol
cone de luz do futuro do acontecimento
terra
a morte do sol não nos afecta imediatamente porque não estamos no seu cone
de luz do futuro
a terra penetra no cone de luz do futuro da morte do sol cerca de oito minutos
depois
fig. 2.6 :,
Se desprezarmos os efeitos da gravitação, como Einstein e Poincaré fizeram
em 1905, obtém-se aquilo a que se chama a teoria da relatividade restrita. Para
cada acontecimento no espaço-tempo podemos construir um cone de luz
(conjunto de todas as trajectórias possíveis da luz, no espaço-tempo, emitida
nesse acontecimento) e, uma vez que a velocidade da luz é a mesma para
todos os acontecimentos e em todas as direcções, todos os cones de luz serão
idênticos e orientados na mesma direcção. A teoria também nos diz que nada
pode mover-se com velocidade superior à da luz (6). Isto significa que a
trajectória de qualquer objecto através do espaço e do tempo tem de ser
representada por uma linha que fique dentro do cone de luz por cada
acontecimento no seu interior (Fig. 2.7).
(6) O que está verdadeiramente em causa é a *velocidade* da luz, não a luz.
*Acidentalmente*, a luz propaga-se à velocidade da luz, que tanto quanto se
sabe também podia chamar-se a velocidade dos neutrinos! (*N. do R.*).
tempo
espaço
não permitida
permitida à luz
utilizável por corpos com massa
fig. 2.7
A teoria da relatividade restrita obteve grande êxito na explicação de que a
velocidade da luz parece a mesma para :, todos os observadores (como a
experiência de Michelson e Morley demonstrou) e na descrição do que
acontece quando os objectos se movem a velocidades próximas da velocidade
da luz. Contudo, era inconsistente com a teoria da gravitação de Newton, que
afirmava que os objectos se atraíam uns aos outros com uma força que
dependia da distância que os separava. Isto significava que, se se deslocasse
um dos objectos, a força exercida sobre o outro mudaria instantaneamente. Por
outras palavras, os efeitos gravitacionais deslocar-se-iam com velocidade
infinita, e não à velocidade da luz ou abaixo dela como a teoria da relatividade
restrita exigia. Einstein várias vezes tentou, sem êxito, entre 1904 e 1914,
descobrir uma teoria da gravidade que fosse consistente com a relatividade
restrita. :, Finalmente, em 1915, propôs o que agora se chama a teoria da
relatividade geral.
Einstein apresentou a sugestão revolucionária de que a gravidade não é uma
força idêntica às outras, mas sim uma consequência do facto de o espaçotempo
não ser plano, como se pensara: é curvo ou "deformado" pela
distribuição de massa e de energia. Corpos como a Terra não são feitos para se
moverem em órbitas curvas por acção de uma força chamada gravidade; em
vez disso, seguem o que mais se parece com uma trajectória rectilínea num
espaço curvo, chamada geodésica. Uma geodésica é o caminho mais curto (ou
mais longo) entre dois pontos próximos. Por exemplo, a superfície da Terra é
um espaço curvo bidimensional. Uma geodésica na Terra chama-se círculo
máximo, e é o caminho mais curto entre dois pontos (Fig. 2.8). Como a
geodésica é o caminho mais curto entre quaisquer dois aeroportos, é essa a
rota que um navegador aeronáutico indicará ao piloto. Na relatividade geral,
os corpos seguem sempre linhas rectas no espaço-tempo quadridimensional,
mas, aos nossos olhos, continuam a parecer moverem-se ao longo de
trajectórias curvas no espaço tridimensional. (Um bom exemplo é a
observação de um voo de avião sobre colinas. Embora siga uma linha recta no
espaço tridimensional, a sua sombra segue uma trajectória curva no espaço
bidimensional).
Círculo máximo
Fig. 2.8
A massa do Sol encurva o espaço-tempo de tal modo que, embora a Terra siga
uma trajectória rectilínea no espaço-tempo quadridimensional, a nós parecenos
mover-se ao longo de uma órbita circular no espaço tridimensional. De
facto, as órbitas dos planetas preditas pela relatividade geral são quase
exactamente as mesmas que as preditas pela teoria da gravitação de Newton.
Contudo, no caso de Mercúrio, que, sendo o planeta mais próximo do Sol,
sofre efeitos gravitacionais mais fortes e tem uma órbita bastante alongada, a
relatividade geral prediz que :, o eixo maior da elipse devia girar em volta do
Sol à razão de cerca de um grau em dez mil anos. Embora este efeito seja
pequeno, foi anunciado antes de 1915 e foi uma das primeiras confirmações
da teoria de Einstein. Em anos recentes, os desvios ainda mais pequenos das
órbitas dos outros planetas relativamente às predições de Newton têm sido
medidos por radar, concordando com as predições da relatividade geral.
Também os raios luminosos têm de seguir geodésicas no espaço-tempo. Mais
uma vez, o facto de o espaço ser curvo significa que a luz já não parece
propagar-se no espaço em linhas rectas. Portanto, a relatividade geral prediz
que a luz devia ser encurvada por campos gravitacionais. Por exemplo, a
teoria prediz que os cones de luz de pontos perto do Sol serão ligeiramente
encurvados para o interior devido à massa do Sol. Isto significa que a luz :, de
uma estrela distante que passou perto do Sol deverá ser deflectida de um
pequeno angulo, fazendo com que a estrela pareça estar numa posição
diferente para um observador na Terra. É evidente que, se a luz da estrela
passasse sempre perto do Sol, não poderíamos dizer se a luz estava a ser
deflectida ou se, em vez disso, a estrela estava realmente onde a víamos. No
entanto, como a Terra orbita em volta do Sol, estrelas diferentes parecem
passar por trás deste, tendo consequentemente a sua luz deflectida. Mudam,
portanto, as suas posições aparentes em relação às outras estrelas.
Terra
sol
Estrela
Luz proveniente da estrela
Posição aparente da estrela
Fig. 2.9
Normalmente, é muito difícil observar este efeito, porque a luz do Sol torna
impossível a observação de estrelas que aparecem perto do Sol. Contudo, é
possível fazê-lo durante um eclipse do Sol, quando a sua luz é bloqueada :,
pela Lua. A predição de Einstein da deflexão da luz não pôde ser testada
imediatamente em 1915, porque se estava em plena Primeira Guerra Mundial;
foi só em 1919 que uma expedição britânica, ao observar um eclipse na África
Ocidental, mostrou que a luz era realmente deflectida pelo Sol, tal como havia
sido predito pela teoria: Esta comprovação de uma teoria alemã por cientistas
britânicos foi louvada como um grande acto de reconciliação entre os dois
países depois da guerra. É, portanto, irónico que o exame posterior das
fotografias tiradas durante essa expedição mostrasse os erros, que eram tão
grandes como o efeito que tentavam medir. As medidas tinham sido obtidas
por mera sorte ou resultavam do conhecimento prévio do que pretendiam
obter, o que não é tão invulgar como isso em ciência. A deflexão da luz tem,
contudo, sido confirmada com precisão por numerosas observações
posteriores.
Outra predição da relatividade geral é que o tempo devia parecer decorrer
mais lentamente perto de um corpo maciço como a Terra. E isto porque há
uma relação entre a energia da luz e a sua frequência (ou seja, o número de
ondas luminosas por segundo): quanto maior for a energia, mais alta será a
frequência. Quando a luz se propaga no sentido ascendente no campo
gravitacional da Terra, perde energia e a sua frequência baixa. (Tal significa
que o tempo decorrido entre uma crista de onda e a seguinte aumenta). A um
observador situado num ponto muito alto parecerá que tudo o que fica por
baixo leva mais tempo a acontecer. Esta predição foi testada em 1962, com
dois relógios muito precisos, instalados no topo e na base de uma torre de
água. Verificou-se que o relógio colocado na parte de baixo, que estava mais
perto da Terra, andava mais lentamente, em acordo absoluto com a
relatividade geral. A diferença de velocidade dos relógios a alturas diferentes
acima do globo é agora de considerável importância prática, com o advento de
sistemas de navegação muito :, precisos, baseados em sinais emitidos por
satélites. Se se ignorassem as predições da relatividade geral, a posição
calculada teria um erro de vários quilómetros!
As leis do movimento de Newton acabaram com a ideia da posição absoluta
no espaço. A teoria da relatividade acaba de vez com o tempo absoluto.
Consideremos dois gémeos: suponha que um deles vai viver para o cimo de
uma montanha e que o outro fica ao nível do mar. O primeiro gémeo
envelheceria mais depressa que o segundo. Assim, se voltassem a encontrar-se
um seria mais velho que o outro. Neste caso, a diferença de idades seria muito
pequena, mas podia ser muito maior se um dos gémeos fosse fazer uma longa
viagem numa nave espacial a uma velocidade aproximada à da luz. Quando
voltasse, seria muito mais novo do que o que tivesse ficado na Terra. Isto é
conhecido por paradoxo dos gémeos, mas só é um paradoxo se tivermos em
mente a ideia de tempo absoluto. Na teoria da relatividade não existe qualquer
tempo absoluto; cada indivíduo tem a sua medida pessoal de tempo que
depende de onde está e da maneira como se está a mover.
Até 1915, pensava-se que o espaço e o tempo eram um palco fixo onde os
acontecimentos ocorriam, mas que não era afectado por eles. Tal era verdade
mesmo para a teoria da relatividade restrita. Os corpos moviam-se atraídos e
repelidos por forças, mas o espaço e o tempo continuavam, sem serem
afectados. Era natural pensar que o espaço e o tempo continuassem para
sempre.
A situação, no entanto, é completamente diferente na teoria da relatividade
geral. O espaço e o tempo são agora quantidades dinâmicas: quando um corpo
se move, ou uma força actua, a curvatura do espaço e do tempo é afectada e,
por seu lado, a estrutura do espaço-tempo afecta o movimento dos corpos e a
actuação das forças. O espaço e o tempo não só afectam como são afectados
por tudo o que acontece no Universo. Tal como não podemos falar de :,
acontecimentos no Universo sem as noções de espaço e tempo, também na
relatividade geral deixou de ter sentido falar sobre o espaço e o tempo fora dos
limites do Universo.
Nas décadas seguintes, esta nova compreensão de espaço e tempo iria
revolucionar a nossa concepção do Universo. A velha ideia de um Universo
essencialmente imutável, que podia ter existido e podia continuar a existir para
sempre, foi substituída pela noção de um Universo dinâmico e em expansão,
que parecia ter tido início há um tempo finito no passado, e que podia acabar
num tempo finito no futuro. Essa revolução constitui o assunto do próximo
capítulo. E, anos mais tarde, foi também o ponto de partida para o meu
trabalho de física teórica. Roger Penrose e eu mostramos que a teoria da
relatividade geral de Einstein implicava que o Universo tinha de ter um
princípio e, possivelmente, um fim.
III. O Universo em Expansão
Se olharmos para o céu numa noite de céu limpo e sem luar, os objectos mais
brilhantes que podemos ver serão possivelmente os planetas Vénus, Marte,
Júpiter e Saturno. Haverá também um grande número de estrelas, que são
exactamente como o nosso Sol, mas que se encontram mais distantes de nós.
Algumas destas estrelas fixas parecem de facto mudar muito ligeiramente as
suas posições umas em relação às outras, enquanto a Terra gira em volta do
Sol: não estão absolutamente nada fixas! Isto acontece por estarem
comparativamente perto de nós. Como a Terra gira em volta do Sol, vemo-las
de diferentes posições no pano de fundo das estrelas mais distantes. É uma
sorte, porque nos permite medir directamente a distância a que essas estrelas
estão de nós: quanto mais próximas, mais parecem mover-se. A estrela que
está mais perto de nós chama-se Próxima Centauro e está, afinal, a cerca de
quatro anos-luz de distância (a sua luz leva cerca de quatro anos a alcançar a
Terra) ou a cerca de trinta e sete milhões de milhões de quilómetros. A maior
parte das outras estrelas visíveis a olho nu está a algumas centenas de anos-luz
de nós. O nosso Sol, em comparação, está a uns meros oito minutos-luz de
distância! As estrelas visíveis aparecem espalhadas por todo o céu nocturno,
mas concentram-se :, particularmente numa faixa a que damos o nome de Via
Láctea. Por volta de 1750, alguns astrónomos [entre os quais Thomas Wright
(1)], sugeriram que o aspecto da Via Láctea podia ser explicado por a maior
parte das estrelas visíveis estar distribuída numa configuração de disco, como
aquilo a que agora chamamos galáxia espiral (Fig. 3.1). Só algumas décadas
mais tarde, outro astrónomo, Sir William Herschel, confirmou a ideia de
Wright, catalogando pacientemente as posições e distâncias de um grande
número de estrelas. Mesmo assim, a ideia só obteve aceitação completa no
princípio deste século. :,
Fig. 3 .1
(1) Trata-se, por certo, de um lapso da edição americana. Esta informação
indispensável (como o leitor verá um pouco adiante) refere-se a Thomas
Wright (1711-1786) que imaginou a Via Láctea como um anel de estrelas
similar ao de Saturno (*N. do R.*).
A representação moderna do Universo data apenas de 1924, quando o
astrónomo americano Edwin Hubble demonstrou que a nossa galáxia não era a
única. Havia, na realidade, muitas outras, com vastidões de espaço vazio entre
elas. Para o provar, precisa va de determinar as distâncias a que se
encontravam essas outras galáxias, que estão tão longe que, ao contrário das
estrelas próximas, parecem realmente fixas. Hubble teve de utilizar métodos
indirectos para medir as distâncias. O brilho aparente de uma estrela depende
de dois factores: da quantidade de luz que radia (a sua luminosidade) e da
distância a que se encontra de nós. Para as estrelas próximas, podemos medir
o seu brilho aparente e a distância a que se encontram e, assim, determinar a
sua luminosidade. Ao contrário, se conhecermos a luminosidade de estrelas de
outras galáxias, podemos calcular a sua distância medindo o seu brilho
aparente. Hubble notou que certos tipos de estrelas (2) têm sempre a mesma
luminosidade quando estão suficientemente perto de nós para que a possamos
medir; portanto, argumentou que, se encontrássemos estrelas dessas em outra
galáxia, podíamos admitir que teriam a mesma luminosidade e, assim, calcular
a distância dessa galáxia. Se o pudéssemos conseguir com várias estrelas da
mesma galáxia e os nossos cálculos indicasse m sempre a mesma distância,
podíamos confiar razoavelmente neles.
(2) Trata-se das estrelas variáveis *cefeides* (*N. do R.*).
Deste modo, Edwin Hubble calculou as distâncias de nove galáxias diferentes.
Sabemos agora que a nossa galáxia é apenas uma de umas centenas de milhar
de milhões que podem ser observadas com os telescópios modernos e que
cada galáxia contem algumas centenas de milhar de milhões de estrelas. A
Fig. 3.1 mostra uma galáxia espiral semelhante ao que pensamos que seja o
aspecto da nossa galáxia para alguém que viva noutra. Vivemos numa galáxia
:, que tem cerca de uma centena de milhar de anos-luz de diâmetro e roda
vagarosamente; as estrelas, nos seus braços em espiral, orbitam em redor do
centro cerca de uma vez em cada várias centenas de milhões de anos. O nosso
Sol não passa de uma estrela amarela normal, de tamanho médio, perto do
limite interior de um dos braços em espiral. Percorremos realmente um longo
caminho desde Aristóteles e Ptolomeu, quando se pensava que a Terra era o
centro do Universo!
As estrelas estão tão distantes que nos parecem meros pontinhos de luz. Não
podemos ver o seu tamanho nem a sua forma. Então como é que podemos
distinguir diferentes tipos de estrelas? Na grande maioria das estrelas, há
apenas uma característica que podemos observar: a cor da sua luz. Newton
descobriu que, se a luz do Sol passa através de um pedaço triangular de vidro,
chamado prisma, se decompõe nas cores componentes (o seu espectro), como
num arco-íris. Focando uma estrela ou uma galáxia com um telescópio,
podemos observar do mesmo modo o espectro da luz dessa estrela ou galáxia.
Estrelas diferentes têm espectros diferentes, mas o brilho relativo das
diferentes cores é sempre exactamente o que se esperaria encontrar na luz
emitida por um objecto incandescente. (Na realidade, a luz emitida por um
objecto opaco ao rubro apresenta um espectro característico que depende
apenas da sua temperatura -- um espectro térmico. Isto significa que podemos
medir a temperatura a partir do espectro da sua luz). Além disso, sabe-se que
algumas cores muito específicas estão ausentes dos espectros das estrelas e
estas cores que faltam podem variar de estrela para estrela. Como sabemos
que cada elemento químico absorve um conjunto característico de cores muito
específicas, comparando-as com as que faltam no espectro de uma estrela,
podemos determinar exactamente quais são os elementos presentes na
atmosfera da estrela. :,
Nos anos 20, quando os astrónomos começaram a observar os espectros de
estrelas de outras galáxias, descobriram algo muito estranho: faltavam as
mesmas cores encontradas nos espectros das estrelas da nossa galáxia, porque
eram todas desviadas na mesma proporção para o extremo vermelho do
espectro. Para compreender as implicações deste fenómeno, temos de entender
primeiro o efeito de Doppler. Como vimos, a luz visível consiste em
flutuações ou ondas no campo electromagnético. A frequência (ou número de
ondas por segundo) da luz é extremamente alta, indo de quatro a sete centenas
de milhões de milhões de ondas por segundo. As diferentes frequências de luz
são o que o olho humano vê como cores diferentes, com as frequências mais
baixas junto do extremo vermelho do espectro e as mais altas no extremo azul.
Imaginemos agora uma fonte luminosa a uma certa distância de nós, tal como
uma estrela, emitindo ondas luminosas com uma frequência constante. É
óbvio que a frequência das ondas que recebemos será a mesma a que são
emitidas (o campo gravitacional da galáxia não será suficientemente grande
para ter um efeito significativo) (3). Suponhamos agora que a fonte começa a
mover-se na nossa direcção. Quando a fonte emitir a crista da onda seguinte,
estará mais perto de nós; por isso, o tempo que essa crista leva a chegar até
nós será menor que quando a estrela estava em repouso relativo. Isto significa
que o tempo entre duas cristas de onda que chegam até nós é menor e,
portanto, o número de ondas que recebemos por segundo (ou seja, a
frequência) é maior do que quando a estrela está em repouso relativo. Da
mesma maneira, se a fonte se afastar de nós, a frequência das ondas que
recebemos será mais baixa. No :,
(3) Hawking refere aqui *en passant* o *redshift* gravitacional, ou seja, o
deslocamento para o vermelho de origem gravitacional e contrapõe ao efeito
de Doppler (*N. do R.*).
caso da luz, isto significa que estrelas que se afastam de nós terão os seus
espectros desviados para o extremo vermelho do espectro (desvio para o
vermelho) e que as que se aproximam de nós terão os seus espectros
deslocados para o azul. Esta relação entre a frequência e a velocidade, a que se
chama o efeito de Doppler, faz parte da experiência de todos os dias. Basta
escutar o ruído de um carro que passa na estrada: à medida que ele se
aproxima, o motor soa mais alto (o que corresponde a uma frequência mais
alta das ondas sonoras) e, quando passa e se afasta, o som é mais baixo. O
comportamento das ondas de luz ou de rádio é semelhante. Na verdade, a
Polícia utiliza o efeito de Doppler para medir a velocidade de automóveis,
medindo a frequência de impulsos de ondas de rádio por eles reflectidas.
Nos anos que se seguiram à sua prova da existência de outras galáxias, Hubble
passou o tempo a catalogar as distâncias entre elas e a observar os seus
espectros. Nessa altura, a maior parte das pessoas julgava que as galáxias se
movessem completamente ao acaso e, portanto, esperava encontrar tantos
espectros desviados para o azul como para o vermelho. Constituiu, portanto,
uma autêntica surpresa descobrir que [as "cores" (4) do espectro da] maioria
das galáxias (5) surgiam desviadas para o vermelho: quase todas se afastavam
de nós! Mais surpreendente ainda foi a descoberta que Hubble publicou em
1929: o valor do desvio para o vermelho de uma galáxia não é casual, mas sim
directamente proporcional à distância a que a galáxia está de nós. Ou, por
outras palavras, quanto mais longe ela se encontra, mais depressa está a
afastar-se! E isso significava que o Universo não podia ser estático, como toda
:,
(4 Cores, ou melhor, as riscas espectrais (*N. do R.*).
(5) De facto, a princípio, o número de galáxias catalogadas era bem pequeno!
(*N. do R.*).
a gente tinha pensado antes, mas que está, de facto, em expansão; a distância
entre as diferentes galáxias aumenta
constantemente.
A descoberta de que o Universo está em expansão foi uma das grandes
revoluções intelectuais do século XX. Com a percepção após o acontecimento,
é fácil perguntarmo-nos por que motivo ninguém tinha pensado nisso antes.
Newton e outros deviam ter compreendido que um universo estático depressa
começaria a contrair-se sob influência da gravidade. Mas pensemos, ao invés,
num universo em expansão. Se se expandisse bastante devagar, a força da
gravidade acabaria por travar a expansão, seguindo-se-lhe inevitavelmente a
contracção. Contudo, se estivesse a expandir-se acima de uma certa razão
crítica, a gravidade nunca teria força suficiente para travar a expansão, e o
Universo continuaria a expandir-se para sempre. É um pouco como o que
acontece quando se dispara um foguetão para o espaço. Se tiver uma
velocidade bastante lenta, a gravidade acabará por detê-lo e ele cairá. Por
outro lado, se o foguetão ultrapassar certa velocidade crítica (cerca de onze
quilómetros por segundo) a gravidade não terá força suficiente para o
aprisionar, de maneira que continuará a afastar-se da Terra para sempre. Este
comportamento do Universo podia ter sido predito a partir da teoria da
gravidade de Newton em qualquer altura nos séculos XIX, XVIII ou até no
fim do século XVII. Mas era tão forte a crença num universo estático que esta
prevaleceu até ao século XX. Até Einstein, quando formulou a teoria da
relatividade geral, em 1915, estava tão certo de que o Universo era estático
que modificou a sua teoria para o tornar possível, introduzindo nas suas
equações a chamada constante cosmológica. Einstein introduziu uma nova
força, "antigravitação", que, ao contrário das outras forças, não provinha de
qualquer origem especial, mas era construída na própria estrutura do espaçotempo.
Afirmava :, ele que o espaço-tempo tinha uma tendência intrínseca
para se expandir, o que poderia levar a equilibrar exactamente a atracção de
toda a matéria no universo, de modo a daí resultar um universo estático. Só
um homem, segundo parece, estava disposto a tomar a relatividade geral pelo
que era e, enquanto Einstein e outros físicos procuravam maneiras de evitar,
no contexto da relatividade geral, soluções não estáticas, o físico e matemático
russo Alexander Friedmann dedicou-se a explicá-las.
Friedmann tirou duas conclusões muito simples sobre o Universo: que este
parece idêntico seja em que direcção se olhe e que tal também seria verdade se
observássemos o Universo de qualquer outro lugar. Apenas com estas duas
ideias (6), Friedmann mostrou que não deveríamos esperar que o Universo
fosse estático. De facto, em 1922, vários anos antes da descoberta de Edwin
Hubble, Friedmann previu exactamente o que aquele veio a descobrir!
(6) Isotropia e homogeneidade. As propriedades de isotropia e homogeneidade
do Universo encontram-se encerradas no conteúdo do chamado *princípio
cosmológico*, talvez o mais importante argumento de toda a cosmologia
moderna (*N. do R.*).
Evidentemente, a suposição de que o Universo tem o mesmo aspecto em todas
as direcções não é, na realidade, verdadeira. Por exemplo, como já vimos, as
outras estrelas da Galáxia formam uma faixa de luz distinta no céu nocturno,
chamada Via Láctea. Mas, se olharmos para galáxias distantes, parece haver
mais ou menos o mesmo número delas [qualquer que seja a direcção em que
se olhe]. Portanto, o Universo, na realidade, parece ser praticamente idêntico
em todas as direcções, desde que o observemos numa grande escala em
comparação com a distância entre as galáxias e ignoremos as diferenças em
pequenas escalas. Durante muito tempo isto constituiu justificação suficiente
para a suposição de Friedmann: uma grosseira aproximação :, ao verdadeiro
Universo. Mas, mais recentemente, por um acidente feliz, descobriu-se que a
suposição de Friedmann é realmente uma notável e precisa descrição do nosso
Universo.
Em 1965, dois físicos americanos dos Bell Telephone Laboratories de Nova
Jérsia, Arno Penzias e Robert Wilson, efectuavam experiências com um
detector de micro-ondas muito sensível. (As micro-ondas são exactamente
como ondas luminosas, mas com uma frequência da ordem de apenas dez
milhares de milhões de ondas por segundo). Penzias e Wilson ficaram
preocupados quando descobriram que o seu detector captava mais ruídos do
que devia. Os ruídos não pareciam vir de uma direcção em particular.
Primeiro, descobriram excremento de aves no detector e procuraram outros
defeitos possíveis, mas depressa abandonaram essa hipótese. Sabiam que
qualquer ruído proveniente do interior da atmosfera seria mais forte quando o
detector não estivesse apontado verticalmente porque os raios de luz
percorrem maior distância na atmosfera quando são recebidos perto do
horizonte do que quando são recebidos directamente de cima. Os ruídos extra
eram os mesmos qualquer que fosse a direcção para que estivesse apontado o
detector; portanto, deviam vir *de fora* da atmosfera. Também eram iguais de
dia e de noite e durante todo o ano, embora a Terra rodasse sobre o seu eixo e
orbitasse em volta do Sol. Isto mostrava que a radiação devia vir de fora do
sistema solar e até de fora da Galáxia, porque, se assim não fosse, variaria
quando o movimento da Terra apontasse o detector para direcções diferentes.
De facto, sabemos que a radiação deve ter viajado até nós através da maior
parte do Universo observável e, uma vez que parece ser a mesma em direcções
diferentes, o Universo também deve ser o mesmo em todas as direcções,
apenas a uma escala maior. Sabemos agora que, em qualquer direcção que
olhemos, estes ruídos nunca :, variam mais do que uma parte em dez mil: de
modo que Penzias e Wilson tinham tropeçado sem querer numa confirmação
incrivelmente precisa da primeira suposição de Friedmann.
Mais ou menos ao mesmo tempo, dois físicos americanos da Universidade de
Princeton, ali perto, Bob Dicke e Jim Peebles, também se interessavam pelas
micro-ondas. Estavam a trabalhar uma sugestão de George Gamow (que tinha
sido aluno de Friedmann) de que o Universo primordial devia ter sido muito
quente e denso, com brilho rubro-branco. Dicke e Peebles achavam que ainda
devíamos poder ver esse brilho do Universo primitivo porque a luz
proveniente de partes muito distantes do Universo primitivo devia estar agora
a chegar até nós. Contudo, a expansão do Universo significava que essa luz
devia ser de tal maneira desviada para o vermelho que só podia aparecer-nos
agora como uma radiação de micro-ondas. Dicke e Peebles preparavam-se
para procurar esta radiação quando Penzias e Wilson ouviram falar do seu
trabalho e compreenderam que já a tinham encontrado. Assim, Penzias e
Wilson receberam o prémio Nobel em 1978 (o que parece um pouco duro para
Dicke e Peebles, para não falar de Gamow!)
Ora, à primeira vista, todas estas provas de que o Universo tem o mesmo
aspecto, seja qual for a direcção para que se olhe, podem parecer sugerir que
existe algo de especial quanto ao nosso lugar no Universo. Em particular, pode
parecer que, se observamos a recessão de todas as outras galáxias, devemos
estar no centro do Universo. Há, no entanto, uma explicação alternativa: o
Universo pode ter o mesmo aspecto em todas as direcções, se for visto
também de outra galáxia. Esta foi, como vimos, a segunda suposição de
Friedmann. Não temos qualquer prova científica a favor ou contra ela.
Acreditamos apenas por modéstia: seria absolutamente espantoso se o
Universo :, tivesse o mesmo aspecto em toda a nossa volta e não à volta de
outros pontos! No modelo de Friedmann, todas as galáxias se afastam
directamente umas das outras. A situação parece-se muito com a de um balão
com várias manchas pintadas a ser enchido sem parar (7). À medida que o
balão se expande, a distância entre quaisquer duas manchas aumenta, mas não
pode dizer-se que alguma mancha seja o centro da expansão. Além disso,
quanto mais afastadas estiverem as manchas, mais depressa se afastam. Do
mesmo modo, no modelo de Friedmann, a velocidade a que duas galáxias
quaisquer se afastam uma da outra é proporcional à distância entre elas.
Portanto, previa que o desvio para o vermelho de uma galáxia devia ser
directamente proporcional à distância a que se encontra de nós, exactamente
como Hubble descobriu. Apesar do êxito deste modelo e da sua predição das
observações de Hubble, o trabalho de Friedmann permaneceu muito tempo
desconhecido no Ocidente, até serem descobertos modelos semelhantes em
1935 pelo físico americano Howard Robertson e pelo matemático britânico
Arthur Walker, em resposta à descoberta de Hubble da expansão uniforme do
Universo.
(7) Com mais verosimilhança um balão na superfície do qual se colam
papelinhos representando as galáxias a ser inflado. Tal como as
heterogeneidades ou irregularidades do Universo, os papelinhos não sofrem a
inflação (*N. do R.*).
Embora Friedmann tenha descoberto apenas um, há de facto três modelos
diferentes que obedecem às suas duas suposições fundamentais. O primeiro é
um universo que se expande suficientemente devagar para que a atracção
gravitacional entre as diferentes galáxias provoque abrandamento e
provavelmente paragem da expansão. As galáxias começam então a mover-se
umas em direcção às outras e o universo contrai-se. A Fig. 3.2 mostra como a
distância :, entre duas galáxias vizinhas se modifica à medida que o tempo
aumenta. Começa em zero, aumenta até um máximo' e depois diminui
novamente até zero. O segundo modelo descreve um universo que se expande
tão rapidamente que a atracção gravitacional nunca pode parar a expansão,
embora a faça abrandar um pouco. A Fig. 3.3 mostra a separação entre
galáxias vizinhas neste modelo. Começa a zero e depois as galáxias acabam
por se afastar a uma velocidade constante. Finalmente, existe uma terceira
espécie de solução, na qual o Universo se expande apenas à velocidade
suficiente para evitar o colapso. Neste caso, a separação, ilustrada na Fig. 3.4,
também começa em zero e vai sempre aumentando. Contudo, a velocidade a
que as galáxias se afastam umas das outras torna-se cada vez menor, embora
nunca chegue a alcançar zero.
fig. 3.2
fig. 3.3
fig. 3.4
Uma característica notável da primeira espécie de modelo de Friedmann é o
facto de o Universo não só ser infinito no espaço, mas o espaço não apresentar
quaisquer fronteiras. A gravidade é tão forte que o espaço é encurvado sobre si
próprio, o que o torna bastante semelhante à superfície da Terra. Se uma
pessoa viajar continuamente em determinada direcção na superfície da Terra,
nunca chega a uma barreira intransponível nem cai da extremidade; acaba,
sim, por voltar ao ponto de partida. No primeiro modelo de Friedmann, o
espaço é exactamente assim, mas com três dimensões em vez das duas da
superfície da Terra. A quarta dimensão, o tempo, também é finito em
extensão, mas é como uma linha com duas extremidades ou fronteiras, um
começo e um fim. Veremos mais tarde que, quando se combina a relatividade
geral com o princípio da incerteza da mecânica quântica, é possível que tanto
o espaço como o tempo sejam finitos sem quaisquer extremidades ou
fronteiras.
A ideia de que se pode andar à volta do Universo e voltar ao ponto de partida
originou boa ficção científica, mas :, não tem grande significado prático,
porque pode demonstrar-se que o Universo voltaria ao tamanho zero antes de
se conseguir dar a volta. Seria preciso viajar mais depressa do que a luz para
se voltar ao ponto de partida antes de o Universo terminar, o que não é
possível!
Na primeira espécie do modelo de Friedmann, que se expande e depois
colapsa, o espaço é curvado sobre si próprio, como a superfície da Terra. É,
portanto, finito na sua extensão. Na segunda espécie de modelo, que se
expande para sempre, o espaço é encurvado ao contrário, como a superfície de
uma sela. Portanto, nesse caso, o espaço é infinito. Finalmente, na terceira
espécie de modelo de Friedmann, em que o Universo se expande à taxa crítica,
o espaço é plano (e, portanto, também infinito).
Mas qual é o modelo de Friedmann que descreve o nosso Universo? Será que
este vai alguma vez parar de se expandir e começar a contrair-se, ou expandirse-
á para sempre? Para responder a esta pergunta, precisamos de saber qual é a
taxa actual de expansão (8) do Universo e a sua densidade média. Se a
densidade for menor que certo valor crítico, determinado pela taxa de
expansão, a atracção gravitacional será demasiado fraca para deter a expansão.
Se a densidade for maior do que o valor crítico, a gravidade suspenderá a
expansão algures no futuro e reconduzirá o Universo ao colapso.
(8) Optamos por traduzir desta forma, referindo-se o autor, numa linguagem
acessível, ao *parâmetro de desaceleração*, isto é, a menos de um sinal, à
aceleração do movimento de recessão das partículas do fluido cósmico (*N.
do R.*).
Podemos determinar a taxa de expansão actual, medindo as velocidades a que
as outras galáxias se estão a afastar de nós, recorrendo ao efeito de Doppler.
Isto pode conseguir-se com muita precisão. Contudo, as distâncias das
galáxias não se conhecem muito bem, porque só podemos :, medi-las
indirectamente. Portanto, tudo o que sabemos é que o Universo está a
expandir-se à razão de 5 a 10% em cada milhar de milhões de anos. No
entanto, a nossa incerteza quanto à densidade média actual do Universo ainda
é maior. Se acrescentarmos as massas de todas as estrelas que podemos ver (9)
na nossa galáxia e noutras galáxias, o total é inferior a um centésimo da
quantidade necessária para fazer parar a expansão do Universo, mesmo para o
cálculo mais baixo da taxa de expansão. A nossa e as outras galáxias devem,
porém, conter uma grande quantidade de "matéria escura" que não podemos
ver directamente, mas que sabemos que deve existir, por causa da influência
da sua atracção gravitacional nas órbitas das estrelas nas galáxias.
(9) Não esqueça o leitor que podemos ver através dos telescópios ópticos ou
"ver" através dos radiotelescópios e contar as fontes de rádio (*N. do R.*).
Além disso, a maioria das galáxias encontra-se em aglomerados e podemos,
assim, concluir que existe mais matéria escura por entre as galáxias nestes
aglomerados pelo seu efeito no movimento das galáxias. Quando somamos
toda esta matéria escura, continuamos a não obter mais do que um décimo da
quantidade necessária para parar a expansão. Não devemos, porém, excluir a
possibilidade da existência de outra forma de matéria, distribuída quase
uniformemente através do Universo, que ainda não detectámos e que pode
ainda aumentar a densidade média do Universo até ao valor crítico necessário
para parar a expansão. A evidência actual sugere portanto que o Universo
provavelmente se expandirá para sempre, mas apenas podemos ter a certeza de
que, mesmo que venha a contrair-se de novo, tal não acontecerá pelo menos
durante os próximos dez mil milhões de anos uma vez que tem estado a
expandir-se pelo menos desde há :, outro tanto tempo. O facto não deve
preocupar-nos muito: entretanto, a não ser que tenhamos colonizado para lá do
sistema solar, a Humanidade há muito que terá desaparecido, extinta
juntamente com o nosso Sol!
Todas as soluções de Friedmann têm a característica de, em certo momento no
passado (entre dez e vinte mil milhões de anos), a distância entre galáxias
vizinhas dever ter sido zero. Nesse momento, a que chamamos **bib bang**,
a densidade do Universo e a curvatura do espaço-tempo teriam sido infinitas.
Como a matemática não pode realmente lidar com números infinitos, isto
significa que a teoria da relatividade geral (em que se baseiam as soluções de
Friedmann) prediz que há um ponto do Universo onde a própria teoria falha.
Esse ponto é um exemplo daquilo a que os matemáticos chamam uma
singularidade. De facto, todas as nossas teorias científicas são formuladas na
suposição de que o espaço-tempo deve ser liso e quase plano, de modo que
falham na singularidade do **bib bang**, onde a curvatura do espaço-tempo é
infinita. Isto significa que, mesmo que tivesse havido acontecimentos
anteriores ao **bib bang**, não poderíamos utilizá-los para determinar o que
veio a aconteeer depois, porque tudo o que se previsse falharia no momento do
**bib bang**. Do mesmo modo, se, como é o caso, sabemos apenas o que
aconteceu desde o **bib bang**, não podemos determinar o que aconteceu
antes. Tanto quanto sabemos, os acontecimentos antes do **bib bang** não
podem ter quaisquer consequências, pelo que não devem fazer parte de um
modelo científico do Universo. Devemos, portanto, exclui-los do modelo e
dizer que o tempo começou com o **bib bang**.
Muitas pessoas não gostam da ideia de o tempo ter um começo,
provavelmente porque isso cheira muito a intervenção divina. (A Igreja
Católica, pelo seu lado, agarrou-se ao modelo do **bib bang** e, em 1951,
afirmou oficialmente que estava de acordo com a Bíblia). Houve, por isso,
algumas :, tentativas para evitar a conclusão de que tinha havido um **bib
bang**. A proposta que obteve mais adeptos foi a teoria do estado
estacionário. Foi sugerida em 1948 por dois refugiados da Áustria ocupada
pelos nazis, Hermann Bondi e Thomas Gold, juntamente com um inglês, Fred
Hoyle, que tinha trabalhado com eles no desenvolvimento do radar, durante a
guerra. A ideia advogava que, enquanto as galáxias se afastavam umas das
outras, novas galáxias estavam constantemente a formar-se nos intervalos, a
partir de nova matéria em criação contínua. O Universo, portanto, pareceria
mais ou menos sempre igual em todos os momentos do tempo e em todos os
pontos do espaço. A teoria do estado estacionário exigia uma modificação da
relatividade geral que permitisse a criação contínua de matéria, mas a taxa de
criação era tão baixa (cerca de uma partícula por quilómetro cúbico por ano)
que não entrava em conflito com a experiência. A teoria era cientificamente
boa, no sentido descrito no capítulo primeiro: era simples e permitia predições
definidas que podiam ser testadas por observação. Uma dessas predições era
que o número de galáxias, ou objectos semelhantes, em dado volume do
espaço seria o mesmo donde e quando quer que se olhasse para o Universo.
No fim dos anos 50 e no princípio dos anos 60 foi feito um levantamento das
fontes de ondas de rádio do espaço exterior, em Cambridge, por um grupo de
astrónomos dirigidos por Martin Ryle (que também tinha trabalhado com
Bondi, Gold e Hoyle no radar, durante a guerra). O grupo de Cambridge
mostrou que a maior parte das fontes de rádio se situava fora da nossa galáxia
(na realidade, muitas podiam ser identificadas com outras galáxias) e também
que as fontes fracas eram em muito maior número do que as fortes.
Interpretaram as fontes fracas como sendo as mais distantes e as fortes como
as mais próximas. Além disso, parecia haver menos fontes por unidade de
volume de espaço no caso das fontes :, próximas do que no caso das distantes.
Isto podia significar que estávamos no centro de uma grande região no
Universo em que as fontes são menos do que em outra parte qualquer. Ou,
alternativamente, podia significar que as fontes eram mais numerosas no
passado, no tempo em que as ondas de rádio partiram na nossa direcção, do
que são agora. Qualquer das explicações contradizia as predições da teoria do
estado estacionário. Além disso, a descoberta da radiação de micro-ondas por
Penzias e Wilson em 1965 também indicava que o Universo devia ter sido
muito mais denso no passado. A teoria do estado estacionário teve, portanto,
de ser abandonada.
Outra tentativa para evitar a conclusão da existência do *bib bang* e,
portanto, um começo do tempo, foi realizada por dois cientistas russos,
Evgenii Lifshitz e Isaac Khalatnikov, em 1963. Sugeriram que o *bib bang*
podia ser uma peculiaridade apenas dos modelos de Friedmann, que afinal não
passavam de aproximações ao Universo. Talvez, de todos os modelos que
eram mais ou menos parecidos com o Universo, só o de Friedmann contivesse
a singularidade do *bib bang*. Nos modelos de Friedmann, as galáxias
movem-se todas afastando-se directamente umas das outras, pelo que não
admira que em algum momento no passado estivessem todas no mesmo lugar.
Contudo, no Universo, as galáxias não estão apenas a mover-se afastando-se
directamente umas das outras: apresentam também pequenas velocidades
laterais. De maneira que, na realidade, não precisavam de ter estado todas
exactamente no mesmo local, mas apenas muito perto umas das outras. Então,
talvez o actual Universo em expansão seja o resultado não de uma
singularidade, mas de uma fase inicial de contracção; quando o Universo
colapsou as partículas que o constituíam não colidiram todas, mas passaram ao
lado para depois se afastarem umas das outras, produzindo a actual expansão.
Como é que podemos então afirmar :, que o Universo teria começado com o
*bib bang*? O que Lifshitz e Khalatnikov fizeram foi estudar universos que
eram mais ou menos parecidos com os de Friedmann, mas consideraram as
irregularidades e velocidades aleatórias das galáxias no Universo. Mostraram
que tais modelos podiam começar com o *bib bang*, embora as galáxias já
não se movessem afastando-se directamente umas das outras, mas afirmaram
que esta possibilidade só se verificava em determinados modelos excepcionais
em que as galáxias se moviam todas de certa maneira. Argumentaram que,
uma vez que pareciam existir infinitamente mais modelos como o de
Friedmann sem a singularidade do *bib bang* do que com ela, devíamos
concluir que, na realidade, não tinha havido *bib bang*. Mais tarde, contudo,
compreenderam que havia também muito mais modelos como o de Friedmann
com singularidades e em que as galáxias não precisavam de se mover de uma
maneira especial. Por isso, em 1970, acabaram por retirar as suas afirmações.
o trabalho de Lifshitz e Khalatnikov foi válido porque mostrou que o Universo
*podia* (10) ter tido uma singularidade, um *bib bang*, se a teoria da
relatividade geral estivesse correcta. Contudo, não resolvia a pergunta crucial:
a relatividade geral encerra a inevitabilidade do *bib bang*, um início dos
tempos? A resposta surgiu de uma abordagem completamente diferente do
problema, apresentada por um matemático e físico britânico, Roger Penrose,
em 1965.
(10) Isto é, que apesar de os modelos generalizados de Friedmann predizerem
com toda a aproximação pretendida o Universo actual, nomeadamente os
movimentos laterais das galáxias, outros modelos mais elaborados conduzemnos
também, para trás no tempo, à singularidade inicial (*N. do R.*).
Utilizando a maneira como os cones de luz se comportam na relatividade geral
juntamente com o facto de a gravidade ser sempre atractiva, mostrou que uma
estrela :, que entra em colapso devido à própria gravidade fica presa numa
região cuja superfície acaba eventualmente por contrair-se até zero. E como a
superfície da região se contrai até zero, o mesmo se deve passar com o seu
volume. Toda a matéria existente na estrela será comprimida numa região de
volume nulo, de modo que a densidade da matéria e a curvatura do espaçotempo
se tornam infinitas. Por outras palavras, obtém-se uma singularidade
contida numa região de espaço-tempo conhecida por buraco negro.
À primeira vista, o resultado de Penrose aplicava-se apenas às estrelas; nada
tinha a ver com a questão de saber se o Universo teve ou não teve uma
singularidade no passado. Contudo, na altura em que Penrose apresentou o seu
teorema, eu era um estudante de investigação que procurava
desesperadamente um problema para completar a minha tese de doutoramento.
Dois anos antes tinham-me diagnosticado ALS, vulgarmente conhecida por
doença de Gehrig, ou neuropatia motora, e tinham-me dado a entender que só
tinha mais um ou dois anos de vida. Nessas circunstâncias, não parecia valer
muito a pena trabalhar na minha tese de doutoramento, pois não esperava
viver o tempo suficiente. Contudo, passados dois anos, eu não tinha piorado
muito. Na realidade, as coisas até me corriam bastante bem e tinha ficado
noivo de uma excelente rapariga, Jane Wilde. Mas, para poder casar, tinha de
arranjar emprego e, para arranjar emprego, precisava do doutoramento.
Em 1965, tomei conhecimento do teorema de Penrose de que qualquer corpo
que entre em colapso gravitacional tem de formar eventualmente uma
singularidade. Depressa compreendi que, se se trocasse o sentido do tempo no
teorema de Penrose, de modo a transformar o colapso numa expansão, as
condições do teorema manter-se-iam, desde que o Universo se comportasse, a
grande escala e no tempo actual, mais ou menos como no modelo :, de
Friedmann. O teorema de Penrose mostrou que qualquer estrela em colapso
devia acabar numa singularidade; o argumento com o tempo ao contrário
mostrava que qualquer universo em expansão semelhante ao de Friedmann
*devia* ter começado com uma singularidade. Por razões técnicas, o teorema
de Penrose requeria que o Universo fosse infinito no espaço. Nestas
circunstâncias, pude realmente utilizá-lo para provar que só teria de haver uma
singularidade se o Universo estivesse a expandir-se suficientemente depressa
para evitar entrar em colapso (uma vez que só aqueles modelos de Friedmann
eram infinitos no espaço).
Durante os anos seguintes, desenvolvi novas técnicas matemáticas para
remover esta e outras condições técnicas dos teoremas que provavam que
tinham de ocorrer singularidades. O resultado final foi um trabalho produzido
em conjunto por Penrose e por mim, em 1970, que provou por fim que deve
ter havido uma singularidade, contanto que a teoria da relatividade geral esteja
correcta e o Universo contenha tanta matéria como a que observamos. Houve
grande oposição ao nosso trabalho, em parte dos soviéticos, por causa da sua
fé marxista no determinismo científico, e em parte de pessoas que achavam
que a própria ideia de singularidade era repugnante e estragava a beleza da
teoria de Einstein. No entanto, não se pode discutir realmente com um teorema
matemático. Deste modo, no fim, o nosso trabalho foi geralmente aceite e hoje
em dia quase toda a gente admite que o Universo começou com a
singularidade do *bib bang*. Talvez seja irónico que, tendo eu mudado de
ideias, esteja agora a tentar convencer outros físicos que não houve na
realidade qualquer singularidade no começo do Universo; como veremos mais
tarde, a singularidade pode desaparecer quando tivermos em conta os efeitos
quânticos.
Vimos neste capítulo como, em menos de metade de um século, se
transformou a ideia que o Homem fazia do Universo, :, ideia formada durante
milhares de anos. A descoberta de Hubble de que o Universo estava em
expansão e a compreensão da insignificância do nosso planeta na sua vastidão
foram apenas o ponto de partida. À medida que aumentavam as provas
experimentais e teóricas, tornou-se cada vez mais claro que o Universo deve
ter tido um começo no tempo, até que, em 1970, isso foi finalmente provado
por Penrose e por mim, com base na teoria da relatividade geral de Einstein.
Essa prova mostrou que a relatividade geral é apenas uma teoria incompleta:
não pode dizer-nos como surgiu o Universo porque prediz que todas as teorias
físicas, incluindo ela própria, falham no começo do Universo. Contudo, a
relatividade geral afirma ser apenas uma teoria parcial, de modo que o que os
teoremas de singularidade mostram realmente é que deve ter havido um tempo
nos primórdios do Universo em que este era tão pequeno que já não podíamos
continuar a ignorar os efeitos de pequena escala da outra grande teoria parcial
do século XX, a mecânica quântica. No princípio dos anos 70, então, fomos
forçados a voltar as nossas investigações para uma compreensão do Universo,
da nossa teoria do infinitamente grande para a nossa teoria do infinitamente
pequeno. Essa teoria da mecânica quântica será descrita a seguir, antes de
passarmos aos esforços para combinar as duas teorias parciais numa única
teoria quântica da gravidade.
IV. O Princípio da Incerteza
O êxito das teorias científicas, sobretudo da teoria da gravitação de Newton,
levou o cientista francês Marquês de Laplace, no início do século XIX, a
argumentar que o Universo era completamente determinista. Laplace sugeriu
que devia haver um conjunto de leis científicas que nos permitissem predizer
tudo o que aconteceria no Universo, bastando para isso sabermos qual era o
seu estado completo num determinado momento. Por exemplo, se
conhecêssemos as posições e velocidades do Sol e dos planetas em
determinado momento, podíamos usar as leis de Newton para calcular o
estado do sistema solar em qualquer outro momento. O determinismo parece
bastante óbvio neste caso, mas Laplace foi mais longe, admitindo que havia
leis semelhantes que governavam tudo o mais, incluindo o comportamento
humano.
A doutrina do determinismo científico recebeu forte oposição de muitas
pessoas, que achavam que ela infringia a liberdade de Deus intervir no mundo,
mas manteve-se como hipótese padrão da ciência até aos primeiros anos deste
século. Uma das primeiras indicações de que esta crença teria de ser
abandonada surgiu quando cálculos elaborados pelos cientistas britânicos Lord
Rayleigh e Sir James Jeans sugeriram que um objecto ou corpo :, quente, tal
como uma estrela, devia radiar energia a uma taxa infinita. Segundo as leis em
que acreditávamos na altura, um corpo quente devia emitir ondas
electromagnéticas (tais como ondas de rádio, luz visível ou raios X) em
quantidades iguais em todas as frequências (1). Por exemplo, um corpo quente
devia radiar a mesma quantidade de energia em ondas com frequências
compreendidas entre um e dois milhões de milhões de ondas por segundo,
assim como em ondas com frequências compreendidas entre dois e três
milhões de milhões de ondas por segundo. Ora, como o número de ondas por
segundo não tem limite, isso significaria que a energia total radiada seria
infinita.
(1) Esta afirmação não é correcta. Hawking procura, por certo, simplificar o
discurso (*N. do R.*).
Para evitar este resultado, obviamente ridículo, o cientista alemão Max Planck
sugeriu em 1900 que a luz, os raios X e outras ondas [electromagnéticas] não
podiam ser emitidas a uma taxa arbitrária, mas apenas em certas quantidades
pequenas a que chamou *quanta* (2). Além disso, cada *quantum* teria certa
quantidade de energia que seria tanto maior quanto mais alta fosse a
frequência das ondas, de modo que a uma frequência suficientemente alta a
emissão de um único *quantum* necessitava de mais energia do que a que
estava disponível. Assim, a radiação a frequências altas seria reduzida e,
portanto, a taxa à qual o corpo perdia energia seria finita.
(2) Plural de *quantum* (*N. do R.*).
A hipótese dos *quanta* explicava muito bem a emissão observada de
radiação por corpos quentes, mas as suas implicações no determinismo só
foram compreendidas em 1926, quando outro cientista alemão, Werner
Heisenberg, formulou o seu famoso princípio da incerteza. Para predizer a
posição e a velocidade futuras de uma partícula, :, é necessário poder medir
com precisão a sua posição e velocidade actuais. A maneira óbvia para
conseguir este resultado é fazer incidir luz na partícula. Algumas das ondas
luminosas serão dispersadas pela partícula o que indicará a sua posição.
Contudo, não conseguiremos determinar a posição da partícula com maior
rigor do que a distância entre as cristas das ondas luminosas (3), de maneira
que é preciso utilizar luz de onda curta para medir com precisão a posição da
partícula. Agora, segundo a hipótese do *quantum* de Planck, não se pode
utilizar uma quantidade arbitrariamente pequena de luz; tem de se utilizar pelo
menos um *quantum*. Este *quantum* vai perturbar a partícula e modificar a
sua velocidade de um modo que não pode ser predito. Além disso, quanto
maior for a precisão com que se mede a posição, menor será o comprimento
de onda necessário e daí maior a energia de um único *quantum*. Portanto, a
velocidade da partícula será mais perturbada. Por outras palavras, quanto mais
rigorosamente tentamos medir a posição da partícula, menos precisa é a
medida da sua velocidade, e vice-versa. Heisenberg mostrou que a incerteza
quanto à posição da partícula a multiplicar pela incerteza da sua velocidade e
pela massa da partícula nunca pode ser menor do que certa quantidade, que é
conhecida por constante de Planck. Além disso, este limite não depende da
maneira como tentamos medir a posição ou a velocidade da partícula ou do
seu tipo: o princípio da incerteza de Heisenberg é uma propriedade
fundamental e inevitável do mundo.
(3) Comprimento de onda (*N. do R.*).
O princípio da incerteza teve implicações profundas na maneira como víamos
o mundo. Mesmo depois de mais de cinquenta anos, ainda não foram
devidamente apreciadas por muitos filósofos e continuam a ser objecto de
grande controvérsia. O princípio da incerteza marcou o fim :, do sonho de
Laplace de uma teoria científica, um modelo do Universo completamente
determinista: certamente que é impossível predizer acontecimentos futuros
com exactidão, se nem sequer é possível medir com precisão o estado actual
do Universo! Podíamos continuar a imaginar que existe um conjunto de leis
que determina completamente os acontecimentos para algum ser sobrenatural,
capaz de observar o estado presente do Universo sem o perturbar. Contudo,
modelos do Universo como esse não são de grande interesse para nós,
vulgares mortais. Parece melhor empregar o princípio da economia, conhecido
por navalha de Occam, e cortar todas as características da teoria que não
podem ser observadas. Esta ideia levou Heisenberg, Erwin Schrodinger e Paul
Dirac a reformular a mecânica, nos anos 20, numa nova teoria chamada
mecânica quântica, baseada no princípio da incerteza. Nesta teoria, as
partículas deixaram de ter posições e velocidades distintas e definidas, que não
podiam ser observadas. Em vez disso tinham um estado quântico resultante da
combinação da posição e velocidade.
Em geral, a mecânica quântica não prediz um único resultado definido para
cada observação. Em vez disso, prediz um número de resultados possíveis
diferentes e informa-nos sobre a probabilidade de cada um. Ou seja, se uma
pessoa executar as mesmas medições num grande número de sistemas
semelhantes, iniciados da mesma maneira, descobrirá que o resultado das
medições será A num certo número de casos, B num número diferente, e por
aí fora. Podia predizer-se o número aproximado de vezes em que o resultado
seria A ou B, mas não o resultado específico de uma medição individual. A
mecânica quântica introduz, portanto, um elemento inevitável de
imprevisibilidade ou acaso na ciência. Einstein protestou fortemente contra
esta ideia, apesar do papel importante que desempenhou no seu
desenvolvimento. Recebeu o prémio :, Nobel pelo seu contributo para a teoria
dos *quanta* e, no entanto, nunca aceitou que o Universo fosse governado
pelo acaso. Os seus sentimentos ficaram resumidos na sua famosa afirmação:
"Deus não joga aos dados". A maior parte dos outros cientistas estava disposta
a aceitar a mecânica quântica, porque concordava perfeitamente com as
experiências. Na realidade, tem sido uma teoria com um êxito notável, que
está na base de quase toda a ciência e tecnologia modernas. Dirige o
comportamento de transístores e circuitos integrados, que são componentes
essenciais de aparelhos electrónicos como televisões e computadores, e é, ao
mesmo tempo, a base da química e da biologia modernas. As únicas áreas da
física em que a mecânica quântica ainda não foi devidamente incorporada são
a gravidade e a estrutura do Universo em larga escala.
Embora a luz seja composta de ondas, a hipótese do *quantum* de Planck diznos
que, de alguma maneira, se comporta como se fosse composta de
partículas: só pode ser emitida ou absorvida em pequenas quantidades ou
*quanta*. Do mesmo modo, o princípio da incerteza de Heisenberg implica
que as partículas se comportam, em alguns aspectos, como as ondas: não têm
uma posição definida mas estão "espalhadas" com uma certa distribuição de
probabilidade. A teoria da mecânica quântica baseia-se num tipo inteiramente
novo de matemática que já não descreve o mundo real em termos de partículas
e ondas; só as observações do mundo podem ser descritas nesses termos. Há,
portanto, uma dualidade entre ondas e partículas na mecânica quântica: para
alguns fins, é útil pensar em partículas como ondas, e para outros é melhor
pensar em ondas como partículas. Uma consequência importante disto é o
facto de podermos observar aquilo a que se chama interferência entre dois
conjuntos de ondas ou partículas. Ou seja, as cristas de um conjunto de ondas
podem coincidir com :, as depressões de outro conjunto. Os dois conjuntos de
ondas anulam-se um ao outro, em vez de se reforçarem para formar uma onda
mais intensa, como se poderia esperar (Fig. 4.1). Um exemplo familiar de
interferência no caso da luz é o das cores que vemos muitas vezes nas bolas de
sabão. São causadas por reflexão da luz nos dois lados da fina película de água
que forma a bola. A luz branca consiste em ondas luminosas de comprimentos
de onda todos diferentes, ou cores. Para certo comprimento de onda, as cristas
das ondas refle tidas de um lado da película de sabão coincidem com as cavas
reflectidas do outro lado. As cores correspondentes a esses comprimentos de
onda estão ausentes da luz reflectida que, portanto, parece ser colorida.
fig.4.1
A interferência também pode ocorrer com partículas devido à dualidade
introduzida pela mecânica quântica. Um exemplo famoso é a chamada
experiência das duas fendas (Fig. 4.2). Consideremos uma divisória com duas
estreitas fendas paralelas. De um dos lados da divisória, coloca-se uma fonte
de luz de uma cor particular (ou seja, de um comprimento de onda
determinado). A maior parte da luz atingirá o separador, mas apenas uma
pequena quantidade passará pelas fendas. Suponhamos agora que se coloca
um alvo do outro lado da divisória, afastado da luz. Qualquer ponto do alvo
receberá ondas das duas fendas. Contudo, em geral, a distância que a luz tem
de percorrer a partir da fonte até ao alvo através das duas fendas será
diferente. Isto significará que as ondas das fendas estarão desfasadas uma da
outra quando atingirem o alvo: em alguns pontos, as ondas anular-se-ão
mutuamente e em outros reforçar-se-ão. O resultado é o padrão característico
de franjas claras e escuras.
fig. 4.2
O que é notável é que se obtém exactamente a mesma espécie de franjas de
interferência substituindo a fonte luminosa por uma fonte de partículas como
os electrões :, com uma velocidade definida (o que significa que as ondas
correspondentes têm um comprimento definido). Parece ainda mais estranho
porque, quando há só uma fenda, não obtemos franjas, mas sim uma
distribuição uniforme de electrões ao longo do alvo. Poder-se-ia então pensar
que a abertura de outra fenda aumentaria apenas o número de electrões que
atingem cada ponto do alvo mas, devido à interferência, o que realmente
acontece é esse número diminuir em alguns pontos. Se os electrões forem
enviados um de cada vez através das fendas, será de esperar que cada um
passe por uma ou por outra, e assim se comporte como se a fenda através da
qual passou fosse a única, dando uma distribuição uniforme no alvo. Contudo,
na realidade, mesmo quando os electrões são enviados um por um, as franjas
continuam a aparecer. Portanto, cada electrão deve estar a passar através de
*ambas* as fendas ao mesmo tempo!
O fenómeno da interferência entre partículas tem sido crucial para a nossa
compreensão da estrutura dos átomos, as unidades fundamentais da química e
da biologia e os blocos de construção de que nós e tudo o que nos rodeia
somos formados. No começo deste século, pensava-se que os átomos eram
bastante parecidos com os planetas em órbita à volta do Sol, com os electrões
(partículas de electricidade negativa) em órbita à volta de um núcleo central,
com electricidade positiva. Supunha-se que a atracção entre a electricidade
positiva e negativa mantinha os electrões nas suas órbita, do mesmo modo que
a atracção gravitacional entre o Sol e os planetas os mantém nas suas órbitas.
O problema era que as leis da mecânica e da electricidade, antes da mecânica
quântica, prediziam que os electrões perderiam energia e mover-se-iam em
espiral para dentro até colidirem com o núcleo. Tal significaria que o átomo e,
na realidade, toda a matéria, atingiria rapidamente o colapso num estado de
densidade muito grande. Em 1913, o cientista dinamarquês Niels Bohr
encontrou uma solução parcial para o problema. Bohr sugeriu que talvez os
electrões não orbitassem a uma distância qualquer do núcleo central, mas
apenas a certas distâncias específicas. Se também supuséssemos que um ou
dois electrões podiam orbitar a qualquer uma dessas distâncias, estaria
resolvido o problema do colapso do átomo, porque os electrões não poderiam
mover-se para dentro em espiral senão para preencher órbitas com menores
distâncias e energias.
O modelo explicava bastante bem a estrutura do átomo mais simples, o
hidrogénio, que tem apenas um electrão em órbita à volta do núcleo. Mas
continuava a não ser claro como aplicá-lo a átomos mais complicados. Além
disso, a ideia de um conjunto limitado de órbitas permitidas parecia muito
arbitrária. A nova teoria da mecânica quântica resolveu esta dificuldade.
Revelou que um electrão em órbita à volta do núcleo podia ser considerado
como uma onda, com um comprimento que dependia da sua velocidade. O
comprimento de certas órbitas corresponderia a um número inteiro (em
oposição a um número fraccionário) de comprimentos de onda do electrão.
Para estas órbitas, a crista da onda estaria na mesma posição em cada volta, de
modo que as ondas se adicionariam: corresponderiam às órbitas permitidas de
Bohr. Contudo, para órbitas cujos comprimentos não eram um número inteiro
de comprimentos de onda, cada crista seria eventualmente anulada por uma
cava quando os electrões dessem a volta; essas órbitas não seriam permitidas.
Uma boa maneira de visualizar a dualidade onda/partícula é a chamada soma
sobre histórias apresentada pelo cientista americano Richard Feynman. Nesta
apresentação do problema, a partícula não tem uma única história ou
trajectória no espaço-tempo, como teria numa teoria clássica não quântica. Em
vez disso, deverá ir de A para B :, por todas as trajectórias possíveis. A cada
trajectória estão associados dois números: um representa o tamanho da onda
(4) e o outro a sua fase (ou seja, se se trata de uma crista ou de uma cava). A
probabilidade de ir de A para B encontra-se somando as ondas para todas as
trajectórias. Em geral, se compararmos um conjunto de trajectórias vizinhas,
as fases ou posições no ciclo apresentarão grandes diferenças. Isto significa
que as ondas associadas a essas trajectórias se anulam umas às outras quase
exactamente. Contudo, para alguns conjuntos de trajectórias vizinhas, a fase
não varia muito entre elas. As ondas para estas trajectórias não se anulam. São
essas as trajectórias que correspondem às órbitas permitidas de Bohr.
(4) O comprimento de onda (*N. do R.*).
Com estas ideias, numa formulação matemática concreta, foi relativamente
fácil calcular as órbitas permitidas em átomos mais complicados e até em
moléculas, constituídas por um número de átomos unidos por electrões que
partilham mais de um núcleo. Uma vez que a estrutura das moléculas e as suas
reacções mútuas estão na base de toda a química e de toda a biologia, a
mecânica quântica permite-nos, em princípio, predizer quase tudo o que
vemos à nossa volta, dentro dos limites impostos pelo princípio da incerteza.
(Contudo, na prática, os cálculos necessários para sistemas que contenham
mais do que alguns electrões são tão complicados que não podemos fazê-los).
A teoria da relatividade geral de Einstein parece governar a estrutura do
Universo a grande escala. É uma teoria clássica, ou seja, não faz caso do
princípio da incerteza da mecânica quântica, como devia, para consistência
com outras teorias. O motivo pelo qual isto não leva a qualquer discrepância
com a observação é que todos os campos gravitacionais que normalmente
encontramos são muito fracos. Contudo, os teoremas sobre singularidades :,
de que falámos atrás indicam que o campo gravitacional devia tornar-se muito
forte em pelo menos duas situações: os buracos negros e o *big bang*. Em
campos tão fortes como esses, os efeitos da mecânica quântica deviam ser
importantes. Assim, em certo sentido, a relatividade geral clássica, ao predizer
pontos de densidade infinita, prediz a sua própria ruína, tal como a mecânica
clássica (ou seja, não quântica) predisse a sua ruína, sugerindo que os átomos
haviam de colapsar em pontos de densidade infinita. Não temos ainda uma
teoria consistente completa que unifique a relatividade geral e a mecânica
quântica, mas conhecemos algumas das características que deveria possuir. As
consequências que isto teria para os buracos negros e para o *big bang* serão
descritas nos capítulos finais. Por agora, porém, volveremos a nossa atenção
para as tentativas recentes de compreensão das outras forças da natureza: a
teoria quântica unificada.
V. As Partículas Elementares
e as Forças da Natureza
Aristóteles acreditava que toda a matéria do Universo era constituída por
quatro elementos fundamentais: terra, ar, fogo e água (1). Estes elementos
sofriam o efeito de duas forças: a gravidade (tendência da terra e da água para
descerem) e a volatilidade (tendência do ar e do fogo para subirem) (2). Esta
divisão do conteúdo do Universo em matéria e forças ainda hoje é utilizada.
(1) Cf. a nota da página 28 (*N. do R.*).
(2) O movimento da oitava esfera, a esfera das fixas, comunicava-se à esfera
da Lua. O movimento da Lua, por sua vez, causava, por fricção, a mistura dos
quatro elementos que compunham o mundo sublunar. Assim, o movimento da
oitava esfera era responsável pelo movimento no sentido lato aristotélico: pela
génese e pela corrupção (*N. do R.*).
Aristóteles acreditava também que a matéria era contínua, ou seja, que se
podia dividir um pedaço de matéria em bocadinhos cada vez mais pequenos,
sem limite: nunca se chegava a um grão de matéria que não pudesse ser
dividido mais uma vez. Alguns gregos, no entanto, como Demócrito,
asseguravam que a matéria era granulosa e que tudo era constituído por
grandes quantidades de várias espécies de átomos. (A palavra *átomo*
significa em grego :, "indivisível"). Durante séculos, a discussão manteve-se,
sem qualquer prova efectiva para qualquer dos lados, mas em 1803 o químico
e físico britânico John Dalton chamou a atenção para o facto de os compostos
químicos se combinarem sempre em certas proporções, o que só podia
explicar-se pelo agrupamento de átomos em unidades chamadas moléculas.
Contudo, a discussão entre as duas escolas só foi resolvida a favor dos
atomistas nos primeiros anos do século XX. Uma das provas foi fornecida por
Einstein. Num artigo escrito em 1905, algumas semanas antes do famoso
trabalho sobre a relatividade restrita, Einstein demonstrou que aquilo a que se
chamava o movimento browniano -- o movimento irregular e ocasional de
pequenas partículas de poeira suspensas num líquido -- podia ser explicado
como o efeito da colisão das partículas (3) do líquido com os grãos de poeira.
(3) Átomos no original (*N. do R.*).
Por essa altura, havia já suspeitas de que os átomos não eram, afinal,
indivisíveis. Alguns anos antes, um membro do corpo directivo do Trinity
College, de Cambridge, J. J. Thomson, tinha demonstrado a existência de uma
partícula de matéria, chamada electrão, que tinha uma massa de cerca de um
milionésimo da do átomo mais leve. Utilizou o que se parecia muito com um
moderno aparelho de televisão: um filamento de metal aquecido ao rubro
emitia electrões e, como estes têm uma carga eléctrica negativa, podia ser
usado um campo eléctrico para os acelerar em direcção a um alvo revestido de
fósforo. Quando atingiam o alvo produziam clarões de luz. Depressa se
compreendeu que esses electrões deviam vir dos próprios átomos, e em 1911 o
físico britânico Ernest Rutherford mostrou finalmente que os átomos têm
realmente uma estrutura interna: são constituídos por um núcleo incrivelmente
pequeno e de carga positiva, em torno do qual orbitam :, os electrões. Chegou
a esta dedução analisando a maneira como as partículas alfa, de carga positiva,
emitidas por átomos radioactivos, são deflectidas quando colidem com os
átomos.
Inicialmente, pensava-se que o núcleo do átomo era constituído por electrões e
diferentes quantidades de uma partícula de carga positiva chamada protão (da
palavra grega que significa "primeiro"), porque se julgava tratar-se da unidade
fundamental da matéria. Contudo, em 1932, um colega de Rutherford, em
Cambridge, James Chadwick, descobriu que o núcleo continha outra partícula,
chamada neutrão, que tinha praticamente a massa do protão, mas não tinha
carga eléctrica. Chadwick recebeu o prémio Nobel pela sua descoberta e foi
eleito Reitor da Faculdade de Gonville e Caius da Universidade de Cambridge
(faculdade de cujo corpo directivo faço actualmente parte). Mais tarde, pediu a
demissão desse cargo, por desentendimentos com os membros da direcção.
Tinha havido uma amarga discussão na faculdade desde que um grupo de
jovens directores regressados da guerra se tinham juntado para, por votação,
retirar muitos dos velhos membros da direcção dos cargos que ocupavam há
muito tempo. Isto passou-se antes do meu tempo, pois entrei para a faculdade
em 1965, já na recta final de todo o mal-estar, quando desentendimentos
semelhantes forçaram outro detentor do prémio Nobel, Sir Nevill Mott, a pedir
a demissão.
Até há vinte anos atrás, pensava-se que protões e neutrões eram partículas
"elementares", mas experiências em que se fez colidir protões com outros
protões ou com electrões, a grandes velocidades, revelaram que eram, de
facto, constituídos por partículas mais pequenas. Estas partículas receberam o
nome de *quarks*, dado pelo físico do Caltech (4), Murray Gell-Mann, que
recebeu o prémio :, Nobel em 1969 por esse seu trabalho. A origem do nome é
uma citação enigmática do escritor James Joyce: "Three quarks for Muster
Mark!" (5). A palavra *quark* devia pronunciar-se como *quart*, mas com
um *k* no fim em vez de *t*, embora seja geralmente utilizada para rimar
com lark (6).
(4) Instituto de Tecnologia da Califórnia (*N. do T.*).
(5) "três litros para o patrão mark!" (*n. do t.*)
(6) cotovia ou farsa (*n. do t.*)
Há muitas variedades de quarks: pensa-se que existem pelo menos seis
"sabores" a que chamamos "acima" (*up*), "abaixo" (*down*), "estranho"
(*strange*), "encantado" (*charmed*), "fundo" (*bottom*) e "cimo" (*top*).
Cada sabor surge em três "cores": vermelho, verde e azul. (Deve acentuar-se
que estes termos não passam de rótulos; os quarks são muito mais pequenos
do que o comprimento de onda da luz visível e, portanto, não têm qualquer cor
no sentido normal da palavra. O que acontece é que os físicos modernos
parece terem arranjado maneiras mais imaginativas de baptizar novas
partículas e fenómenos -- já não ficam agarrados ao grego! Um protão ou um
neutrão é constituído por três quarks, um de cada cor. Um protão contém dois
quarks *up* e um *down*; um neutrão contém dois *down* e um *up*.
Podemos criar partículas constituídas pelos outros quarks (*strange, charmed,
bottom* e *top*), mas têm todas uma massa muito maior e decaem muito
depressa em protões e neutrões.
Sabemos agora que nem os átomos nem os protões e nem os neutrões são
indivisíveis. Portanto, a pergunta que se impõe é: quais são as partículas
verdadeiramente elementares, os blocos de construção fundamentais a partir
dos quais tudo é feito? Uma vez que o comprimento de onda da luz [visível] é
muito maior do que o tamanho de um átomo, não podemos esperar "olhar"
para as partes de um átomo no sentido comum. Temos de usar qualquer :,
coisa com um comprimento de onda muito mais pequeno. Como vimos no
capítulo anterior, a mecânica quântica diz-nos que todas as partículas são na
realidade ondas e que, quanto mais elevada for a energia de uma partícula,
menor é o comprimento de onda correspondente. Portanto, a melhor resposta
que podemos dar à pergunta depende da quantidade de energia de que
dispomos, porque é isso que determina a pequenez da escala a que podemos
observá-la. As energias destas partículas são geralmente medidas em unidades
chamadas electrão-volt. (Nas experiências de Thomson com electrões, vimos
que ele utilizou um campo eléctrico para acelerar os electrões. A energia que
um electrão ganha num campo eléctrico de um volt é um electrão-volt). No
século XIX, quando as ú nicas energias de partículas que as pessoas sabiam
utilizar eram as energias fracas de uns meros electrões-volt geradas nas
reacções químicas, tais como a reacção que se processa numa chama, pensavase
que os átomos eram as unidades mais pequenas de todas. Na experiência de
Rutherford, as partículas tinham energias de milhões de electrões-volt. Mais
recentemente, aprendemos como utilizar campos electromagnéticos para dar
às partículas energias de, ao princípio, milhões e, depois, milhares de milhões
de electrões-volt. E assim sabemos que partículas que há vinte anos
pensávamos serem "elementares" são, na realidade, constituídas por partículas
mais pequenas. Será que estas, à medida que temos acesso a maiores energias
serão, por sua vez, reconhecidas como sendo formadas por partículas ainda
mais pequenas? É absolutamente possível, mas há algumas razões teóricas
para crer que temos, ou estamos muito perto de ter um conhecimento dos
blocos fundamentais de construção da natureza.
Utilizando a dualidade onda/partícula discutida no capítulo anterior, tudo no
Universo, incluindo a luz e a gravidade, pode ser descrito em termos de
partículas. Estas partículas :, têm uma característica chamada *spin*. Uma
maneira de pensar no spin é imaginar as partículas como pequenos piões a
girar em torno de um eixo. Contudo, isso pode ser enganador, porquanto a
mecânica quântica nos diz que as partículas não têm qualquer eixo bem
definido. O que o spin de uma partícula nos diz na realidade é qual o aspecto
da partícula de diferentes lados. Uma partícula de spin 0 é como um ponto:
tem o mesmo aspecto vista de qualquer lado (Fig. 5.1-i). Por outro lado, uma
partícula de spin 1 é como uma seta: parece diferente de todos os lados (Fig.
5.1-ii); só se a fizermos rodar 360 graus é que a partícula retoma o mesmo
aspecto. Uma partícula de spin 2 parece-se com uma seta de duas pontas (Fig.
5.1-iii). Tem o mesmo aspecto se a fizermos dar meia volta (180 graus). Do
mesmo modo, partículas de spin mais elevado têm o mesmo aspecto se as
fizermos girar fracções mais pequenas de um giro de 360 graus. Tudo isto
parece muito simples, mas o facto que é notável é existirem partículas que não
têm o mesmo aspecto se as fizermos dar apenas uma rotação: temos de as
obrigar a executar duas rotações completas! Diz-se que estas partículas têm
spin 1/2.
fig. 5.1
Todas as partículas conhecidas no Universo podem ser divididas em dois
grupos: partículas de spin 1/2, que constituem a matéria do Universo, e
partículas de spin 0, 1 e 2, que, como veremos, dão origem a forças entre as
partículas de matéria. As partículas de matéria obedecem ao que se chama o
princípio da exclusão de Pauli. Este princípio foi descoberto em 1925 por um
físico austríaco, Wolfgang Pauli, pelo que recebeu o prémio Nobel em 1945.
Era o arquétipo do físico teórico: dizia-se dele que a sua mera presença numa
cidade faria com que todas as experiências aí realizadas resultassem mal! O
princípio da exclusão de Pauli diz que duas partículas semelhantes não podem
existir no mesmo estado, ou seja, não podem ter ambas a mesma posição e a
mesma velocidade, dentro dos :, limites do princípio da incerteza. O princípio
da exclusão é crucial porque explica o motivo pelo qual as partículas de
matéria não colapsam num estado de densidade muito elevada sob a influência
das forças transmitidas pelas partículas de spin 0, 1 e 2: se as partículas de
matéria tiverem praticamente as mesmas posições, têm de ter velocidades
diferentes, o que significa que não permanecerão na mesma posição durante
muito tempo. Se o mundo tivesse sido criado sem o princípio da exclusão, os
quarks não formariam protões e neutrões separados e bem definidos. Nem
estes, juntamente com os electrões, formariam átomos separados e bem
definidos. Sofreriam todos colapso, formando um "caldo" espesso e
grosseiramente uniforme.
A verdadeira compreensão do electrão e de outras partículas de spin 1/2 só foi
atingida em 1928, quando Paul Dirac, que mais tarde foi eleito professor
Lucasiano de Matemática em Cambridge (o mesmo curso que Newton regeu e
de que eu agora sou responsável), apresentou uma teoria. A teoria de Dirac foi
a primeira no género consistente tanto com a mecânica quântica como com a
teoria :, da relatividade restrita. Explicou matematicamente por que motivo o
electrão tinha spin 1/2, ou seja, por que é que não tinha o mesmo aspecto se o
fizéssemos dar uma rotação completa, mas tinha ao fim de dois giros.
Também predisse que o electrão devia ter um companheiro, o anti-electrão ou
positrão. A descoberta do positrão, em 1932, confirmou a teoria de Dirac e
levou a que fosse galardoado com o prémio Nobel da Física em 1933.
Sabemos hoje que toda a partícula tem uma antipartícula, com a qual pode
aniquilar-se. (No caso de partículas portadoras de força, as antipartículas
coincidem com as próprias partículas). Podia haver antimundos e antipessoas
feitos de antipartículas. Contudo, se encontrar o seu anti-eu, não lhe aperte a
mão. Desapareceriam ambos num grande clarão de luz. A questão de parecer
haver mais partículas do que antipartículas à nossa volta é extremamente
importante, e voltarei ao assunto ainda neste capítulo.
Na mecânica quântica, as forças ou interacções entre partículas de matéria
devem ser todas transmitidas por partículas de spin inteiro: 0, 1 ou 2. O que
acontece é que uma partícula de matéria como um electrão ou um quark emite
uma partícula que transmite força. O recuo (7) provocado por esta emissão
muda a velocidade da partícula. A partícula portadora de força colide então
com outra partícula de matéria e é absorvida. Esta interacção altera [também]
:, a velocidade da segunda partícula, como se se tivesse manifestado uma força
entre as duas partículas.
(7) O "recuo" ou o "avanço", consoante a força seja repulsiva ou atractiva. Há
uma ideia muito intuitiva sobre estas partículas portadoras de força. Imaginese
dois patinadores no gelo que seguem lado a lado e suponha que num dado
momento eles decidem arremessar pedras um ao outro: separam-se por efeito
do recuo e, para um observador para o qual as pedras fossem invisíveis, tudo
se passa como se eles se repelissem por intermédio de uma força. No caso dos
patinadores se decidirem a arremessar bumerangues em vez de pedras, o efeito
seria inverso, aproximar-se-iam como que sujeitos a uma força atractiva
mediada pelos bumerangues (*N. do R.*).
Uma propriedade importante das partículas portadoras de força é não
obedecerem ao princípio da exclusão. Isto significa que não há limite para o
número que pode ser permutado e, por isso, podem originar uma força intensa.
Contudo, se as partículas portadoras de força tiverem uma grande massa, será
difícil produzi-las e permutá-las ao longo de um trajecto grande. Portanto, as
forças que transmitem terão apenas um alcance limitado. Por outro lado, se as
partículas que transmitem força não tiverem massa própria, as forças serão de
longo alcance. As partículas que transportam força entre partículas de matéria
chamam-se partículas virtuais porque, ao contrário das partículas "reais", não
podem ser detectadas directamente por um detector de partículas. Sabemos
contudo que existem porque têm um efeito mensurável: originam forças entre
partículas de matéria. Partículas de spin 0, 1 ou 2 também existem em algumas
circunstancias como partículas reais, quando podem ser detectadas
directamente. Surgem-nos então como o que um físico clássico chamaria
ondas, tais como ondas de luz ou de gravitação. Podem, por vezes, ser
emitidas quando as partículas de matéria interagem trocando partículas
virtuais que transportam força. (Por exemplo, a força de repulsão eléctrica
entre dois electrões (8) é devida à troca de fotões virtuais, que nunca podem
ser detectados directamente; mas, se um electrão passa por outro, podem ser
emitidos fotões reais que detectamos como ondas luminosas.
(8) Electrões estacionários (*N. do R.*).
As partículas que transportam força (9) podem ser agrupadas em quatro
categorias, de acordo com a intensidade :, da força e as partículas alvo. Deve
acentuar-se que esta divisão em quatro classes é elaborada pelo Homem, por
ser conveniente para a construção de teorias parciais, mas não pode
corresponder a qualquer coisa de mais profundo.
(9) Partículas que transmitem ou transportam força também são designadas
por mediadoras (*N. do R.*).
O que a maior parte dos físicos espera encontrar é uma teoria unificada que
explique as quatro forças como diferentes manifestações de uma única força.
Na realidade, muitos diriam que actualmente é esse o objectivo principal da
física. Recentemente, foram efectuadas tentativas coroadas de êxito para
unificar três das quatro categorias de forças -- que descreverei neste capítulo.
A questão da unificação da outra categoria, a gravitação, será deixada para
mais tarde.
A primeira categoria é a força de gravitação. Esta força é universal, ou seja,
todas as partículas a sentem, conforme a sua massa ou energia. A gravidade é,
de longe, a mais fraca das quatro forças; é tão fraca que nem daríamos por ela,
se não fossem duas propriedades especiais: pode agir a grandes distâncias e é
sempre atractiva, o que significa que as forças de gravitação fraquíssimas que
actuam entre as partículas individuais em dois corpos grandes, como a Terra e
o Sol, podem somar-se para produzir uma força significativa. As outras três
forças são ou de curto alcance, ou por vezes atractivas e por vezes repulsivas,
tendendo a anular-se. Segundo a maneira como a mecânica quântica encara o
campo gravitacional, a força entre duas partículas de matéria é representada
como sendo transportada por uma partícula de spin 2, chamada gravitão. Este
não tem massa própria, de modo que a força que transmite é de longo alcance.
A força gravitacional entre o Sol e a Terra é atribuída à troca de gravitões
entre as partículas que constituem estes dois corpos. Embora as partículas
permutadas sejam virtuais, produzem realmente um efeito mensurável: fazem
com que a Terra orbite em torno do Sol! Os gravitões reais provocam aquilo a
que os físicos :, clássicos chamariam ondas gravitacionais que são muito
fracas e tão difíceis de detectar que nunca foram observadas.
A categoria seguinte é a força electromagnética, que interactua com partículas
carregadas de electricidade como os electrões e os quarks, mas não com
partículas sem carga, como os gravitões. É muito mais forte que a força de
gravitação: a força electromagnética entre dois electrões é de cerca de um
milhão de milhões de milhões de milhões de milhões de milhões de milhões (1
seguido de quarenta e dois zeros) de vezes maior do que a força de gravitação.
Contudo, há duas espécies de carga eléctrica: positiva e negativa. A força
entre duas cargas positivas é repulsiva, tal como a força entre duas cargas
negativas, mas entre uma carga negativa e uma carga positiva a força é
atractiva. Um corpo grande, como a Terra ou o Sol, contém quase o mesmo
número de cargas positivas e negativas. Assim, as forças atractivas e
repulsivas entre partículas individuais quase que se anulam e há pouquíssima
força electromagnética disponível. No entanto, nas pequenas escalas dos
átomos e das moléculas, as forças electromagnéticas dominam. A atracção
electromagnética entre electrões de carga negativa e protões de carga positiva
no núcleo obriga os electrões a orbitarem em torno do núcleo do átomo, tal
como a atracção gravitacional obriga a Terra a girar à volta do Sol. A atracção
electromagnética é vista como sendo causada pela troca de grande número de
partículas virtuais sem massa, de spin 1, chamadas fotões. De novo, os fotões
trocados são partículas virtuais. Contudo, quando um electrão transita de uma
órbita possível para outra [também permitida] mais próxima do núcleo, é
libertada energia e é emitido um fotão real que pode ser observado pela vista
humana como luz visível, se tiver o comprimento de onda certo, ou por um
detector de fotões como um filme fotográfico. Da mesma maneira, se um :,
fotão real colidir com um átomo, pode deslocar um electrão de uma órbita
mais próxima do núcleo para outra mais afastada. Isto gasta a energia do
fotão, que é absorvido.
A terceira categoria chama-se força nuclear fraca e é responsável pela
radioactividade, agindo sobre todas as partículas de matéria de spin 1/2 mas
não sobre partículas de spin 0, 1 ou 2, como os fotões ou os gravitões. A força
nuclear fraca não foi bem compreendida antes de 1967, quando Abdus Salam,
no Imperial College de Londres, e Steven Weinberg, em Harvard, propuseram
teorias que unificavam esta interacção com a força electromagnética, tal como
Maxwell tinha unificado a electricidade e o magnetismo cerca de cem anos
antes. Sugeriram que, para além do fotão, havia outras três partículas de spin
1, conhecidas colectivamente por bosões vectoriais maciços que transmitiam a
força fraca. Foram chamados W+ (pronuncia-se W mais), W- (pronuncia-se W
menos) e Z0 (pronuncia-se Z zero), e cada um tinha uma massa de cerca de
100 GeV (GeV significa giga-electrão-volt, ou mil milhões de electrões-volt).
A teoria de Weinberg e Salam exibe uma propriedade conhecida por quebra
espontânea de simetria. Significa que aquilo que parece ser um número de
partículas completamente diferentes a baixas energias não passa do mesmo
tipo de partícula, mas em estados diferentes. A altas energias todas estas
partículas se comportam de modo semelhante. O efeito é muito parecido com
o de uma bolinha de roleta a girar. A altas energias (quando a roleta gira
rapidamente), a bolinha tem o mesmo comportamento: não pára de girar. Mas,
quando a roleta vai abrandando, a energia da bolinha diminui e acaba por fazêla
cair numa das trinta e sete depressões da roleta. Por outras palavras, a
energias baixas há trinta e sete estados diferentes em que a bolinha pode
existir. Se, por qualquer razão, só pudéssemos observar a bolinha a baixas :,
energias, pensaríamos que havia trinta e sete tipos diferentes de bolinhas!
Na teoria de Weinberg e Salam, a energias muito maiores que 100 GeV, as
três novas partículas e o fotão comportar-se-iam todos da mesma maneira.
Mas às energias mais baixas que ocorrem na maioria das situações normais,
esta simetria entre as partículas seria desfeita. W+, W- e Z0 ficariam com
grandes massas, fazendo com que as forças que transportam tivessem um
alcance muito curto. Na altura em que Weinberg e Salam propuseram a sua
teoria, poucas pessoas acreditaram neles, e os aceleradores de partículas não
eram suficientemente potentes para alcançar energias de 100 GeV necessárias
para produzir partículas W+, W- ou Z0 reais. Contudo, durante os dez anos
seguintes, mais ou menos, as outras predições da teoria a energias mais baixas
coincidiam de tal maneira com as experiências que, em 1979, Weinberg e
Salam receberam o prémio Nobel da Física, juntamente com Sheldon
Glashow, de Harvard, que tinha sugerido teorias unificadas semelhantes para
as forças electromagnética e nuclear fraca. A comissão Nobel foi poupada a
um erro embaraçoso com a descoberta, em 1983, no CERN (Centro Europeu
de Pesquisa Nuclear) dos três parceiros maciços do fotão, com massas e outras
propriedades correctamente preditas. Carlo Rubbia, que dirigiu a equipa de
várias centenas de físicos que fizeram a descoberta, recebeu o prémio Nobel
em 1984, juntamente com Simon Van der Meer, o engenheiro do CERN que
tinha desenvolvido o sistema utilizado para armazenar antimatéria. (É muito
difícil hoje em dia marcar pontos em física experimental, a não ser que já se
esteja no topo!)
A quarta categoria é a força nuclear forte, que mantém os quarks unidos no
protão e no neutrão, e mantém os protões e os neutrões juntos no núcleo de um
átomo. Crê-se que esta força é transmitida por uma outra partícula de :, spin 1,
chamada gluão, que interactua só consigo própria e com os quarks. A força
nuclear forte tem uma propriedade curiosa chamada confinamento que
mantém as partículas sempre unidas em combinações sem cor. Não se pode ter
um quark isolado, porque teria cor (vermelho, verde ou azul). Em vez disso,
um quark vermelho tem de estar junto a um verde e a um azul por uma
"corda" de gluões (vermelho + verde + azul = branco). Este tripleto constitui
um protão ou um neutrão. Outra possibilidade e um par formado por um quark
e um antiquark (vermelho + antivermelho, ou verde + antiverde, ou azul +
anti-azul = branco). Estas combinações constituem as partículas conhecidas
por mesões, que são instáveis porque um quark e um antiquark podem
aniquilar-se originando electrões ou outras partículas. Do mesmo modo, o
confinamento evita que se tenha um único gluão, porque os gluões também
têm cor. Em vez disso, é preciso ter um conjunto de gluões, cujas cores juntas
produzam o branco. Esse conjunto forma uma partícula instável ehamada
*glueball (10).
(10) Bola de grude (*N. do T.*).
O facto de o confinamento não permitir que se observe um quark ou um gluão
isolados podia fazer crer que os quarks e os gluões são partículas um tanto
metafísicas. No entanto, há outra propriedade da força nuclear forte, chamada
liberdade assimptótica, que torna o conceito de quark e gluão bem definido. A
energias normais, a força nuclear forte é realmente forte e mantém os quarks
unidos. Contudo, experiências com grandes aceleradores de partículas indicam
que a energias elevadas a força forte se torna muito mais fraca, e os quarks e
os gluões comportam-se quase como partículas livres. A Fig. 5.2 mostra uma
fotografia de uma colisão entre um protão e um antiprotão a alta energia.
Foram produzidos vários :, quarks quase livres que deram origem aos "jactos"
de trajectórias vistos na fotografia.
Fig. 5.2. Um protão e um antiprotão colidem com energia elevada e produzem
um par de *quarks* quase livres
O êxito da unificação das forças electromagnética e nuclear fraca levou a
várias tentativas para combinar estas duas forças com a força nuclear forte
naquilo a que se chamou teoria da grande unificação ou GUT (11). Este título
é um tanto exagerado: as teorias resultantes não são assim tão grandes, nem
completamente unificadas, porque não incluem a gravidade. Nem são teorias
realmente completas, porque contêm um número de parâmetros cujos valores
não podem ser preditos a partir da teoria, mas têm de ser escolhidos para se
harmonizarem com as experiências. Apesar disso, podem ser um passo no
sentido de uma teoria completa, totalmente unificada.
(11) *Grand Unification Theories* (*N. do T.*).
A ideia fundamental das :, GUTs é a seguinte: como já foi mencionado, a
força nuclear forte torna-se mais fraca a altas energias. Por outro lado, as
forças electromagnéticas e nuclear fraca, que não são assimptoticamente
livres, tornam-se mais fortes a energias altas. A determinada energia muito
alta, chamada a energia da grande unificação, essas três forças teriam todas a
mesma intensidade e poderiam, portanto, ser apenas diferentes aspectos de
uma única força. As GUTs predizem também que, a essa energia, as diferentes
partículas de matéria de spin 1/2, como os quarks e os electrões, seriam
essencialmente as mesmas, obtendo-se assim outra unificação.
O valor da energia da grande unificação não se conhece muito bem, mas teria
provavelmente de ser pelo menos mil milhões de milhões de GeV. Os actuais
aceleradores de partículas podem fazer colidir partículas a energias de cerca
de algumas centenas de GeV e estão planeadas máquinas que elevarão esta
energia a alguns milhares de GeV. Mas uma máquina suficientemente potente
para acelerar partículas até à energia da grande unificação teria de ser tão
grande como o sistema solar -- e seria pouco provável haver fundos para ela
no actual contexto económico. Portanto, é impossível testar directamente em
laboratório teorias da grande unificação. No entanto, tal como no caso da
teoria da unificação electromagnética e fraca, há consequências a baixas
energias que podem ser testadas.
A mais interessante é a predição de que os protões, que constituem grande
parte da massa da matéria vulgar, podem decair espontaneamente em
partículas mais leves como os positrões. Tal é possível porque na energia da
grande unificação não há qualquer diferença essencial entre um quark e um
electrão. Os três quarks dentro de um protão não têm normalmente energia
suficiente para se transformarem em positrões mas muito ocasionalmente um
:, deles pode adquirir energia suficiente para provocar a transição, porque o
princípio da incerteza significa que a energia dos quarks dentro do protão não
pode ser exactamente fixada. O protão decairia. A probabilidade de um quark
adquirir energia suficiente é tão pequena que o mais provável é termos de
esperar pelo menos um milhão de milhões de milhões de milhões de milhões
de anos (1 seguido de trinta zeros), o que é muito superior ao tempo que
passou desde o *bib bang*, que aconteceu mais ou menos há uns meros dez
mil milhões de anos (1 seguido de dez zeros). Portanto, poderíamos pensar
que a possibilidade de decaimento espontâneo do protão não poderia ser
testada através de experiências. Contudo, podemos aumentar as nossas
hipóteses de detectar um decaimento observando uma grande porção de
matéria que contenha um grande número de protões. (Se, por exemplo, se
observar um número de protões igual a 1 seguido de trinta e um zeros, durante
o período de um ano, será de esperar, segundo a mais simples GUT, poder
observar-se mais do que o decaimento de um protão).
Várias experiências deste género têm sido feitas, mas nenhuma forneceu ainda
provas convincentes do decaimento de protões ou neutrões. Uma experiência
com oito mil toneladas de água foi realizada na Mina de Sal Morton, no Ohio
(para evitar que acontecessem outros fenómenos causados por raios cósmicos,
que podiam ser confundidos com o decaimento dos protões). Uma vez que não
foi observado qualquer decaimento espontâneo durante a experiência,
podemos calcular que a vida provável do protão deve ser maior que dez
milhões de milhões de milhões de milhões de milhões de anos (1 seguido de
trinta e um zeros). Este número é superior ao tempo de vida previsto pela
teoria da grande unificação mais simples, mas existem teorias mais
elaboradas, nas quais os tempos de vida previstos são mais longos. Serão
precisas experiências ainda :, mais sensíveis, com quantidades ainda maiores
de matéria para as testar.
Embora seja muito difícil observar o decaimento espontâneo do protão, pode
ser que a nossa própria existência seja uma consequência do processo
contrário, a produção de protões, ou mais simplesmente de quarks a partir de
uma situação inicial em que não havia mais quarks do que antiquarks que é a
maneira mais natural de imaginar o começo do Universo. A matéria na Terra é
constituída principalmente por protões e neutrões, que, por seu turno, são
constituídos por quarks. Não há antiprotões, nem antineutrões, constituídos a
partir de antiquarks, excepto aqueles que são produzidos pelos físicos em
grandes aceleradores de partículas. Temos provas, a partir de raios cósmicos,
de que o mesmo se passa com a matéria da Galáxia: não estão presentes
antiprotões ou antineutrões, para além de um pequeno número de pares de
partícula/antipartícula obtidos em colisões de alta energia. Se houvesse
grandes regiões de antimatéria na Galáxia, esperaríamos ver grandes
quantidades de radiação provenientes do contacto entre as regiões de matéria e
antimatéria, onde muitas partículas estariam a colidir com as suas
antipartículas, aniquilando-se mutuamente e emitindo radiação de alta energia.
Não temos qualquer prova directa sobre se a matéria nas outras galáxias é
constituída por protões e neutrões ou antiprotões e antineutrões, mas tem de
ser uma coisa ou outra: não pode haver uma mistura numa única galáxia
porque nesse caso observaríamos uma grande quantidade de radiação
proveniente de aniquilações. Além disso, cremos que todas as galáxias são
compostas de quarks e não de antiquarks; não parece plausível que algumas
galáxias sejam de matéria e outras de antimatéria.
Por que haverá mais quarks que antiquarks? Por que não há um número igual
de cada? É certamente uma sorte :, para nós os números não serem iguais
porque, se fossem, quase todos os quarks e antiquarks se teriam aniquilado
mutuamente no princípio do Universo, deixando-o cheio de radiação mas com
muito pouca matéria. Não teria então havido galáxias, estrelas ou planetas
onde a vida humana se viesse a desenvolver. Felizmente, as teorias da grande
unificacão podem dar uma explicação do motivo pelo qual o Universo deve
conter agora mais quarks do que antiquarks, mesmo que tenha começado com
um número igual de ambos. Como vimos, as GUTs admitem a mudança de
quarks em positrões a altas energias. E também admitem o processo contrário,
antiquarks a transformarem-se em electrões, e electrões e positrões a
transformarem-se em antiquarks e quarks. Houve um tempo, logo no princípio
do Universo, em que havia tanto calor que as energias das partículas seriam
suficientemente elevadas para estas transformações ocorrerem. Mas por que
havia isso de produzir mais quarks do que antiquarks? A razão está em que as
leis da física não são exactamente as mesmas para as partículas e para as
antipartículas.
Até 1956, acreditava-se que as leis da física obedeciam a três simetrias
separadas, designadas C, P e T. A simetria C significa que as leis são as
mesmas para partículas e antipartículas. A simetria P significa que as leis são
as mesmas para qualquer situação e a sua imagem num espelho (a imagem
num espelho de uma partícula rodando sobre si mesma num sentido é a de
uma partícula que gira no outro sentido). A simetria T significa que, se
invertermos o sentido do movimento de todas as partículas e antipartículas, o
sistema deveria voltar a ser o que era nos seus primórdios; por outras palavras,
as leis são as mesmas para diante e para trás no tempo.
Em 1956, dois físicos americanos, Tsung-Dao Lee e Chen Ning Yang,
sugeriram que a força fraca não obedece :, à simetria P. Por outras palavras, a
força fraca faria com que o universo se desenvolvesse de um modo diferente
da sua imagem no espelho. No mesmo ano, uma colega, Chien-Shiung Wu,
provou que esta teoria estava correcta. Ela conseguiu-o alinhando núcleos de
átomos radioactivos num campo magnético de modo a ficarem todos a girar
sobre si mesmos no mesmo sentido, e mostrou que os electrões eram
produzidos mais num sentido do que no outro. No ano seguinte, Lee e Yang
receberam o prémio Nobel. Descobriu-se também que a força fraca não
obedecia à simetria C. Ou seja, originaria um universo composto de
antipartículas que se comportaria de maneira diferente da do nosso Universo.
Não obstante, parecia que a força fraca obedecia realmente à simetria
composta CP. Ou seja, o universo desenvolver-se-ia da mesma maneira que a
sua imagem num espelho se, além disso, cada partícula fosse trocada pela sua
antipartícula! Contudo, em 1964, mais dois americanos, J. W. Cronin e Val
Fitch, descobriram que mesmo a simetria CP não se verificava no decaimento
de certas partículas chamadas mesões K. Cronin e Fitch acabaram por receber
o prémio Nobel em 1980. (Muitos prémios têm sido concedidos por se mostrar
que o Universo não é tão simples como poderia pensar-se! )
Há um teorema matemático que afirma que qualquer teoria que obedeça à
mecânica quântica e à relatividade tem sempre de obedecer à simetria
composta CPT. Por outras palavras, o universo teria de comportar-se da
mesma maneira, se substituíssemos as partículas por antipartículas,
tomássemos a sua imagem no espelho e ainda se invertêssemos o sentido do
tempo. Mas Cronin e Fitch demonstraram que, se substituíssemos partículas
por antipartículas e se considerássemos a imagem no espelho, mas não
invertêssemos o sentido do tempo, o universo *não* se comportaria da mesma
maneira. As leis da física, portanto, devem :, alterar-se quando se inverte o
sentido do tempo -- não obedecem à simetria T.
Certamente que o Universo primitivo não obedece à simetria T: à medida que
o tempo passa, o Universo expande-se; se andasse para trás, o Universo ter-seia
contraído. E, como existem forças que não obedecem à simetria T, segue-se
que, enquanto o Universo se expande, essas forças podem provocar que mais
positrões se transformem em quarks do que electrões em antiquarks. Como o
Universo se expandiu e arrefeceu, os antiquarks e os quarks aniquilaram-se e
como havia mais quarks do que antiquarks, restou um pequeno excesso de
quarks. São eles que constituem a matéria que hoje vemos e da qual nós
próprios somos feitos. Assim, a nossa existência real podia ser considerada
como confirmação das teorias da grande unificação embora apenas de uma
forma qualitativa; as incertezas são tais que é impossível predizer o número de
quarks que sobreviveriam à aniquilação ou até se o que restaria seriam quarks
ou antiquarks. (Se, no entanto, o excesso fosse de antiquarks, teríamos muito
simplesmente chamado quarks aos antiquarks e vice-versa).
As teorias da grande unificação não incluem a força da gravidade. Isto não
tem muita importância, porque a gravidade é uma força tão fraca que os seus
efeitos podem geralmente ser desprezados quando lidamos com partículas
elementares ou átomos. Contudo, o facto de ser de longo alcance e sempre
atractiva significa que todos os seus efeitos se juntam. Portanto, pata um
número suficientemente grande de partículas de matéria, as forças
gravitacionais podem dominar todas as outras forças. É por isso que a
gravidade determina a evolução do Universo. Mesmo para objectos do
tamanho de estrelas, a força atractiva da gravidade pode vencer todas as outras
forças e fazer com que a estrela sofra um colapso. O meu trabalho nos anos 70
incidiu nos buracos negros que podem resultar desses :, colapsos estelares e
dos campos gravitacionais que os rodeiam. Foi isso que levou aos primeiros
indícios de como as teorias da mecânica quântica e da relatividade geral
podiam influenciar-se uma à outra um vislumbre de uma teoria quântica da
gravidade ainda por encontrar.
A primeira categoria é a força de gravitação. Esta força é universal, ou seja,
todas as partículas a sentem, conforme a sua massa ou energia. A gravidade é,
de longe, a mais fraca das quatro forças; é tão fraca que nem daríamos por ela,
se não fossem duas propriedades especiais: pode agir a grandes distâncias e é
sempre atractiva, o que significa que as forças de gravitação fraquíssimas que
actuam entre as partículas individuais em dois corpos grandes, como a Terra e
o Sol, podem somar-se para produzir uma força significativa. As outras três
forças são ou de curto alcance, ou por vezes atractivas e por vezes repulsivas,
tendendo a anular-se. Segundo a maneira como a mecânica quântica encara o
campo gravitacional, a força entre duas partículas de matéria é representada
como sendo transportada por uma partícula de spin 2, chamada gravitão. Este
não tem massa própria, de modo que a força que transmite é de longo alcance.
A força gravitacional entre o Sol e a Terra é atribuída à troca de gravitões
entre as partículas que constituem estes dois corpos. Embora as partículas
permutadas sejam virtuais, produzem realmente um efeito mensurável: fazem
com que a Terra orbite em torno do Sol! Os gravitões reais provocam aquilo a
que os físicos :, clássicos chamariam ondas gravitacionais que são muito
fracas e tão difíceis de detectar que nunca foram observadas.
A categoria seguinte é a força electromagnética, que interactua com partículas
carregadas de electricidade como os electrões e os quarks, mas não com
partículas sem carga, como os gravitões. É muito mais forte que a força de
gravitação: a força electromagnética entre dois electrões é de cerca de um
milhão de milhões de milhões de milhões de milhões de milhões de milhões (1
seguido de quarenta e dois zeros) de vezes maior do que a força de gravitação.
Contudo, há duas espécies de carga eléctrica: positiva e negativa. A força
entre duas cargas positivas é repulsiva, tal como a força entre duas cargas
negativas, mas entre uma carga negativa e uma carga positiva a força é
atractiva. Um corpo grande, como a Terra ou o Sol, contém quase o mesmo
número de cargas positivas e negativas. Assim, as forças atractivas e
repulsivas entre partículas individuais quase que se anulam e há pouquíssima
força electromagnética disponível. No entanto, nas pequenas escalas dos
átomos e das moléculas, as forças electromagnéticas dominam. A atracção
electromagnética entre electrões de carga negativa e protões de carga positiva
no núcleo obriga os electrões a orbitarem em torno do núcleo do átomo, tal
como a atracção gravitacional obriga a Terra a girar à volta do Sol. A atracção
electromagnética é vista como sendo causada pela troca de grande número de
partículas virtuais sem massa, de spin 1, chamadas fotões. De novo, os fotões
trocados são partículas virtuais. Contudo, quando um electrão transita de uma
órbita possível para outra [também permitida] mais próxima do núcleo, é
libertada energia e é emitido um fotão real que pode ser observado pela vista
humana como luz visível, se tiver o comprimento de onda certo, ou por um
detector de fotões como um filme fotográfico. Da mesma maneira, se um :,
fotão real colidir com um átomo, pode deslocar um electrão de uma órbita
mais próxima do núcleo para outra mais afastada. Isto gasta a energia do
fotão, que é absorvido.
A terceira categoria chama-se força nuclear fraca e é responsável pela
radioactividade, agindo sobre todas as partículas de matéria de spin 1/2 mas
não sobre partículas de spin 0, 1 ou 2, como os fotões ou os gravitões. A força
nuclear fraca não foi bem compreendida antes de 1967, quando Abdus Salam,
no Imperial College de Londres, e Steven Weinberg, em Harvard, propuseram
teorias que unificavam esta interacção com a força electromagnética, tal como
Maxwell tinha unificado a electricidade e o magnetismo cerca de cem anos
antes. Sugeriram que, para além do fotão, havia outras três partículas de spin
1, conhecidas colectivamente por bosões vectoriais maciços que transmitiam a
força fraca. Foram chamados W+ (pronuncia-se W mais), W- (pronuncia-se W
menos) e Z0 (pronuncia-se Z zero), e cada um tinha uma massa de cerca de
100 GeV (GeV significa giga-electrão-volt, ou mil milhões de electrões-volt).
A teoria de Weinberg e Salam exibe uma propriedade conhecida por quebra
espontânea de simetria. Significa que aquilo que parece ser um número de
partículas completamente diferentes a baixas energias não passa do mesmo
tipo de partícula, mas em estados diferentes. A altas energias todas estas
partículas se comportam de modo semelhante. O efeito é muito parecido com
o de uma bolinha de roleta a girar. A altas energias (quando a roleta gira
rapidamente), a bolinha tem o mesmo comportamento: não pára de girar. Mas,
quando a roleta vai abrandando, a energia da bolinha diminui e acaba por fazêla
cair numa das trinta e sete depressões da roleta. Por outras palavras, a
energias baixas há trinta e sete estados diferentes em que a bolinha pode
existir. Se, por qualquer razão, só pudéssemos observar a bolinha a baixas :,
energias, pensaríamos que havia trinta e sete tipos diferentes de bolinhas!
Na teoria de Weinberg e Salam, a energias muito maiores que 100 GeV, as
três novas partículas e o fotão comportar-se-iam todos da mesma maneira.
Mas às energias mais baixas que ocorrem na maioria das situações normais,
esta simetria entre as partículas seria desfeita. W+, W- e Z0 ficariam com
grandes massas, fazendo com que as forças que transportam tivessem um
alcance muito curto. Na altura em que Weinberg e Salam propuseram a sua
teoria, poucas pessoas acreditaram neles, e os aceleradores de partículas não
eram suficientemente potentes para alcançar energias de 100 GeV necessárias
para produzir partículas W+, W- ou Z0 reais. Contudo, durante os dez anos
seguintes, mais ou menos, as outras predições da teoria a energias mais baixas
coincidiam de tal maneira com as experiências que, em 1979, Weinberg e
Salam receberam o prémio Nobel da Física, juntamente com Sheldon
Glashow, de Harvard, que tinha sugerido teorias unificadas semelhantes para
as forças electromagnética e nuclear fraca. A comissão Nobel foi poupada a
um erro embaraçoso com a descoberta, em 1983, no CERN (Centro Europeu
de Pesquisa Nuclear) dos três parceiros maciços do fotão, com massas e outras
propriedades correctamente preditas. Carlo Rubbia, que dirigiu a equipa de
várias centenas de físicos que fizeram a descoberta, recebeu o prémio Nobel
em 1984, juntamente com Simon Van der Meer, o engenheiro do CERN que
tinha desenvolvido o sistema utilizado para armazenar antimatéria. (É muito
difícil hoje em dia marcar pontos em física experimental, a não ser que já se
esteja no topo!)
A quarta categoria é a força nuclear forte, que mantém os quarks unidos no
protão e no neutrão, e mantém os protões e os neutrões juntos no núcleo de um
átomo. Crê-se que esta força é transmitida por uma outra partícula de :, spin 1,
chamada gluão, que interactua só consigo própria e com os quarks. A força
nuclear forte tem uma propriedade curiosa chamada confinamento que
mantém as partículas sempre unidas em combinações sem cor. Não se pode ter
um quark isolado, porque teria cor (vermelho, verde ou azul). Em vez disso,
um quark vermelho tem de estar junto a um verde e a um azul por uma
"corda" de gluões (vermelho + verde + azul = branco). Este tripleto constitui
um protão ou um neutrão. Outra possibilidade e um par formado por um quark
e um antiquark (vermelho + antivermelho, ou verde + antiverde, ou azul +
anti-azul = branco). Estas combinações constituem as partículas conhecidas
por mesões, que são instáveis porque um quark e um antiquark podem
aniquilar-se originando electrões ou outras partículas. Do mesmo modo, o
confinamento evita que se tenha um único gluão, porque os gluões também
têm cor. Em vez disso, é preciso ter um conjunto de gluões, cujas cores juntas
produzam o branco. Esse conjunto forma uma partícula instável ehamada
*glueball (10).
(10) Bola de grude (*N. do T.*).
O facto de o confinamento não permitir que se observe um quark ou um gluão
isolados podia fazer crer que os quarks e os gluões são partículas um tanto
metafísicas. No entanto, há outra propriedade da força nuclear forte, chamada
liberdade assimptótica, que torna o conceito de quark e gluão bem definido. A
energias normais, a força nuclear forte é realmente forte e mantém os quarks
unidos. Contudo, experiências com grandes aceleradores de partículas indicam
que a energias elevadas a força forte se torna muito mais fraca, e os quarks e
os gluões comportam-se quase como partículas livres. A Fig. 5.2 mostra uma
fotografia de uma colisão entre um protão e um antiprotão a alta energia.
Foram produzidos vários :, quarks quase livres que deram origem aos "jactos"
de trajectórias vistos na fotografia.
Fig. 5.2. Um protão e um antiprotão colidem com energia elevada e produzem
um par de *quarks* quase livres
O êxito da unificação das forças electromagnética e nuclear fraca levou a
várias tentativas para combinar estas duas forças com a força nuclear forte
naquilo a que se chamou teoria da grande unificação ou GUT (11). Este título
é um tanto exagerado: as teorias resultantes não são assim tão grandes, nem
completamente unificadas, porque não incluem a gravidade. Nem são teorias
realmente completas, porque contêm um número de parâmetros cujos valores
não podem ser preditos a partir da teoria, mas têm de ser escolhidos para se
harmonizarem com as experiências. Apesar disso, podem ser um passo no
sentido de uma teoria completa, totalmente unificada.
(11) *Grand Unification Theories* (*N. do T.*).
A ideia fundamental das :, GUTs é a seguinte: como já foi mencionado, a
força nuclear forte torna-se mais fraca a altas energias. Por outro lado, as
forças electromagnéticas e nuclear fraca, que não são assimptoticamente
livres, tornam-se mais fortes a energias altas. A determinada energia muito
alta, chamada a energia da grande unificação, essas três forças teriam todas a
mesma intensidade e poderiam, portanto, ser apenas diferentes aspectos de
uma única força. As GUTs predizem também que, a essa energia, as diferentes
partículas de matéria de spin 1/2, como os quarks e os electrões, seriam
essencialmente as mesmas, obtendo-se assim outra unificação.
O valor da energia da grande unificação não se conhece muito bem, mas teria
provavelmente de ser pelo menos mil milhões de milhões de GeV. Os actuais
aceleradores de partículas podem fazer colidir partículas a energias de cerca
de algumas centenas de GeV e estão planeadas máquinas que elevarão esta
energia a alguns milhares de GeV. Mas uma máquina suficientemente potente
para acelerar partículas até à energia da grande unificação teria de ser tão
grande como o sistema solar -- e seria pouco provável haver fundos para ela
no actual contexto económico. Portanto, é impossível testar directamente em
laboratório teorias da grande unificação. No entanto, tal como no caso da
teoria da unificação electromagnética e fraca, há consequências a baixas
energias que podem ser testadas.
A mais interessante é a predição de que os protões, que constituem grande
parte da massa da matéria vulgar, podem decair espontaneamente em
partículas mais leves como os positrões. Tal é possível porque na energia da
grande unificação não há qualquer diferença essencial entre um quark e um
electrão. Os três quarks dentro de um protão não têm normalmente energia
suficiente para se transformarem em positrões mas muito ocasionalmente um
:, deles pode adquirir energia suficiente para provocar a transição, porque o
princípio da incerteza significa que a energia dos quarks dentro do protão não
pode ser exactamente fixada. O protão decairia. A probabilidade de um quark
adquirir energia suficiente é tão pequena que o mais provável é termos de
esperar pelo menos um milhão de milhões de milhões de milhões de milhões
de anos (1 seguido de trinta zeros), o que é muito superior ao tempo que
passou desde o *bib bang*, que aconteceu mais ou menos há uns meros dez
mil milhões de anos (1 seguido de dez zeros). Portanto, poderíamos pensar
que a possibilidade de decaimento espontâneo do protão não poderia ser
testada através de experiências. Contudo, podemos aumentar as nossas
hipóteses de detectar um decaimento observando uma grande porção de
matéria que contenha um grande número de protões. (Se, por exemplo, se
observar um número de protões igual a 1 seguido de trinta e um zeros, durante
o período de um ano, será de esperar, segundo a mais simples GUT, poder
observar-se mais do que o decaimento de um protão).
Várias experiências deste género têm sido feitas, mas nenhuma forneceu ainda
provas convincentes do decaimento de protões ou neutrões. Uma experiência
com oito mil toneladas de água foi realizada na Mina de Sal Morton, no Ohio
(para evitar que acontecessem outros fenómenos causados por raios cósmicos,
que podiam ser confundidos com o decaimento dos protões). Uma vez que não
foi observado qualquer decaimento espontâneo durante a experiência,
podemos calcular que a vida provável do protão deve ser maior que dez
milhões de milhões de milhões de milhões de milhões de anos (1 seguido de
trinta e um zeros). Este número é superior ao tempo de vida previsto pela
teoria da grande unificação mais simples, mas existem teorias mais
elaboradas, nas quais os tempos de vida previstos são mais longos. Serão
precisas experiências ainda :, mais sensíveis, com quantidades ainda maiores
de matéria para as testar.
Embora seja muito difícil observar o decaimento espontâneo do protão, pode
ser que a nossa própria existência seja uma consequência do processo
contrário, a produção de protões, ou mais simplesmente de quarks a partir de
uma situação inicial em que não havia mais quarks do que antiquarks que é a
maneira mais natural de imaginar o começo do Universo. A matéria na Terra é
constituída principalmente por protões e neutrões, que, por seu turno, são
constituídos por quarks. Não há antiprotões, nem antineutrões, constituídos a
partir de antiquarks, excepto aqueles que são produzidos pelos físicos em
grandes aceleradores de partículas. Temos provas, a partir de raios cósmicos,
de que o mesmo se passa com a matéria da Galáxia: não estão presentes
antiprotões ou antineutrões, para além de um pequeno número de pares de
partícula/antipartícula obtidos em colisões de alta energia. Se houvesse
grandes regiões de antimatéria na Galáxia, esperaríamos ver grandes
quantidades de radiação provenientes do contacto entre as regiões de matéria e
antimatéria, onde muitas partículas estariam a colidir com as suas
antipartículas, aniquilando-se mutuamente e emitindo radiação de alta energia.
Não temos qualquer prova directa sobre se a matéria nas outras galáxias é
constituída por protões e neutrões ou antiprotões e antineutrões, mas tem de
ser uma coisa ou outra: não pode haver uma mistura numa única galáxia
porque nesse caso observaríamos uma grande quantidade de radiação
proveniente de aniquilações. Além disso, cremos que todas as galáxias são
compostas de quarks e não de antiquarks; não parece plausível que algumas
galáxias sejam de matéria e outras de antimatéria.
Por que haverá mais quarks que antiquarks? Por que não há um número igual
de cada? É certamente uma sorte :, para nós os números não serem iguais
porque, se fossem, quase todos os quarks e antiquarks se teriam aniquilado
mutuamente no princípio do Universo, deixando-o cheio de radiação mas com
muito pouca matéria. Não teria então havido galáxias, estrelas ou planetas
onde a vida humana se viesse a desenvolver. Felizmente, as teorias da grande
unificacão podem dar uma explicação do motivo pelo qual o Universo deve
conter agora mais quarks do que antiquarks, mesmo que tenha começado com
um número igual de ambos. Como vimos, as GUTs admitem a mudança de
quarks em positrões a altas energias. E também admitem o processo contrário,
antiquarks a transformarem-se em electrões, e electrões e positrões a
transformarem-se em antiquarks e quarks. Houve um tempo, logo no princípio
do Universo, em que havia tanto calor que as energias das partículas seriam
suficientemente elevadas para estas transformações ocorrerem. Mas por que
havia isso de produzir mais quarks do que antiquarks? A razão está em que as
leis da física não são exactamente as mesmas para as partículas e para as
antipartículas.
Até 1956, acreditava-se que as leis da física obedeciam a três simetrias
separadas, designadas C, P e T. A simetria C significa que as leis são as
mesmas para partículas e antipartículas. A simetria P significa que as leis são
as mesmas para qualquer situação e a sua imagem num espelho (a imagem
num espelho de uma partícula rodando sobre si mesma num sentido é a de
uma partícula que gira no outro sentido). A simetria T significa que, se
invertermos o sentido do movimento de todas as partículas e antipartículas, o
sistema deveria voltar a ser o que era nos seus primórdios; por outras palavras,
as leis são as mesmas para diante e para trás no tempo.
Em 1956, dois físicos americanos, Tsung-Dao Lee e Chen Ning Yang,
sugeriram que a força fraca não obedece :, à simetria P. Por outras palavras, a
força fraca faria com que o universo se desenvolvesse de um modo diferente
da sua imagem no espelho. No mesmo ano, uma colega, Chien-Shiung Wu,
provou que esta teoria estava correcta. Ela conseguiu-o alinhando núcleos de
átomos radioactivos num campo magnético de modo a ficarem todos a girar
sobre si mesmos no mesmo sentido, e mostrou que os electrões eram
produzidos mais num sentido do que no outro. No ano seguinte, Lee e Yang
receberam o prémio Nobel. Descobriu-se também que a força fraca não
obedecia à simetria C. Ou seja, originaria um universo composto de
antipartículas que se comportaria de maneira diferente da do nosso Universo.
Não obstante, parecia que a força fraca obedecia realmente à simetria
composta CP. Ou seja, o universo desenvolver-se-ia da mesma maneira que a
sua imagem num espelho se, além disso, cada partícula fosse trocada pela sua
antipartícula! Contudo, em 1964, mais dois americanos, J. W. Cronin e Val
Fitch, descobriram que mesmo a simetria CP não se verificava no decaimento
de certas partículas chamadas mesões K. Cronin e Fitch acabaram por receber
o prémio Nobel em 1980. (Muitos prémios têm sido concedidos por se mostrar
que o Universo não é tão simples como poderia pensar-se! )
Há um teorema matemático que afirma que qualquer teoria que obedeça à
mecânica quântica e à relatividade tem sempre de obedecer à simetria
composta CPT. Por outras palavras, o universo teria de comportar-se da
mesma maneira, se substituíssemos as partículas por antipartículas,
tomássemos a sua imagem no espelho e ainda se invertêssemos o sentido do
tempo. Mas Cronin e Fitch demonstraram que, se substituíssemos partículas
por antipartículas e se considerássemos a imagem no espelho, mas não
invertêssemos o sentido do tempo, o universo *não* se comportaria da mesma
maneira. As leis da física, portanto, devem :, alterar-se quando se inverte o
sentido do tempo -- não obedecem à simetria T.
Certamente que o Universo primitivo não obedece à simetria T: à medida que
o tempo passa, o Universo expande-se; se andasse para trás, o Universo ter-seia
contraído. E, como existem forças que não obedecem à simetria T, segue-se
que, enquanto o Universo se expande, essas forças podem provocar que mais
positrões se transformem em quarks do que electrões em antiquarks. Como o
Universo se expandiu e arrefeceu, os antiquarks e os quarks aniquilaram-se e
como havia mais quarks do que antiquarks, restou um pequeno excesso de
quarks. São eles que constituem a matéria que hoje vemos e da qual nós
próprios somos feitos. Assim, a nossa existência real podia ser considerada
como confirmação das teorias da grande unificação embora apenas de uma
forma qualitativa; as incertezas são tais que é impossível predizer o número de
quarks que sobreviveriam à aniquilação ou até se o que restaria seriam quarks
ou antiquarks. (Se, no entanto, o excesso fosse de antiquarks, teríamos muito
simplesmente chamado quarks aos antiquarks e vice-versa).
As teorias da grande unificação não incluem a força da gravidade. Isto não
tem muita importância, porque a gravidade é uma força tão fraca que os seus
efeitos podem geralmente ser desprezados quando lidamos com partículas
elementares ou átomos. Contudo, o facto de ser de longo alcance e sempre
atractiva significa que todos os seus efeitos se juntam. Portanto, pata um
número suficientemente grande de partículas de matéria, as forças
gravitacionais podem dominar todas as outras forças. É por isso que a
gravidade determina a evolução do Universo. Mesmo para objectos do
tamanho de estrelas, a força atractiva da gravidade pode vencer todas as outras
forças e fazer com que a estrela sofra um colapso. O meu trabalho nos anos 70
incidiu nos buracos negros que podem resultar desses :, colapsos estelares e
dos campos gravitacionais que os rodeiam. Foi isso que levou aos primeiros
indícios de como as teorias da mecânica quântica e da relatividade geral
podiam influenciar-se uma à outra um vislumbre de uma teoria quântica da
gravidade ainda por encontrar.
VI. Buracos Negros
A expressão *buraco negro* tem uma origem muito recente. Foi forjada em
1969 pelo cientista americano John Wheeler, como descrição gráfica de uma
ideia que data pelo menos de há duzentos anos, do tempo em que havia duas
teorias sobre a luz: uma, que Newton preferia, era ser composta por partículas;
a outra era ser de natureza ondulatória. Sabemos agora que, na realidade,
ambas as teorias estão correctas. Pela dualidade onda/partícula da mecânica
quântica, a luz pode ser considerada como uma onda ou como uma partícula.
Segundo a teoria ondulatória não era claro como a luz reagia à gravidade.
Mas, se for composta por partículas, pode esperar-se que sejam afectadas pela
gravidade do mesmo modo que as balas de canhão, os foguetões e os planetas.
Ao princípio, as pessoas pensavam que as partículas de luz se deslocavam
com uma velocidade infinita, de maneira que a gravidade não seria capaz de as
retardar, mas a descoberta de Roemer de que a luz se propaga com velocidade
finita significava que a gravidade podia ter um efeito importante.
Partindo desta suposição, um catedrático de Cambridge, John Michell,
escreveu em 1783 um artigo que foi publicado nos *Philosophical
Transactions of the Royal Society of London*, em que chamava a atenção
para o facto de :, uma estrela, que fosse suficientemente maciça e compacta,
poder ter um campo gravitacional tão forte que a sua luz não poderia escapar:
qualquer luz emitida da superfície seria puxada para trás pela atracção
gravitacional da estrela, antes de poder afastar-se. Michell sugeriu que poderia
haver um grande número de estrelas como essa. Embora não pudéssemos vêlas,
porque a sua luz não nos alcançaria, não deixaríamos de sentir a sua
atracção gravitacional. Esses objectos são aquilo a que agora chamamos
buracos negros, porque é isso mesmo que são: vazios negros no espaço.
Alguns anos mais tarde, o cientista francês Marquês de Laplace apresentava
uma sugestão semelhante, segundo tudo indica independentemente de Michell.
É interessante o facto de Laplace a ter incluído apenas nas duas primeiras
edições do seu livro *Sistema do Mundo (1) nada referindo nas edições
seguintes, talvez por ter decidido que era uma ideia disparatada. (Também a
teoria da partícula de luz caíu em desagrado durante o século XIX. Parecia que
tudo podia ser explicado com a teoria ondulatória e, segundo esta, não era
claro se a luz seria ou não afectada pela gravidade).
(1) Houve pelo menos dez edições diferentes do *Exposition du Système du
Monde*, publicadas entre 1796 e 1835. Nas primeiras edições, Laplace
apresentou o seu argumento sem demonstração, algumas páginas antes do fim
do Livro V, Capítulo 6 (*N. do R.*).
De facto, não é realmente consistente tratar a luz como balas de canhão na
teoria da gravitação de Newton, porque a velocidade da luz é constante. (Uma
bala de canhão disparada da Terra verticalmente para cima, será desacelerada
pela gravidade até que acaba por parar e cair. Um fotão, porém, continua para
cima, a uma velocidade constante. Como é então que a gravidade pode afectar
a luz?) Uma teoria consistente sobre a maneira como a gravidade afecta a luz
só surgiu quando Einstein propôs a relatividade :, geral, em 1915. E mesmo
então ainda foi preciso mais tempo até que fossem compreendidas as
implicações da teoria para as estrelas maciças.
Para se compreender como pode formar-se um buraco negro, precisamos
primeiro de compreender o ciclo de vida de uma estrela. Uma estrela forma-se
quando uma grande porção de gás (sobretudo hidrogénio) se contrai por causa
da atracção gravitacional das suas partes. À medida que a estrela se contrai, os
átomos do gás colidem uns com os outros, cada vez com mais frequência e a
velocidades cada vez maiores, e o gás aquece. A certa altura, o gás estará tão
quente que, quando os átomos de hidrogénio (2) colidem já não ressaltam, mas
juntam-se para formar hélio. O calor libertado nesta reacção, que é como a
explosão controlada de uma bomba de hidrogénio, faz a estrela brilhar.
(2) Em rigor os protões. Às temperaturas que reinam nos interiores das
estrelas, os núcleos dissociam-se dos respectivos electrões e as estruturas
atómicas dissolvem-se no *plasma* (*N. do R.).
O calor adicional aumenta também a pressão do gás até esta ser suficiente para
equilibrar a atracção gravitacional e o gás deixa de se contrair. É parecido com
um balão: há um equilíbrio entre a pressão do ar dentro dele, que tenta dilatar
o balão e a tensão da borracha, que tenta tornar o balão mais pequeno. As
estrelas permanecem estáveis durante muito tempo, com o calor das reacções
nucleares equilibrando a atracção gravitacional. A certa altura, porém, a
estrela esgotará o seu hidrogénio e outros combustíveis nucleares.
Paradoxalmente, quanto maior for a porção de combustível com que a estrela
começa, mais depressa este se esgota. Isto sucede porque, quanto mais maciça
for a estrela, mais quente precisa de estar para equilibrar a sua atracção
gravitacional. E, quanto mais quente estiver, mais depressa gastará o seu
combustível. O nosso Sol tem provavelmente combustível suficiente para mais
cinco mil milhões de anos, mas estrelas mais maciças :, podem esgotar o seu
combustível em tão pouco tempo como cem milhões de anos, muito menos do
que a idade do Universo. Quando uma estrela esgota o combustível, começa a
arrefecer e portanto a contrair-se. O que pode acontecer-lhe só foi
compreendido pela primeira vez no fim dos anos 20.
Em 1928, um estudante finalista indiano, Subrahmanyan Chandrasekhar, foi
para Inglaterra para estudar em Cambridge com o astrónomo britânico Sir
Arthur Eddington, especialista em relatividade geral. (Segundo alguns relatos,
um jornalista disse a Eddington, no princípio dos anos 20, que tinha ouvido
dizer que só havia três pessoas no mundo que compreendiam a relatividade
geral. Eddington fez uma pausa e depois respondeu: "Estou a tentar ver se me
lembro quem é a terceira pessoa"). Durante a viagem desde a Índia,
Chandrasekhar descobriu qual poderia ser o tamanho máximo de uma estrela
para que se sustivesse contra a sua própria gravidade, depois de ter esgotado
todo o combustível. A ideia foi esta: quando a estrela se contrai, as partículas
de matéria aproximam-se muito umas das outras e, portanto, segundo o
princípio da exclusão de Pauli, têm de ter velocidades muito diferentes. Isto
leva-as a afastarem-se umas das outras fazendo com que a estrela se expanda.
Uma estrela pode então manter-se com raio constante por um equilíbrio entre
a atracção da gravidade e a repulsão que resulta do princípio da exclusão (3),
tal como anteriormente a gravidade era equilibrada pelo calor.
(3) Princípio da exclusão de Pauli aplicado ao "gás" de electrões no plasma
(*N. do R.*).
Chandrasekhar compreendeu, contudo, que há um limite para a repulsão que
pode resultar do princípio de exclusão. A teoria da relatividade limita a
diferença máxima nas velocidades das partículas de matéria na estrela :, à
velocidade da luz. Isto quer dizer que, quando a estrela fica suficientemente
densa, a repulsão causada pelo princípio de exclusão é menor do que a
atracção gravitacional. Chandrasekhar calculou que uma estrela fria, de mais
do que uma vez e meia a massa do Sol, não poderia manter-se contra a sua
própria gravidade. (Esta massa é agora conhecida como limite de
Chandrasekhar). Mais ou menos na mesma altura o cientista russo Lev
Davidovich Landau realizou uma descoberta semelhante.
Isto teve sérias implicações no destino final de estrelas maciças. Se a massa de
uma estrela for inferior ao limite de Chandrasekhar, pode eventualmente
deixar de contrair-se e manter-se num possível estado final de *anã branca*,
com um raio de alguns milhares de quilómetros e uma densidade de centenas
de toneladas por centímetro cúbico. Uma anã branca é sustida pela repulsão
induzida pelo princípio de exclusão entre os electrões da matéria de que é
formada. Podemos observar um grande número destas estrelas anãs brancas.
Uma das primeiras a ser descoberta foi uma estrela satélite de Sírio, a estrela
mais brilhante no céu nocturno.
Landau fez notar que havia outro estado final possível para uma estrela,
também com uma massa limite de cerca de uma ou duas vezes a massa do Sol,
mas muito mais pequena ainda do que uma anã branca. Estrelas como esta
seriam mantidas pela repulsão também induzida pelo princípio de exclusão
entre neutrões e protões e não entre electrões (4). Chamou-se-lhes então
estrelas de neutrões. :,
(4) Electrões, protões e neutrões são partículas que respeitam 0 princípio da
exclusão. No interior de uma estrela podemos pensar nestas partículas como se
de gases se tratassem. Uma estrela que culmina num estado de equilíbrio entre
a gravidade e a pressão do gás de electrões é uma anã branca. Uma estrela que
culmina num estado em que o seu colapso é detido pela pressão das partículas
nucleares é uma estrela de neutrões (*N. do R.*).
Teriam um raio de apenas vinte quilómetros, mais ou menos, e uma densidade
de centenas de milhões de toneladas por centímetro cúbico. Quando foram
preditas pela primeira vez, não era possível observar estrelas de neutrões que
só foram realmente detectadas muito mais tarde.
Por outro lado, estrelas com massas acima do limite de Chandrasekhar têm um
grande problema quando se lhes acaba o combustível. Em alguns casos podem
explodir ou conseguir disparar para o espaço matéria suficiente para reduzir a
massa abaixo do limite e assim evitar o colapso gravitacional catastrófico; mas
era difícil acreditar que isto acontecia sempre, fosse qual fosse o tamanho da
estrela. Como saberia que tinha de perder massa? E, mesmo que todas as
estrelas conseguissem perder massa suficiente para evitar o colapso, que
aconteceria se se acrescentasse massa a uma anã branca ou a uma estrela de
neutrões para a fazer ultrapassar o limite? Contrair-se-ia até uma densidade
infinita? Eddington ficou chocado com a ideia e recusou-se a acreditar nos
resultados obtidos por Chandrasekhar. Eddington pensava que era pura e
simplesmente impossível uma estrela contrair-se até acabar num pontinho e
esta era a opinião da maior parte dos cientistas: o próprio Einstein escreveu
um artigo em que afirmava que as estrelas não podiam contrair-se até zero. A
hostilidade dos outros cientistas, particularmente de Eddington, seu antigo
professor e a maior autoridade na estrutura das estrelas, persuadiu
Chandrasekhar a abandonar aquele caminho e a voltar-se para outros
problemas de astronomia, tais como o movimento de aglomerados de estrelas.
Contudo, quando recebeu o prémio Nobel em 1983 foi, pelo menos em parte,
pelo seu trabalho anterior sobre a limitação de massa das estrelas frias.
Chandrasekhar tinha mostrado que o princípio da exclusão não podia travar o
colapso de uma estrela com massa superior ao limite de Chandrasekhar, mas o
problema de :, compreender o que poderia acontecer a uma dessas estrelas, de
acordo com a relatividade geral, foi resolvido por um jovem americano,
Robert Oppenheimer, em 1939. No entanto, o resultado que obteve sugeria
que não haveria consequências que pudessem ser observadas com os
telescópios da época. Depois, veio a II Guerra Mundial, e o próprio
Oppenheimer foi envolvido no projecto da bomba atómica. Depois da guerra,
o problema do colapso gravitacional foi praticamente esquecido, porque a
maioria dos cientistas estava preocupada com o que acontecia à escala do
átomo e do seu núcleo. Nos anos 60, porém, o interesse pelos problemas da
astronomia e da cosmologia em macro-escala foi reavivado por um aumento
considerável do número e da variedade das observações astronómicas que
surgiram com a tecnologia moderna. O trabalho de Oppenheimer foi então
redescoberto e ampliado por várias pessoas.
A imagem que agora temos do trabalho de Oppenheimer é a seguinte: o
campo gravitacional da estrela altera as trajectórias dos raios luminosos no
espaço-tempo em relação ao que deviam ser se a estrela não estivesse
presente. Os cones de luz, que indicam as trajectórias seguidas no espaço e no
tempo por clarões luminosos emitidos das suas extremidades, são ligeiramente
curvados para dentro perto da superfície da estrela. Isto pode verificar-se na
curvatura da luz de estrelas distantes, observadas durante um eclipse do Sol. À
medida que a estrela se contrai, o campo gravitacional na sua superfície tornase
mais forte e os cones de luz encurvam-se mais para dentro. Isto torna mais
difícil que a luz da estrela se escape e a luz parece mais fraca e mais vermelha
a um observador à distância. Quando a estrela se contraiu até certo raio crítico,
o campo gravitacional na superfície acabou por se tornar tão forte que os
cones de luz se encurvam para dentro de modo que a luz já não pode escaparse
(Fig. 6.1). Segundo a teoria :, da relatividade, nada pode deslocar-se mais
depressa do que a luz. Portanto, se a luz não consegue escapar-se, mais nada o
consegue; tudo é arrastado para trás pelo campo gravitacional. Por
conseguinte, há um conjunto de acontecimentos, uma região do espaço-tempo,
de onde não é possível escapar-se para alcançar um observador distante. Esta
região é aquilo a que chamamos buraco negro. A sua fronteira é o horizonte de
acontecimentos e coincide com as trajectórias dos raios de luz que não
conseguem escapar-se do buraco negro.
fig. 6.1
Para se compreender o que se veria se estivéssemos a observar o colapso de
uma estrela e a consequente formação de um buraco negro, é necessário
lembrar que na teoria da relatividade não há tempo absoluto. Cada observador
tem a sua própria medida do tempo. O tempo para alguém numa estrela será
diferente do tempo para alguém à distância, devido ao campo gravitacional da
estrela. Suponhamos que um astronauta intrépido, na superfície de uma estrela
em colapso, é arrastado para dentro com ela e envia um sinal de segundo a
segundo, conforme o seu relógio, para a nave espacial em órbita em redor da
estrela. Em certo momento no seu relógio, às 11 h 00 m, por exemplo, a
estrela contrair-se-ia abaixo do raio crítico em que o campo gravitacional se
torna tão forte que nada consegue escapar-se e os sinais já não chegariam à
nave espacial. À medida que as 11 h 00 m se aproximavam, os companheiros
que o observavam da nave achariam que os sinais estavam a ser enviados com
intervalos cada vez maiores, mas esse efeito seria muito pequeno antes das
10h 59m 59s. Teriam de esperar apenas um nadinha mais do que um segundo
entre o sinal do astronauta às 10 h 59 m 58 s e o que enviasse quando o seu
relógio marcasse 10h 59m 59 s, mas teriam de esperar para sempre pelo sinal
das 11 h 00 m. As ondas de luz emitidas da superfície da estrela entre as 10 h
59 m 59 s e as 11 h 00 m, :, segundo o relógio do astronauta, distribuir-se-iam
num período de tempo infinito, no caso da observação feita a partir da nave
espacial. O intervalo de tempo entre a chegada de ondas sucessivas à nave
seria cada vez mais longo, de modo que a luz da estrela pareceria cada vez
mais vermelha e mais fraca. A certa altura, a estrela estaria tão apagada que já
não poderia ser vista da nave: a única coisa que restaria seria um buraco negro
no espaço. A estrela, contudo, continuaria a exercer a mesma força
gravitacional sobre a nave, que continuaria, por sua vez, a orbitar em torno do
buraco negro.
Este cenário não é inteiramente realista, por causa do seguinte problema: a
gravidade torna-se tanto mais fraca quanto mais longe se está da estrela, de
modo que a força gravitacional exercida sobre os pés do intrépido astronauta
seria sempre maior do que a exercida sobre a sua cabeça. Esta diferença de
forças esticaria o nosso astronauta como se fosse esparguete ou destroçá-lo-ia
antes de a estrela se ter contraído até ao raio crítico em que se formaria o
horizonte de acontecimentos! Contudo, acreditamos que existem no Universo
objectos muito maiores, como as regiões centrais das galáxias, que também
podem sofrer colapso gravitacional para produzir buracos negros; mas aqui
um astronauta não seria desfeito antes da formação do buraco negro (5). Não
sentiria mesmo nada de especial quando alcançasse o raio crítico e podia
passar o ponto sem regresso sem dar por ele.
(5) Se acontece ficar o leitor intrigado com o facto de uma estrela se
comprimir até dimensões absurdamente pequenas para formar um buraco
negro, tem aqui um exemplo de como se pode formar um buraco negro em
condições bem mais "aceitáveis". Um núcleo galáctico em colapso origina um
horizonte ainda a densidade da sua matéria é inferior à densidade da água.
Porém, dentro de muito poucas horas, enquanto a região continuasse em
colapso, a diferença :, das forças gravitacionais na cabeça e nos pés do
astronauta seria tão grande que ele seria desfeito.
O trabalho que Roger Penrose e eu realizámos entre 1965 e 1970 mostrou que,
segundo a relatividade geral, deve haver uma singularidade de densidade e
curvatura do espaço-tempo infinitas no interior de um buraco negro. É muito
parecido com o *big bang* no começo dos tempos, só que seria o fim do
tempo para o corpo em colapso e para o astronauta. Com esta singularidade, as
leis da física e a nossa capacidade de predizer o futuro seriam anuladas.
Todavia, qualquer observador que ficasse fora do buraco negro não seria
afectado por essa falha de prognóstico, porque nem a luz nem qualquer outro
sinal proveniente da singularidade poderia chegar até ele. Este facto notável
levou Penrose a propor a hipótese da censura cósmica, que podia ser
parafraseada como "Deus detesta uma singularidade nua". Por outras palavras,
as singularidades produzidas por colapso gravitacional ocorrem apenas em
locais como os buracos negros, onde ficam convenientemente escondidas de
vistas exteriores por um horizonte de acontecimentos. Isto é estritamente
aquilo que é conhecido como censura cósmica fraca: protege os observadores
que ficam fora do buraco negro das consequências da falha de prognóstico que
ocorre na singularidade, mas nada faz pelo pobre infeliz astronauta que cai no
buraco.
Existem algumas soluções das equações da relatividade geral em que o nosso
astronauta pode ver uma singularidade nua: pode evitar atingi-la se cair
através de um "buraco lagarta" e sair noutra região do Universo. Isto
ofereceria grandes possibilidades para viajar no espaço e no tempo, mas
infelizmente parece que estas soluções podem ser todas altamente instáveis; a
menor perturbação, tal como a presença de um astronauta, pode causar tais
modificações que o astronauta não poderia ver a singularidade até atingi-la e
chegaria ao fim dos seus dias. Por outras :, palavras, a singularidade estaria
sempre no seu futuro e nunca no passado. A versão forte da hipótese da
censura cósmica afirma que, numa solução realista, as singularidades estarão
sempre completamente no futuro (como as singularidades de colapso
gravitacional) ou inteiramente no passado (como o *big bang*). É de esperar
sinceramente que alguma versão da hipótese da censura tenha consistência,
porque perto de singularidades nuas talvez se possa viajar para o passado.
Mas, ao mesmo tempo que isto seria óptimo para os escritores de ficção
científica, significaria que a vida das pessoas nunca estaria segura: alguém
podia ir até ao passado e matar o pai ou a mãe de alguém antes de essa pessoa
ser concebida!
O horizonte de acontecimentos, a fronteira da região do espaço-tempo da qual
não é possível escapar, actua como uma membrana num sentido único em
redor do buraco negro: os objectos, tais como astronautas desprevenidos,
podem cair através do horizonte de acontecimentos para dentro do buraco
negro, mas nada pode sair dele através do horizonte de acontecimentos
(convém lembrar que o horizonte de acontecimentos é o caminho que a luz
segue no espaço-tempo ao tentar escapar do buraco negro, e que nada se
propaga mais depressa que a luz). Podia perfeitamente dizer-se do horizonte
de acontecimentos o mesmo que o poeta Dante disse da porta do Inferno:
"Deixai toda a esperança, vós que entrais". Qualquer coisa ou pessoa que caia
através do horizonte de acontecimentos depressa alcançará a região de
densidade infinita e o fim do tempo.
A relatividade geral prediz que objectos pesados, em movimento, causarão a
emissão de ondas gravitacionais; são ondas na curvatura do espaço que se
propagam à velocidade da luz. São semelhantes às ondas luminosas que são
uma ondulação do campo electromagnético, mas são muito mais difíceis de
detectar. Tal como a luz, estas ondas transportam :, energia proveniente dos
objectos que as emitem. Esperar-se-ia, portanto, que um sistema de objectos
maciços se instale eventualmente num estado estacionário, porque a energia
do movimento seria consumida na emissão de ondas gravitacionais. (Parecido
com isto é o que acontece quando se deixa cair uma rolha de cortiça na água:
primeiro anda para baixo e para cima, mas à medida que a ondulação lhe retira
energia, acaba por se reestabelecer o equilíbrio). Por exemplo, o movimento
da Terra na sua órbita em redor do Sol produz ondas gravitacionais. O efeito
da perda de energia será o de mudar a órbita da Terra, de modo a que esta se
aproxime gradualmente do Sol, colidindo eventualmente com ele até acabar
por ficar num estado estacionário. A taxa de energia perdida no caso da Terra
e do Sol é muito pequena: cerca do suficiente para fazer funcionar um
pequeno aquecedor eléctrico. Isto significa que serão precisos mil milhões de
milhões de milhões de anos para a Terra colidir com o Sol, pelo que não há
motivo imediato para preocupação! A perturbação da órbita da Terra é
demasiado lenta para poder ser observada, mas este mesmo efeito tem sido
observado durante os últimos anos no sistema chamado PSR 1913 + 16
(*PSR* é a sigla de "pulsar", um tipo especial de estrela de neutrões que emite
pulsações regulares de ondas de rádio). Este sistema contém duas estrelas de
neutrões que orbitam em torno uma da outra, e a energia que estão a perder
pela emissão de ondas gravitacionais faz com que tenham um movimento
espiralado na direcção uma da outra.
Durante o colapso gravitacional de uma estrela para formar um buraco negro,
os movimentos seriam muito mais rápidos, pelo que a taxa de perda de energia
seria muito mais elevada. Por conseguinte, não seria preciso muito tempo para
atingir um estado de equilíbrio. Qual seria o aspecto desse estado final?
Poderíamos supor que dependeria de todas as características complexas a
partir das :, quais a estrela se formou: não só a sua massa e velocidade de
rotação, mas também as diferentes densidades de várias partes da estrela e os
complicados movimentos dos gases no seu interior. E, se os buracos negros
fossem tão variados quanto os objectos que entraram em colapso para lhes dar
origem, poderia ser muito difícil elaborar quaisquer prognósticos sobre
buracos negros em geral.
Em 1967, contudo, o estudo dos buracos negros foi revolucionado por Werner
Israel, cientista canadiano (nascido em Berlim, criado na África do Sul e
doutorado na Irlanda). Israel mostrou que, de acordo com a relatividade geral,
buracos negros sem rotação deviam ser muito simples: perfeitamente
esféricos, o tamanho dependeria apenas das suas massas, e quaisquer dois
buracos negros com a mesma massa seriam idênticos. Podiam, de facto, ser
descritos por uma solução particular das equações de Einstein conhecida desde
1917 e descoberta por Karl Schwarzschild logo após a descoberta da
relatividade geral. Ao princípio, muitos, incluindo o próprio Israel,
argumentaram que, uma vez que os buracos negros tinham de ser
perfeitamente esféricos, um buraco negro apenas poderia formar-se a partir do
colapso de um objecto perfeitamente esférico. Qualquer estrela real, que nunca
seria *perfeitamente* esférica, só podia, portanto, entrar em colapso para
formar uma singularidade nua.
Havia, no entanto, uma interpretação diferente do resultado de Israel, que foi
advogada por Penrose e John Wheeler, em particular. Argumentavam que os
movimentos rápidos inerentes ao colapso de uma estrela significariam que as
ondas gravitacionais que emitiria a tornariam cada vez mais esférica e, quando
acabasse por atingir um estado estacionário, seria precisamente esférica.
Segundo esta opinião, qualquer estrela não rotativa, por mais complicadas que
fossem a sua forma e a sua estrutura interna, acabaria, depois do colapso
gravitacional, num buraco :, negro perfeitamente esférico, cujo tamanho
dependeria apenas da sua massa. Cálculos posteriores confirmaram esta
opinião que depressa foi adoptada.
O resultado de Israel arrumava o caso de buracos negros formados apenas a
partir de corpos não rotativos. Em 1963, o neozelandês Roy Kerr descobriu
um conjunto de soluções das equações da relatividade geral que descreviam
buracos negros com rotação. Estes buracos negros de Kerr rodam a uma
velocidade constante, dependendo o seu tamanho e a sua forma apenas da sua
massa e da velocidade de rotação. Se esta for nula, o buraco negro é
perfeitamente redondo e a solução é idêntica à de Schwarzschild. Se for
diferente de zero, o buraco negro é bojudo perto do seu equador (tal como a
Terra ou o Sol, devido às suas rotações) e, quanto mais depressa rodar, mais
bojudo se torna. Portanto, para alargar o resultado de Israel de modo a incluir
corpos com rotação, conjecturou-se que qualquer corpo rotativo que entrasse
em colapso para formar um buraco negro acabaria eventualmente por atingir
um estado estacionário descrito pela solução de Kerr.
Em 1970, um colega e meu aluno de investigação em Cambridge, Brandon
Carter, deu o primeiro passo para provar esta conjectura. Mostrou que, desde
que um buraco negro com rotação estacionária tivesse um eixo de simetria,
como o de um pião a girar, o seu tamanho e forma dependeriam apenas da sua
massa e da velocidade de rotação. Depois, em 1971, eu provei que qualquer
buraco negro estacionário com rotação teria realmente esse eixo de simetria.
Finalmente, em 1973, David Robinson, do Kings College, em Londres, usou
os resultados de Carter e os meus para mostrar que a conjectura estava
correcta: um buraco negro com essas características tinha mesmo de ser a
solução de Kerr. Portanto, depois do colapso gravitacional, um buraco negro
devia fixar-se num estado em que podia :, rodar, mas não pulsar. Além disso,
o seu tamanho e forma dependeriam apenas da sua massa e velocidade de
rotação e não da natureza do corpo que entrou em colapso para lhe dar origem.
O resultado tornou-se conhecido pela máxima: "Um buraco negro não tem
cabeleira". O teorema "sem cabelo" é de grande importância prática, por
restringir muito os tipos possíveis de buracos negros. Podemos, pois, elaborar
modelos pormenorizados de objectos que podem conter buracos negros e
comparar os prognósticos dos modelos com as observações. Significa também
que uma grande quantidade de informação sobre o corpo que entrou em
colapso deve ter-se perdido quando se formou um buraco negro, porque
depois tudo 0 que pode medir-se é a massa do corpo e a velocidade de rotação.
O significado disto será explicado no próximo capítulo.
Os buracos negros são apenas um de um pequeno número de casos na história
da ciência em que uma teoria foi desenvolvida com todo o pormenor com um
modelo matemático (6), antes de haver qualquer evidência a partir de
observações, de que estava certa.
(6) A teoria dos buracos negros desenvolveu-se tanto e está de tal forma
enraizada na relatividade geral que levou um certo cientista a concluir que "ou
há buracos negros no espaço ou buracos na teoria da relatividade" (*N. do
R.*).
Na realidade, este costumava ser o argumento principal dos que se opunham
aos buracos negros: como é que podia acreditar-se em objectos de cuja
existência a única prova eram cálculos baseados na duvidosa teoria da
relatividade geral? Em 1963, porém, Maarten Schmidt, um astrónomo do
Observatório de Palomar, na Califórnia, mediu o desvio para o vermelho de
um ténue objecto parecido com uma estrela na direcção da fonte de ondas de
rádio chamada 3C273 (ou seja, a fonte número 273 do terceiro catálogo de
fontes de rádio de Cambridge). Descobriu que era demasiado :, grande para
ser causado por um campo gravitacional: se se tratasse de um desvio
gravitacional para o vermelho, o objecto teria de ser tão maciço e de estar tão
próximo de nós que perturbaria as órbitas dos planetas do sistema solar. Isto
sugeria que o desvio para o vermelho era então causado pela expansão do
Universo, o que, por sua vez, significava que o objecto estava a uma distância
muito grande. E, para ser visível a uma distância tão grande, o objecto tinha de
ser muito brilhante, ou, por outras palavras, tinha de emitir uma enorme
quantidade de energia. O único mecanismo em que se conseguiu pensar capaz
de produzir tão grandes quantidades de energia parecia ser o colapso
gravitacional não apenas de uma estrela mas de toda a região central de uma
galáxia. Foram descobertos vários outros objectos "quase estelares" ou
*quasares* todos com grandes desvios para o vermelho. Mas estão todos
demasiado afastados e, portanto, são demasiado difíceis de observar, de modo
a fornecerem provas conclusivas de buracos negros.
Em 1967 houve novo encorajamento para a existência de buracos negros: uma
estudante de investigação de Cambridge, Jocelyn Bell, descobriu no céu
objectos que emitiam pulsações regulares de ondas de rádio. Ao princípio,
Bell e o seu orientador, Anthony Hewish, pensaram ter estabelecido contacto
com uma civilização estranha na Galáxia! Na realidade, no seminário em que
anunciaram a sua descoberta, lembro-me de que chamaram às primeiras
quatro fontes a ser encontradas LGM 1-4, sendo *LGM* as iniciais de "Little
Green Men" (7). Contudo, no fim, eles e todos os outros chegaram à
conclusão menos romântica de que esses objectos, a que se deu o nome de
*pulsares*, eram na realidade estrelas de neutrões que emitiam pulsos de
ondas de rádio, devido a uma complicada interacção :, entre os seus campos
magnéticos e a matéria circundante. Foram notícias más para os escritores de
aventuras espaciais, mas davam uma grande esperança ao pequeno número de
quantos naquela época acreditavam nos buracos negros: era a primeira prova
positiva da existência de estrelas de neutrões. Uma estrela de neutrões tem um
raio de cerca de vinte quilómetros, apenas algumas vezes o raio crítico com
que uma estrela se torna um buraco negro. Se uma estrela podia entrar em
colapso até dimensões tão pequenas, não é disparate esperar que outras
estrelas possam entrar em colapso até um tamanho ainda mais pequeno e
originar buracos negros.
(7) "Homenzinhos Verdes" (*N. do T.*).
Como podíamos esperar detectar um buraco negro, se pela própria definição
não emite luz? Era um bocado como andar à procura de um gato preto num
depósito de carvão. Felizmente, há uma maneira. Como John Michell fez notar
no seu trabalho pioneiro de 1783, um buraco negro continua a exercer força
gravitacional sobre os objectos próximos. Os astrónomos têm observado
muitos sistemas em que duas estrelas orbitam à volta uma da outra, atraídas
pela gravidade. Também observam sistemas em que há só uma estrela visível
em órbita em redor de uma companheira que não se vê. Como é evidente, não
se pode concluir imediatamente que a companheira seja um buraco negro:
pode ser apenas uma estrela demasiado fraca para ser vista. Contudo, alguns
destes sistemas, como o chamado Cygnus X-1 (Fig. 6.2), são também fontes
intensas de raios X. A melhor explicação para este fenómeno é que a matéria
foi aspirada da superfície da estrela visível. Ao mesmo tempo que cai em
direcção à companheira invisível, desenvolve um movimento espiral (como a
água a sair pelo ralo da banheira) e torna-se muito quente, emitindo raios X
(Fig. 6.3). Para este mecanismo funcionar, o objecto invisível tem de ser muito
pequeno, como uma anã branca, uma estrela de neutrões ou um buraco negro.
:, A partir da órbita observada da estrela visível, podemos determinar a menor
massa possível do objecto invisível. No caso de Cygnus X-1, esta é de cerca
de seis vezes a massa do Sol, o que, segundo o resultado de Chandrasekhar, é
demasiado grande para que o objecto invisível seja uma anã branca. É também
uma massa demasiado grande para ser uma estrela de neutrões. Parece,
portanto, que deve ser um buraco negro.
Fig. 6.2. A mais brilhante das duas estrelas perto do centro da fotografia é a
Cygnus X-l que se pensa consistir num buraco negro e numa estrela normal
que orbitam em torno um do outro.
fig. 6.3
Há outros modelos para explicar Cygnus X-1 que não incluem um buraco
negro, mas são todos bastante rebuscados. Um buraco negro parece ser a única
explicação realmente natural das observações. Apesar disso, fiz uma aposta
com Kip Thorne, do Instituto de Tecnologia da Califórnia, de que, na
realidade, Cygnus X-1 não contém um buraco negro! Foi uma espécie de
apólice de seguro que arranjei! Tenho trabalhado muito em buracos negros, e
:, todo o trabalho estaria perdido se acabássemos por verificar que não
existem. Mas, nesse caso, teria a consolação de ganhar a minha aposta, o que
me daria a assinatura da revista *Private Eye* durante quatro anos. Se os
buracos negros existirem, Kip ganha um ano de assinatura da revista
*Penthouse*. Quando fizemos a aposta em 1975, tínhamos 80% de certeza de
que Cygnus X-1 era um buraco negro. Agora, diria que temos cerca de 95% de
certeza, mas a aposta ainda está por decidir.
Temos também agora provas quanto a vários outros buracos negros em
sistemas como Cygnus X-1 na Galáxia e em duas galáxias vizinhas chamadas
Nuvens de Magalhães. O número de buracos negros, contudo, é quase de
certeza muito mais elevado; na longa história do Universo, muitas estrelas
devem ter gasto todo o seu combustível nuclear e entraram em colapso. O
número de buracos :, negros pode muito bem ser ainda maior que o número de
estrelas visíveis, que totalizam cerca de cem mil milhões só na nossa galáxia.
A atracção gravitacional extra de um número tão grande de buracos negros
podia explicar por que motivo a nossa galáxia roda à velocidade a que roda: a
massa das estrelas visíveis é insuficiente para o justificar. Também temos
algumas provas de que existe um buraco negro muito maior, com uma massa
de cerca de cem mil vezes a do Sol, no centro da nossa galáxia. As estrelas da
Galáxia que se aproximem demais desse buraco negro serão desfeitas pela
diferença existente entre as forças gravitacionais nos seus lados próximo e
afastado. Os seus resíduos, e o gás que é expelido de outras estrelas, cairão em
direcção ao buraco negro. Como no caso de Cygnus X-1, o gás terá um
movimento em espiral para o interior e aquecerá, embora não tanto como
naquele caso. Não ficará suficientemente quente para emitir raios X, mas
poderá justificar a fonte muito compacta de ondas de rádio e de raios
infravermelhos que se observa no centro galáctico.
Pensa-se que buracos negros semelhantes, mas ainda maiores, com massa de
cerca de cem milhões de vezes a massa do Sol, surjam no centro dos quasares.
A matéria que caísse num buraco negro superdenso como esse seria a única
fonte de energia suficientemente grande para explicar as quantidades enormes
de energia que esses objectos emitem. À medida que a matéria entra em
espiral no buraco negro, fará com que este rode no mesmo sentido,
desenvolvendo um campo magnético muito parecido com o da Terra.
Partículas de energia muito elevada seriam geradas perto do buraco negro pela
matéria que cai dentro dele. O campo magnético seria tão forte que poderia
forçar essas partículas a confluir em jactos dirigidos para fora, ao longo do
eixo de rotação do buraco negro, ou seja, na direcção dos seus pólos norte e
sul. Esses jactos :, são, na realidade, observados em várias galáxias e quasares.
Podemos ainda considerar a possibilidade da existência de buracos negros
com massas muito menores do que a do Sol. Tais buracos negros não podiam
ser formados por colapsos gravitacionais porque as suas massas estão abaixo
do limite de Chandrasekhar: estrelas com massa assim baixa podem aguentarse
contra a força da gravidade mesmo quando já esgotaram o seu combustível
nuclear. Buracos negros de massa reduzida só poderiam formar-se se a matéria
fosse comprimida até densidades enormes, forçada por pressões exteriores
muito fortes. Tais condições podiam ocorrer numa bomba de hidrogénio muito
grande: o físico John Wheeler calculou que, se alguém juntasse toda a água
pesada (8) de todos os oceanos do mundo, podia construir uma bomba de
hidrogénio capaz de comprimir a matéria de tal modo que seria criado um
buraco negro. (Claro que não ficaria ninguém para observar o fenómeno!)
(8) Água pesada é a designação da água em cujas moléculas o hidrogénio
surge na sua variedade isotópica designada por deutério, mais pesada que o
isótopo comum -- o prótio -- e muito mais rara.
Uma possibilidade mais viável é que esses buracos negros de massa reduzida
possam ter sido formados nas altas temperaturas e pressões dos princípios do
Universo. Os buracos negros teriam sido formados só se o Universo, no
princípio, não tivesse sido perfeitamente liso e uniforme, porque apenas uma
pequena região mais densa do que a média podia ser comprimida desta
maneira para formar um buraco negro. Mas sabemos que devia haver algumas
irregularidades, porque, de outro modo, a matéria do Universo continuaria a
estar perfeitamente distribuída na época actual, em vez de amontoada em
estrelas e galáxias. :,
Que as irregularidades necessárias para justificar estrelas e galáxias tenham
levado à formação de um número significativo de buracos negros primevos,
depende dos pormenores das condições do Universo nos seus princípios.
Portanto, se pudéssemos determinar quantos buracos negros primevos existem
actualmente, aprenderíamos muito sobre o início do Universo. Buracos negros
primevos com massas de mais de mil milhões de toneladas (a massa de uma
grande montanha) só podiam ser detectados pela sua influência gravitacional
sobre outra matéria visível ou sobre a expansão do Universo. No entanto,
como veremos no próximo capítulo, os buracos negros afinal não são
realmente negros: brilham como um corpo quente e, quanto mais pequenos
são, mais brilham. Portanto, paradoxalmente, os buracos negros mais
pequenos acabam por ser realmente mais fáceis de detectar do que os maiores!
VII. Os Buracos Negros
Não São Tão Negros
Antes de 1970, as minhas investigações sobre a relatividade geral tinham-se
concentrado sobretudo na questão de ter existido ou não uma singularidade
inicial -- o *big bang*. Todavia, numa noite de Novembro desse ano, logo a
seguir ao nascimento da minha filha Lucy, comecei a pensar em buracos
negros quando estava a meter-me na cama. O meu problema físico torna este
processo bastante demorado, pelo que tive bastante tempo. Nessa altura, não
existia qualquer delimitação precisa dos pontos do espaço-tempo que ficavam
dentro ou fora do buraco negro (1).
(1) O problema era mais intrincado com os buracos negros com rotação.
Podemos imaginar que, neste caso, o espaço roda à medida que flui para o
interior do buraco negro. Há uma região em que o espaço flui com velocidade
superior à velocidade da luz, embora a componente centrípeta desta
velocidade geométrica seja inferior à velocidade da luz (*N. do R.*).
Já tinha discutido com Roger Penrose a ideia de definir um buraco negro
como o conjunto de acontecimentos dos quais não era possível escapar para o
infinito, que é a definição agora geralmente aceite. Isto significa que a
fronteira do buraco negro, o horizonte de acontecimentos, é formada pelas
trajectórias no espaço-tempo de raios de luz que não escapam ao buraco
negro, ficando para sempre na fronteira (Fig. 7.1) (2). É um pouco parecido
com fugir da polícia e conseguir ir sempre um passo à frente sem nunca fugir
completamente!
(2) Este efeito de dragagem da luz pode ser entendido como se o espaço
fluísse para o interior do buraco negro arrastando consigo a luz. No horizonte,
a luz está a ser arrastada precisamente à velocidade da luz (*N. do R.*).
fig. 7.1
De repente, compreendi que as trajectórias desses raios de luz (3) nunca
podiam aproximar-se umas das outras.
(3) Estas trajectórias a que Hawking se refere amiúde dizem respeito ao
espaço-tempo, não devem ser entendidas como trajectórias no espaço (*N. do
R.*).
Se isso acontecesse, encontrar-se-iam eventualmente, o que :, seria como
encontrar alguém a correr, fugindo da policia no sentido contrário. Seriam
ambos apanhados! (Ou, neste caso, cairiam num buraco negro). Mas se os
raios de luz fossem engolidos pelo buraco negro, então não podiam ter estado
na sua fronteira. Assim, as trajectórias dos raios luminosos no horizonte de
acontecimentos tinham de ser paralelas ou divergentes. Outra maneira de ver a
questão é imaginar o horizonte de acontecimentos, a fronteira do buraco
negro, como o limiar de uma sombra: a sombra da desgraça iminente. Quando
olhamos para a sombra projectada por um corpo, iluminado por uma fonte
situada a grande distância, como o Sol, vemos que os raios de luz da orla não
se aproximam uns dos outros.
Se os raios de luz que formam o horizonte de acontecimentos, a fronteira do
buraco negro, nunca convergem, a área do horizonte de acontecimentos pode
manter-se a mesma ou aumentar com o tempo, mas nunca diminuir -- porque
isso significaria que pelo menos alguns dos raios de luz do limiar teriam de
estar a aproximar-se uns dos outros. De facto, a área aumentaria sempre que
matéria ou radiação fossem absorvidas pelo buraco negro (Fig. 7.2).
Ou, se dois buracos negros colidissem e se unissem para formar um só, a área
do horizonte de acontecimentos do buraco negro final seria maior ou igual à
soma das áreas dos horizontes de acontecimentos dos buracos negros iniciais
(Fig. 7.3). Esta propriedade da área não se reduzir impôs uma restrição
importante ao comportamento possível dos buracos negros. Fiquei tão
excitado com a minha descoberta que quase não dormi nessa noite. No dia
seguinte, telefonei a Roger Penrose e ele concordou comigo. Acho que, na
realidade, ele já tinha a noção desta propriedade da área. No entanto, tinha
estado a utilizar uma definição ligeiramente diferente de buraco negro. Não
tinha compreendido que a fronteira do buraco negro, segundo as duas
definições, seria a mesma e, portanto, :, também as suas áreas, desde que o
buraco negro estivesse num estado estacionário.
figs. 7.2 e 7.3
Este comportamento de um buraco negro era muito reminiscente do
comportamento da quantidade física chamada entropia, que mede o grau de
desordem de um sistema. É um dado da experiência comum que a desordem
tem tendência a aumentar, se as coisas forem deixadas entregues a si próprias.
(Basta deixarmos de arranjar o que se estraga nas nossas casas para vermos
que isto é verdade!) Podemos criar ordem a partir da desordem (por exemplo,
podemos pintar a casa), mas isso requer dispêndio de esforço e, portanto,
diminui a quantidade de energia ordenada disponível. :,
Uma asserção precisa desta ideia é conhecida por segunda lei da
termodinâmica. Afirma que a entropia de um sistema isolado aumenta sempre
e que, quando dois sistemas se unem, a entropia do sistema resultante é maior
do que a soma das entropias dos sistemas individuais. Por exemplo,
consideremos um sistema de moléculas de gás dentro de uma caixa. Podemos
pensar nas moléculas como se fossem pequenas bolas de bilhar colidindo
continuamente umas com as outras e ricocheteando nas paredes da caixa.
Quanto mais alta for a temperatura do gás, mais depressa as moléculas se
movem e, portanto, mais frequentemente e com mais força colidem com as
paredes da caixa e maior é a pressão que exercem nestas. Suponhamos que
inicialmente as moléculas estão todas confinadas no lado esquerdo da caixa
por uma divisória. Se a divisória for retirada, as moléculas terão tendência
para se espalharem e ocuparem ambas as metades da caixa. Em qualquer
momento posterior, podiam estar, por acaso, todas na metade direita ou de
novo na metade esquerda, mas é muitíssimo mais provável haver mais ou
menos o mesmo número em ambas as metades. Tal estado é menos ordenado,
ou mais desordenado, do que o estado original em que todas as moléculas
estavam numa das metades. Diz-se, portanto, que a entropia do gás aumentou.
Do mesmo modo, suponhamos que se começa com duas caixas, uma contendo
moléculas de oxigénio e a outra contendo moléculas de azoto. Se se unirem as
duas caixas, removendo a parede do meio, as moléculas de oxigénio e de
azoto começarão a misturar-se. Mais tarde, o estado mais provável será o de
uma mistura razoavelmente uniforme de moléculas de oxigénio e de azoto
pelas duas caixas. Este estado será menos ordenado e terá maior entropia do
que o estado inicial das duas caixas separadas.
A segunda lei da termodinâmica tem um estatuto bastante diferente do das
outras leis físicas, tais como a lei :, da gravitação de newton, por exemplo,
porque nem sempre se verifica, mas sim na grande maioria dos casos (4).
(4) Na interpretação estatística da segunda lei, embora nenhuma observação
feita até hoje evidenciasse esse caracter de excepção (*N. do R.*).
A probabilidade de todas as moléculas de gás na nossa primeira caixa serem
encontradas mais tarde em metade da caixa é de um para muitos milhões de
milhões, mas pode acontecer. Contudo, se tivermos um buraco negro "à mão",
parece haver uma maneira bastante mais fácil de infringir a segunda lei: basta
lançar alguma matéria com grande quantidade de entropia, tal como uma
grande caixa de gás, para dentro dele. A entropia total da matéria no exterior
do buraco negro decresceria. Podíamos dizer, é claro, que a entropia total,
incluindo a do interior do buraco negro, não tinha diminuído, mas, como não
há possibilidade de olhar para dentro dele, não podemos saber a quantidade de
entropia que existe na matéria que está lá dentro. Seria bom que houvesse
alguma característica do buraco negro pela qual observadores fora dele
pudessem conhecer a sua entropia, e quanto aumentaria sempre que matéria
com entropia fosse absorvida. Seguindo a descoberta atrás descrita de que a
área do horizonte de acontecimentos aumentava sempre que era absorvida
matéria, um estudante de investigação em Princeton, James Bekenstein,
sugeriu que a área do horizonte de acontecimentos era uma medida da entropia
do buraco negro: à medida que matéria com certo conteúdo entrópico era
absorvida pelo buraco negro, a área do horizonte aumentaria de modo que a
soma da entropia da matéria no exterior de um buraco negro e a área do seu
horizonte nunca decresceriam.
Esta sugestão parecia evitar que a segunda lei da termodinâmica fosse
transgredida na maioria das situações. :, Havia, no entanto, uma falha fatal. Se
um buraco negro tivesse entropia, então também devia ter temperatura. Mas
um corpo com temperatura determinada tem de emitir radiação a um certo
ritmo. É um dado da experiência vulgar que, se aquecermos um atiçador numa
lareira, ele fica ao rubro e emite radiação, mas corpos a temperaturas mais
baixas também emitem radiações; o que acontece é que normalmente não
damos por isso, devido à quantidade ser bastante pequena. Esta radiação é
necessária para evitar a transgressão da segunda lei. Portanto, os buracos
negros deviam emitir radiação. Mas, pela sua própria definição, os buracos
negros são objectos que se supõe não emitir seja o que for. Parecia, pois, que a
área do horizonte de um buraco negro não poderia ser considerada uma
medida da sua entropia. Em 1972, apresentei um trabalho, em conjunto com
Brandon Carter e um colega americano, Jim Bardeen, em que chamávamos a
atenção para o facto de que, apesar de haver muitas semelhanças entre a
entropia e a área do horizonte, existia esta dificuldade aparentemente
irresolúvel. Devo admitir que, ao escrever aquele artigo, fui motivado, em
parte, por irritação com Bekenstein, que, achava eu, tinha utilizado mal a
minha descoberta do aumento da área do horizonte. No entanto, acabou por se
verificar que ele estava fundamentalmente certo, embora de uma maneira que
por certo ele não esperava.
Em Setembro de 1973, durante uma visita a Moscovo, discuti buracos negros
com dois especialistas soviéticos importantes, Yakov Zeldovich e Alexander
Starobinsky. Convenceram-me de que, segundo o princípio da incerteza da
mecânica quântica, buracos negros em rotação deviam criar e emitir
partículas. Aceitei os seus argumentos no campo físico, mas não gostei da
forma matemática como eles calculavam a emissão. Assim, dediquei-me a
elaborar um tratamento matemático melhor, que descrevi num seminário
informal em Oxford, no fim de Novembro de :, 1973. Nessa altura, não tinha
feito os cálculos para encontrar a taxa de emissão. Estava à espera de
descobrir apenas a radiação que Zeldovich e Starobinsky tinham predito para
buracos negros em rotação. Contudo, quando elaborei o cálculo, descobri, para
minha surpresa e aborrecimento, que mesmo buracos negros sem rotação
deviam aparentemente criar e emitir partículas a razão constante. Primeiro,
pensei que essa emissão indicasse que um dos métodos que eu tinha utilizado
não fosse válido. Tinha medo de que, se Bekenstein encontrasse esse
resultado, o usasse como mais um argumento para apoiar as suas teorias da
entropia dos buracos negros, das quais eu continuava a não gostar. Contudo,
quanto mais pensava no assunto, mais parecia que realmente estava certo.
Mas, o que finalmente me convenceu de que a emissão era real foi o facto de o
espectro das partículas emitidas ser exactamente o que seria emitido por um
corpo quente, e de o buraco negro estar a emitir partículas exactamente à razão
correcta para evitar infracções à segunda lei. Desde então os cálculos foram
repetidos de diversas formas por outras pessoas. Todos confirmam que um
buraco negro deve emitir partículas e radiação como se fosse um corpo quente
com uma temperatura que depende apenas da sua massa: quanto maior for a
massa, mais baixa será a temperatura.
Como é possível que um buraco negro pareça emitir partículas quando
sabemos que nada consegue escapar de dentro do seu horizonte? A resposta,
segundo nos diz a teoria quântica, é que as partículas não vêm de dentro do
buraco negro, mas sim do espaço "vazio" contíguo ao horizonte de
acontecimentos! Podemos compreender isto da seguinte maneira: aquilo em
que pensamos como espaço "vazio" não pode ser completamente vazio,
porque isso significaria que todos os campos, por exemplo o gravitacional e o
electromagnético, tinham de ser exactamente zero. Contudo, o valor de um
campo e a sua variação com :, o tempo assemelham-se à posição e velocidade
de uma partícula: o princípio da incerteza implica que quanto maior for a
precisão com que se conhece uma destas quantidades, menor é aquela com
que se pode conhecer a outra. Portanto, no espaço vazio, o campo não pode
ser fixado exactamente em zero, porque então teria um valor preciso (zero) e
uma variação precisa (também zero). Tem de existir uma quantidade mínima
de incerteza, ou flutuações quânticas, no valor do campo. Podemos pensar
nessas flutuações como em pares de partículas de luz ou de gravitação que
aparecem juntas em certo momento, se afastam, e depois voltam a juntar-se e
aniquilam-se uma à outra. Essas partículas são partículas virtuais, tais como as
que transmitem a força gravitacional do Sol: ao contrário das partículas reais,
não podem ser observadas directamente com um detector de partículas. No
entanto, os seus efeitos indirectos, tais como variações na energia das órbitas
dos electrões nos átomos, podem ser medidos e concordam com as previsões
teóricas num grau de precisão notável. O princípio da incerteza também prediz
que haverá pares virtuais semelhantes de partículas de matéria, tais como
electrões ou quarks. Neste caso, contudo, um dos membros do par será uma
partícula e o outro uma antipartícula (as antipartículas da luz e da gravidade
identificam-se com as respectivas partículas).
Como a energia não pode ser criada a partir do nada, uma das companheiras
num par partícula/antipartícula terá energia positiva e a outra energia negativa.
A que tem energia negativa está condenada a ser uma partícula virtual de curta
duração, porque as partículas reais têm sempre energia positiva em situações
normais. Deve, pois, procurar a sua companheira e aniquilarem-se as duas.
Contudo, uma partícula real que esteja perto de um corpo maciço tem menos
energia do que se estivesse longe, porque é preciso energia para a afastar para
longe, contra a :, atracção gravitacional do corpo. Normalmente, a energia da
partícula continua a ser positiva, mas o campo gravitacional dentro de um
buraco negro é tão forte que mesmo aí uma partícula real pode ter energia
negativa. É portanto possível, se estiver presente um buraco negro, que a
partícula virtual com energia negativa caia dentro dele e se torne uma partícula
ou antipartícula real. Neste caso, já não tem de aniquilar-se juntamente com a
sua parceira. Esta, abandonada, pode cair também dentro do buraco negro. Ou,
se tiver energia positiva, pode também fugir da vizinhança do buraco negro
como uma partícula ou antipartícula real (Fig. 7.4). Para um observador à
distância, parecerá ter sido emitida do buraco negro. Quanto mais pequeno
este for, menor será a distância que a partícula com energia negativa terá de
percorrer antes de se tornar uma partícula real, e assim maior será a taxa de
emissão e a temperatura aparente do buraco negro.
fig. 7.4
A energia positiva da radiação que sai seria equilibrada por um fluxo de
partículas de energia negativa para dentro do buraco negro. Pela equação de
Einstein *E = mcâ2* (em que *E* é a energia, *m* a massa e *c* a
velocidade da luz), a energia é proporcional à massa. Um fluxo de energia
negativa dentro do buraco negro reduz, portanto, a sua massa. À medida que o
buraco negro perde massa, a área do seu horizonte de acontecimentos torna-se
mais pequena, mas esta diminuição na entropia do buraco negro é mais do que
compensada pela entropia da radiação emitida, de maneira que a segunda lei
nunca é violada.
Além disso, quanto menor for a massa do buraco negro, mais alta será a sua
temperatura. Portanto, à medida que o buraco negro perde massa, a sua
temperatura e a taxa de emissão aumentam, de modo que perde massa mais
depressa. Quando a massa do buraco negro eventualmente se torna
extremamente pequena, o que acontece não é bem claro, mas a hipótese mais
razoável é que desaparecerá :, completamente numa tremenda explosão final
de emissão, equivalente à explosão de milhões de bombas H.
Um buraco negro com uma massa de algumas vezes a massa do Sol teria uma
temperatura de apenas dez milionésimos de um grau acima do zero absoluto.
Esta temperatura é muito mais baixa do que a da radiasão de micro-ondas que
enche o Universo (cerca de 2.7 acima do zero absoluto), de modo que estes
buracos emitiriam ainda menos do que absorvem. Se o Universo estiver
destinado a expandir-se para sempre, a temperatura da radiação de microondas
diminuirá eventualmente até menos do que a de um destes buracos
negros, que começará então a perder :, massa. Mas, mesmo então, a sua
temperatura seria tão baixa que seriam precisos cerca de um milhão de
milhões de milhões de milhões de milhões de milhões de milhões de milhões
de milhões de milhões de milhões de anos (1 seguido de sessenta e seis zeros)
para se evaporar completamente. Isto é muito mais tempo do que a idade do
Universo, que é apenas de cerca de dez ou vinte mil milhões de anos (1 ou 2
seguido de dez zeros). Por outro lado, conforme mencionei no capítulo sexto,
pode haver buracos negros primevos com uma massa muito mais pequena,
formados pelo colapso de irregularidades nos primórdios do Universo. Esses
buracos negros teriam uma temperatura muito mais alta e estariam a emitir
radiação a uma taxa muito maior. Um buraco negro primevo com uma massa
inicial de mil milhões de toneladas teria um tempo de vida mais ou menos
igual à idade do Universo. Buracos negros primevos com massas iniciais
menores do que este número já se teriam evaporado completamente, mas os
que tivessem massas ligeiramente superiores continuariam ainda a emitir
radiação na forma de raios X e raios gama. Os raios X e raios gama são
semelhantes a ondas de luz, mas com comprimentos de onda muito mais
curtos. Esses buracos não chegam a merecer o epíteto de *negros*: na
realidade, são *rubro-brancos* e emitem energia à razão de dez mil
megawatts.
Um buraco negro destes podia fazer funcionar dez grandes centrais geradoras
se conseguíssemos domesticar a sua energia. Contudo, isto seria muito difícil:
o buraco negro teria a massa de uma montanha comprimida num espaço de
dimensão inferior a três milionésimos de milionésimo de centímetro, o
tamanho do núcleo de um átomo! Se houvesse um buraco negro destes na
superfície da Terra, não haveria maneira de o impedir de cair até ao centro da
Terra. Oscilaria através da Terra até eventualmente se instalar no centro.
Portanto, o único sítio para se colocar um :, buraco negro desta natureza, em
que se poderia utilizar a energia por ele emitida, seria em órbita ao redor da
Terra, e a única maneira de se conseguir que orbitasse à volta da Terra seria
atraindo-o para aí, arrastando uma enorme massa à sua frente, como uma
cenoura à frente de um burro. Não parece uma coisa muito prática, pelo menos
no futuro imediato.
Mas mesmo que não se possa aprisionar a emissão destes buracos negros
primevos, quais são as nossas hipóteses de os observar? Podíamos procurar os
raios gama que emitem durante a maior parte da sua vida. Embora a radiação
da maior parte deles fosse muito fraca, por estarem longe, o total de todos eles
podia ser detectável. Conseguimos observar essa radiação de fundo de raios
gama: a Fig. 7.5 mostra como a intensidade observada difere da intensidade
teórica para frequências diferentes (número de ondas por segundo). Porém,
essa radiação de fundo podia ter sido, e provavelmente foi, gerada por outros
processos diversos. A linha tracejada na Fig. 7.5 mostra como a intensidade
deve variar com a frequência dos raios gama emitidos pelos buracos negros
primevos, se eles fossem em média trezentos por ano-luz cúbico. Podemos,
portanto, dizer que as observações do ruído de fundo de raios gama não
fornecem qualquer prova *positiva* da existência de buracos negros
primevos, mas dizem-nos, isso sim, que em média não pode haver mais do que
trezentos em cada ano-luz cúbico no Universo. Este limite significa que os
buracos negros primevos podem constituir no máximo um milionésimo da
matéria do Universo.
fig. 7.5
Com esta escassez de buracos negros primevos, podia parecer inverosímil que
existisse um suficientemente perto para podermos observá-lo como fonte
individual de raios gama. Mas, uma vez que a gravidade atrairia os buracos
negros primevos em direcção a qualquer matéria, deviam ser muito mais
frequentes dentro e em volta das galáxias. :, Portanto, embora o ruído de fundo
de raios gama nos diga que não podem existir mais do que trezentos buracos
negros primevos em média por ano-luz cúbico, nada nos diz sobre até que
ponto podem ser vulgares na nossa galáxia. Se fossem, digamos, um milhão
de vezes mais frequentes, então o buraco negro mais próximo de nós estaria
provavelmente a uma distância de cerca de mil milhões de quilómetros, ou
seja, mais ou menos tão longe quanto Plutão, o planeta conhecido mais
afastado. A essa distância seria ainda muito difícil detectar a emissão
constante de um buraco negro mesmo que fosse de dez mil megawatts. Para se
poder observar um buraco negro primevo, seria preciso detectar vários quanta
de raios gama vindos da mesma direcção num intervalo de tempo razoável,
como uma semana. De outra maneira, podiam simplesmente ser :, parte da
radiação de fundo. Mas o principio quântico de Planck diz-nos que cada
quantum de raios gama tem energia muito elevada, porque os raios gama têm
uma frequência muito alta, de tal modo que não seriam precisos muitos quanta
para radiar mesmo dez mil megawatts. E, para os observarmos vindos da
distância de Plutão, seria preciso um detector de raios gama maior do que
qualquer construído até agora. Além disso, o detector teria de estar no espaço
porque os raios gama não conseguem penetrar a atmosfera.
É evidente que, se um buraco negro tão perto como Plutão chegasse ao fim da
sua vida e explodisse, seria fácil detectar o rebentamento final de emissão.
Mas, se o buraco negro esteve a emitir durante os últimos dez ou vinte mil
milhões de anos, a hipótese de chegar ao fim da sua vida dentro dos próximos
anos, e não vários milhões de anos no passado ou no futuro, era realmente
bastante remota! Portanto, para se ter uma hipótese razoável de ver uma
explosão antes de se acabar o dinheiro da bolsa de estudos, seria preciso
descobrir uma maneira de detectar quaisquer explosões a uma distância de
cerca de um ano-luz. Restaria ainda o problema de ser preciso um grande
detector de raios gama para observar os quanta provenientes da explosão.
Contudo, nesse caso, não seria necessário determinar que todos os quanta
vinham da mesma direcção: seria suficiente observar que todos chegavam com
intervalos de tempo de diferença para se ter uma confiança razoável de que
provinham da mesma explosão.
Um detector de raios gama capaz de localizar buracos negros primevos é toda
a atmosfera da Terra. (De qualquer maneira, é muito pouco provável que
sejamos capazes de construir um detector maior!) Quando um quantum de
raios gama de energia elevada atinge os átomos da nossa atmosfera, cria pares
de electrões e positrões. Quando estes atingem outros átomos, estes, por sua
vez, :, criam mais pares de electrões e positrões, de modo que se obtém aquilo
a que se chama uma chuva de electrões. O resultado é uma forma de luz
chamada radiação de Cerenkov. Podemos, portanto, detectar explosões de
raios gama procurando explosões de luz no céu nocturno. É evidente que há
muitos outros fenómenos, tais como os relâmpagos e reflexos da luz do Sol
em satélites e detritos em órbita, que também podem provocar explosões de
luz no céu. Podemos distinguir as explosões de raios gama dos outros efeitos
observando simultaneamente explosões de luz em dois ou mais lugares
bastante separados. Uma pesquisa deste género foi já realizada por dois
cientistas de Dublin, Neil Porter e Trevor Weekes, utilizando telescópios no
Arizona. Descobriram várias explosões de luz, mas nenhuma que pudesse ser
definitivamente atribuída a explosões de raios gama de buracos negros
primevos.
Mesmo que a pesquisa de buracos negros primevos venha a ser negativa,
como parece provável, dar-nos-á importantes informações sobre as fases do
princípio do Universo. Se este tivesse sido caótico ou irregular, ou se a
pressão de matéria tivesse sido baixa, esperar-se-ia que se tivessem produzido
muito mais buracos negros primevos do que o limite já determinado pelas
nossas observações da radiação de fundo de raios gama. Só se o Universo
primordial tivesse sido muito regular e uniforme, com alta pressão, é que
podíamos explicar a ausência de buracos negros primevos observáveis.
A ideia da radiação proveniente de buracos negros foi o primeiro exemplo de
um prognóstico que dependia de um modo essencial de ambas as grandes
teorias deste século: a relatividade geral e a mecânica quântica. Ao princípio
suscitou muita oposição, porque vinha perturbar os pontos de vista existentes:
"Como é que um buraco negro pode emitir qualquer coisa?" Quando anunciei
os resultados dos meus cálculos numa conferência no Laboratório :,
Rutherford-Appleton, perto de Oxford, fui recebido com incredulidade geral.
No fim da minha conferência, o presidente da sessão, John G. Taylor, do
Kings College de Londres, afirmou que era tudo um chorrilho de disparates.
Até escreveu umas considerações nesse sentido. No entanto, no fim, a maior
parte das pessoas, incluindo John Taylor, acabaram por chegar à conclusão de
que os buracos negros deviam radiar, tal como os corpos quentes, se as nossas
ideias presentes sobre a relatividade geral e a mecânica quântica estivessem
certas. Assim, mesmo sem termos ainda conseguido encontrar um buraco
negro primevo, há um consenso razoável de que, se o encontrarmos, terá de
estar a emitir uma grande porção de raios X e gama.
A existência de radiação proveniente de buracos negros parece implicar que o
colapso gravitacional não é tão final e irreversível como chegámos a pensar.
Se um astronauta cair num buraco negro, a massa deste aumentará, mas
eventualmente a energia equivalente a essa massa extra será devolvida ao
Universo sob a forma de radiação. Assim, num certo sentido, o astronauta será
"reciclado". Seria, contudo, uma pobre espécie de imortalidade, porque
qualquer conceito pessoal de tempo para o astronauta chegaria quase de
certeza ao fim, quando ele fosse feito em pedaços dentro do buraco negro!
Mesmo o tipo de partículas eventualmente emitidas pelo buraco negro seria
em geral diferente das que constituíam o astronauta: a única característica do
astronauta que sobreviveria seria a sua massa ou energia.
As aproximações que usei para obter a emissão dos buracos negros funcionam
bem quando o buraco negro tem uma massa maior do que uma fracção de
grama. Contudo, falham no fim da vida do buraco negro, quando a sua massa
se torna muito pequena. O resultado mais prováve1 parece ser que o buraco
negro acabe por desaparecer, :, pelo menos da nossa região do Universo,
levando consigo o astronauta e qualquer singularidade que possa estar lá
dentro, se realmente existir alguma. Esta foi a primeira indicação de que a
mecânica quântica podia retirar as singularidades previstas pela relatividade
geral. Todavia, os métodos que eu e outros usámos em 1974 não eram para dar
resposta a questões tais como se haveria singularidades em gravidade
quântica. A partir de 1975, comecei então a desenvolver uma nova
aproximação à gravidade quântica, baseando-me na ideia de Richard Feynman
da soma de histórias. As respostas que esta aproximação sugere para a origem
e destino último do Universo e do seu conteúdo, tal como são os astronautas,
serão descritas nos dois capítulos seguintes. Veremos que, embora o princípio
da incerteza limite a precisão de todos os nossos prognósticos, pode, ao
mesmo tempo, remover a imprevisibilidade fundamental que ocorre numa
singularidade do espaço-tempo.
VIII. A Origem
e o Destino do Universo
A teoria da relatividade geral de Einstein previa que o espaço-tempo começara
com a singularidade do *big bang* e terminaria com a singularidade do
grande esmagamento (1) (se o Universo viesse a entrar em colapso) ou numa
singularidade no interior de um buraco negro (se uma região local, tal como
uma estrela, entrasse em colapso). Qualquer matéria que caísse no buraco
seria destruída na singularidade e só o efeito gravitacional da sua massa
continuaria a ser sentido fora dele. Por outro lado, quando os efeitos quânticos
foram tidos em conta, parecia que a massa, ou a energia da matéria, acabaria
por ser eventualmente devolvida ao resto do Universo e que o buraco negro,
juntamente com qualquer singularidade no seu interior, se evaporaria e,
finalmente, desapareceria. Poderia a mecânica quântica ter um efeito
igualmente dramático sobre as singularidades do *big bang* e do grande
esmagamento? Que acontece realmente durante os primeiros ou os últimos
estádios do Universo, quando os campos gravitacionais são tão intensos que os
efeitos quânticos não podem ser ignorados? O Universo tem, de facto, um
princípio ou um fim? E, se assim é, como são? :,
(1) *Big Crunch* no original (*N. do R.*).
Durante os anos 70 dediquei-me particularmente ao estudo dos buracos
negros, mas em 1981 o meu interesse pelas questões da origem e destino do
Universo reacendeu-se quando assisti a uma conferência organizada pelos
jesuítas no Vaticano. A Igreja Católica tinha cometido um grave erro com
Galileu, quando tentou impor a lei numa questão científica, declarando que o
Sol girava à volta da Terra. Agora, séculos volvidos, decidira convidar alguns
especialistas para a aconselharem sobre cosmologia. No fim da conferência, os
participantes foram recebidos em audiência pelo papa que nos disse que estava
certo estudar a evolução do Universo desde o *big bang* (2), mas que não
devíamos inquirir acerca do *big bang* em si, porque esse tinha sido o
momento da Criação e, portanto, trabalho de Deus. Nessa altura fiquei
satisfeito por ele ignorar qual havia sido a minha contribuição para a
conferência: a possibilidade de o espaço-tempo ser finito mas sem fronteiras
(3), o que significaria que não tinha tido um princípio e que não havia nenhum
momento de Criação. Não tinha qualquer desejo de partilhar a sorte de
Galileu, com quem me sinto fortemente identificado, em parte devido à
coincidência de ter nascido exactamente trezentos anos depois da sua morte!
(2) Georges Lemaitre foi o primeiro cosmólogo a advogar a tese do estado
inicial de alta densidade, a que chamou átomo primevo. Lemaitre nasceu em
1894 e foi ordenado sacerdote em 1927, no mesmo ano em que obteve o grau
de doutor (PhD) no MIT e publicou o seu trabalho sobre a origem do
Universo. Parecia a Lemaitre, bem como à Igreja Católica, que este modelo se
adaptava particularmente bem ao momento da Criação (*N. do R.*).
(3) Sem fronteira no espaço-tempo não é o mesmo que sem fronteira no
espaço e no tempo (*N. do R.*).
Para explicar as ideias que eu e outros temos sobre a maneira como a
mecânica quântica pode afectar a origem e o destino do Universo, é necessário
compreender primeiro :, a história do Universo geralmente aceite, segundo o
que é conhecido por "modelo quente" do *big bang*. Este presume que o
Universo é descrito por um modelo de Friedmann, mesmo até ao *big bang*.
Em modelos deste género, descobre-se que, à medida que o Universo se
expande, qualquer matéria ou radiação arrefece. (Quando 0 Universo duplica
de tamanho, a temperatura baixa para metade) (4). Uma vez que a temperatura
é simplesmente uma medida da energia média, ou velocidade, das partículas,
este arrefecimento do Universo teria um efeito importante sobre a matéria nele
existente.
(4) De facto, a radiação arrefece mais devagar do que a matéria com a
expansão. Houve uma era em que a matéria e a radiação se achavam em
equilíbrio térmico. A partir do fim desse tempo, a radiação e a matéria
passaram a evoluir separadamente, não mais interagindo uma com a outra (*n.
do r.*).
A temperaturas muito elevadas, as partículas mover-se-iam tão depressa que
anulavam o efeito da atracção mútua devida a forças nucleares ou
electromagnéticas, mas quando arrefecessem (5) esperar-se-ia que partículas
que se atraem começassem a juntar-se em amontoados. Além disso, mesmo os
tipos de partículas que podem existir no Universo dependem da temperatura.
(5) Temperatura é sinónimo de energia cinética média das partículas (*n. do
r.*)
A temperaturas suficientemente elevadas, as partículas têm tanta energia que,
sempre que colidam, originam muitos pares diferentes de
partícula/antipartícula e, embora alguns desses pares se aniquilem, a produção
será mais rápida que a aniquilação. Contudo, a temperaturas mais baixas,
quando as partículas colidem com menor energia, os pares de
partícula/antipartícula seriam produzidos a uma taxa menor e a aniquilação
tornar-se-ia mais efectiva que a produção.
Pensa-se que no momento do *big bang* o tamanho do universo fosse zero e,
portanto, estivesse infinitamente :, quente. Mas, à medida que se expandiu, a
temperatura da radiação baixou. Um segundo após o *big bang* teria baixado
para cerca de dez mil milhões de graus, o que é cerca de mil vezes a
temperatura no centro do Sol; temperaturas tão elevadas como estas são
alcançadas em explosões de bombas H. Nesse tempo, o Universo teria contido
sobretudo fotões, electrões e neutrinos (partículas extremamente leves que só
são afectadas pela força fraca e pela gravidade) e as suas antipartículas,
juntamente com alguns protões e neutrões. À medida que o Universo
continuou a expandir-se e a temperatura a baixar, a razão à qual os pares de
electrões/positrões foram sendo produzidos em colisões deve ter descido
abaixo daquela a que eram destruídos pela aniquilação. Portanto, a maior parte
dos electrões e positrões ter-se-iam destruído uns aos outros produzindo mais
fotões e deixando apenas um remanescente de electrões. No entanto, os
neutrinos e os antineutrinos não se teriam aniquilado uns aos outros porque
estas partículas só muito fracamente interagem entre si e com outras
partículas. Por conseguinte, ainda devem andar por aí. Se pudéssemos
observá-las, teríamos uma boa experiência da imagem de um estado muito
quente do princípio do Universo. Infelizmente, as suas energias estariam agora
demasiado baixas para as podermos observar directamente. Contudo, se os
neutrinos tiverem massa, nem que seja uma pequena massa própria, como foi
sugerido por uma experiência russa, não confirmada, efectuada em 1981,
talvez possamos detectá-los indirectamente: podem ser uma forma de "matéria
escura" como a que atrás mencionei, com atracção gravitacional suficiente
para suspender a expansão do Universo e obrigá-lo a entrar em colapso.
Cerca de cem segundos após o *big bang*, a temperatura deve ter baixado
para mil milhões de graus que é a temperatura no interior das estrelas mais
quentes. A esta temperatura, os protões e os neutrões já não teriam energia :,
suficiente para escapar à acção da força nuclear forte e teriam começado a
combinar-se uns com os outros para produzir os núcleos de átomos de deutério
(hidrogénio pesado), que contêm um protão e um neutrão. Os núcleos do
deutério ter-se-iam combinado com mais protões e neutrões para formar
núcleos de hélio, que contêm dois protões e dois neutrões, além de pequenas
quantidades de dois elementos mais pesados, o lítio e o berílio. Pode imaginarse
que no modelo quente do *big bang* cerca de um quarto dos protões e dos
neutrões se teria convertido em núcleos de hélio, juntamente com uma
pequena quantidade de hidrogénio pesado e outros elementos. Os neutrões que
restaram decairiam em protões, que são os núcleos dos átomos de hidrogénio
vulgares (6).
(6) Ver nota página 138 (*n. do r.*).
Esta imagem de um estado quente do Universo primitivo foi sugerida pela
primeira vez pelo cientista George Gamow num famoso trabalho apresentado
em 1948, juntamente com um aluno seu, Ralph Alpher. Gamow tinha bastante
sentido de humor e persuadiu o cientista nuclear Hans Bethe a acrescentar o
seu nome ao trabalho, para que a lista dos autores fosse "Alpher, Bethe e
Gamow", como as três primeiras letras do alfabeto grego, alfa, beta e gama,
particularmente apropriadas para um trabalho sobre o começo do Universo!
Neste trabalho apresentaram a notável predição de que a radiação (sob a forma
de fotões) proveniente dos primeiros tempos do Universo devia andar por aí,
mas com a temperatura reduzida a apenas uns graus acima do zero absoluto (-
273°C). Foi esta radiação que Penzias e Wilson descobriram em 1965. Na
altura em que Alpher, Bethe e Gamow escreveram o seu artigo, pouco se sabia
sobre reacções nucleares dos protões e dos neutrões. Prognósticos elaborados
para as proporções dos vários elementos no Universo primevo eram, :,
portanto, bastante imprecisos, mas os cálculos têm sido repetidos já com
conhecimentos actualizados e agora concordam perfeitamente com a
observação. Além do mais, é muito difícil explicar de outra maneira por que
há tanto hélio no Universo. Estamos, portanto, razoavelmente confiantes de ter
encontrado a imagem certa, pelo menos até cerca de um segundo depois do
*big bang*.
Poucas horas depois do *big bang*, a produção de hélio e dos outros
elementos deve ter parado. E, depois disso, durante o milhão de anos seguinte,
mais ou menos, o Universo deve ter continuado a expandir-se, sem acontecer
nada de especial. Eventualmente, quando a temperatura desceu a alguns
milhares de graus e os electrões e os núcleos já não tinham energia suficiente
para dominar a atracção electromagnética entre si, devem ter começado a
combinar-se para formar átomos (7). O Universo, no seu conjunto, deve ter
continuado a expandir-se e a arrefecer mas, em regiões ligeiramente mais
densas que a média, a expansão deve ter sido mais lenta, por causa da atracção
gravitacional extra.
(7) Esta época e conhecida por época da recombinação (*n. do r.*).
Este facto deve ter suspendido a expansão em algumas regiões e tê-las feito
entrar em colapso. Enquanto sofriam colapso, a atracção gravitacional da
matéria fora destas regiões talvez as tivesse feito entrar em rotação ligeira. À
medida que a região em colapso ficava mais pequena, rodava mais depressa,
tal como patinadores que rodopiam no gelo com maior velocidade quando
encolhem os braços. Eventualmente, quando a região ficou suficientemente
pequena, deve ter girado suficientemente depressa para contrabalançar a
atracção da gravidade e, desse modo, nasceram galáxias em rotação com a
forma de disco. Outras regiões, que não começaram a rodar, originaram
objectos de forma oval, chamados galáxias :, elípticas (8). Nestas, o colapso
deve ter sido sustido, porque partes individuais da galáxia estariam em órbita
estável em redor do seu centro, mas a galáxia como um todo não teria rotação.
(8) Em rigor deveria chamar-se-lhes elipsoidais, pois não são aplanadas (*n.
do r.*).
À medida que o tempo foi passando, o hidrogénio e o hélio existentes nas
galáxias ter-se-iam dividido em nuvens mais pequenas que entraram em
colapso sob o efeito da sua própria gravidade. Enquanto estas se contraiam, e
os átomos colidiam uns com os outros no seu interior, a temperatura do gás
aumentava, até acabar por se tornar suficientemente elevada para se iniciarem
reacções de fusão nuclear. Estas convertiam o hidrogénio em mais hélio e o
calor emitido aumentava a pressão e evitava assim que as nuvens se
contraíssem mais. Terão ficado estáveis durante muito tempo, como estrelas
iguais ao nosso Sol, transformando hidrogénio em hélio e radiando a energia
resultante como calor e luz. Estrelas mais maciças precisavam de ser mais
quentes para poderem equilibrar a sua atracção gravitacional mais forte,
fazendo com que as reacções de fusão nuclear se sucedessem de tal maneira
mais depressa que gastavam o seu hidrogénio em apenas cem milhões de anos.
Então contraíam-se ligeiramente e, quando aqueciam mais, começavam a
transformar hélio em elementos mais pesados como o carbono ou o oxigénio.
Isto, contudo, não libertava muito mais energia, de maneira que surgia uma
crise, como foi descrito no capítulo referente aos buracos negros. O que
acontece depois não é perfeitamente claro, mas parece provável que as regiões
centrais da estrela entrem em colapso até um estado muito denso, como uma
estrela de neutrões ou um buraco negro. As regiões exteriores da estrela
podem por vezes ser destruídas numa tremenda explosão chamada supernova,
:, que brilha mais do que qualquer outra estrela na sua galáxia. Alguns dos
elementos mais pesados produzidos perto do fim da vida da estrela seriam
ejectados de novo para o gás da galáxia (9), fornecendo alguma da matériaprima
para a nova geração de estrelas. O nosso próprio Sol contém cerca de
2% destes elementos mais pesados, porque é uma estrela de segunda ou
terceira geração, formada há cerca de cinco mil milhões de anos, a partir de
uma nuvem de gás em rotação contendo os detritos de supernovas mais
antigas. A maior parte do gás dessa nuvem formou o Sol ou foi "soprado"
[para o espaço exterior], mas uma pequena quantidade de elementos mais
pesados juntou-se para formar os corpos que agora orbitam em torno do Sol,
os planetas, entre os quais a Terra.
(9) Este fenómeno cíclico, que possibilita a reciclagem da matéria no espaço
interestelar é designado por *astração* (*n. do r.*).
A Terra, ao princípio, estava muito quente e sem atmosfera. Com o tempo,
arrefeceu e adquiriu uma atmosfera a partir de gases emitidos pelas rochas. A
atmosfera primeva não nos teria permitido sobreviver. Não continha oxigénio,
mas uma quantidade de outros gases venenosos para nós, como o ácido
sulfídrico (o gás que cheira a ovos podres). Há, no entanto, outras formas
primitivas de vida que podem desenvolver-se perfeitamente em tais condições.
Pensa-se que se desenvolveram nos oceanos, possivelmente como resultado de
combinações casuais de átomos em grandes estruturas, chamadas
macromoléculas, que eram capazes de produzir estruturas semelhantes a partir
de outros átomos no oceano. Ter-se-iam então reproduzido e multiplicado. Em
alguns casos teria havido erros na reprodução. Na sua maior parte esses erros
teriam sido tais que a nova macromolécula não podia reproduzir-se e
eventualmente terá acabado por ser destruída. Contudo, alguns dos erros
teriam produzido novas macromoléculas que se :, reproduziam ainda melhor.
Apresentavam, portanto, vantagens e tinham tendência para substituir as
macromoléculas originais. Deste modo se iniciou um processo de evolução
que levou ao desenvolvimento de organismos auto-reprodutores cada vez mais
complicados. As primitivas formas de vida consumiam diversos materiais,
incluindo o ácido sulfídrico, e libertavam oxigénio. Isto modificou
gradualmente a atmosfera até à composição que tem hoje e permitiu o
desenvolvimento de formas de vida mais perfeitas como os peixes, os répteis,
os mamíferos e, por fim, a raça humana.
Esta imagem de um universo que começou muito quente e arrefeceu enquanto
se expandia está de acordo com todas as provas observacionais que hoje
possuímos. No entanto, deixa um importante número de perguntas sem
resposta:
1) Por que motivo era o Universo tão quente no princípio?
2) Por que razão é o Universo tão uniforme em macro-escala? Por que é que
parece o mesmo em todos os pontos do espaço e em todas as direcções? Em
particular, por que é que a temperatura da radiação do fundo de micro-ondas é
tão semelhante quando olhamos em direcções diferentes? Parecem perguntas
de exame a um grupo de estudantes. Se todos dão a mesma resposta, podemos
ter quase a certeza de que copiaram. No entanto, no modelo que acabamos de
descrever não teria havido tempo para a luz ir de uma região distante até outra,
depois do *big bang*, embora as regiões estivessem perto umas das outras no
princípio do Universo. Segundo a teoria da relatividade, se a luz não consegue
ir de uma região para outra, nenhuma outra informação consegue. Assim, não
havia hipótese de regiões diferentes no começo do Universo terem a mesma
temperatura, a não ser que, por qualquer razão inexplicável, tivessem tido a
mesma temperatura inicial. :,
3) Por que é que o Universo começou com uma taxa de expansão tão próxima
da crítica, que separa universos que voltam a entrar em colapso daqueles que
se expandem para sempre, de tal maneira que mesmo hoje, dez milhões de
anos mais tarde continua a expandir-se aproximadamente à mesma razão
crítica? Se a taxa de expansão um segundo depois do *big bang* tivesse sido
menor, nem que fosse uma parte em cem mil milhões de milhões, o Universo
teria voltado a entrar em colapso antes de ter alcançado o seu tamanho actual.
4) Apesar de o Universo ser tão uniforme e homogéneo em macro-escala,
contém irregularidades locais, como as estrelas e as galáxias. Pensa-se que
estas se desenvolveram a partir de pequenas diferenças na densidade do
Universo inicial, de região para região. Qual a origem destas flutuações de
densidade?
A teoria da relatividade geral por si própria não pode explicar estas
características ou responder a estas perguntas, por causa do seu prognóstico de
que o Universo começou com densidade infinita na singularidade do *big
bang*. Na singularidade, a relatividade geral e todas as outras leis físicas
perdem a validade: não é possível prever o que vai sair da singularidade.
Como já foi explicado, isto significa que pode perfeitamente excluir-se da
teoria o *big bang* e quaisquer acontecimentos anteriores, porque não podem
ter qualquer efeito naquilo que observamos. O espaço-tempo *teria* um
limite: um começo no *big bang*.
A física parece ter descoberto um conjunto de leis que, dentro dos limites
impostos pelo princípio da incerteza, nos dizem como o Universo vai evolver,
se soubermos em que estado está em determinado momento. Estas leis podem
ter sido decretadas por Deus, mas parece que Ele deixou depois o Universo
evoluir segundo elas, sem intervir mais. Mas como é que Ele escolheu o
estado ou configuração :, inicial do Universo? Quais foram as "condiçõesfronteira"
no começo do tempo?
Uma resposta possível é dizer que Deus escolheu a configuração inicial do
Universo por razões que nunca compreenderemos. Isso estaria certamente
dentro dos poderes de um ser omnipotente, mas se Ele o criou de uma maneira
tão incompreensível, por que é que o deixou depois evoluir segundo leis que
conseguimos compreender? Toda a história da ciência tem sido a compreensão
gradual de que os acontecimentos não ocorrem de maneira arbitrária, mas que
reflectem certa ordem subjacente, que pode ou não ser de inspiração divina.
Nada mais natural do que supor que essa ordem se aplica não apenas às leis,
mas também às condições que, na fronteira do espaço-tempo, especificam o
estado inicial do Universo. Pode haver grande número de modelos do
Universo com diferentes condições iniciais que obedecem todos às leis. Devia
haver algum princípio que determinasse um estado inicial e daí um modelo
para representar o nosso Universo.
Uma possibilidade é aquilo a que se chama condições-fronteira caóticas. Estas
presumem implicitamente que o Universo é espacialmente infinito ou que há
infinitamente muitos universos. Sob condições-fronteira caóticas, a
probabilidade de descobrir uma região particular do espaço numa dada
configuração logo após o *big bang* é a mesma, em certo sentido, que a
probabilidade de a descobrir em qualquer outra configuração: o estado inicial
do Universo é escolhido puramente ao acaso. Isto significa que o Universo, no
princípio, era provavelmente muito irregular e caótico, por haver muito mais
configurações caóticas e irregulares para o Universo do que regulares e
ordenadas. (Se cada configuração é igualmente provável, é admissível que o
Universo tenha tido início num estado desordenado e caótico, simplesmente
por haver mais soluções destas). E difícil ver como é que tais condições
iniciais caóticas :, podem ter dado origem a um Universo tão regular e sem
acidentes, em macro-esca a, como é o nosso actualmente. Também se
esperaria que as flutuações de densidade em tal modelo tivessem levado à
formação de mais buracos negros primevos do que o limite máximo imposto
por observações da radiação gama de fundo.
Se o Universo é realmente espacialmente infinito, ou se há infinitamente
muitos universos, haveria provavelmente muitas extensas regiões em algum
local surgidas de uma maneira regular e uniforme. É um pouco como o bem
conhecido bando de macacos a escrever à máquina; a maior parte do que
escrevem não presta, mas ocasionalmente, por puro acaso, poderão escrever
um soneto de Shakespeare. Igualmente, no caso do Universo, será que estamos
a viver numa região que, por mero acaso, é regular e uniforme? À primeira
vista, isto pode parecer muito pouco provável, porque regiões assim regulares
seriam largamente ultrapassadas em número por regiões irregulares e caóticas.
Porém, vamos supor que só nas regiões regulares é que se formaram galáxias e
estrelas e que as condições eram adequadas ao desenvolvimento de
complicados organismos auto-replicativos, como nós, que fossem capazes de
fazer a pergunta: por que motivo o Universo é tão regular? Este é um exemplo
da aplicação do chamado princípio antrópico, que pode ser parafraseado do
seguinte modo: "Nós vemos o Universo da maneira que é porque existimos".
Há duas versões do princípio antrópico, a fraca e a forte. O princípio antrópico
fraco afirma que, num universo que é grande ou infinito no espaço e/ou no
tempo, as condições necessárias para o desenvolvimento de vida inteligente só
se encontram em certas regiões limitadas no espaço e no tempo. Os seres
inteligentes dessas regiões não devem, portanto, admirar-se por observarem
que a sua localização no Universo satisfaz as condições necessárias à sua
existência. :, é um pouco como uma pessoa muito rica que vive numa área de
pessoas ricas e nunca vê a pobreza.
Um exemplo da utilização do princípio antrópico fraco é explicar por que
motivo o *big bang* ocorreu há cerca de dez mil milhões de anos: porque é
esse o tempo necessário para a evolução de seres inteligentes. Como já
expliquei, começou por se formar uma primeira geração de estrelas. Essas
estrelas converteram algum do hidrogénio e do hélio originais em elementos
como o carbono e o oxigénio, dos quais somos formados. As estrelas então
explodiram como supernovas e os seus detritos formaram outras estrelas e os
planetas, entre eles os do nossos sistema solar, que tem cerca de cinco mil
milhões de anos de idade. Os primeiros mil ou dois mil milhões de anos da
existência da Terra foram demasiado quentes para que qualquer coisa
complicada se pudesse desenvolver. Os restantes três mil milhões de anos, ou
coisa parecida, foram ocupados pelo processo lento da evolução biológica, que
foi desde os organismos mais simples até seres capazes de medir o tempo para
trás, até ao *big bang*.
Poucas pessoas argumentariam contra a validade ou utilidade do princípio
antrópico fraco. Algumas, no entanto, vão muito mais além e propõem uma
versão forte do princípio. De acordo com esta teoria, ou existem muitos
universos diferentes ou muitas regiões diferentes num único universo, cada
uma com a sua configuração inicial e, talvez, com o seu conjunto próprio de
leis físicas. Na maior parte destes universos, as condições não seriam
adequadas ao desenvolvimento de organismos complicados; só nos poucos
universos semelhantes ao nosso é que se desenvolveriam seres inteligentes que
fariam a pergunta: "Por que é que o Universo é como o vemos?" A resposta
então é simples: se fosse diferente, não estaríamos aqui!
As leis da ciência, tal como as conhecemos actualmente, contêm muitos
números fundamentais, como a magnitude :, da carga eléctrica do electrão e a
proporção das massas do protão e do electrão. Pelo menos de momento, não
podemos prever os valores destes números a partir da teoria; temos de os
medir por observação. Pode ser que um dia descubramos uma teoria unificada
completa que preveja tudo isso, mas também é possível que alguns, ou todos
eles, variem de universo para universo, ou dentro do mesmo universo. O que é
notável é que os valores destes números parecem ter sido muito bem
ajustados, para tornar possível o desenvolvimento da vida. Por exemplo, se a
carga eléctrica do electrão fosse apenas ligeiramente diferente, as estrelas ou
seriam incapazes de queimar hidrogénio e hélio, ou então não teriam
explodido. Claro que pode haver outras formas de vida inteligente, nem sequer
sonhadas pelos escritores de ficção científica, que não precisem da luz de uma
estrela como o Sol ou dos elementos químicos mais pesados que são
sintetizados nas estrelas e devolvidos ao espaço quando as estrelas explodem.
Todavia, parece claro que há relativamente poucas escalas de valores para os
números que permitissem o desenvolvimento de qualquer forma de vida
inteligente. A maioria dos conjuntos de valores daria origem a universos que,
embora pudessem ser muito bonitos, não conteriam ninguém que se
maravilhasse com essa beleza. Podemos tomar isto como prova de um
propósito divino na Criação e na escolha das leis da natureza ou como suporte
do princípio antrópico forte.
Várias objecções se podem levantar contra o princípio antrópico forte como
explicação do estado observável do Universo. Primeiro, em que sentido é que
pode dizer-se que existem todos esses universos? Se estão realmente
separados uns dos outros, o que acontece em outro universo não pode ter
consequências observáveis no nosso Universo. Devemos, portanto, utilizar o
princípio da economia e eliminá-los da teoria. Se, por outro lado, não são mais
do :, que regiões diferentes de um único universo, as leis físicas seriam as
mesmas em todas as regiões, porque, se assim não fosse, não se podia andar
continuamente de uma região para outra. Neste caso, a única diferença entre as
regiões seria a sua configuração inicial e, portanto, o princípio antrópico forte
reduzir-se-ia ao fraco.
Uma segunda objecção ao princípio antrópico forte é o facto de correr contra a
maré da história da ciência. Desenvolvemo-lo a partir das cosmologias
geocêntricas de Ptolomeu e dos seus antepassados, através da cosmologia
heliocêntrica de Copérnico e de Galileu, até ao quadro moderno em que a
Terra é um planeta de tamanho médio orbitando em redor de uma estrela
média nos subúrbios de uma galáxia espiralada comum, que é apenas uma de
cerca de um milhão de milhões de galáxias no Universo observável. Contudo,
o princípio antrópico forte afirmaria que toda esta vasta construção existe
simplesmente por nossa causa. O que é muito difícil de acreditar. O nosso
sistema solar é certamente um pré-requisito para a nossa existência, e
podemos abranger com isto toda a nossa Galáxia para justificar uma geração
anterior de estrelas que criaram os elementos mais pesados. Mas não parece
haver qualquer necessidade para todas as outras galáxias nem para o Universo
ser tão uniforme e semelhante em todas as direcções em macro-escala.
Podíamos sentir-nos mais felizes quanto ao princípio antrópico, pelo menos na
sua versão fraca, se pudéssemos mostrar que um vasto número de diferentes
configurações iniciais para o Universo podiam ter evoluído para produzir um
universo como o que observamos. Se for esse o caso, um universo que se
desenvolveu ao acaso a partir de quaisquer condições iniciais devia conter um
número de regiões regulares, uniformes e adequadas à evolução da vida
inteligente. Por outro lado, se o estado inicial do Universo teve de ser
escolhido com todo o cuidado para conduzir a qualquer :, coisa como o que
vemos à nossa volta, seria improvável que o Universo contivesse *qualquer*
região onde tivesse aparecido vida. No modelo quente (10) do *big bang* já
descrito, não houve tempo suficiente no estado inicial do Universo para o
calor ir de uma região para outra.
(10) Também designado por modelo padrão (*n. do r.*).
Isto significa que o estado inicial do Universo devia ter tido exactamente a
mesma temperatura por toda a parte, para explicar o facto de a radiação de
micro-ondas de fundo ter a mesma temperatura, para onde quer que olhemos.
A taxa inicial de expansão também devia ter sido escolhida com grande
precisão para que se mantivesse tão próxima da razão crítica necessária para
evitar o colapso. Isto significa que, se o modelo quente do *big bang* está
certo até ao começo do tempo, o estado inicial do Universo deve ter sido
realmente escolhido com grande cuidado. Seria muito difícil explicar o motivo
pelo qual o Universo deve ter começado exactamente assim, excepto como
acto de um deus que tencionava criar seres como nós.
Numa tentativa de descobrir um modelo do Universo em que muitas
configurações iniciais diferentes podiam ter evoluído até qualquer coisa como
o Universo actual, um cientista do Instituto de Tecnologia de Massachusetts,
Alan Guth, sugeriu que o Universo, ao princípio, podia ter passado por um
período de expansão muito rápida. Esta expansão diz-se "inflacionária",
significando que o Universo, a certa altura, se expandiu com velocidade
crescente e não com velocidade decrescente, como acontece hoje. Segundo
Guth, o raio do Universo aumentou um milhão de milhões de milhões de
milhões de milhões de vezes (1 seguido de trinta zeros) em apenas uma
minúscula fracção de segundo.
Guth sugeriu que o Universo começou com o *big bang* num estado muito
quente mas bastante caótico. Essas temperaturas :, elevadas teriam significado
que as partículas do Universo se moviam muito depressa e tinham energias
elevadas. Como já discutimos, esperar-se-ia que a temperaturas tão elevadas
as forças nucleares fraca e forte e a força electromagnética estariam unificadas
numa força única. O Universo em expansão arrefeceria e as energias das
partículas baixariam. Eventualmente, chegar-se-ia ao que se chama uma
transição de fase e a simetria entre as forças seria quebrada: as forças forte,
fraca e electromagnética tornar-se-iam distintas. Um exemplo vulgar de uma
transição de fase é o congelamento da água, quando arrefece. A água líquida é
simétrica, igual em todos os pontos e todas as direcções. Contudo, quando se
formam cristais de gelo, estes têm posições definidas e ficam alinhados numa
direcção, o que quebra a simetria da água.
No caso da água, se tivermos cuidado, podemos "sobre-arrefecê-la", ou seja,
podemos reduzir a temperatura abaixo do ponto de congelamento (0° C) sem
se formar gelo. Guth sugeriu que o Universo podia comportar-se de modo
semelhante: a temperatura podia descer abaixo do valor crítico sem que a
simetria entre forças fosse quebrada. Se isto acontecesse, o Universo estaria
num estado instável, com mais energia do que se a simetria tivesse sido
destruída. Esta energia extra especial tem um efeito antigravitacional: teria
agido tal como a constante cosmológica que Einstein introduziu na
relatividade geral quando tentava construir um modelo estático do Universo.
Uma vez que o Universo já estaria a expandir-se como no modelo quente do
*big bang*, o efeito repulsivo desta constante cosmológica teria provocado a
expansão do Universo a uma razão sempre crescente. Mesmo as regiões onde
havia mais partículas de matéria do que na média, a atracção gravitacional da
matéria teria sido anulada pelo efeito repulsivo da constante cosmológica.
Assim, estas regiões expandir-se-iam também de uma maneira inflacionária
acelerada. :, Quando se expandissem e as partículas de matéria se afastassem,
teríamos um universo em expansão que conteria apenas algumas partículas e
que estaria ainda no estado super-arrefecido. Quaisquer irregularidades no
Universo teriam simplesmente sido suavizadas pela expansão, como as pregas
num balão são alisadas quando o enchemos. Assim, o actual estado regular e
uniforme do Universo pode ter evoluído de muitos estados iniciais não
uniformes e diferentes.
Num universo assim, em que a expansão foi acelerada por uma constante
cosmológica em vez de ser retardada pela atracção gravitacional, haveria
tempo suficiente para a luz viajar de uma região para outra no universo inicial.
Isto poderia fornecer a solução do problema já levantado, do porquê de as
diferentes regiões no princípio do Universo terem as mesmas propriedades.
Além disso, a taxa de expansão do Universo tornar-se-ia automaticamente
muito próxima da taxa crítica determinada pela densidade de energia do
Universo. Isto podia explicar por que a taxa de expansão é ainda tão próxima
da taxa crítica, sem ser necessário admitir que a taxa inicial tenha sido
cuidadosamente escolhida.
A ideia de inflação podia também explicar por que motivo existe tanta matéria
no Universo. Há cerca de cem milhões de milhões de milhões de milhões de
milhões de milhões de milhões de milhões de milhões de milhões de milhões
de milhões de milhões (1 seguido de oitenta zeros) de partículas na região do
Universo que podemos observar. De onde vieram? A resposta é que, na teoria
quântica, as partículas podem ser criadas a partir da energia em forma de pares
de partícula/antipartícula. Mas isto suscitou a questão de se saber de onde vem
a energia. A resposta é que a energia total do Universo é exactamente zero. A
matéria do Universo é constituída por energia positiva. Contudo, a matéria
atrai-se a si própria devido à gravidade. :, Dois pedaços de matéria que
estejam perto um do outro têm menos energia do que se estiverem muito
afastados, porque é preciso gastar energia para os separar contra a força da
gravidade que os atrai um para o outro. Portanto, em certo sentido, o campo
gravitacional tem energia negativa. No caso de um universo que é
aproximadamente uniforme no espaço, pode mostrar-se que esta energia
gravitacional negativa anula exactamente a energia positiva representada pela
matéria. Portanto, a energia total do Universo é zero.
Ora, duas vezes zero é zero. Assim, o Universo pode duplicar a quantidade de
energia positiva da matéria e também duplicar a energia gravitacional negativa
sem violar a conservação da energia. Isto não acontece na expansão normal do
Universo, em que a densidade de energia da matéria diminui à medida que 0
Universo se torna maior. Acontece sim na expansão inflacionária, porque a
densidade de energia do estado super-arrefecido permanece constante
enquanto o Universo se expande: quando o Universo duplica o tamanho, a
energia positiva da matéria e a energia gravitacional negativa também
duplicam, de modo que a energia total continua a ser zero. Durante a fase
inflacionária, o Universo aumenta muito o seu tamanho, o que faz com que a
quantidade total de energia disponível para produzir partículas se torne muito
grande. Como Guth afirmou, "Diz-se que não há nada como um almoço de
graça. Mas o Universo é o derradeiro almoço de graça".
Actualmente, o Universo não está a expandir-se de uma maneira inflacionária.
Portanto, tem de haver um mecanismo qualquer que elimine o enorme efeito
da constante cosmológica e assim modifique a taxa de expansão acelerada
para uma taxa desacelerada pela gravidade, como a que temos agora. Na
expansão inflacionária, pode esperar-se que eventualmente a simetria entre as
forças seja quebrada :, tal como a água sobre-arrefecida acaba sempre por
gelar. A energia extra do estado de simetria não quebrada seria então libertada
e voltaria a aquecer o Universo até uma temperatura imediatamente abaixo da
temperatura crítica para a simetria entre as forças. O Universo continuaria
então a expandir-se e a arrefecer tal como o universo padrão do *big bang*,
mas haveria agora uma explicação para o facto de o Universo estar a expandirse
exactamente à taxa crítica e de diferentes regiões terem a mesma
temperatura.
Na proposta original de Guth, supunha-se que a transição de fase ocorria
repentinamente um pouco como o aparecimento de cristais de gelo em água
muito fria. A ideia era que "bolhas" da nova fase de simetria quebrada se
tinham formado na fase antiga, como bolhas de vapor em água a ferver. As
bolhas expandir-se-iam e juntar-se-iam umas às outras até todo o Universo se
encontrar na nova fase. O contratempo era, como eu e outros sublinhámos,
que o Universo estava a expandir-se tão depressa que, mesmo que as bolhas
crescessem à velocidade da luz, afastar-se-iam umas das outras e assim nunca
se poderiam juntar. O Universo ficaria num estado não uniforme, onde
algumas regiões conservariam ainda simetria entre as diferentes forças. Tal
modelo de universo não corresponderia ao que vemos.
Em Outubro de 1981, fui a Moscovo, para uma conferência sobre a gravidade
quântica. Depois da conferência dirigi um seminário sobre o modelo
inflacionário e os seus problemas, no Instituto Astronómico Sternberg. No
público estava um jovem russo, Andrei Linde, do Instituto Lebedev de
Moscovo, que disse que a dificuldade de as bolhas não se juntarem podia ser
evitada se as bolhas fossem tão grandes que a nossa região do Universo
estivesse toda contida numa só. Para isto resultar, a quebra de simetria devia
ter ocorrido muito lentamente dentro da :, bolha, o que é absolutamente
possível segundo as teorias da grande unificação. A ideia de Linde de uma
quebra lenta de simetria era muito boa, mas mais tarde cheguei à conclusão de
que as bolhas precisavam de ter sido maiores do que o Universo! Mostrei que
afinal a simetria teria sido quebrada por toda a parte ao mesmo tempo, em vez
de apenas dentro das bolhas. Isto conduzia a um universo uniforme, tal como
o observamos. Fiquei muito excitado com a ideia e discuti-a com um dos meus
alunos, Ian Moss. Como amigo de Linde, fiquei bastante embaraçado quando
mais tarde me enviaram o seu trabalho através de uma revista cientifica,
perguntando-me se tinha qualidade para ser publicado. Respondi que havia
essa falha acerca de as bolhas serem maiores que o Universo, mas que a ideia
fundamental de uma quebra lenta de simetria era muito boa. Recomendei [no
entanto] que o artigo fosse publicado tal como estava porque Linde levaria
alguns meses a corrigi-lo, visto que tudo o que ele mandasse para o Ocidente
teria de passar pela censura soviética que não era muito hábil nem muito
rápida com os artigos científicos. Entretanto, escrevi um curto artigo,
juntamente com Ian Moss, que foi publicado na mesma revista, em que
chamávamos a atenção para o problema da bolha e mostrávamos como podia
ser resolvido.
Logo no dia seguinte ao do meu regresso de Moscovo, parti para Filadélfia,
onde ia receber uma medalha no Instituto Franklin. A minha secretária, Judy
Fella, tinha usado o seu considerável encanto para persuadir a British Airways
a oferecer-nos, a mim e a ela, duas passagens de graça num *Concorde*, a
título publicitário. Contudo, atrasei-me no caminho para o aeroporto por causa
da chuva e perdi o avião. Mas acabei por chegar a Filadélfia e receber a minha
medalha. Pediram-me depois que dirigisse um seminário sobre o universo
inflacionário. Passei a maior parte do seminário a falar sobre os problemas do
modelo inflacionário, :, tal como em Moscovo, mas no fim mencionei a ideia
de Linde de uma quebra lenta de simetria e as minhas correcções. Na
assistência estava um jovem assistente da Universidade da Pensilvânia, Paul
Steinhardt, que no fim conversou comigo sobre a inflação. Em Fevereiro
seguinte enviou-me um artigo escrito por ele e por um aluno, Andreas
Albrecht, em que propunham qualquer coisa muito semelhante à ideia de
Linde da quebra lenta de simetria. Disse-me mais tarde que não se lembrava
de me ter ouvido descrever as ideias de Linde e que tinha visto o trabalho dele
somente quando estava quase a chegar ao fim do seu.
No Ocidente, ele e Albrecht, juntamente com Linde, são considerados autores
conjuntos do que se chama "o novo modelo inflacionário", baseado na ideia da
quebra lenta de simetria. (O antigo modelo inflacionário era a sugestão
original de Guth de uma súbita quebra de simetria com a formação de bolhas).
O novo modelo inflacionário foi uma boa tentativa para explicar o motivo pelo
qual o Universo é como é. No entanto, eu e outros demonstrámos que, pelo
menos na sua forma original, previa muito maiores variações na temperatura
da radiação de fundo de micro-ondas do que as que são observadas. Trabalhos
posteriores também lançaram dúvidas sobre se podia haver uma transição de
fase no começo do Universo do tipo necessário. Na minha opinião pessoal, o
novo modelo inflacionário está morto como teoria científica, embora muita
gente pareça não ter ouvido falar da sua morte e continue a escrever trabalhos
como se ele fosse viável. Um modelo melhor, chamado modelo inflacionário
caótico, foi proposto por Linde em 1983. Neste não existe qualquer transição
de fase ou sobre-arrefecimento. Em vez disso, há um campo de spin 0, que,
devido a flutuações quânticas, teria tido valores elevados em algumas regiões
do Universo inicial. A energia do :, campo nessas regiões comportar-se-ia
como uma constante cosmológica. Teria um efeito gravitacional repulsivo e
levaria, portanto, essas regiões a expandirem-se de uma maneira inflacionária.
À medida que se expandiam, a energia do campo diminuiria lentamente até
que a expansão inflacionária se transformava numa expansão como a do
modelo quente do *big bang*. Uma dessas regiões viria a ser aquilo que agora
designamos por Universo observável. Este modelo tem as vantagens dos
primeiros modelos inflacionários, mas não depende de uma fase de transição
duvidosa e pode, além disso, fornecer dimensões razoáveis para as flutuações
da temperatura do fundo de micro-ondas concordantes com a observação.
Este trabalho sobre modelos inflacionários mostrou que o estado actual do
Universo podia ter surgido de um número bastante elevado de configurações
iniciais diferentes. Isto é importante, porque mostra que o estado inicial da
parte do Universo que habitamos não teve de ser escolhido com grande
cuidado. Portanto, podemos, se quisermos, utilizar o princípio antrópico fraco
para explicar o motivo por que o Universo tem o aspecto que hoje tem. O que
não pode ser, no entanto, é que cada configuração inicial tenha conduzido a
um Universo como o que observamos. Podemos mostrá-lo considerando um
estado muito diferente para o Universo na actualidade, digamos um estado
muito irregular. Podemos utilizar as leis da física para imaginar o Universo no
passado a fim de determinar a sua configuração inicial. Segundo os teoremas
de singularidade da relatividade geral, continuaria a ter havido a singularidade
do *big bang*. Se imaginarmos a evolução desse universo segundo as leis da
física, acabamos com o estado irregular e heterogéneo com que cor 1eçamos.
Portanto, deve ter havido configurações iniciais que não dariam origem a um
Universo como o que vemos hoje. Até o modelo inflacionário não nos diz por
que motivo :, a configuração inicial não era de molde a produzir qualquer
coisa muito diferente do que a que observamos. Teremos de nos voltar para o
princípio antrópico para obter uma explicação? Terá sido apenas uma questão
de sorte? Pareceria uma causa perdida, uma negação de todas as nossas
esperanças de compreendermos a ordem subjacente do Universo.
Para se poder reconstituir o estado inicial do Universo são precisas leis que
prevaleçam até ao começo do tempo. Se a teoria clássica da relatividade geral
estiver correcta, os teoremas de singularidades que Roger Penrose e eu
provámos mostram que o começo do tempo devia ter sido um ponto de
densidade infinita e curvatura infinita do espaço-tempo. Todas as leis
conhecidas perderiam a validade num tal ponto. Podemos supor que existem
novas leis que se mantenham válidas nas singularidades, mas é muito difícil
formulá-las em pontos de comportamento tão mau, e não temos qualquer
indicador, a partir das observações, que nos diga como devem ser essas leis.
Todavia, o que os teoremas de singularidade indicam realmente é que o campo
gravitacional se torna tão forte que os efeitos da gravitação quântica se tornam
importantes: a teoria clássica deixa de ser uma boa descrição do Universo.
Assim, é preciso utilizar uma teoria quântica da gravidade para discutir o
estado primitivo do Universo. Como veremos, é possível na teoria quântica,
que as leis vulgares da ciência se mantenham válidas por toda a parte,
inclusive no princípio do tempo: não é necessário postular novas leis para as
singularidades, porque as singularidades na teoria quântica não são necessárias
[ou inevitáveis].
Ainda não temos uma teoria completa e coerente que combine a mecânica
quântica com a gravidade. No entanto, temos praticamente a certeza de
algumas características necessárias a uma teoria unificada como essa. Uma é a
que deve incorporar a proposta de Feynman de :, formular a teoria quântica
em termos de uma soma de histórias. Neste caso, uma partícula não tem
apenas uma história, como teria numa teoria clássica. Em vez disso, supõe-se
que siga todas as trajectórias possíveis no espaço-tempo e que a cada uma
dessas histórias está associado um par de números, um representando o
comprimento da onda e o outro representando a sua posição no ciclo (a sua
fase). A probabilidade de a partícula, digamos, passar por algum ponto
especial é encontrada somando as ondas associadas com cada história possível
que passe por esse ponto. Quando tentamos realmente efectuar estas somas
aparecem, contudo, graves problemas técnicos. A única maneira de os evitar é
a seguinte receita estranha: é preciso somar as ondas para as histórias de
partículas que não estão no tempo "real" em que nós nos encontramos, mas
que ocorrem no que se chama tempo imaginário. Tempo imaginário é
qualquer coisa que pode cheirar a ficção científica, mas é na realidade um
conceito matemático bem definido. Se tomarmos um número ordinário ou
"real" e o multiplicarmos por si próprio, o resultado é um número positivo.
(Por exemplo, 2 vezes 2 é 4, mas também o é -2 vezes -2). Existem, contudo,
números especiais, chamados imaginários, que dão números negativos quando
multiplicados por si próprios. (O chamado *i*, quando multiplicado por si
próprio dá -1; 2*i* multiplicado por si próprio dá -4, etc.) Para evitar as
dificuldades técnicas com a soma de histórias de Feynman, é preciso utilizar o
tempo imaginário, quer dizer, para efeitos de cálculo, deve medir-se o tempo
utilizando números imaginários em vez de reais. Isto tem um efeito
interessante sobre o espaço-tempo: a distinção entre espaço e tempo
desaparece completamente. Um espaço-tempo no qual os acontecimentos têm
valores imaginários da coordenada tempo diz-se euclidiano, do nome do grego
Euclides, que fundou 0 estudo da geometria de superfícies bidimensionais.
Aquilo a que agora :, chamamos espaço-tempo euclidiano é muito semelhante,
excepto o facto de ter quatro dimensões em vez de duas. No espaço-tempo
euclidiano não existe diferença entre a direcção do tempo e as direcções do
espaço. Por outro lado, no espaço real, em que os acontecimentos são
identificados, por valores ordinários e reais da coordenada tempo, é fácil
distinguir a diferença: a direcção do tempo em todos os pontos fica dentro do
cone de luz e as direcções do espaço ficam fora. Em qualquer caso, no que diz
respeito à mecânica quântica podemos considerar a nossa utilização do tempo
imaginário e do espaço-tempo euclidiano como uma mera artimanha ou truque
matemático para calcular respostas acerca do espaço-tempo real.
A segunda característica que julgamos pertencer a qualquer teoria acabada é a
ideia de Einstein de que o campo gravitacional é representado por um espaçotempo
curvo: as partículas tentam seguir uma coisa parecida com uma
trajectória rectilínea num espaço curvo mas, como o espaço-tempo não é
plano, as suas trajectórias parecem encurvadas como que por acção do campo
gravitacional. Quando aplicamos a soma das histórias de Feynman à imagem
de Einstein da gravidade, o que é análogo à história de uma partícula é agora
um espaço-tempo completamente curvo, que representa a história do Universo
no seu conjunto. Para fugir às dificuldades técnicas ao efectuar realmente a
soma das histórias, estes espaços-tempos curvos devem ser tomados como
euclidianos (11). Ou seja, o tempo é imaginário e não se consegue distinguir
das direcções no espaço. Para calcular a probabilidade de encontrar um
espaço-tempo real com determinada propriedade, tal como ter o mesmo
aspecto em qualquer ponto e em qualquer :, direcção, somam-se as ondas
associadas a todas as histórias que tenham essa propriedade.
(11) Euclideano no sentido de que o tempo e o espaço se encontram
unificados, não no sentido geométrico rigoroso da palavra (*n. do r.*).
Na teoria clássica da relatividade geral, existem muitos espaços-tempo
possíveis diferentes, cada um correspondendo a um diferente estado inicial do
Universo. Se conhecêssemos o estado inicial do Universo, conheceríamos toda
a sua história. De modo semelhante, na teoria quântica da gravidade há muitos
estados quânticos possíveis para o Universo. Mais uma vez, se soubéssemos
como se comportaram os espaços-tempo euclidianos curvos na soma das
histórias nos tempos primitivos conheceríamos o estado quântico do Universo.
Na teoria clássica da gravidade, que é baseada num espaço-tempo real, só há
dois comportamentos possíveis para o Universo: ou existe há um tempo
infinito, ou então teve um princípio numa singularidade há um tempo finito no
passado. Na teoria quântica da gravidade, por seu lado, surge uma terceira
possibilidade. Como se utilizam espaços-tempo euclidianos, nos quais a
direcção do tempo está em pé de igualdade com as direcções do espaço, é
possível o espaço-tempo ser finito na sua extensão e, contudo, não ter
quaisquer singularidades a formarem uma fronteira ou um limite. O espaçotempo
seria como a superfície da Terra, mas com mais duas dimensões. A
superfície da Terra é finita na sua extensão, mas não tem uma fronteira ou
limite. Se navegarmos em direcção ao pôr do Sol não caímos de nenhuma
fronteira nem se nos depara uma singularidade. (Eu sei porque já dei a volta
ao mundo).
Se o espaço-tempo euclidiano se estende para trás até um tempo infinito
imaginário, depara-se-nos o mesmo problema da teoria clássica de especificar
o estado inicial do Universo: Deus pode saber como o Universo princípiou,
mas nós não somos capazes de encontrar uma razão especial para pensarmos
que começou de uma maneira e não de outra. Por outro lado, a teoria quântica
da gravidade :, abriu uma nova possibilidade, em que não existiria qualquer
fronteira para o espaço-tempo e portanto não haveria necessidade de
especificar o comportamento na fronteira. Não haveria quaisquer
singularidades em que as leis da ciência perdessem a sua validade nem
qualquer fronteira do espaço-tempo em que seria preciso pedir a Deus ou a
alguma nova lei que estabelecesse as condições-fronteira para o espaço-tempo.
Podíamos dizer: "A condição-fronteira do Universo é que não tem fronteira".
O Universo seria completamente independente e nunca afectado por qualquer
coisa exterior a ele. Não seria criado nem destruído. SERIA apenas.
Foi na conferência no Vaticano, que já mencionei, que apresentei pela
primeira vez a sugestão de que talvez o tempo e o espaço juntos formassem
uma superfície finita em tamanho, mas sem qualquer fronteira ou limite. O
meu trabalho era bastante matemático, pelo que as suas implicações quanto ao
papel de Deus na Criação do Universo não foram geralmente reconhecidas na
altura (felizmente para mim). Nessa altura ainda não sabia como utilizar a
ideia "sem fronteira" para elaborar prognósticos sobre o Universo. No entanto,
passei o Verão seguinte na Universidade da Califórnia, em Santa Bárbara. Aí,
um colega e amigo, Jim Hartle, trabalhou comigo, tentando descobrir que
condições o Universo devia satisfazer se o espaço-tempo não tivesse fronteira.
Quando regressei a Cambridge, continuei o trabalho com dois dos meus
alunos de investigação, Julian Luttrel e Jonathan Halliwell.
Gostaria de frisar que esta ideia de que o tempo e o espaço devem ser finitos
sem qualquer fronteira não passa de uma proposta: não pode ser deduzida de
qualquer outro princípio. Tal como qualquer outra teoria científica, pode ser
inicialmente proposta por razões estéticas ou metafísicas, mas a prova real
reside em saber se faz previsões que concordem com a observação. Isto,
porém, é difícil de :, determinar no caso da gravidade quântica por duas
razões: primeiro, como será explicado no próximo capítulo, ainda não temos a
certeza exacta de qual é a teoria que combina com êxito a relatividade geral e
a mecânica quântica, embora saibamos bastante sobre a forma que tal teoria
deve ter; segundo, qualquer modelo que descreva o Universo no seu todo, em
pormenor, seria demasiado complicado matematicamente para sermos capazes
de calcular previsões exactas. Portanto, temos de fazer suposições e
aproximações simplificativas e, mesmo assim, o problema de extrair previsões
mantém-se.
Cada história na soma das histórias descreverá não apenas o espaço-tempo
mas tudo o que existe nele também, incluindo quaisquer organismos
complicados como os seres humanos que são capazes de observar a história do
Universo. Isto pode fornecer outra justificação para o princípio antrópico,
porque, se todas as histórias são possíveis, então desde que existamos numa
delas, podemos utilizar o princípio antrópico para explicar o motivo pelo qual
o Universo parece ser tal como é. Que significado exacto pode ser dado às
outras histórias em que não existimos, não sabemos. Esta ideia de uma teoria
quântica da gravidade seria muito mais satisfatória, no entanto, se pudéssemos
mostrar que, usando a soma das histórias, o nosso Universo não é apenas uma
das histórias possíveis mas sim uma das mais prováveis. Para conseguir isto,
temos de operar a soma das histórias para todos os espaços-tempo euclidianos
possíveis que não têm fronteira.
Sob proposta de não haver fronteira, ficamos a saber que a hipótese de o
Universo estar a seguir a maior parte das histórias possíveis é insignificante,
mas existe um grupo especial de histórias que são muito mais prováveis do
que as outras. Estas histórias podem ser imaginadas como a Superfície da
Terra, em que a distância ao Pólo Norte representa o tempo imaginário e o
perímetro de um círculo :, a essa distância constante do Pólo Norte representa
o tamanho espacial do Universo. O Universo começa no Pólo Norte com um
simples ponto. À medida que nos dirigimos para sul, os círculos de latitude a
uma distância constante do Pólo Norte tornam-se maiores, correspondendo à
expansão do Universo no tempo imaginário (Fig. 8.1). O Universo chegaria ao
seu tamanho máximo no equador e contrair-se-ia no decurso do tempo
imaginário num ponto único, no Pólo Sul. Embora o Universo tivesse o
tamanho zero nos Pólos Norte e Sul, estes pontos não seriam singularidades,
tal como os Pólos Norte e Sul na Terra não são singularidades. As leis da
ciência manter-se-iam [válidas], tal como acontece nos Pólos Norte e Sul da
Terra.
fig. 8.1
A história do Universo no tempo real, contudo, teria um aspecto muito
diferente. Há cerca de dez ou vinte mil milhões de anos, teria um tamanho
mínimo, que era igual ao raio máximo da história no tempo imaginário. Mais
tarde, em tempos reais, o Universo expandir-se-ia como o modelo
inflacionário caótico proposto por Linde (mas agora já não teríamos de admitir
que o Universo tinha sido criado de qualquer maneira no estado certo). O
Universo expandir-se-ia até um tamanho muito grande e eventualmente :,
entraria de novo em colapso para aquilo que parece uma singularidade no
tempo real. Assim, em certo sentido, continuamos a estar condenados, mesmo
que nos mantenhamos afastados de buracos negros. Só se conseguíssemos
conceber o Universo em termos de tempo imaginário e que não haveria
singularidades.
Se o Universo está realmente em tal estado quântico, não haveria
singularidades na história do Universo no tempo imaginário. Podia parecer,
pois, que o meu trabalho mais recente tinha desfeito os resultados do meu
trabalho anterior sobre as singularidades. Mas, conforme acabei de indicar, a
verdadeira importância dos teoremas de singularidade era mostrar que o
campo gravitacional tem de tornar-se tão forte que os efeitos gravitacionais
quânticos não podem ser ignorados. Isto, por sua vez, levou à ideia de que o
Universo podia ser finito no tempo imaginário, mas sem limites ou
singularidades. Contudo, quando se volta ao tempo real em que vivemos,
continua a parecer que existem singularidades. O pobre astronauta que cai
num buraco negro continua a ter um fim infeliz; só se vivesse em tempo
imaginário é que não encontrava singularidades.
Isto podia sugerir que o chamado tempo imaginário é realmente o tempo
verdadeiro e que aquilo a que chamamos tempo real é produto da nossa
imaginação. No tempo real, o Universo tem um princípio e um fim, em
singularidades que formam uma fronteira para o espaço-tempo e perante as
quais as leis da ciência deixam de ser válidas. Mas, no tempo imaginário, não
há singularidades nem fronteiras. Assim, pode ser que aquilo que chamamos
tempo imaginário seja realmente mais básico e o que chamamos tempo real
seja apenas uma ideia que inventamos para nos ajudar a descrever como
pensamos que o Universo é. Mas, de acordo com a aproximação que descrevi
no capítulo primeiro, uma teoria científica não passa de :, um modelo
matemático que elaboramos para descrever as nossas observações: só existe
nas nossas mentes. Portanto, não tem significado perguntar: que é real, o
tempo "real" ou o "imaginário"? Trata-se apenas de saber qual é a descrição
mais útil.
Podemos também utilizar a soma das histórias, juntamente com a proposta de
não haver fronteira, para descobrir quais as propriedades do Universo mais
prováveis de ocorrer em conjunto. Por exemplo, podemos calcular a
probabilidade de o Universo estar a expandir-se quase à mesma razão em
diferentes direcções numa altura em que a densidade do Universo tem o seu
valor actual. Nos modelos simplificados que têm sido examinados até agora,
esta probabilidade parece ser grande, ou seja, a condição de não haver
fronteira leva ao prognóstico de ser extremamente provável que a actual taxa
de expansão do Universo seja quase a mesma em todas as direcções. Isto é
coerente com as observações da radiação do fundo de micro-ondas, que
mostra que ela tem quase exactamente a mesma intensidade em qualquer
direcção. Se o Universo estivesse a expandir-se mais depressa numa direcção
do que noutras, a intensidade da radiação nessas direcções seria reduzida por
um desvio adicional para o vermelho.
Estão a ser trabalhadas mais previsões da condição de
não haver fronteira. Um problema particularmente interessante é a amplitude
de pequenos desvios da densidade uniforme no Universo primordial, que
causaram a formação primeiro de galáxias, depois de estrelas e finalmente de
seres humanos. O princípio da incerteza implica que o Universo ao princípio
não pode ter sido completamente uniforme, porque deve ter havido algumas
incertezas ou flutuações nas posições e velocidades das partículas. Usando a
condição de não haver fronteira, descobrimos que o Universo deve, de facto,
ter começado com o mínimo possível de heterogeneidades permitido pelo
princípio da :, incerteza. O Universo teria então passado por um período de
expansão rápida, como nos modelos inflacionários. Durante esse período, as
heterogeneidades iniciais teriam sido ampliadas até serem suficientemente
grandes para explicar a origem das estruturas que observamos à nossa volta.
Num Universo em expansão em que a densidade da matéria variou
ligeiramente de local para local, a gravidade deve ter obrigado as regiões mais
densas a afrouxar a sua expansão e a começarem a contrair-se. Isto terá levado
à formação de galáxias, estrelas e, eventualmente, até de criaturas
insignificantes como nós. Assim, todas as estruturas complicadas que vemos
no Universo podiam ser explicadas pela condição de não haver fronteira para
o Universo juntamente com o princípio da incerteza da mecânica quântica.
A ideia de que o espaço e o tempo podem formar uma superfície fechada sem
fronteira tem também profundas implicações no papel de Deus na criação do
Universo. Com o êxito das teorias científicas na descrição de acontecimentos,
a maioria das pessoas acabou por acreditar que Deus permite que o Universo
evolua segundo um conjunto de leis e não intervém nele para quebrar essas
leis. Contudo, as leis não nos dizem qual era o aspecto do Universo primitivo.
O acto de dar corda ao relógio e escolher como pô-lo a trabalhar continuaria a
ser com Deus. Desde que o Universo tenha tido um princípio, podemos supor
que teve um Criador. Mas, se o Universo for na realidade completamente
independente, sem qualquer fronteira ou limite, não terá princípio nem fim:
existirá apenas. Qual seria então o papel do Criador?
IX. A Seta do Tempo
Em capítulos anteriores, vimos como as nossas ideias sobre a natureza do
tempo se modificaram com o passar dos anos. Até ao começo deste século, as
pessoas acreditavam num tempo absoluto. Ou seja, cada acontecimento podia
ser rotulado por um número chamado "tempo" de uma maneira única e todos
os relógios marcariam o mesmo lapso de tempo entre dois acontecimentos.
Contudo, a descoberta de que a velocidade da luz parecia ser a mesma para
todos os observadores, independentemente do modo como se movessem,
conduziu à teoria da relatividade, segundo a qual tínhamos de abandonar a
ideia de que havia um tempo absoluto único. Em vez disso, cada observador
teria a sua própria medida de tempo registada pelo seu relógio. os relógios de
pessoas diferentes não condiriam necessariamente uns com os outros. Deste
modo, o tempo tornou-se um conceito mais pessoal, relativo ao observador
que o media.
Quando se tentou unificar a gravidade com a mecânica quântica, foi preciso
introduzir a noção de tempo "imaginário". O tempo imaginário não se
distingue das direcções no espaço. Se se pode ir para o norte pode-se voltar
para trás e ir para o sul; do mesmo modo, se se pode avançar no tempo
imaginário também se deve poder voltar para :, trás. Isto quer dizer que não
pode haver uma diferença importante entre os sentidos para diante e para trás
no tempo imaginário. Por outro lado, quando se olha para o tempo "real", há
uma diferença enorme entre os sentidos para diante e para trás, como todos
sabemos. De onde vem esta diferença entre o passado e o futuro? Por que nos
lembramos do passado mas não do futuro?
As leis da ciência não estabelecem uma diferença entre o passado e o futuro.
Mais precisamente, como já foi explicado, as leis da ciência são invariantes
sob a combinação de operações (ou simetrias) conhecidas por C, P e T. (C
significa troca de partículas por antipartículas; P significa tomar a imagem ao
espelho, de modo que a esquerda e a direita fiquem trocadas; e T significa
trocar o sentido do movimento de todas as partículas, isto é, inverter o sentido
do movimento). As leis da ciência que governam o comportamento da matéria
em todas as circunstancias normais não se modificam sob a composição das
duas operações C e P. Por outras palavras, a vida seria igual para habitantes de
outro planeta que fossem ao mesmo tempo imagens nossas no espelho e
constituídos de antimatéria em vez de matéria.
Se as leis da ciência não se alteram com a composição das operações C e P,
nem pela combinação de C, P e T, também não deviam alterar-se com a
operação T isolada. Contudo, há uma diferença grande entre os sentidos para a
frente e para trás, no tempo real, na vida de todos os dias. Imaginemos uma
chávena com água que cai de uma mesa e se quebra em mil bocadinhos no
chão. Se tomarmos um filme desta cena, podemos facilmente dizer quando é
que o filme está a correr para diante ou para trás. Se o fizermos correr para
trás, veremos, de repente, os bocadinhos juntarem-se a partir do chão e
saltarem de novo para cima da mesa para formarem uma chávena inteira.
Podemos dizer que o filme é passado ao contrário, :, porque esta espécie de
comportamento nunca se observa na vida mundana. Se assim fosse, os
fabricantes de loiça iam à falência.
A explicação geralmente dada para o motivo de não vermos chávenas partidas
a juntarem-se de novo vindas do chão e a saltarem inteiras para cima de uma
mesa provem da segunda lei da termodinâmica. Esta diz que, em qualquer
sistema fechado, a desordem ou entropia aumenta sempre com o tempo. Por
outras palavras, é uma forma da lei de Murphy: As coisas têm sempre
tendência para correr mal! Uma chávena intacta em cima de uma mesa é um
estado de ordem, mas uma chávena partida no chão é um estado desordenado.
Podemos passar prontamente da chávena em cima da mesa no passado para a
chávena partida no chão, mas não o contrário.
O aumento de desordem ou entropia com o tempo é um exemplo do que se
chama uma seta do tempo, qualquer coisa que distingue o passado do futuro,
dando um sentido ao tempo. Há pelo menos três setas diferentes do tempo.
Primeiro há a seta termodinâmica, o sentido do tempo em que a desordem ou
entropia aumenta. Depois há a seta psicológica, ou seja, o sentido em que
sentimos que o tempo passa, em que nos lembramos do passado mas não do
futuro. Finalmente, há a seta cosmológica, que é o sentido do tempo em que o
Universo está a expandir-se em vez de contrair-se.
Neste capítulo argumentarei que a condição de não haver fronteira para o
Universo juntamente com o princípio antrópico fraco, podem explicar por que
motivo as três setas apontam no mesmo sentido e, além disso, por que deve
mesmo existir uma seta do tempo bem definida. Argumentarei que a seta
psicológica é determinada pela seta termodinâmica e que estas duas setas
apontam necessariamente no mesmo sentido. Se admitirmos que não há
qualquer condição de fronteira para o Universo, veremos :, que deve haver
uma seta termodinamica bem definida e uma seta cosmológica igualmente
bem definida, mas que nem sempre apontarão no mesmo sentido durante a
história do universo. Contudo, argumentarei que só quando apontam no
mesmo sentido é que as condições são propícias ao desenvolvimento de seres
inteligentes que podem perguntar: por que é que a desordem aumenta no
mesmo sentido do tempo em que o Universo se expande?
Discutirei primeiro a seta termodinâmica do tempo. A segunda lei da
termodinâmica resulta de haver sempre mais estados desordenados que
ordenados. Por exemplo, consideremos as peças de um quebra-cabeças dentro
de uma caixa; há um e um só arranjo em que as peças formam uma imagem
completa. Por outro lado, há um grande número de arranjos em que as peças
estão desordenadas e não formam uma imagem coerente.
Suponhamos que um sistema começa a partir de um pequeno número de
estados ordenados. À medida que o tempo passa, o sistema evoluirá de acordo
com as leis da física e o seu estado mudará. Mais tarde, é mais provável que o
sistema esteja num estado desordenado, porque existem mais estados
desordenados. Portanto, a desordem tenderá a aumentar com o tempo, se o
sistema obedecer a uma condição inicial de ordem elevada.
Suponhamos que as peças do quebra-cabeças partem de um arranjo ordenado
na caixa, formando uma imagem: se sacudirmos a caixa, as peças tomarão
outro arranjo, que será provavelmente desordenado, sem formar uma imagem,
simplesmente por haver muito mais arranjos desordenados. Alguns grupos de
peças podem formar partes da imagem, mas, quanto mais se sacode a caixa,
mais provável é que esses grupos se desfaçam e as peças fiquem num estado
de completa desordem em que não formam qualquer espécie de imagem.
Portanto, a desordem das peças :, provavelmente aumentará com o tempo, se
as peças obedecerem à condição inicial de ordem elevada.
Suponhamos, no entanto, que Deus decidiu que o Universo devia acabar num
estado muito ordenado, sem importar o seu estado inicial. Nos primeiros
tempos o Universo estaria possivelmente num estado desordenado, o que
significaria que a desordem diminuiria com o tempo. Veríamos chávenas
partidas a juntarem-se de novo a partir dos pedaços e a saltarem inteiras para
cima das mesas. Todavia, quaisquer seres humanos que estivessem a observar
as chávenas estariam a viver num universo em que a desordem diminuía com
o tempo. Argumentarei que esses seres teriam uma seta psicológica do tempo
voltada ao contrário. Ou seja, lembrar-se-iam de acontecimentos do futuro e
não se lembrariam de acontecimentos do seu passado. Quando a chávena se
partiu, lembrar-se-iam dela ter estado em cima da mesa, mas quando estava
realmente lá, não se lembrariam de ter estado no chão.
É bastante difícil falar da memória humana, porque não conhecemos o
funcionamento pormenorizado do cérebro. Sabemos, porém, tudo sobre o
funcionamento das memórias dos computadores. Assim, discutirei a seta
psicológica do tempo dos computadores. Penso que é razoável admitir que a
seta para os computadores é a mesma que para os homens. Se não fosse,
podíamos ganhar uma fortuna na Bolsa, com um computador que se lembrasse
dos preços de amanhã!
A memória de um computador é fundamentalmente um dispositivo que
contém elementos que podem existir num de dois estados. Um exemplo
simples é o ábaco. Na sua forma mais simples, consiste em alguns fios e em
cada um há contas que podem ser colocadas numa de duas posições. Antes de
uma informação ser registada, a memória de um computador está num estado
desordenado, com probabilidades iguais para os dois estados possíveis. (As
contas :, do ábaco estão colocadas ao acaso nos seus fios). Depois da memória
interagir com o sistema a ser lembrado, ficará claramente num estado ou no
outro de acordo com o estado do sistema. (Cada conta do ábaco estará ou à
esquerda ou à direita do fio). Portanto, a memória passou de um estado
desordenado para um estado ordenado. Contudo, para se ter a certeza de que a
memória está no estado devido, é necessário utilizar certa quantidade de
energia (para mover a conta ou para pôr a funcionar o computador, por
exemplo). Esta energia é dissipada como calor e aumenta a quantidade de
desordem no Universo. Pode mostrar-se que este aumento da desordem é
sempre maior do que o aumento da ordem da própria memória. Assim, o calor
expelido pela ventoinha de arrefecimento do computador significa que,
quando um computador regista uma informação na sua memória, a quantidade
total de desordem no Universo continua a aumentar. O sentido do tempo em
que um computador se lembra do passado é o mesmo em que a desordem
aumenta.
A nossa noção subjectiva do sentido do tempo, a seta psicológica do tempo, é
portanto determinada dentro do nosso cérebro pela seta termodinâmica. Tal
como um computador, devemos lembrar-nos das coisas pela ordem em que a
entropia aumenta. Isto torna a segunda lei da termodinâmica quase trivial. A
desordem aumenta com o tempo, porque medimos o tempo no sentido em que
a desordem aumenta. Não pode haver uma aposta mais segura!
Mas por que há-de a seta do tempo termodinâmico existir? Ou, por outras
palavras, por que há-de o Universo estar num estado de grande ordem numa
extremidade do tempo, aquela a que chamamos passado? Por que não está
num estado de desordem total em todos os momentos? Afinal, isto poderia ser
mais provável. E por que motivo é o sentido do tempo em que a desordem
aumenta o mesmo em que o Universo se expande? :,
Na teoria clássica da relatividade geral, não podemos predizer como o
Universo teria começado, porque todas as leis conhecidas da física perdem a
sua validade na singularidade do *big bang*. O Universo podia ter surgido
num estado muito regular e ordenado. Isto teria levado a setas termodinâmica
e psicológica bem definidas, como observamos. Mas podia igualmente ter
surgido num estado muito irregular e desordenado. Neste caso, o Universo
estaria já num estado de desordem completa pelo que esta não poderia
aumentar com o tempo. Ou se manteria constante, e nesse caso não haveria
qualquer seta termodinâmica do tempo bem definida, ou diminuiria e, nesse
caso, a seta termodinâmica do tempo apontaria no sentido oposto ao da seta
cosmológica. Nenhuma destas possibilidades concorda com o que
observamos. Porém, como vimos, a relatividade geral clássica prevê os seus
próprios limites. Quando a curvatura do espaço-tempo se torna grande, os
efeitos quânticos de gravitação tornar-se-ão importantes e a teoria clássica
deixará de ser uma boa descrição do Universo. É preciso utilizar uma teoria
quântica da gravidade para se compreender como surgiu o Universo.
Numa teoria quântica da gravidade, como vimos no capítulo anterior, para
especificar o estado do Universo, continuaria a ser preciso dizer como é que as
histórias possíveis do Universo se comportaram nos limites do espaço-tempo
no passado. Poder-se-ia evitar esta dificuldade de ter de descrever o que não se
sabe e não pode saber-se, apenas se as histórias satisfizessem a condição de
não haver fronteira; são finitas em extensão, mas não têm fronteiras, limites ou
singularidades. Nesse caso, o começo do tempo teria sido um ponto regular do
espaço-tempo e o Universo teria começado a sua expansão num estado muito
regular e ordenado. Podia não ter sido completamente uniforme, porque isso
violaria o princípio da incerteza da teoria quântica, mas ter havido pequenas
flutuações na densidade :, e nas velocidades das partículas. A condição de não
haver fronteira implicava, todavia, que essas flutuações eram o mais pequenas
possível, de acordo com o princípio da incerteza.
O Universo teria começado com um período de expansão exponencial ou
inflacionário, em que o seu tamanho teria tido um grande aumento. Durante
essa expansão, as flutuações de densidade teriam sido pequenas no princípio,
mas mais tarde começariam a aumentar. Regiões em que a densidade fosse
ligeiramente superior à média teriam tido a sua expansão retardada pela
atracção gravitacional da massa extra. Eventualmente, essas regiões teriam
deixado de se expandir e entrariam em colapso para formar galáxias, estrelas e
seres como nós. O Universo teria partido de um estado regular e ordenado e
ter-se-ia tornado irregular e desordenado à medida que o tempo ia passando.
Isto explicaria a existência da seta termodinâmica do tempo.
Mas que aconteceria se e quando o Universo parasse de se expandir e
começasse a contrair-se? A seta termodinaâmica inverter-se-ia e a desordem
começaria a diminuir com o tempo? Isto levaria a toda a espécie de
possibilidades do género da ficção científica para pessoas que sobrevivessem à
passagem da fase de expansão para a de contracção. Veríamos chávenas
partidas juntarem os seus bocadinhos do chão e saltarem de novo para cima
das mesas? Seriam capazes de se lembrar dos preços do dia seguinte e de
ganhar uma fortuna na Bolsa? Pode parecer um pouco académico preocuparnos
com o que acontecerá quando o Universo entrar em colapso, já que não
começará a contrair-se antes de mais dez mil milhões de anos. Mas há uma
maneira mais rápida de descobrir o que vai acontecer: saltar para dentro de um
buraco negro. O colapso de uma estrela para formar um buraco negro é
bastante parecido com os últimos estados do colapso de todo o Universo.
Portanto, se a desordem diminuísse na fase de contracção do Universo,
também podia esperar-se que diminuísse dentro de um buraco negro. Assim,
talvez um astronauta que caísse num buraco negro fosse capaz de ganhar
dinheiro à roleta por se lembrar onde a bola ia parar antes de fazer a jogada.
(Infelizmente, não teria muito tempo para jogar antes de ser transformado em
esparguete. Nem seria capaz de nos contar da inversão de sentido da seta
termodinâmica, nem de receber os ganhos, porque ficaria aprisionado por trás
do horizonte de acontecimentos do buraco negro).
Ao princípio eu acreditava que a desordem diminuiria quando o Universo
voltasse a entrar em colapso, porque pensava que o Universo tinha de voltar a
um estado regular e ordenado quando se tornasse de novo pequeno. Isto
significaria que a fase de contracção seria como o inverso do tempo da fase de
expansão. Na fase de contracção as pessoas viveriam uma vida às avessas:
morreriam antes de terem nascido e ficariam mais novas à medida que o
Universo se contraísse.
Esta ideia é atraente porque significaria uma boa simetria entre as fases de
expansão e de contracção. Todavia, não podemos adoptá-la sozinha
independentemente de outras ideias sobre o Universo. A questão é: é implícita
devido à condição de não haver fronteira ou é incompatível com essa
condição? Como já disse, pensei no começo que a condição de não haver
fronteira implicava realmente que a desordem diminuiria na fase de
contracção. Fui induzido em erro em parte pela analogia com a superfície da
Terra. Se pensássemos no princípio do Universo como correspondente ao Pólo
Norte, então o fim do Universo seria semelhante ao princípio, tal como o Pólo
Sul é semelhante ao Pólo Norte. Porém, os Pólos Norte e Sul correspondem ao
princípio e ao fim do Universo no tempo imaginário. O princípio e o fim no
tempo real podem ser muito diferentes um do outro. Também fui enganado
pelo trabalho :, que tinha elaborado num modelo simples do Universo em que
a fase de colapso seria simétrica da fase de expansão. No entanto, um colega
meu, Don Page, da Universidade do Estado da Pensilvânia, fez notar que a
condição de não haver fronteira não obrigava necessariamente a que a fase de
contracção fosse simétrica da fase de expansão. Além disso, um dos meus
alunos, Raymond Laflamme, concluiu que num modelo ligeiramente mais
complicado o colapso do Universo era muito diferente da expansão.
Compreendi que tinha cometido um erro: a condição de não haver fronteira
implicava que a desordem continuaria de facto a aumentar durante a
contracção. As setas termodinâmica e psicológica do tempo não se inverteriam
quando o Universo começasse a contrair-se de novo nem dentro dos buracos
negros.
Que devemos fazer ao descobrir que cometemos um erro deste género?
Algumas pessoas nunca admitem que se enganaram e continuam a descobrir
argumentos novos e muitas vezes inconsistentes, para fazerem valer as suas
opiniões: como Eddington fez ao opor-se à teoria dos buracos negros. Outros
afirmam que nunca apoiaram realmente a teoria incorrecta ou que, se o
fizeram, foi apenas para mostrar que era inconsistente. A mim parece-me
muito melhor e menos confuso admitir por escrito que nos enganámos. Um
bom exemplo disto deixou-nos Einstein que chamou à constante cosmológica,
que apresentou quando tentava elaborar um modelo estático do Universo, o
maior erro da sua vida.
Voltando à seta do tempo, permanece a pergunta: porque é que observamos as
setas termodinâmica e cosmológica apontarem no mesmo sentido? Ou, por
outras palavras, por que é que a desordem aumenta no mesmo sentido do
tempo em que o Universo se expande? Se acreditarmos que o Universo se
expandirá e depois voltará a contrair-se, como a condição de não haver
fronteira :, parece implicar, isto torna-se uma questão do motivo pelo qual
devemos estar na fase de expansão e não na de contracção.
Podemos encontrar uma resposta baseada no princípio antrópico fraco. As
condições na fase de contracção não seriam adequadas à existência de seres
inteligentes que pudessem perguntar: por que é que a desordem está sempre a
aumentar no mesmo sentido do tempo em que o Universo se expande? A
inflação no princípio do Universo, que é prevista pela proposta de não haver
fronteira significa que o Universo deve estar a expandir-se a uma taxa muito
próxima da taxa critica à qual conseguirá evitar o colapso e, portanto, não
entrará em colapso durante muito tempo. Por essa altura, as estrelas ter-se-ão
apagado e os seus protões e neutrões ter-se-ão transformado provavelmente
em partículas de luz e radiação. O Universo estaria num estado de quase
completa desordem. Não haveria uma seta termodinâmica forte do tempo. A
desordem não poderia aumentar muito porque o Universo já estaria num
estado de desordem quase total. Contudo, uma seta termodinâmica forte é
necessária à vida inteligente. Para sobreviverem, os seres humanos têm de
consumir alimentos, que constituem uma forma ordenada de energia, e
convertê-los em calor, que é uma forma desordenada de energia. Desta
maneira, a vida inteligente não poderia existir na fase de contracção do
Universo. Assim se explica observarmos que as setas termodinâmica e
cosmológica do tempo apontam no mesmo sentido. Não é a expansão do
Universo que provoca o aumento da desordem, mas sim a condição de não
haver fronteira que também cria condições apropriadas à vida inteligente
apenas na fase de expansão.
Resumindo, as leis da física não distinguem entre tempo para trás e para
diante. Contudo, há pelo menos três setas do tempo que distinguem realmente
o passado do futuro: :, a seta termodinâmica, o sentido do tempo em que a
desordem aumenta; a seta psicológica, o sentido do tempo em que nos
lembramos do passado e não do futuro; e a seta cosmológica, o sentido do
tempo em que o Universo se expande em vez de se contrair. Já demonstrei que
a seta psicológica é essencialmente a mesma que a seta termodinâmica, de
modo que ambas apontam sempre no mesmo sentido. A hipótese de não haver
fronteira para o Universo prevê a existência de uma seta termodinâmica bem
definida porque o Universo tem de principiar num estado regular e ordenado.
E o motivo pelo qual observamos que a seta termodinâmica coincide com a
cosmológica é que os seres inteligentes só podem existir na fase de expansão.
A fase de contracção não seria apropriada porque não se caracteriza por uma
seta termodinâmica forte do tempo.
O progresso do homem na compreensão do Universo estabeleceu um pequeno
cantinho de ordem num Universo cada vez mais desordenado. Se vos
lembrardes de todas as palavras deste livro, a vossa memória terá registado
cerca de dois milhões de informações: a ordem no vosso cérebro terá
aumentado em cerca de dois milhões de unidades. No entanto, enquanto o
leitor leu este livro, terá convertido pelo menos mil calorias de energia
ordenada, sob a forma de alimentos, em energia desordenada, sob forma de
calor que se perde para o ar circundante por convecção e transpiração. Isto
aumentará a desordem do Universo em cerca de vinte milhões de milhões de
milhões de milhões de unidades, ou cerca de dez milhões de milhões de
milhões de vezes o aumento da ordem do cérebro do leitor, se se lembrar *de
tudo* o que está no livro. No próximo capítulo tentarei aumentar um pouco
mais a ordem do nosso recanto explicando como as pessoas estão a tentar
conjugar as teorias que descrevi para formar uma teoria unificada completa
que explique o Universo e todo o seu conteúdo.
X. A Unificação da Física
Como foi explicado no capítulo primeiro, seria muito difícil construir de uma
só vez uma teoria unificada do Universo. Por isso, temos progredido
descobrindo teorias parciais que descrevem uma classe limitada de fenómenos
e deixam de parte outros efeitos ou deles se aproximam com alguns resultados
numéricos. A química, por exemplo, permite-nos calcular as interacções dos
átomos, sem que se conheça a estrutura interna do núcleo de um átomo. No
fim, contudo, tem-se a esperança de descobrir uma teoria unificada, coerente e
completa, que inclua todas essas teorias parciais como aproximações e que
não precise de ser ajustada para condizer com os factos escolhendo os valores
de certos parâmetros arbitrários na teoria. A procura de tal teoria é conhecida
por "unificação da física". Einstein passou a maior parte dos seus últimos anos
numa busca sem êxito de uma teoria unificada, mas a altura ainda não tinha
chegado: havia teorias parciais para a gravidade e para a força
electromagnética, mas sabia-se muito pouco sobre as forças nucleares. Além
disso, Einstein recusava-se a acreditar na realidade da mecânica quântica,
apesar do papel importante que: ele próprio tivera no seu desenvolvimento.
Além disso, parece que o princípio da incerteza é uma característica
fundamental do Universo em que :, vivemos. Uma teoria unificada bem
sucedida deve, portanto, incorporar este princípio.
Como descreverei, as perspectivas de descobrir tal teoria parecem ser muito
melhores agora, porque sabemos muito mais sobre o Universo. Mas devemos
ter cuidado com excessos de confiança: já tivemos outros alvoreceres falsos!
No começo deste século, por exemplo, pensava-se que tudo podia ser
explicado através das propriedades da matéria contínua, como a elasticidade e
a condução do calor. A descoberta da estrutura atómica e do princípio da
incerteza puseram fim a tudo isso. Ainda mais, em 1928 o físico e detentor do
prémio Nobel, Max Born, afirmou a um grupo de visitantes da Universidade
de Gotinga: "A física, tal como a conhecemos, estará acabada em seis meses".
A sua confiança tinha como base a recente descoberta de Dirae da equação
que comandava o electrão. Pensava-se que uma equação semelhante
governaria o protão, que era a única outra partícula conhecida na altura, e que
isso seria o fim da física teórica. Contudo, a descoberta do neutrão e das forças
nucleares também deram cabo dessa ideia. Tendo dito isto, continuo a
acreditar que há motivos para um optimismo cauteloso quanto a podermos
estar agora perto do fim da busca das leis definitivas da natureza.
Em capítulos anteriores, descrevi a relatividade geral como teoria parcial da
gravidade e as teorias parciais que governam as forças fraca, forte e
electromagnética. As últimas três podem ser combinadas nas chamadas teorias
da grande unificação, ou GUTs, que não são muito satisfatórias porque não
incluem a gravidade e porque contêm um conjunto de quantidades, como as
massas relativas das diferentes partículas, que não podem ser previstas a partir
da teoria mas têm de ser escolhidas para condizer com as observações. A
dificuldade principal para descobrir uma teoria que unifique a gravidade com
as outras forças é a :, relatividade geral ser uma teoria "clássica", ou seja, não
inclui o princípio da incerteza da mecânica quântica. Por outro lado, as outras
teorias parciais dependem da mecânica quântica de uma forma essencial. O
primeiro passo a dar é combinar a relatividade geral com o princípio da
incerteza. Como vimos, isto pode trazer algumas consequências notáveis, tais
como os buracos negros que não são negros e o Universo que não tem
singularidades mas que se contém a si mesmo e não tem fronteira. O problema
está em que, como expliquei no capítulo sétimo, o princípio da incerteza
significa que mesmo o espaço "vazio" está cheio de pares de partículas
virtuais e [suas respectivas] antipartículas. Estes pares teriam uma quantidade
infinita de energia e, portanto, segundo a famosa equação de Einstein *E=
mcâ2*, teriam uma quantidade de massa infinita. A sua atracção gravitacional
encurvaria assim o Universo até um tamanho infinitamente pequeno.
De um modo muito semelhante surgem, nas outras teorias parciais, infinidades
aparentemente absurdas, mas em todos esses casos as infinidades podem ser
removidas por um processo chamado renormalização. Isto implica a remoção
de infinidades por introdução de outras infinidades. Embora esta técnica seja
matematicamente bastante duvidosa, parece funcionar na prática e já foi usada
nestas teorias para elaborar predições que concordam com as observações com
extraordinária precisão. A renormalização, contudo, tem um inconveniente
sério no que diz respeito a encontrar uma teoria universal, porque significa
que os valores reais das massas e das intensidades das forças não podem ser
previstos a partir da teoria, mas têm de ser escolhidos para condizerem com as
observações.
Ao tentar incorporar o princípio da incerteza na relatividade geral, só temos
duas quantidades que podem ser ajustadas: a força da gravidade e o valor da
constante cosmológica. Mas não basta ajustá-las para remover todas as :,
infinidades. Temos portanto uma teoria que parece prever que certas
quantidades, como a curvatura do espaço-tempo, são realmente infinitas, e
contudo essas quantidades podem ser observadas e medidas como
perfeitamente finitas! Esta dificuldade em combinar a relatividade geral com o
princípio da incerteza já se adivinhava há algum tempo, mas foi finalmente
confirmada por cálculos pormenorizados em 1972. Quatro anos depois foi
sugerida uma solução possível chamada "supergravidade". A ideia foi
combinar a partícula de spin 2, chamada gravitão, que transmite a força
gravitacional, a algumas outras partículas novas de spin 3/2, 1, 1/2 e 2. Num
certo sentido todas essas partículas podiam então ser encaradas como aspectos
diferentes da mesma "superpartícula", que unificava assim as partículas de
matéria, de spin 1/2 e 3/2, e as partículas portadoras de força, de spin 0, 1 e 2.
Os pares virtuais de partícula/antipartícula de spin 1/2 e 3/2 teriam energia
negativa e, deste modo, tenderiam a anular a energia positiva dos pares
virtuais de spin 2, 1 ou 0. Isto provocaria a remoção de muitas das possíveis
infinidades, mas suspeitou-se que podiam permanecer algumas. Todavia, os
cálculos necessários para verificar se algumas infinidades tinham ficado ou
não por remover eram tão longos e difíceis que ninguém estava preparado para
o empreendimento. Mesmo com um computador, concluiu-se que seriam
necessários pelo menos quatro anos e as probabilidades de se cometer pelo
menos um erro, ou mesmo mais, eram muito grandes. Nestas circunstâncias,
só se saberia se a resposta estava certa se alguém mais repetisse o cálculo e
chegasse ao mesmo resultado, o que parecia pouco provável!
Apesar destes problemas, e do facto de as partículas, nas teorias da
supergravidade, não parecerem condizer com as partículas observadas, muitos
cientistas acreditaram que a supergravidade era provavelmente a resposta
correcta :, para o problema da unificação da física. Parecia o melhor caminho
para a unificação da gravidade com as outras forças. Porém, em 1984, houve
uma mudança notável de opinião a favor das chamadas teorias das cordas.
Nestas teorias os objectos fundamentais não são partículas, que ocupam um
simples ponto no espaço, mas entidades que só têm comprimento e nenhuma
outra dimensão, como um segmento de fio infinitamente fino. Estas cordas
podem ter extremidades (as chamadas cordas abertas) ou estar unidas sobre si
próprias em anéis fechados (cordas fechadas) (Figs. 10.1 e 10.2). Uma
partícula ocupa um ponto do espaço em cada instante. Deste modo, a sua
história pode ser representada por uma linha no espaço-tempo (a *linha de
universo*). Uma corda, por outro lado, ocupa uma linha no espaço em cada
momento. Assim, a sua história no espaço-tempo é uma superfície
bidimensional chamada *folha de universo*. (Qualquer ponto de uma folha de
universo :, pode ser descrito por dois números: um que especifica o tempo e
outro que especifica a posição do ponto na corda). A folha de universo de uma
corda aberta é uma fita; os seus limites representam os trajectos, no espaçotempo,
dos extremos da corda (Fig. 10.1). A folha de universo de uma corda
fechada é um cilindro ou tubo (Fig. 10.2); um corte do tubo é uma curva
fechada que representa a posição da corda num momento particular.
figs. 10.1 e 10.2
Dois pedaços de uma corda podem ser unidos para formar uma corda simples;
as cordas abertas juntam-se simplesmente nas extremidades (Fig. 10.3), ao
passo que a junção de cordas fechadas se assemelha à união das duas pernas
de um par de calças (Fig. 10.4). De modo semelhante, :, um único pedaço de
corda pode ser dividido em dois. Aquilo que se pensava previamente como
partículas é agora representado nas teorias das cordas como ondas que
progridem na corda como as ondas no fio vibrante de um papagaio de papel. A
emissão ou absorção de uma partícula por outra corresponde à divisão ou
união de cordas. Por exemplo, a atracção gravitacional do Sol sobre a Terra
nas teorias de partículas era considerada como resultante da emissão de
gravitões pelas partículas do Sol e a respectiva absorção de gravitões pelas
partículas da Terra [e vice-versa] (Fig. 10.5). Na teoria das cordas este
processo corresponde a um tubo ou cano em forma de H (Fig. 10.6) (a teoria
das cordas apresenta uma certa analogia :, com a canalização). As duas hastes
do H correspondem às partículas do Sol e da Terra e a barra horizontal
corresponde ao gravitão que se desloca entre elas.
fig. 10.3
fig. 10.4
figs. 10.5 e 10.6
A teoria das cordas tem uma história curiosa. Foi inventada no fim dos anos
60, numa tentativa de descobrir uma teoria que descrevesse a força forte. A
ideia era que as partículas como o protão e o neutrão podiam ser encaradas
como ondas numa corda. A força forte entre partículas corresponderia a
pedaços de corda que iam de uns pedaços de corda para outros, como numa
teia de aranha. Para esta teoria dar o valor observado da força forte entre as
partículas, as cordas tinham de ser como elásticos que suportassem tensões de
cerca de dez toneladas.
Em 1974, Joël Scherk, de Paris, e John Schwarz, do Instituto de Tecnologia da
Califórnia, publicaram um artigo em que mostraram que a teoria das cordas
podia descrever a força gravitacional, mas só se a tensão na corda fosse muito
mais elevada, da ordem de mil milhões de milhões de milhões de milhões de
milhões de milhões de toneladas (1 seguido de trinta e nove zeros). As
previsões da teoria :, das cordas seriam exactamente as mesmas que as da
relatividade geral a distâncias normais, mas seriam diferentes a distâncias
muito pequenas, menores que um milésimo de milionésimo de milionésimo de
milionésimo de milionésimo de milionésimo de centímetro (um centímetro
dividido por 1 seguido de trinta e três zeros) Contudo, o seu trabalho não
mereceu grande atenção porque mais ou menos nessa altura muita gente
abandonou a teoria das cordas da força forte a favor da teoria baseada em
quarks e gluões, que parecia concordar muito melhor com as observações.
Scherk morreu em circunstancias trágicas (sofria de diabetes e entrou em
coma quando não tinha perto dele ninguém que lhe desse uma injecção de
insulina). Deste modo, Schwarz ficou só, praticamente como único defensor
da teoria das cordas, que advogava agora um valor muito mais elevado para a
tensão.
Em 1984 o interesse pela teoria reacendeu-se subitamente, por duas razões,
parece. Uma foi porque as pessoas não estavam realmente a progredir na
demonstração de que a supergravidade era finita ou que podia explicar as
variedades de partículas que observamos. A outra foi a publicação de um
artigo de John Schwarz e Mike Green, do Queen Mary College, de Londres,
que mostrava que a teoria das cordas podia explicar a existência de partículas
de tendência sinistrógira, como algumas das partículas que observamos.
Quaisquer que sejam as razões, um número apreciável de pessoas começou a
trabalhar na teoria das cordas e foi desenvolvida uma nova versão chamada
corda heterótica, que parecia poder explicar os tipos de partículas que
observamos.
As teorias das cordas conduzira. n também a infinidades, mas pensa-se que
serão todas removidas nas versões como a corda heterótica (embora isto não
seja ainda tido como certo). As teorias das cordas, porém, têm um senão
maior: parece que são coerentes apenas quando o espaço-tempo :, tem dez ou
vinte e seis dimensões, em vez das quatro habituais! É certo que as dimensões
extra do espaço-tempo são lugar comum da ficção científica; na verdade, são
quase uma necessidade, uma vez que o facto de a relatividade implicar que
não se pode viajar mais depressa que a luz significa que levaria muito tempo
para viajar entre estrelas e galáxias. A ideia da ficção científica é que, através
de uma dimensão mais elevada, é possível encurtar caminho. Podemos
representar isto do seguinte modo: imaginemos que o espaço em que vivemos
tem apenas duas dimensões e que é curvo como a superfície de um toro (Fig.
10.7). Se estivermos num ponto da parte interior do toro e quisermos atingir
um ponto do outro lado, teremos de ir ao longo da parte interior do toro.
Porém, se fôssemos capazes de viajar na terceira dimensão, poderíamos
atravessar a direito.
Fig. 10.7 :,
Por que é que não notamos todas estas dimensões extra se elas existem
realmente? Por que é que vemos somente três dimensões do espaço e uma do
tempo? A sugestão é que as outras dimensões estão encurvadas num espaço
muito pequeno, qualquer coisa como um milionésimo de milionésimo de
milionésimo de milionésimo de milionésimo de centímetro. É tão pequeno que
realmente não notamos; vemos somente uma dimensão temporal e três
dimensões espaciais, em que o espaço-tempo é razoavelmente plano. É como
a superfície de uma laranja: se a observamos de muito perto, é curva e rugosa,
mas se a olhamos a certa distância, não notamos as saliências e parece-nos
lisa. É isso que sucede com o espaço-tempo: numa escala muito pequena é
decadimensional e fortemente encurvado, mas em escalas maiores não vemos
a curvatura nem as dimensões extra. Se esta imagem é correcta significa
notícias desagradáveis para pretensos viajantes do espaço: as dimensões extra
seriam pequeníssimas para conterem uma nave espacial. Todavia, surge ainda
um problema maior: por que estão algumas dimensões, mas não todas,
encaracoladas como num nó? Presumivelmente, no início do Universo todas
as dimensões eram muito encurvadas. Por que é que uma dimensão temporal e
três espaciais aplanaram, ao passo que as outras dimensões permaneceram
fortemente encurvadas?
Uma resposta possível é o princípio antrópico. Duas dimensões espaciais não
parecem ser suficientes para permitir o desenvolvimento de seres complicados
como nós. Por exemplo, animais bidimensionais que vivessem numa Terra
com uma dimensão teriam de trepar uns para cima dos outros para se
ultrapassarem. Se uma criatura bidimensional comesse qualquer coisa que não
conseguisse digerir completamente, teria de vomitar os restos da mesma
maneira que os engolira, porque, se houvesse uma passagem através do seu
corpo, esta dividiria a criatura em :, duas (1); o ser bidimensional desfazer-seia
(Fig. 10.8). Da mesma maneira, é difícil ver como poderia haver circulação
sanguínea numa criatura bidimensional.
fig. 10.8
(1) Há muitos factos notáveis a respeito desta argumentação! Aconselho
vivamente o leitor interessado a ler (e verificará que o faz num ápice!) o
ensaio de Rudy Rucker, *The Fourth Dimension*, Penguin Books, 1985, que,
infelizmente, não foi ainda publicado em português (*N. do R.*).
Haveria também problemas com mais de três dimensões espaciais (2). A força
gravitacional entre dois corpos diminuiria mais rapidamente com a distância
do que diminui em três dimensões. (Em três dimensões, a força gravitacional
diminui para 1/4 se se duplicar a distância.
(2) Uma discussão deliciosa acerca da dimensionalidade do espaço encontrase
em *The Creation*, de P. W. Atkins, já publicado na língua portuguesa
numa edição da Editorial Presença (*N. do R.*).
Em quatro :, dimensões diminuiria para 1/8, em cinco para 1/16, etc.). Isto
significa que as órbitas dos planetas, como a da Terra, em torno do Sol, seriam
instáveis: a mais pequena perturbação numa órbita circular (como a que seria
causada pela atracção gravitacional dos outros planetas) resultaria em a Terra
começar a mover-se em espiral afastando-se ou dirigindo-se para o Sol. Ou
gelaríamos ou arderíamos. Na realidade, o mesmo comportamento da
gravidade com a distância em mais do que três dimensões espaciais significa
que o Sol não poderia existir num estado estável com a pressão a equilibrar a
gravidade. Desfazer-se-ia ou entraria em colapso originando um buraco negro.
Em qualquer dos casos, não seria de grande utilidade como fonte de calor e
luz para a vida na Terra. Numa escala mais pequena, as forças eléctricas que
forçam os electrões a orbitar à volta do núcleo de um átomo, comportar-seiam
como forças gravitacionais. Assim, os electrões ou se escapavam
completamente do átomo ou começavam a mover-se em espiral para dentro do
núcleo. Em ambos os casos os átomos não seriam como os conhecemos.
Parece claro que a vida, pelo menos como a conhecemos, só pode existir em
regiões do espaço-tempo em que três dimensões espaciais e uma temporal não
estão todas encurvadas. Isto significa que podemos apelar para o princípio
antrópico fraco, desde que possamos demonstrar que a teoria das cordas
permite que existam regiões assim no Universo -- e parece que a teoria das
cordas o permite de facto. Pode perfeitamente haver outras regiões do
Universo, ou outros universos (seja o que for que *isso* signifique), em que
todas as dimensões estão enroscadinhas ou em que mais de quatro dimensões
são quase planas, mas onde não haveria seres inteligentes para observarem o
número diferente de dimensões efectivas.
Além da questão do número de dimensões que o espaço-tempo parece ter, a
teoria das cordas tem ainda vários :, outros problemas a resolver antes de ser
proclamada a teoria unificada da física. Ainda não sabemos se todas as
infinidades se anulam umas às outras, nem como relacionar exactamente as
ondas na corda com os tipos específicos de partículas que observamos. Apesar
disso, é provável que sejam encontradas respostas para estes problemas
durante os próximos anos e que, lá para o fim do século, saibamos se a teoria
das cordas é realmente a muito procurada teoria unificada da física.
Mas pode realmente haver uma teoria unificada? Ou será que andamos a
correr atrás de uma miragem? Parece haver três possibilidades:
1) Há realmente uma teoria unificada completa, que um dia descobriremos, se
formos suficientemente espertos.
2) Não há nenhuma teoria fundamental do Universo, mas apenas uma
sucessão infinita de teorias que descrevem o Universo com precisão cada vez
maior.
3) Não há qualquer teoria do Universo; os acontecimentos só podem ser
previstos em certa medida, além da qual ocorrem aleatória e arbitrariamente.
Algumas pessoas seriam a favor da terceira possibilidade argumentando que,
se houvesse um conjunto completo de leis, isso infringiria a liberdade de Deus
mudar de opinião e intervir no mundo. É um pouco como o velho paradoxo:
Deus poderá tornar uma pedra tão pesada que não seja capaz de a levantar?
Mas a ideia de que Deus pode querer mudar de opinião é um exemplo da
falácia, apontada por Santo Agostinho, de imaginarmos Deus como um ser
que existe no tempo: o tempo é apenas uma propriedade do Universo que
Deus criou. Presume-se que Ele sabia o que tencionava fazer quando o criou!
Com o advento da mecânica quântica, acabámos por reconhecer que os
acontecimentos não podem ser previstos :, com precisão perfeita e que haverá
sempre um grau de incerteza. Se quisermos, podemos atribuir essa incerteza à
intervenção de Deus, mas seria uma intervenção muito estranha: não existe
qualquer prova de que seja dirigida para algum objectivo. Na realidade, se
fosse, seria por definição não aleatória. Nos tempos modernos, libertámo-nos
definitivamente da terceira hipótese, redefinindo os objectivos da ciência: o
que se pretende é formular um conjunto de leis que permitam prever
acontecimentos até ao limite imposto pelo princípio da incerteza.
A segunda hipótese, de haver uma sequência infinita de teorias cada vez mais
aperfeiçoadas, está de acordo com toda a nossa experiência até agora. Em
muitas ocasiões aumentamos a sensibilidade das nossas medições ou
elaborámos um novo tipo de observações, apenas para descobrir fenómenos
novos que não tinham sido previstos pela teoria existente e, para os explicar,
tivemos de desenvolver uma teoria mais avançada. Não seria portanto muito
surpreendente se a actual geração de teorias da grande unificação estivesse
errada ao afirmar que nada essencialmente novo acontecerá entre a energia da
unificação electrofraca de cerca de 100 GeV e a energia da grande unificação
de cerca de mil milhões de milhões de GeV. Poderíamos realmente esperar
encontrar várias camadas novas de estrutura mais fundamental do que quarks
e electrões, que agora consideramos partículas "elementares".
No entanto, parece que a gravidade pode fornecer um limite para esta
sequência de "caixas dentro de caixas". Se tivermos uma partícula com uma
energia acima daquilo a que se chama a energia de Planck, ou seja, dez
milhões de milhões de milhões de GeV (1 seguido de dezanove zeros), a sua
massa estaria tão concentrada que se separaria do resto do Universo e formaria
um pequeno buraco negro. Portanto, parece realmente que a sucessão de
teorias cada vez mais aperfeiçoadas deve ter um limite qualquer, :, quando
caminhamos para energias cada vez mais elevadas, pelo que deve existir
alguma teoria definitiva do Universo. É evidente que a energia de Planck está
muito longe das energias de 100 GeV, que são o máximo que actualmente
podemos atingir no laboratório. Não seremos capazes de ultrapassar esse
obstáculo com aceleradores de partículas no futuro próximo. Contudo, o
Universo primitivo é esse laboratório onde tais energias devem ter ocorrido.
Penso que existe uma boa probabilidade de o estudo do Universo primitivo e
os requisitos da coerência matemática levarem a uma teoria unificada
completa ainda durante o tempo de algumas das pessoas que andam por aí
hoje, sempre presumindo que não nos destruiremos antes.
Que significado teria descobrirmos realmente a teoria definitiva do Universo?
Como explicámos no capítulo primeiro, nunca podemos ter a certeza absoluta
de termos descoberto realmente a teoria correcta, uma vez que as teorias não
podem ser provadas. Mas se a teoria fosse matematicamente coerente e
conduzisse sempre a previsões concordantes com a observação, podíamos
confiar razoavelmente que seria a teoria certa. Chegaria assim o fim de um
longo e glorioso capítulo na história da luta intelectual da humanidade para
compreender o Universo. Mas também revolucionaria a compreensão que as
pessoas vulgares têm das leis que governam o Universo. No tempo de Newton
era possível a uma pessoa instruída abranger todo o conhecimento humano,
pelo menos na generalidade. Mas, desde então, o desenvolvimento da ciência
tornou isso impossível. Como as teorias estão sempre a ser modificadas para
darem conta de novas observações, nunca chegam a ser devidamente digeridas
ou simplificadas de modo a que as pessoas vulgares as possam compreender.
É preciso ser-se especialista e, mesmo assim, só se pode esperar ter uma
compreensão completa de uma pequena proporção :, das teorias científicas.
Além disso, o curso do progresso é tão rápido que aquilo que se aprende no
colégio ou na universidade está sempre um pouco fora de moda. Apenas
algumas pessoas conseguem manter-se a par da fronteira do conhecimento,
que avança rapidamente, e têm de dedicar todo o seu tempo a isso e
especializar-se numa pequena área. O resto da população tem uma ideia
precária dos avanços conseguidos ou da excitação que geram. Há setenta anos,
a acreditar em Eddington, só duas pessoas compreendiam a teoria da
relatividade geral. Hoje em dia, dezenas de milhar de licenciados
compreendem-na e muitos milhões de pessoas estão pelo menos
familiarizadas com a ideia. Se fosse descoberta uma teoria unificada completa,
em muito pouco tempo seria digerida e simplificada da mesma maneira e
ensinada nos colégios, pelo menos na generalidade. Seríamos então capazes de
ter alguma compreensão das leis que regem o Universo e são responsáveis
pela nossa existência.
Mesmo que descubramos uma teoria unificada completa, tal não significaria
que fôssemos capazes de prever acontecimentos em geral, por duas razões. A
primeira é a limitação que o princípio da incerteza da mecânica quântica traz
aos nossos poderes de previsão. E não há nada que possamos fazer para nos
livrarmos dela. Na prática, no entanto, esta primeira limitação é menos
restritiva que a segunda, que advém do facto de não podermos resolver
exactamente as equações da teoria excepto em situações muito simples. (Nem
sequer conseguimos resolver exactamente o movimento de três corpos na
teoria da gravitação de Newton, e a dificuldade aumenta com 0 número de
corpos e a complexidade da teoria). Já conhecemos todas as leis que governam
o comportamento da matéria sob todas as condições, mesmo as mais extremas.
Em particular, conhecemos as leis que estão na base de toda a química e de
toda a biologia. E, no entanto, ainda não fomos :, capazes de reduzir esses
temas à condição de problemas resolvidos; por enquanto, tivemos pouco êxito
com a previsão do comportamento humano a partir de equações matemáticas!
Portanto, mesmo que encontremos realmente um conjunto de leis básicas,
continuará a existir nos anos seguintes a tarefa intelectualmente desafiadora de
desenvolver métodos de aproximação melhores para que possamos elaborar
com êxito previsões das consequências prováveis em situações complicadas e
realistas. Uma teoria unificada coerente e completa é apenas o primeiro passo:
o nosso objectivo é a *compreensão* completa dos acontecimentos à nossa
volta e da nossa própria existência.
XI. Conclusão
Encontramo-nos num mundo desconcertante. Queremos que o que nos rodeia
faça sentido e perguntar: Qual é a natureza do Universo? Qual é o nosso lugar
nele e de onde é que ele e nós viemos? Por que é como é?
Para tentar responder a estas perguntas adoptamos uma "imagem do mundo".
Nela, a teoria das supercordas é semelhante à torre infinita de tartarugas a
suportar a Terra plana. Ambas são teorias do Universo, embora a primeira seja
muito mais matemática e precisa do que a segunda. A ambas faltam provas
observacionais: nunca ninguém viu uma tartaruga gigante com a Terra às
costas, mas também nunca ninguém viu uma supercorda. Contudo, a teoria da
tartaruga não consegue ser uma boa teoria científica porque prevê que as
pessoas deviam cair da fronteira do mundo. Tal não concorda com a
experiência, a não ser que venha a ser a explicação para os que se supõe terem
desaparecido no Triângulo das Bermudas!
As primeiras tentativas teóricas para descrever e explicar o Universo
envolviam a ideia de que os acontecimentos e os fenómenos naturais eram
controlados por espíritos com emoções humanas, que agiam de uma maneira
muito humana e imprevisível. Estes espíritos habitavam objectos naturais,
como rios e montanhas, incluindo corpos :, celestes, como o Sol e a Lua.
Tinham de ser apaziguados e os seus favores tinham de ser procurados, para se
garantir a fertilidade do solo e o ciclo das estações do ano. Gradualmente,
contudo, deve ter-se começado a reparar que havia certas regularidades: o Sol
erguia-se sempre a leste e punha-se a oeste, quer se tivesse ou não oferecido
um sacrifício ao deus Sol. Além disso, o Sol, a Lua e os planetas seguiam
trajectórias precisas no céu, que podiam ser antecipadas com considerável
precisão. O Sol e a Lua podiam ser deuses, mas eram deuses que obedeciam a
leis estritas, aparentemente sem excepções, se ignorarmos histórias como a do
Sol ter parado para Josué.
Inicialmente, estas regularidades e leis surgiam apenas na astronomia e em
algumas outras situações. Contudo, à medida que a civilização se
desenvolveu, particularmente nos últimos trezentos anos, foram descobertas
cada vez mais regularidades e leis. O êxito dessas leis levou Laplace, no
princípio do século XIX, a postular o determinismo científico, ou seja, sugeriu
que devia haver um conjunto de leis que determinariam com precisão a
evolução do Universo, dada a sua configuração em determinado momento.
O determinismo de Laplace estava duplamente incompleto. Não dizia como
deviam ser escolhidas as leis e não especificava qual teria sido a configuração
inicial do Universo. Tudo isso era deixado a Deus. Deus teria escolhido como
o Universo começou e a que leis obedeceria, mas não interveio mais (1). Com
efeito, Deus foi confinado às áreas que a ciência do século XIX não
compreendia. :,
(1) A ideia de um Deus relojoeiro: deu corda ao mundo por ele recém-criado e
afastou-se para não mais intervir! No princípio do século XIX o universo
newtoniano está um pouco às avessas: o espaço substancial cartesiano,
substituído depois pelo espaço newtoniano através do qual Deus *sentia* o
mundo e actuava nele continuamente, foi cedendo lugar ao espaço dos
atomistas, vazio de substancia e da presença de Deus (*N. do R.*).
Sabemos agora que as esperanças do determinismo de Laplace não podem
realizar-se, pelo menos nos termos que ele tinha em mente. O princípio da
incerteza da mecânica quântica implica que certos pares de quantidades, como
a posição e a velocidade de uma partícula, não podem ambos ser preditos com
toda a precisão.
A mecânica quântica trata esta situação por intermédio de uma classe de
teorias quânticas em que as partículas não têm posições e velocidades bem
definidas, mas são representadas por uma onda. Estas teorias quânticas são
deterministas no sentido em que proporcionam leis para a evolução da onda
com o tempo. Assim, se conhecermos a onda num dado momento, podemos
calculá-la em qualquer outro. O elemento imprevisível e de acaso só entra
quando tentamos interpretar a onda em termos de posições e velocidades das
partículas. Mas talvez seja esse o nosso erro: talvez não haja posições e
velocidades de partículas, mas apenas ondas. Nós é que tentamos encaixar as
ondas nas nossas ideias preconcebidas de posições e velocidades. A má
combinação resultante é a causa da aparente imprevisibilidade.
Com efeito, redefinimos a tarefa da ciência como sendo
a descoberta de leis que nos permitam prever acontecimentos até aos limites
impostos pelo princípio da incerteza. Mantém-se, no entanto, a pergunta:
como e por que foram escolhidas as leis e o estado inicial do Universo?
Neste livro dei lugar de destaque às leis que regem a gravidade, porque é a
gravidade que dá forma à estrutura do Universo em macro-escala, embora seja
a mais fraca das quatro categorias de forças. As leis da gravidade eram
incompatveis com a opinião mantida até há pouco de que o Universo era
imutável no tempo: o facto de a gravidade ser sempre atractiva implica que o
Universo deve estar a expandir-se ou a contrair-se. Segundo a teoria da
relatividade geral, deve ter havido um estado de densidade infinita :, no
passado, o *big bang*, que teria sido um começo efectivo do tempo. Do
mesmo modo, se todo o Universo voltasse a entrar em colapso, devia haver
outro estado de densidade infinita no futuro, o *grande esmagamento*, que
seria um fim do tempo. Mesmo que todo o Universo não entrasse de novo em
colapso, haveria singularidades em todas as regiões localizadas que entrassem
em colapso para formar buracos negros. Estas singularidades seriam um fim
do tempo para quem caísse no buraco negro. No *big bang* e nas outras
singularidades, todas as leis perdiam a validade, de maneira que Deus teria
tido liberdade completa para decidir o que acontece e como o Universo
começou.
Quando combinamos a mecânica quântica com a relatividade geral, parece
haver uma nova possibilidade: que o espaço e o tempo juntos podiam formar
um espaço quadridimensional finito sem singularidades nem fronteiras, como
a superfície da Terra, mas com mais dimensões. Parece que esta ideia podia
explicar muitas das características observadas no Universo, tais como a sua
uniformidade em macro-escala e também os desvios da homogeneidade, em
menor escala, como as galáxias, as estrelas e até os seres humanos. Podia até
justificar a seta do tempo que observamos. Mas se o Universo é
completamente independente, sem singularidades nem fronteiras, e
completamente descrito por uma teoria unificada, isso tem implicações
profundas quanto ao papel de Deus como Criador.
Einstein perguntou uma vez: "Que capacidade de escolha tinha Deus ao
construir o Universo?" Se a hipótese de não haver fronteiras está correcta, não
teve realmente liberdade de escolha quanto às condições iniciais. Teria, é
claro, tido liberdade para escolher as leis a que o Universo obedecia. Isto, no
entanto, pode não ter sido uma escolha; pode ser que haja só uma ou um
pequeno número de teorias unificadas completas, tal como a teoria heterótica
das :, cordas, que sejam autoconsistentes e permitam a existência de estruturas
tão complicadas como a dos seres humanos, que podem investigar as leis do
Universo e inquirir sobre a natureza de Deus.
Mesmo que haja só uma teoria unificada possível, não passa de um conjunto
de normas e equações. Que é que dá vida às equações e forma ao Universo por
elas descrito? A aproximação normal da ciência, ao construir um modelo
matemático, não consegue dar resposta às perguntas sobre a existência de um
Universo para o modelo descrever. Por que é que o Universo se dá ao trabalho
de existir? A teoria unificada é tão imperativa que dá origem à sua própria
existência? Ou precisa de um Criador e, nesse caso, terá Ele outro efeito sobre
o Universo? E quem o criou a Ele?
Até agora, a maior parte dos cientistas tem estado demasiado ocupada com o
desenvolvimento de novas teorias que descrevem *o que* é o Universo para
fazer a pergunta porquê? Por outro lado, as pessoas que deviam perguntar
*porquê?*, os filósofos, não foram capazes de acompanhar o avanço das
teorias científicas. No século XVIII, os filósofos consideravam todo o
conhecimento humano, incluindo a ciência, como campo seu e discutiam
questões como: terá o Universo tido um começo? No entanto, nos séculos XIX
e XX, a ciência tornou-se demasiado técnica e matemática para os filósofos ou
para qualquer outra pessoa, à excepção de alguns especialistas. Os filósofos
reduziram o objectivo das suas pesquisas de tal modo que Wittgenstein, o
filósofo mais famoso deste século, afirmou: "A única tarefa que resta à
filosofia é a análise da linguagem". Que queda para a grande tradição da
filosofia desde Aristóteles a Kant!
Todavia, se descobrirmos uma teoria completa, deve acabar por ser
compreensível, na generalidade, para toda a gente e não apenas para alguns
cientistas. Então poderemos :, todos, filósofos, cientistas e pessoas vulgares,
tomar parte na discussão do porquê da nossa existência e da do Universo. Se
descobrirmos a resposta, será o triunfo máximo da razão humana, porque
nessa altura conheceremos o pensamento de Deus.
Albert Einstein
A ligação de Einstein com a política da bomba nuclear é bem conhecida: ele
assinou a famosa carta dirigida ao presidente Franklin Roosevelt que
persuadiu os Estados Unidos a levar a ideia a sério, e participou nos esforços
do pós-guerra para evitar a guerra nuclear. Mas estas não foram apenas aeções
isoladas de um cientista arrastado para o mundo da política. A vida de Einstein
foi, na realidade, utilizando as suas próprias palavras, "dividida entre a política
e as equações".
As primeiras actividades políticas de Einstein surgiram durante a Primeira
Guerra Mundial, quando era professor em Berlim. Doente com o que via como
desperdício de vidas humanas, envolveu-se em demonstrações contra a guerra.
O seu apoio à desobediência social e encorajamento público à recusa de
recrutamento pouco contribuiu para o tornar querido dos colegas. Depois, a
seguir à guerra, canalizou os seus esforços no sentido da reconciliação e do
melhoramento das relações internacionais. Também isto não o tornou popular
e depressa a sua política lhe dificultou as visitas aos Estados Unidos, mesmo
para fazer conferências.
A segunda grande causa de Einstein foi o sionismo. Embora fosse de
ascendência judaica, Einstein rejeitava :, a ideia bíblica de Deus. Contudo,
uma grande tomada de consciência do anti-semitismo, quer antes quer durante
a Primeira Guerra Mundial, levou-o a identificar-se gradualmente com a
comunidade judaica e, mais tarde, a tornar-se um adepto aberto do sionismo.
Mais uma vez a impopularidade não deixou de dizer o que pensava. As suas
teorias começaram a ser atacadas e chegou a formar-se uma organização anti-
Einstein. Um homem foi condenado por incitar outros a assassinar Einstein (e
multado em apenas seis dólares). Mas Einstein comentou fleumaticamente,
quando foi publicado um livro intitulado *Cem Autores Contra Einstein*: "Se
eu não tivesse razão, um teria sido suficiente".
Em 1933 Hitler subiu ao poder. Einstein estava na América e declarou que não
voltaria à Alemanha. Então, enquanto as milícias nazis faziam uma busca à
sua casa e lhe confiscavam o dinheiro que tinha no banco, um jornal de Berlim
publicava o cabeçalho: "Boas notícias de Einstein -- Não regressa". Perante a
ameaça nazi, Einstein renunciou ao pacifismo e receando eventualmente que
os cientistas alemães construíssem uma bomba nuclear, propôs que os Estados
Unidos fizessem a sua. Mas, justamente antes de a primeira bomba atómica
ser detonada, ele avisava publicamente dos perigos de uma guerra nuclear e
propunha o controlo internacional das armas nucleares.
Durante toda a vida, os esforços de Einstein em prol
da paz tiveram provavelmente poucos êxitos duráveis e fizeram-no certamente
ganhar poucos amigos. O seu apoio verbal à causa sionista, contudo, foi
devidamente reconhecido em 1952, quando lhe ofereceram a presidência de
Israel. Recusou, afirmando julgar-se demasiado inocente em matéria de
política. Mas talvez a verdadeira razão tenha sido diferente, parafraseando-o
de novo: "As equações são mais importantes para mim, porque a política é do
presente e uma equação é qualquer coisa para a eternidade".
Galileu Galilei
Galileu, talvez mais que qualquer outra pessoa, foi responsável pelo
nascimento da ciência moderna. O célebre conflito que travou com a Igreja
Católica foi o centro da sua filosofia, porque Galileu foi um dos primeiros a
argumentar que o Homem podia ter esperança de compreender o
funcionamento do mundo e, além disso, poderia fazê-lo observando o mundo
real.
Galileu tinha acreditado na teoria de Copérnico (de que os planetas orbitavam
em torno do Sol) desde o princípio, mas foi só quando descobriu as provas
necessárias para apoiar a ideia que começou a defendê-la publicamente.
Escreveu sobre a teoria de Copérnico em italiano (não no usual latim
académico) e depressa as suas opiniões foram largamente apoiadas fora das
universidades. Isto aborreceu os professores aristotélicos, que se uniram
contra ele, tentando persuadir a Igreja Católica a banir as ideias de Copérnico.
Galileu, preocupado, foi a Roma, para falar com as autoridades eclesiásticas.
Argumentou que a Bíblia não queria dizer-nos nada sobre teorias científicas e
que era costume admitir-se que, onde a Bíblia entrasse em conflito com o
senso comum, estava a ser alegórica. Mas a Igreja tinha medo de um
escândalo que pudesse prejudicá-la na :, sua luta contra o protestantismo e
tomou medidas repressivas. Em 1616 declarou o copernicanismo "falso e
errado" e deu ordens a Galileu para que nunca mais "defendesse ou apoiasse"
a doutrina. Galileu concordou.
Em 1623, um amigo de longa data de Galileu tornou-se Papa. Imediatamente,
Galileu tentou que o decreto de 1616 fosse revogado. Não conseguiu, mas
acabou por obter licença para escrever um livro que descrevesse as teorias
aristotélica e copernicana, com duas condições: não tomaria qualquer partido e
chegaria à conclusão de que o Homem não podia, em qualquer dos casos,
determinar como funcionava o mundo, porque Deus podia causar os mesmos
efeitos de maneiras que o Homem não conseguia imaginar, nem colocar
restrições sobre a Sua omnipotência.
O livro *Diálogo Sobre os Dois Principais Sistemas do Mundo* ficou pronto e
foi publicado em 1632, com todo o apoio dos censores, e foi imediatamente
recebido por toda a Europa como uma obra-prima literária e filosófica. Logo a
seguir, o Papa, compreendendo que as pessoas viam o livro como um
argumento convincente em favor do copernicanismo, arrependeu-se de o ter
deixado publicar. Argumentou que, embora o livro tivesse a bênção oficial dos
censores, Galileu tinha desobedecido ao decreto de 1616. Obrigou-o a
apresentar-se perante a Inquisição, que o condenou a prisão domiciliária
perpétua e lhe ordenou que renunciasse publicamente ao copernicanismo. Pela
segunda vez, Galileu concordou. E permaneceu católico fiel, mas a sua crença
na independência da ciência não foi por isso esmagada. Quatro anos antes de
morrer, em 1642, sempre em prisão domiciliária, o manuscrito do seu segundo
livro foi passado clandestinamente para um editor na Holanda. Era a obra
conhecida por *Duas Novas Ciências* que, ainda mais do que o seu apoio ao
copernicanismo, havia de tornar-se o germe da física moderna.
Isaac Newton
Isaac Newton não era um homem agradável. As suas relações com os outros
académicos ficaram célebres pois, sobretudo nos últimos anos da sua vida,
envolveu-se em acesas discussões. A seguir à publicação dos *Principia
Mathematica*, certamente o livro mais influente alguma vez escrito sobre
física, Newton tinha subido rapidamente à proeminência pública. Foi nomeado
presidente da Royal Society e foi o primeiro cientista a ser designado
cavaleiro.
Newton depressa começou às turras com o astrónomo real. John Flamsteed,
que lhe tinha fornecido muitas informações para os seus *Principia* (1), mas
que começou então a negar-lhe as informações que ele queria. Newton não
aceitava um não como resposta e tratou de se fazer nomear para a direcção do
Observatório Real (2), tentando logo a seguir obrigar à publicação das
informações. Eventualmente, conseguiu que o trabalho de Flamsteed fosse
confiscado e preparado para publicação pelo inimigo mortal deste, Edmond
Halley.
(1) Informações preciosas a Newton sobre o movimento da Lua (*N. do R.*).
(2) Célebre Observatório de Greenwich (*N. do R.*).
Mas Flamsteed levou o caso aos tribunais e, num instante, obteve destes uma
ordem proibindo :, a distribuição do trabalho roubado. Newton ficou furioso e
procurou vingar-se, retirando sistematicamente quaisquer referências a
Flamsteed das edições seguintes dos *Principia*.
Discussão mais séria foi a que teve com o filósofo alemão Gottfried Leibniz.
Tanto este como Newton tinham desenvolvido independentemente o ramo da
matemática chamado cálculo, que está na base da maior parte da física
moderna. Embora agora saibamos que Newton descobriu o cálculo antes de
Leibniz, publicou o seu trabalho muito mais tarde. Começou assim uma
enorme discussão sobre quem tinha sido o primeiro, com cientistas a
defenderem vigorosamente os dois oponente ,. É notável, porém, que a
maioria dos artigos que apareceram a defender Newton tivesse sido escrita por
ele mesmo, e apenas publicada em nome dos amigos! Com o aumento da
discussão, Leibniz cometeu o erro de apelar para a Royal Society para decidir
a disputa. Newton, como presidente, nomeou uma comissão "imparcial" para
investigar, formada, por coincidência, apenas por amigos seus! Mas isso não
foi tudo: Newton escreveu depois o relatório da comissão e fez com que a
Royal Society o publicasse, acusando oficialmente Leibniz de plágio. Como
ainda não estava satisfeito, escreveu uma crítica anónima do relatório na
publicação privada da Royal Society. Após a morte de Leibniz, diz-se que
Newton declarou que tinha ficado radiante "por ter desfeito o coração a
Leibniz".
Durante estas duas discussões, Newton já tinha deixado Cambridge e a vida
académica. Tivera um papel activo na política anticatólica em Cambridge e
mais tarde no Parlamento, tendo acabado por ser recompensado com o
lucrativo lugar de administrador da Real Casa da Moeda. Aí, usou os seus
talentos tortuoso, e vitriólicos de maneira mais aceite socialmente,
orquestrando com êxito uma campanha contra a moeda falsa, chegando a
mandar vários homens para a forca.
O Autor e a Obra
Stephen Hawking nasceu no aniversário da morte de Galileu, ou seja, em 8 de
Janeiro de 1942 e é geralmente considerado um dos físicos teóricos mais
brilhantes desde Einstein. Actualmente, é Professor de Matemática Aplicada
na Universidade de Cambridge e os seus trabalhos no campo da mecânica
quântica e da relatividade com vista à compreensão do Universo têm-se
revelado como uma das maiores proezas intelectuais do século XX. Incapaz de
falar, paralisado por uma doença degenerativa incurável, conhecida por
doença de Gehrig, o cientista britânico comunica com o mundo apenas através
do movimento quase imperceptível de três dedos que accionam um grande
número de vocábulos registados e armazenados na memória de um
computador especial fixado na cadeira de rodas por ele concebida.
A tenacidade deste homem, distinguido com vários títulos académicos e
honoríficos, possível candidato ao prémio Nobel, ao tentar ultrapassar as
fronteiras da ciência, só encontra equiparação na luta e amor pela vida.
Para além de *Breve História do Tempo* (1988), Stephen Hawking publicou,
entre outros, *The Large Scale Structure of Space-Time*, 1973 (com G. F. R.
Ellis); *General Relativity: an Einstein Centenary Survey*, 1979
(colaboração); *Superspace and Supergravity*, 1981 (colaboração); *The
Very Early Universe*, 1983.
Glossário
ACELERAÇÃO. Razão a que a velocidade de um objecto varia.
ACELERADOR DE PARTÍCULAS. Máquina que, por meio de
electromagnetos, pode acelerar partículas carregadas, em movimento,
comunicando-lhes maior energia.
ACONTECIMENTO. Ponto do espaço-tempo especificado pelas Suas
coordenadas de lugar e tempo.
ANÃ BRANCA. é uma estrela fria, estável, mantida pela repulsão do
princípio de exclusão entre os electrões.
ANTIPARTÍCULA. Cada tipo de partícula de matéria tem uma antipartícula
correspondente. Quando uma partícula colide com a Sua antipartícula,
aniquilam-se mutuamente libertando energia.
ÁTOMO. Unidade fundamental da matéria comum, constituído por um núcleo
minúsculo (formado de protões e neutrões) envolvido por uma nuvem
electrónica.
BIG BANG. Singularidade no começo do Universo.
BURACO NEGRO. Região do espaço-tempo donde nada, nem mesmo a luz,
pode escapar, porque a gravidade é muito intensa (capítulo VI).
BURACO NEGRO PRIMEVO. Buraco negro criado no inicio do Universo.
CAMPO. Algo que existe através do espaço e do tempo, por oposição a uma
partícula que existe somente num ponto de cada vez.
CAMPO MAGNÉTICO. Campo responsável pelas forças magnéticas
actualmente incorporado com o campo eléctrico no campo electromagnético.
CARGA ELÉCTRICA. Propriedade de uma partícula através da qual ela
repele (ou atrai) outras partículas que têm carga do mesmo sinal (ou de sinal
contrário).
COMPRIMENTO DE ONDA. Distância entre duas Cristas ou duas Cavas
sucessivas de uma onda.
CONDIÇÃO SEM FRONTEIRA. Conceito de que o Universo é finito, mas
não tem fronteira (no tempo imaginário).
CONE DE LUZ. Superfície do espaço-tempo que delimita as trajectórias
possíveis dos raios luminosos que se cruzam num acontecimento definido. :,
CONSERVAÇÃO DE ENERGIA. Lei da física que estabelece que a energia
(ou o seu equivalente em massa) não pode ser nem criada nem destruída.
CONSTANTE COSMOLÓGICA. Artifício matemático usado por Einstein
para atribuir ao espaço-tempo uma tendência intrínseca para a expansão.
COORDENADAS. Números que especificam a posição de um ponto no
espaço e no tempo.
COSMOLOGIA. Estudo do Universo como um todo.
:desvio para o vermelho. Avermelhamento da luz de uma estrela que se afasta
de nós devido ao efeito de Doppler.
DIMENSÃO ESPACIAL. Qualquer das três dimensões do espaço-tempo que
são espaciais, ou seja, qualquer dimensão, excepto a temporal.
DUALIDADE ONDA/PARTÍCULA. Conceito em mecânica quântica de que
não há distinção entre ondas e partículas: as partículas podem, por vezes,
comportar-se como ondas e as ondas como partículas.
ELECTRÃO. Partícula com carga negativa que orbita em torno de um núcleo
atómico.
:energia de grande unificação. Energia acima da qual se crê que as forças
electromagnética, forte e fraca se tornam indistintas umas das outras.
:energia de unificação eletrofraca. Energia (cerca de 100 GeV) acima da qual
a distinção entre força electromagnética e força fraca desaparece.
ESPAÇO-TEMPO. Espaço quadridimensional cujos pontos são
acontecimentos.
ESPECTRO. Decomposição de, por exemplo, uma onda electromagnética nas
frequências que a compõem.
ESTADO ESTACIONÁRIO. Estado que não muda com o tempo: uma esfera
que roda com velocidade constante está estacionária porque permanece
idêntica em cada instante, embora se saiba que não está em repouso.
ESTRELA DE NEUTRÕES. Estrela fria mantida pela repulsão do princípio
de exclusão entre neutrões.
FASE. A fase de uma onda é a posição no seu ciclo, num instante dado: uma
"medida" para descrever se está numa crista, numa Cava, ou em qualquer
ponto intermédio.
FORÇA ELECTROMAGNÉTICA. Força que se manifesta entre partículas
com carga eléctrica; é a segunda mais forte das quatro forças fundamentais.
FORÇA FORTE. A mais forte das quatro forças fundamentais, com o menor
alcance de todas. Ela mantém os quarks juntos no interior dos protões e
neutrões e mantém os protões e neutrões juntos para formar átomos.
FORÇA FRACA. A segunda mais fraca das quatro forças fundamentais, com
alcance pequeníssimo; afecta todas as partículas materiais excepto as que são
portadoras de força.
FOTÃO. Um quantum de luz.
FREQUÊNCIA. E o número de ciclos por segundo de uma onda.
FUSÃO NUCLEAR. Processo em que dois núcleos colidem e coalescem para
formar um só núcleo mais pesado.
GEODÉSICA. Trajectória mais curta (ou mais longa) entre dois pontos.
GRANDE ESMAGAMENTO. Singularidade do fim do Universo.
HORIZONTE DE ACONTECIMENTOS. Fronteira de um buraco negro. :,
LIMITE DE CHANDRASEKHAR. Massa maximal de uma estrela fria
estável, acima da qual pode sofrer colapso e originar um buraco negro.
MASSA. Quantidade de matéria existente num corpo; a sua inércia ou
resistência à aceleração.
MECÂNICA QUÂNTICA. Teoria desenvolvida a partir do princípio da
incerteza de Heisenberg (capítulo IV).
NEUTRÃO. Partícula sem carga, muito semelhante ao protão, que contribui
para cerca de metade das partículas existentes no núcleo atómico.
NEUTRINO. Partícula elementar de matéria, extremamente leve
(possivelmente sem massa) que é afectada apenas pela força fraca e pela
gravidade.
NÚCLEO. Parte central do átomo, constituído apenas por protões e neutrões,
mantidos juntos por acção da força forte
PARTÍCULA ELEMENTAR. Partícula que se crê não poder ser subdivisível.
PARTÍCULA VIRTUAL. Partícula que, em mecânica quântica, nunca pode
ser detectada directamente, mas cuja existência tem efeitos mensuráveis.
PESO. É a força exercida num corpo pelo campo da gravidade. É proporcional
à massa do corpo, mas não se identifica com ela.
POSITRÃO. Antipartícula do electrão, com carga positiva.
PRINCÍPIO ANTRÓPICO. Vemos o Universo tal como está porque, se fosse
diferente, não estaríamos aqui para o observar.
PRINCÍPIO DA INCERTEZA. Não é possível ter a certeza simultânea da
posição e da velocidade de uma partícula; quanto maior for a precisão com
que se conhece uma, menor é a precisão com que se pode conhecer a outra
PRINCÍPIO DE EXCLUSÃO. Duas partículas de spin 1/2 idênticas, não
podem ter ambas (dentro de certos limites fixados pelo princípio da incerteza)
a mesma posição e a mesma velocidade.
:princípio quântico de planck. Conceito de que a luz (ou quaisquer outras
ondas clássicas) pode ser emitida ou absorvida somente em quanta discretos,
cuja energia é proporcional às frequências das ondas a eles associados.
PROPORCIONALIDADE. "X é proporcional a Y" significa que quando Y é
multiplicado por qualquer número, o mesmo ocorre com X. "X é inversamente
proporcional a Y" significa que quando Y é multiplicado por qualquer
número, X é dividido por esse número.
PROTÃO. Partícula com carga positiva que contribui para cerca de metade
das partículas existentes no núcleo atómico.
QUANTUM. Unidade indivisível em que as ondas podem ser emitidas ou
absorvidas.
QUARK. Partícula elementar (com carga) que sente a força forte. Os protões e
neutrões são compostos por três quarks cada um.
RADAR. Sistema que usa impulsos de ondas de rádio para detectar a posição
de objectos através da medição do tempo que um impulso simples demora a
atingir o objecto e ser reflectido.
:radiação de fundo de micro-ondas. Radiação resultante das elevadas
temperaturas do Universo primitivo, actualmente tão deslocada para o
vermelho que não aparece como luz, mas como micro-ondas (ondas de rádio
com comprimento de onda característico de alguns centímetros). :,
RADIOACTIVIDADE. Desintegração espontânea de um tipo de núcleo
atómico originando outro.
RAIOS GAMA. Ondas electromagnéticas de comprimento de onda muito
pequeno produzidas por decaimento radioactivo ou por colisão de partículas
elementares.
RELATIVIDADE GERAL. Teoria de Einstein baseada no conceito de que as
leis da física devem ser as mesmas para todos os observadores,
independentemente do seu movimento. Explica a força da gravidade em
termos de curvatura de um espaço-tempo quadridimensional.
RELATIVIDADE RESTRITA. Teoria de Einstein baseada no conceito de que
as leis da física devem ser as mesmas para todos os observadores em
movimento livre [isto é, uniforme e rectilíneo], independentemente das suas
velocidades.
SEGUNDO LUZ (ANO-LUZ). Distância percorrida pela luz num segundo
(num ano).
SINGULARIDADE. Ponto do espaço-tempo onde a curvatura deste se torna
infinita.
SINGULARIDADE NUA. Singularidade do espaço-tempo não envolvida por
um buraco negro.
SPIN. Propriedade intrínseca das partículas elementares relacionada, mas que
não se identifica, com o conceito corrente de rotação.
TEMPO IMAGINÁRIO. Tempo referido em números imaginários.
TEOREMA DA SINGULARIDADE. Teorema que mostra que a
singularidade é inevitável em certas circunstâncias, em particular que o
Universo começou com uma singularidade.
:teoria da grande unificação (GUT). Teoria que unifica as forças
electromagnética, forte e fraca.
ZERO ABSOLUTO. Temperatura mais baixa possível, à qual uma substância
não contém energia calorífica.
Índice Remissivo
*A*
Ábaco, 198
Aceleração, 237
Acelerador de partículas, 237
Ácido sulfídrico, 166, 167
Acontecimento, 44, 45, 46, 237
Agostinho, *ver* Santo Agostinho
Água, 28, 95
Albrecht, Andreas, 180
Alpher, Ralph, 163
Anã branca, 121, 134, 135, 237
Antipartícula, 112, 149, 237
Ar (elemento), 28, 95
Aristóteles, 18, 25, 28, 35, 39, 64, 95, 227
*Sobre os Céus*, 18
Átomos, 91, 95, 237
*B*
Bardeen, Jim, 147
Bekenstein, Jacob, 146, 148
Bell, Jocelyn, 133
Bell, Telephone Laboratories, 69
Bentley, Richard, 22
Berkeley, Bispo George, 39
Bethe, Hans, 163
*Big bang*, 27, 28, 76, 77, 78, 79, 93, 128, 159, 169, 171, 181, 226, 237
Bohr, Niels, 91
Bomba de hidrogénio, 138, 162
Bondi, Hermann, 77
Born, Max, 206
Bosões vectoriais, 106
Buracos negros, 80, 93, 115, 117-139, 141, 157, 159, 200, 226, 237
emissão dos, 147
primevos, 139, 151-155, 237
propriedades dos, 131-132
rotação dos, 131, 147, 148
Buracos negros primevos, 139, 151-155, 237
*C*
Calor, 165
Cálculo, 234
Campo, 237
*ver também* Campo electromagnético; Campo magnético
Campo electromagnético, 40, 99, 148
Campo gravitacional, 93, 123, 148, 184
Campo magnético, 137, 237
Carbono, 165
Carga eléctrica, 237
Carter, Brandon, 131, 147
Case School (Cleveland), 41
"Causa Primeira", 25
Censura cósmica, 127
CERN (Centro Europeu de Pesquisa Nuclear), 107
Chadwick, James, 97
Chandrasekhar, Subrahmanyan, 120
*Cidade de Deus, A* (Santo Agostinho), 25
Colapso do Universo, *ver* Contracção do Universo
Colégio Imperial (Londres), 106
Comportamento humano, 83
Comprimento de onda, 40, 237
Condição sem fronteira, 186, 190, 195, 199, 200, 201, 237
Condições de fronteira caóticas, 169
Condução de calor, 206
Cone de luz, 79, 123, 237
Confinamento, 108
Conservação de energia, 238
Constante cosmológica, 175, 181, 202, 238
Constante de Planck, 85
Contracção do Universo, 23, 200-201
Coordenadas, 46-47, 238
Copérnico, Nicolau, 20, 21, 173
Cordas abertas, 209-210
Cordas heteróticas, 213
Cosmologia, definição de, 238
Cosmologia geocêntrica, 18, 173
Cosmologia heliocêntrica, 20, 21, 173
Criação, 25, 28, 160, 191, 226-227
*Crítica da Razão Pura* (Kant), 26
Cronin, J. W., 114
Curvatura do espaço-tempo, 80, 127, 184
Cygnus X-1, 134-135
*D*
Dalton, John, 96
Darwin, Charles, 32
Decaimento espontâneo do protão, 110, 112
Demócrito, 95
Densidade:
buracos negros, 127
partículas de matéria, 102
Universo, 27, 74
Densidade infinita, 127, 182
Desvio para o vermelho, 66, 238
Detectores de raios gama, 155
Determinismo, 83, 85, 224
*Diálogo Sobre os Dois Principais Sistemas do Mundo* (Galileu), 232
Dicke, Bob, 70
Dimensão espacial, 238
Dimensões, 213-217
Dirac, Paul, 86, 102, 206
Dualidade onda/partícula, 91, 117, 238
*Duas Novas Ciências* (Galileu), 232
*E*
Eclipses, 18, 40, 57
Eddington, Arthur, 120, 122, 202, 221
Efeito de Doppler, 65, 74
Efeitos gravitacionais quânticos, 158, 182, 199
Einstein, Albert, 41, 53, 86, 96, 122, 202, 205, 226
biografia de, 229-230
equação da energia de, 42, 150, 207
*ver também* Relatividade geral
Eixos de simetria, 131
Elasticidade, 206
Electrão, 90, 96, 105, 149, 155, 162, 206, 219, 238
volt, 99
Elementos, 28, 64, 94, 165-166
Energia, 57, 84
buracos negros, 152
conservação da, 238
partículas, 99-100, 208
*ver também* Energia da grande unificação
Energia da grande unificação, 238
Energia da unificação electrofraca, 238
Energia nuclear, 33
Entropia, 144, 195
buracos negros, 145-147
Equação da energia. *Ver* Einstein, Albert, equação da energia
Espaço, 35-59
absoluto, 39
propriedades do, 73
Espaço quadridimensional. *Ver Espaço-tempo*
Espaço-tempo, 49, 159, 184, 238
curvatura do, 80, 127, 185, 215
dimensões do,
linha no, 209
vida no, 217
*ver também* Espaço-tempo euclidiano
Espaço-tempo euclidiano, 184, 185
Espectro, 64, 66, 238
Espectros térmicos, 64
Estado de repouso, 37
Estado do sistema solar, 83
Estado estacionário, 238
Estado inicial do Universo, 30
Estrelas:
catálogo de, 62
ciclo de vida das, 119
colapso de, 80, 125
fixas, 19, 22
luminosidade das, 63
número de, 22
temperatura das, 64-65, 161
visíveis, 61
*ver também* Estrelas frias; Estrelas de neutrões; Estrela Polar
Estrelas de neutrões, 121, 129, 134, 238
Estrelas fixas, 19, 22
Estrelas frias, 121
Estrela Polar, 18
Estrutura atómica, 206
Éter, 41
Euclides, 183
Evolução do Universo, 166-167, 170-171
Expansão do Universo, 23, 27, 28, 58-59, 61-82, 67, 82, 190-191
Expansão inflacionária, 144, 177, 200
Expansão, taxa crítica de, 168
*F*
Feynmann, Richard, 91, 158, 182, 183, 184
Ficção científica, 214
Filósofos, 227
Física, unificação da, 205-222
Fitch, Val, 114
Flamsteed, John, 233
Fogo (elemento), 28, 95
Folha de universo, 209
Forças, 104-108
Força eléctrica, 217
Força electromagnética, 105, 205, 238
Força forte, 212, 238
Força fraca, 238
Força gravitacional, 104, 115, 134,
215, 216
Força nuclear, 106, 107, 205, 206
Força nuclear forte, 107
Força nuclear fraca, 106
Fotões, 103, 105, 115, 162, 238
Fotões virtuais, *ver* Fotões
Frequência, 238
Friedmann, Alexander, 68
Fusão nuclear, 165, 238
*G*
Galáxia espiral, 62
Galáxias, 63, 68
Galileu, Galilei, 20, 35, 36, 173
biografia de, 231-232
Gamow, George, 70, 163
Gell-Mann, Murray, 97
Génesis, Livro do, 25
Geodésica, 54, 55, 238
Geometria, 183
GeV, 106, 107, 110, 219
Glashow, Sheldon, 107
Gluão, 108, 213
*glueballs*, 108
Gold, Thomas, 77
Gonville and Caius College (Cambridge), 97
Grande esmagamento, 159, 226, 238 :,
Gravidade, 22, 23, 37, 52, 67, 73 79, 87, 95, 115, 182, 205, 206, 219, 225
definição, 29
efeitos quânticos, 158
*ver também* Teoria quântica da gravidade, Supergravidade
Gravitação universal, *ver* Gravidade
Gravitões, 104, 208, 211, 212
Green, Mike, 213
GUT. *Ver* Teoria da grande unificação
Guth, Alan, 174, 175, 178, 180
*H*
Halley, Edmond, 233
Halliwell, Jonathan, 186
Hartle, Jim, 186
Heisenberg, Werner, 84, 85, 86 *ver também* Princípio da incerteza
Hélio, 165
Herschel, William, 62
Hewish, Antony, 133
Hidrogénio, 119, 163, 165
Horizonte de acontecimentos, 125, 126, 128, 238
Hoyle, Fred, 77
Hubble, Edwin, 27, 63, 66, 68, 71, 82
*I*
Idade do Universo, 152
Igreja Católica, 76, 160
Infinidade, 22, 207, 213
Instituto de Tecnologia da Califórnia, 97, 135, 212
Instituto Franklin, 179
Interdependência universal, 31
Interferência, 88
Israel, Werner, 130
*J*
Jeans, James, 83
Johnson, Dr. Samuel, 39
Júpiter, 19, 21, 61
eclipses de, 39-40
luas de, 39
*K*
Kant, Emmanuel, 26, 227
Kepler, Johannes, 21
Kerr, Roy, 131
Khalatnikov, Isaac, 79
Kings College (Londres), 131, 157
*L*
Laflamme, Raymond, 202
Landau, Lev Davidovich, 121
Laplace, Marquês de, 83, 86, 118, 224, 225
Lebedev, Instituto, 178
Lee, Tsung Dao, 113
Leibniz, Gottfried, 234
Leis científicas, 168-169, 171, 194
Liberdade assimptótica, 108
Lifshitz, Evgenii, 79
Limite de Chandrasekhar, 120, 121, 239
Linde, Andrei, 178, 179, 180, 188
Linha de universo, 209
Lorentz, Hendrick, 41
Luas, eclipses, 18, 40
Lucasiano, Cátedra de Matemática (Cambridge), 101
Luttrel, Julian, 186
Luz, 99, 165
comprimento de onda da, 98
cor da, 64, 88
energia da, 57
movimento da, 48-49
propagação da, 40
velocidade da, 39, 40, 41, 42, 48, 52, 117, 118
visível, 40, 65
teoria das ondas de, 117
teoria das partículas de, 117, 118
Luz ultravioleta, 40
Luz visível, 40, 65
*M*
Macromoléculas, 166
Magnetismo, 40
Marte, 19, 61
Massa, 36-37, 239
buracos negros, 132
*ver também* Limite de Chandrasekhar
Massachusetts, Instituto de Tecnologia de, 174
Matéria, 95
densidade da, 80
propriedades da, 206
Maxwell, James Clerk, 40, 106
Mecânica quântica, 73, 82, 86-87, 90, 100, 116, 159, 182, 205, 207, 218, 225,
226, 239
definição de, 31
Medição, 45, 85
Memória humana, 197
Mercúrio (planeta), 19, 54
Mesões, 108
*ver também* Mesões-k
Mesões-k, 114
Michell, John, 117, 118, 134
Michelson, Albert, 41
Micro-electrónica, 33
Micro-ondas, 40
temperatura, 167
Modelo inflacionário caótico, 180, 188
Moléculas, 92, 95
Morley, Edward, 41
Moss, Jan, 179
Mott, Nevill, 97
Movimento, 35, 58, 59
browniano, 95
*ver também* Órbitas
Movimento espacial, 21
Movimento temporal, 23
*N*
Natureza do Universo, 28
Navalha de Occam, 86
Neutrinos, 162, 239
Neutrões, 97, 163, 206, 212, 239
Newton, Isaac, 21, 22, 23, 24, 29, 36, 37, 38, 58, 117
biografia de, 233-234
*Philosophia Naturalis Principia Mathematica*, 21
*ver também* Gravidade
Núcleo, 239
Números:
que especificam o tempo, 210
valor, 171, 172
Nuvens de Magalhães, 136
*O*
Observatório de Palomar, Califórnia, 132
Olbers, Heinrich, 24
Onda de luz, 65, 98, 125, 128
Ondas, 103
de luz, 117, 128
gravitacionais, 128, 129
*ver também* Partículas
Ondas de rádio, 40, 77, 129, 132, 137
Ondas de som, 40
Ondas electromagnéticas, 84
*ver também* Ondas de rádio; Luz visível, Raios X
Ondas gravitacionais, 128
Oppenheimer, Robert, 123
Órbitas, 19, 20, 37, 217
Origem do Universo, 25-28, 115-191
*ver também* Criação
Oxigénio, 165
*P*
Page, Don, 202
Partículas, 95-116, 120, 183, 219
luz, 117
posicão das, 84, 149, 225
velocidade das, 149, 225
*ver também* Partículas elementares; Partículas de matéria; Partículas
virtuais; Ondas :,
Partículas alfa, 97
Partículas de matéria, 101, 120, 149, 176-177
Partículas elementares, 239
Partículas virtuais, 149, 207, 239
Pauli, Wolfgang, 100
*ver também* Princípio de exclusão
Peebles, Jim, 70
Penrose, Roger, 59, 80, 127, 130, 182
Penzias, Arno, 69, 78, 163
Peso, 239
*Philosophia Naturalis Principia Mathematica, ver Principia Mathematica*
*Philosophical Transactions of the Royal Society of London*, 117
Planck, Max, 84
Planetas, 19, 61, 166
*ver também* Nomes específicos
Plutão, 154
Poincaré, Henri, 42
Popper, Karl, 29
Porter, Neil, 156
Posição absoluta, 38
Positrões, 102, 156, 239
Prémio Nobel:
Born, 206
Chadwick, 97
Chandrasekhar, 122
Dirac, 102
Einstein, 86-87
Fitch, 114
Gell-Mann, 97
Glashow, 107
Lee, 114
Michelson, 41
Mott, 97
Pauli, 100
Penzias, 78
Rubbia, 107
Salam, 107
Van der Meer, 107
Weinberg, 107
Wilson, 78
Yang, 114
*Principia Mathematica* (Newton), 36, 40, 233
Princípio antrópico, 170-173, 181, 187, 195, 203, 215, 239
Princípio antrópico forte, 170-173
Princípio antrópico fraco, 170, 181, 195, 203
Princípio da exclusão, 100, 103, 239
Princípio da incerteza, 83-93, 101, 147, 190, 200, 205, 206, 207, 225, 239
Princípio quântico de Planck, 155, 219, 239
Prisma, 64
Proporcionalidade, 239
Protões, 97, 162, 206, 212, 239
decaimento espontâneo dos, 110, 111
Próxima Centauro, 35
Ptolomeu, 20, 64, 173
Pulsares, 129, 133
*Q*
*Quantum*, 84, 85, 87, 239
*Quarks*, 97, 105, 108, 112, 149, 213, 219, 239
Quasares, 133, 138
Queen Mary College (Londres), 213
*R*
Radar, 77, 239
Radiação, 84, 112, 163
buracos negros, 147, 148, 157
*ver também* Micro-ondas
Radiação Cerenkov, 156
Radiação residual, 69-70, 78, 151. 180, 190, 239
Radioactividade, 106, 240
Raios gama, 40, 152, 154, 155, 240
Raios X, 40, 152
Rayleigh, Lord, 83
Relatividade. *Ver* Relatividade geral; Relatividade restrita
Relatividade geral, 42, 43, 54, 55, 57, 58 59, 68, 73,76, 79, 92, 116, 119, 123,
125, 128, 159, 169, 175, 182, 187, 199, 206, 207, 226, 240 :,
Relatividade restrita, 52, 58, 102, 240
Renormalização, 207
Resistência do ar, 36
Renormalização, 207
Resistência do ar, 36
Robertson, Howard, 71
Robinson, David, 131
Roomer, Ole Christensen, 39, 117
Rubbia, Carlo, 107
Russel, Bertrand, 17
Rutherford, Ernest, 96, 97
Ryle, Martin, 77
*S*
Salam, Abdus, 106
Santo Agostinho, 25, 26, 218
Saturno, 19, 61
Scherk, Joel, 212-213
Schmidt, Maarten, 132
Schrödinger, Erwin, 86
Schwarz, John, 212-213
Schwarzchild, Karl, 130
Segunda lei da termodinâmica, 145-146, 146, 147, 195
Segundo-luz, 54, 240
Selecção natural, 32
Seta do tempo, 193-204, 226
definição de, 204
Seta do tempo cosmológico, 195, 202, 203, 204
Seta do tempo psicológico, 195, 198, 204
Seta do tempo termodinâmico, 195, 196, 198, 202, 204
Simetria, 106, 113, 178, 194
eixo de, 131
Simetria, quebra espontânea de, 106
Simetria, quebra lenta de, 179
Singularidade, 79, 127, 158, 168, 182, 189, 207, 226, 240 *ver também*
Singularidade nua
Singularidade nua, 240
Sírio, 121
*Sistema do Mundo, O* (Laplace), 118
Sistema solar, estado do, 83
*Sobre os Céus* (Aristóteles), 18
Sol,
eclipse do, 56
movimento do, 20
temperatura do, 162
Spin, 100, 208, 240
Starobinsky, Alexander, 147, 148
Steinhardt, Paul, 180
Sternberg, Instituto Astronómico, 178
Supergravidade, 208, 213
Supernova, 165
*T*
Taxa crítica de expansão, 168
Taxa de expansão, 168
Taylor, John G., 157
Telescópios, 21
Temperatura:
estrelas, 162
micro-ondas, 167
Sol, 162
Tempo, 27, 35-59, 193-204
absoluto, 39, 42, 58, 125, 193
imaginário, 183, 189, 193, 240
propriedades do, 73
setas do, 195
Tempo absoluto, 39, 42, 58, 125, 193
Tempo imaginário, 183, 189, 193, 240
Tempo real, 194
Tempo relativo, 193
Teorema da singularidade, 76, 81, 92, 182, 240
Teorema "sem cabelo", 132
Teoria científica, 28, 29, 189
Teoria da grande unificação, 109, 110, 113, 115, 179, 205, 206, 209, 218-219,
240
Teoria da unificação, 33, 182, 205
Teoria das cordas, 209-213
Teoria do estado estacionário, 78
*ver também* Teoria da grande unificação; Teoria quântica da gravidade
Teoria quântica da gravidade, 31, 116, 178, 182, 185, 199
*ver também* Teoria da unificação :,
Terra (elemento), 28, 95
Terra (planeta), 166
forma da, 18
movimento da, 19
perímetro, 18
Terceira dimensão. *Ver* Dimensões
Termodinâmica, segunda lei, 145-146, 146, 147, 195
Thomson, J. J., 96, 99
Thorne, Kip, 135
Transição de fase, 175, 180
Trinity College, Cambridge, 96
*U*
Unificação da física. *Ver* Física, unificação da
Universidade de Califórnia (Santa Bárbara), 186
Universidade de Gotinga, 206
Universidade de Harvard, 106
Universidade de Pensilvânia, 180
Universidade de Princeton, 70
Universo,
idade do, 152
contracção do, 23, 201, 202, 203
densidade do, 27, 76
estado inicial do, 30
estático infinito, 24, 26
evolução do, 166-167, 170-171
*ver também* Expansão do Universo; Origem do Universo
Universo imutável, 27
*V*
Van der Meer, Simon, 107
Velocidade, 85, 118, 225
das partículas, 101, 148, 225
Velocidade crítica, 67
Velocidade da luz, 39, 40, 41, 42, 48, 52, 117, 118
Velocidades, 78
Vénus, 19, 61
Via Láctea, 62, 68
Viagem no espaço, 215
Volatilidade, 95
*W*
Walker, Arthur, 71
Weekes, Trevor, 156
Weinberg, Steven, 106
Wheeler, John, 117, 130, 138
Wilson, Robert, 69, 70, 78, 163
Wittgenstein, Ludvig, 227
Wu, Chien-Schiung, 114
*Y*
Yang, Chen Ning, 113
*Z*
Zeldovich, Yakov, 147, 148
Zero absoluto, 240
Nenhum comentário:
Postar um comentário