Editora: Companhia das Letras
ISBN: 978-85-8057-646-7
Tradução: Cássio
de Arantes Leite
Ilustrações: Ron Miller
Revisão técnica: Amâncio frança
Opinião: ★★★☆☆
Páginas: 256
Análise em vídeo: Clique aqui
Link para compra: Clique aqui
Sinopse: Uma das mentes mais geniais do mundo moderno, Stephen
Hawking guia o leitor na busca por respostas a algumas das maiores dúvidas da
humanidade: Qual a origem do universo? Ele é infinito? E o tempo? Sempre
existiu, ou houve um começo e haverá um fim? Existem outras dimensões além das
três espaciais? E o que vai acontecer quando tudo terminar?
Com ilustrações
criativas e texto lúcido e bem-humorado, Hawking desvenda desde os mistérios da
física de partículas até a dinâmica que movimenta centenas de milhões de
galáxias por todo o universo. Para o iniciado, Uma breve história do tempo é uma bela representação de conceitos complexos;
para o leigo, é um vislumbre dos segredos mais profundos da criação.
“A
fim de falar sobre a natureza do universo e discutir questões como se ele tem
um início ou um fim, devemos esclarecer o que é uma teoria científica. Vou
adotar a visão simplória de que uma teoria é apenas um modelo do universo — ou
uma parte restrita dele — e um conjunto de regras que relacionam as quantidades
no modelo às observações que fazemos. Ela existe apenas em nossas mentes e não
possui qualquer outra realidade (seja lá o que isso possa significar). Uma
teoria é considerada boa se satisfaz dois requisitos: descreve de forma
adequada um grande número de observações com base em um modelo que contém
apenas poucos elementos arbitrários e faz previsões precisas sobre os
resultados de futuras observações. Por exemplo, Aristóteles acreditava na
teoria de Empédocles de que tudo era feito dos elementos: terra, ar, fogo e
água. Isso era bastante simples, mas não se traduzia em previsões precisas. Já
a teoria da gravitação de Newton se baseava em um modelo ainda mais simples, no
qual os corpos atraíam uns aos outros com uma força proporcional a uma grandeza
chamada de massa e inversamente proporcional ao quadrado da distância entre
eles. E, contudo, ela prevê os movimentos do Sol, da Lua e dos planetas com
alto grau de precisão.”
“A
descoberta de que o universo está em expansão foi uma das grandes revoluções
intelectuais do século XX. Em retrospecto, é fácil se perguntar por que ninguém
tinha pensado nisso antes. Newton e outros deviam ter se dado conta de que um
universo estático logo começaria a se contrair sob a influência da gravidade.
Mas suponhamos, em vez disso, que o universo esteja se expandindo. Se o
processo for muito lento, em algum momento a força da gravidade o levará a
parar de se expandir e, depois, começar a se contrair. Entretanto, se estiver
se expandindo acima de determinada velocidade crítica, a gravidade jamais será
forte o bastante para detê-lo, e o universo continuará se expandindo para
sempre. Isso é um pouco o que acontece quando lançamos um foguete da superfície
da Terra. Se a velocidade for muito baixa, a gravidade acabará por detê-lo, e
ele cairá de volta. Em contrapartida, se o foguete viajar acima de determinada
velocidade crítica (cerca de onze quilômetros por segundo), a gravidade não
será forte o suficiente para puxá-lo de volta, de modo que ele continuará se
afastando da Terra para sempre. Esse comportamento do universo poderia ter sido
previsto com base na teoria da gravitação de Newton em qualquer momento dos
séculos XIX e XVIII, ou até em fins do XVII. Contudo, a crença em um universo
estático era tão forte que ela persistiu até o início do século XX. Mesmo
Einstein, ao formular a teoria da relatividade geral, em 1915, tinha tanta
certeza de que o universo precisava ser estático que modificou sua teoria para
tornar isso possível, introduzindo em suas equações o que chamou de constante
cosmológica. Einstein incorporou uma nova força “antigravidade”, que, ao
contrário de outras forças, não provinha de nenhuma fonte específica, mas se
formava no próprio tecido do espaço-tempo. Ele alegou que o espaço-tempo tinha
uma tendência inerente a se expandir e que isso podia acontecer exatamente para
compensar a atração de toda a matéria no universo, de modo que o resultado
seria um universo estático. Aparentemente, apenas um homem estava disposto a
aceitar a relatividade geral, e, enquanto Einstein e outros físicos procuravam
maneiras de evitar a previsão da relatividade geral de um universo não
estático, o físico e matemático russo Alexander Friedmann se propôs a explicar
tal previsão.
Friedmann
fez duas suposições muito simples sobre o universo: que ele parecia idêntico em
qualquer direção que olhássemos e que isso seria verdadeiro também se o
observássemos de qualquer outro ponto. Partindo apenas dessas duas ideias, ele
mostrou que não deveríamos esperar que o universo fosse estático. Na verdade,
em 1922, vários anos antes da descoberta de Edwin Hubble, Friedmann previu
exatamente o que Hubble descobriu! (...)
Bem,
à primeira vista, toda essa evidência de que o universo tem o mesmo aspecto em
qualquer direção em que olhemos pode parecer sugerir que existe algo especial
em relação a nosso lugar no universo. Em particular, talvez pareça que, se
observamos todas as demais galáxias se afastando de nós, então devemos estar no
centro do universo. Há, no entanto, uma explicação alternativa: o universo deve
parecer o mesmo em qualquer direção quando visto também de qualquer outra
galáxia. Essa, como vimos, era a segunda hipótese de Friedmann. Não dispomos de
evidência científica a favor ou contra essa suposição. Acreditamos nela apenas
por modéstia: seria muito surpreendente se o universo parecesse o mesmo em
qualquer direção em torno de nós, mas não em torno de outros pontos do
universo! No modelo de Friedmann, todas as galáxias estão se afastando umas das
outras. A situação é semelhante a um balão, com diversos pontos pintados em sua
superfície, sendo inflado. À medida que o balão se expande, a distância entre
quaisquer dois pontos aumenta, mas não existe um ponto que possa ser
identificado como o centro da expansão. Além disso, quanto mais distantes os
pontos, mais depressa eles se afastarão. Da mesma maneira, no modelo de
Friedmann a velocidade em que quaisquer duas galáxias se afastam é proporcional
à distância entre elas. Assim, ele previu que o desvio de uma galáxia para o
vermelho devia ser diretamente proporcional à sua distância de nós, o mesmo que
Hubble descobriu.”
“Todas
as soluções de Friedmann têm a particularidade de que, em algum momento no
passado (entre dez e vinte bilhões de anos atrás), a distância entre galáxias
vizinhas deve ter sido zero. Nessa época, que chamamos de Big Bang, a densidade
do universo e a curvatura do espaço-tempo teriam sido infinitas. Como a
matemática não pode lidar de fato com números infinitos, isso significa que a
teoria da relatividade geral (na qual as soluções de Friedmann se baseiam)
prevê que existe um ponto no universo no qual a própria teoria deixa de ser
válida. Esse ponto é um exemplo do que os matemáticos chamam de singularidade.
Na verdade, todas as nossas teorias científicas são formuladas na suposição de
que o espaço-tempo é liso e quase plano, de modo que deixam de funcionar na
singularidade do Big Bang, quando a curvatura do espaço-tempo é infinita. Isso
significa que, mesmo que tenha havido eventos anteriores ao Big Bang, seríamos
incapazes de usá-los para determinar o que aconteceria em seguida, pois a
previsibilidade deixaria de funcionar no Big Bang.
Do
mesmo modo, se sabemos o que aconteceu apenas desde o Big Bang, como é o caso,
não podemos determinar o que ocorreu antes. No que nos diz respeito, eventos
prévios ao Big Bang não exercem qualquer efeito, de modo que não fazem parte de
um modelo científico do universo. Devemos, assim, eliminá-los do modelo e dizer
que o tempo teve início no Big Bang.”
“O
trabalho de Lifshitz e Khalatnikov foi valioso porque mostrou que o universo pode
de fato ter tido uma singularidade, um Big Bang, se a teoria da
relatividade geral estiver correta. No entanto, não solucionou a questão
crucial: será que a relatividade geral prevê que nosso universo deve ter
tido um Big Bang, um início do tempo? A resposta veio a partir de uma abordagem
completamente diferente introduzida pelo matemático e físico britânico Roger
Penrose em 1965. A partir do modo como os cones de luz se comportam na
relatividade geral, combinado ao fato de que a gravidade sempre exerce atração,
ele mostrou que uma estrela cedendo à própria gravidade fica aprisionada em uma
região cuja superfície acaba por encolher ao tamanho zero. E, como a superfície
da região encolhe para zero, o mesmo deve se dar com seu volume. Toda a matéria
da estrela será comprimida em uma região de volume zero, de modo que a
densidade da matéria e a curvatura do espaço-tempo serão infinitas. Em outras
palavras, temos uma singularidade contida dentro de uma região do espaço-tempo
conhecida como buraco negro. (...)
Em
1965, li a respeito do teorema de Penrose de que todo corpo em colapso
gravitacional deve acabar formando uma singularidade. Logo me dei conta de que,
se revertêssemos a direção do tempo no teorema de Penrose, de modo que o
colapso se tornasse uma expansão, as condições de seu teorema ainda seriam
válidas, contanto que o universo fosse aproximadamente como um modelo de
Friedmann em escalas maiores no momento atual. O teorema de Penrose mostrara
que qualquer estrela em colapso deve terminar em uma singularidade; o
argumento de reversão temporal mostrava que qualquer universo em expansão nos
moldes de Friedmann deve ter se iniciado com uma singularidade. Por
razões técnicas, o teorema de Penrose exigia que o universo fosse infinito em
espaço. Assim, eu podia usá-lo para provar que haveria uma singularidade apenas
se o universo estivesse se expandindo rápido o bastante para evitar um novo
colapso (já que apenas aqueles modelos de Friedmann previam um espaço
infinito).
Ao
longo dos anos seguintes, desenvolvi técnicas matemáticas para eliminar essa e
outras tecnicalidades dos teoremas que provavam a ocorrência de singularidades.
O resultado foi um artigo escrito em parceria com Penrose em 1970, demonstrando
enfim que deve ter havido uma singularidade de Big Bang, desde que a
relatividade geral esteja correta e o universo contenha tanta matéria quanto
observamos. Houve muita oposição ao nosso trabalho, em parte vinda dos russos,
devido à sua crença marxista no determinismo científico, e em parte de pessoas
que achavam que toda essa ideia de singularidade era intragável e arruinava a
beleza da teoria de Einstein. Todavia, não se pode discutir com um teorema
matemático. Desse modo, no fim, nosso trabalho foi amplamente aceito, e hoje
quase todos presumem que o universo teve início com uma singularidade de Big
Bang. É talvez um pouco irônico que, após mudar de ideia, hoje eu tente
convencer os demais físicos de que, na realidade, não houve singularidade
alguma no início do universo — como veremos mais adiante, ela pode desaparecer
se levarmos em consideração os efeitos quânticos.
Neste
capítulo, vimos como em menos de meio século o conceito do homem sobre o
universo, formado ao longo de milênios, foi transformado. A descoberta de
Hubble de que o universo estava em expansão e a percepção da insignificância de
nosso planeta na vastidão do cosmos foram apenas o ponto de partida. À medida
que as evidências experimentais e teóricas se acumulavam, ficou cada vez mais
claro que o universo deve ter tido um início no tempo, até que em 1970 isso
enfim foi comprovado por Penrose e por mim, com base na teoria da relatividade
geral de Einstein. Isso mostrou que a relatividade geral não passa de uma
teoria incompleta: ela é incapaz de nos dizer como o universo começou, pois
prevê que todas as teorias físicas, incluindo ela própria, perdem a validade no
início do universo. Entretanto, a relatividade geral alega ser uma teoria
apenas parcial. Assim, o que os teoremas da singularidade mostram de fato é que
deve ter havido um momento nos estágios mais primitivos do universo em que ele
era tão pequeno que já não se poderia ignorar os efeitos em pequena escala da
outra grande teoria parcial do século XX: a mecânica quântica. No começo da
década de 1970, portanto, fomos forçados a mudar nossa busca por uma
compreensão do universo com base em nossa teoria do extraordinariamente vasto
para nossa teoria do extraordinariamente minúsculo.”
“O
cientista alemão Max Planck sugeriu, em 1900, que a luz, os raios X e outras
ondas não podiam ser emitidos a uma taxa arbitrária, mas apenas em certos
pacotes, que ele chamou de quanta. Além do mais, cada quantum tinha um montante
de energia que aumentava quanto maior fosse a frequência das ondas, de modo
que, a uma frequência elevada o bastante, a emissão de um único quantum
exigiria mais energia do que havia disponível. Desse modo, a radiação em altas
frequências seria reduzida e a taxa em que o corpo perde energia seria finita.
A
hipótese quântica explicava muito bem a taxa observada de emissão de radiação
dos corpos quentes, mas suas implicações para o determinismo só foram
percebidas em 1926, quando outro cientista alemão, Werner Heisenberg, formulou
seu famoso princípio da incerteza. A fim de prever a posição e a velocidade
futuras de uma partícula, temos de ser capazes de medir com precisão a posição
e a velocidade atuais. A maneira óbvia de fazer isso é lançar luz sobre a
partícula. Algumas ondas de luz serão dispersadas por ela, e isso indicará sua
posição. Entretanto, não seremos capazes de determinar a posição da partícula
com mais precisão do que a distância entre as cristas de onda da luz, de modo
que temos de usar luz de ondas curtas para medir a posição da partícula de
forma precisa. Ora, pela hipótese quântica de Planck, não podemos usar uma
quantidade arbitrariamente pequena de luz; temos de usar pelo menos um quantum.
Esse quantum perturbará a partícula e mudará sua velocidade de uma forma que
não pode ser prevista. Além do mais, com quanto mais exatidão medirmos a
posição, menor será o comprimento de onda da luz necessário e, portanto, mais
elevada será a energia de um único quantum. Assim, a velocidade da partícula
será perturbada por uma quantidade maior. Em outras palavras, quanto mais
precisamente tentarmos medir a posição da partícula, menos precisamente
poderemos medir sua velocidade, e vice-versa. Heisenberg mostrou que a
incerteza na posição da partícula multiplicada pela incerteza em sua velocidade
multiplicada pela massa da partícula nunca pode ser menor do que um valor
específico, conhecido como constante de Planck. Além disso, esse limite não
depende da maneira como tentamos medir a posição ou a velocidade da partícula,
nem do tipo de partícula. O princípio da incerteza de Heisenberg é uma propriedade
fundamental e inescapável do mundo.
O
princípio da incerteza teve implicações profundas para o modo como vemos o
mundo. Mesmo após mais de setenta anos, elas ainda não foram admitidas por
muitos filósofos e continuam sendo objeto de grande controvérsia. O princípio
da incerteza sinalizou um fim para o sonho de Laplace de uma teoria da ciência,
um modelo completamente determinista do universo: ora, ninguém pode prever
eventos futuros com exatidão se não é capaz sequer de medir de forma precisa o
atual estado do universo! É possível, ainda, imaginar que haja um conjunto de
leis que determinam os eventos por completo para um ser sobrenatural, que seria
capaz de observar o estado presente do universo sem perturbá-lo. Entretanto,
tais modelos do universo não são de grande interesse para nós, meros mortais.
Parece mais válido empregar o princípio econômico conhecido como navalha de
Occam e eliminar todos os aspectos inobserváveis da teoria. Essa abordagem
levou Heisenberg, Erwin Schrödinger e Paul Dirac, na década de 1920, a
reformular a mecânica em uma nova teoria chamada mecânica quântica, baseada no
princípio da incerteza. Nessa teoria, as partículas não mais apresentam
posições e velocidades independentes e bem definidas que não podem ser
observadas. Em vez disso, possuem um estado quântico, que é uma combinação de
posição e velocidade.
De
modo geral, a mecânica quântica não prevê um resultado único e definitivo para
uma observação. Em vez disso, prevê um número de resultados possíveis e nos
informa sobre a probabilidade de cada um. Isso equivale a dizer que, se
fizéssemos a mesma medição em um grande número de sistemas semelhantes, todos
iniciados da mesma maneira, descobriríamos que o resultado seria A em
determinados casos, B em outros e assim por diante. Poderíamos prever o número
aproximado de vezes que o resultado seria A ou B, mas não o resultado
específico de uma medição individual. Assim, a mecânica quântica introduz um
elemento inevitável de imprevisibilidade ou aleatoriedade à ciência. Einstein
se opôs fortemente a isso, a despeito do importante papel que ele próprio
desempenhara no desenvolvimento dessas ideias. Ele foi agraciado com o Prêmio
Nobel por sua contribuição à teoria quântica. Não obstante, nunca aceitou que o
universo fosse governado pelo acaso; seus sentimentos foram resumidos em sua
famosa frase “Deus não joga dados”. A maioria dos outros cientistas, porém,
estava disposta a aceitar a mecânica quântica porque ela combinava
perfeitamente com a experimentação. De fato, a teoria tem se mostrado
bem-sucedida e fundamenta quase toda a ciência e a tecnologia modernas. Ela
governa o comportamento dos transistores e circuitos integrados, componentes
essenciais de aparelhos eletrônicos como televisores e computadores, e também é
a base da química e da biologia modernas. As únicas áreas da ciência física nas
quais a mecânica quântica ainda não foi devidamente incorporada são a
gravitação e a estrutura em grande escala do universo.
Embora
a luz seja feita de ondas, a hipótese quântica de Planck nos diz que, em alguns
aspectos, ela se comporta como se fosse constituída de partículas: pode ser
emitida ou absorvida apenas em pacotes, ou quanta. Da mesma forma, o princípio
da incerteza de Heisenberg sugere que, em alguns aspectos, as partículas se
comportam como ondas: elas não têm posição definida, mas estão “borradas” com
certa distribuição de probabilidade. A teoria da mecânica quântica se baseia em
um tipo inteiramente novo de matemática que não mais descreve o mundo real em
termos de partículas e ondas — apenas as observações do mundo podem ser
descritas nesses termos. Há, assim, uma dualidade entre ondas e partículas na
mecânica quântica: para alguns propósitos, é útil pensar nas partículas como
ondas e, para outros, é melhor pensar nas ondas como partículas. Uma
consequência importante disso é que podemos observar o que chamamos de
interferência entre dois conjuntos de ondas ou partículas. Ou seja, as cristas
de um conjunto de ondas podem coincidir com os vales de outro conjunto. Assim,
os dois se cancelam, em vez de se somar em uma onda mais forte, como seria de
se esperar. Um exemplo comum da interferência no caso da luz é o das cores que
vemos em bolhas de sabão. Elas são causadas pelo reflexo da luz nos dois lados
da fina película de água que forma a bolha. A luz branca consiste em ondas de
luz de todos os comprimentos, ou cores. Para determinados comprimentos de onda,
as cristas refletidas de um lado da película de sabão coincidem com os vales
refletidos do outro lado. As cores correspondentes a esses comprimentos de onda
estão ausentes da luz refletida, que, desse modo, parece colorida.”
“O
fenômeno da interferência entre partículas foi crucial para a nossa compreensão
da estrutura dos átomos — as unidades básicas da química e da biologia e os blocos
constituintes a partir dos quais nós, e tudo à nossa volta, somos feitos. No
início do século XX, pensava-se que os átomos eram mais como planetas orbitando
o Sol, com elétrons (partículas de eletricidade negativa) orbitando um núcleo
central, que carregava eletricidade positiva. A atração entre a eletricidade
positiva e a negativa supostamente mantinha os elétrons em suas órbitas da
mesma forma como a atração gravitacional do Sol mantém os planetas. O problema
era que, antes da mecânica quântica, as leis da mecânica e da eletricidade
previam que os elétrons perderiam energia e, por isso, entrariam em uma espiral
para dentro até colidir com o núcleo. Isso significaria que o átomo, e, com
efeito, toda matéria, deveria sofrer um colapso rápido até alcançar um estado
de densidade muito alta. Em 1913, o cientista dinamarquês Niels Bohr encontrou
uma solução parcial para esse problema. Ele sugeriu que os elétrons talvez não
fossem capazes de orbitar o núcleo central a uma distância qualquer, mas apenas
a distâncias específicas. Se supuséssemos, ainda, que apenas um ou dois
elétrons pudessem orbitar a cada uma dessas distâncias, isso resolveria o
problema do colapso do átomo, pois os elétrons só poderiam espiralar para
dentro até preencher as órbitas mais próximas e de menos energia.
Esse modelo explicava muito bem a
estrutura do átomo mais simples, o hidrogênio, que tem um único elétron
orbitando o núcleo. No entanto, não estava claro como devíamos estender isso
para átomos mais complexos. Além do mais, a ideia de um conjunto limitado de
órbitas permitidas parecia muito arbitrária. A nova teoria da mecânica quântica
resolveu essa dificuldade. Ela revelou que um elétron orbitando o núcleo podia
ser visto como uma onda, cujo comprimento dependia de sua velocidade. O
comprimento de determinadas órbitas corresponderia a um número inteiro (isto é,
não fracionário) de comprimentos de onda do elétron. Nesses casos, a crista da
onda estaria na mesma posição a cada volta, de modo que as ondas se somariam:
essas órbitas corresponderiam às órbitas permitidas de Bohr. Entretanto, nos
casos em que comprimentos não fossem um número inteiro de comprimentos de onda,
cada crista acabaria sendo anulada por um vale à medida que os elétrons
completassem a volta — essas órbitas não seriam permitidas.
Um
bom modo de visualizar a dualidade onda/partícula é a chamada soma de
histórias, introduzida pelo cientista americano Richard Feynman. Nessa
abordagem, não se espera que a partícula tenha uma única história (ou
trajetória) no espaço-tempo, como seria o caso com uma teoria clássica, não
quântica. Em vez disso, supõe-se que ela vá de A para B por todas as
trajetórias possíveis. Cada trajetória está associada a dois números: um
representa o tamanho de uma onda e o outro, a posição no ciclo (ou seja, se é
um vale ou uma crista). A probabilidade de uma partícula ir de A para B é
obtida a partir da soma das ondas para todas as trajetórias. Em geral, se
compararmos um conjunto de trajetórias vizinhas, as fases ou posições no ciclo
apresentarão variações enormes. Isso significa que as ondas associadas a essas
trajetórias se anularão umas às outras de maneira quase exata. Porém, para
alguns conjuntos de trajetórias vizinhas, a fase não variará muito. As ondas
para essas trajetórias não se anularão. Tais trajetórias correspondem às
órbitas permitidas de Bohr.
Com
essas ideias, em uma formulação matemática concreta, foi relativamente simples
calcular as órbitas permitidas em átomos mais complexos e até em moléculas, que
são feitas de átomos unidos por elétrons que orbitam mais de um núcleo. Como a
estrutura das moléculas e suas reações entre si formam a base da química e da
biologia, em princípio a mecânica quântica nos permite prever quase tudo o que
vemos à nossa volta, dentro dos limites estabelecidos pelo princípio da
incerteza. (Contudo, na prática os cálculos exigidos para sistemas contendo
mais do que uns poucos elétrons são tão complicados que não conseguimos
fazê-los.)
A
teoria da relatividade geral de Einstein parece governar a estrutura em grande
escala do universo. Ela é o que se chama de teoria clássica; ou seja, não leva
em consideração o princípio da incerteza da mecânica quântica, como deveria
fazer para fins de compatibilidade com outras teorias. O motivo para que isso
não leve a qualquer discrepância em relação à observação é que todos os campos
gravitacionais que costumamos experimentar são muito fracos. Entretanto, os
teoremas da singularidade discutidos aqui indicam que o campo gravitacional
deve ficar muito forte em pelo menos duas situações: os buracos negros e o Big
Bang. Em campos fortes como esses, os efeitos da mecânica quântica devem ser
importantes. Desse modo, em certo sentido, ao prever pontos de densidade
infinita, a relatividade geral clássica prevê sua própria derrocada, assim como
a mecânica clássica (ou seja, não quântica) prevê sua derrocada ao sugerir que
os átomos devem alcançar densidade infinita. Ainda não dispomos de uma teoria
consistente e completa que unifique a relatividade geral e a mecânica quântica,
mas conhecemos algumas das características que ela deve ter.”
“Para
entender como um buraco negro pode se formar, primeiro precisamos compreender o
ciclo de vida de uma estrela. Uma estrela é formada quando uma grande
quantidade de gás (na maior parte hidrogênio) começa a desabar sobre si mesma
devido a sua atração gravitacional. À medida que ela se contrai, os átomos do
gás se chocam com frequência e velocidade cada vez maiores, e o gás se aquece.
No fim, o gás está tão quente que, quando os átomos de hidrogênio colidem, eles
deixam de se repelir e se fundem para formar o hélio. O calor liberado nessa
reação, que é como a explosão controlada de uma bomba de hidrogênio, faz a
estrela brilhar. Esse calor adicional também aumenta a pressão do gás até que ela
seja suficiente para equilibrar a atração gravitacional, e o gás para de se
contrair. É um pouco como um balão — há um equilíbrio entre a pressão do ar
dentro, que tenta fazer o balão se expandir, e a tensão na borracha, que tenta
fazer o balão diminuir. As estrelas permanecerão estáveis desse modo por um
longo tempo, com o calor das reações nucleares equilibrando a atração
gravitacional. Em algum momento, porém, a estrela ficará sem seu hidrogênio e
outros combustíveis nucleares. Paradoxalmente, quanto mais combustível a
estrela tem no começo do processo, mais rápido ela se exaure. Isso ocorre
porque, quanto maior a massa da estrela, mais quente ela precisa ficar para
equilibrar sua atração gravitacional. E, quanto mais quente ficar, mais rápido
gastará seu combustível. Nosso Sol provavelmente tem combustível bastante para
mais cerca de cinco bilhões de anos, mas estrelas mais massivas podem gastar
seu combustível em meros cem milhões de anos, um tempo ínfimo ante a idade do
universo. Quando uma estrela fica sem combustível, ela começa a esfriar e se
contrai.”
“O
quadro que hoje temos do trabalho de Oppenheimer é o seguinte: o campo
gravitacional da estrela altera as trajetórias dos raios de luz no espaço-tempo
em relação ao que teriam sido caso a estrela não estivesse presente. Os cones
de luz, que indicam as trajetórias seguidas no espaço e no tempo a partir do
ponto de origem dos clarões luminosos, são curvados de leve para dentro próximo
à superfície da estrela. Isso pode ser visto durante um eclipse solar na
curvatura da luz originária de estrelas distantes. À medida que a estrela se
contrai, o campo gravitacional em sua superfície fica cada vez mais forte e os
cones de luz se curvam ainda mais para dentro. Isso aumenta a dificuldade de a
luz da estrela escapar, e a luz parece mais fraca e avermelhada para um
observador distante. Então, quando a estrela encolhe até determinado diâmetro
crítico — o ponto sem retorno —, o campo gravitacional na superfície se torna
tão forte e os cones de luz se curvam de tal forma que a luz não consegue mais
escapar. Segundo a teoria da relatividade, nada pode viajar mais rápido do que
a luz. Assim, se a luz não pode sair, nada mais pode; tudo é arrastado de volta
pelo campo gravitacional. O resultado é um conjunto de eventos, uma região do
espaço-tempo, de onde a luz não pode escapar e chegar a um observador distante.
Essa região é o que hoje chamamos de buraco negro. Sua fronteira é chamada de
horizonte de eventos e coincide com as trajetórias dos raios luminosos que, por
uma margem mínima, não conseguem escapar.
A fim de compreender o que
veríamos se observássemos uma estrela entrar em colapso para formar um buraco
negro, não podemos nos esquecer de que, na teoria da relatividade, não existe
tempo absoluto. Cada observador tem sua própria medida de tempo. O tempo para
alguém em uma estrela será diferente do tempo para alguém a determinada
distância, devido ao campo gravitacional da estrela. Suponhamos que um
astronauta intrépido esteja na superfície da estrela entrando em colapso e,
enquanto desaba junto com ela, envie um sinal a cada segundo, de acordo com seu
relógio, para sua nave espacial, que orbita a estrela. A certa altura em seu
relógio — digamos, 11h00m00s —, a estrela encolheria para além do raio crítico
no qual o campo gravitacional se torna tão forte que nada pode escapar, e os
sinais do astronauta não chegariam mais à nave. À medida que as 11h00m00s se
aproximassem, seus companheiros, observando da espaçonave, perceberiam os
intervalos entre os sinais do astronauta ficando cada vez mais longos, mas esse
efeito seria muito pequeno antes das 10h59m59s. Eles precisariam esperar apenas
um pouco mais do que um segundo entre o sinal das 10h59m58s do astronauta e o
que ele enviou quando seu relógio dizia 10h59m59s, mas teriam de esperar para
sempre pelo sinal das 11h00m00s. As ondas luminosas emitidas da superfície da
estrela entre 10h59m59s e 11h00m00s pelo relógio do astronauta se espalhariam
por um período de tempo infinito, de acordo com o que se vê da espaçonave. O
intervalo entre a chegada das ondas sucessivas à nave espacial ficaria cada vez
mais longo, de modo que a luz da estrela se mostraria cada vez mais vermelha e
fraca. Em algum momento, a estrela ficaria tão indistinta que não seria mais
possível vê-la da espaçonave: restaria apenas um buraco negro no espaço. A
estrela, porém, continuaria exercendo a mesma força gravitacional sobre a nave,
que seguiria orbitando o buraco negro. No entanto, esse cenário não é
totalmente realista, devido ao seguinte problema: a gravidade enfraquece à
medida que nos afastamos da estrela, de modo que a força gravitacional nos pés
de nosso intrépido astronauta seria sempre maior do que a força gravitacional em
sua cabeça. Essa diferença esticaria nosso astronauta como um espaguete ou o
dilaceraria antes que a estrela se contraísse até o diâmetro crítico do momento
em que o horizonte de eventos se formou! No entanto, acreditamos que existem
objetos muito maiores no universo, como as regiões centrais das galáxias, que
também podem sofrer colapso gravitacional e produzir buracos negros. Um
astronauta em um ponto desses não seria dilacerado antes que o buraco negro se
formasse. Com efeito, ele não sentiria nada de especial quando atingisse o raio
crítico e poderia passar pelo ponto sem retorno sem perceber. Entretanto,
dentro de apenas algumas horas, à medida que a região continuasse entrando em
colapso, a diferença nas forças gravitacionais na cabeça e nos pés dele se
tornaria tão forte que mais uma vez o rasgaria.
O
trabalho que Roger Penrose e eu realizamos entre 1965 e 1970 mostrou que, de
acordo com a relatividade geral, deve haver uma singularidade de densidade e
curvatura espaço-temporal infinita dentro de um buraco negro. É mais ou menos
como o Big Bang no início do tempo, com a única diferença de que seria um fim
do tempo para o objeto entrando em colapso e para o astronauta. Nessa
singularidade, as leis da ciência e nossa capacidade de prever o futuro fracassariam.
No entanto, qualquer observador que permanecesse fora do buraco negro não seria
afetado por essa falta de previsibilidade, pois nem a luz nem qualquer outro
sinal poderiam sair da singularidade e chegar a ele. Esse fato notável levou
Roger Penrose a propor a hipótese da censura cósmica, que pode ser parafraseada
como “Deus abomina uma singularidade nua”. Em outras palavras, as
singularidades produzidas pelo colapso gravitacional ocorrem apenas em lugares,
como os buracos negros, onde estão ocultas de olhares alheios por um horizonte
de eventos. A rigor, é o que conhecemos como hipótese da censura cósmica fraca:
ela protege os observadores que permanecem fora do buraco negro das
consequências do colapso de previsibilidade que ocorre no interior da singularidade,
mas não faz absolutamente nada pelo pobre e infeliz astronauta que despenca
nela.
Algumas
soluções das equações da relatividade geral permitem que nosso astronauta veja
uma singularidade nua: ele talvez seja capaz de evitar a singularidade e, em
vez disso, cair em um “buraco de minhoca”, saindo em outra região do universo.
Isso ofereceria grandes possibilidades de viagem no espaço e no tempo, mas
infelizmente essas soluções talvez sejam muito instáveis: a menor perturbação,
como a presença de um astronauta, poderia mudar esses objetos de tal maneira
que o astronauta só veria a singularidade quando a atingisse e seu tempo
chegasse ao fim. Em outras palavras, a singularidade residiria sempre em seu
futuro, nunca em seu passado. A versão forte da hipótese da censura cósmica
sustenta que, em uma solução realista, as singularidades sempre residiriam
completamente no futuro (como as singularidades do colapso gravitacional) ou no
passado (como o Big Bang). Acredito muito na censura cósmica, então apostei com
Kip Thorne e John Preskill, da Caltech, que ela seria sempre válida. Perdi a
aposta por um detalhe técnico, pois foram apresentados exemplos de soluções nas
quais uma singularidade era visível a uma distância grande. Assim, tive de
pagar, o que, pelos termos da aposta, significava que eu precisava cobrir a
nudez delas. Mas posso dizer que tive uma vitória moral. As singularidades nuas
eram instáveis: a menor perturbação as levaria a desaparecer ou se ocultar
atrás de um horizonte de eventos. Portanto, elas não ocorreriam em situações
realistas.
O
horizonte de eventos, a fronteira da região do espaço-tempo de onde não é
possível escapar, age mais como uma membrana de mão única em torno do buraco
negro: os objetos, como astronautas incautos, podem atravessar o horizonte de
eventos e cair dentro do buraco negro, mas nada jamais pode sair do buraco
negro por ali. (Lembre que o horizonte de eventos é a trajetória que a luz
segue no espaço-tempo para tentar escapar do buraco negro, e nada pode viajar
mais rápido do que a luz.) Poderíamos dizer do horizonte de eventos o que o
poeta Dante disse da porta do inferno: “Abandonai toda esperança vós que aqui
entrais.” Qualquer coisa ou qualquer um que cair pelo horizonte de eventos em
breve atingirá a região de densidade infinita e o fim do tempo.”
Nenhum comentário:
Postar um comentário