sexta-feira, 3 de novembro de 2023

Uma breve história do tempo (Parte II), de por Stephen Hawking

Editora: Companhia das Letras

ISBN: 978-85-8057-646-7

Tradução: Cássio de Arantes Leite

Ilustrações: Ron Miller

Revisão técnica: Amâncio frança

Opinião: ★★★☆☆

Páginas: 256

Análise em vídeo: Clique aqui

Link para compra: Clique aqui

Sinopse: Ver Parte I



“Os buracos negros são apenas um caso, de uma quantidade razoavelmente pequena na história da ciência, em que uma teoria foi desenvolvida em grande detalhe como modelo matemático antes de haver quaisquer evidências observacionais que a comprovassem. Na verdade, esse era o principal argumento dos detratores dos buracos negros: como alguém poderia acreditar em objetos para os quais a única evidência eram cálculos baseados na duvidosa teoria da relatividade geral? No entanto, em 1963, o astrônomo Maarten Schmidt, do Observatório Palomar, na Califórnia, mediu o desvio para o vermelho de um objeto fraco aparentemente estelar na direção da fonte de ondas de rádio chamada 3C273 (ou seja, fonte número 273 do terceiro catálogo de Cambridge das fontes de rádio). Ele descobriu que o desvio era grande demais para ser causado por um campo gravitacional: se fosse um desvio gravitacional, o objeto teria de ser tão massivo e estar tão próximo de nós que perturbaria as órbitas dos planetas no Sistema Solar. Isso sugeria que, na verdade, o desvio para o vermelho havia sido causado pela expansão do universo, o que, por sua vez, significava que o objeto estava a uma distância muito grande. E, para ser visível de tão longe, o objeto devia ser muito brilhante; em outras palavras, devia estar emitindo uma quantidade imensa de energia. O único mecanismo no qual as pessoas conseguiram pensar que seria capaz de produzir quantidades tão grandes de energia parecia ser o colapso gravitacional não só de uma estrela, mas de toda a região central de uma galáxia. Foram descobertos inúmeros outros “objetos quase estelares” semelhantes, ou quasares, todos com grandes desvios para o vermelho. Mas todos estão longe demais e, assim, são difíceis de observar a fim de fornecer evidências conclusivas dos buracos negros.”

 

 

“Hoje também temos evidências de diversos outros buracos negros em sistemas como o Cygnus X-1 em nossa galáxia e em duas galáxias vizinhas chamadas Nuvens de Magalhães. Contudo, é quase certo que o número de buracos negros seja muito maior. Na longa história do universo, muitas estrelas devem ter queimado todo o seu combustível nuclear e entrado em colapso. A quantidade de buracos negros pode até ser bem maior do que a de estrelas visíveis, que totaliza cerca de cem bilhões só em nossa galáxia. A gravidade adicional de um número tão grande de buracos negros poderia explicar a velocidade com que a nossa galáxia gira — a massa das estrelas visíveis não é suficiente para explicá-la. Também temos indícios da existência de um buraco negro muito maior, com massa de cerca de cem mil vezes a do Sol, no centro de nossa galáxia. As estrelas que se aproximam demais desse buraco negro são dilaceradas pela diferença das forças gravitacionais entre seu lado mais próximo e o mais distante. Seus fragmentos, e o gás expelido de outras estrelas, caem na direção do buraco negro. O gás desce em espiral e se aquece, mas não tanto quanto no caso de Cygnus X-1. Ele não fica quente o bastante para emitir raios X, mas talvez explique a fonte muito compacta de ondas de rádio e raios infravermelhos observada no centro da galáxia.

Acredita-se que no centro dos quasares haja buracos negros semelhantes, porém ainda maiores, com massas de cerca de cem milhões de vezes a do Sol. Por exemplo, observações da galáxia conhecida como M87 feitas com o telescópio Hubble revelam que ela contém um disco de gás de 130 anos-luz de diâmetro girando em torno de um objeto central com dois bilhões de vezes a massa do Sol. Só pode ser um buraco negro. A matéria caindo dentro de um buraco negro supermassivo constituiria a única fonte de força grande o bastante para explicar as quantidades enormes de energia emitidas por esses objetos. À medida que a matéria cai para o buraco negro, ele gira na mesma direção, desenvolvendo um campo magnético mais ou menos como acontece com a Terra. Partículas de altíssima energia são geradas próximo ao buraco negro pela matéria que cai ali dentro. O campo magnético é tão forte que concentra essas partículas em jatos expelidos ao longo do eixo de rotação do buraco negro, ou seja, na direção de seus polos norte e sul. Esses jatos já foram observados em diversas galáxias e quasares.”

 

 

“A TEORIA DA relatividade geral de Einstein previu que o espaço-tempo começou na singularidade do Big Bang e chegaria ao fim na singularidade do Big Crunch (se todo o universo voltasse a entrar em colapso) ou em uma singularidade dentro de um buraco negro (se uma região local, como uma estrela, entrasse em colapso). Qualquer matéria que caísse no buraco negro seria destruída na singularidade, e apenas o efeito gravitacional de sua massa ainda seria sentido do lado de fora. Em contrapartida, quando os efeitos quânticos passaram a ser levados em consideração, parecia que a massa ou energia da matéria acabaria sendo devolvida ao resto do universo e que o buraco negro, junto com qualquer singularidade dentro dele, evaporaria até desaparecer. Será que a mecânica quântica pode ter um efeito igualmente dramático nas singularidades do Big Bang e do Big Crunch? O que ocorre de fato durante os primeiros e últimos estágios do universo, quando os campos gravitacionais são tão fortes que os efeitos quânticos não podem ser ignorados? O universo tem mesmo um início ou um fim? Se sim, como eles são? (...)

Acredita-se que no Big Bang o universo tivesse tamanho zero e, assim, seria infinitamente quente. Contudo, à medida que o universo se expandiu, a temperatura da radiação decresceu. Um segundo após o Big Bang, ela teria caído para cerca de dez bilhões de graus Kelvin.* Isso é cerca de mil vezes a temperatura no núcleo do Sol, mas temperaturas tão elevadas como essa são atingidas em explosões de bombas de hidrogênio. Nessa época, o universo teria contido sobretudo fótons, elétrons e neutrinos (partículas extremamente leves que são afetadas apenas pela força fraca e pela gravidade) e suas antipartículas, além de alguns prótons e nêutrons. À medida que o universo continuasse a se expandir e as temperaturas a diminuir, a taxa em que os pares de elétrons/antielétrons eram produzidos em colisões teria caído abaixo da taxa em que estavam sendo destruídos por aniquilação. Assim, a maioria dos elétrons e antielétrons teria se aniquilado mutuamente, produzindo mais fótons e deixando apenas alguns elétrons. No entanto, os neutrinos e antineutrinos não teriam se aniquilado, pois a interação dessas partículas entre si e com outras partículas é muito fraca. Portanto, ainda devem estar por aí. Se pudéssemos observá-los, teríamos uma boa ideia de como era esse estágio primitivo muito quente do universo. Infelizmente, a energia dessas partículas seria hoje baixa demais para que elas pudessem ser observadas de forma direta. No entanto, se neutrinos não forem destituídos de massa, mas tiverem uma pequena massa própria, como sugerido por alguns experimentos recentes, talvez sejamos capazes de detectá-los por vias indiretas: eles poderiam ser uma forma de matéria escura, como a que mencionei antes, com atração gravitacional suficiente para deter a expansão do universo e levá-lo a entrar em colapso outra vez.

Cerca de cem segundos após o Big Bang, a temperatura teria caído para um bilhão de graus, o equivalente ao interior das estrelas mais quentes. A essa temperatura, prótons e nêutrons já não possuiriam energia suficiente para escapar da atração da força nuclear forte e teriam começado a se combinar para produzir os núcleos dos átomos de deutério (hidrogênio pesado), que contêm um próton e um nêutron. Então os núcleos do deutério teriam se combinado com mais prótons e nêutrons para compor núcleos de hélio, que contêm dois prótons e dois nêutrons, e também pequenas quantidades de outros dois elementos mais pesados: lítio e berílio. Podemos calcular que, no modelo do Big Bang quente, cerca de um quarto dos prótons e nêutrons teria sido convertido em núcleos de hélio, juntamente com uma pequena quantidade de hidrogênio pesado e outros elementos. Os nêutrons remanescentes teriam decaído em prótons, que são os núcleos dos átomos de hidrogênio comum.

Esse cenário de um estágio primitivo quente do universo foi proposto pela primeira vez pelo cientista George Gamow, em um famoso artigo escrito em 1948 com um aluno dele, Ralph Alpher. Gamow tinha um senso de humor e tanto — ele convenceu o cientista nuclear Hans Bethe a acrescentar seu nome ao artigo para que a lista de autores fosse “Alpher, Bethe, Gamow”, como as primeiras três letras do alfabeto grego (alfa, beta, gama): particularmente apropriado para um artigo sobre o início do universo! Nesse trabalho, eles fizeram a notável previsão de que a radiação (na forma de fótons) dos estágios primitivos muito quentes do universo deveria existir até hoje, mas com sua temperatura reduzida para apenas alguns graus acima do zero absoluto (– 273°C). Foi essa radiação que Penzias e Wilson descobriram em 1965. Na época em que Alpher, Bethe e Gamow escreveram o artigo, não se sabia muito sobre as reações nucleares de prótons e nêutrons. Desse modo, as previsões para as proporções dos vários elementos no universo primitivo eram um tanto imprecisas, mas esses cálculos foram repetidos à luz de um conhecimento mais aprofundado e hoje estão bastante de acordo com o que observamos. Além do mais, é muito difícil explicar de outra maneira por que há tanto hélio no universo. Assim, estamos razoavelmente confiantes de que dispomos do cenário correto, pelo menos até cerca de um segundo depois do Big Bang.

Em apenas poucas horas após o Big Bang, a produção de hélio e outros elementos teria cessado. E, depois disso, durante o milhão de anos seguinte, o universo teria simplesmente continuado a se expandir, sem que acontecesse muito mais além disso. Enfim, assim que a temperatura tivesse caído para alguns milhares de graus e elétrons e núcleos já não tivessem energia suficiente para suplantar a atração eletromagnética entre si, eles teriam começado a se combinar para formar átomos. O universo teria continuado a se expandir e a resfriar, mas, em regiões um pouco mais densas do que a média, a expansão teria sido desacelerada pela atração gravitacional maior. Isso teria detido a expansão em algumas regiões e feito com que voltassem a entrar em colapso. À medida que o colapso ocorresse, a atração gravitacional da matéria fora dessas regiões as teria levado a girar levemente. Conforme a região em colapso diminuísse, girava mais rápido — assim como esquiadores rodopiando no gelo quando encolhem os braços. Depois, quando a região ficasse pequena o suficiente, giraria rápido o bastante para contrabalançar a atração da gravidade, e desse modo teriam nascido galáxias em forma de disco. Outras regiões, que por acaso não tivessem entrado em movimento de rotação, teriam se tornado objetos ovalados chamados galáxias elípticas. Nelas, a região pararia de entrar em colapso porque partes individuais da galáxia estariam em órbitas estáveis em torno de seu centro, mas a galáxia como um todo não teria rotação.

Com o passar do tempo, os gases hidrogênio e hélio nas galáxias se fragmentariam em nuvens menores que entrariam em colapso sob a própria gravidade. Conforme estas se contraíssem, e os átomos dentro delas colidissem entre si, a temperatura do gás aumentaria, até enfim ficar quente o bastante para dar início a reações de fusão nuclear. Essas reações converteriam o hidrogênio em mais hélio, e o calor emitido aumentaria a pressão, impedindo as nuvens de se contrair ainda mais. Elas permaneceriam estáveis por um longo período como estrelas parecidas com o nosso Sol, queimando hidrogênio em hélio e irradiando a energia resultante na forma de calor e luz. Estrelas mais massivas precisariam ser mais quentes para equilibrar sua atração gravitacional mais forte, fazendo com que as reações de fusão nuclear ocorressem tão depressa que elas consumiriam seu hidrogênio em apenas cem milhões de anos. Em seguida, elas se contrairiam de leve e, à medida que esquentassem mais, começariam a converter o hélio em elementos mais pesados, como carbono ou oxigênio. Isso, porém, não liberaria muito mais energia, de modo que haveria uma crise, como a descrita no capítulo sobre buracos negros. O que ocorreria em seguida não está completamente claro, mas parece provável que as regiões centrais da estrela colapsariam até um estado muito denso, como uma estrela de nêutrons ou um buraco negro. As regiões externas da estrela às vezes podem ser expelidas em uma enorme explosão chamada supernova, que ofuscaria o brilho de todas as demais estrelas em sua galáxia. Parte dos elementos mais pesados produzidos próximo ao fim da vida da estrela seria arremessada de volta para o gás da galáxia e forneceria parte da matéria-prima para a geração seguinte de estrelas. Nosso próprio Sol contém cerca de 2% desses elementos mais pesados, pois é uma estrela de segunda ou terceira geração, formada há cerca de cinco bilhões de anos a partir de uma nuvem de gás em rotação contendo os restos de supernovas anteriores. A maior parte do gás nessa nuvem entrou na formação do Sol ou foi expelida, mas uma pequena quantidade dos elementos mais pesados se agrupou para formar os corpos que hoje orbitam o Sol na condição de planetas, como a Terra.

No início, a Terra era muito quente e não tinha atmosfera. Com o passar do tempo, resfriou e adquiriu uma atmosfera pela emissão de gases das rochas. Teria sido impossível sobrevivermos nessa atmosfera primitiva. Ela não continha oxigênio algum, apenas uma grande quantidade de outros gases venenosos para o ser humano, como sulfeto de hidrogênio (o gás que dá cheiro a ovos podres). Entretanto, existem outras formas de vida primitiva capazes de prosperar sob tais condições. Acredita-se que elas tenham se desenvolvido nos oceanos, talvez como resultado de combinações aleatórias de átomos em estruturas maiores, chamadas macromoléculas, que são capazes de agregar outros átomos no oceano para formar estruturas semelhantes. Assim, elas teriam se reproduzido e multiplicado. Em alguns casos, haveria erros na reprodução. A maior parte desses erros teria feito com que a nova macromolécula não fosse capaz de se reproduzir e acabasse por ser destruída. No entanto, alguns erros teriam produzido novas macromoléculas ainda mais eficientes em se reproduzir. Elas teriam uma vantagem e tenderiam a substituir as macromoléculas originais. Dessa forma, iniciou-se um processo evolutivo que levou ao desenvolvimento de organismos cada vez mais complexos, capazes de autorreplicação. As primeiras formas de vida primitivas consumiram vários materiais, incluindo o sulfeto de hidrogênio, e liberaram oxigênio. Aos poucos, isso mudou a atmosfera para a composição que ela tem hoje e permitiu o desenvolvimento de formas superiores de vida, como peixes, répteis, mamíferos e, enfim, a raça humana.”

* A temperatura em graus Kelvin é a temperatura em graus Celsius mais 273. A escala de temperatura Kelvin é a escala de temperatura termodinâmica, cujo zero (0 Kelvin ou −273°C) é a menor temperatura possível, ou zero absoluto. No caso, dez bilhões de graus Kelvin é praticamente o mesmo que dez bilhões de graus Celsius. (N. do R.T.)

 

 

“Se o universo é de fato espacialmente infinito, ou se existe uma quantidade infinita de universos, é provável que existam amplas regiões em algum lugar que começaram de maneira regular e uniforme. É um pouco como o célebre exército de macacos datilografando — a maior parte do que escrevem não faz sentido, mas muito de vez em quando, por puro acaso, eles irão datilografar um dos sonetos de Shakespeare. Do mesmo modo, no caso do universo, poderia acontecer de estarmos vivendo em uma região que calhou de ser, por acaso, lisa e uniforme? À primeira vista, isso deve parecer muito improvável, pois a quantidade de regiões tão lisas teria sido bastante inferior à de regiões caóticas e irregulares. Entretanto, suponha que apenas nas regiões lisas tenha ocorrido a formação de galáxias e estrelas e, logo, de condições apropriadas para o desenvolvimento de organismos complexos autorreplicadores como nós, capazes de fazer a pergunta “Por que o universo é tão liso?”. Isso é um exemplo da aplicação do que se conhece como princípio antrópico, que pode ser parafraseado assim: “Vemos o universo da maneira como ele é porque existimos.”

Existem duas versões do princípio antrópico: a fraca e a forte. O princípio antrópico fraco afirma que, em um universo grande ou infinito no espaço e/ou no tempo, só haverá condições necessárias para o desenvolvimento de vida inteligente em determinadas regiões limitadas no espaço e no tempo. Desse modo, os seres inteligentes nessas regiões não devem ficar surpresos se observarem que sua localização no universo satisfaz as condições necessárias para sua existência. É um pouco como uma pessoa rica que mora em um bairro nobre e não vê pobreza alguma.

Um exemplo do uso do princípio antrópico fraco é “explicar” por que o Big Bang ocorreu cerca de dez bilhões de anos atrás: leva mais ou menos todo esse tempo para seres inteligentes se desenvolverem. Como explicado há pouco, uma geração anterior de estrelas teve de se formar primeiro. Essas estrelas converteram parte do hidrogênio e do hélio originais em elementos como carbono e oxigênio, a partir dos quais somos feitos. As estrelas, então, explodiram como supernovas, e seus fragmentos formaram outras estrelas e planetas, entre os quais os existentes em nosso Sistema Solar, que tem cerca de cinco bilhões de anos. Os primeiros um ou dois bilhões de anos de existência da Terra foram quentes demais para o desenvolvimento de qualquer organismo complexo. Os outros cerca de três bilhões de anos foram ocupados pelo vagaroso processo da evolução biológica, que foi desde os organismos mais simples a seres capazes de medir o tempo a partir do Big Bang.

Poucas pessoas questionariam a validade ou utilidade do princípio antrópico fraco. Alguns, no entanto, vão muito além e propõem uma versão forte. Segundo essa teoria, existem muitos universos diferentes ou muitas regiões diferentes de um único universo, cada um com sua própria configuração inicial e, talvez, seu próprio conjunto de leis científicas. Na maioria desses universos, as condições não seriam apropriadas para o desenvolvimento de organismos complexos; apenas nos universos que são como o nosso seres inteligentes poderiam se desenvolver e fazer a pergunta “Por que o universo é da maneira como o vemos?”. A resposta, nesse caso, é simples: se ele tivesse sido diferente, não estaríamos aqui!

As leis da ciência, como as conhecemos hoje, compreendem muitas grandezas fundamentais, como a magnitude da carga elétrica do elétron e a razão entre as massas do próton e do elétron. Não somos capazes, pelo menos no momento, de prever os valores dessas quantidades a partir da teoria — temos de descobri-los por observação. Pode ocorrer de um dia descobrirmos uma teoria unificada completa que preveja todas essas grandezas, mas também é possível que algumas ou todas elas variem de um universo para o outro ou dentro de um único universo. O fato notável é que os valores dessas quantidades parecem ter sido muito bem ajustados para possibilitar o desenvolvimento da vida. Por exemplo, se a carga do elétron fosse apenas ligeiramente diferente, as estrelas teriam sido incapazes de queimar hidrogênio e hélio e explodir. Claro, podem existir outras formas de vida inteligente, inconcebíveis até pelos escritores de ficção científica, que não necessitem da luz de uma estrela como o Sol ou dos elementos químicos mais pesados formados nas estrelas e ejetados de volta para o espaço quando estas explodem. Não obstante, sem dúvida parece haver relativamente poucos valores possíveis para os números que permitem o desenvolvimento de alguma forma de vida inteligente. A maioria dos conjuntos de valores daria origem a universos que, embora possam parecer muito belos, não conteriam ninguém capaz de admirar tal beleza. Podemos tomar isso como evidência de um propósito divino na Criação e na escolha das leis da ciência ou como um argumento do princípio antrópico forte.”

 

 

“Hoje novas previsões da condição sem-contorno estão sendo elaboradas. Um problema particularmente interessante é em qual grau ocorreram os pequenos afastamentos da densidade uniforme no universo primitivo, que ocasionaram a formação primeiro das galáxias, depois das estrelas e, por fim, de seres humanos. O princípio da incerteza sugere que o universo primitivo não pode ter sido completamente uniforme porque deve ter havido algumas incertezas ou flutuações nas posições e velocidades das partículas. Usando a condição sem-contorno, descobrimos que o universo deve, de fato, ter começado com apenas a mínima não uniformidade possível permitida pelo princípio da incerteza. O universo teria, então, passado por um período de rápida expansão, como nos modelos inflacionários. Durante esse período, as não uniformidades iniciais teriam se amplificado até que fossem grandes o bastante para explicar a origem das estruturas que observamos à nossa volta. Em 1992, o satélite Cobe detectou pela primeira vez variações muito sutis na intensidade da radiação cósmica de fundo de acordo com a direção. O modo como essas não uniformidades dependem de direção parece estar de acordo com as previsões do modelo inflacionário e da proposição sem-contorno. Assim, a proposição sem-contorno é uma boa teoria científica tal como definiu Karl Popper: ela poderia ter sido falseada pelas observações, mas, em vez disso, suas previsões têm se confirmado. Em um universo em expansão no qual a densidade da matéria variasse ligeiramente de um lugar para outro, a gravidade teria feito com que as regiões mais densas desacelerassem a expansão e começassem a se contrair. Isso teria levado à formação de galáxias, estrelas e, no fim, até de criaturas insignificantes como nós. Desse modo, todas as estruturas complexas que vemos no universo podem ser explicadas pela condição sem-contorno para o universo em conjunto com o princípio da incerteza da mecânica quântica.

A ideia de que o espaço e o tempo talvez componham uma superfície fechada e sem contorno acarreta também profundas implicações para o papel divino nos assuntos do universo. Com o êxito das teorias científicas em descrever os eventos, a maioria das pessoas passou a acreditar que Deus permite ao universo evoluir de acordo com uma série de leis e que ele não intervém para violá-las. Contudo, as leis não nos dizem como devia ser o aspecto do universo no início — ainda teria cabido a Ele dar corda no relógio e decidir como pô-lo em funcionamento. Contanto que o universo tenha tido um início, podemos supor que houve um criador. Mas, se o universo fosse de fato absolutamente contido em si mesmo, sem contorno nem borda, ele não teria início nem fim: ele simplesmente seria. Nesse caso, qual é o papel de um criador?”

 

 

“NOSSO MUNDO É um lugar desconcertante. Queremos extrair um sentido do que vemos à nossa volta e perguntar: qual é a natureza do universo? Qual é nosso lugar nele e de onde ele e nós viemos? Por que ele é do jeito que é? (...)

As primeiras tentativas teóricas de descrever e explicar o universo envolviam a ideia de que os eventos e fenômenos naturais eram controlados por espíritos com emoções humanas que agiam de modo muito humano e imprevisível. Esses espíritos habitavam os objetos naturais, como rios e montanhas, incluindo os corpos celestes, como o Sol e a Lua. Eles tinham de ser aplacados, e era necessário obter sua mercê para assegurar a fertilidade do solo e o ciclo das estações. Pouco a pouco, porém, as pessoas devem ter notado a existência de determinadas regularidades: o Sol sempre nascia a leste e se punha a oeste, tivesse ou não sido feito algum sacrifício ao deus-sol. Além disso, o Sol, a Lua e os planetas seguiam trajetórias precisas no céu, que podiam ser previstas com exatidão considerável. O Sol e a Lua ainda podiam ser deuses, mas obedeciam a leis rígidas, aparentemente sem exceções, se desconsiderarmos histórias como a do Sol parando para Josué.

No início, essas regularidades e leis eram óbvias apenas na astronomia e em algumas outras situações. Entretanto, à medida que a civilização se desenvolveu — e em especial nos últimos trezentos anos —, cada vez mais leis e regularidades foram descobertas. O sucesso dessas leis levou Laplace, no início do século XIX, a postular o determinismo científico; ou seja, ele sugeriu que haveria uma série de leis que determinariam com precisão a evolução do universo, levando em conta sua configuração em certo momento.

O determinismo de Laplace era incompleto de duas maneiras. Ele não dizia como escolher as leis e não descrevia a configuração inicial do universo. Isso caberia a Deus. Deus escolheria como o universo começara e quais leis seriam obedecidas, mas ele não interviria no universo uma vez que este tivesse começado. Na verdade, Deus estava confinado às áreas que a ciência do século XIX não compreendia.

Hoje sabemos que as aspirações deterministas de Laplace não podem ser concretizadas, pelo menos não nos termos que ele tinha em mente. O princípio da incerteza da mecânica quântica implica que não se pode prever determinados pares de grandezas, como a posição e a velocidade de uma partícula, com precisão absoluta. A mecânica quântica lida com essa situação mediante uma classe de teorias quânticas em que as partículas não têm posições e velocidades bem definidas, mas estão representadas por uma onda. Essas teorias quânticas são deterministas no sentido de que fornecem leis para a evolução da onda com o tempo. Assim, se conhecemos a onda em dado momento, podemos calculá-la em qualquer outro. O elemento imprevisível, aleatório, entra em cena apenas quando tentamos interpretar a onda em termos de posições e velocidades das partículas. Mas talvez este seja nosso erro: talvez não existam posições e velocidades da partícula, apenas ondas. Só que tentamos ajustar as ondas a nossas ideias preconcebidas de posições e velocidades. A defasagem resultante é a causa da aparente imprevisibilidade.

Na verdade, redefinimos a tarefa da ciência como a descoberta de leis que nos tornarão capazes de prever eventos dentro dos limites impostos pelo princípio da incerteza. No entanto, a questão permanece: como ou por que as leis e o estado inicial do universo foram escolhidos?

Neste livro, dei destaque especial às leis que governam a gravidade, pois é a gravidade que molda a estrutura em grande escala do universo, ainda que ela seja a mais fraca das quatro categorias de forças. As leis da gravitação eram incompatíveis com a visão mantida até bem recentemente de que o universo é imutável no tempo: o fato de a gravidade sempre exercer atração implica que o universo deve estar se expandindo ou se contraindo. Segundo a teoria da relatividade geral, deve ter havido um estado de densidade infinita no passado, o Big Bang, que teria sido um início do tempo de fato. Do mesmo modo, se o universo inteiro entrar em colapso, deverá haver outro estado de densidade infinita no futuro, o Big Crunch, que seria o fim do tempo. Mesmo que o universo todo não voltasse a entrar em colapso, haveria singularidades em regiões específicas que entrariam em colapso para formar buracos negros. Essas singularidades seriam um fim do tempo para quem caísse no buraco negro. No Big Bang e em outras singularidades, todas as leis seriam suspensas, de modo que Deus ainda teria tido total liberdade para escolher o que aconteceu e como o universo teve início.

Quando combinamos a mecânica quântica com a relatividade geral, parece surgir uma nova possibilidade: a de que, juntos, o espaço e o tempo talvez formem um espaço finito, quadridimensional, sem singularidades ou contornos, como a superfície da Terra, mas com mais dimensões. Parece que essa ideia poderia explicar muitas das características que observamos no universo, como sua uniformidade em grande escala e as inomogeneidades em menor escala, como as galáxias, as estrelas e até os seres humanos. Poderia explicar até a seta do tempo que observamos. Contudo, se o universo for completamente contido em si mesmo, sem singularidades ou contornos, e completamente descrito por uma teoria unificada, isso guarda profundas implicações para o papel de Deus como Criador.

Certa vez, Einstein formulou a pergunta: “Que capacidade de escolha teve Deus na construção do universo?” Se a proposição sem-contorno está correta, ele não teve liberdade alguma em escolher as condições iniciais. No entanto, ele ainda teria tido a liberdade de escolher as leis a que o universo obedeceria, é claro. Todavia, talvez isso não tenha sido bem uma escolha; pode muito bem haver apenas uma teoria unificada completa, ou algumas, como a teoria das cordas heterótica, que é coerente e permite a existência de estruturas complexas como os seres humanos, seres capazes de investigar as leis do universo e fazer perguntas sobre a natureza de Deus.

Mesmo que haja uma única teoria unificada possível, ela não passa de um conjunto de regras e equações. Que coisa é essa que insufla vida às equações e cria um universo para que elas o descrevam? A abordagem científica habitual de construir um modelo matemático não dá conta de responder por que deve haver um universo para ser descrito. Por que o universo tem todo esse trabalho de existir? A teoria unificada é tão inescapável que suscita sua própria existência? Ou ela precisa de um criador? Se for o caso, ele exerce algum outro efeito no universo? E quem o criou?

Até o momento, a maioria dos cientistas tem andado ocupada demais elaborando novas teorias para descrever o que o universo é para poder perguntar por quê. Em contrapartida, aqueles cujo ofício seria perguntar por quê, os filósofos, não foram capazes de acompanhar o avanço das teorias científicas. No século XVIII, eles consideravam a totalidade do conhecimento humano, incluindo a ciência, como seu campo de atuação e debatiam questões como se o universo teve um início. Entretanto, nos séculos XIX e XX, a ciência se tornou técnica e matemática demais para os filósofos, ou para qualquer um, com exceção de uns poucos especialistas. Os filósofos reduziram o escopo de seus questionamentos de tal maneira que Wittgenstein, o filósofo mais famoso do século XX, disse: “A única tarefa que resta à filosofia é a análise da linguagem.” Que vergonha para a grande tradição filosófica de Aristóteles Kant!

No entanto, se de fato descobrirmos uma teoria completa, todos acabarão compreendendo seus princípios amplos, não apenas alguns cientistas. Então, deveremos todos — filósofos, cientistas e pessoas comuns — ser capazes de tomar parte na discussão para saber o porquê de nós e o universo existirmos. Se descobrirmos a resposta para isso, será o triunfo supremo da razão humana — pois, então, conheceremos a mente de Deus.”

 

 

“Quando se publicou um livro intitulado 100 autores contra Einstein, ele replicou: “Se eu estivesse errado, bastaria um!””

Uma breve história do tempo (Parte I), de Stephen Hawking

Editora: Companhia das Letras

ISBN: 978-85-8057-646-7

Tradução: Cássio de Arantes Leite

Ilustrações: Ron Miller

Revisão técnica: Amâncio frança

Opinião: ★★★☆☆

Páginas: 256

Análise em vídeo: Clique aqui

Link para compra: Clique aqui

Sinopse: Uma das mentes mais geniais do mundo moderno, Stephen Hawking guia o leitor na busca por respostas a algumas das maiores dúvidas da humanidade: Qual a origem do universo? Ele é infinito? E o tempo? Sempre existiu, ou houve um começo e haverá um fim? Existem outras dimensões além das três espaciais? E o que vai acontecer quando tudo terminar?

Com ilustrações criativas e texto lúcido e bem-humorado, Hawking desvenda desde os mistérios da física de partículas até a dinâmica que movimenta centenas de milhões de galáxias por todo o universo. Para o iniciado, Uma breve história do tempo é uma bela representação de conceitos complexos; para o leigo, é um vislumbre dos segredos mais profundos da criação.



“A fim de falar sobre a natureza do universo e discutir questões como se ele tem um início ou um fim, devemos esclarecer o que é uma teoria científica. Vou adotar a visão simplória de que uma teoria é apenas um modelo do universo — ou uma parte restrita dele — e um conjunto de regras que relacionam as quantidades no modelo às observações que fazemos. Ela existe apenas em nossas mentes e não possui qualquer outra realidade (seja lá o que isso possa significar). Uma teoria é considerada boa se satisfaz dois requisitos: descreve de forma adequada um grande número de observações com base em um modelo que contém apenas poucos elementos arbitrários e faz previsões precisas sobre os resultados de futuras observações. Por exemplo, Aristóteles acreditava na teoria de Empédocles de que tudo era feito dos elementos: terra, ar, fogo e água. Isso era bastante simples, mas não se traduzia em previsões precisas. Já a teoria da gravitação de Newton se baseava em um modelo ainda mais simples, no qual os corpos atraíam uns aos outros com uma força proporcional a uma grandeza chamada de massa e inversamente proporcional ao quadrado da distância entre eles. E, contudo, ela prevê os movimentos do Sol, da Lua e dos planetas com alto grau de precisão.”

 

 

“A descoberta de que o universo está em expansão foi uma das grandes revoluções intelectuais do século XX. Em retrospecto, é fácil se perguntar por que ninguém tinha pensado nisso antes. Newton e outros deviam ter se dado conta de que um universo estático logo começaria a se contrair sob a influência da gravidade. Mas suponhamos, em vez disso, que o universo esteja se expandindo. Se o processo for muito lento, em algum momento a força da gravidade o levará a parar de se expandir e, depois, começar a se contrair. Entretanto, se estiver se expandindo acima de determinada velocidade crítica, a gravidade jamais será forte o bastante para detê-lo, e o universo continuará se expandindo para sempre. Isso é um pouco o que acontece quando lançamos um foguete da superfície da Terra. Se a velocidade for muito baixa, a gravidade acabará por detê-lo, e ele cairá de volta. Em contrapartida, se o foguete viajar acima de determinada velocidade crítica (cerca de onze quilômetros por segundo), a gravidade não será forte o suficiente para puxá-lo de volta, de modo que ele continuará se afastando da Terra para sempre. Esse comportamento do universo poderia ter sido previsto com base na teoria da gravitação de Newton em qualquer momento dos séculos XIX e XVIII, ou até em fins do XVII. Contudo, a crença em um universo estático era tão forte que ela persistiu até o início do século XX. Mesmo Einstein, ao formular a teoria da relatividade geral, em 1915, tinha tanta certeza de que o universo precisava ser estático que modificou sua teoria para tornar isso possível, introduzindo em suas equações o que chamou de constante cosmológica. Einstein incorporou uma nova força “antigravidade”, que, ao contrário de outras forças, não provinha de nenhuma fonte específica, mas se formava no próprio tecido do espaço-tempo. Ele alegou que o espaço-tempo tinha uma tendência inerente a se expandir e que isso podia acontecer exatamente para compensar a atração de toda a matéria no universo, de modo que o resultado seria um universo estático. Aparentemente, apenas um homem estava disposto a aceitar a relatividade geral, e, enquanto Einstein e outros físicos procuravam maneiras de evitar a previsão da relatividade geral de um universo não estático, o físico e matemático russo Alexander Friedmann se propôs a explicar tal previsão.

Friedmann fez duas suposições muito simples sobre o universo: que ele parecia idêntico em qualquer direção que olhássemos e que isso seria verdadeiro também se o observássemos de qualquer outro ponto. Partindo apenas dessas duas ideias, ele mostrou que não deveríamos esperar que o universo fosse estático. Na verdade, em 1922, vários anos antes da descoberta de Edwin Hubble, Friedmann previu exatamente o que Hubble descobriu! (...)

Bem, à primeira vista, toda essa evidência de que o universo tem o mesmo aspecto em qualquer direção em que olhemos pode parecer sugerir que existe algo especial em relação a nosso lugar no universo. Em particular, talvez pareça que, se observamos todas as demais galáxias se afastando de nós, então devemos estar no centro do universo. Há, no entanto, uma explicação alternativa: o universo deve parecer o mesmo em qualquer direção quando visto também de qualquer outra galáxia. Essa, como vimos, era a segunda hipótese de Friedmann. Não dispomos de evidência científica a favor ou contra essa suposição. Acreditamos nela apenas por modéstia: seria muito surpreendente se o universo parecesse o mesmo em qualquer direção em torno de nós, mas não em torno de outros pontos do universo! No modelo de Friedmann, todas as galáxias estão se afastando umas das outras. A situação é semelhante a um balão, com diversos pontos pintados em sua superfície, sendo inflado. À medida que o balão se expande, a distância entre quaisquer dois pontos aumenta, mas não existe um ponto que possa ser identificado como o centro da expansão. Além disso, quanto mais distantes os pontos, mais depressa eles se afastarão. Da mesma maneira, no modelo de Friedmann a velocidade em que quaisquer duas galáxias se afastam é proporcional à distância entre elas. Assim, ele previu que o desvio de uma galáxia para o vermelho devia ser diretamente proporcional à sua distância de nós, o mesmo que Hubble descobriu.”

 

 

“Todas as soluções de Friedmann têm a particularidade de que, em algum momento no passado (entre dez e vinte bilhões de anos atrás), a distância entre galáxias vizinhas deve ter sido zero. Nessa época, que chamamos de Big Bang, a densidade do universo e a curvatura do espaço-tempo teriam sido infinitas. Como a matemática não pode lidar de fato com números infinitos, isso significa que a teoria da relatividade geral (na qual as soluções de Friedmann se baseiam) prevê que existe um ponto no universo no qual a própria teoria deixa de ser válida. Esse ponto é um exemplo do que os matemáticos chamam de singularidade. Na verdade, todas as nossas teorias científicas são formuladas na suposição de que o espaço-tempo é liso e quase plano, de modo que deixam de funcionar na singularidade do Big Bang, quando a curvatura do espaço-tempo é infinita. Isso significa que, mesmo que tenha havido eventos anteriores ao Big Bang, seríamos incapazes de usá-los para determinar o que aconteceria em seguida, pois a previsibilidade deixaria de funcionar no Big Bang.

Do mesmo modo, se sabemos o que aconteceu apenas desde o Big Bang, como é o caso, não podemos determinar o que ocorreu antes. No que nos diz respeito, eventos prévios ao Big Bang não exercem qualquer efeito, de modo que não fazem parte de um modelo científico do universo. Devemos, assim, eliminá-los do modelo e dizer que o tempo teve início no Big Bang.”

 

 

“O trabalho de Lifshitz e Khalatnikov foi valioso porque mostrou que o universo pode de fato ter tido uma singularidade, um Big Bang, se a teoria da relatividade geral estiver correta. No entanto, não solucionou a questão crucial: será que a relatividade geral prevê que nosso universo deve ter tido um Big Bang, um início do tempo? A resposta veio a partir de uma abordagem completamente diferente introduzida pelo matemático e físico britânico Roger Penrose em 1965. A partir do modo como os cones de luz se comportam na relatividade geral, combinado ao fato de que a gravidade sempre exerce atração, ele mostrou que uma estrela cedendo à própria gravidade fica aprisionada em uma região cuja superfície acaba por encolher ao tamanho zero. E, como a superfície da região encolhe para zero, o mesmo deve se dar com seu volume. Toda a matéria da estrela será comprimida em uma região de volume zero, de modo que a densidade da matéria e a curvatura do espaço-tempo serão infinitas. Em outras palavras, temos uma singularidade contida dentro de uma região do espaço-tempo conhecida como buraco negro. (...)

Em 1965, li a respeito do teorema de Penrose de que todo corpo em colapso gravitacional deve acabar formando uma singularidade. Logo me dei conta de que, se revertêssemos a direção do tempo no teorema de Penrose, de modo que o colapso se tornasse uma expansão, as condições de seu teorema ainda seriam válidas, contanto que o universo fosse aproximadamente como um modelo de Friedmann em escalas maiores no momento atual. O teorema de Penrose mostrara que qualquer estrela em colapso deve terminar em uma singularidade; o argumento de reversão temporal mostrava que qualquer universo em expansão nos moldes de Friedmann deve ter se iniciado com uma singularidade. Por razões técnicas, o teorema de Penrose exigia que o universo fosse infinito em espaço. Assim, eu podia usá-lo para provar que haveria uma singularidade apenas se o universo estivesse se expandindo rápido o bastante para evitar um novo colapso (já que apenas aqueles modelos de Friedmann previam um espaço infinito).

Ao longo dos anos seguintes, desenvolvi técnicas matemáticas para eliminar essa e outras tecnicalidades dos teoremas que provavam a ocorrência de singularidades. O resultado foi um artigo escrito em parceria com Penrose em 1970, demonstrando enfim que deve ter havido uma singularidade de Big Bang, desde que a relatividade geral esteja correta e o universo contenha tanta matéria quanto observamos. Houve muita oposição ao nosso trabalho, em parte vinda dos russos, devido à sua crença marxista no determinismo científico, e em parte de pessoas que achavam que toda essa ideia de singularidade era intragável e arruinava a beleza da teoria de Einstein. Todavia, não se pode discutir com um teorema matemático. Desse modo, no fim, nosso trabalho foi amplamente aceito, e hoje quase todos presumem que o universo teve início com uma singularidade de Big Bang. É talvez um pouco irônico que, após mudar de ideia, hoje eu tente convencer os demais físicos de que, na realidade, não houve singularidade alguma no início do universo — como veremos mais adiante, ela pode desaparecer se levarmos em consideração os efeitos quânticos.

Neste capítulo, vimos como em menos de meio século o conceito do homem sobre o universo, formado ao longo de milênios, foi transformado. A descoberta de Hubble de que o universo estava em expansão e a percepção da insignificância de nosso planeta na vastidão do cosmos foram apenas o ponto de partida. À medida que as evidências experimentais e teóricas se acumulavam, ficou cada vez mais claro que o universo deve ter tido um início no tempo, até que em 1970 isso enfim foi comprovado por Penrose e por mim, com base na teoria da relatividade geral de Einstein. Isso mostrou que a relatividade geral não passa de uma teoria incompleta: ela é incapaz de nos dizer como o universo começou, pois prevê que todas as teorias físicas, incluindo ela própria, perdem a validade no início do universo. Entretanto, a relatividade geral alega ser uma teoria apenas parcial. Assim, o que os teoremas da singularidade mostram de fato é que deve ter havido um momento nos estágios mais primitivos do universo em que ele era tão pequeno que já não se poderia ignorar os efeitos em pequena escala da outra grande teoria parcial do século XX: a mecânica quântica. No começo da década de 1970, portanto, fomos forçados a mudar nossa busca por uma compreensão do universo com base em nossa teoria do extraordinariamente vasto para nossa teoria do extraordinariamente minúsculo.”

 

 

“O cientista alemão Max Planck sugeriu, em 1900, que a luz, os raios X e outras ondas não podiam ser emitidos a uma taxa arbitrária, mas apenas em certos pacotes, que ele chamou de quanta. Além do mais, cada quantum tinha um montante de energia que aumentava quanto maior fosse a frequência das ondas, de modo que, a uma frequência elevada o bastante, a emissão de um único quantum exigiria mais energia do que havia disponível. Desse modo, a radiação em altas frequências seria reduzida e a taxa em que o corpo perde energia seria finita.

A hipótese quântica explicava muito bem a taxa observada de emissão de radiação dos corpos quentes, mas suas implicações para o determinismo só foram percebidas em 1926, quando outro cientista alemão, Werner Heisenberg, formulou seu famoso princípio da incerteza. A fim de prever a posição e a velocidade futuras de uma partícula, temos de ser capazes de medir com precisão a posição e a velocidade atuais. A maneira óbvia de fazer isso é lançar luz sobre a partícula. Algumas ondas de luz serão dispersadas por ela, e isso indicará sua posição. Entretanto, não seremos capazes de determinar a posição da partícula com mais precisão do que a distância entre as cristas de onda da luz, de modo que temos de usar luz de ondas curtas para medir a posição da partícula de forma precisa. Ora, pela hipótese quântica de Planck, não podemos usar uma quantidade arbitrariamente pequena de luz; temos de usar pelo menos um quantum. Esse quantum perturbará a partícula e mudará sua velocidade de uma forma que não pode ser prevista. Além do mais, com quanto mais exatidão medirmos a posição, menor será o comprimento de onda da luz necessário e, portanto, mais elevada será a energia de um único quantum. Assim, a velocidade da partícula será perturbada por uma quantidade maior. Em outras palavras, quanto mais precisamente tentarmos medir a posição da partícula, menos precisamente poderemos medir sua velocidade, e vice-versa. Heisenberg mostrou que a incerteza na posição da partícula multiplicada pela incerteza em sua velocidade multiplicada pela massa da partícula nunca pode ser menor do que um valor específico, conhecido como constante de Planck. Além disso, esse limite não depende da maneira como tentamos medir a posição ou a velocidade da partícula, nem do tipo de partícula. O princípio da incerteza de Heisenberg é uma propriedade fundamental e inescapável do mundo.

O princípio da incerteza teve implicações profundas para o modo como vemos o mundo. Mesmo após mais de setenta anos, elas ainda não foram admitidas por muitos filósofos e continuam sendo objeto de grande controvérsia. O princípio da incerteza sinalizou um fim para o sonho de Laplace de uma teoria da ciência, um modelo completamente determinista do universo: ora, ninguém pode prever eventos futuros com exatidão se não é capaz sequer de medir de forma precisa o atual estado do universo! É possível, ainda, imaginar que haja um conjunto de leis que determinam os eventos por completo para um ser sobrenatural, que seria capaz de observar o estado presente do universo sem perturbá-lo. Entretanto, tais modelos do universo não são de grande interesse para nós, meros mortais. Parece mais válido empregar o princípio econômico conhecido como navalha de Occam e eliminar todos os aspectos inobserváveis da teoria. Essa abordagem levou Heisenberg, Erwin Schrödinger e Paul Dirac, na década de 1920, a reformular a mecânica em uma nova teoria chamada mecânica quântica, baseada no princípio da incerteza. Nessa teoria, as partículas não mais apresentam posições e velocidades independentes e bem definidas que não podem ser observadas. Em vez disso, possuem um estado quântico, que é uma combinação de posição e velocidade.

De modo geral, a mecânica quântica não prevê um resultado único e definitivo para uma observação. Em vez disso, prevê um número de resultados possíveis e nos informa sobre a probabilidade de cada um. Isso equivale a dizer que, se fizéssemos a mesma medição em um grande número de sistemas semelhantes, todos iniciados da mesma maneira, descobriríamos que o resultado seria A em determinados casos, B em outros e assim por diante. Poderíamos prever o número aproximado de vezes que o resultado seria A ou B, mas não o resultado específico de uma medição individual. Assim, a mecânica quântica introduz um elemento inevitável de imprevisibilidade ou aleatoriedade à ciência. Einstein se opôs fortemente a isso, a despeito do importante papel que ele próprio desempenhara no desenvolvimento dessas ideias. Ele foi agraciado com o Prêmio Nobel por sua contribuição à teoria quântica. Não obstante, nunca aceitou que o universo fosse governado pelo acaso; seus sentimentos foram resumidos em sua famosa frase “Deus não joga dados”. A maioria dos outros cientistas, porém, estava disposta a aceitar a mecânica quântica porque ela combinava perfeitamente com a experimentação. De fato, a teoria tem se mostrado bem-sucedida e fundamenta quase toda a ciência e a tecnologia modernas. Ela governa o comportamento dos transistores e circuitos integrados, componentes essenciais de aparelhos eletrônicos como televisores e computadores, e também é a base da química e da biologia modernas. As únicas áreas da ciência física nas quais a mecânica quântica ainda não foi devidamente incorporada são a gravitação e a estrutura em grande escala do universo.

Embora a luz seja feita de ondas, a hipótese quântica de Planck nos diz que, em alguns aspectos, ela se comporta como se fosse constituída de partículas: pode ser emitida ou absorvida apenas em pacotes, ou quanta. Da mesma forma, o princípio da incerteza de Heisenberg sugere que, em alguns aspectos, as partículas se comportam como ondas: elas não têm posição definida, mas estão “borradas” com certa distribuição de probabilidade. A teoria da mecânica quântica se baseia em um tipo inteiramente novo de matemática que não mais descreve o mundo real em termos de partículas e ondas — apenas as observações do mundo podem ser descritas nesses termos. Há, assim, uma dualidade entre ondas e partículas na mecânica quântica: para alguns propósitos, é útil pensar nas partículas como ondas e, para outros, é melhor pensar nas ondas como partículas. Uma consequência importante disso é que podemos observar o que chamamos de interferência entre dois conjuntos de ondas ou partículas. Ou seja, as cristas de um conjunto de ondas podem coincidir com os vales de outro conjunto. Assim, os dois se cancelam, em vez de se somar em uma onda mais forte, como seria de se esperar. Um exemplo comum da interferência no caso da luz é o das cores que vemos em bolhas de sabão. Elas são causadas pelo reflexo da luz nos dois lados da fina película de água que forma a bolha. A luz branca consiste em ondas de luz de todos os comprimentos, ou cores. Para determinados comprimentos de onda, as cristas refletidas de um lado da película de sabão coincidem com os vales refletidos do outro lado. As cores correspondentes a esses comprimentos de onda estão ausentes da luz refletida, que, desse modo, parece colorida.”

 

 

“O fenômeno da interferência entre partículas foi crucial para a nossa compreensão da estrutura dos átomos — as unidades básicas da química e da biologia e os blocos constituintes a partir dos quais nós, e tudo à nossa volta, somos feitos. No início do século XX, pensava-se que os átomos eram mais como planetas orbitando o Sol, com elétrons (partículas de eletricidade negativa) orbitando um núcleo central, que carregava eletricidade positiva. A atração entre a eletricidade positiva e a negativa supostamente mantinha os elétrons em suas órbitas da mesma forma como a atração gravitacional do Sol mantém os planetas. O problema era que, antes da mecânica quântica, as leis da mecânica e da eletricidade previam que os elétrons perderiam energia e, por isso, entrariam em uma espiral para dentro até colidir com o núcleo. Isso significaria que o átomo, e, com efeito, toda matéria, deveria sofrer um colapso rápido até alcançar um estado de densidade muito alta. Em 1913, o cientista dinamarquês Niels Bohr encontrou uma solução parcial para esse problema. Ele sugeriu que os elétrons talvez não fossem capazes de orbitar o núcleo central a uma distância qualquer, mas apenas a distâncias específicas. Se supuséssemos, ainda, que apenas um ou dois elétrons pudessem orbitar a cada uma dessas distâncias, isso resolveria o problema do colapso do átomo, pois os elétrons só poderiam espiralar para dentro até preencher as órbitas mais próximas e de menos energia.

Esse modelo explicava muito bem a estrutura do átomo mais simples, o hidrogênio, que tem um único elétron orbitando o núcleo. No entanto, não estava claro como devíamos estender isso para átomos mais complexos. Além do mais, a ideia de um conjunto limitado de órbitas permitidas parecia muito arbitrária. A nova teoria da mecânica quântica resolveu essa dificuldade. Ela revelou que um elétron orbitando o núcleo podia ser visto como uma onda, cujo comprimento dependia de sua velocidade. O comprimento de determinadas órbitas corresponderia a um número inteiro (isto é, não fracionário) de comprimentos de onda do elétron. Nesses casos, a crista da onda estaria na mesma posição a cada volta, de modo que as ondas se somariam: essas órbitas corresponderiam às órbitas permitidas de Bohr. Entretanto, nos casos em que comprimentos não fossem um número inteiro de comprimentos de onda, cada crista acabaria sendo anulada por um vale à medida que os elétrons completassem a volta — essas órbitas não seriam permitidas.

Um bom modo de visualizar a dualidade onda/partícula é a chamada soma de histórias, introduzida pelo cientista americano Richard Feynman. Nessa abordagem, não se espera que a partícula tenha uma única história (ou trajetória) no espaço-tempo, como seria o caso com uma teoria clássica, não quântica. Em vez disso, supõe-se que ela vá de A para B por todas as trajetórias possíveis. Cada trajetória está associada a dois números: um representa o tamanho de uma onda e o outro, a posição no ciclo (ou seja, se é um vale ou uma crista). A probabilidade de uma partícula ir de A para B é obtida a partir da soma das ondas para todas as trajetórias. Em geral, se compararmos um conjunto de trajetórias vizinhas, as fases ou posições no ciclo apresentarão variações enormes. Isso significa que as ondas associadas a essas trajetórias se anularão umas às outras de maneira quase exata. Porém, para alguns conjuntos de trajetórias vizinhas, a fase não variará muito. As ondas para essas trajetórias não se anularão. Tais trajetórias correspondem às órbitas permitidas de Bohr.

Com essas ideias, em uma formulação matemática concreta, foi relativamente simples calcular as órbitas permitidas em átomos mais complexos e até em moléculas, que são feitas de átomos unidos por elétrons que orbitam mais de um núcleo. Como a estrutura das moléculas e suas reações entre si formam a base da química e da biologia, em princípio a mecânica quântica nos permite prever quase tudo o que vemos à nossa volta, dentro dos limites estabelecidos pelo princípio da incerteza. (Contudo, na prática os cálculos exigidos para sistemas contendo mais do que uns poucos elétrons são tão complicados que não conseguimos fazê-los.)

A teoria da relatividade geral de Einstein parece governar a estrutura em grande escala do universo. Ela é o que se chama de teoria clássica; ou seja, não leva em consideração o princípio da incerteza da mecânica quântica, como deveria fazer para fins de compatibilidade com outras teorias. O motivo para que isso não leve a qualquer discrepância em relação à observação é que todos os campos gravitacionais que costumamos experimentar são muito fracos. Entretanto, os teoremas da singularidade discutidos aqui indicam que o campo gravitacional deve ficar muito forte em pelo menos duas situações: os buracos negros e o Big Bang. Em campos fortes como esses, os efeitos da mecânica quântica devem ser importantes. Desse modo, em certo sentido, ao prever pontos de densidade infinita, a relatividade geral clássica prevê sua própria derrocada, assim como a mecânica clássica (ou seja, não quântica) prevê sua derrocada ao sugerir que os átomos devem alcançar densidade infinita. Ainda não dispomos de uma teoria consistente e completa que unifique a relatividade geral e a mecânica quântica, mas conhecemos algumas das características que ela deve ter.”

 

 

“Para entender como um buraco negro pode se formar, primeiro precisamos compreender o ciclo de vida de uma estrela. Uma estrela é formada quando uma grande quantidade de gás (na maior parte hidrogênio) começa a desabar sobre si mesma devido a sua atração gravitacional. À medida que ela se contrai, os átomos do gás se chocam com frequência e velocidade cada vez maiores, e o gás se aquece. No fim, o gás está tão quente que, quando os átomos de hidrogênio colidem, eles deixam de se repelir e se fundem para formar o hélio. O calor liberado nessa reação, que é como a explosão controlada de uma bomba de hidrogênio, faz a estrela brilhar. Esse calor adicional também aumenta a pressão do gás até que ela seja suficiente para equilibrar a atração gravitacional, e o gás para de se contrair. É um pouco como um balão — há um equilíbrio entre a pressão do ar dentro, que tenta fazer o balão se expandir, e a tensão na borracha, que tenta fazer o balão diminuir. As estrelas permanecerão estáveis desse modo por um longo tempo, com o calor das reações nucleares equilibrando a atração gravitacional. Em algum momento, porém, a estrela ficará sem seu hidrogênio e outros combustíveis nucleares. Paradoxalmente, quanto mais combustível a estrela tem no começo do processo, mais rápido ela se exaure. Isso ocorre porque, quanto maior a massa da estrela, mais quente ela precisa ficar para equilibrar sua atração gravitacional. E, quanto mais quente ficar, mais rápido gastará seu combustível. Nosso Sol provavelmente tem combustível bastante para mais cerca de cinco bilhões de anos, mas estrelas mais massivas podem gastar seu combustível em meros cem milhões de anos, um tempo ínfimo ante a idade do universo. Quando uma estrela fica sem combustível, ela começa a esfriar e se contrai.”

 

 

“O quadro que hoje temos do trabalho de Oppenheimer é o seguinte: o campo gravitacional da estrela altera as trajetórias dos raios de luz no espaço-tempo em relação ao que teriam sido caso a estrela não estivesse presente. Os cones de luz, que indicam as trajetórias seguidas no espaço e no tempo a partir do ponto de origem dos clarões luminosos, são curvados de leve para dentro próximo à superfície da estrela. Isso pode ser visto durante um eclipse solar na curvatura da luz originária de estrelas distantes. À medida que a estrela se contrai, o campo gravitacional em sua superfície fica cada vez mais forte e os cones de luz se curvam ainda mais para dentro. Isso aumenta a dificuldade de a luz da estrela escapar, e a luz parece mais fraca e avermelhada para um observador distante. Então, quando a estrela encolhe até determinado diâmetro crítico — o ponto sem retorno —, o campo gravitacional na superfície se torna tão forte e os cones de luz se curvam de tal forma que a luz não consegue mais escapar. Segundo a teoria da relatividade, nada pode viajar mais rápido do que a luz. Assim, se a luz não pode sair, nada mais pode; tudo é arrastado de volta pelo campo gravitacional. O resultado é um conjunto de eventos, uma região do espaço-tempo, de onde a luz não pode escapar e chegar a um observador distante. Essa região é o que hoje chamamos de buraco negro. Sua fronteira é chamada de horizonte de eventos e coincide com as trajetórias dos raios luminosos que, por uma margem mínima, não conseguem escapar.

A fim de compreender o que veríamos se observássemos uma estrela entrar em colapso para formar um buraco negro, não podemos nos esquecer de que, na teoria da relatividade, não existe tempo absoluto. Cada observador tem sua própria medida de tempo. O tempo para alguém em uma estrela será diferente do tempo para alguém a determinada distância, devido ao campo gravitacional da estrela. Suponhamos que um astronauta intrépido esteja na superfície da estrela entrando em colapso e, enquanto desaba junto com ela, envie um sinal a cada segundo, de acordo com seu relógio, para sua nave espacial, que orbita a estrela. A certa altura em seu relógio — digamos, 11h00m00s —, a estrela encolheria para além do raio crítico no qual o campo gravitacional se torna tão forte que nada pode escapar, e os sinais do astronauta não chegariam mais à nave. À medida que as 11h00m00s se aproximassem, seus companheiros, observando da espaçonave, perceberiam os intervalos entre os sinais do astronauta ficando cada vez mais longos, mas esse efeito seria muito pequeno antes das 10h59m59s. Eles precisariam esperar apenas um pouco mais do que um segundo entre o sinal das 10h59m58s do astronauta e o que ele enviou quando seu relógio dizia 10h59m59s, mas teriam de esperar para sempre pelo sinal das 11h00m00s. As ondas luminosas emitidas da superfície da estrela entre 10h59m59s e 11h00m00s pelo relógio do astronauta se espalhariam por um período de tempo infinito, de acordo com o que se vê da espaçonave. O intervalo entre a chegada das ondas sucessivas à nave espacial ficaria cada vez mais longo, de modo que a luz da estrela se mostraria cada vez mais vermelha e fraca. Em algum momento, a estrela ficaria tão indistinta que não seria mais possível vê-la da espaçonave: restaria apenas um buraco negro no espaço. A estrela, porém, continuaria exercendo a mesma força gravitacional sobre a nave, que seguiria orbitando o buraco negro. No entanto, esse cenário não é totalmente realista, devido ao seguinte problema: a gravidade enfraquece à medida que nos afastamos da estrela, de modo que a força gravitacional nos pés de nosso intrépido astronauta seria sempre maior do que a força gravitacional em sua cabeça. Essa diferença esticaria nosso astronauta como um espaguete ou o dilaceraria antes que a estrela se contraísse até o diâmetro crítico do momento em que o horizonte de eventos se formou! No entanto, acreditamos que existem objetos muito maiores no universo, como as regiões centrais das galáxias, que também podem sofrer colapso gravitacional e produzir buracos negros. Um astronauta em um ponto desses não seria dilacerado antes que o buraco negro se formasse. Com efeito, ele não sentiria nada de especial quando atingisse o raio crítico e poderia passar pelo ponto sem retorno sem perceber. Entretanto, dentro de apenas algumas horas, à medida que a região continuasse entrando em colapso, a diferença nas forças gravitacionais na cabeça e nos pés dele se tornaria tão forte que mais uma vez o rasgaria.

O trabalho que Roger Penrose e eu realizamos entre 1965 e 1970 mostrou que, de acordo com a relatividade geral, deve haver uma singularidade de densidade e curvatura espaço-temporal infinita dentro de um buraco negro. É mais ou menos como o Big Bang no início do tempo, com a única diferença de que seria um fim do tempo para o objeto entrando em colapso e para o astronauta. Nessa singularidade, as leis da ciência e nossa capacidade de prever o futuro fracassariam. No entanto, qualquer observador que permanecesse fora do buraco negro não seria afetado por essa falta de previsibilidade, pois nem a luz nem qualquer outro sinal poderiam sair da singularidade e chegar a ele. Esse fato notável levou Roger Penrose a propor a hipótese da censura cósmica, que pode ser parafraseada como “Deus abomina uma singularidade nua”. Em outras palavras, as singularidades produzidas pelo colapso gravitacional ocorrem apenas em lugares, como os buracos negros, onde estão ocultas de olhares alheios por um horizonte de eventos. A rigor, é o que conhecemos como hipótese da censura cósmica fraca: ela protege os observadores que permanecem fora do buraco negro das consequências do colapso de previsibilidade que ocorre no interior da singularidade, mas não faz absolutamente nada pelo pobre e infeliz astronauta que despenca nela.

Algumas soluções das equações da relatividade geral permitem que nosso astronauta veja uma singularidade nua: ele talvez seja capaz de evitar a singularidade e, em vez disso, cair em um “buraco de minhoca”, saindo em outra região do universo. Isso ofereceria grandes possibilidades de viagem no espaço e no tempo, mas infelizmente essas soluções talvez sejam muito instáveis: a menor perturbação, como a presença de um astronauta, poderia mudar esses objetos de tal maneira que o astronauta só veria a singularidade quando a atingisse e seu tempo chegasse ao fim. Em outras palavras, a singularidade residiria sempre em seu futuro, nunca em seu passado. A versão forte da hipótese da censura cósmica sustenta que, em uma solução realista, as singularidades sempre residiriam completamente no futuro (como as singularidades do colapso gravitacional) ou no passado (como o Big Bang). Acredito muito na censura cósmica, então apostei com Kip Thorne e John Preskill, da Caltech, que ela seria sempre válida. Perdi a aposta por um detalhe técnico, pois foram apresentados exemplos de soluções nas quais uma singularidade era visível a uma distância grande. Assim, tive de pagar, o que, pelos termos da aposta, significava que eu precisava cobrir a nudez delas. Mas posso dizer que tive uma vitória moral. As singularidades nuas eram instáveis: a menor perturbação as levaria a desaparecer ou se ocultar atrás de um horizonte de eventos. Portanto, elas não ocorreriam em situações realistas.

O horizonte de eventos, a fronteira da região do espaço-tempo de onde não é possível escapar, age mais como uma membrana de mão única em torno do buraco negro: os objetos, como astronautas incautos, podem atravessar o horizonte de eventos e cair dentro do buraco negro, mas nada jamais pode sair do buraco negro por ali. (Lembre que o horizonte de eventos é a trajetória que a luz segue no espaço-tempo para tentar escapar do buraco negro, e nada pode viajar mais rápido do que a luz.) Poderíamos dizer do horizonte de eventos o que o poeta Dante disse da porta do inferno: “Abandonai toda esperança vós que aqui entrais.” Qualquer coisa ou qualquer um que cair pelo horizonte de eventos em breve atingirá a região de densidade infinita e o fim do tempo.”