sexta-feira, 3 de novembro de 2023

Uma breve história do tempo (Parte I), de Stephen Hawking

Editora: Companhia das Letras

ISBN: 978-85-8057-646-7

Tradução: Cássio de Arantes Leite

Ilustrações: Ron Miller

Revisão técnica: Amâncio frança

Opinião: ★★★☆☆

Páginas: 256

Análise em vídeo: Clique aqui

Link para compra: Clique aqui

Sinopse: Uma das mentes mais geniais do mundo moderno, Stephen Hawking guia o leitor na busca por respostas a algumas das maiores dúvidas da humanidade: Qual a origem do universo? Ele é infinito? E o tempo? Sempre existiu, ou houve um começo e haverá um fim? Existem outras dimensões além das três espaciais? E o que vai acontecer quando tudo terminar?

Com ilustrações criativas e texto lúcido e bem-humorado, Hawking desvenda desde os mistérios da física de partículas até a dinâmica que movimenta centenas de milhões de galáxias por todo o universo. Para o iniciado, Uma breve história do tempo é uma bela representação de conceitos complexos; para o leigo, é um vislumbre dos segredos mais profundos da criação.



“A fim de falar sobre a natureza do universo e discutir questões como se ele tem um início ou um fim, devemos esclarecer o que é uma teoria científica. Vou adotar a visão simplória de que uma teoria é apenas um modelo do universo — ou uma parte restrita dele — e um conjunto de regras que relacionam as quantidades no modelo às observações que fazemos. Ela existe apenas em nossas mentes e não possui qualquer outra realidade (seja lá o que isso possa significar). Uma teoria é considerada boa se satisfaz dois requisitos: descreve de forma adequada um grande número de observações com base em um modelo que contém apenas poucos elementos arbitrários e faz previsões precisas sobre os resultados de futuras observações. Por exemplo, Aristóteles acreditava na teoria de Empédocles de que tudo era feito dos elementos: terra, ar, fogo e água. Isso era bastante simples, mas não se traduzia em previsões precisas. Já a teoria da gravitação de Newton se baseava em um modelo ainda mais simples, no qual os corpos atraíam uns aos outros com uma força proporcional a uma grandeza chamada de massa e inversamente proporcional ao quadrado da distância entre eles. E, contudo, ela prevê os movimentos do Sol, da Lua e dos planetas com alto grau de precisão.”

 

 

“A descoberta de que o universo está em expansão foi uma das grandes revoluções intelectuais do século XX. Em retrospecto, é fácil se perguntar por que ninguém tinha pensado nisso antes. Newton e outros deviam ter se dado conta de que um universo estático logo começaria a se contrair sob a influência da gravidade. Mas suponhamos, em vez disso, que o universo esteja se expandindo. Se o processo for muito lento, em algum momento a força da gravidade o levará a parar de se expandir e, depois, começar a se contrair. Entretanto, se estiver se expandindo acima de determinada velocidade crítica, a gravidade jamais será forte o bastante para detê-lo, e o universo continuará se expandindo para sempre. Isso é um pouco o que acontece quando lançamos um foguete da superfície da Terra. Se a velocidade for muito baixa, a gravidade acabará por detê-lo, e ele cairá de volta. Em contrapartida, se o foguete viajar acima de determinada velocidade crítica (cerca de onze quilômetros por segundo), a gravidade não será forte o suficiente para puxá-lo de volta, de modo que ele continuará se afastando da Terra para sempre. Esse comportamento do universo poderia ter sido previsto com base na teoria da gravitação de Newton em qualquer momento dos séculos XIX e XVIII, ou até em fins do XVII. Contudo, a crença em um universo estático era tão forte que ela persistiu até o início do século XX. Mesmo Einstein, ao formular a teoria da relatividade geral, em 1915, tinha tanta certeza de que o universo precisava ser estático que modificou sua teoria para tornar isso possível, introduzindo em suas equações o que chamou de constante cosmológica. Einstein incorporou uma nova força “antigravidade”, que, ao contrário de outras forças, não provinha de nenhuma fonte específica, mas se formava no próprio tecido do espaço-tempo. Ele alegou que o espaço-tempo tinha uma tendência inerente a se expandir e que isso podia acontecer exatamente para compensar a atração de toda a matéria no universo, de modo que o resultado seria um universo estático. Aparentemente, apenas um homem estava disposto a aceitar a relatividade geral, e, enquanto Einstein e outros físicos procuravam maneiras de evitar a previsão da relatividade geral de um universo não estático, o físico e matemático russo Alexander Friedmann se propôs a explicar tal previsão.

Friedmann fez duas suposições muito simples sobre o universo: que ele parecia idêntico em qualquer direção que olhássemos e que isso seria verdadeiro também se o observássemos de qualquer outro ponto. Partindo apenas dessas duas ideias, ele mostrou que não deveríamos esperar que o universo fosse estático. Na verdade, em 1922, vários anos antes da descoberta de Edwin Hubble, Friedmann previu exatamente o que Hubble descobriu! (...)

Bem, à primeira vista, toda essa evidência de que o universo tem o mesmo aspecto em qualquer direção em que olhemos pode parecer sugerir que existe algo especial em relação a nosso lugar no universo. Em particular, talvez pareça que, se observamos todas as demais galáxias se afastando de nós, então devemos estar no centro do universo. Há, no entanto, uma explicação alternativa: o universo deve parecer o mesmo em qualquer direção quando visto também de qualquer outra galáxia. Essa, como vimos, era a segunda hipótese de Friedmann. Não dispomos de evidência científica a favor ou contra essa suposição. Acreditamos nela apenas por modéstia: seria muito surpreendente se o universo parecesse o mesmo em qualquer direção em torno de nós, mas não em torno de outros pontos do universo! No modelo de Friedmann, todas as galáxias estão se afastando umas das outras. A situação é semelhante a um balão, com diversos pontos pintados em sua superfície, sendo inflado. À medida que o balão se expande, a distância entre quaisquer dois pontos aumenta, mas não existe um ponto que possa ser identificado como o centro da expansão. Além disso, quanto mais distantes os pontos, mais depressa eles se afastarão. Da mesma maneira, no modelo de Friedmann a velocidade em que quaisquer duas galáxias se afastam é proporcional à distância entre elas. Assim, ele previu que o desvio de uma galáxia para o vermelho devia ser diretamente proporcional à sua distância de nós, o mesmo que Hubble descobriu.”

 

 

“Todas as soluções de Friedmann têm a particularidade de que, em algum momento no passado (entre dez e vinte bilhões de anos atrás), a distância entre galáxias vizinhas deve ter sido zero. Nessa época, que chamamos de Big Bang, a densidade do universo e a curvatura do espaço-tempo teriam sido infinitas. Como a matemática não pode lidar de fato com números infinitos, isso significa que a teoria da relatividade geral (na qual as soluções de Friedmann se baseiam) prevê que existe um ponto no universo no qual a própria teoria deixa de ser válida. Esse ponto é um exemplo do que os matemáticos chamam de singularidade. Na verdade, todas as nossas teorias científicas são formuladas na suposição de que o espaço-tempo é liso e quase plano, de modo que deixam de funcionar na singularidade do Big Bang, quando a curvatura do espaço-tempo é infinita. Isso significa que, mesmo que tenha havido eventos anteriores ao Big Bang, seríamos incapazes de usá-los para determinar o que aconteceria em seguida, pois a previsibilidade deixaria de funcionar no Big Bang.

Do mesmo modo, se sabemos o que aconteceu apenas desde o Big Bang, como é o caso, não podemos determinar o que ocorreu antes. No que nos diz respeito, eventos prévios ao Big Bang não exercem qualquer efeito, de modo que não fazem parte de um modelo científico do universo. Devemos, assim, eliminá-los do modelo e dizer que o tempo teve início no Big Bang.”

 

 

“O trabalho de Lifshitz e Khalatnikov foi valioso porque mostrou que o universo pode de fato ter tido uma singularidade, um Big Bang, se a teoria da relatividade geral estiver correta. No entanto, não solucionou a questão crucial: será que a relatividade geral prevê que nosso universo deve ter tido um Big Bang, um início do tempo? A resposta veio a partir de uma abordagem completamente diferente introduzida pelo matemático e físico britânico Roger Penrose em 1965. A partir do modo como os cones de luz se comportam na relatividade geral, combinado ao fato de que a gravidade sempre exerce atração, ele mostrou que uma estrela cedendo à própria gravidade fica aprisionada em uma região cuja superfície acaba por encolher ao tamanho zero. E, como a superfície da região encolhe para zero, o mesmo deve se dar com seu volume. Toda a matéria da estrela será comprimida em uma região de volume zero, de modo que a densidade da matéria e a curvatura do espaço-tempo serão infinitas. Em outras palavras, temos uma singularidade contida dentro de uma região do espaço-tempo conhecida como buraco negro. (...)

Em 1965, li a respeito do teorema de Penrose de que todo corpo em colapso gravitacional deve acabar formando uma singularidade. Logo me dei conta de que, se revertêssemos a direção do tempo no teorema de Penrose, de modo que o colapso se tornasse uma expansão, as condições de seu teorema ainda seriam válidas, contanto que o universo fosse aproximadamente como um modelo de Friedmann em escalas maiores no momento atual. O teorema de Penrose mostrara que qualquer estrela em colapso deve terminar em uma singularidade; o argumento de reversão temporal mostrava que qualquer universo em expansão nos moldes de Friedmann deve ter se iniciado com uma singularidade. Por razões técnicas, o teorema de Penrose exigia que o universo fosse infinito em espaço. Assim, eu podia usá-lo para provar que haveria uma singularidade apenas se o universo estivesse se expandindo rápido o bastante para evitar um novo colapso (já que apenas aqueles modelos de Friedmann previam um espaço infinito).

Ao longo dos anos seguintes, desenvolvi técnicas matemáticas para eliminar essa e outras tecnicalidades dos teoremas que provavam a ocorrência de singularidades. O resultado foi um artigo escrito em parceria com Penrose em 1970, demonstrando enfim que deve ter havido uma singularidade de Big Bang, desde que a relatividade geral esteja correta e o universo contenha tanta matéria quanto observamos. Houve muita oposição ao nosso trabalho, em parte vinda dos russos, devido à sua crença marxista no determinismo científico, e em parte de pessoas que achavam que toda essa ideia de singularidade era intragável e arruinava a beleza da teoria de Einstein. Todavia, não se pode discutir com um teorema matemático. Desse modo, no fim, nosso trabalho foi amplamente aceito, e hoje quase todos presumem que o universo teve início com uma singularidade de Big Bang. É talvez um pouco irônico que, após mudar de ideia, hoje eu tente convencer os demais físicos de que, na realidade, não houve singularidade alguma no início do universo — como veremos mais adiante, ela pode desaparecer se levarmos em consideração os efeitos quânticos.

Neste capítulo, vimos como em menos de meio século o conceito do homem sobre o universo, formado ao longo de milênios, foi transformado. A descoberta de Hubble de que o universo estava em expansão e a percepção da insignificância de nosso planeta na vastidão do cosmos foram apenas o ponto de partida. À medida que as evidências experimentais e teóricas se acumulavam, ficou cada vez mais claro que o universo deve ter tido um início no tempo, até que em 1970 isso enfim foi comprovado por Penrose e por mim, com base na teoria da relatividade geral de Einstein. Isso mostrou que a relatividade geral não passa de uma teoria incompleta: ela é incapaz de nos dizer como o universo começou, pois prevê que todas as teorias físicas, incluindo ela própria, perdem a validade no início do universo. Entretanto, a relatividade geral alega ser uma teoria apenas parcial. Assim, o que os teoremas da singularidade mostram de fato é que deve ter havido um momento nos estágios mais primitivos do universo em que ele era tão pequeno que já não se poderia ignorar os efeitos em pequena escala da outra grande teoria parcial do século XX: a mecânica quântica. No começo da década de 1970, portanto, fomos forçados a mudar nossa busca por uma compreensão do universo com base em nossa teoria do extraordinariamente vasto para nossa teoria do extraordinariamente minúsculo.”

 

 

“O cientista alemão Max Planck sugeriu, em 1900, que a luz, os raios X e outras ondas não podiam ser emitidos a uma taxa arbitrária, mas apenas em certos pacotes, que ele chamou de quanta. Além do mais, cada quantum tinha um montante de energia que aumentava quanto maior fosse a frequência das ondas, de modo que, a uma frequência elevada o bastante, a emissão de um único quantum exigiria mais energia do que havia disponível. Desse modo, a radiação em altas frequências seria reduzida e a taxa em que o corpo perde energia seria finita.

A hipótese quântica explicava muito bem a taxa observada de emissão de radiação dos corpos quentes, mas suas implicações para o determinismo só foram percebidas em 1926, quando outro cientista alemão, Werner Heisenberg, formulou seu famoso princípio da incerteza. A fim de prever a posição e a velocidade futuras de uma partícula, temos de ser capazes de medir com precisão a posição e a velocidade atuais. A maneira óbvia de fazer isso é lançar luz sobre a partícula. Algumas ondas de luz serão dispersadas por ela, e isso indicará sua posição. Entretanto, não seremos capazes de determinar a posição da partícula com mais precisão do que a distância entre as cristas de onda da luz, de modo que temos de usar luz de ondas curtas para medir a posição da partícula de forma precisa. Ora, pela hipótese quântica de Planck, não podemos usar uma quantidade arbitrariamente pequena de luz; temos de usar pelo menos um quantum. Esse quantum perturbará a partícula e mudará sua velocidade de uma forma que não pode ser prevista. Além do mais, com quanto mais exatidão medirmos a posição, menor será o comprimento de onda da luz necessário e, portanto, mais elevada será a energia de um único quantum. Assim, a velocidade da partícula será perturbada por uma quantidade maior. Em outras palavras, quanto mais precisamente tentarmos medir a posição da partícula, menos precisamente poderemos medir sua velocidade, e vice-versa. Heisenberg mostrou que a incerteza na posição da partícula multiplicada pela incerteza em sua velocidade multiplicada pela massa da partícula nunca pode ser menor do que um valor específico, conhecido como constante de Planck. Além disso, esse limite não depende da maneira como tentamos medir a posição ou a velocidade da partícula, nem do tipo de partícula. O princípio da incerteza de Heisenberg é uma propriedade fundamental e inescapável do mundo.

O princípio da incerteza teve implicações profundas para o modo como vemos o mundo. Mesmo após mais de setenta anos, elas ainda não foram admitidas por muitos filósofos e continuam sendo objeto de grande controvérsia. O princípio da incerteza sinalizou um fim para o sonho de Laplace de uma teoria da ciência, um modelo completamente determinista do universo: ora, ninguém pode prever eventos futuros com exatidão se não é capaz sequer de medir de forma precisa o atual estado do universo! É possível, ainda, imaginar que haja um conjunto de leis que determinam os eventos por completo para um ser sobrenatural, que seria capaz de observar o estado presente do universo sem perturbá-lo. Entretanto, tais modelos do universo não são de grande interesse para nós, meros mortais. Parece mais válido empregar o princípio econômico conhecido como navalha de Occam e eliminar todos os aspectos inobserváveis da teoria. Essa abordagem levou Heisenberg, Erwin Schrödinger e Paul Dirac, na década de 1920, a reformular a mecânica em uma nova teoria chamada mecânica quântica, baseada no princípio da incerteza. Nessa teoria, as partículas não mais apresentam posições e velocidades independentes e bem definidas que não podem ser observadas. Em vez disso, possuem um estado quântico, que é uma combinação de posição e velocidade.

De modo geral, a mecânica quântica não prevê um resultado único e definitivo para uma observação. Em vez disso, prevê um número de resultados possíveis e nos informa sobre a probabilidade de cada um. Isso equivale a dizer que, se fizéssemos a mesma medição em um grande número de sistemas semelhantes, todos iniciados da mesma maneira, descobriríamos que o resultado seria A em determinados casos, B em outros e assim por diante. Poderíamos prever o número aproximado de vezes que o resultado seria A ou B, mas não o resultado específico de uma medição individual. Assim, a mecânica quântica introduz um elemento inevitável de imprevisibilidade ou aleatoriedade à ciência. Einstein se opôs fortemente a isso, a despeito do importante papel que ele próprio desempenhara no desenvolvimento dessas ideias. Ele foi agraciado com o Prêmio Nobel por sua contribuição à teoria quântica. Não obstante, nunca aceitou que o universo fosse governado pelo acaso; seus sentimentos foram resumidos em sua famosa frase “Deus não joga dados”. A maioria dos outros cientistas, porém, estava disposta a aceitar a mecânica quântica porque ela combinava perfeitamente com a experimentação. De fato, a teoria tem se mostrado bem-sucedida e fundamenta quase toda a ciência e a tecnologia modernas. Ela governa o comportamento dos transistores e circuitos integrados, componentes essenciais de aparelhos eletrônicos como televisores e computadores, e também é a base da química e da biologia modernas. As únicas áreas da ciência física nas quais a mecânica quântica ainda não foi devidamente incorporada são a gravitação e a estrutura em grande escala do universo.

Embora a luz seja feita de ondas, a hipótese quântica de Planck nos diz que, em alguns aspectos, ela se comporta como se fosse constituída de partículas: pode ser emitida ou absorvida apenas em pacotes, ou quanta. Da mesma forma, o princípio da incerteza de Heisenberg sugere que, em alguns aspectos, as partículas se comportam como ondas: elas não têm posição definida, mas estão “borradas” com certa distribuição de probabilidade. A teoria da mecânica quântica se baseia em um tipo inteiramente novo de matemática que não mais descreve o mundo real em termos de partículas e ondas — apenas as observações do mundo podem ser descritas nesses termos. Há, assim, uma dualidade entre ondas e partículas na mecânica quântica: para alguns propósitos, é útil pensar nas partículas como ondas e, para outros, é melhor pensar nas ondas como partículas. Uma consequência importante disso é que podemos observar o que chamamos de interferência entre dois conjuntos de ondas ou partículas. Ou seja, as cristas de um conjunto de ondas podem coincidir com os vales de outro conjunto. Assim, os dois se cancelam, em vez de se somar em uma onda mais forte, como seria de se esperar. Um exemplo comum da interferência no caso da luz é o das cores que vemos em bolhas de sabão. Elas são causadas pelo reflexo da luz nos dois lados da fina película de água que forma a bolha. A luz branca consiste em ondas de luz de todos os comprimentos, ou cores. Para determinados comprimentos de onda, as cristas refletidas de um lado da película de sabão coincidem com os vales refletidos do outro lado. As cores correspondentes a esses comprimentos de onda estão ausentes da luz refletida, que, desse modo, parece colorida.”

 

 

“O fenômeno da interferência entre partículas foi crucial para a nossa compreensão da estrutura dos átomos — as unidades básicas da química e da biologia e os blocos constituintes a partir dos quais nós, e tudo à nossa volta, somos feitos. No início do século XX, pensava-se que os átomos eram mais como planetas orbitando o Sol, com elétrons (partículas de eletricidade negativa) orbitando um núcleo central, que carregava eletricidade positiva. A atração entre a eletricidade positiva e a negativa supostamente mantinha os elétrons em suas órbitas da mesma forma como a atração gravitacional do Sol mantém os planetas. O problema era que, antes da mecânica quântica, as leis da mecânica e da eletricidade previam que os elétrons perderiam energia e, por isso, entrariam em uma espiral para dentro até colidir com o núcleo. Isso significaria que o átomo, e, com efeito, toda matéria, deveria sofrer um colapso rápido até alcançar um estado de densidade muito alta. Em 1913, o cientista dinamarquês Niels Bohr encontrou uma solução parcial para esse problema. Ele sugeriu que os elétrons talvez não fossem capazes de orbitar o núcleo central a uma distância qualquer, mas apenas a distâncias específicas. Se supuséssemos, ainda, que apenas um ou dois elétrons pudessem orbitar a cada uma dessas distâncias, isso resolveria o problema do colapso do átomo, pois os elétrons só poderiam espiralar para dentro até preencher as órbitas mais próximas e de menos energia.

Esse modelo explicava muito bem a estrutura do átomo mais simples, o hidrogênio, que tem um único elétron orbitando o núcleo. No entanto, não estava claro como devíamos estender isso para átomos mais complexos. Além do mais, a ideia de um conjunto limitado de órbitas permitidas parecia muito arbitrária. A nova teoria da mecânica quântica resolveu essa dificuldade. Ela revelou que um elétron orbitando o núcleo podia ser visto como uma onda, cujo comprimento dependia de sua velocidade. O comprimento de determinadas órbitas corresponderia a um número inteiro (isto é, não fracionário) de comprimentos de onda do elétron. Nesses casos, a crista da onda estaria na mesma posição a cada volta, de modo que as ondas se somariam: essas órbitas corresponderiam às órbitas permitidas de Bohr. Entretanto, nos casos em que comprimentos não fossem um número inteiro de comprimentos de onda, cada crista acabaria sendo anulada por um vale à medida que os elétrons completassem a volta — essas órbitas não seriam permitidas.

Um bom modo de visualizar a dualidade onda/partícula é a chamada soma de histórias, introduzida pelo cientista americano Richard Feynman. Nessa abordagem, não se espera que a partícula tenha uma única história (ou trajetória) no espaço-tempo, como seria o caso com uma teoria clássica, não quântica. Em vez disso, supõe-se que ela vá de A para B por todas as trajetórias possíveis. Cada trajetória está associada a dois números: um representa o tamanho de uma onda e o outro, a posição no ciclo (ou seja, se é um vale ou uma crista). A probabilidade de uma partícula ir de A para B é obtida a partir da soma das ondas para todas as trajetórias. Em geral, se compararmos um conjunto de trajetórias vizinhas, as fases ou posições no ciclo apresentarão variações enormes. Isso significa que as ondas associadas a essas trajetórias se anularão umas às outras de maneira quase exata. Porém, para alguns conjuntos de trajetórias vizinhas, a fase não variará muito. As ondas para essas trajetórias não se anularão. Tais trajetórias correspondem às órbitas permitidas de Bohr.

Com essas ideias, em uma formulação matemática concreta, foi relativamente simples calcular as órbitas permitidas em átomos mais complexos e até em moléculas, que são feitas de átomos unidos por elétrons que orbitam mais de um núcleo. Como a estrutura das moléculas e suas reações entre si formam a base da química e da biologia, em princípio a mecânica quântica nos permite prever quase tudo o que vemos à nossa volta, dentro dos limites estabelecidos pelo princípio da incerteza. (Contudo, na prática os cálculos exigidos para sistemas contendo mais do que uns poucos elétrons são tão complicados que não conseguimos fazê-los.)

A teoria da relatividade geral de Einstein parece governar a estrutura em grande escala do universo. Ela é o que se chama de teoria clássica; ou seja, não leva em consideração o princípio da incerteza da mecânica quântica, como deveria fazer para fins de compatibilidade com outras teorias. O motivo para que isso não leve a qualquer discrepância em relação à observação é que todos os campos gravitacionais que costumamos experimentar são muito fracos. Entretanto, os teoremas da singularidade discutidos aqui indicam que o campo gravitacional deve ficar muito forte em pelo menos duas situações: os buracos negros e o Big Bang. Em campos fortes como esses, os efeitos da mecânica quântica devem ser importantes. Desse modo, em certo sentido, ao prever pontos de densidade infinita, a relatividade geral clássica prevê sua própria derrocada, assim como a mecânica clássica (ou seja, não quântica) prevê sua derrocada ao sugerir que os átomos devem alcançar densidade infinita. Ainda não dispomos de uma teoria consistente e completa que unifique a relatividade geral e a mecânica quântica, mas conhecemos algumas das características que ela deve ter.”

 

 

“Para entender como um buraco negro pode se formar, primeiro precisamos compreender o ciclo de vida de uma estrela. Uma estrela é formada quando uma grande quantidade de gás (na maior parte hidrogênio) começa a desabar sobre si mesma devido a sua atração gravitacional. À medida que ela se contrai, os átomos do gás se chocam com frequência e velocidade cada vez maiores, e o gás se aquece. No fim, o gás está tão quente que, quando os átomos de hidrogênio colidem, eles deixam de se repelir e se fundem para formar o hélio. O calor liberado nessa reação, que é como a explosão controlada de uma bomba de hidrogênio, faz a estrela brilhar. Esse calor adicional também aumenta a pressão do gás até que ela seja suficiente para equilibrar a atração gravitacional, e o gás para de se contrair. É um pouco como um balão — há um equilíbrio entre a pressão do ar dentro, que tenta fazer o balão se expandir, e a tensão na borracha, que tenta fazer o balão diminuir. As estrelas permanecerão estáveis desse modo por um longo tempo, com o calor das reações nucleares equilibrando a atração gravitacional. Em algum momento, porém, a estrela ficará sem seu hidrogênio e outros combustíveis nucleares. Paradoxalmente, quanto mais combustível a estrela tem no começo do processo, mais rápido ela se exaure. Isso ocorre porque, quanto maior a massa da estrela, mais quente ela precisa ficar para equilibrar sua atração gravitacional. E, quanto mais quente ficar, mais rápido gastará seu combustível. Nosso Sol provavelmente tem combustível bastante para mais cerca de cinco bilhões de anos, mas estrelas mais massivas podem gastar seu combustível em meros cem milhões de anos, um tempo ínfimo ante a idade do universo. Quando uma estrela fica sem combustível, ela começa a esfriar e se contrai.”

 

 

“O quadro que hoje temos do trabalho de Oppenheimer é o seguinte: o campo gravitacional da estrela altera as trajetórias dos raios de luz no espaço-tempo em relação ao que teriam sido caso a estrela não estivesse presente. Os cones de luz, que indicam as trajetórias seguidas no espaço e no tempo a partir do ponto de origem dos clarões luminosos, são curvados de leve para dentro próximo à superfície da estrela. Isso pode ser visto durante um eclipse solar na curvatura da luz originária de estrelas distantes. À medida que a estrela se contrai, o campo gravitacional em sua superfície fica cada vez mais forte e os cones de luz se curvam ainda mais para dentro. Isso aumenta a dificuldade de a luz da estrela escapar, e a luz parece mais fraca e avermelhada para um observador distante. Então, quando a estrela encolhe até determinado diâmetro crítico — o ponto sem retorno —, o campo gravitacional na superfície se torna tão forte e os cones de luz se curvam de tal forma que a luz não consegue mais escapar. Segundo a teoria da relatividade, nada pode viajar mais rápido do que a luz. Assim, se a luz não pode sair, nada mais pode; tudo é arrastado de volta pelo campo gravitacional. O resultado é um conjunto de eventos, uma região do espaço-tempo, de onde a luz não pode escapar e chegar a um observador distante. Essa região é o que hoje chamamos de buraco negro. Sua fronteira é chamada de horizonte de eventos e coincide com as trajetórias dos raios luminosos que, por uma margem mínima, não conseguem escapar.

A fim de compreender o que veríamos se observássemos uma estrela entrar em colapso para formar um buraco negro, não podemos nos esquecer de que, na teoria da relatividade, não existe tempo absoluto. Cada observador tem sua própria medida de tempo. O tempo para alguém em uma estrela será diferente do tempo para alguém a determinada distância, devido ao campo gravitacional da estrela. Suponhamos que um astronauta intrépido esteja na superfície da estrela entrando em colapso e, enquanto desaba junto com ela, envie um sinal a cada segundo, de acordo com seu relógio, para sua nave espacial, que orbita a estrela. A certa altura em seu relógio — digamos, 11h00m00s —, a estrela encolheria para além do raio crítico no qual o campo gravitacional se torna tão forte que nada pode escapar, e os sinais do astronauta não chegariam mais à nave. À medida que as 11h00m00s se aproximassem, seus companheiros, observando da espaçonave, perceberiam os intervalos entre os sinais do astronauta ficando cada vez mais longos, mas esse efeito seria muito pequeno antes das 10h59m59s. Eles precisariam esperar apenas um pouco mais do que um segundo entre o sinal das 10h59m58s do astronauta e o que ele enviou quando seu relógio dizia 10h59m59s, mas teriam de esperar para sempre pelo sinal das 11h00m00s. As ondas luminosas emitidas da superfície da estrela entre 10h59m59s e 11h00m00s pelo relógio do astronauta se espalhariam por um período de tempo infinito, de acordo com o que se vê da espaçonave. O intervalo entre a chegada das ondas sucessivas à nave espacial ficaria cada vez mais longo, de modo que a luz da estrela se mostraria cada vez mais vermelha e fraca. Em algum momento, a estrela ficaria tão indistinta que não seria mais possível vê-la da espaçonave: restaria apenas um buraco negro no espaço. A estrela, porém, continuaria exercendo a mesma força gravitacional sobre a nave, que seguiria orbitando o buraco negro. No entanto, esse cenário não é totalmente realista, devido ao seguinte problema: a gravidade enfraquece à medida que nos afastamos da estrela, de modo que a força gravitacional nos pés de nosso intrépido astronauta seria sempre maior do que a força gravitacional em sua cabeça. Essa diferença esticaria nosso astronauta como um espaguete ou o dilaceraria antes que a estrela se contraísse até o diâmetro crítico do momento em que o horizonte de eventos se formou! No entanto, acreditamos que existem objetos muito maiores no universo, como as regiões centrais das galáxias, que também podem sofrer colapso gravitacional e produzir buracos negros. Um astronauta em um ponto desses não seria dilacerado antes que o buraco negro se formasse. Com efeito, ele não sentiria nada de especial quando atingisse o raio crítico e poderia passar pelo ponto sem retorno sem perceber. Entretanto, dentro de apenas algumas horas, à medida que a região continuasse entrando em colapso, a diferença nas forças gravitacionais na cabeça e nos pés dele se tornaria tão forte que mais uma vez o rasgaria.

O trabalho que Roger Penrose e eu realizamos entre 1965 e 1970 mostrou que, de acordo com a relatividade geral, deve haver uma singularidade de densidade e curvatura espaço-temporal infinita dentro de um buraco negro. É mais ou menos como o Big Bang no início do tempo, com a única diferença de que seria um fim do tempo para o objeto entrando em colapso e para o astronauta. Nessa singularidade, as leis da ciência e nossa capacidade de prever o futuro fracassariam. No entanto, qualquer observador que permanecesse fora do buraco negro não seria afetado por essa falta de previsibilidade, pois nem a luz nem qualquer outro sinal poderiam sair da singularidade e chegar a ele. Esse fato notável levou Roger Penrose a propor a hipótese da censura cósmica, que pode ser parafraseada como “Deus abomina uma singularidade nua”. Em outras palavras, as singularidades produzidas pelo colapso gravitacional ocorrem apenas em lugares, como os buracos negros, onde estão ocultas de olhares alheios por um horizonte de eventos. A rigor, é o que conhecemos como hipótese da censura cósmica fraca: ela protege os observadores que permanecem fora do buraco negro das consequências do colapso de previsibilidade que ocorre no interior da singularidade, mas não faz absolutamente nada pelo pobre e infeliz astronauta que despenca nela.

Algumas soluções das equações da relatividade geral permitem que nosso astronauta veja uma singularidade nua: ele talvez seja capaz de evitar a singularidade e, em vez disso, cair em um “buraco de minhoca”, saindo em outra região do universo. Isso ofereceria grandes possibilidades de viagem no espaço e no tempo, mas infelizmente essas soluções talvez sejam muito instáveis: a menor perturbação, como a presença de um astronauta, poderia mudar esses objetos de tal maneira que o astronauta só veria a singularidade quando a atingisse e seu tempo chegasse ao fim. Em outras palavras, a singularidade residiria sempre em seu futuro, nunca em seu passado. A versão forte da hipótese da censura cósmica sustenta que, em uma solução realista, as singularidades sempre residiriam completamente no futuro (como as singularidades do colapso gravitacional) ou no passado (como o Big Bang). Acredito muito na censura cósmica, então apostei com Kip Thorne e John Preskill, da Caltech, que ela seria sempre válida. Perdi a aposta por um detalhe técnico, pois foram apresentados exemplos de soluções nas quais uma singularidade era visível a uma distância grande. Assim, tive de pagar, o que, pelos termos da aposta, significava que eu precisava cobrir a nudez delas. Mas posso dizer que tive uma vitória moral. As singularidades nuas eram instáveis: a menor perturbação as levaria a desaparecer ou se ocultar atrás de um horizonte de eventos. Portanto, elas não ocorreriam em situações realistas.

O horizonte de eventos, a fronteira da região do espaço-tempo de onde não é possível escapar, age mais como uma membrana de mão única em torno do buraco negro: os objetos, como astronautas incautos, podem atravessar o horizonte de eventos e cair dentro do buraco negro, mas nada jamais pode sair do buraco negro por ali. (Lembre que o horizonte de eventos é a trajetória que a luz segue no espaço-tempo para tentar escapar do buraco negro, e nada pode viajar mais rápido do que a luz.) Poderíamos dizer do horizonte de eventos o que o poeta Dante disse da porta do inferno: “Abandonai toda esperança vós que aqui entrais.” Qualquer coisa ou qualquer um que cair pelo horizonte de eventos em breve atingirá a região de densidade infinita e o fim do tempo.”

Nenhum comentário: