Novo blog

Estou me transferindo para outro blog, o Ars Physica. Convido a todos que visitavam esse blog para participar do novo! A vantagem do novo blog é que será no formato do Cosmic Variance: um grupo de diferentes físicos estarão postando sobre assuntos ligados a Física. Continuarei a colocar o mesmo tipo de material que vinha postando neste blog lá.

Religulous

O comediante Bill Maher vai lançar semana que vem, em 3 de outubro, um documentário crítico sobre religião, Religulous, que promete ter seus momentos cômicos, talvez algo na linha dos filmes do Michael Moore (Tiros em Coulumbine, Farenheit 9/11, Sicko). Bill será o próximo convidado do programa The Daily Show, que é muito bem conhecido nos Estados Unidos, no dia 30 de setembro. A entrevista estará disponível no site do programa a partir do dia 1 de outubro. O trailer (legendado em português!) promete um bom filme. Ele já esteve no Larry King (entrevista sem legenda, em inglês).

Há dois documentários muito pouco conhecidos até o momento que são críticos a religião, The Root of All Evil de Richard Dawkins e The God Who Wasn't There. Eu gostei bastante deste segundo, que é sobre o problema de Jesus histórico, i.e. se Jesus realmente existiu ou não. O problema desses filmes é que eles são ácidos demais para conseguir balançar o crente comum. Eles mais produzem um sentimento de revolta do que iluminação, na minha opinião. Espero que esse novo filme de Bill seja mais sereno, e com isso consiga maior espaço na mídia e distribuição, e possibilite educar mais as pessoas sobre o problema do ópio do povo.

Eu certamente vou assistir esse filme. smile

Enquanto isso, podemos ver vários vídeos no YouTube do Bill Maher.

Bobagens sobre o custo do LHC

Das notícias sobre o LHC para mim a parte mais interessante é observar a reação do público. Algumas são cômicas, mas uma classe de comentários me preocupa: os ligados ao custo do projeto. As alegações são muito infundadas, genericamente baseadas na idéia falsa de que o LHC é um projeto muito caro. Não é, o LHC sai de graça. O custo total para por o LHC em funcionamento, incluindo material e pessoal do sítio, o acelerador por completo, cerca de 15% de todos os detetores, e o cluster de computadores ficará em US$ 5.6 bilhões [1]. Como o projeto começou em 2001, são 8 anos de construção, o que dá apenas US$ 700 milhões por ano divididos entre 20 países da Europa, o que dá uma média de um investimento de US$ 35 milhões por país durante 8 anos.

A Europa por ano gasta apenas 1.8% do PIB com ciência e tecnologia, os EUA 2.6%, o Japão 3.4% [2]. O orçamento do LHC é uma pequeníssima parcela desse investimento, pois, 1.8% do PIB Europeu é US$668 bilhões. Isso significa que a Europa está gastando 0.1% do seu investimento de ciência com LHC, que é um dos projetos mais proeminentes da ciência de hoje. Há enorme espaço no PIB desses países para gastos com outros fins, e na parte específica que vai para pesquisa em ciência e tecnologia, ainda resta 99.9% do orçamento para outros projetos.

Os Estados Unidos sozinho poderia bancar o LHC. De fato, os EUA sozinho poderia ter financiado o SSC. Mas os EUA tem outras prioriades: nos últimos 5 anos, só a guerra do Iraque custou US$845 bilhões diretos dos cofres públicos norte-americanos, e tem um custo projetado de US$ 3 trilhões para a economia dos EUA [3]. E a Inglaterra, até 2006, gastou US$ 9 bilhões do dinheiro público [4] na guerra. Ainda falta somar a guerra do Afeganistão. Semana passada, o governo norte-americano perdoou uma dívida de US$85 bilhões da AIG. Uma única junta privada ganhou, em um único dia, o equivalente ao custo de 14 LHCs. Hoje, o Congresso norte-americano liberou US$700 bilhões para perdoar as dívidas de empresas hipotecárias [4]. Então, se alguém ai quer reclamar de aplicar dinheiro para fins como filantropia, há lugares muito mais sérios e importantes para olhar do que a miséria do investimento em pesquisa e tecnologia, e a fração ainda mais insignificante do LHC desse montante do dinheiro na Europa e Estados Unidos.

E no Brasil, que tal comparar o gasto anual dos salários de todos os funcionários e políticos do Congresso e do Senado com o orçamento total para investir em ciência e tecnologia do MCT por todo o país, incluindo-se ai os gastos com bolsas para pesquisa, centros de pesquisa, e todo o resto? Eis os números: ciência vs. Senado e Congresso. Com um investimento como esse em ciência, tem certeza que o LHC é caro?

O que eu falei acima é óbvio para muita gente. Mas por alguma razão, os números do LHC fizeram as pessoas esquecerem de como o efetivo investimento em desenvolvimento de ciência e tecnologia por todo o planeta não corresponde a parcela da participação da tecnologia e ciência na economia mundial.

Referências


  1. CERN Brochure 2008 Nota: a tabela de custo do LHC neste documento está em francos suíços.
  2. Estimates of National Research and Development, National Science Foundation, Aug 2008.
  3. Reuters.com
  4. Bloomberg
  5. Isso está por toda a mídia, mas essa lista de perguntas & respostas do NY Times coleta as informações relevantes.

Sinais de nova física?

Hoje William Marciano, Alberto Sirlin e Massimo Passera tornaram pública uma análise sobre possíveis indicações de nova física na medida do momento magnético do múon. Esse parâmetro foi medido com enorme precisão pelo experimento E821 no acelerador de partículas RHIC do Brookhaven National Laboratory, em Upton, Nova York. O resultado experimental é


onde  é a massa do múon. O valor teórico calculado do Modelo Padrão é


Há uma pequena diferença do valor experimental para o teórico, de 302(88) × 10-11, i.e. 3.4σ. O valor teórico é constituído de três contribuições, de processos que incluem 1) apenas léptons e fótons, 2) os bósons W e Z, 3) hádrons. Neste recente artigo foram analisados possíveis erros de cálculo teórico da contribuição 3). No entanto, esses cálculos atrelam um valor máximo para a massa do Higgs (em outras palavras, são sensíveis a quão pesado o Higgs é) . Por outro lado, as buscas experimentais diretas do acelerador de partículas LEP do CERN indicam que a massa do Higgs deve ser maior que 114 GeV/c2. Dessa forma é possível determinar uma janela dos valores possíveis da massa do Higgs usando o resultado do LEP e do momento magnético do muon. Os autores então mostraram que se permitimos modificações nos cálculos teóricos para o momento magnético, o valor máximo da massa do Higgs fica menor que 133 GeV/c2, muito próximo do valor mínimo. Em uma dessas estimativas de mudança de cálculo, a conclusão seria que o Higgs não existe — o valor máximo fica menor que o valor mínimo —, contradizendo as hipóteses do cálculo.
Pode ser que de fato há um erro no cálculo e a massa do Higgs esteja no intervalo (114,133). Marciano, Massimo e Sirlin, que são profissionais de enorme experiência com cálculos desse tipo, entendem que isso é pouco provável. Todavia se não há erro no cálculo, o momento magnético do muon sinaliza que há efeitos novos que ainda não foram levados em consideração, tais como a supersimetria.
Se essa discrepância indica ou não evidência para nova física além do Modelo Padrão ainda era uma questão polêmica até uns anos atrás, mas essa análise recente parece colocar a evidência de nova física mais plausível.

LHC atrasará por cerca de dois meses

A notícia oficial saiu hoje. O LHC teve um vazamento no sistema criogênico e deve ter um atraso de pelo menos 2 meses, então nada mais da primeira colisão ser realizada em algum momento de outubro. sad

O único comentário pertinente é o seguinte: isso é absolutamente normal. Quando o LHC estava em construção, parte dos imãs supercondutores falharam causando atrasos. Em qualquer experimento em ciência, boa parte do trabalho consiste em resolver problemas e dificuldades inesperadas que vem ao longo do caminho. O problema anterior e este novo são apenas dois exemplos das dificuldades tecnológicas envolvidas quando se tem o maior sistema criogênico jamais realizado. 

Mestres viram doutores e são demitidos

Segundo uma matéria da revista Valor Econômico, aparentemente no Brasil dos últimos anos professores de universidades particulares foram demitidos depois de fazerem um curso de pós-graduação. O presidente do sindicato das particulares, H. F. Figueiredo, explica porque isso acontece:


O número de doutores depende do programa pedagógico de cada instituição, a universidade é como qualquer empresa, há uma avaliação de desempenho, não publicou durante o ano, será dispensado.

Isso não parece ser verdade. Por exemplo, o CNPq mostra que, excetuando-se a PUC, nem 1% de toda produção científica do Brasil financiada pelo órgão é realizada nas universidades particulares (a PUC-RJ com 2,4%). Segundo artigo da Folha de S. Paulo de uns anos atrás, a grande maioria dos professores de universidades particulares dão em média 40h semanais de aula, alguns até mais. Portanto, as universidades particulares de modo algum vêm contratando com base na produção científica, intelectual ou artística. Não faz nem sentido: se elas só contratam 1/3 de pessoas com pós-graduação, 2/3 do seu corpo docente nem se quer tem a qualificação intelectual para produzir material publicável. A Unip é uma das maiores universidades do Brasil, se 1/3 do seu corpo docente estivesse sendo mantido com base em excelência de publicações, a universidade já teria figurado no Times Higher Educational Supplement ou no Academic World Ranking, mas isso não aconteceu. Como profissional incipiente na área de pesquisa, eu posso assegurar que nunca vi um único artigo científico que foi publicado por um pesquisador da Unip. Se existe algum, precisa de muita experiência em pesquisa para acabar vendo (1 em um milhão?).
FIgueiredo também diz:

Uma universidade numa cidadezinha de Tiririca da Serra não tem condição de contratar um doutor por tempo integral para pesquisar e em nenhum lugar está escrito ou provado que um doutor é melhor professor do que um profissional com experiência.

Dois problemas com esse comentário. Primeiro, se você tem uma universidade que diz que oferece um curso de medicina, é melhor que você realmente possa ensinar medicina. Isso inclui ter laboratórios de química, biblioteca equipada, cadáveres indo para as aulas de cirurgia, material cirúrgico, vários outros equipamentos didáticos, e professores qualificados. Se você quer ter uma universidade em Tiririca da Serra, você deve transferir todo o equipamento necessário para isso, e não apenas abrir um prédio com título de universidade que depois formará profissionais sem a qualificação necessária.

Segundo, um doutor em particular pode não ser melhor professor, mas se você tem alguém interessado em ser um bom professor, agregar maior qualificação, experiência e conhecimento só irá melhorar a educação. Se olharmos para as universidades mais bem sucedidas no mundo, veremos que há uma forte correlação entre a qualificação do corpo docente e o sucesso do corpo discente.



O mais curioso de tudo isso é que não parece que esse estilo adotado pelas universidades particulares no Brasil ajuda em nada a fazer o faturamento da universidade ser melhor. Não quero soar pretensioso ou arrogante, mas tenho que usar os exemplos que conheço bem. Segundo os jornais de televisão (entendendo ai que pode estar errado), o vestibular da USP é um (ou o mais) concorrido de universidades do país, a média de todos os cursos é 12 c/v. A USP é a mais procurada em São Paulo por que tem uma boa imagem de instituição universitária, totalmente devida a qualificação e a produção intelectual, científica e artística dos professores residentes, mais o resultado de vários dos seus ex-alunos que figuram em quadros de liderança nacional do governo, empresas, produção tecnológica e artística. Muitos que tem alta renda e passam na USP e em uma particular, escolhem a primeira. Isso se comprova pelos dados da própria USP, que mostra que a maioria dos matriculados são de alta renda: uma única rua da região nobre de São Paulo tem mais alunos na USP que todo distrito sul da cidade. Provavelmente a mesma lógica se aplica nos demais estados da federação: se há uma universidade de impacto científico, artistico e cultural, essa atrai mais estudantes (em geral, são as públicas, federais e estaduais, e atraem também alunos de alta renda). As particulares, com sua política de educação como loja de 1,99 — para usar uma comparação feita por um colega — só tem uma imagem denegrida: a má boca diz que o vestibular é fácil, e agora mais essa, se o professor for bom demais, é demitido por excesso de qualificação. As prioridades gerais das universidades particulares no Brasil podem até mantê-las economicamente viáveis a curto prazo, mas não tem como resultar em melhor faturamento a longo prazo, uma vez que a universidade continuamente perde prestígio, ao invés de ganhar. As duas universidades com maior capital do planeta são particulares: Harvard e Yale (respectivamente 37 e 23 bilhões de dólares), porém imaginem se na fundação do departamento de física de Yale eles tivessem decidido demitir o Josiah W. Gibbs depois que ele adquiriu o doutorado em física matemática. Para ser contratado hoje em dia em uma universidade destas é necessário, no mínimo, vários pós-doutorados, ou uma produção científica excepcional, e ainda assim, são universidades muito mais ricas que qualquer particular (ou pública) no Brasil.

Sem Deus

Steven Weinberg escreveu recentemente para o The New York Review of Books sobre religião: Without God.  Para quem gostar desse artigo, o Weinberg publicou uns anos atrás um livro com uma coleção de ensaios sobre ciência e suas adversárias culturais: Facing Up (desconheço se há edição em português). Vale a pena! cool


Fiquei sabendo desse artigo pelo meu colega Daniel Ferrante, do It's Equal but it's different.

A origem da gravidade

O que causa a gravidade? Em um post anterior falei sobre a relação entre a termodinâmica e os buracos negros, que parecia indicar uma relação íntima entre gravitação e termodinâmica. Na gravitação clássica, vemos que é possível fazer um paralelo completo entre as equações da Relatividade Geral e as equacões da termodinâmica. Quando se estuda um sistema quântico na presença de um buraco negro, é possível demonstrar passo-a-passo que o buraco negro é um corpo negro que emite radiação a uma certa temperatura T, portanto de fato buracos negros agem como sistemas termodinâmicos. Como a gravitação clássica "já sabia" que o buraco negro deveria se comportar como um sistema termodinâmico?

Uma possível resposta para essa pergunta foi formulada por Ted Jacobson, da Universidade de Maryland, em 1995 [1]. Como vimos antes, observadores acelerados podem emitir luz para regiões mas não podem receber sinais de luz delas. Para todos efeitos, essa região, parte do chamado horizonte de Rindler de um observador acelerado, age como um buraco negro, mesmo na ausência completa de matéria e gravidade. Vimos que na mecânica quântica é possível fazer um cálculo que mostra que o vácuo de um observador inercial é um corpo negro cheio de partículas quando visto por um observador acelerado, com uma temperatura T proporcional a aceleração do observador. Isso levou Jacobson as seguintes considerações: imagine que um observador dentro do seu cone de luz em IV (ver Fig. 1) supõe que as regiões I e III onde vivem observadores acelerados são um sistema termodinâmico com temperatura T proporcional a aceleração da órbita de um observador acelerado imediatamente fora do cone de luz — ou seja, consideramos o limite em que a órbita acelerada coincide com as linhas do cone de luz [2]. Daqui para diante, vamos nos referir então a essas regiões como sistema, simplesmente.


Fig. 1: Diagrama t-x do movimento de um observador acelerado. As linhas tracejadas determinam o interior do cone de luz (regiões II e IV) de um observador inercial que esteja parado na posição x = 0. A linha sólida é um exemplo de uma trajetória de um observador acelerado, como visto no referencial do observador inercial parado em x = 0. O vetor u é a velocidade do observador, e o vetor a é a sua aceleração. (C. Misner, K. Thorne, J.A. Wheeler, Gravitation, Freeman Co., sem permissão)


Adote como válida a primeira lei da termodinâmica para o sistema:


que diz que a variação de energia interna  de um sistema em um determinado processo termodinâmico é igual ao calor recebido pelo sistema , onde é a variação da entropia no processo e a temperatura do sistema. A medida que o tempo passa, partículas do cone de luz IV podem cruzar o cone de luz e ir parar nas regiões I e III, e vamos considerar isso como uma transferência de energia para o sistema. Em Relatividade, podemos associar qualquer fluxo de energia e momento com uma certa quantidade denotada por  (o tensor de energia-momento), que vamos naturalmente identificar como parte de . Usando a hipótese de que a variação da entropia é igual a variação da área do cone de luz, então a equação da primeira lei da termodinâmica pode ser reescrita de forma a dizer que deve haver uma distorção dos cones de luz, uma contração ou expansão, dependendo do fluxo de energia . Com um pouco de trabalho e muita perspicácia, essa equação da termodinâmica pode ser resolvida com a equação da Relatividade Geral que relaciona o campo gravitacional com a matéria


Vista desse ponto de vista, a Relatividade Geral é a equação de equilíbrio termodinâmico entre espaço-tempo e matéria. Isso sugere que a gravidade é um efeito macroscópico, resultado da interação de partículas com os cones de luz da Relatividade Especial, e não uma força fundamental da Natureza. 

A idéia de Jacobson é muito atraente por diversas razões. Ela responde a origem da relação entre termodinâmica e gravidade: seria uma identidade. O problema da quantização da gravidade desaparece: sendo a gravidade um efeito macroscópico, um limite termodinâmico, ela não existe microscopicamente, portanto não faria sentido discutir a descrição quântica da gravitação.

Contudo, a idéia não é conclusiva ainda. Não há nenhuma justificativa para a proporcionalidade entre e a variação da área do cone de luz. Na demonstração de Jacobson (ou qualquer outra versão do mesmo argumento) isso é uma hipótese que ainda precisa ser verificada como válida. A motivação dessa proporcionalidade é, naturalmente, a termodinâmica de buracos negros, porém mesmo nesse caso essa relação não tem uma demonstração (é apenas uma identificação por analogia). 

A questão é que não se pode ainda usar as técnicas da teoria da informação para calcular as entropias desses supostos sistemas termodinâmicos do espaço-tempo. Como vimos, a entropia é uma medida de falta de informação. Como horizontes bloqueiam observadores de obter acesso a regiões do espaço-tempo, eles são candidatos naturais a ter entropia: eles escondem informação sobre tudo que acontece dentro deles. Mas exatamente que informação está faltando? No caso de um gás de partículas, nós sabemos: são as posições e velocidades de cada partícula que não foram medidas. E no caso de buracos negros ou do horizonte de Rindler?

Para o caso de buracos negros é um completo mistério. É ainda mais complicado porque a noção de entropia como desordem para buracos negros é falha, e também a noção de que a entropia contaria graus de liberdade internos tem se mostrado confusa. O interior de um buraco negro pode conter inclusive um universo inteiro (a chamada solução de Oppenheimer-Synder) que tem infinitos graus de liberdade internos. Não parece que podemos obter qualquer resposta finita para a entropia de um buraco negro se esta estiver associada a graus de liberdade. Para o horizonte de Rindler é menos complicado, em especial porque é possível demonstrar que de fato o vácuo do observador inercial tem uma entropia S associada a ele quando visto de um observador acelerado, mas como mostrar que essa entropia é proporcional a área do cone de luz ainda é um mistério.

Essa é portanto a história do que sabe até o momento a respeito do problema dessas curiosas relações entre a gravidade e a termodinâmica. Um terreno fértil para idéias novas, onde muita coisa ainda precisa ser esclarecida.


Nota
  1. Jacobson, Ted. Phys. Rev. Lett. 75, 1260-1263 (1995), arxiv:gr-qc/9504004.
  2. Esse limite é possível porque a órbita de um partícula acelerada tende ao cone de luz no limite em que a aceleração vai a infinito.

Google Hoje



laughcool

Observatório da Imprensa

De longe venho observando a frenesi que tomou conta repentinamente da mídia a respeito do LHC. Físicos profissionais e estudantes como eu que já estão a anos envolvidos com a ciência do LHC devem estar em parte felizes, mas em parte muito tristes (eu certamente estou confuso). A felicidade, naturalmente, é de ver a nossa paixão repentinamente causar tamanho interesse, e claro, há boas razões: o LHC poderá revelar o mecanismo físico por de trás da massa dos bósons W, Z e possivelmente dos léptons e quarks; poderá abrir a porta para compreensão de porque a escala eletrofraca (102 GeV) é tão pequena em comparação com a escala gravitacional (1019 GeV); poderá descobrir se o universo tem mais que 3 dimensões espaciais, sendo as dimensões extras de tamanho subatômico; poderá revelar se a Relatividade Especial é apenas um pedaço de uma simetria ainda maior na Natureza chamada supersimetria; poderá finalmente produzir em laboratório a matéria escura, que é responsável por cerca de 25% de toda a densidade de energia do universo; poderá produzir mini-buracos negros que permitiriam estudar finalmente efeitos da gravidade na mecânica quântica, como a radiação Hawking. Enfim, estamos todos muito excitados!


Mas a tristeza é ver que o interesse repentino da mídia em nada tem a ver com as boas razões que mencionei acima. Quase totalidade dos programas de TV e publicações de jornais e revistas sobre o LHC vem distorcendo a ciência. cry

Primeiro, são passagens como:

O lançamento é o maior experimento da história da física para entender a origem do universo. (Yahoo Notícias)

Cientistas testam com sucesso máquina que tenta reproduzir o Big Bang (Folha de S. Paulo)

'Máquina do Big Bang' só deve produzir resultados em 2009 (Globo Notícias)


Uau! Os físicos vão fazer um Big Bang em laboratório e outros absurdos. E pior: mesmo alguns físicos de partículas ajudaram essa propaganda.angry

Na realidade, de modo algum o LHC é um simulador de Big Bang no sentido literal do termo, então a mídia deveria tomar muito cuidado, principalmente na escolha da manchete. Para começar, o universo primordial é composto por altíssima densidade de uma sopa primordial de partículas elementares de vários tipos interagindo umas com as outras e com um campo gravitacional. O LHC não é um simulador de Big Bang: ele reage apenas feixes de prótons a baixa densidade e na ausência de um campo gravitacional — portanto, condições muito diferentes do universo primordial —, e tampouco ele "simula um Big Bang" no sentido da criação do universo propriamente dita. Contudo, de fato os experimentos poderão talvez ajudar na compreensão do universo primordial. Por exemplo, o LHC talvez possa descobrir matéria escura e obter as taxas de reações dessas partículas. Isso pode acontecer se o LHC descobrir a supersimetria e medir parte dos parâmetros do modelo supersimétrico. Nesse caso, poderemos utilizar os resultados experimentais do LHC para estudar a produção da matéria escura no início do universo (contas que na realidade já foram feitas!). O LHC também poderá fornecer a explicação para o problema da assimetria matéria-antimatéria no universo, dependendo se for possível medir efeitos da chamada violação carga-paridade (CP) em partículas novas (a serem descobertas do LHC). Em poucas palavras, o que o LHC estuda são reações na escala de 10-16 cm, que então podem ser usadas para fazer contas no modelo do Big Bang sobre a produção de partículas que foram descobertas no LHC, igual como se usa física nuclear para calcular a nucleossíntese primordial. Nesse sentido, o LHC é tanto "máquina do Big Bang" quanto qualquer acelerador de núcleos dos anos 30. Mas pouco aprenderemos sobre o Big Bang propriamente dito, isto é, o modelo de criação do universo usado na Relatividade Geral. O LHC estudará uma faixa de energia que já é sabido ter pouca importância para a Cosmologia (a chamada transição de fase eletrofraca). O LHC entra apenas fornecendo as partículas que devemos colocar dentro do Big Bang.

Segundo, é essa insistência infundada de mencionar os tais cenários de destruição da Terra, que aparece em praticamente todos os jornais:

Alguns céticos disseram temer que a colisão dos prótons pudesse provocar o fim do mundo. (Agência Reuters)


Opa, céticos? Não, lunáticos, é bem diferente. Você chamaria de cético alguém que diz que a gravidade não existe, e que não precisa ter medo de cair da beirada de um precipício? Não, né? Mesma coisa.

Também há algumas imprecisões aleatórias, como

Os cientistas esperam fornecer a força necessária para romper os componentes dos átomos a ponto de ser possível ver como eles são feitos. (Yahoo Notícias)


Falso, a estutura dos átomos já foi "quebrada" faz décadas. E continuando na mesma notícia:

O experimento deve repetir trilhões de vezes o momento ocorrido cerca de 15 bilhões de anos atrás quando, conforme crêem os cosmólogos, um objeto incrivelmente denso e quente do tamanho de uma moeda explodiu, expandindo-se rapidamente para criar as estrelas, os planetas e, um dia, a vida na Terra.


O que só serve para difundir conceitos errados sobre o Big Bang.cry

Daí eu fico triste: a cobertura da mídia está se focando em 1) a idéia, que chama realmente muita atenção, de que o LHC "simula um Big Bang" (falso!) e 2) a possibilidade do LHC destruir o planeta, ao invés de estar focada nas várias boas razões para o LHC que mencionei no início do post, e que são as verdadeiras razões que levam quase todos os físicos a apoiarem o experimento. A verdadeira motivação para o LHC se resume nisso: podemos entender que todos seres vivos macroscópicos são compostos de células, as células de substâncias químicas, as substâncias químicas de átomos, os átomos de prótons, nêutrons e elétrons, os prótons e nêutrons de quarks, e agora queremos saber ainda mais sobre a natureza dos quarks, elétrons e outras partículas que compõe tudo que existe no Universo. Queremos saber onde vai parar essa cadeia de explicações, "tudo é feito de ..."  para poder entender o Universo.cool

Poderemos ver o efeito Hawking finalmente?

Ontem tomei conhecimento de um promissor trabalho recente de Katherine Mack (U. Princeton) e Daniel Wesley (DAMTP, Cambridge) onde uma análise detalhada foi feita da possibilidade de observar a radiação Hawking.


Para começar a história, [era uma vez] olhamos a época do universo logo depois que a radiação cósmica de fundo deixou de estar em equilíbrio térmico com os elétrons e prótons (instante em que isso acontece é chamado de superfície de último espalhamento), quando o hidrogênio, hélio, a matéria escura, começaram a se aglutinar pela atração gravitacional para a formação das primeiras estrelas e galáxias. Essa época do universo é chamada de Idade das Trevas, pois a matéria não estava emitindo luz espontaneamente, e por isso parecia pouco provável que se obteria informação através de medidas astronômicas sobre o que ocorreu nessa etapa de evolução do cosmos. Porém, uma idéia antiga parece ter se tornado viável de observar com a tecnologia atual, que consiste em usar uma certa emissão eletromagnética do átomo de hidrogênio com comprimento de onda de 21 cm, chamada em surto de criatividade, de linha 21 cm.

Pois bem, as características da emissão dessa onda eletromagnética pelo hidrogênio no universo primordial depende de forma muito sensível da temperatura do meio intergalático (que contém hidrogênio). Segundo os cálculos de Mack e Wesley, se já existiam buracos negros mesmo antes da formação das galáxias com massas entre 5× 1010kg — mil vezes menor que o cometa Halley, bem mais leve que a Terra ou a Lua — e 1014 kg, a emissão de fótons e elétrons-pósitrons por radiação Hawking destes buracos negros reaqueceria o hidrogênio de forma a criar uma pequena e observável diferença na emissão da linha 21cm na Idade das Trevas. Dessa forma, no futuro, talvez seja possível finalmente observar a radiação Hawking!

Os experimentos propostos atualmente não teriam sensibilidade ainda suficiente para observar o efeito, mas uma segunda geração mais precisa, como estimado pelos autores, seria. Eles fazem a estimativa imaginando uma atualização de um dos experimentos já propostos, o Square Kilometer Array (SKA), previsto para começar em 2012. Se esta atualização é possível mesmo é complicado determinar nesse momento.

E claro, há uma hipótese grande extra aqui: a formação de buracos negros por um processo que não é o colapso gravitacional de estrelas (lembre: estes aqui se formaram antes das galáxias e estrelas). Modelos que prevém a existência destes buracos negros existem, então é uma excelente idéia ir buscar esses monstros nos dados da rádio astronomia, e quem sabe fazer uma descoberta fundamental sobre a gravidade. cool

Novo documentário fala sobre a caça ao Higgs no Fermilab

Veja o trailer:

http://137films.org/films/theatomsmashers/trailer.php

Pelo que entendi, é um documentário focado sobre a caça ao Higgs no Fermilab. Contém informações sobre o funcionamento do acelerador, física de partículas e também debate a política de incentivo a pesquisa. Em abril desse ano eu tive a oportunidade de assistir a palestra de uma das pessoas que trabalha nessa investigação, o Ben Kilminster, que aparece no documentário (andando de patins e atrás de um quadro branco). Ficou claro que o Fermilab tem muito pouca chance de detectar o Higgs: o ruído é grande demais, a remoção deste atualmente é confiada numa rede neural, e vai demorar ainda mais dois anos para eles chegarem a ter sensibilidade suficiente para poder excluir o Higgs do Modelo Padrão.

Descobridores do grafeno ganham prêmio

http://physicsworld.com/cws/article/news/35665

Andre Geim e Kostya Novoselov da Universidade de Manchester, Inglaterra, receberam o prêmio de €10.000 da Sociedade de Física da Europa pela descoberta do grafeno em 2004. O grafeno é uma folha de átomos de carbono de apenas 1 átomo de espessura, e atraiu grande interesse quando foi descoberto em 2004 porque é possível montar um certo tipo de transistor com o material onde os elétrons se movem mais rápido do que no silício. Ano passado, um grupo liderado por Charles Marcus em Harvard construiu a primeira junção p-n de grafeno, que é parte do esquema necessário para um transistor. Os físicos dessa área estão dizendo que talvez estejam em face ao desenvolvimento de novos transistores comerciais mais rápidos que os atuais.

O Efeito Unruh

Continuando as postagens sobre termodinâmica do espaço-tempo, essa é sobre uma descoberta curiosíssima devida a Bill (William) Unruh em 1976, um ano depois da descoberta da radiação Hawking [1].

Existência de partículas depende do observador


Nós temos uma noção intuitiva do que é uma partícula, porém somente em 1939 que Eugene Wigner deu uma definição matemática concreta para o que é uma partícula [2]. A definição matemática eu vou deixar de lado aqui, e notar apenas duas coisas importantes:

  1. O conceito depende explicitamente de uma escolha de coordenada de tempo [3]. Para a simetria de Galileu, como aquela presente nas leis de Newton, isso não é um problema, pois todos os observadores do universo concordam que o intervalo de tempo entre dois eventos físicos é o mesmo. No entanto, isso só é verdade como uma aproximação. Por exemplo, suponha que há vários múons sentados (em repouso) em cima da mesa onde está o seu computador. Com relação ao relógio do computador, os múons decaem radioativamente em média de 10-6 segundos. No entanto, quando estamos observando múons vindo a alta velocidade da alta atmosfera em direção ao chão — agora estamos vendo os múons do referencial em que estão em movimento — eles vivem mais que 10-3 segundos (isso é um fato experimental). Assim, dois observadores diferentes não concordam entre quanto tempo leva para um múon decair.

  2. Uma vez feita a identificação matemática do que significa uma partícula, pode-se introduzir um observável que conta quantas partículas existem no sistema. Com isso pode-se calcular, por exemplo, quantos elétrons N(θ) em média devem ser encontrados em um certo ângulo θ no experimento do espalhamento Compton dentro de uma certa área A naquele ângulo vista a uma certa distância r de onde ocorre o espalhamento. A concordância entre o cálculo e o efeito associado a "encontrar um elétron naquele ângulo" é perfeita [4].

Por causa que dois observadores diferentes não necessariamente concordam com o intervalo de tempo entre dois eventos físicos, eles também não conseguem concordar sobre a existência de partículas. Em 76, Bill Unruh mostrou, por exemplo, que se o observador S mede o universo no estado de vácuo, ou seja, ele tem que o número de partículas no universo é zero, então qualquer observador que se move com relação a S com uma aceleração a mede N no universo como sendo diferente de zero, para K o universo está completamente preenchido de partículas em equilíbrio térmico e na temperatura 


Se concordamos então que o que chamamos de N mede o número de partículas no experimento do efeito Compton, somos obrigados a concordar que o valor de N em um determinado estado fixo depende do observador. 

Essa é uma previsão direta da mecânica quântica, sem firulas. Ela não pôde ser ainda confirmada porque a temperatura é muito baixa para acelerações razoáveis [5]. 

A conclusão, portanto, é a seguinte: se o universo estiver vazio (sem nenhuma partícula) como visto por um observador inercial, então um observador acelerado em relação a este referencial percebe o universo como um corpo negro de temperatura proporcional a aceleração.

Se o espaço e o tempo tem uma temperatura associada, então talvez tenham uma entropia. Como isso é possível? O espaço e o tempo vazio tem uma temperatura e entropia?

Horizonte de Rindler


O segredo está no que acontece com o observador acelerado.


Diagrama t-x (C. Misner, K. Thorne, J.A. Wheeler, Gravitation, Freeman Co., sem permissão)

No diagrama, a curva grossa é a trajetória t(x) de um corpo com aceleração constante a. Nesse diagrama, a velocidade da luz tem valor 1. Sendo assim, as linhas retas t = x + b, t = -x + b são as linhas por onde a luz se propaga. Qualquer sinal físico entre um ponto a outro só pode ser transmitido com inclinação igual ou maior que 1. Portanto, qualquer sinal emitido na região II jamais chega ao observador acelerado, mas o observador pode enviar sinais para essa região. Sinais na região IV podem atingir o observador, mas ele não pode emitir sinais para essa região. A região III está completamente incomunicável com o observador, para qualquer tempo futuro. Sendo assim, um observador acelerado, por causa da finitude da velocidade da luz, não tem como obter informação sobre todo o espaço-tempo. Qualquer raio de luz que ele vê passar para a região II jamais retorna. Nesse sentido, as linhas tracejadas que delimitam a interface entre as regiões I, IV e II definem um horizonte de eventos para o observador acelerado, similar (mas não idêntico) ao horizonte de eventos de um buraco negro. Então parece que a termodinâmica de buracos negros é só a ponta do iceberg da relação entre Termodinâmica e espaço-tempo.

Agora já temos parte dos conceitos necessários para entender que parece existir uma relação íntima entre a Termodinâmica e a própria Relatividade Geral. Isso fica para um próximo post, quando vou falar sobre teoria de informação aplicada aos horizontes de eventos e a descoberta de Ted Jacobson de que a Relatividade Geral é uma equação de estado da Termodinâmica.


Notas e referências
  1. W. G. Unruh, Phys Rev D 14, 4, 870 (1976).
  2. E. P. Wigner, Ann. Math. 40 149 (1939).
  3. Para benefícios dos físicos que porventuram estiverem a ler isso: uma partícula é definida como um auto-estado de H e P, e H é definido como o gerador de translações temporais U(t). Escolhas diferentes da coordenada t representam escolhas diferentes do operador H.
  4. E.g. R. P. Singhal, A. J. Burns, Am. J. Phys. 46, 6, 646 (1978).
  5. George Matsas e Daniel Vanzella, que são experts nessa área, afirmam que não faz sentido buscar testes experimentais da radiação Unruh (Int.J.Mod.Phys.D11:1573-1578,2002; ou arxiv:0710.5373). O argumento deles: embora a escolha de partículas depende do referencial, a descrição é completamente covariante, portanto sempre é possível escolher um referencial em que o efeito Unruh desaparece. Isso é verdade, mas discordo que isso signifique não ser necessário medir o efeito: é importante demonstrar experimentalmente que a nossa definição de partículas, que leva a definição do número de ocupação N, realmente concorda com a realidade da Natureza, independente da escolha de referencial. O efeito de fato é automático, é uma previsão da teoria, mas precisa ser testado como qualquer outro efeito.

Informação e entropia

Eu comentei antes brevemente sobre informação e entropia, mas não dei uma explicação satisfatória. Aqui eu pretendo explicar melhor para semana que vem continuar a falar sobre a termodinâmica do espaço-tempo. 



Medida de informação


Suponhamos que queremos definir objetivamente o conteúdo de informação de uma mensagem. Para isso vamos definir uma medida de informação. Em matemática, medida pode ser definida de forma axiomática e abstrata, todavia por aqui vamos apenas nos conformar com o fato de que volume de um sóido, área de um polígono e comprimento de uma curva são exemplos de medidas. Queremos então uma fórmula para o volume de informação que uma mensagem tem. Esse problema surgiu pela primeira vez na engenharia de comunicação, e foi resolvido na tese de doutorado de Claude Shannon. Nós sempre podemos formular o problema da seguinte forma: considere um canal de comunicação que transmite mensagens em um certo código (e.g. binário/digital, ou Morse, ou a modulação da freqüência de ondas eletromagnéticas), e estamos escutando o canal em uma ponta, esperando chegar mensagens. Cada mensagem m tem uma certa probabilidade pm de ser recebida. Nós queremos que a quantidade de informação de uma mensagem m seja uma função Im = I(pm), , com as seguintes propriedades:
  1. I(1) = 0, ou seja, se já sabíamos que a mensagem seria recebida (a mensagem tem probabilidade 1), nenhuma informação foi ganha.
  2. I é decrescente no intervalo [0,1], ou seja, quanto menos achávamos provável receber a mensagem, mais informação ganhamos ao recebê-la.
  3. Se recebemos duas mensagens (estatisticamente independentes) em sucessão, a quantidade de informação ganha é a soma da informação contida em cada mensagem: I(pq) = I(p) + I(q).
É um problema de cálculo determinar a função I das hipóteses 1-3. Você pode escrever a equação diferencial que satisfaz (3) usando (1) como condição inicial. A resposta é

I(p) = -k log p

para uma constante arbitrária k. No caso da comunicação digital, é conveniente definir k de modo que

I(p) = -logp

pois assim a quantidade informação continda numa mensagem de N  bits é I(1/2N) = N, de acordo com a nossa intuição.


Falta de informação média e entropia


Rede de spins
Agora considere o caso de uma linha de átomos, cada átomo com um momento magnético que pode apontar para cima ou para baixo, ou então uma seqüência de moedas, cada uma podendo estar na posição cara ou coroa. Em princípio, um experimentador poderia medir simultaneamente a direção de todos os spins da cadeia, ou fotografar a seqüência de moedas por inteiro. Isso permitiria determinar completamente o estado do sistema, que vamos chamar estado microscópico. Se a cadeia se organiza aleatoriamente (ou as moedas foram todas jogadas aleatoriamente para cima antes de cair no seu lugar na seqüência), então para cada estado possível m da cadeia há uma probabilidade pm do experimentador encontrar a cadeia naquele estado. Observe que não precisamos supor nada sobre essa distribuição de probabilidades: pode ser que a chance de obter cara seja 1/2, mas pode ser que seja 1/6 (moeda enviesada). O único requisito é que 

 

ou seja, as probabilidades estão normalizadas para 100%. Se o experimentador deixou de medir a cadeia de spins no estado m, então a quantidade de informação perdida é dada por

Im = -k log pm

Portanto, a quantidade média de informação perdida do sistema se o experimentador não realizar nenhuma medida, é

 

Suponha que o sistema pode ser encontrado em um total de W estados, o que na física é chamado de o espaço de fases do sistema. Para o nosso sistema de spin ou moedas, W = 2N (a determinação de W é um problema de combinatória smile). Agora queremos saber qual é a quantidade máxima de informação que perdemos por não termos realizado nenhum dos possíveis experimentos que determina o estado microscópico do sistema. Isso é um problema de cálculo que no Brasil é apresentando em geral no curso universitário Cálculo II: encontrar o máximo da função de várias variáveis pm. Isso permite determinar qual a distribuição de probabilidades sem assumir nenhum conhecimento prévio sobre o sistema. De acordo com a intuição, essa distribuição deveria ser p = 1/W, e de fato é esse o resultado do cálculo [1]:


que é a fórmula de Boltzmann. Como prometido, esta ai demonstrado matematicamente que entropia é a quantidade de informação perdida quando deixamos de fazer todas as medidas possíveis que determinariam o estado microscópico do sistema. Da definição de S dada pela equação acima podemos demonstrar todas as suas propriedades, como concavidade (a segunda lei da Termodinâmica), extensividade, etc.


O significado informacional da temperatura, pressão e potencial químico


Toda a Termodinâmica é um caso particular de um problema matemático da teoria de informação. Na Termodinâmica dos gases, por exemplo, nós temos um sistema físico composto de N partículas, cada partícula com uma energia ε, e todas as partículas juntas ocupam um volume total V. Nós poderíamos, em princípio, medir experimentalmente a posição e a velocidade de cada partícula. Mas como em um gás há ~ 1023 partículas, isso seria uma tarefa hercúlea. No lugar disso, nós vamos dizer que as partículas podem estar com uma certa distribuição de probabilidades com uma dada velocidade e posição, e a única coisa que sabemos é o valor estatístico médio de certas variáveis. Por exemplo,


que é o valor médio estatístico da energia. Nós não sabemos a priori qual a probabilidade pn do sistema ter energia En. Nesse caso, a quantidade máxima de informação perdida (para não assumir nenhum conhecimento que não possuímos sobre o sistema) precisa ser calculada levando em conta que já sabemos o valor médio da energia, do volume e o número de partículas do sistema. Isso é o que se chama de um cálculo de maximização com vínculos. Lagrange mostrou que nesse caso vai existir um conjunto de parâmetros, chamados os multiplicadores de Lagrange, um para cada vínculo do sistema. O vínculo da energia introduz um parâmetro que é chamado de temperatura, o do volume, pressão, e o número de partículas, potencial químico. A temperatura de um sistema é o multiplicador de Lagrange da falta de informação máxima dada a energia fixa do sistema. [2]



Nota final: revisitando entropia e desordem, e matando de vez por todas o clichê criacionista


Como expliquei no blog antes, o sistema magnético é um exemplo de sistema onde maior entropia significa maior ordem (e não desordem). Primeiro, vou explicar com outras palavras para que fique mais claro.

Considere um gás ideal com N partículas em um recipiente V. Pela fórmula da entropia,
, onde f é uma função de outras variáveis que não nos interessam no momento. Você nunca vai encontrar o gás em um volume V/2, porque , e a segunda lei da termodinâmica diz que dados os vínculos do sistema, ele assume os valores de temperatura, pressão, etc., de modo que S seja máxima. É possível dar uma interpretação intuitiva para isso, dizendo que se o gás ocupasse um volume V/2 ele estaria "mais organizado" do que se ele ocupasse um volume V. Sem precisar continuar, no entanto, eu posso agora mesmo apontar uma falha nessa interpretação. Observe que a entropia de V/2 é menor que V independente de como as partículas estão distribuídas. Em geral, as pessoas imaginam que V/2 seria algo como todas as partículas ocupando uma parte a esquerda (ou a direita que seja) do recipiente. Mas se todas as partículas estivessem ocupando um fractal maluco de volume V/2 dentro de V, a entropia do volume V/2 ainda seria a mesma. Mas vamos ignorar isso. Vamos aplicar a mesma lógica aos imãs. Nesse caso, se o sistema tem uma magnetização M (que é o campo magnético do imã) não nula, então o sistema tem que ter uma ordem parcial dos spins: eles precisam estar  em média estatística ordenados apontando na direção do campo total M, que nada mais é que a soma dos spins de todos os átomos. E para a temperatura abaixo da temperatura de Curie (i.e. quando o imã existe!), esse é o estado de equilíbrio do sistema. Portanto, , pela segunda lei da Termodinâmica. Mas o estado com M = 0 é exatamente o estado mais desordenado, onde os spins apontam aleatoriamente sem nenhuma correlação entre eles. Não estou comparando aqui um estado de equilíbrio com outro estado de equilíbrio (não é assim que se faz a maximização de S), estou imaginando que o sistema estava inicialmente em uma condição em que o equilíbrio era atingindo por um estado parcialmente organizado (como tem que ser se M for não nulo, ou seja, o material é um imã), e fazendo um "deslocamento virtual" para um estado em que ele está mais desorganizado. A probabilidade de encontrar o sistema no estado mais desorganizado vai a zero, a medida que o sistema é mais desorganizado (do mesmo modo que encontrar um gás com todas as partículas num cubo de volume V/2 na metade de um recipiente retangular de volume V tem probabilidade zero).

Isso mostra que não podemos utilizar a intuição de desordem para atribuir entropia. Não podemos dizer, por exemplo, que a molécula de DNA em meio aquoso possui menos entropia que os nucleotídios separados em meio aquoso. Para poder determinar se a entropia do DNA é maior ou menor, precisamos fazer a conta, meu filho, e isto representa contar todos os estados acessíveis ao DNA e usar a fórmula de Boltzmann. 

Nota
  1. Na Wikipedia há um artigo que mostra como fazer esse cálculo. Você também pode aprender um pouco mais sobre teoria de informação lá.
  2. Os cálculos detalhados e uma argumentação brilhante de porque a Termodinâmica é nada mais que um problema da teoria de informação, pode ser encontrado nos artigos de E. T. Jaynes Phys. Rev. 106, 620 - 630 (1957); Phys. Rev. 108, 171 - 190 (1957), ou então no livro E. T. Jaynes, Probability Theory, ou também alguns livros de física estatística, como do Roger Balian, From microphysics to macrophysics, Springer.

Igreja universal é condenada por explorar deficiente mental

http://www1.folha.uol.com.br/folha/cotidiano/ult95u436429.shtml


Os filha da puta vivem arrumando desculpa
e motivos pra te pegar, te usar, e depois te desprezar
Te tomam tudo, a vida, a grana e a alma
E ainda querem que você tenha calma
Por isso eu vou falar (pode falar)
Vou contar (pode contar)
Sobre os filha da puta que só querem te roubar
Fundam uma igreja ora vejam, onde já se viu
Enriquecer com a fé alheia (puta-que-pariu)
E é inútil tentarmos abrir os olhos do povo
Pois se um abre os olhos, mil olhos fecham de novo.
E eles dizem que você está com o demônio,
mas o demônio habita no seu patrimônio.
E eles farão o favor de tomar toda sua grana,
porque a grana pra eles é uma coisa profana
Só que aí, o demônio vai parar com quem?
No bolso do filha da puta que fica rico dizendo amém!

(Gabriel O Pensador, fdp3)

Essa não é a primeira ação do mesmo gênero. Pessoas que doaram para a Universal, Reino de Deus, Renascer e a Igreja Católica, já entraram com processos na justiça. Uns anos atrás a Folha fez um levantamento de alguns desses processos mais curiosos. Entre eles, havia o caso de um pedreiro, que solicitou a troca de uma escada para fazer serviço numa igreja da Universal, porque a que o pastor arranjou não ia sustentá-lo. Ao que o pastor insistiu: "Se tens fé, não cairás". O pedreiro teve traumatismo e quebrou vários ossos. Processou depois a Igreja.

Esse é o primeiro que eu tenho notícia em que uma igreja foi condenada.

Em geral, no Brasil, entende-se que o contrato entre a instituição religiosa e o crente não é como um contrato de consumidor-vendedor, então mesmo que o pastor tenha convencido (como é público e notório que eles fazem para qualquer um que já assistiu os programas evangélicos de madrugada na TV) que pode resolver os problemas da pessoa de desemprego, relacionamento amoroso, familiar, uso de drogas, etc., através da participação do indivíduo nos cultos e no dízimo, e que esse problema (obviamente) não foi resolvido, a pessoa não tem nenhum amparo legal para depois reivindicar o dinheiro investido, no caso raríssimo de um surto de lucidez a tenha tomado após os acontecimentos.

A propósito, a Universal comemorou seus 30 anos no ano passado. A Folha presenteou a Igreja com uma reportagem sobre seu império econômico, mas isso não é desconhecido de ontem. Isso já vem desde aquele escândalo do líder da igreja, Edir Macedo, pego pelos repórteres do Jornal Nacional em 95 ensinando os seus pastores a explorar (oops, pedir enfaticamente e de forma convincente dinheiro a) seus fiéis. A Igreja é dona de duas redes de TV nacionais, e para lá de mais de 30 estações de rádios.

E o escândalo da Renascer? Esse é tão fresco que não precisa relembrar nada.

Ainda assim, as igrejas continuam inabaláveis.

Termodinâmica de buracos negros

Depois de um projeto que não deu muito certo para estudar a analogia entre eletrodinâmica quântica em 2 dimensões e a constante cosmológica, passei a estudar no último mês o assunto da relação entre termodinâmica e espaço-tempo, e estou achando cada vez mais pérolas sobre o assunto. Vou falar nos próximos posts aos poucos sobre o que se trata.


Tudo começou com os estudos de Stephen Hawking e alguns colaboradores sobre buracos negros. Primeiro, Hawking e independentemente dele D. Christodoulou e R. Ruffini em 1971 descobriram que a área total de um buraco negro só pode crescer ou permanecer constante. Inicialmente, a análise deles considerava a validade das equações da Relatividade Geral, porém trabalhos posteriores de Hawking, Roger Penrose e especialmente de Robert Wald, deixaram claro que isso é um fato bastante genérico de qualquer espaço-tempo onde vale uma certa condição de causalidade (chamada de hiperbolicidade global) e onde há uma certa noção de espaço-tempo incompleto (a noção de singularidade dos buracos negros), mesmo que a Relatividade Geral não seja válida.

A lei do aumento da área é curiosamente similar com a lei de que a entropia de um sistema físico de energia e volume fixos deve sempre crescer ou permanecer constante. Uma propriedade especial dos buracos negros garante que se possa definir uma noção de energia total que se conserva, em analogia com a primeira lei da Termodinâmica.  Em 1973, Hawking, J. M. Bardeen e B. Carter mostraram que havia uma analogia completa entre as quatro leis da Termodinâmica e a dinâmica de buracos negros (quatro porque inclui-se a lei zero):

a) A lei de conservação da energia de buracos negros pode ser escrita na mesma forma da primeira lei da termodinâmica,


fazendo identificações: a energia interna U é identificada com Mc2, a temperatura T é identificada com a força gravitacional em cima do buraco negro, a entropia S é proporcional a área do buraco negro e o trabalho W é identificado com o torque que provoca a alteração do momento angular. (Na fórmula acima já foi feita a aproximação quase-estática de que calor é TΔS)

b)  é   (Segunda Lei)

c) A força gravitacional na superfície do buraco negro nunca se anula, análogo a terceira lei do zero absoluto.

d) A força gravitacional na superfície de um buraco negro estacionário é constante ao longo da superfície, assim como a temperatura de um corpo em equilíbrio térmico é constante ao longo do corpo (Lei Zero).

Até 1975 esses resultados pareciam apenas simples coincidência. No artigo de 73 de Hawking, Bardeen e Carter, eles expressam claramente o sentimento deles na época:
Pode-se ver que κ/8π [a força gravitacional na superfície do buraco negro] é análoga a temperatura do mesmo modo que A [área] é análoga a entropia. No entanto, deve ser enfatizado que κ/8π e A  são distintas da temperatura e da entropia do buraco negro. De fato, a temperatura efetiva de um buraco negro é zero absoluto. Uma forma de ver isso, é notar que um buraco negro não pode estar em equilíbrio com radiação de corpo negro em nenhuma temperatura não-nula, porque nenhuma radiação pode ser emitida do buraco negro[grifo meu]

Em 1975, Hawking descobriu que eles não estavam corretos nessas afirmações. O que eles deixaram de fora eram as correções da mecânica quântica (ou mais precisamente, da teoria quântica de campos). Quando se leva em consideração a mecânica quântica, buracos negros vistos por um observador muito distante, agem como um corpo negro que emite radiação com a temperatura κ/2π. Em unidades do SI, um buraco negro eletricamente neutro de massa M sem rotação está em equilíbrio térmico a temperatura


Essa é, sem dúvidas, uma das fórmulas mais maravilhosas da Física. Esta fórmula é:
  1. Um fenômeno puramente quântico, como se vê da presença da constante de Planck
  2. Relativística, pela dependência na velocidade da luz
  3. Gravitacional, pois depende da constante da gravitação universal de Newton
  4. Resultado da mecânica estatística, como se nota pela constante de Boltzmann.
Que outro fenômeno conhecido da Física incorpora gravitação, mecânica quântica, mecânica estatística e relatividade? Eu não conheço nenhum outro!

A radiação térmica de buracos negros é conhecida como radiação Hawking. Devido a conservação da energia, a medida que o buraco negro emite radiação ele diminui gradativamente toda a sua carga elétrica, momento angular e massa, até deixar de existir por completo. Isso é um pouco misterioso na mecânica quântica, pois uma lei fundamental da teoria é a da conservação da probabilidade. Se inicialmente tivermos um sistema descrito por uma distribuição de probabilidade que está corretamente normalizada para ter área igual a 1 (i.e. a soma da probabilidade de todos os eventos possíveis é 100%) e uma parte do sistema cai no buraco negro, então após a evaporação a probabilidade engolida desaparece, violando a conservação da probabilidade. Isso é conhecido como o problema da perda de informação em buracos negros.

Mas nos próximos posts eu tentarei explorar o seguinte: a) de onde vem a radiação Hawking? Qual o processo físico que provoca a evaporação? e b) como a Relatividade Geral clássica já sabia disso? Como a teoria clássica da gravitação já corretamente incorporava a força gravitacional na superfície do buraco negro como uma temperatura associada a entropia proporcional a área?

Pesquisadores criam robô com cérebro biológico

Robô GordonPesquisadores da Universidade de Reading na Inglaterra, criaram um robô que é exclusivamente operado por um cérebro biológico. O cérebro é uma cultura de neurônios de ratos colocada numa malha em formato de disco com cerca de 60 eletrodos. Os eletrodos captam sinais dos neurônios que então são utilizados para comandar o movimento do robô. E quando o robô se aproxima de um objeto, sinais são enviados para os eletrodos para excitar os neurônios. O robô não utiliza nenhuma outra fonte de comando, seja de um computador externo ou humano. No momento, os pesquisadores estão brincando com a invenção, vendo se ele pode aprender e memorizar. Daqui a dois dias sairá uma matéria na New Scientist sobre o robô, batizado de Gordon.


Interfaces de sistemas biológicos com máquinas não é uma completa novidade, no entanto. Em 1952, Alan Hodgkin e Andrew Huxley descreveram o primeiro modelo matemático da sinapse do neurônio (mais precisamente, do potencial de ação dos canais de íons de sódio e potássio). Eles receberam o Prêmio Nobel de Medicina pelo trabalho. O modelo de Hodgkin-Huxley, como veio a ser chamado, é um sistema dinâmico, um conjunto de equações diferenciais ordinárias não-lineares acopladas, que apresenta caos. Com o modelo de Hodgkin-Huxley, já havia sido idealizada e realizada a comunicação de neurônios reais com neurônios simulados em computadores: quer dizer, neurônios de um animal são acoplados a eletrodos que respondem de acordo com as equações de Hodgkin-Huxley, sendo estas simuladas em um computador. Não sei se o corpo de Gordon responde supondo que está se comunicando com neurônios que podem ser descritos por um modelo de Hodgkin-Huxley (uma versão atualizada do modelo!), mas não ficaria surpreso se o princípio de funcionamento do robô seja exatamente esse.

No Brasil, inclusive, há um grupo de pesquisa no Instituto de Física da Universidade de São Paulo com experimentos desse tipo, liderados pelo Prof. Dr. Reynaldo Pinto, que é a pessoa certa para comentar sobre o experimento da Universidade de Reading. O grupo da USP colabora com um outro grupo similar na Universidade da Califórnia em São Diego (UCSD), no Institute for Nonlinear Science. O grupo da UCSD já havia construído circuitos híbridos de neurônios biológicos de lagostas com modelos matemáticos simulados por computador no ano 2000.

Mais também na Folha de S. Paulo.

Atualização: 15/08, embora a revista da New Scientist ainda esteja por ser impressa, a matéria já está disponível online. Vale a pena dar uma olhada na matéria da New Scientist, pois contém um vídeo mostrando como o robô se comporta.


LHC anuncia primeira data

OK, as duas últimas semanas foram muito corridas, fiquei a semana anterior viajando... Mas semana que vem vai acalmar. Aos que lêem o blog respondi (atrasadíssimo!) os comentários no blog, os quais agradeço muito! 


Agora, notícia de ontem:

O LHC deve injetar o primeiro feixe de prótons no dia 10 de setembro. Isso, imagino eu, significa que a máquina deve começar a funcionar lá por outubro. O que será feito em setembro são apenas testes preliminares, sendo que deve decorrer um mês até a primeira colisão ser programada, e talvez em novembro, os experimentos (CMS, ATLAS, etc.) comecem a coletar dados (quer dizer, o experimento começará efetivamente).

Abaixo segue um post breve sobre o LHC.

O que é o LHC?


O LHC (Large Hadron Collider, do inglês, Grande Colisor de Hádrons) essencialmente é um túnel de metal em formato de um círculo de 27 km de circunferência, 100 metros abaixo do solo, recoberto de imãs feitos de supercondutores de nióbio-titânio mantidos a -271.3 °C. Dentro do túnel, dois feixes de prótons circularão a 99.9999991% da velocidade da luz (quando o LHC estiver operando com dois feixes de 7 TeV). Na verdade, os prótons são injetados no círculo por um pré-acelerador a velocidades bem mais baixas, e a força magnética dos imãs supercondutores acelera os prótons até eles chegarem nessa velocidade. Os feixes então são feitos colidir de frente:


Colisão de frutas
O que realmente colide no LHC são os quarks e glúons, pois nessas velocidades, os prótons se comportam como quarks e glúons livres (i.e., quarks e glúons que praticamente não interagem uns com os outros. Isso já era sabido desde o final da década de 60, em virtude de um experimento do SLAC e do MIT). Na colisão, os quarks e glúons se espalham para fora da direção do feixe, e rapidamente formam várias novas partículas: mésons pi em sua maioria, mas também muitos kaons e neutrinos. O produto da reação é então visualizado nos detetores.

Há vários detetores em diferentes pontos do LHC, com finalidades e/ou funcionamento diferentes: CMS, ATLAS, ALICE, LHCb e outros. Os dois primeiros tentarão encontrar o bóson de Higgs, que será produzido no LHC primordialmente através da colisão de dois glúons que formam quarks tops que então decaem para o bóson de Higgs. CMS e ATLAS também vão procurar por qualquer sinal que não seja previsto pelo Modelo Padrão.

O LHCb fará uma medida mais precisa da assimetria matéria-antimatéria presente no Modelo Padrão; o "b" é devido ao fato que eles estudarão as reações de quarks tipo bottom

Em um segundo estágio, o LHC substituirá os feixes de prótons por feixes de núcleos atômicos. Isso irá permitir estudar a estrutura nuclear a altas energias. Essa estrutura deve adquirir propriedades de um fluido viscoso chamado de plasma de quarks e glúons que ainda foi muito parcamente estudado. ALICE vai providenciar medidas mais precisas desse estado dos núcleos, e consequentemente vai testar com maior precisão a QCD.

O CERN contém brochuras excelentes sobre o LHC:


O LHC vai destruir o planeta Terra?


Muito provavelmente não. A histeria coletiva que surgiu na mídia é devido ao seguinte. Em 1998, foi proposta a hipótese de que talvez existam dimensões espaciais extras no universo (além das 3 que vivenciamos quotidianamente) que poderiam ser vistas no LHC. Se isso for verdade e se além disso a constante de gravitação de Newton total (incluíndo as dimensões extras) for bem maior do que o valor que ela tem na seção 3-espacial em que vivemos, então o LHC produzirá buracos negros. Esses buracos negros terão uma massa típica da ~ TeV, ou seja, nada muito mais pesado que um único núcleo de urânio. Para além da região do horizonte de eventos (a área do buraco negro), o campo gravitacional do buraco negro é como de qualquer distribuição clássica de matéria. De fato, o campo gravitacional do Sol externo a ele é o mesmo que aquele gerado por um buraco negro de massa igual a do Sol. Nem por isso, como qualquer um pode ver, a Terra é engolida pelo Sol. O campo gravitacional gerado por um buraco negro produzido no LHC  seria muitíssimo pequeno em comparação com as energias cinéticas típicas das partículas nas reações, de modo que ele passaria desapercebido. Além disso, buracos negros evaporam: eles emitem luz através de um processo descoberto por Stephen Hawking (o mago dos buracos negros), e um com uma massa tão pequena, de apenas aproximadamente 10 vezes a massa do núcleo de urânio, evaporaria quase instantaneamente. Essa evaporação que seria o sinal do buraco negro nos detetores do LHC.


Qual o objetivo do LHC?


Rutherford em 1909 realizou o experimento que descobriu que os átomos eram compostos do núcleo e da eletrosfera. Ele demonstrou que o núcleo tinha 10-13 cm de tamanho típico. De lá para cá, a física foi se envolvendo na descoberta da estrutura última que compõe tudo que existe no universo. O LHC será o primeiro microscópio que visualizará como a Natureza é na escala de tamanho de 10-16 cm, mil vezes menor que o raio do próton. O objetivo do LHC é obter os fatos experimentais sobre a estrutura da matéria nessa escala de tamanho. 

O LHC terá algum impacto tecnológico?


Sim. O LHC já possui um impacto tecnológico tremendo. Não do conhecimento que será produzido diretamente sobre a estrutura da matéria, mas dos desafios tecnológicos que precisam ser superados para o experimento funcionar. E são muitos! Para começar, o LHC já realizou dois avanços: 1) ele possui o maior sistema criogênico já montado e 2) ele possui o maior sistema informatizado de computação distribuída já planejado. O LHC coletará cerca de 15 milhões de gigabytes por ano, que ainda precisa ser processado. A análise dos dados será distribuída sobre diferentes clusters de computadores. Os maiores, pelo que eu saiba, são o do próprio CERN e outro localizado no Fermilab. Cada cluster são várias placas mãe de computadores, cada uma com quatro ou seis (não sei o detalhe da arquitetura que eles estão usando) processadores de última linha ligados em paralelo, e cada placa é ligada uma a outra diretamente. Só no CERN há até agora 30 mil CPUs instaladas, e 16 milhões de gigabytes de discos rígidos. O supercomputador do CERN é ligado a outros supercomputadores por fibras ópticas que transferem dados a 10 gigabits por segundo. O recorde mundial de velocidade de transferência de dados é a linha CERN-Fermilab: 600 megabytes por segundo. Isso é equivalente a transferência de dados de um CD inteiro em apenas 1 segundo da Europa até os EUA. Atualmente, o meu provedor da Internet em casa oferece 3 Megabits por segundo, o que me levaria 125 anos (mais de um século!) para baixar a mesma quantidade de dados que leva 10 dias na conexão do CERN. Nenhuma conexão de rede do planeta, entre quaisquer empresas de telecomunicação ou dentro de uma rede privada, é tão rápida.

O sistema completo é conhecido por grid de computação, e já era idealizado por técnicos de tecnologia de informação há vários anos, mas a colaboração experimental do LHC montou o primeiro do seu tipo de alta eficiência, por necessidade do experimento. Do mesmo modo que o CERN, décadas atrás, foi o berço da Web, ele agora é o berço do que talvez no futuro seja o novo paradigma de sistema de informação. Espera-se que outros cientistas também usarão o grid, para, por exemplo, realizar simulações numéricas do comportamento de moléculas biológicas, que no grid pode tomar apenas alguns anos, mas que antigamente tomaria séculos para ser realizado.

Além disso, há vários problemas ligados a resistência dos mateirais usados nos detetores, a eletrônica dos detectores, a transferência de dados dos experimentos até o supercomputador central do CERN, etc., e tudo isso em um ambiente único na história em tamanho e desafios tecnológicos de informação e eletrônica.

Hoje no arxiv.org

 [post técnico]

chamou-me atenção o artigo,


arxiv:0807.3692

que mostrou o seguinte: um universo FRW com constante cosmológica (CC) e um fluido imperfeito com viscosidade proporcional a 1/Hb, com b> 1 um parâmetro constante e H o parâmetro de Hubble, tende a um universo de Sitter no futuro (quando o fator de escala vai a infinito) com um parâmetro de Hubble H inversamente proporcional a constante cosmológica nua (bare). Assim, é possível colocar uma constante cosmológica muito grande na Lagrangeana e obter um valor pequeno para a constante cosmológica observável, resolvendo o problema da constante cosmológica.

Algo tão simples, porque ninguém pensou nisso antes? Será meio embaraçoso se um fluido imperfeito for responsável pelo pequeno valor observado da CC... todas aquelas contas de superpotenciais na supergravitação de 11 dimensões vão para onde?  wondering

As equações de Maxwell e monopolos magnéticos

Por que existe carga elétrica, mas não existe carga magnética? Ampère e Maxwell mostraram como o campo magnético B se relaciona com uma corrente elétrica (cargas elétricas em movimento). A equação de Ampère-Maxwell no entanto não é suficiente para determinar o campo magnético. É necessária uma equação análoga a lei de Coulomb (ou Gauss), mas como aparentemente não existem cargas magnéticas na Natureza, Maxwell impôs a mesma lei de Gauss para o campo magnético mas com carga zero. No entanto, é possível mostrar que as equações de Maxwell possuem uma simetria: coloque nas equações uma carga magnética

junto com uma corrente de cargas magnéticas. Nesta forma, as equações de Maxwell possuem uma simetria de rotação: se E e B são soluções da equação de Maxwell para as densidades de cargas elétricas e magnéticas ,  e respectivas correntes, então também é solução das equações os campos E' e B' dados por


onde  é uma matriz (operação de) rotação por um ângulo , para cargas elétricas e magnéticas rotacionadas pela mesma operação R. Visto dessa forma, a ausência de cargas magnéticas é uma mera convenção de unidades, uma escolha de definição dos campos elétrico e magnético. Isso não é surpreendente porque quando se muda o referencial, campos magnéticos e elétricos se misturam. A carga magnética introduzida dessa forma é chamada de monopolo magnético de Dirac.

O monopolo de Dirac pode ser eliminado o tanto que o ângulo  seja um parâmetro livre, sem nenhum mecanismo particular para fixa-lo. Até hoje, todos os experimentos parecem indicar que sempre podemos eliminar a carga magnética. 

Monopolo de 't Hooft e Polyakov


Nos anos 70, Polyakov e 't Hooft descobriram um mecanismo físico que pode fixar o valor do ângulo , implicando na existência de monopolos magnéticos com efeitos físicos.

Já se sabe que as equações de Maxwell são apenas um pedaço de um conjunto maior de equações, que incluem outros campos Ea, Ba além dos campos elétrico e magnético (sendo a = 1,2,3). O conjunto completo de equações é conhecido como a teoria eletrofraca, descoberta por Steven Weinberg e Abdus Salam. A interação entre duas cargas elétricas envolve tanto os campos elétricos e magnéticos quanto os campos fracos Ea, Ba, só que a lei de Coulomb para os campos fracos é do tipo ~ exp(- 10 r/ro)/r2 onde ré o raio do próton. Portanto, assim que as distâncias entre as cargas é maior que mais ou menos um décimo do raio do próton, os campos fracos decaem exponencialmente e rapidamente se tornam imperceptíveis em comparação com os campos eletromagnéticos. Mas quando se estuda a interação entre cargas elétricas a distâncias comparáveis ao raio do próton, esses efeitos se tornam perceptíveis. Dois elétrons se afastam tanto porque trocam fótons como também porque trocam partículas da interação fraca.

Uma vez que a força eletromagnética é um pedaço da teoria eletrofraca, é natural imaginar a possibilidade de que os campos eletrofracos e os campos da força nuclear forte (responsável por manter os núcleos atômicos coesos) podem ser parte de um conjunto único de equações, que mistura todos esses campos. Essa proposta é conhecida genericamente pelo nome de GUT (Grand Unified Theory). Em algumas GUTs [aquelas em que o campo de calibre não é simplesmente conexo], campos que interagem com todos os campos da GUT geram uma carga magnética automática, fixando o valor do ângulo  e impedindo assim que possamos remover a carga magnética por uma redefinição dos campos. Tipicamente, esses campos estão associados a partículas muito pesadas, ~ 1015 GeV (para uma comparação, o LHC colidirá prótons com energia de ~ 104 GeV), e portanto os efeitos só são importantes na escala subatômica, explicando a ausência de monopolos magnéticos nas reações estudadas até hoje em aceleradores de partículas. Oriundas desse mecanismo, estas cargas magnéticas são chamadas de monopolos de 't Hooft-Polyakov.

Estes monopolos são estáveis. Estima-se que uma grande quantidade deles deveria ter sido formada no universo primordial e sobrevivido até hoje, permeando o universo igual como a radiação cósmica de fundo. No modelo do Big Bang sem inflação, a densidade atual de monopolos magnéticos deveria ser ~ um monopolo por próton ou nêutron (i.e. um por nucleon). Naturalmente isso não é observado. Se o modelo inflacionário estiver correto, a densidade atual poderia ser bem menor que 10-30 por nucleon, mostrando que não há como descartar a existência desses monopolos magnéticos por enquanto.

Então, se o eletromagnetismo e a força fraca forem na verdade parte de uma teoria mais fundamental que incorpora a força forte, é possível que existam monopolos magnéticos na Natureza.

Monopolos magnéticos e discretização da carga elétrica


Uma motivação, ou atrativo, de se introduzir monopolos magnéticos é que a existência deles resolve o problema da discretização da carga elétrica. Dirac mostrou que se existem monopolos magnéticos, então a carga elétrica tem que ser discretizada, isto é, os valores permitidos para a carga elétrica de sistemas físicos deve ser um múltiplo inteiro de uma constante universal. O valor da constante não é fixado, mas isso explicaria porque todos os bárions observados na Natureza sempre possuem ou zero, ou uma, ou duas ... vezes a carga do elétron (ao invés de, digamos, 8/3 ou 1.314 vezes a carga do elétron).


Referências técnicas
  1. Para o monopolo de Dirac, J. D. Jackson, Classical Electrodynamics, John Wiley (edição 2 ou 3)
  2. S. Weinberg, The Quantum Theory of Fields, Vol. 2, Cambridge University Press, cap. 23
  3. S. Coleman, Aspects of Symmetry, Cambridge University Press, cap. 6-7
  4. papers do 't Hooft.
  5. M. Nakahara, Geometry, Topology, Physics, Taylor&Francis, para os aspectos matemáticos (grupo de cohomologia do espaço de soluções, etc.)