O Efeito Unruh

Continuando as postagens sobre termodinâmica do espaço-tempo, essa é sobre uma descoberta curiosíssima devida a Bill (William) Unruh em 1976, um ano depois da descoberta da radiação Hawking [1].

Existência de partículas depende do observador


Nós temos uma noção intuitiva do que é uma partícula, porém somente em 1939 que Eugene Wigner deu uma definição matemática concreta para o que é uma partícula [2]. A definição matemática eu vou deixar de lado aqui, e notar apenas duas coisas importantes:

  1. O conceito depende explicitamente de uma escolha de coordenada de tempo [3]. Para a simetria de Galileu, como aquela presente nas leis de Newton, isso não é um problema, pois todos os observadores do universo concordam que o intervalo de tempo entre dois eventos físicos é o mesmo. No entanto, isso só é verdade como uma aproximação. Por exemplo, suponha que há vários múons sentados (em repouso) em cima da mesa onde está o seu computador. Com relação ao relógio do computador, os múons decaem radioativamente em média de 10-6 segundos. No entanto, quando estamos observando múons vindo a alta velocidade da alta atmosfera em direção ao chão — agora estamos vendo os múons do referencial em que estão em movimento — eles vivem mais que 10-3 segundos (isso é um fato experimental). Assim, dois observadores diferentes não concordam entre quanto tempo leva para um múon decair.

  2. Uma vez feita a identificação matemática do que significa uma partícula, pode-se introduzir um observável que conta quantas partículas existem no sistema. Com isso pode-se calcular, por exemplo, quantos elétrons N(θ) em média devem ser encontrados em um certo ângulo θ no experimento do espalhamento Compton dentro de uma certa área A naquele ângulo vista a uma certa distância r de onde ocorre o espalhamento. A concordância entre o cálculo e o efeito associado a "encontrar um elétron naquele ângulo" é perfeita [4].

Por causa que dois observadores diferentes não necessariamente concordam com o intervalo de tempo entre dois eventos físicos, eles também não conseguem concordar sobre a existência de partículas. Em 76, Bill Unruh mostrou, por exemplo, que se o observador S mede o universo no estado de vácuo, ou seja, ele tem que o número de partículas no universo é zero, então qualquer observador que se move com relação a S com uma aceleração a mede N no universo como sendo diferente de zero, para K o universo está completamente preenchido de partículas em equilíbrio térmico e na temperatura 


Se concordamos então que o que chamamos de N mede o número de partículas no experimento do efeito Compton, somos obrigados a concordar que o valor de N em um determinado estado fixo depende do observador. 

Essa é uma previsão direta da mecânica quântica, sem firulas. Ela não pôde ser ainda confirmada porque a temperatura é muito baixa para acelerações razoáveis [5]. 

A conclusão, portanto, é a seguinte: se o universo estiver vazio (sem nenhuma partícula) como visto por um observador inercial, então um observador acelerado em relação a este referencial percebe o universo como um corpo negro de temperatura proporcional a aceleração.

Se o espaço e o tempo tem uma temperatura associada, então talvez tenham uma entropia. Como isso é possível? O espaço e o tempo vazio tem uma temperatura e entropia?

Horizonte de Rindler


O segredo está no que acontece com o observador acelerado.


Diagrama t-x (C. Misner, K. Thorne, J.A. Wheeler, Gravitation, Freeman Co., sem permissão)

No diagrama, a curva grossa é a trajetória t(x) de um corpo com aceleração constante a. Nesse diagrama, a velocidade da luz tem valor 1. Sendo assim, as linhas retas t = x + b, t = -x + b são as linhas por onde a luz se propaga. Qualquer sinal físico entre um ponto a outro só pode ser transmitido com inclinação igual ou maior que 1. Portanto, qualquer sinal emitido na região II jamais chega ao observador acelerado, mas o observador pode enviar sinais para essa região. Sinais na região IV podem atingir o observador, mas ele não pode emitir sinais para essa região. A região III está completamente incomunicável com o observador, para qualquer tempo futuro. Sendo assim, um observador acelerado, por causa da finitude da velocidade da luz, não tem como obter informação sobre todo o espaço-tempo. Qualquer raio de luz que ele vê passar para a região II jamais retorna. Nesse sentido, as linhas tracejadas que delimitam a interface entre as regiões I, IV e II definem um horizonte de eventos para o observador acelerado, similar (mas não idêntico) ao horizonte de eventos de um buraco negro. Então parece que a termodinâmica de buracos negros é só a ponta do iceberg da relação entre Termodinâmica e espaço-tempo.

Agora já temos parte dos conceitos necessários para entender que parece existir uma relação íntima entre a Termodinâmica e a própria Relatividade Geral. Isso fica para um próximo post, quando vou falar sobre teoria de informação aplicada aos horizontes de eventos e a descoberta de Ted Jacobson de que a Relatividade Geral é uma equação de estado da Termodinâmica.


Notas e referências
  1. W. G. Unruh, Phys Rev D 14, 4, 870 (1976).
  2. E. P. Wigner, Ann. Math. 40 149 (1939).
  3. Para benefícios dos físicos que porventuram estiverem a ler isso: uma partícula é definida como um auto-estado de H e P, e H é definido como o gerador de translações temporais U(t). Escolhas diferentes da coordenada t representam escolhas diferentes do operador H.
  4. E.g. R. P. Singhal, A. J. Burns, Am. J. Phys. 46, 6, 646 (1978).
  5. George Matsas e Daniel Vanzella, que são experts nessa área, afirmam que não faz sentido buscar testes experimentais da radiação Unruh (Int.J.Mod.Phys.D11:1573-1578,2002; ou arxiv:0710.5373). O argumento deles: embora a escolha de partículas depende do referencial, a descrição é completamente covariante, portanto sempre é possível escolher um referencial em que o efeito Unruh desaparece. Isso é verdade, mas discordo que isso signifique não ser necessário medir o efeito: é importante demonstrar experimentalmente que a nossa definição de partículas, que leva a definição do número de ocupação N, realmente concorda com a realidade da Natureza, independente da escolha de referencial. O efeito de fato é automático, é uma previsão da teoria, mas precisa ser testado como qualquer outro efeito.

Informação e entropia

Eu comentei antes brevemente sobre informação e entropia, mas não dei uma explicação satisfatória. Aqui eu pretendo explicar melhor para semana que vem continuar a falar sobre a termodinâmica do espaço-tempo. 



Medida de informação


Suponhamos que queremos definir objetivamente o conteúdo de informação de uma mensagem. Para isso vamos definir uma medida de informação. Em matemática, medida pode ser definida de forma axiomática e abstrata, todavia por aqui vamos apenas nos conformar com o fato de que volume de um sóido, área de um polígono e comprimento de uma curva são exemplos de medidas. Queremos então uma fórmula para o volume de informação que uma mensagem tem. Esse problema surgiu pela primeira vez na engenharia de comunicação, e foi resolvido na tese de doutorado de Claude Shannon. Nós sempre podemos formular o problema da seguinte forma: considere um canal de comunicação que transmite mensagens em um certo código (e.g. binário/digital, ou Morse, ou a modulação da freqüência de ondas eletromagnéticas), e estamos escutando o canal em uma ponta, esperando chegar mensagens. Cada mensagem m tem uma certa probabilidade pm de ser recebida. Nós queremos que a quantidade de informação de uma mensagem m seja uma função Im = I(pm), , com as seguintes propriedades:
  1. I(1) = 0, ou seja, se já sabíamos que a mensagem seria recebida (a mensagem tem probabilidade 1), nenhuma informação foi ganha.
  2. I é decrescente no intervalo [0,1], ou seja, quanto menos achávamos provável receber a mensagem, mais informação ganhamos ao recebê-la.
  3. Se recebemos duas mensagens (estatisticamente independentes) em sucessão, a quantidade de informação ganha é a soma da informação contida em cada mensagem: I(pq) = I(p) + I(q).
É um problema de cálculo determinar a função I das hipóteses 1-3. Você pode escrever a equação diferencial que satisfaz (3) usando (1) como condição inicial. A resposta é

I(p) = -k log p

para uma constante arbitrária k. No caso da comunicação digital, é conveniente definir k de modo que

I(p) = -logp

pois assim a quantidade informação continda numa mensagem de N  bits é I(1/2N) = N, de acordo com a nossa intuição.


Falta de informação média e entropia


Rede de spins
Agora considere o caso de uma linha de átomos, cada átomo com um momento magnético que pode apontar para cima ou para baixo, ou então uma seqüência de moedas, cada uma podendo estar na posição cara ou coroa. Em princípio, um experimentador poderia medir simultaneamente a direção de todos os spins da cadeia, ou fotografar a seqüência de moedas por inteiro. Isso permitiria determinar completamente o estado do sistema, que vamos chamar estado microscópico. Se a cadeia se organiza aleatoriamente (ou as moedas foram todas jogadas aleatoriamente para cima antes de cair no seu lugar na seqüência), então para cada estado possível m da cadeia há uma probabilidade pm do experimentador encontrar a cadeia naquele estado. Observe que não precisamos supor nada sobre essa distribuição de probabilidades: pode ser que a chance de obter cara seja 1/2, mas pode ser que seja 1/6 (moeda enviesada). O único requisito é que 

 

ou seja, as probabilidades estão normalizadas para 100%. Se o experimentador deixou de medir a cadeia de spins no estado m, então a quantidade de informação perdida é dada por

Im = -k log pm

Portanto, a quantidade média de informação perdida do sistema se o experimentador não realizar nenhuma medida, é

 

Suponha que o sistema pode ser encontrado em um total de W estados, o que na física é chamado de o espaço de fases do sistema. Para o nosso sistema de spin ou moedas, W = 2N (a determinação de W é um problema de combinatória smile). Agora queremos saber qual é a quantidade máxima de informação que perdemos por não termos realizado nenhum dos possíveis experimentos que determina o estado microscópico do sistema. Isso é um problema de cálculo que no Brasil é apresentando em geral no curso universitário Cálculo II: encontrar o máximo da função de várias variáveis pm. Isso permite determinar qual a distribuição de probabilidades sem assumir nenhum conhecimento prévio sobre o sistema. De acordo com a intuição, essa distribuição deveria ser p = 1/W, e de fato é esse o resultado do cálculo [1]:


que é a fórmula de Boltzmann. Como prometido, esta ai demonstrado matematicamente que entropia é a quantidade de informação perdida quando deixamos de fazer todas as medidas possíveis que determinariam o estado microscópico do sistema. Da definição de S dada pela equação acima podemos demonstrar todas as suas propriedades, como concavidade (a segunda lei da Termodinâmica), extensividade, etc.


O significado informacional da temperatura, pressão e potencial químico


Toda a Termodinâmica é um caso particular de um problema matemático da teoria de informação. Na Termodinâmica dos gases, por exemplo, nós temos um sistema físico composto de N partículas, cada partícula com uma energia ε, e todas as partículas juntas ocupam um volume total V. Nós poderíamos, em princípio, medir experimentalmente a posição e a velocidade de cada partícula. Mas como em um gás há ~ 1023 partículas, isso seria uma tarefa hercúlea. No lugar disso, nós vamos dizer que as partículas podem estar com uma certa distribuição de probabilidades com uma dada velocidade e posição, e a única coisa que sabemos é o valor estatístico médio de certas variáveis. Por exemplo,


que é o valor médio estatístico da energia. Nós não sabemos a priori qual a probabilidade pn do sistema ter energia En. Nesse caso, a quantidade máxima de informação perdida (para não assumir nenhum conhecimento que não possuímos sobre o sistema) precisa ser calculada levando em conta que já sabemos o valor médio da energia, do volume e o número de partículas do sistema. Isso é o que se chama de um cálculo de maximização com vínculos. Lagrange mostrou que nesse caso vai existir um conjunto de parâmetros, chamados os multiplicadores de Lagrange, um para cada vínculo do sistema. O vínculo da energia introduz um parâmetro que é chamado de temperatura, o do volume, pressão, e o número de partículas, potencial químico. A temperatura de um sistema é o multiplicador de Lagrange da falta de informação máxima dada a energia fixa do sistema. [2]



Nota final: revisitando entropia e desordem, e matando de vez por todas o clichê criacionista


Como expliquei no blog antes, o sistema magnético é um exemplo de sistema onde maior entropia significa maior ordem (e não desordem). Primeiro, vou explicar com outras palavras para que fique mais claro.

Considere um gás ideal com N partículas em um recipiente V. Pela fórmula da entropia,
, onde f é uma função de outras variáveis que não nos interessam no momento. Você nunca vai encontrar o gás em um volume V/2, porque , e a segunda lei da termodinâmica diz que dados os vínculos do sistema, ele assume os valores de temperatura, pressão, etc., de modo que S seja máxima. É possível dar uma interpretação intuitiva para isso, dizendo que se o gás ocupasse um volume V/2 ele estaria "mais organizado" do que se ele ocupasse um volume V. Sem precisar continuar, no entanto, eu posso agora mesmo apontar uma falha nessa interpretação. Observe que a entropia de V/2 é menor que V independente de como as partículas estão distribuídas. Em geral, as pessoas imaginam que V/2 seria algo como todas as partículas ocupando uma parte a esquerda (ou a direita que seja) do recipiente. Mas se todas as partículas estivessem ocupando um fractal maluco de volume V/2 dentro de V, a entropia do volume V/2 ainda seria a mesma. Mas vamos ignorar isso. Vamos aplicar a mesma lógica aos imãs. Nesse caso, se o sistema tem uma magnetização M (que é o campo magnético do imã) não nula, então o sistema tem que ter uma ordem parcial dos spins: eles precisam estar  em média estatística ordenados apontando na direção do campo total M, que nada mais é que a soma dos spins de todos os átomos. E para a temperatura abaixo da temperatura de Curie (i.e. quando o imã existe!), esse é o estado de equilíbrio do sistema. Portanto, , pela segunda lei da Termodinâmica. Mas o estado com M = 0 é exatamente o estado mais desordenado, onde os spins apontam aleatoriamente sem nenhuma correlação entre eles. Não estou comparando aqui um estado de equilíbrio com outro estado de equilíbrio (não é assim que se faz a maximização de S), estou imaginando que o sistema estava inicialmente em uma condição em que o equilíbrio era atingindo por um estado parcialmente organizado (como tem que ser se M for não nulo, ou seja, o material é um imã), e fazendo um "deslocamento virtual" para um estado em que ele está mais desorganizado. A probabilidade de encontrar o sistema no estado mais desorganizado vai a zero, a medida que o sistema é mais desorganizado (do mesmo modo que encontrar um gás com todas as partículas num cubo de volume V/2 na metade de um recipiente retangular de volume V tem probabilidade zero).

Isso mostra que não podemos utilizar a intuição de desordem para atribuir entropia. Não podemos dizer, por exemplo, que a molécula de DNA em meio aquoso possui menos entropia que os nucleotídios separados em meio aquoso. Para poder determinar se a entropia do DNA é maior ou menor, precisamos fazer a conta, meu filho, e isto representa contar todos os estados acessíveis ao DNA e usar a fórmula de Boltzmann. 

Nota
  1. Na Wikipedia há um artigo que mostra como fazer esse cálculo. Você também pode aprender um pouco mais sobre teoria de informação lá.
  2. Os cálculos detalhados e uma argumentação brilhante de porque a Termodinâmica é nada mais que um problema da teoria de informação, pode ser encontrado nos artigos de E. T. Jaynes Phys. Rev. 106, 620 - 630 (1957); Phys. Rev. 108, 171 - 190 (1957), ou então no livro E. T. Jaynes, Probability Theory, ou também alguns livros de física estatística, como do Roger Balian, From microphysics to macrophysics, Springer.

Igreja universal é condenada por explorar deficiente mental

http://www1.folha.uol.com.br/folha/cotidiano/ult95u436429.shtml


Os filha da puta vivem arrumando desculpa
e motivos pra te pegar, te usar, e depois te desprezar
Te tomam tudo, a vida, a grana e a alma
E ainda querem que você tenha calma
Por isso eu vou falar (pode falar)
Vou contar (pode contar)
Sobre os filha da puta que só querem te roubar
Fundam uma igreja ora vejam, onde já se viu
Enriquecer com a fé alheia (puta-que-pariu)
E é inútil tentarmos abrir os olhos do povo
Pois se um abre os olhos, mil olhos fecham de novo.
E eles dizem que você está com o demônio,
mas o demônio habita no seu patrimônio.
E eles farão o favor de tomar toda sua grana,
porque a grana pra eles é uma coisa profana
Só que aí, o demônio vai parar com quem?
No bolso do filha da puta que fica rico dizendo amém!

(Gabriel O Pensador, fdp3)

Essa não é a primeira ação do mesmo gênero. Pessoas que doaram para a Universal, Reino de Deus, Renascer e a Igreja Católica, já entraram com processos na justiça. Uns anos atrás a Folha fez um levantamento de alguns desses processos mais curiosos. Entre eles, havia o caso de um pedreiro, que solicitou a troca de uma escada para fazer serviço numa igreja da Universal, porque a que o pastor arranjou não ia sustentá-lo. Ao que o pastor insistiu: "Se tens fé, não cairás". O pedreiro teve traumatismo e quebrou vários ossos. Processou depois a Igreja.

Esse é o primeiro que eu tenho notícia em que uma igreja foi condenada.

Em geral, no Brasil, entende-se que o contrato entre a instituição religiosa e o crente não é como um contrato de consumidor-vendedor, então mesmo que o pastor tenha convencido (como é público e notório que eles fazem para qualquer um que já assistiu os programas evangélicos de madrugada na TV) que pode resolver os problemas da pessoa de desemprego, relacionamento amoroso, familiar, uso de drogas, etc., através da participação do indivíduo nos cultos e no dízimo, e que esse problema (obviamente) não foi resolvido, a pessoa não tem nenhum amparo legal para depois reivindicar o dinheiro investido, no caso raríssimo de um surto de lucidez a tenha tomado após os acontecimentos.

A propósito, a Universal comemorou seus 30 anos no ano passado. A Folha presenteou a Igreja com uma reportagem sobre seu império econômico, mas isso não é desconhecido de ontem. Isso já vem desde aquele escândalo do líder da igreja, Edir Macedo, pego pelos repórteres do Jornal Nacional em 95 ensinando os seus pastores a explorar (oops, pedir enfaticamente e de forma convincente dinheiro a) seus fiéis. A Igreja é dona de duas redes de TV nacionais, e para lá de mais de 30 estações de rádios.

E o escândalo da Renascer? Esse é tão fresco que não precisa relembrar nada.

Ainda assim, as igrejas continuam inabaláveis.

Termodinâmica de buracos negros

Depois de um projeto que não deu muito certo para estudar a analogia entre eletrodinâmica quântica em 2 dimensões e a constante cosmológica, passei a estudar no último mês o assunto da relação entre termodinâmica e espaço-tempo, e estou achando cada vez mais pérolas sobre o assunto. Vou falar nos próximos posts aos poucos sobre o que se trata.


Tudo começou com os estudos de Stephen Hawking e alguns colaboradores sobre buracos negros. Primeiro, Hawking e independentemente dele D. Christodoulou e R. Ruffini em 1971 descobriram que a área total de um buraco negro só pode crescer ou permanecer constante. Inicialmente, a análise deles considerava a validade das equações da Relatividade Geral, porém trabalhos posteriores de Hawking, Roger Penrose e especialmente de Robert Wald, deixaram claro que isso é um fato bastante genérico de qualquer espaço-tempo onde vale uma certa condição de causalidade (chamada de hiperbolicidade global) e onde há uma certa noção de espaço-tempo incompleto (a noção de singularidade dos buracos negros), mesmo que a Relatividade Geral não seja válida.

A lei do aumento da área é curiosamente similar com a lei de que a entropia de um sistema físico de energia e volume fixos deve sempre crescer ou permanecer constante. Uma propriedade especial dos buracos negros garante que se possa definir uma noção de energia total que se conserva, em analogia com a primeira lei da Termodinâmica.  Em 1973, Hawking, J. M. Bardeen e B. Carter mostraram que havia uma analogia completa entre as quatro leis da Termodinâmica e a dinâmica de buracos negros (quatro porque inclui-se a lei zero):

a) A lei de conservação da energia de buracos negros pode ser escrita na mesma forma da primeira lei da termodinâmica,


fazendo identificações: a energia interna U é identificada com Mc2, a temperatura T é identificada com a força gravitacional em cima do buraco negro, a entropia S é proporcional a área do buraco negro e o trabalho W é identificado com o torque que provoca a alteração do momento angular. (Na fórmula acima já foi feita a aproximação quase-estática de que calor é TΔS)

b)  é   (Segunda Lei)

c) A força gravitacional na superfície do buraco negro nunca se anula, análogo a terceira lei do zero absoluto.

d) A força gravitacional na superfície de um buraco negro estacionário é constante ao longo da superfície, assim como a temperatura de um corpo em equilíbrio térmico é constante ao longo do corpo (Lei Zero).

Até 1975 esses resultados pareciam apenas simples coincidência. No artigo de 73 de Hawking, Bardeen e Carter, eles expressam claramente o sentimento deles na época:
Pode-se ver que κ/8π [a força gravitacional na superfície do buraco negro] é análoga a temperatura do mesmo modo que A [área] é análoga a entropia. No entanto, deve ser enfatizado que κ/8π e A  são distintas da temperatura e da entropia do buraco negro. De fato, a temperatura efetiva de um buraco negro é zero absoluto. Uma forma de ver isso, é notar que um buraco negro não pode estar em equilíbrio com radiação de corpo negro em nenhuma temperatura não-nula, porque nenhuma radiação pode ser emitida do buraco negro[grifo meu]

Em 1975, Hawking descobriu que eles não estavam corretos nessas afirmações. O que eles deixaram de fora eram as correções da mecânica quântica (ou mais precisamente, da teoria quântica de campos). Quando se leva em consideração a mecânica quântica, buracos negros vistos por um observador muito distante, agem como um corpo negro que emite radiação com a temperatura κ/2π. Em unidades do SI, um buraco negro eletricamente neutro de massa M sem rotação está em equilíbrio térmico a temperatura


Essa é, sem dúvidas, uma das fórmulas mais maravilhosas da Física. Esta fórmula é:
  1. Um fenômeno puramente quântico, como se vê da presença da constante de Planck
  2. Relativística, pela dependência na velocidade da luz
  3. Gravitacional, pois depende da constante da gravitação universal de Newton
  4. Resultado da mecânica estatística, como se nota pela constante de Boltzmann.
Que outro fenômeno conhecido da Física incorpora gravitação, mecânica quântica, mecânica estatística e relatividade? Eu não conheço nenhum outro!

A radiação térmica de buracos negros é conhecida como radiação Hawking. Devido a conservação da energia, a medida que o buraco negro emite radiação ele diminui gradativamente toda a sua carga elétrica, momento angular e massa, até deixar de existir por completo. Isso é um pouco misterioso na mecânica quântica, pois uma lei fundamental da teoria é a da conservação da probabilidade. Se inicialmente tivermos um sistema descrito por uma distribuição de probabilidade que está corretamente normalizada para ter área igual a 1 (i.e. a soma da probabilidade de todos os eventos possíveis é 100%) e uma parte do sistema cai no buraco negro, então após a evaporação a probabilidade engolida desaparece, violando a conservação da probabilidade. Isso é conhecido como o problema da perda de informação em buracos negros.

Mas nos próximos posts eu tentarei explorar o seguinte: a) de onde vem a radiação Hawking? Qual o processo físico que provoca a evaporação? e b) como a Relatividade Geral clássica já sabia disso? Como a teoria clássica da gravitação já corretamente incorporava a força gravitacional na superfície do buraco negro como uma temperatura associada a entropia proporcional a área?

Pesquisadores criam robô com cérebro biológico

Robô GordonPesquisadores da Universidade de Reading na Inglaterra, criaram um robô que é exclusivamente operado por um cérebro biológico. O cérebro é uma cultura de neurônios de ratos colocada numa malha em formato de disco com cerca de 60 eletrodos. Os eletrodos captam sinais dos neurônios que então são utilizados para comandar o movimento do robô. E quando o robô se aproxima de um objeto, sinais são enviados para os eletrodos para excitar os neurônios. O robô não utiliza nenhuma outra fonte de comando, seja de um computador externo ou humano. No momento, os pesquisadores estão brincando com a invenção, vendo se ele pode aprender e memorizar. Daqui a dois dias sairá uma matéria na New Scientist sobre o robô, batizado de Gordon.


Interfaces de sistemas biológicos com máquinas não é uma completa novidade, no entanto. Em 1952, Alan Hodgkin e Andrew Huxley descreveram o primeiro modelo matemático da sinapse do neurônio (mais precisamente, do potencial de ação dos canais de íons de sódio e potássio). Eles receberam o Prêmio Nobel de Medicina pelo trabalho. O modelo de Hodgkin-Huxley, como veio a ser chamado, é um sistema dinâmico, um conjunto de equações diferenciais ordinárias não-lineares acopladas, que apresenta caos. Com o modelo de Hodgkin-Huxley, já havia sido idealizada e realizada a comunicação de neurônios reais com neurônios simulados em computadores: quer dizer, neurônios de um animal são acoplados a eletrodos que respondem de acordo com as equações de Hodgkin-Huxley, sendo estas simuladas em um computador. Não sei se o corpo de Gordon responde supondo que está se comunicando com neurônios que podem ser descritos por um modelo de Hodgkin-Huxley (uma versão atualizada do modelo!), mas não ficaria surpreso se o princípio de funcionamento do robô seja exatamente esse.

No Brasil, inclusive, há um grupo de pesquisa no Instituto de Física da Universidade de São Paulo com experimentos desse tipo, liderados pelo Prof. Dr. Reynaldo Pinto, que é a pessoa certa para comentar sobre o experimento da Universidade de Reading. O grupo da USP colabora com um outro grupo similar na Universidade da Califórnia em São Diego (UCSD), no Institute for Nonlinear Science. O grupo da UCSD já havia construído circuitos híbridos de neurônios biológicos de lagostas com modelos matemáticos simulados por computador no ano 2000.

Mais também na Folha de S. Paulo.

Atualização: 15/08, embora a revista da New Scientist ainda esteja por ser impressa, a matéria já está disponível online. Vale a pena dar uma olhada na matéria da New Scientist, pois contém um vídeo mostrando como o robô se comporta.


LHC anuncia primeira data

OK, as duas últimas semanas foram muito corridas, fiquei a semana anterior viajando... Mas semana que vem vai acalmar. Aos que lêem o blog respondi (atrasadíssimo!) os comentários no blog, os quais agradeço muito! 


Agora, notícia de ontem:

O LHC deve injetar o primeiro feixe de prótons no dia 10 de setembro. Isso, imagino eu, significa que a máquina deve começar a funcionar lá por outubro. O que será feito em setembro são apenas testes preliminares, sendo que deve decorrer um mês até a primeira colisão ser programada, e talvez em novembro, os experimentos (CMS, ATLAS, etc.) comecem a coletar dados (quer dizer, o experimento começará efetivamente).

Abaixo segue um post breve sobre o LHC.

O que é o LHC?


O LHC (Large Hadron Collider, do inglês, Grande Colisor de Hádrons) essencialmente é um túnel de metal em formato de um círculo de 27 km de circunferência, 100 metros abaixo do solo, recoberto de imãs feitos de supercondutores de nióbio-titânio mantidos a -271.3 °C. Dentro do túnel, dois feixes de prótons circularão a 99.9999991% da velocidade da luz (quando o LHC estiver operando com dois feixes de 7 TeV). Na verdade, os prótons são injetados no círculo por um pré-acelerador a velocidades bem mais baixas, e a força magnética dos imãs supercondutores acelera os prótons até eles chegarem nessa velocidade. Os feixes então são feitos colidir de frente:


Colisão de frutas
O que realmente colide no LHC são os quarks e glúons, pois nessas velocidades, os prótons se comportam como quarks e glúons livres (i.e., quarks e glúons que praticamente não interagem uns com os outros. Isso já era sabido desde o final da década de 60, em virtude de um experimento do SLAC e do MIT). Na colisão, os quarks e glúons se espalham para fora da direção do feixe, e rapidamente formam várias novas partículas: mésons pi em sua maioria, mas também muitos kaons e neutrinos. O produto da reação é então visualizado nos detetores.

Há vários detetores em diferentes pontos do LHC, com finalidades e/ou funcionamento diferentes: CMS, ATLAS, ALICE, LHCb e outros. Os dois primeiros tentarão encontrar o bóson de Higgs, que será produzido no LHC primordialmente através da colisão de dois glúons que formam quarks tops que então decaem para o bóson de Higgs. CMS e ATLAS também vão procurar por qualquer sinal que não seja previsto pelo Modelo Padrão.

O LHCb fará uma medida mais precisa da assimetria matéria-antimatéria presente no Modelo Padrão; o "b" é devido ao fato que eles estudarão as reações de quarks tipo bottom

Em um segundo estágio, o LHC substituirá os feixes de prótons por feixes de núcleos atômicos. Isso irá permitir estudar a estrutura nuclear a altas energias. Essa estrutura deve adquirir propriedades de um fluido viscoso chamado de plasma de quarks e glúons que ainda foi muito parcamente estudado. ALICE vai providenciar medidas mais precisas desse estado dos núcleos, e consequentemente vai testar com maior precisão a QCD.

O CERN contém brochuras excelentes sobre o LHC:


O LHC vai destruir o planeta Terra?


Muito provavelmente não. A histeria coletiva que surgiu na mídia é devido ao seguinte. Em 1998, foi proposta a hipótese de que talvez existam dimensões espaciais extras no universo (além das 3 que vivenciamos quotidianamente) que poderiam ser vistas no LHC. Se isso for verdade e se além disso a constante de gravitação de Newton total (incluíndo as dimensões extras) for bem maior do que o valor que ela tem na seção 3-espacial em que vivemos, então o LHC produzirá buracos negros. Esses buracos negros terão uma massa típica da ~ TeV, ou seja, nada muito mais pesado que um único núcleo de urânio. Para além da região do horizonte de eventos (a área do buraco negro), o campo gravitacional do buraco negro é como de qualquer distribuição clássica de matéria. De fato, o campo gravitacional do Sol externo a ele é o mesmo que aquele gerado por um buraco negro de massa igual a do Sol. Nem por isso, como qualquer um pode ver, a Terra é engolida pelo Sol. O campo gravitacional gerado por um buraco negro produzido no LHC  seria muitíssimo pequeno em comparação com as energias cinéticas típicas das partículas nas reações, de modo que ele passaria desapercebido. Além disso, buracos negros evaporam: eles emitem luz através de um processo descoberto por Stephen Hawking (o mago dos buracos negros), e um com uma massa tão pequena, de apenas aproximadamente 10 vezes a massa do núcleo de urânio, evaporaria quase instantaneamente. Essa evaporação que seria o sinal do buraco negro nos detetores do LHC.


Qual o objetivo do LHC?


Rutherford em 1909 realizou o experimento que descobriu que os átomos eram compostos do núcleo e da eletrosfera. Ele demonstrou que o núcleo tinha 10-13 cm de tamanho típico. De lá para cá, a física foi se envolvendo na descoberta da estrutura última que compõe tudo que existe no universo. O LHC será o primeiro microscópio que visualizará como a Natureza é na escala de tamanho de 10-16 cm, mil vezes menor que o raio do próton. O objetivo do LHC é obter os fatos experimentais sobre a estrutura da matéria nessa escala de tamanho. 

O LHC terá algum impacto tecnológico?


Sim. O LHC já possui um impacto tecnológico tremendo. Não do conhecimento que será produzido diretamente sobre a estrutura da matéria, mas dos desafios tecnológicos que precisam ser superados para o experimento funcionar. E são muitos! Para começar, o LHC já realizou dois avanços: 1) ele possui o maior sistema criogênico já montado e 2) ele possui o maior sistema informatizado de computação distribuída já planejado. O LHC coletará cerca de 15 milhões de gigabytes por ano, que ainda precisa ser processado. A análise dos dados será distribuída sobre diferentes clusters de computadores. Os maiores, pelo que eu saiba, são o do próprio CERN e outro localizado no Fermilab. Cada cluster são várias placas mãe de computadores, cada uma com quatro ou seis (não sei o detalhe da arquitetura que eles estão usando) processadores de última linha ligados em paralelo, e cada placa é ligada uma a outra diretamente. Só no CERN há até agora 30 mil CPUs instaladas, e 16 milhões de gigabytes de discos rígidos. O supercomputador do CERN é ligado a outros supercomputadores por fibras ópticas que transferem dados a 10 gigabits por segundo. O recorde mundial de velocidade de transferência de dados é a linha CERN-Fermilab: 600 megabytes por segundo. Isso é equivalente a transferência de dados de um CD inteiro em apenas 1 segundo da Europa até os EUA. Atualmente, o meu provedor da Internet em casa oferece 3 Megabits por segundo, o que me levaria 125 anos (mais de um século!) para baixar a mesma quantidade de dados que leva 10 dias na conexão do CERN. Nenhuma conexão de rede do planeta, entre quaisquer empresas de telecomunicação ou dentro de uma rede privada, é tão rápida.

O sistema completo é conhecido por grid de computação, e já era idealizado por técnicos de tecnologia de informação há vários anos, mas a colaboração experimental do LHC montou o primeiro do seu tipo de alta eficiência, por necessidade do experimento. Do mesmo modo que o CERN, décadas atrás, foi o berço da Web, ele agora é o berço do que talvez no futuro seja o novo paradigma de sistema de informação. Espera-se que outros cientistas também usarão o grid, para, por exemplo, realizar simulações numéricas do comportamento de moléculas biológicas, que no grid pode tomar apenas alguns anos, mas que antigamente tomaria séculos para ser realizado.

Além disso, há vários problemas ligados a resistência dos mateirais usados nos detetores, a eletrônica dos detectores, a transferência de dados dos experimentos até o supercomputador central do CERN, etc., e tudo isso em um ambiente único na história em tamanho e desafios tecnológicos de informação e eletrônica.