Estou me transferindo para outro blog, o Ars Physica. Convido a todos que visitavam esse blog para participar do novo! A vantagem do novo blog é que será no formato do Cosmic Variance: um grupo de diferentes físicos estarão postando sobre assuntos ligados a Física. Continuarei a colocar o mesmo tipo de material que vinha postando neste blog lá.
Religulous
O comediante Bill Maher vai lançar semana que vem, em 3 de outubro, um documentário crítico sobre religião, Religulous, que promete ter seus momentos cômicos, talvez algo na linha dos filmes do Michael Moore (Tiros em Coulumbine, Farenheit 9/11, Sicko). Bill será o próximo convidado do programa The Daily Show, que é muito bem conhecido nos Estados Unidos, no dia 30 de setembro. A entrevista estará disponível no site do programa a partir do dia 1 de outubro. O trailer (legendado em português!) promete um bom filme. Ele já esteve no Larry King (entrevista sem legenda, em inglês).
Há dois documentários muito pouco conhecidos até o momento que são críticos a religião, The Root of All Evil de Richard Dawkins e The God Who Wasn't There. Eu gostei bastante deste segundo, que é sobre o problema de Jesus histórico, i.e. se Jesus realmente existiu ou não. O problema desses filmes é que eles são ácidos demais para conseguir balançar o crente comum. Eles mais produzem um sentimento de revolta do que iluminação, na minha opinião. Espero que esse novo filme de Bill seja mais sereno, e com isso consiga maior espaço na mídia e distribuição, e possibilite educar mais as pessoas sobre o problema do ópio do povo.
Eu certamente vou assistir esse filme.
Enquanto isso, podemos ver vários vídeos no YouTube do Bill Maher.
domingo, 28 de setembro de 2008 | Postado por Leonardo Motta às 01:33 0 comentários
Marcadores: religião
Bobagens sobre o custo do LHC
Das notícias sobre o LHC para mim a parte mais interessante é observar a reação do público. Algumas são cômicas, mas uma classe de comentários me preocupa: os ligados ao custo do projeto. As alegações são muito infundadas, genericamente baseadas na idéia falsa de que o LHC é um projeto muito caro. Não é, o LHC sai de graça. O custo total para por o LHC em funcionamento, incluindo material e pessoal do sítio, o acelerador por completo, cerca de 15% de todos os detetores, e o cluster de computadores ficará em US$ 5.6 bilhões [1]. Como o projeto começou em 2001, são 8 anos de construção, o que dá apenas US$ 700 milhões por ano divididos entre 20 países da Europa, o que dá uma média de um investimento de US$ 35 milhões por país durante 8 anos.
A Europa por ano gasta apenas 1.8% do PIB com ciência e tecnologia, os EUA 2.6%, o Japão 3.4% [2]. O orçamento do LHC é uma pequeníssima parcela desse investimento, pois, 1.8% do PIB Europeu é US$668 bilhões. Isso significa que a Europa está gastando 0.1% do seu investimento de ciência com LHC, que é um dos projetos mais proeminentes da ciência de hoje. Há enorme espaço no PIB desses países para gastos com outros fins, e na parte específica que vai para pesquisa em ciência e tecnologia, ainda resta 99.9% do orçamento para outros projetos.
Os Estados Unidos sozinho poderia bancar o LHC. De fato, os EUA sozinho poderia ter financiado o SSC. Mas os EUA tem outras prioriades: nos últimos 5 anos, só a guerra do Iraque custou US$845 bilhões diretos dos cofres públicos norte-americanos, e tem um custo projetado de US$ 3 trilhões para a economia dos EUA [3]. E a Inglaterra, até 2006, gastou US$ 9 bilhões do dinheiro público [4] na guerra. Ainda falta somar a guerra do Afeganistão. Semana passada, o governo norte-americano perdoou uma dívida de US$85 bilhões da AIG. Uma única junta privada ganhou, em um único dia, o equivalente ao custo de 14 LHCs. Hoje, o Congresso norte-americano liberou US$700 bilhões para perdoar as dívidas de empresas hipotecárias [4]. Então, se alguém ai quer reclamar de aplicar dinheiro para fins como filantropia, há lugares muito mais sérios e importantes para olhar do que a miséria do investimento em pesquisa e tecnologia, e a fração ainda mais insignificante do LHC desse montante do dinheiro na Europa e Estados Unidos.
E no Brasil, que tal comparar o gasto anual dos salários de todos os funcionários e políticos do Congresso e do Senado com o orçamento total para investir em ciência e tecnologia do MCT por todo o país, incluindo-se ai os gastos com bolsas para pesquisa, centros de pesquisa, e todo o resto? Eis os números: ciência vs. Senado e Congresso. Com um investimento como esse em ciência, tem certeza que o LHC é caro?
O que eu falei acima é óbvio para muita gente. Mas por alguma razão, os números do LHC fizeram as pessoas esquecerem de como o efetivo investimento em desenvolvimento de ciência e tecnologia por todo o planeta não corresponde a parcela da participação da tecnologia e ciência na economia mundial.
Referências
- CERN Brochure 2008 Nota: a tabela de custo do LHC neste documento está em francos suíços.
- Estimates of National Research and Development, National Science Foundation, Aug 2008.
- Reuters.com
- Bloomberg
- Isso está por toda a mídia, mas essa lista de perguntas & respostas do NY Times coleta as informações relevantes.
quinta-feira, 25 de setembro de 2008 | Postado por Leonardo Motta às 16:17 1 comentários
Marcadores: física, partículas elementares, política
Sinais de nova física?
Hoje William Marciano, Alberto Sirlin e Massimo Passera tornaram pública uma análise sobre possíveis indicações de nova física na medida do momento magnético do múon. Esse parâmetro foi medido com enorme precisão pelo experimento E821 no acelerador de partículas RHIC do Brookhaven National Laboratory, em Upton, Nova York. O resultado experimental é
Pode ser que de fato há um erro no cálculo e a massa do Higgs esteja no intervalo (114,133). Marciano, Massimo e Sirlin, que são profissionais de enorme experiência com cálculos desse tipo, entendem que isso é pouco provável. Todavia se não há erro no cálculo, o momento magnético do muon sinaliza que há efeitos novos que ainda não foram levados em consideração, tais como a supersimetria.
Se essa discrepância indica ou não evidência para nova física além do Modelo Padrão ainda era uma questão polêmica até uns anos atrás, mas essa análise recente parece colocar a evidência de nova física mais plausível.
Postado por Leonardo Motta às 11:07 0 comentários
Marcadores: física, partículas elementares
LHC atrasará por cerca de dois meses
A notícia oficial saiu hoje. O LHC teve um vazamento no sistema criogênico e deve ter um atraso de pelo menos 2 meses, então nada mais da primeira colisão ser realizada em algum momento de outubro.
O único comentário pertinente é o seguinte: isso é absolutamente normal. Quando o LHC estava em construção, parte dos imãs supercondutores falharam causando atrasos. Em qualquer experimento em ciência, boa parte do trabalho consiste em resolver problemas e dificuldades inesperadas que vem ao longo do caminho. O problema anterior e este novo são apenas dois exemplos das dificuldades tecnológicas envolvidas quando se tem o maior sistema criogênico jamais realizado.
sábado, 20 de setembro de 2008 | Postado por Leonardo Motta às 12:50 1 comentários
Marcadores: física, partículas elementares
Mestres viram doutores e são demitidos
Segundo uma matéria da revista Valor Econômico, aparentemente no Brasil dos últimos anos professores de universidades particulares foram demitidos depois de fazerem um curso de pós-graduação. O presidente do sindicato das particulares, H. F. Figueiredo, explica porque isso acontece:
O número de doutores depende do programa pedagógico de cada instituição, a universidade é como qualquer empresa, há uma avaliação de desempenho, não publicou durante o ano, será dispensado.
Isso não parece ser verdade. Por exemplo, o CNPq mostra que, excetuando-se a PUC, nem 1% de toda produção científica do Brasil financiada pelo órgão é realizada nas universidades particulares (a PUC-RJ com 2,4%). Segundo artigo da Folha de S. Paulo de uns anos atrás, a grande maioria dos professores de universidades particulares dão em média 40h semanais de aula, alguns até mais. Portanto, as universidades particulares de modo algum vêm contratando com base na produção científica, intelectual ou artística. Não faz nem sentido: se elas só contratam 1/3 de pessoas com pós-graduação, 2/3 do seu corpo docente nem se quer tem a qualificação intelectual para produzir material publicável. A Unip é uma das maiores universidades do Brasil, se 1/3 do seu corpo docente estivesse sendo mantido com base em excelência de publicações, a universidade já teria figurado no Times Higher Educational Supplement ou no Academic World Ranking, mas isso não aconteceu. Como profissional incipiente na área de pesquisa, eu posso assegurar que nunca vi um único artigo científico que foi publicado por um pesquisador da Unip. Se existe algum, precisa de muita experiência em pesquisa para acabar vendo (1 em um milhão?).
FIgueiredo também diz:
Uma universidade numa cidadezinha de Tiririca da Serra não tem condição de contratar um doutor por tempo integral para pesquisar e em nenhum lugar está escrito ou provado que um doutor é melhor professor do que um profissional com experiência.
Dois problemas com esse comentário. Primeiro, se você tem uma universidade que diz que oferece um curso de medicina, é melhor que você realmente possa ensinar medicina. Isso inclui ter laboratórios de química, biblioteca equipada, cadáveres indo para as aulas de cirurgia, material cirúrgico, vários outros equipamentos didáticos, e professores qualificados. Se você quer ter uma universidade em Tiririca da Serra, você deve transferir todo o equipamento necessário para isso, e não apenas abrir um prédio com título de universidade que depois formará profissionais sem a qualificação necessária.
Segundo, um doutor em particular pode não ser melhor professor, mas se você tem alguém interessado em ser um bom professor, agregar maior qualificação, experiência e conhecimento só irá melhorar a educação. Se olharmos para as universidades mais bem sucedidas no mundo, veremos que há uma forte correlação entre a qualificação do corpo docente e o sucesso do corpo discente.
O mais curioso de tudo isso é que não parece que esse estilo adotado pelas universidades particulares no Brasil ajuda em nada a fazer o faturamento da universidade ser melhor. Não quero soar pretensioso ou arrogante, mas tenho que usar os exemplos que conheço bem. Segundo os jornais de televisão (entendendo ai que pode estar errado), o vestibular da USP é um (ou o mais) concorrido de universidades do país, a média de todos os cursos é 12 c/v. A USP é a mais procurada em São Paulo por que tem uma boa imagem de instituição universitária, totalmente devida a qualificação e a produção intelectual, científica e artística dos professores residentes, mais o resultado de vários dos seus ex-alunos que figuram em quadros de liderança nacional do governo, empresas, produção tecnológica e artística. Muitos que tem alta renda e passam na USP e em uma particular, escolhem a primeira. Isso se comprova pelos dados da própria USP, que mostra que a maioria dos matriculados são de alta renda: uma única rua da região nobre de São Paulo tem mais alunos na USP que todo distrito sul da cidade. Provavelmente a mesma lógica se aplica nos demais estados da federação: se há uma universidade de impacto científico, artistico e cultural, essa atrai mais estudantes (em geral, são as públicas, federais e estaduais, e atraem também alunos de alta renda). As particulares, com sua política de educação como loja de 1,99 — para usar uma comparação feita por um colega — só tem uma imagem denegrida: a má boca diz que o vestibular é fácil, e agora mais essa, se o professor for bom demais, é demitido por excesso de qualificação. As prioridades gerais das universidades particulares no Brasil podem até mantê-las economicamente viáveis a curto prazo, mas não tem como resultar em melhor faturamento a longo prazo, uma vez que a universidade continuamente perde prestígio, ao invés de ganhar. As duas universidades com maior capital do planeta são particulares: Harvard e Yale (respectivamente 37 e 23 bilhões de dólares), porém imaginem se na fundação do departamento de física de Yale eles tivessem decidido demitir o Josiah W. Gibbs depois que ele adquiriu o doutorado em física matemática. Para ser contratado hoje em dia em uma universidade destas é necessário, no mínimo, vários pós-doutorados, ou uma produção científica excepcional, e ainda assim, são universidades muito mais ricas que qualquer particular (ou pública) no Brasil.
sexta-feira, 19 de setembro de 2008 | Postado por Leonardo Motta às 16:19 1 comentários
Sem Deus
Steven Weinberg escreveu recentemente para o The New York Review of Books sobre religião: Without God. Para quem gostar desse artigo, o Weinberg publicou uns anos atrás um livro com uma coleção de ensaios sobre ciência e suas adversárias culturais: Facing Up (desconheço se há edição em português). Vale a pena!
terça-feira, 16 de setembro de 2008 | Postado por Leonardo Motta às 21:17 1 comentários
Marcadores: religião
A origem da gravidade
O que causa a gravidade? Em um post anterior falei sobre a relação entre a termodinâmica e os buracos negros, que parecia indicar uma relação íntima entre gravitação e termodinâmica. Na gravitação clássica, vemos que é possível fazer um paralelo completo entre as equações da Relatividade Geral e as equacões da termodinâmica. Quando se estuda um sistema quântico na presença de um buraco negro, é possível demonstrar passo-a-passo que o buraco negro é um corpo negro que emite radiação a uma certa temperatura T, portanto de fato buracos negros agem como sistemas termodinâmicos. Como a gravitação clássica "já sabia" que o buraco negro deveria se comportar como um sistema termodinâmico?
Uma possível resposta para essa pergunta foi formulada por Ted Jacobson, da Universidade de Maryland, em 1995 [1]. Como vimos antes, observadores acelerados podem emitir luz para regiões mas não podem receber sinais de luz delas. Para todos efeitos, essa região, parte do chamado horizonte de Rindler de um observador acelerado, age como um buraco negro, mesmo na ausência completa de matéria e gravidade. Vimos que na mecânica quântica é possível fazer um cálculo que mostra que o vácuo de um observador inercial é um corpo negro cheio de partículas quando visto por um observador acelerado, com uma temperatura T proporcional a aceleração do observador. Isso levou Jacobson as seguintes considerações: imagine que um observador dentro do seu cone de luz em IV (ver Fig. 1) supõe que as regiões I e III onde vivem observadores acelerados são um sistema termodinâmico com temperatura T proporcional a aceleração da órbita de um observador acelerado imediatamente fora do cone de luz — ou seja, consideramos o limite em que a órbita acelerada coincide com as linhas do cone de luz [2]. Daqui para diante, vamos nos referir então a essas regiões como sistema, simplesmente.
Adote como válida a primeira lei da termodinâmica para o sistema:
Nota
- Jacobson, Ted. Phys. Rev. Lett. 75, 1260-1263 (1995), arxiv:gr-qc/9504004.
- Esse limite é possível porque a órbita de um partícula acelerada tende ao cone de luz no limite em que a aceleração vai a infinito.
domingo, 14 de setembro de 2008 | Postado por Leonardo Motta às 10:16 0 comentários
Marcadores: física, gravitação, termodinâmica
Google Hoje
quarta-feira, 10 de setembro de 2008 | Postado por Leonardo Motta às 13:35 0 comentários
Observatório da Imprensa
De longe venho observando a frenesi que tomou conta repentinamente da mídia a respeito do LHC. Físicos profissionais e estudantes como eu que já estão a anos envolvidos com a ciência do LHC devem estar em parte felizes, mas em parte muito tristes (eu certamente estou confuso). A felicidade, naturalmente, é de ver a nossa paixão repentinamente causar tamanho interesse, e claro, há boas razões: o LHC poderá revelar o mecanismo físico por de trás da massa dos bósons W, Z e possivelmente dos léptons e quarks; poderá abrir a porta para compreensão de porque a escala eletrofraca (102 GeV) é tão pequena em comparação com a escala gravitacional (1019 GeV); poderá descobrir se o universo tem mais que 3 dimensões espaciais, sendo as dimensões extras de tamanho subatômico; poderá revelar se a Relatividade Especial é apenas um pedaço de uma simetria ainda maior na Natureza chamada supersimetria; poderá finalmente produzir em laboratório a matéria escura, que é responsável por cerca de 25% de toda a densidade de energia do universo; poderá produzir mini-buracos negros que permitiriam estudar finalmente efeitos da gravidade na mecânica quântica, como a radiação Hawking. Enfim, estamos todos muito excitados!
Primeiro, são passagens como:
O lançamento é o maior experimento da história da física para entender a origem do universo. (Yahoo Notícias)
Cientistas testam com sucesso máquina que tenta reproduzir o Big Bang (Folha de S. Paulo)
'Máquina do Big Bang' só deve produzir resultados em 2009 (Globo Notícias)
Uau! Os físicos vão fazer um Big Bang em laboratório e outros absurdos. E pior: mesmo alguns físicos de partículas ajudaram essa propaganda.
Na realidade, de modo algum o LHC é um simulador de Big Bang no sentido literal do termo, então a mídia deveria tomar muito cuidado, principalmente na escolha da manchete. Para começar, o universo primordial é composto por altíssima densidade de uma sopa primordial de partículas elementares de vários tipos interagindo umas com as outras e com um campo gravitacional. O LHC não é um simulador de Big Bang: ele reage apenas feixes de prótons a baixa densidade e na ausência de um campo gravitacional — portanto, condições muito diferentes do universo primordial —, e tampouco ele "simula um Big Bang" no sentido da criação do universo propriamente dita. Contudo, de fato os experimentos poderão talvez ajudar na compreensão do universo primordial. Por exemplo, o LHC talvez possa descobrir matéria escura e obter as taxas de reações dessas partículas. Isso pode acontecer se o LHC descobrir a supersimetria e medir parte dos parâmetros do modelo supersimétrico. Nesse caso, poderemos utilizar os resultados experimentais do LHC para estudar a produção da matéria escura no início do universo (contas que na realidade já foram feitas!). O LHC também poderá fornecer a explicação para o problema da assimetria matéria-antimatéria no universo, dependendo se for possível medir efeitos da chamada violação carga-paridade (CP) em partículas novas (a serem descobertas do LHC). Em poucas palavras, o que o LHC estuda são reações na escala de 10-16 cm, que então podem ser usadas para fazer contas no modelo do Big Bang sobre a produção de partículas que foram descobertas no LHC, igual como se usa física nuclear para calcular a nucleossíntese primordial. Nesse sentido, o LHC é tanto "máquina do Big Bang" quanto qualquer acelerador de núcleos dos anos 30. Mas pouco aprenderemos sobre o Big Bang propriamente dito, isto é, o modelo de criação do universo usado na Relatividade Geral. O LHC estudará uma faixa de energia que já é sabido ter pouca importância para a Cosmologia (a chamada transição de fase eletrofraca). O LHC entra apenas fornecendo as partículas que devemos colocar dentro do Big Bang.
Segundo, é essa insistência infundada de mencionar os tais cenários de destruição da Terra, que aparece em praticamente todos os jornais:
Alguns céticos disseram temer que a colisão dos prótons pudesse provocar o fim do mundo. (Agência Reuters)
Opa, céticos? Não, lunáticos, é bem diferente. Você chamaria de cético alguém que diz que a gravidade não existe, e que não precisa ter medo de cair da beirada de um precipício? Não, né? Mesma coisa.
Também há algumas imprecisões aleatórias, como
Os cientistas esperam fornecer a força necessária para romper os componentes dos átomos a ponto de ser possível ver como eles são feitos. (Yahoo Notícias)
Falso, a estutura dos átomos já foi "quebrada" faz décadas. E continuando na mesma notícia:
O experimento deve repetir trilhões de vezes o momento ocorrido cerca de 15 bilhões de anos atrás quando, conforme crêem os cosmólogos, um objeto incrivelmente denso e quente do tamanho de uma moeda explodiu, expandindo-se rapidamente para criar as estrelas, os planetas e, um dia, a vida na Terra.
O que só serve para difundir conceitos errados sobre o Big Bang.
Daí eu fico triste: a cobertura da mídia está se focando em 1) a idéia, que chama realmente muita atenção, de que o LHC "simula um Big Bang" (falso!) e 2) a possibilidade do LHC destruir o planeta, ao invés de estar focada nas várias boas razões para o LHC que mencionei no início do post, e que são as verdadeiras razões que levam quase todos os físicos a apoiarem o experimento. A verdadeira motivação para o LHC se resume nisso: podemos entender que todos seres vivos macroscópicos são compostos de células, as células de substâncias químicas, as substâncias químicas de átomos, os átomos de prótons, nêutrons e elétrons, os prótons e nêutrons de quarks, e agora queremos saber ainda mais sobre a natureza dos quarks, elétrons e outras partículas que compõe tudo que existe no Universo. Queremos saber onde vai parar essa cadeia de explicações, "tudo é feito de ..." para poder entender o Universo.
Postado por Leonardo Motta às 10:37 1 comentários
Marcadores: física, partículas elementares
Poderemos ver o efeito Hawking finalmente?
Ontem tomei conhecimento de um promissor trabalho recente de Katherine Mack (U. Princeton) e Daniel Wesley (DAMTP, Cambridge) onde uma análise detalhada foi feita da possibilidade de observar a radiação Hawking.
sexta-feira, 5 de setembro de 2008 | Postado por Leonardo Motta às 20:30 0 comentários
Marcadores: astronomia, buracos-negros, cosmologia, física, gravitação
Novo documentário fala sobre a caça ao Higgs no Fermilab
Veja o trailer:
http://137films.org/films/theatomsmashers/trailer.php
Pelo que entendi, é um documentário focado sobre a caça ao Higgs no Fermilab. Contém informações sobre o funcionamento do acelerador, física de partículas e também debate a política de incentivo a pesquisa. Em abril desse ano eu tive a oportunidade de assistir a palestra de uma das pessoas que trabalha nessa investigação, o Ben Kilminster, que aparece no documentário (andando de patins e atrás de um quadro branco). Ficou claro que o Fermilab tem muito pouca chance de detectar o Higgs: o ruído é grande demais, a remoção deste atualmente é confiada numa rede neural, e vai demorar ainda mais dois anos para eles chegarem a ter sensibilidade suficiente para poder excluir o Higgs do Modelo Padrão.
quinta-feira, 4 de setembro de 2008 | Postado por Leonardo Motta às 10:52 4 comentários
Descobridores do grafeno ganham prêmio
http://physicsworld.com/cws/article/news/35665
Andre Geim e Kostya Novoselov da Universidade de Manchester, Inglaterra, receberam o prêmio de €10.000 da Sociedade de Física da Europa pela descoberta do grafeno em 2004. O grafeno é uma folha de átomos de carbono de apenas 1 átomo de espessura, e atraiu grande interesse quando foi descoberto em 2004 porque é possível montar um certo tipo de transistor com o material onde os elétrons se movem mais rápido do que no silício. Ano passado, um grupo liderado por Charles Marcus em Harvard construiu a primeira junção p-n de grafeno, que é parte do esquema necessário para um transistor. Os físicos dessa área estão dizendo que talvez estejam em face ao desenvolvimento de novos transistores comerciais mais rápidos que os atuais.
quarta-feira, 3 de setembro de 2008 | Postado por Leonardo Motta às 09:10 0 comentários
Marcadores: computação, estado sólido, física, tecnologia
O Efeito Unruh
Continuando as postagens sobre termodinâmica do espaço-tempo, essa é sobre uma descoberta curiosíssima devida a Bill (William) Unruh em 1976, um ano depois da descoberta da radiação Hawking [1].
Existência de partículas depende do observador
Nós temos uma noção intuitiva do que é uma partícula, porém somente em 1939 que Eugene Wigner deu uma definição matemática concreta para o que é uma partícula [2]. A definição matemática eu vou deixar de lado aqui, e notar apenas duas coisas importantes:
- O conceito depende explicitamente de uma escolha de coordenada de tempo [3]. Para a simetria de Galileu, como aquela presente nas leis de Newton, isso não é um problema, pois todos os observadores do universo concordam que o intervalo de tempo entre dois eventos físicos é o mesmo. No entanto, isso só é verdade como uma aproximação. Por exemplo, suponha que há vários múons sentados (em repouso) em cima da mesa onde está o seu computador. Com relação ao relógio do computador, os múons decaem radioativamente em média de 10-6 segundos. No entanto, quando estamos observando múons vindo a alta velocidade da alta atmosfera em direção ao chão — agora estamos vendo os múons do referencial em que estão em movimento — eles vivem mais que 10-3 segundos (isso é um fato experimental). Assim, dois observadores diferentes não concordam entre quanto tempo leva para um múon decair.
- Uma vez feita a identificação matemática do que significa uma partícula, pode-se introduzir um observável que conta quantas partículas existem no sistema. Com isso pode-se calcular, por exemplo, quantos elétrons N(θ) em média devem ser encontrados em um certo ângulo θ no experimento do espalhamento Compton dentro de uma certa área A naquele ângulo vista a uma certa distância r de onde ocorre o espalhamento. A concordância entre o cálculo e o efeito associado a "encontrar um elétron naquele ângulo" é perfeita [4].
Por causa que dois observadores diferentes não necessariamente concordam com o intervalo de tempo entre dois eventos físicos, eles também não conseguem concordar sobre a existência de partículas. Em 76, Bill Unruh mostrou, por exemplo, que se o observador S mede o universo no estado de vácuo, ou seja, ele tem que o número de partículas no universo é zero, então qualquer observador K que se move com relação a S com uma aceleração a mede N no universo como sendo diferente de zero, para K o universo está completamente preenchido de partículas em equilíbrio térmico e na temperatura
Horizonte de Rindler
No diagrama, a curva grossa é a trajetória t(x) de um corpo com aceleração constante a. Nesse diagrama, a velocidade da luz tem valor 1. Sendo assim, as linhas retas t = x + b, t = -x + b são as linhas por onde a luz se propaga. Qualquer sinal físico entre um ponto a outro só pode ser transmitido com inclinação igual ou maior que 1. Portanto, qualquer sinal emitido na região II jamais chega ao observador acelerado, mas o observador pode enviar sinais para essa região. Sinais na região IV podem atingir o observador, mas ele não pode emitir sinais para essa região. A região III está completamente incomunicável com o observador, para qualquer tempo futuro. Sendo assim, um observador acelerado, por causa da finitude da velocidade da luz, não tem como obter informação sobre todo o espaço-tempo. Qualquer raio de luz que ele vê passar para a região II jamais retorna. Nesse sentido, as linhas tracejadas que delimitam a interface entre as regiões I, IV e II definem um horizonte de eventos para o observador acelerado, similar (mas não idêntico) ao horizonte de eventos de um buraco negro. Então parece que a termodinâmica de buracos negros é só a ponta do iceberg da relação entre Termodinâmica e espaço-tempo.
Notas e referências
- W. G. Unruh, Phys Rev D 14, 4, 870 (1976).
- E. P. Wigner, Ann. Math. 40 149 (1939).
- Para benefícios dos físicos que porventuram estiverem a ler isso: uma partícula é definida como um auto-estado de H e P, e H é definido como o gerador de translações temporais U(t). Escolhas diferentes da coordenada t representam escolhas diferentes do operador H.
- E.g. R. P. Singhal, A. J. Burns, Am. J. Phys. 46, 6, 646 (1978).
- George Matsas e Daniel Vanzella, que são experts nessa área, afirmam que não faz sentido buscar testes experimentais da radiação Unruh (Int.J.Mod.Phys.D11:1573-1578,2002; ou arxiv:0710.5373). O argumento deles: embora a escolha de partículas depende do referencial, a descrição é completamente covariante, portanto sempre é possível escolher um referencial em que o efeito Unruh desaparece. Isso é verdade, mas discordo que isso signifique não ser necessário medir o efeito: é importante demonstrar experimentalmente que a nossa definição de partículas, que leva a definição do número de ocupação N, realmente concorda com a realidade da Natureza, independente da escolha de referencial. O efeito de fato é automático, é uma previsão da teoria, mas precisa ser testado como qualquer outro efeito.
sexta-feira, 29 de agosto de 2008 | Postado por Leonardo Motta às 12:50 0 comentários
Marcadores: física, termodinâmica
Informação e entropia
Eu comentei antes brevemente sobre informação e entropia, mas não dei uma explicação satisfatória. Aqui eu pretendo explicar melhor para semana que vem continuar a falar sobre a termodinâmica do espaço-tempo.
Medida de informação
- I(1) = 0, ou seja, se já sabíamos que a mensagem seria recebida (a mensagem tem probabilidade 1), nenhuma informação foi ganha.
- I é decrescente no intervalo [0,1], ou seja, quanto menos achávamos provável receber a mensagem, mais informação ganhamos ao recebê-la.
- Se recebemos duas mensagens (estatisticamente independentes) em sucessão, a quantidade de informação ganha é a soma da informação contida em cada mensagem: I(pq) = I(p) + I(q).
para uma constante arbitrária k. No caso da comunicação digital, é conveniente definir k de modo que
I(p) = -log2 p
Falta de informação média e entropia
Agora considere o caso de uma linha de átomos, cada átomo com um momento magnético que pode apontar para cima ou para baixo, ou então uma seqüência de moedas, cada uma podendo estar na posição cara ou coroa. Em princípio, um experimentador poderia medir simultaneamente a direção de todos os spins da cadeia, ou fotografar a seqüência de moedas por inteiro. Isso permitiria determinar completamente o estado do sistema, que vamos chamar estado microscópico. Se a cadeia se organiza aleatoriamente (ou as moedas foram todas jogadas aleatoriamente para cima antes de cair no seu lugar na seqüência), então para cada estado possível m da cadeia há uma probabilidade pm do experimentador encontrar a cadeia naquele estado. Observe que não precisamos supor nada sobre essa distribuição de probabilidades: pode ser que a chance de obter cara seja 1/2, mas pode ser que seja 1/6 (moeda enviesada). O único requisito é que
Portanto, a quantidade média de informação perdida do sistema se o experimentador não realizar nenhuma medida, é
O significado informacional da temperatura, pressão e potencial químico
Toda a Termodinâmica é um caso particular de um problema matemático da teoria de informação. Na Termodinâmica dos gases, por exemplo, nós temos um sistema físico composto de N partículas, cada partícula com uma energia ε, e todas as partículas juntas ocupam um volume total V. Nós poderíamos, em princípio, medir experimentalmente a posição e a velocidade de cada partícula. Mas como em um gás há ~ 1023 partículas, isso seria uma tarefa hercúlea. No lugar disso, nós vamos dizer que as partículas podem estar com uma certa distribuição de probabilidades com uma dada velocidade e posição, e a única coisa que sabemos é o valor estatístico médio de certas variáveis. Por exemplo,
Nota final: revisitando entropia e desordem, e matando de vez por todas o clichê criacionista
Como expliquei no blog antes, o sistema magnético é um exemplo de sistema onde maior entropia significa maior ordem (e não desordem). Primeiro, vou explicar com outras palavras para que fique mais claro.
- Na Wikipedia há um artigo que mostra como fazer esse cálculo. Você também pode aprender um pouco mais sobre teoria de informação lá.
- Os cálculos detalhados e uma argumentação brilhante de porque a Termodinâmica é nada mais que um problema da teoria de informação, pode ser encontrado nos artigos de E. T. Jaynes Phys. Rev. 106, 620 - 630 (1957); Phys. Rev. 108, 171 - 190 (1957), ou então no livro E. T. Jaynes, Probability Theory, ou também alguns livros de física estatística, como do Roger Balian, From microphysics to macrophysics, Springer.
domingo, 24 de agosto de 2008 | Postado por Leonardo Motta às 13:47 4 comentários
Marcadores: física, termodinâmica
Igreja universal é condenada por explorar deficiente mental
http://www1.folha.uol.com.br/folha/cotidiano/ult95u436429.shtml
Te tomam tudo, a vida, a grana e a alma
E ainda querem que você tenha calma
Por isso eu vou falar (pode falar)
Vou contar (pode contar)
Sobre os filha da puta que só querem te roubar
Fundam uma igreja ora vejam, onde já se viu
Enriquecer com a fé alheia (puta-que-pariu)
E é inútil tentarmos abrir os olhos do povo
Pois se um abre os olhos, mil olhos fecham de novo.
E eles dizem que você está com o demônio,
mas o demônio habita no seu patrimônio.
E eles farão o favor de tomar toda sua grana,
porque a grana pra eles é uma coisa profana
Só que aí, o demônio vai parar com quem?
No bolso do filha da puta que fica rico dizendo amém!
Essa não é a primeira ação do mesmo gênero. Pessoas que doaram para a Universal, Reino de Deus, Renascer e a Igreja Católica, já entraram com processos na justiça. Uns anos atrás a Folha fez um levantamento de alguns desses processos mais curiosos. Entre eles, havia o caso de um pedreiro, que solicitou a troca de uma escada para fazer serviço numa igreja da Universal, porque a que o pastor arranjou não ia sustentá-lo. Ao que o pastor insistiu: "Se tens fé, não cairás". O pedreiro teve traumatismo e quebrou vários ossos. Processou depois a Igreja.
quinta-feira, 21 de agosto de 2008 | Postado por Leonardo Motta às 22:26 0 comentários
Marcadores: religião
Termodinâmica de buracos negros
Depois de um projeto que não deu muito certo para estudar a analogia entre eletrodinâmica quântica em 2 dimensões e a constante cosmológica, passei a estudar no último mês o assunto da relação entre termodinâmica e espaço-tempo, e estou achando cada vez mais pérolas sobre o assunto. Vou falar nos próximos posts aos poucos sobre o que se trata.
Tudo começou com os estudos de Stephen Hawking e alguns colaboradores sobre buracos negros. Primeiro, Hawking e independentemente dele D. Christodoulou e R. Ruffini em 1971 descobriram que a área total de um buraco negro só pode crescer ou permanecer constante. Inicialmente, a análise deles considerava a validade das equações da Relatividade Geral, porém trabalhos posteriores de Hawking, Roger Penrose e especialmente de Robert Wald, deixaram claro que isso é um fato bastante genérico de qualquer espaço-tempo onde vale uma certa condição de causalidade (chamada de hiperbolicidade global) e onde há uma certa noção de espaço-tempo incompleto (a noção de singularidade dos buracos negros), mesmo que a Relatividade Geral não seja válida.
Pode-se ver que κ/8π [a força gravitacional na superfície do buraco negro] é análoga a temperatura do mesmo modo que A [área] é análoga a entropia. No entanto, deve ser enfatizado que κ/8π e A são distintas da temperatura e da entropia do buraco negro. De fato, a temperatura efetiva de um buraco negro é zero absoluto. Uma forma de ver isso, é notar que um buraco negro não pode estar em equilíbrio com radiação de corpo negro em nenhuma temperatura não-nula, porque nenhuma radiação pode ser emitida do buraco negro[grifo meu]
Em 1975, Hawking descobriu que eles não estavam corretos nessas afirmações. O que eles deixaram de fora eram as correções da mecânica quântica (ou mais precisamente, da teoria quântica de campos). Quando se leva em consideração a mecânica quântica, buracos negros vistos por um observador muito distante, agem como um corpo negro que emite radiação com a temperatura κ/2π. Em unidades do SI, um buraco negro eletricamente neutro de massa M sem rotação está em equilíbrio térmico a temperatura
- Um fenômeno puramente quântico, como se vê da presença da constante de Planck
- Relativística, pela dependência na velocidade da luz
- Gravitacional, pois depende da constante da gravitação universal de Newton
- Resultado da mecânica estatística, como se nota pela constante de Boltzmann.
quarta-feira, 20 de agosto de 2008 | Postado por Leonardo Motta às 17:45 0 comentários
Marcadores: buracos-negros, física, gravitação, termodinâmica
Pesquisadores criam robô com cérebro biológico
Pesquisadores da Universidade de Reading na Inglaterra, criaram um robô que é exclusivamente operado por um cérebro biológico. O cérebro é uma cultura de neurônios de ratos colocada numa malha em formato de disco com cerca de 60 eletrodos. Os eletrodos captam sinais dos neurônios que então são utilizados para comandar o movimento do robô. E quando o robô se aproxima de um objeto, sinais são enviados para os eletrodos para excitar os neurônios. O robô não utiliza nenhuma outra fonte de comando, seja de um computador externo ou humano. No momento, os pesquisadores estão brincando com a invenção, vendo se ele pode aprender e memorizar. Daqui a dois dias sairá uma matéria na New Scientist sobre o robô, batizado de Gordon.
quinta-feira, 14 de agosto de 2008 | Postado por Leonardo Motta às 20:07 0 comentários
Marcadores: neurociência, tecnologia
LHC anuncia primeira data
OK, as duas últimas semanas foram muito corridas, fiquei a semana anterior viajando... Mas semana que vem vai acalmar. Aos que lêem o blog respondi (atrasadíssimo!) os comentários no blog, os quais agradeço muito!
O que é o LHC?
O LHC (Large Hadron Collider, do inglês, Grande Colisor de Hádrons) essencialmente é um túnel de metal em formato de um círculo de 27 km de circunferência, 100 metros abaixo do solo, recoberto de imãs feitos de supercondutores de nióbio-titânio mantidos a -271.3 °C. Dentro do túnel, dois feixes de prótons circularão a 99.9999991% da velocidade da luz (quando o LHC estiver operando com dois feixes de 7 TeV). Na verdade, os prótons são injetados no círculo por um pré-acelerador a velocidades bem mais baixas, e a força magnética dos imãs supercondutores acelera os prótons até eles chegarem nessa velocidade. Os feixes então são feitos colidir de frente:
O LHC vai destruir o planeta Terra?
Muito provavelmente não. A histeria coletiva que surgiu na mídia é devido ao seguinte. Em 1998, foi proposta a hipótese de que talvez existam dimensões espaciais extras no universo (além das 3 que vivenciamos quotidianamente) que poderiam ser vistas no LHC. Se isso for verdade e se além disso a constante de gravitação de Newton total (incluíndo as dimensões extras) for bem maior do que o valor que ela tem na seção 3-espacial em que vivemos, então o LHC produzirá buracos negros. Esses buracos negros terão uma massa típica da ~ TeV, ou seja, nada muito mais pesado que um único núcleo de urânio. Para além da região do horizonte de eventos (a área do buraco negro), o campo gravitacional do buraco negro é como de qualquer distribuição clássica de matéria. De fato, o campo gravitacional do Sol externo a ele é o mesmo que aquele gerado por um buraco negro de massa igual a do Sol. Nem por isso, como qualquer um pode ver, a Terra é engolida pelo Sol. O campo gravitacional gerado por um buraco negro produzido no LHC seria muitíssimo pequeno em comparação com as energias cinéticas típicas das partículas nas reações, de modo que ele passaria desapercebido. Além disso, buracos negros evaporam: eles emitem luz através de um processo descoberto por Stephen Hawking (o mago dos buracos negros), e um com uma massa tão pequena, de apenas aproximadamente 10 vezes a massa do núcleo de urânio, evaporaria quase instantaneamente. Essa evaporação que seria o sinal do buraco negro nos detetores do LHC.
Qual o objetivo do LHC?
Rutherford em 1909 realizou o experimento que descobriu que os átomos eram compostos do núcleo e da eletrosfera. Ele demonstrou que o núcleo tinha 10-13 cm de tamanho típico. De lá para cá, a física foi se envolvendo na descoberta da estrutura última que compõe tudo que existe no universo. O LHC será o primeiro microscópio que visualizará como a Natureza é na escala de tamanho de 10-16 cm, mil vezes menor que o raio do próton. O objetivo do LHC é obter os fatos experimentais sobre a estrutura da matéria nessa escala de tamanho.
O LHC terá algum impacto tecnológico?
Sim. O LHC já possui um impacto tecnológico tremendo. Não do conhecimento que será produzido diretamente sobre a estrutura da matéria, mas dos desafios tecnológicos que precisam ser superados para o experimento funcionar. E são muitos! Para começar, o LHC já realizou dois avanços: 1) ele possui o maior sistema criogênico já montado e 2) ele possui o maior sistema informatizado de computação distribuída já planejado. O LHC coletará cerca de 15 milhões de gigabytes por ano, que ainda precisa ser processado. A análise dos dados será distribuída sobre diferentes clusters de computadores. Os maiores, pelo que eu saiba, são o do próprio CERN e outro localizado no Fermilab. Cada cluster são várias placas mãe de computadores, cada uma com quatro ou seis (não sei o detalhe da arquitetura que eles estão usando) processadores de última linha ligados em paralelo, e cada placa é ligada uma a outra diretamente. Só no CERN há até agora 30 mil CPUs instaladas, e 16 milhões de gigabytes de discos rígidos. O supercomputador do CERN é ligado a outros supercomputadores por fibras ópticas que transferem dados a 10 gigabits por segundo. O recorde mundial de velocidade de transferência de dados é a linha CERN-Fermilab: 600 megabytes por segundo. Isso é equivalente a transferência de dados de um CD inteiro em apenas 1 segundo da Europa até os EUA. Atualmente, o meu provedor da Internet em casa oferece 3 Megabits por segundo, o que me levaria 125 anos (mais de um século!) para baixar a mesma quantidade de dados que leva 10 dias na conexão do CERN. Nenhuma conexão de rede do planeta, entre quaisquer empresas de telecomunicação ou dentro de uma rede privada, é tão rápida.
sexta-feira, 8 de agosto de 2008 | Postado por Leonardo Motta às 10:37 3 comentários
Marcadores: física, partículas elementares
Hoje no arxiv.org
[post técnico]
chamou-me atenção o artigo,
arxiv:0807.3692
que mostrou o seguinte: um universo FRW com constante cosmológica (CC) e um fluido imperfeito com viscosidade proporcional a 1/Hb, com b> 1 um parâmetro constante e H o parâmetro de Hubble, tende a um universo de Sitter no futuro (quando o fator de escala vai a infinito) com um parâmetro de Hubble H inversamente proporcional a constante cosmológica nua (bare). Assim, é possível colocar uma constante cosmológica muito grande na Lagrangeana e obter um valor pequeno para a constante cosmológica observável, resolvendo o problema da constante cosmológica.
Algo tão simples, porque ninguém pensou nisso antes? Será meio embaraçoso se um fluido imperfeito for responsável pelo pequeno valor observado da CC... todas aquelas contas de superpotenciais na supergravitação de 11 dimensões vão para onde?sexta-feira, 25 de julho de 2008 | Postado por Leonardo Motta às 15:32 2 comentários
Marcadores: cosmologia, física
As equações de Maxwell e monopolos magnéticos
Por que existe carga elétrica, mas não existe carga magnética? Ampère e Maxwell mostraram como o campo magnético B se relaciona com uma corrente elétrica (cargas elétricas em movimento). A equação de Ampère-Maxwell no entanto não é suficiente para determinar o campo magnético. É necessária uma equação análoga a lei de Coulomb (ou Gauss), mas como aparentemente não existem cargas magnéticas na Natureza, Maxwell impôs a mesma lei de Gauss para o campo magnético mas com carga zero. No entanto, é possível mostrar que as equações de Maxwell possuem uma simetria: coloque nas equações uma carga magnética
Monopolo de 't Hooft e Polyakov
Monopolos magnéticos e discretização da carga elétrica
Uma motivação, ou atrativo, de se introduzir monopolos magnéticos é que a existência deles resolve o problema da discretização da carga elétrica. Dirac mostrou que se existem monopolos magnéticos, então a carga elétrica tem que ser discretizada, isto é, os valores permitidos para a carga elétrica de sistemas físicos deve ser um múltiplo inteiro de uma constante universal. O valor da constante não é fixado, mas isso explicaria porque todos os bárions observados na Natureza sempre possuem ou zero, ou uma, ou duas ... vezes a carga do elétron (ao invés de, digamos, 8/3 ou 1.314 vezes a carga do elétron).
Referências técnicas
- Para o monopolo de Dirac, J. D. Jackson, Classical Electrodynamics, John Wiley (edição 2 ou 3)
- S. Weinberg, The Quantum Theory of Fields, Vol. 2, Cambridge University Press, cap. 23
- S. Coleman, Aspects of Symmetry, Cambridge University Press, cap. 6-7
- papers do 't Hooft.
- M. Nakahara, Geometry, Topology, Physics, Taylor&Francis, para os aspectos matemáticos (grupo de cohomologia do espaço de soluções, etc.)
terça-feira, 22 de julho de 2008 | Postado por Leonardo Motta às 09:45 3 comentários
Marcadores: física, partículas elementares