Archive for junho, 2012


Ainda dentro de tema “Dualidades” e dando continuidade ao post anterior, podemos perceber que ciência e religião, física e metafísica, objetividade e virtualidade, determinismo e probabilismo, cruzam-se frequentemente no campo das idéias e essa aparente disputa aparece na mente dos cientistas desde o início da ciência e continua hoje, mais viva do que nunca no século XXI.

Há presentemente uma batalha entre cientistas que alegam que há colegas querendo “desvirtuar” a ciência transformando-a em religião, abrindo inclusive espaço para o incluir Deus …. Eles se referem, por exemplo, a Amit Goswami, importante cientista hindu que vive nos EUA, é PhD em mecânica quântica e professor titular de física da universidade de Oregon e ao conhecido Fritjof Capra, doutor em física e professor da Universidade da Califórnia, autor de muitos livros, entre eles o famoso “O Tao da Física”.

De fato, à medida que “entidades não observáveis” são introduzidas na ciência ela se aproxima da religião e com ela se funde, ou confunde. E isso representa uma nuance de significados, positivos ou negativos, dependendo de quem os analisa.

De um lado, temos aqueles que defendem que a ciência deve se apoiar completamente em causalidades, relações de causa e efeito bem definidas que tem estados de início, caminho e fim, e se apegam à visão de Albert Einstein, que reformulou a mecânica clássica de Newton.

Mas até onde vai a objetividade na ciência? Ernst Mach (1838-1916), filósofo e físico que exerceu grande influência sobre Einstein, afirmava que, ou uma proposição é demonstrável experimentalmente ou deve ser abandonada, considerada como metafísica e sem fundamento, validando a opinião do químico Wilhelm Ostwald que o conceito de átomo era inútil e supérfluo em física.

De outro lado, temos teorias que descartam a existência formal de um único caminho para tudo, uma realidade objetiva. Na mecânica quântica, a cada partícula se deve associar um conjunto de ondas concentrado no espaço e se propagando nele. Por exemplo, um elétron em um átomo é associado à uma onda estacionária e isto resolve uma série interessante de problemas, mas a natureza dessas ondas é um enigma. Na verdade, são espaços de probabilidade onde a partícula pode ser encontrada, são ondas de probabilidade, portanto virtuais e não reais.

Se aplicarmos o princípio da incerteza ao elétron, por exemplo, segundo a teoria do americano Richard Feynman, mesmo no espaço vazio, pares de partícula / antipartícula virtuais aparecem e se aniquilam reciprocamente. Não se parte da premissa que a partícula tenha uma única história ou caminho, pelo contrário, supõem-se que ela vá do ponto A para o ponto B por todos os caminhos possíveis e a probabilidade da partícula ir de A para B é o resultado da soma de todas as probabilidades de todos os caminhos.

Extrapolando esta ideia, não precisamos supor que nosso universo é único, que a partícula original que criou tudo, “a partícula de Deus”, tenha tomado exclusivamente este caminho, mas podemos imaginar infinitos Universos possíveis existentes para cada estado possível …

Outro ponto é que o mundo das probabilidades existentes na partícula é transformado em realidade somente ao ser observado e esta transformação então depende do observador de modo que antes da medição essa realidade objetiva “não existia”, ideia a que Einstein se opôs obstinadamente. Veja o post “A Possibilidade em Aberto”.

Tais premissas abrem espaço para que, alguns, como os cientistas citados, se apoiem nisto para criar uma relação entre a física e a espiritualidade.

Sobre a interpretação “ortodoxa” da mecânica quântica Einstein disse:

“A idéia de um elétron exposto à uma radiação que escolha livremente o momento e a direção para onde quer ir me é insuportável. Se assim fosse, eu preferiria ser sapateiro ou até mesmo empregado de cabaré a ser físico”. E ainda em uma carta a Max Born ele escreveu sua famosa frase:

“Você acredita em um Deus que joga dados, e eu no valor único das leis no universo onde algo existe objetivamente”.

Quem poderá provar essas teorias? E se não puderem ser experimentadas devem ser descartadas? Se são utilizadas com tanto sucesso na eletrônica moderna porque não podemos extrapolar suas afirmações e criarmos um paralelo com o Taoismo chinês?

Essas são questões complexas e que estão gerando um grande debate sobre até que ponto a ciência deve manter sua objetividade e causalidade e até que ponto a teoria da complementaridade de Heisenberg deve ser aceita e introduzida na física, deixando cega a “navalha de Ockham”.

Segundo o Dr. José Croca, professor do Departamento de Física da Faculdade de Ciências de Lisboa, que representa o lado racionalista da ciência, toda teoria em seu início tem sua limitação e esta vai com o tempo sendo questionada e na maioria das vezes é eliminada.

Assim, por exemplo, mostrou-se no início do século passado, que a teoria de Newton, a mecânica clássica, tinha limites de validade e, portanto, não era, como se afirmava, a teoria completa e infalível válida para todas as escalas de observação e descrição.

“Nessas condições, pretender que a mecânica quântica ortodoxa seja uma teoria completa e definitiva, em suma, a última verdade, constitui, a meu ver, um ato mais religioso que científico, ou então, na melhor das hipóteses, uma atitude ingênua”.

Anúncios

Observe a pintura ao lado, “Model in Profile”, do pintor francês Georges Seurat (1886) que está no Musee d’Orsay em Paris.

Para realizar seu trabalho artístico, ele aplicou as teorias científicas sobre a luz desenvolvidas no século XIX.

Usou a idéia sobre o contraste das cores do químico francês Michel Chevreul, a lei do contraste simultâneo das cores (livro de 1839), segundo a qual duas cores, uma ao lado de outra, sem serem mescladas, têm sua aparência original modificada. Por exemplo: uma cor fria e uma cor quente justapostas se reforçam simultaneamente, assim como uma cor quente com uma cor quente se esfriam, ao contrário de duas cores frias, que se aquecem.

Utilizou a descoberta do físico escocês James Clerk Maxwell (1850) que as cores podem ser misturadas e enxergadas formando uma mistura ótica, da mesma forma que na paleta dos artistas.

Inspirou-se também no artista e pesquisador americano Ogden Rood que propôs em 1879 que efeitos óticos idênticos acontecem quando diferentes cores são colocadas lado a lado em linhas ou pontos e, então, observados a uma certa distância, a mescla é completada pelo olho. Em suas pinturas, Seurat também recorreu à técnica da simetria dinâmica, usando retângulos de ouro, tal como Piet Mondrian e Leonardo Da Vinci.

Através de toda esta bagagem científica Seurat criou a escola chamada Pontilhismo (ou divisionismo) que mais tarde deu origem ao neo-impressionismo. A novidade consistia em justapor pontos de cores brilhantes e contrastantes para que a forma fosse percebida sem que se usasse a linha para contorná-la.

Em suas esboços, trabalhava somente com matizes de cores puras em sua paleta, que foram arranjados na ordem do espectro para criar uma trama de cores, usando pontos de tons contrastantes que representam o entrelaçamento das cores naturais com as cores da luz e seus matizes de sombras complementares.

Seus trabalhos foram considerados como arte científica porque neles foram utilizadas proporções de luz e cor tais que demonstram que as misturas óticas criam o mesmo efeito de luminosidade que a luz.

Pode-se dizer que a arte pontilhista foi precursora da televisão e da imagem digital.

O quadro acima é o famoso Estudo de Seurat “Uma Tarde de Domingo na Ilha de Grande Jatte” (1884 – 1885) que está no Metropolitan Museum of Art de Nova York.

Ao observar este fantástico, maravilhoso quadro, o que ele poderia inspirar?

O ponto que quero chamar atenção aqui é a visualização que as Dualidades não são necessariamente incompatíveis entre si ou “mutuamente exclusivas”, como se diz na linguagem matemática. Os pontos, ao serem inseridos na tela constróem uma forma que não possui linhas que, entretanto, são vistas, aparecem na imagem; igualmente não há luz formada por um espalhamento de tinta pelo pincel ao cobrir o quadro, existem somente pontos claros e pontos escuros que criam o efeito de luz e sombras.

Este quadro remete a uma questão de 1926 que está presente ainda hoje na mecânica quântica e em muitas outras dualidades que encontramos não apenas na ciência, mas também em nossas vidas.

Como se pode entender o dualismo entre ondas e partículas que a luz apresenta e é comprovado em diferentes experiências? Como se pode entender sua natureza ondulatória e ao mesmo tempo corpuscular?

Niels Bohr introduziu em 1927 uma nova ferramenta lógica que chamou de “complementaridade”. Esse termo designa um modo de considerar, sem contradição, dois conjuntos de conceitos que se excluem mutuamente, mas que são ambos necessários para explicar uma realidade.

Um dos mistérios que a física moderna procura resolver é descobrir como tudo começou, de onde vem nosso universo e como a massa foi formada.

Já comentamos em diversos posts sobre a teoria do Big Bang, a explosão inicial que determinou a nossa existência, mas daí surge o desafio de explicar o que aconteceu desde 1 trilionésimo de segundo depois até hoje… como criar uma teoria consistente capaz de estabelecer uma ponte entre este início e o que vemos hoje na imensidão do espaço?.

Porque somos formados por partículas e não por anti-partículas? Se tudo era energia, como surgiu a massa?

Partículas são frações da matéria, como por exemplo os átomos, que por um tempo se pensou serem constituintes elementares, isto é, indivisíveis. Mas logo se descobriu que são formados por prótons, nêutrons e elétrons, que são suas subpartículas contendo massa.

A possibilidade de dividir o átomo provocou a discussão de quais são realmente as menores partículas, as chamadas “partículas elementares” e como elas interagem para formar a matéria que conhecemos, assunto que é estudado na Mecânica Quântica.

Através do choque entre prótons ou elétrons nos aceleradores de partículas, descobriu-se muitas outras subpartículas, a maioria delas instável, com um curtíssimo período de vida, e então foi decidido organiza-las em grupos de “partículas elementares” conforme suas propriedades, como o “spin”, por exemplo. No encontro entre estas partículas aceleradas à velocidade da luz pode-se alcançar temperaturas 100 mil vezes mais altas que as do Sol e então simular as condições que prevaleceram nas frações de segundo depois do “Big Bang”, pelo qual hoje pensa-se que o Universo foi criado há 13,7 bilhões de anos.

Destaca-se a pesquisa que tem sido feita no Grande Colisor de Hádrons (GCH ou LHC), o gigantesco acelerador de partículas localizado a cerca de 150 metros embaixo da terra e instalado na fronteira entre Suíça e a França, construído pela Organização Europeia para Pesquisa Nuclear (CERN) ao custo de 8 bilhões de dólares. O mesmo lugar que recentemente anunciou que foram detectacdos neutrinos que poderiam viajar acima da velocidade da luz.

Estes choques, realizados no LHC podem ser ilustrados como se a partícula (no caso, o próton) fosse o motor de um carro e o lançássemos contra a parede para recolher os pedaços e descobrir do que ele é feito…

Nestes testes foi descoberto, por exemplo, que prótons e nêutrons (ambos conhecidos também por Hadrons, por isso o nome, LHC) são formados por uma trinca de Quarks e por isso os Quarks foram considerados como partículas elementares, junto com os Leptons (que tem massa mas não são feitos de Quarks) e os Bosons (que tem “spins” inteiros).

Através dessa pesquisa foi proposta então uma teoria chamada de “Modelo Padrão” onde as partículas elementares encontradas são divididas em duas classes: os Férmions (subdivididos em Quarks e Leptons) e os Bósons (grupo a que os fótons pertencem, como a luz, que não tem massa) formando um grupo com 16 partículas elementares.

Todas as partículas previstas nesse modelo já foram descobertas, com exceção de uma: o “Bóson de Higgs”, também chamado de “A Partícula de Deus” que foi proposta para tentar explicar porque algumas partículas elementares tem massa, nome dado em homenagem ao pesquisador Peter Higgs que elaborou em 1960 uma teoria sobre a sua existência. O LHC foi criado principalmente para encontra-lo, uma vez que sua demonstração é atualmente um “gargalo científico” na mecânica quântica, para a validação do Modelo Padrão.

O Bóson de Higgs

O primeiro a postular a existência de uma partícula elementar foi Demócrito, em 400 A.C. Ele acreditava que toda a matéria seria constituída através da união entre pequenos e indivisíveis blocos de matéria. Surge daí uma questão filosófica interessante. No nosso pensamento, podemos dividir algo que tenha massa infinitamente e a fração resultante ainda terá massa…. Assim, seria interessante explicar a existência de massa através da ideia de um elemento que, ao interagir com um campo proveniente de outro elemento, “passe a ter massa”.

Nessa hipótese, temos a formação da massa em uma partícula que se transforma, que se constrói, ao passar por um campo de outra partícula e assim derrubamos o conceito de que a massa sempre existiu e tudo se formou a partir dela e então começamos a explicar o que aconteceu um bilionésimo de segundo após o Big Bang.

Porque esta partícula, a última que falta a ser descoberta na “família” quântica da Teoria Padrão, é tão importante e porque a chamam de “a partícula de Deus?”.

Segundo a teoria, logo após a explosão do Big Bang, quando o Universo foi criado, teria surgido o Bóson de Higgs, que deu massa a todas as outras partículas. uma partícula subatômica que foi prevista, mas nunca realmente detectada.

Uma das razões é pela sua propriedade de “criar massa” em uma outra partícula e transforma-la em uma partícula conhecida que juntamente com outras irá construir a matéria que conhecemos (algo que certamente Lord Voldemort desejaria para conquistar o Universo e derrotar Harry Potter !!).

O bóson de Higgs seria uma partícula que, como uma carga, emite um campo, chamado Campo de Higgs. Quando as partículas passam por este campo, elas interagem com essas “cargas” e esta interação é que as faz agir como se tivessem massa. Partículas mais pesadas são mais afetadas, partículas mais leves, menos. Desta forma, o mecanismo de Higgs é essencial para explicar as massas das partículas e a descoberta deste bóson significaria que este mecanismo realmente existe e nos ajudaria a estabelecer como verdadeira a teoria que fundamenta o mecanismo de Higgs e outras que nele se baseiam.

Explicaria por exemplo como as duas forças fundamentais do universo – a eletromagnética, que governa as interações entre partículas carregadas, e a fraca, responsável pelo decaimento radioativo – poderiam ser unidas uma vez que toda força na natureza está associada com uma partícula. A força associada com o eletromagnetismo é o fóton enquanto a “força fraca” está associada com os bósons W e Z, que ao contrário do fóton têm muita massa, sendo que atualmente o mecanismo de Higgs é tido como o responsável por isso.

Até o momento não se encontrou o boson de Higgs mas espera-se que em 2012 ele seja descoberto, porém, se em um futuro próximo ele for considerado como “provavelmente não existente” em determinado intervalo de confiança estatístico, esta conclusão é tão importante como a de encontra-lo, porque novos mecanismos mais sofisticados deverão ser propostos para explicar o fenômeno da criação da massa.

Se encontrado, o Bóson de Higgs não irá explicar tudo, pelo contrário, irão surgir provavelmente mais perguntas do que respostas porque os Férmions correspondem a aproximadamente 5% da massa do universo e surge então a intrigante pergunta: o que é a energia e a massa escura correspondente aos outros 95%?

Uma curiosidade sobre o LHC

O público conhece o CERN e o LHC pelo filme “Anjos e Demônios” (2009) da obra literária de Dan Brown, estrelado por Tom Hanks no papel de Robert Langdon, professor de simbologia contratado para elucidar o desaparecimento de 4 cardeais e que aborda o conflito entre Ciência e Religião, através da guerra entre a sociedade secreta “Iluminati” e o Vaticano.

Nesse filme, as anti-partículas geradas pela colisão dos prótons no túnel é concentrada e mantida represada em um campo eletromagnético de um recipiente, roubado pelos Iluminati para a destruição do Vaticano, simbolizando o triunfo da Ciência contra a Religião. Um grama de antimatéria, que é extremamente instável, realmente explodiria em contato com qualquer matéria, como o ar por exemplo e contém energia igual à de uma bomba nuclear.

A sociedade secreta “Os Iluminati” (os iluminados) realmente existiu na Bavária, atual Alemanha, em resposta à perseguição a cientistas promovida pela Igreja Católica, entre eles Galileu Galilei.

Pensa-se até o momento que a antimatéria é idêntica à matéria normal, exceto por ter partículas com cargas elétricas inversas.

Em novembro de 2010 uma equipe do CERN conseguiu confinar 38 átomos de antihidrogênio em uma armadilha magnética por mais de 17 décimos de segundo, o anti-hidrogênio é formado por um antiproton no núcleo e um pósitron (o antielétron) em sua órbita. Até o momento, podia-se criar antimatéria, mas não armazená-la de modo que assim, mais uma vez, a ficção científica antecipou a realidade, com os exageros de sempre, é claro. Notar que a armadilha (a direita) é muito parecida com a do filme inclusive…

Antimatéria – Revista Nature