quarta-feira, 25 de maio de 2011

Do certo ao duvidoso

Saiba como grandes descobertas científicas só foram possíveis graças ao avanço da estatística

Por Márcio Barreto 
Revista Carta Capital

A estatística quer ser pop, reportagem de Luiz Antonio Cintra disponível também em www.cartanaescola.com.br, tece relações entre ciência, política e sociedade. Talvez por isso o texto comece e termine com frases de Albert Einstein, o primeiro cientista pop, celebridade cuja obra teve desdobramentos dentro e fora do território da ciência.

Mesmo sem a mesma visibilidade do físico judeo-alemão, a estatística tem orientado decisões em diversos planos da atividade humana. Cada vez mais, apostamos em probabilidades respaldadas pela estatística.
Pode ser interessante explorarmos no Ensino Médio como essa tendência se construiu na Física, como o “muito provável” foi se revelando mais adequado do que o “absolutamente certo” para descrever o comportamento da natureza no nível subatômico.

A CONSTANTE DE PLANCK

A Mecânica Quântica comemorou seu centenário no ano 2000. O marco inicial desse modelo científico foi a Constante de Planck, anunciada em 1900 pelo -físico alemão Max Planck (1858-1947).

Planck havia se deparado com o problema da emissão de calor por um corpo negro. Tentando ajustar as discrepâncias entre a Física clássica e os resultados experimentais, ele postulou que a energia emitida por um corpo negro é proporcional à sua frequência.

Essa proporcionalidade tem uma constante: (h = 6,626 x 10-34 kg.m2.s-1) e, de acordo com suas observações, a energia só pode ser irradiada ou absorvida em quantidades que sejam múltiplos de h.f, onde “h” é a constante de Planck e “f”, a frequência da radiação emitida. A energia só é emitida absorvida em “pacotes”, em “quanta”, de um h.f, tal como, num supermercado, só compramos leite em embalagens de um litro (podemos comprar um, dois ou três litros, mas não dispomos de leite em quantidades que não sejam múltiplos de um litro). Assim, E=n.h.f, onde n é um número inteiro (E = 1. h . f, E = 2. h .f , E = 3.h.f …).

As implicações dessa equação foram enormes e surpreenderam o próprio Planck, pois a teoria clássica previa que a emissão da energia se dá numa distribuição contínua. Por exemplo, se observarmos um pêndulo oscilando, veremos que a transformação de energia cinética em potencial (e vice-versa) se dá de maneira contínua e não “quantizada”; nossa percepção diz que o pêndulo não oscila em “solavancos”. Isso porque, aplicada aos fenômenos compatíveis com a escala antropométrica, a equação de Planck resulta em “pacotes” de energia tão pequenos que os “solavancos” do pêndulo são imperceptíveis.

Apesar do olhar desconfiado de muitos cientistas da época, a ideia da equipartição de energia seguiu seu próprio caminho e foi importante para Einstein explicar o efeito fotoelétrico, para Bohr criar um novo modelo do átomo etc.

O ÁTOMO DE BOHR

No fim do século XIX, o átomo representava a menor partícula de qualquer substância, sem partes internas ou estruturas secundárias; fiel à origem grega da- -palavra,- o átomo era indivisível. Isso até que o físico inglês sir Joseph John Thompson (1856-1940) descobrisse, através de experimentos com raios catódicos realizados no Laboratório Cavendish, que os átomos possuíam partículas ainda menores chamadas, a partir de 1897, de elétrons. No modelo atômico de Thompson, o que era indivisível passou a ser constituído de elétrons (de cargas negativas) espalhados numa espécie de geleia de carga oposta. Esse modelo atômico ficou conhecido como pudim de passas.

Ernest Rutherford (1871-1937), físico neozelandês, chegou a Cambridge em 1895 para trabalhar sob a orientação do professor Thompson. Num célebre experimento, ao bombardear com partículas alfa uma lâmina de ouro muito delgada, Rutherford observou que a maioria dessas partículas atravessava a lâmina; no entanto, algumas eram defletidas, refletidas ou ricocheteadas. O experimento de Rutherford forçou um novo modelo de átomo: ele possuiria um núcleo muito pequeno, onde se concentravam a carga positiva e a sua massa, ao redor do qual giram os elétrons de carga oposta.

Havia, porém, um problema com esse modelo atômico: ele não se adequava às já conhecidas leis de James Clerk Max-well (1831-1879), físico que, em meados do século XIX, desenvolveu teorias matematicamente profundas sobre as ondas eletromagnéticas, segundo as quais o elétron, ao girar ao redor do núcleo, irradiaria energia e, assim, acabaria se precipitando sobre o núcleo. Se assim fosse, toda a matéria seria instável ou impossível.

Para justificar a estabilidade das órbitas dos elétrons ao redor do núcleo, o físico dinamarquês Niels Bohr (1885-1962) introduz uma ideia radical: os elétrons poderiam existir, sem irradiarem energia, em órbitas específicas, cujos raios fossem múltiplos de um valor fixo, isto é, quantizados. Esse valor fixo foi obtido a partir da constante de Planck e o elétron só irradiaria ou absorveria energia quando saltasse de uma órbita para outra, o que explicaria a estabilidade da matéria e a não precipitação dos elétrons sobre o núcleo.

O EFEITO FOTOELÉTRICO

Ao incidir numa placa metálica, um feixe de luz de alta frequência faz com que dessa placa “saltem” elétrons. A emissão de elétrons de um metal por ação da luz é um fenômeno conhecido como efeito fotoelétrico, o qual não tinha uma explicação convincente no fim do século XIX. Esse era um dos pontos que incomodavam os cientistas da época. Em 1905, mesmo ano em que propõe uma primeira versão da Teoria da Relatividade, Einstein interpretou o fenômeno imaginando a luz composta de “pacotes” quantizados de energia (fótons), contribuindo decisivamente para a criação da Mecânica Quântica. A energia cinética dos elétrons ao saltarem das placas é obtida pela diferença entre a energia da radiação incidente (dada pela equação de Planck, E = n.h.f) e a energia necessária para “arrancar” elétrons da placa (chamada de “função trabalho”).

Einstein reacendeu uma antiga discussão sobre a natureza da luz, propondo que, no caso do efeito fotoelétrico, ela se comportava como corpúsculos de energia, mas manteve as outras características ondulatórias da luz. A luz possui, segundo ele, um comportamento dual, de onda e de partícula – de certa forma conciliando a teoria ondulatória de Huygens e a teoria corpuscular da luz de Newton.

A aplicação do efeito fotoelétrico hoje em dia é enorme: podemos citar as células solares e fotovoltaicas, a ativação do sistema de iluminação pública ao anoitecer e todo dispositivo eletrônico que é controlado ou é acionado pela luz.

A DUALIDADE ONDA-PARTÍCULA

Um historiador francês que se interessou por ciência, Louis De Broglie (1892-1987), ofereceu uma nova visão sobre as ondas e as partículas. De Broglie estudou História na Sorbonne e adquiriu interesse pela ciência durante a Primeira Guerra Mundial. O doutorado de De Broglie propunha que, se a luz (que é uma onda) pode se comportar como partícula (fótons) ao produzir o efeito fotoelétrico, os elétrons (que são partículas) podem se comportar como ondas.

O comportamento ondulatório dos elétrons foi comprovado por sir G. P. Thompson, filho de J. J. Thompson, ao observar, em 1927, a difração (fenômeno tipicamente ondulatório) de elétrons em redes de cristal. Thompson (pai) ganhou o Prêmio Nobel por descobrir que o elétron é uma partícula e Thompson (filho) ganhou o mesmo prêmio por confirmar que o elétron é uma onda. Como a luz, o elétron também tem comportamento dual.

O físico austríaco Erwin Schroedinger (1887-1961) propôs que, em vez de descrever órbitas precisas ao redor do núcleo, o elétron poderia ocupar qualquer posição dentro de uma região ou orbital. No entanto, apesar de poder estar em qualquer parte dessa região, o elétron tem maior probabilidade de ficar a uma distância do núcleo igual à do raio da órbita prevista por Bohr.

No lugar de afirmar que o elétron se encontra numa órbita de raio definido, Schroedinger prefere dizer que essa órbita representa a região de maior probabilidade de se encontrar o elétron.

O PRINCÍPIO DA INCERTEZA

Werner Heisenberg aluno, discípulo e amigo de Bohr, introduziu na Mecânica Quântica o Princípio da Incerteza, segundo o qual é impossível determinar, ao mesmo tempo, a posição e a quantidade de movimento de uma partícula: quanto mais se conhece a posição de uma partícula, menos se sabe para onde e com que velocidade ela se movimenta (e vice-versa). Também no Princípio da Incerteza, a Constante de Planck tem um papel central, relacionando a posição com a quantidade de movimento da partícula.

O Princípio da Incerteza de Heisenberg ia de encontro ao determinismo da Física clássica, pois as leis da natureza deveriam, segundo os modelos clássicos, localizar e determinar a quantidade de movimentos de um corpo físico sem qualquer margem de indeterminação. Einstein permaneceu fiel ao determinismo científico e não poderia aceitar a Física Quântica como uma ciência acabada; ele a considerava uma ciência provisória.

As divergências entre Einstein e seus admiradores – especialmente entre Einstein e Bohr – ganhou um tom espetacular em 1927, no quinto Congresso Solvay. Foi a ocasião em que os físicos criadores da Teoria Quântica esperavam convencer Einstein da validade da teoria da qual estavam orgulhosos, pois haviam chegado a um solo comum após anos de discussão.

A tarefa, entretanto, foi mais difícil do que eles imaginavam. Einstein fez uma série de objeções que os obrigou a refazer seus raciocínios. Diz a lenda que os argumentos de Einstein apresentados no jantar em que o embate principal se deu foram derrubados por Bohr no café da manhã do dia seguinte, mas Bohr teria passado a noite em claro refletindo sobre as objeções de Einstein. À famosa frase de Einstein, “Deus não joga dados”, Bohr teria dado como resposta: “Não diga a Deus o que ele deve fazer”.

Nenhum comentário:

Postar um comentário