Академический Документы
Профессиональный Документы
Культура Документы
br/quimica/atom
istica/evolucaodosmodelos.html
Introdução
Por volta de 2.450 de anos atrás ( 450 anos a. C. ), o Homem já começava a tentar
explicar a constituição da matéria. Essa tentativa era realizada pelos filósofos da
Antigüidade, que usavam apenas o pensamento filosófico para fundamentar seus
modelos e não utilizavam métodos experimentais para tentar explicá-los.
Leucipo afirmou, por volta de 450 a.C., que a matéria podia ser dividida em partículas
cada vez menores, até chegar-se a um limite.
As idéias de Demócrito, para alguns filósofos, eram um absurdo, "pois como iria existir
algo indivisível?". Porém, para alguns, suas idéias faziam sentido. Houve muitos
seguidores da idéia da "partícula indivisível", mas para a maioria isso era um absurdo.
Um dos filósofos que rejeitou o modelo de Demócrito foi Aristóteles, um dos maiores
pensadores filosóficos de todos os tempos. Aristóteles afirmava que a matéria era
contínua, ou seja, a matéria vista como um "todo inteiro", não sendo constituída por
partículas indivisíveis.
Enfim, o modelo aceito pela maioria até o final do século 16 não foi o de Demócrito e
Leucipo, mas sim o de Aristóteles, o modelo da matéria contínua.
Para explicar essas leis, em 1.808, Dalton propôs a sua teoria e o seu
modelo atômico: o átomo é uma minúscula partícula ( esfera )
maciça, indestrutível, impenetrável e indivisível. Para ele todos os
átomos de um mesmo elemento químico são idênticos, mas esses são
diferentes dos átomos dos outros elementos químicos. Seu modelo
atômico também é conhecido como modelo da bola de bilhar.
De
( 1.808 ) a ( 1913 )
O modelo atômico de Dalton, ou seja, a idéia de que o átomo é uma esfera maciça e
indivisível vigorou até o final do século 19, quase praticamente durante todo o século
19. Somente em 1.897, apareceu o modelo atômico de Thomson, que provou que o
átomo era dividido em partículas ainda menores, invalidando o modelo de Dalton.
Thomson verificou que o valor dessa relação ( carga/massa ) era igual para qualquer gás
que fosse colocado dentro da Ampola de Crookes. Com isso, ele conclui que os elétrons
deveria ser um componente de toda matéria ( já que qualquer gás apresentava a mesma
relação carga/massa do elétron ).
Veja como Thomson conclui que os elétrons faziam parte de toda matéria e como ele
pesquisou os raios catódicos clicando aqui.
Como toda teoria tem seu período de desenvolvimento e está sujeita a declínios, logo
surgiram dificuldades para a aceitação do modelo de Rutherford: p
p
p p
p
p
p
p
Como explicar o fato de os elétrons não caírem sobre o núcleo?
Rutherford contornou essa dificuldade admitindo que os elétrons giravam em torno do
núcleo em órbitas circulares, a altíssima velocidade, de tal modo que a aceleração
centrípeta desenvolvida nesse movimento equilibraria a atração exercida pelo núcleo.
No sistema planetário, havia uma explicação semelhante para o fato de o planeta não
cair sobre o Sol, embora fosse atraído por ele com uma enorme força gravitacional. O
movimento do pl net em sua órbita ao redor do Sol produz uma aceleração centrípeta
que se equilibra com a força de atração gravitacional exercida pelo Sol
O modelo do átomo nucleado de Rut erford era então muito parecido com o sitema
planetário, no qual o Î l l , e ol i liz
l
i l (daí vem o fato de o modelo de Rut erford ser
chamado de modelo planetário do átomo, al m da semelhança que apesenta com o
sitema planetário).
............................................................................................. ................................................
c
Dalton afirmava que o átomo era a partícula elementar, a menor das particulas que
constituiam a matéria. John Dalton apresentou seu modelo atômico em 1808. Ele
comparava o atomo com uma minuscula esfera maciça, impenetravel, indestrutivel,
indivisivel e sem carga. Todos os átomos de um mesmo elemento químico são
idênticos.
Embora fundada em alguns princípios inexatos, a teoria atômica de Dalton, por sua
extraordinária concepção, revolucionou a química moderna. Discute-se ainda hoje se ele
tinha emitido essa teoria em decorrência de experiências pessoais ou se o sistema foi
estabelecido a priori, baseado nos conhecimentos divulgados no seu tempo. Seja como
for, deve-se ao seu gênio a criação, em bases científicas, da primeira teoria atômica
moderna. Dalton, Avogadro, Cannizzaro e Bohr, cada um na sua época, contribuíram
decisivamente para o estabelecimento de uma das mais notáveis conceituações da física
moderna: a teoria atômica.
Assim Thomson conclui que os elétrons deveriam ser constituintes de todos os tipos de
matéria.
Com base em suas conclusões J.J. Thomson derrubou o modelo do átomo indivisível e
apresentou o seu modelo, denominado de "modelo do pudim de passas", pois tratava-se
de uma massa contínua positiva, onde nela incrustavam-se as particulas negativas, os
elétrons.
Com isso, puderam concluir que o raio do átomo era 10.000 vezes maior que o do
núcleo.
Então em 1911 surgiu, o modelo do átomo nucleado. Segundo este modelo o átomo era
composto de um núcleo central de carga positiva e este era muito pequeno, mas com
grande concentração de massa, e uma eletrosfera muito maior do que o núcleo porem
com uma massa muito pequena.Na eletrosfera ficavam os elétrons (carga negativa).
Baseado na descoberta de sua radiotividade, sugerio que o átomo deveria ser formado
por uma esfera positiva, não maciça e "incrustada" de elétrons(carga negativa), de modo
que a carga total fosse nula. Uma explicação razoável para os fenômenos que ilustramos
é de que toda matéria , no estado normal, contém particulas elétricas que se neutralizam
mutuamente; quando ocorre atrito, algumas dessas partículas tendem a migrar de um
corpo para outro, tornando-os eletrizados.
= >uma carga negativa, faz um movimento ao redor de uma carga positiva parada,este
movimento torna-se espiralado em direção a carga positiva e elas chocam-se.
= >uma carga negativa está em movimento, irradiando ou seja perdendo energia, que é
nada mais nada menos do que emitir radiação,porém sabe-se que um átomo em estado
normal não emite nenhuma radiação.
Niels Bohr, físico dinamarquês conseguiu corrigir esses equívocos tendo como base a
seguinte idéia:
Assim pode-se concluir que quanto maior é a energia do elétron, mais afastado do
núcleo ele deve estar.
Por exemplo no nível N havia uma órbita circular e 3 elípticas.Cada órbita elíptica é
portanto um subnivel, e cada subnivel tem a sua energia
c
c c
c! "#$%$&
Nesse sentido, pode-se falar que a Física que nasce com Aristóteles no
século III a. C., ocupa-se da "substância que tem em si mesma a causa
de seu movimento", conforme escreve o filósofo grego em sua
, VI, 1, 1025 b 18, isto é, a Física é uma teoria do movimento.
Em 1894, no livro R
, Henrich Hertz, físico alemão
que em 1897 havia descoberto as ondas eletromagnéticas, já escrevia
que "o mais imediato e, em certo sentido, o mais importante problema
que o nosso conhecimento da natureza deve capacitar -nos a resolver é a
previsão dos acontecimentos futuros, graças à qual poderemos
organizar nossas atividades no presente".
Mas é preciso lembrar que Einsten passou os últimos anos de sua vida
buscando encontrar uma teoria que unificasse a Mecânica Quântica com
a sua Teoria da Relatividade Geral. Muitos deram prosseguimento a
essas andanças, viajando por universos paralelos, universos-bebês,
universos inflacionados, buracos de minhocas, supercordas e outras
metáforas engenhosas e imaginativas mas absolutamente imensuráveis.
þ
Já faz cem anos que Planck teve de lançar mão de uma expressão
inusitada para explicar os seus resultados da medida da intensidade da
radiação emitida por um radiador ideal - o corpo negro - levando-o
assim a estabelecer o valor de uma nova constante universal que ficou
conhecida como a
R
. A partir daí, e também em
função de outras experiências que apresentavam resultados igualmente
surpreendentes no contexto da mecânica de Newton e do
eletromagnetismo de Maxwell, os pesquisadores do começo do século
passado se viram obrigados a formular hipóteses revolucionárias que
culminaram com a elaboração de uma nova física capaz de descrever os
estranhos fenômenos que ocorriam na escala atômica; a mecânica
quântica.
Mas, no final das contas, quais são estes efeitos tão estranhos dos quais
estamos falando e qual é a sua relevância para o nosso cotidiano, se
existe alguma? Bem, para provar que não estamos falando de coisas
inúteis, comecemos pela segunda parte desta pergunta.
O segundo conceito é o de
. Este, apesar de ser também observado
no nosso dia a dia, escapa à atenção de muitos de nós. Um exemplo
bem simples do movimento ondulatório é o das oscilações da superfície
da água de uma piscina. Se mexermos sistematicamente a nossa mão
sobre esta superfície, observaremos uma ondulação se afastando,
igualmente em todas as direções, do ponto onde a sup erfície foi
perturbada.
Pois bem, até o final do século XIX tudo o que era partícula tinha o seu
movimento descrito pela mecânica newtoniana enquanto que a radiação
eletromagnética era descrita pelas equações de Maxwell do
eletromagnetismo.
A questão que nos resta é então; por quê não observamos estes
fenômenos no nosso cotidiano, ou seja, com objetos macroscópicos?
Bem, há duas razões para isso. A primeira é que a constante de Planck é
extremamente pequena comparada com as grandezas macroscópicas
que têm a sua mesma dimensão. Baseados neste fato, podemos inferir
que os efeitos devidos ao seu valor não nulo, ficarão cada vez mais
imperceptíveis à medida que aumentamos o tamanho dos sistemas. Em
segundo lugar, há o chamado efeito de
. Este efeito só
recentemente começou a ser estudado e trata do fato de não podermos
separar um corpo macroscópico do meio onde ele se encontra. Assim, o
meio terá uma influência decisiva na dinâmica do sistema fazendo com
que as condições necessárias para a manutenção dos efeitos quânticos
desapareçam em uma escala de tempo extremamente curta.
Como podemos ver, tudo indica que a mecânica quântica seja a teoria
correta para descrever os fenômenos físicos em qualquer escala de
energia. O universo macroscópico só seria um caso particular para o
qual há uma forma mais eficiente de descrição; a mecânica newtoniana.
Esta pode ser obtida como um caso particular da mecânica quântica mas
a recíproca não é verdadeira.
)
,-
Visualizar ondas estacionárias que se estabelecem sobre um aro
metálico flexível; visualizar a formação de sistemas estacionários
harmônicos; ilustrar qualitativamente o modelo teórico do elétron-onda
e as ondas de De Broglie.
.
Base de madeira de (15 x 20 x 1) cm; alto-falante de 5" e 8 ohms; 2
tiras metálicas flexíveis de (450 x 10 x 0,6) mm e (33 x 10 x 0,6) mm;
uma tampa plástica; cilindro de madeira de diâmetro 1cm e altura 3 cm;
2 bornes; gerador de áudio-freqüências; parafusos, cola e
eventualmente, pequeno amplificador de 5 W.
Nota: A intensidade do sinal para excitar o alto -falante não deve ser
exagerada mas, se o sinal de saída do gerador de áudio estiver abaixo
do 1 V é conveniente intercalar entre o gerador e o aparelho produtor de
ondas estacionárias circulares um pequeno amplificador de áudio.
As figuras a seguir têm o propósito de ilustrar o objeto em questão:
Liga-se o gerador de áudio e ajusta-se a freqüência de modo que se
possa observar duas ondas estacionárias transversais completas no aro
de maior diâmetro. Ajusta-se a intensidade do sinal do gerador para que
a onda não apresente amplitude exagerada. Se o aro interno ficou
devidamente ajustado (se isso não acontecer, basta soltar seu parafuso
de fixação e ajustar novamente o diâmetro do círculo) começará a
ressoar no segundo harmônico. A freqüência do sinal pode ser ajustado
para várias 'soluções' da equação da onda que se estabelece
estacionariamente.
Î Î
&
, ,
Î Î
&
!
$
5
(
R
2
2
MM
Banned
MetalMaxxx is Offline
Posts: 12 604
2
2
Pac Man
Banned
222 2 2 2+
22
22
22
A þ
2 2 2 22
2
As áreas da Fsica que chamamos "Fsica Clássica" e que
comreendem a mecnica, a óptica, a termodinâmica e o
Pac Man is
eletromagnetismo já haviam alcançado um grande
Offline aperfeiçoamento no sculo XIX. Quase tudo aquilo que se ensina
sobre Fsica no segundo grau já havia sido descoberto naquela
Data Ingresso:
Oct 2005
época - e, é claro, em um nível mais elevado do que aquilo que se
ensina nos colégios.
Localizaç
o: Belo O desenvolvimento da mecânica clássica tinha atingido uma grande
Horizonte - M
preciso, permitindo o cálculo tão exato dos movimentos dos
Posts: 16.626 planetas, que qualquer pequena diferença entre a teoria e as
observaçes precisava ser considerada seriamente. Foi
investigando diferenças minúsculas desse tipo que a astronomia do
século XIX descobriu a existência do planeta Netuno: sua
existência foi prevista matematicamente por Urbain Le errier, e
depois ele foi observado (em 1846) por Johann Gottfried Galle.
A mecânica do século XIX conseguia explicar movimentos
complexos, como os dos piões e giroscópios; estudou os
movimentos de líquidos e gases; e desenvolveu técnicas
matemáticas muito sofisticadas com a chamada "mecânica
analítica", que utiliza um formalismo diferente do que existia na
época de Newton.
Sob o ponto de vista da tecnologia, esses conhecimentos foram
aplicados no desenvolvimento de novos meios de transporte -
grandes navios, submarinos, balões dirigíveis e até os precursores
da asa-delta.
A física ondulatória (abrangendo a óptica e a acústica) também
parecia ter atingido uma grande perfeição durante o século XIX.
Até o século XIII, a opinião predominante era a de que a luz era
constituída por pequenas partículas muito rápidas que saíam dos
corpos luminosos. No entanto, no início do século XIX foram
estudados fenômenos de difração e interferência, que só podiam
ser explicados supondo-se que a luz fosse constituída por ondas.
Graças principalmente aos estudos de Augustin Fresnel e Thomas
Young, os físicos foram se convencendo de que era necessário
abandonar a teoria corpuscular da luz, e o modelo ondulatório se
tornou uma unanimidade. Para o estudo dos fenômenos
ondulatórios da luz, foram desenvolvidos métodos matemáticos
bastante complicados.
Foi também durante o século XIX que foram estudadas as
radiações infravermelha e ultravioleta, duas radiações semelhantes
à luz, porém invisíveis. Assim, a óptica se ampliou, passando a
abranger não apenas aquilo que vemos, mas também certos tipos
de "luz invisível".
Além dos estudos puramente científicos, o estudo da luz levou a
importantes inventos, durante o século XIX. Primeiramente, a
invenção da fotografia por Niepce e Daguerre, permitindo a fixação
de imagens através de meios químicos. As primeiras fotografias
exigiam tempos de exposição enormes (alguns minutos), mas
depois, com o gradual aperfeiçoamento técnico, foi possível
produzir fotos "instantâneas", e por fi m fazer seqüências de
fotografias de objetos em movimento. Daí surgiu o cinema, na
última década do século XIX.
Antes do final do século já existiam métodos de produzir
fotografias coloridas. Um físico francês, Gabriel Lippmann, utilizou
o princípio de interferência luminosa em películas finas e conseguiu
produzir fotografias em cores que eram, na verdade, precursoras
dos atuais hologramas de luz branca.
O estudo do calor e de suas aplicações teve também um enorme
desenvolvimento nessa época. Já no século anterior haviam
começado a se difundir as máquinas a vapor, mas foi durante o
século XIX que esses tipos de máquinas foram aperfeiçoadas e
utilizadas em grande escala, produzindo a chamada "revolução
industrial". Além de seu uso em indústrias, as máquinas a vapor
foram aplicadas ao transporte (navios, trens, e até automóveis a
vapor).
Os cientistas estudaram a conversão do trabalho em calor e do
calor em trabalho, propuseram a lei da conservação da energia,
determinaram as leis que regem o rendimento de máquinas
térmicas e estabeleceram o conceito de entropia e a segunda lei da
termodinâmica.
A eletricidade e o magnetismo, que antes de 1800 eram apenas
fenômenos curiosos sem grande importância, também sofreram um
importante avanço durante o século XIX. A invenção da pilha
elétrica por Alessandro Volta permitiu pela primeira vez a produção
de correntes elétricas duradouras e de grande intensidade, abrindo
o caminho para estudos completamente novos - como a descoberta
da eletrólise. Nas primeiras décadas do século XIX, Oersted e
Faraday descobriram a possibilidade de produzir efeitos magnéticos
utilizando a eletricidade, e vice-versa, nascendo assim o
eletromagnetismo. Houve um intenso estudo experimental dessa
nova área, seguido por desenvolvimentos teóricos que culminaram
com a teoria eletromagnética de Maxwell.
Embora inicialmente fosse apenas um assunto para pesquisa
científica, o eletromagnetismo logo levou a resultados práticos
importantes. Foram construídos dínamos que produziam
eletricidade a partir do movimento, e nas duas últimas décadas do
século XIX foram construídas grande usinas termoelétricas para
geração de eletricidade. Dessa forma, o uso doméstico e industrial
da eletricidade começou a se tornar possível. As lâmpadas elétricas
substituíram gradualmente os lampiões e a iluminação a gás. Os
motores elétricos começaram a ser utilizados para várias
finalidades, como por exemplo nos primeiros elevadores. A
eletricidade também revolucionou as comunicações, primeiramente
através do telégrafo (que já permitia a troca de mensagens de um
continente para outro) e depois pelo telefone. Antes de 1900 já era
possível fazer ligações interurbanas entre muitas cidades na Europa
e nos Estados Unidos.
'
Se compararmos a Física do final do século XIX com a de cem ou
duzentos anos antes, poderemos considerar que o avanço científico
havia sido espantoso. Os maiores sucessos não foram a descoberta
de novos fenômenos, mas sim resultados teóricos que
revolucionaram a visão sobre os principais fenômenos físicos. O
eletromagnetismo conseguiu inicialmente unir duas áreas de
estudo que eram totalmente separadas antes - a eletricidade e o
magnetismo. Essa síntese foi apenas um primeiro passo, pois o
estudo dos fenômenos eletromagnéticos levou, na segunda metade
do século XIX, à previsão de ondas eletromagnéticas com a mesma
velocidade da luz. Essas ondas foram depois criadas
experimentalmente por Hertz, e confirmou-se que elas tinham
propriedades muito semelhantes à das ondas luminosas. Concluiu -
se então que a luz era um tipo especial de ondas eletromagnéticas,
de alta freqüência, e assim a óptica passou a ser uma parte do
eletromagnetismo.
O desenvolvimento da termodinâmica também levou a uma outra
síntese. Embora os fenômenos térmicos possam ser estudados sob
o ponto de vista puramente macroscópico (daquilo que se observa
e mede), os físicos começaram a imaginar modelos microscópicos
para explicar os fenômenos gasosos e assim nasceu a teoria
cinética dos gases. Nessa teoria, a temperatura passa a ser uma
indicação da energia cinética média das moléculas do gás e é
possível relacionar o calor específico dos gases à sua composição
molecular. No final do século XIX foi também desenvolvida a
mecânica estatística, que aplicou leis probabilísticas ao estudo dos
movimentos das partículas da matéria, permitindo explicar a
segunda lei da termodinâmica a partir de um modelo mecânico.
Conseguiu-se, assim, uma síntese entre a mecânica e a termologia.
Portanto, ao final do século XIX, os físicos podiam perceber
grandes avanços e importantes sucessos. Novos fenômenos haviam
sido descobertos, novas leis haviam sido estabelecidas, e havia
resultados teóricos novos muito gerais. A eletricidade e o
magnetismo haviam se unido, depois o eletromagnetismo e a
óptica haviam se fundido, e a mecânica e a termodinâmica também
estavam produzindo uma síntese teórica.
+3
Diante dos grandes sucessos científicos que haviam ocorrido, em
1900 alguns físicos pensavam que a Física estava praticamente
completa. Lord Kelvin - um dos cientistas que havia ajudado a
transformar essa área - recomendou que os jovens não se
dedicassem à Física, pois faltavam apenas alguns detalhes pouco
interessantes a serem desenvolvidos, como o refinamento de
medidas e a solução de problemas secundários. Kelvin mencionou,
no entanto, que existiam "duas pequenas nuvens" no horizonte da
física: os resultados negativos do experimento de Michelson e
Morley (que haviam tentado medir a velocidade da Terra através
do éter) e a dificuldade em explicar a distribuição de energia na
radiação de um corpo aquecido.
Foram essas duas "pequenas nuvens", no entanto, que
desencadearam o surgimento das duas teorias que revolucionaram
a Física no século XX: a teoria da relatividade e a teoria quântica.
A visão otimista de Lord Kelvin, compartilhada por muitos físicos da
época, não levava em conta que existiam, na verdade, muitos
problemas na física do final do século XIX. No entanto, a maior
parte dos cientistas pensava apenas nos sucessos, e não nessas
dificuldades. Não percebiam a existência de grande número de
fenômenos inexplicados e de problemas teóricos e conceituais
pendentes.
,
)
+
Nas últimas décadas do século XIX foram estudadas descargas
elétricas em gases rarefeitos. Estudando os fenômenos que
ocorriam a pressões muito baixas, William Crookes descobriu os
raios catódicos. Em 1895, investigando os raios catódicos, Röntgen
descobriu os raios X. Foi uma descoberta inesperada, pois
nenhuma teoria previa a existência de radiações invisíveis
penetrantes como aquelas. Os raios X logo foram empregados na
medicina e se mostraram muito úteis, mas não se sabia
exatamente o que eles eram. Alguns pensavam que se tratava de
uma radiação semelhante ao ultravioleta, outros imaginavam que
eram ondas eletromagnéticas longitudinais, outros pensavam que
eram partículas de alta velocidade. O que eram os raios X, afinal?
Durante mais de 10 anos, eles permaneceram como uma radiação
misteriosa.
O estudo dos raios catódicos levou a uma outra descoberta
importante. J. J. Thomson mostrou que eles eram constituídos por
partículas com carga elétrica negativa (os elétrons), e que eles
pareciam sempre iguais, qualquer que fosse o gás utilizado nos
tubos de raios catódicos. Mas que relação essas partículas tinham
com os átomos da matéria? Até essa época, ninguém havia
suspeitado que pudessem existir coisas menores do que os átomos
que os químicos estudavam. Os elétrons constituíam um problema
no estudo da constituição da matéria.
Também no final do século XIX os estudos de Henri Becquerel e do
casal Curie levaram à descoberta da radioatividade e de estranhos
elementos que emitiam energia de origem desconhecida. Ninguém
sabia o que produzia esses fenômenos, e apenas vários anos
depois é que se começou a desvendar a natureza da
radioatividade. O que eram as radiações emitidas pelos corpos
radioativos? De onde saia sua energia, que parecia inesgotável?
O estudo da luz e das novas radiações havia levado a muitos
sucessos, mas também trouxe grandes problemas. O espectro da
luz do Sol, quando analisado com um espectrógrafo, mostra linhas
escuras (descobertas por Fraunhofer). Depois se compreendeu que
cada elemento químico em estado gasoso é capaz de emitir ou
absorver luz com um espectro descontínuo de raias, e que o
espectro do Sol é produzido pelos gases que o cercam. A
espectroscopia se tornou um importante método de identificação
dos elementos, e passou a ser um instrumento fundamental na
química. Mas qual era a causa física dessas raias? De acordo com a
teoria ondulatória da luz, cada linha do espectro deveria estar
relacionada a algum fenômeno de oscilação regular, de uma
freqüência exata, capaz de emitir ou absorver aquela radiação. O
que existia, nos átomos, que pudesse produzir isso?
Durante a última década do século descobriu-se que os raios X e a
radiação ultravioleta podiam descarregar eletroscópios. Em alguns
casos, a luz visível também podia produzir esse "efeito
fotoelétrico", mas o fenômeno dependia da freqüência da luz e do
tipo de metal utilizado. Não se compreendia como isso ocorria, nem
por que motivo alguns tipos de luz não conseguem produzir o
efeito fotoelétrico. Compreendeu-se que, no efeito fotoelétrico, a
radiação arranca elétrons dos metais. Esse efeito deveria depender
da intensidade da luz (energia), e não da cor ou freqüência. Mas
não era isso o que acontecia.
,
4
A teoria cinética dos gases havia sido um grande sucesso. No
entanto, no final do século XIX, não se compreendia ainda muita
coisa sobre a estrutura da matéria. O único estado da matéria para
o qual havia uma boa teoria era o gasoso. Era incompreensível
como os átomos podiam formar corpos sólidos, pois sabia-se (pelo
eletromagnetismo) que era impossível produzir um sistema estável
de partículas em repouso que se mantivesse apenas por forças
eletromagnéticas. Existiriam outras forças desconhecidas agindo
dentro da matéria?
A própria produção de moléculas era um mistério. Os átomos
imaginados pelos químicos eram simples "bolinhas" sem estrutura.
Como eles se unem? E por que motivo alguns átomos se unem
entre si, mas não se unem com outros? Que tipos de forças são
essas, que escolhem os parceiros? A Física não tinha resposta para
essas perguntas.
Um dos grandes problemas teóricos no final do século XIX era
compreender a interação entre matéria e radiação. Como
funcionam os materiais luminescentes? Por que os sólidos emitem
um espectro luminoso contínuo, e os gases emitem espectros
descontínuos? Se a luz é uma onda eletromagnética, existem
cargas elétricas vibrando dentro dos gases, para produzir a luz
emitida? Por que essas vibrações possuem apenas certas
freqüências, diferentes de um elemento químico para outro?
Outro problema teórico provinha da mecânica estatística. Nos
gases, a energia cinética média das moléculas depende apenas da
temperatura. Numa mistura de gases, a energia se distribui por
todos os tipos de moléculas, e as moléculas de menor massa
(como hidrogênio) têm maior velocidade média do que as de maior
massa. A teoria previa, assim, uma "equipartição de energia" por
todos os tipos de partículas e de movimentos possíveis. Ela previa
bem o calor específico dos gases, supondo que as moléculas eram
simples "bolinhas". Mas se os gases são capazes de emitir
espectros luminosos descontínuos, essas moléculas devem ser
sistemas complexos. Por que, então, a teoria funcionava?
Além disso, dentro de um recipiente com gás aquecido também
existe radiação eletromagnética (térmica), e a energia deveria se
distribuir entre as moléculas e as ondas luminosas. A teoria parecia
indicar que iriam sendo criadas ondas luminosas, e que elas
ficariam com toda a energia. No entanto, isso não acontecia. Por
que?
Uma cavidade quente ("corpo negro") emite radiação com um
espectro contínuo. A teoria previa que ela deveria emitir mais
radiação de pequenos comprimento de onda (grande freqüência)
do que de grande comprimento de onda. Mas não era isso o que se
observava. Até Lord Kelvin havia notado que havia algum problema
nisso.
Havia, na verdade, um enorme número de nuvens no horizonte da
Física, uma verdadeira tempestade que ameaçava derrubar tudo.
Era o otimismo, ou talvez o orgulho de saber muito, que impedia a
maioria dos físicos de perceber como a situação era grave.
+
No final do século XIX, o estudo de alguns desses p roblemas e as
tentativas de continuar a unificar a física levaram a problemas
teóricos complicados, desencadeando a criação da teoria da
relatividade e da teoria quântica. As dificuldades surgiram
basicamente quando se procurou unificar a mecânica com o
eletromagnetismo (daí surgiu a teoria da relatividade) e a
termodinâmica com o eletromagnetismo (daí se originou a teoria
quântica).
A teoria quântica, que é o tema que nos interessa aqui, surgiu da
tentativa de compreender os problemas de interação da radiação
com a matéria e solucionar alguns desses problemas. Procurando
fundir a teoria eletromagnética da luz com a termodinâmica e a
mecânica estatística, logo surgiram dificuldades que pareciam
insuperáveis. O primeiro passo no desenvolvimento da teoria
quântica foi dado por Max Planck, há cem anos - mais exatamente,
em 1900. Nos primeiros anos do século XX, a teoria quântica
começou a resolver diversos problemas: a radiação do corpo negro
foi explicada por Planck; Einstein utilizou a teoria quântica para
explicar o efeito fotoelétrico e o calor específico dos sólidos; e Bohr
desenvolveu um modelo atômico quântico que explicou o espectro
descontínuo emitido pelos átomos. Mas esses primeiros passos
eram apenas um início. Apenas na década de 1920 a teoria
quântica se transformou na Mecânica Quântica, com uma
compreensão mais profunda da dualidade onda-partícula, graças a
De Broglie, Schrödinger, Heisemberg, Bohr e outros. A teoria
quântica nos permitiu compreender muitos fenômenos
importantes, como a estrutura de átomos e moléculas (que forma a
base de toda a química), a estrutura de sólidos e suas
propriedades, a emissão e absorção de radiações. Apenas através
da teoria quântica podemos compreender alguns dos mais
importantes fenômenos da Física.
2&
þ
!
$
%
&
'
(
6 &!
- &
5 .)6
â
â u
%
&
R
7.899:;
]2 R
< #<Î&
þ
u
'
<
2
=
ii<>1?70999:7þu R:
]2 R
< #<Î&
-
&
) <2
=
ii<>1@70999:7þu R:
)
2#6
A partir das observações experimentais, Wien obteve uma fórmula que se aproximava da
curva da densidade de radiação em função do comprimento de onda R, mas era acurada
apenas para pequenos comprimento de onda. Rayleigh e Jeans partiram das fórmulas da
mecânica clássica para um oscilador e obtiveram uma fórmula que funcionava para
grandes valores de R. A fórmula de Planck, utilizando o novo conceito de quantizacao da
energia dos osciladores descreveu exatamente os resultados experimentais e, nos casos
limites, as fórmulas de W ien e Rayleigh-Jeans.
â
â u
%
")
A
; + Partículas radioativas incidem sobre uma folha de ouro. A
maioria destas partículas passa através da folha pois são muito mais pesadas que os
elétrons (pontos pretos). Rutherford verificou que as cargas positivas são localizadas em
pequenos núcleos (esferas vermelhas). Desta forma explicaria porque as partículas
incidentes são as vezes desviadas de sua trajetória. Antes deste experimento acreditava -
se que as cargas positivas não eram locali zadas em núcleos.
.
=
; ' A partir das equações de Schrödinger não é possível
determinar a trajetória do elétron em torno do núcleo, mas, a uma dada e nergia do
sistema, obtém-se a região mais provável de encontrá-lo.
â
â u
%
!
u
$
(
R 7(
:
þ u <
ÎR
> ,
=
þ
2
þu
hA = Ei - Ef
Valor de
subcamada correspondente
R
2
2
! !!!
Pac Man
Banned
222 22 2 2
þ
þ
A
: @A
-
Nós gostamos de Jazz.
Acrílico sobre tela de Faye Cummings, 1994
Muita gente gosta de Jazz. Mesmo os que não gostam
admitem que a vida seria mais pobre se não existisse
esse gênero musical. Admitem isso talvez porque
extinção de um tipo de música (do qual não gostam)
abriria um precedente que poderia levar ao
desaparecimento de outros gêneros, tais como o Blues,
ou o Rock, por exemplo. Ou seja, a evolução do Jazz
interessa direta ou indiretamente a todos. Entre os seus
ingredientes principais, de importância central na
vitalidade do Jazz, estão as chamadas "â
", as
"sessões de Jazz após a meia-noite". São nessas sessões
que os músicos tocam o que realmente querem, depois
que o grande público já foi pra casa ou para outros
bares. É nesse momento que se experimentam,
improvisam-se e inventam-se novas maneiras de tocar,
que depois serão eventualmente apreciadas por todos.
Por outro lado, aos que perguntam o que é afinal de
contas o Jazz, os puristas dessa arte, muitas vezes,
alardeiam um folclórico preconceito de pronunciar a
frase "se você tem que perguntar o que é, você nunca
vai sabê-lo". Independentemente desse mau humor, o
público e a indústria cultural agradecem aos jazzistas,
dos mais populares aos inveterados praticantes do â .
Essa história pode ser perfeitamente transposta à
ciência, suas vertentes e relações com o público e a
sociedade. É sobre isso que escreveremos a seguir,
baseando-nos na Física Quântica, cuja origem remonta
aos primeiros anos do século passado. Numa analogia
entre o Jazz e a Ciência, colocaríamos a "â
"
como equivalente ao que se convencionou chamar de
"Ciência Básica" (ou Pura, em oposição à "Ciência
Aplicada").
De uma maneira bem geral, pode-se dizer que a ciência
aplicada busca soluções em curto prazo, com objetivos
delimitados, com uma aplicação direta em algum dado
problema específico (demanda externa à comunidade
científica). Por outro lado, a ciência pura busca resolver
problemas de caráter mais geral, sem um objetivo muito
delimitado, e muitas vezes sem nenhuma aplicação
prática aparente (demanda interna à comunidade
científica). Vamos começar por um exemplo: no início da
Física Quântica, Einstein desenvolveu o conceito
fundamental de emissão estimulada, relacionado com
propriedades intrínsecas da matéria. Dificilmente
encontraríamos um estudo de ciência básica mais
característico. Décadas depois, baseado nesse conceito,
foi desenvolvido o primeiro protótipo de um amplificador
de luz por emissão estimulada de radiação: ou
simplesmente LASER (- þ
&Î
2
- amplificação de luz pela emissão
estimulada de radiação-, ver artigo nesta edição de Elza
Vasconcelos). Hoje em dia existem desenvolvimentos
específicos de LASERS aplicados às mais diversas áreas,
da medicina à metalurgia, passando por
telecomunicações e eletrônica de consumo. Hoje em dia,
um técnico trabalhando no aperfeiçoamento de um
LASER de alta potência para cortes de chapas de aço
constitui um caso claro de ciência aplicada.
Do mesmo modo, era simplesmente inimaginável no
início do século XX para onde a idéia revolucionária de
quantização de energia, proposta inicialmente por Max
Planck, poderia levar. Hoje, passado mais de um século
do nascimento da Física Quântica, podemos olhar para o
passado e ver que quase a totalidade dos objetos
"modernos" de nosso dia a dia deve a sua existência à
Física Quântica. Ninguém que viveu no primeiro quarto
do século XX poderia sequer desconfiar que estudos
aparentemente tão longínquos da realidade, como
espectros de corpo-negro, efeito fotoelétrico, espectros
de emissão e absorção atômicos, e outros objetos de
estudo daquele período, formariam a base de uma
teoria, que seria responsável direta pelo futuro
desenvolvimento não só do LASER, mas também de
equipamentos eletrônicos, computadores e uma enorme
quantidade de outras maravilhas que fazem parte de
nosso cotidiano.
A relação entre as Ciências Básica e Aplicada não é, no
entanto, uma via de mão única. A Ciência Aplicada
também pode dar origem a novos problemas de caráter
fundamental. Vejamos a origem da própria Física
Quântica. Muitas das observações experimentais feitas
no século XIX, ligadas a problemas tecnológicos como o
controle da temperatura de fornos metalúrgicos (ver
artigo nesta edição de Roberto Martins) simplesmente
não puderam ser entendidas dentro do âmbito da Física
Clássica. Os espectros de emissão térmica de Corpos
Negros (bom modelo para um forno) só puderam ser
descritos com a introdução do conceito de quantização
de energia. Assim, a motivação de Planck para seus
trabalhos sobre a radiação de corpo negro é também um
bom exemplo de como a Ciência Aplicada pode levar a
descobertas na Ciência Pura ou Básica. Isso nos leva a
suspeitar que a divisão entre ciência básica e aplicada
tende a ser inexata e artificial.
Antes de discutirmos um pouco mais detalhadamente o
papel da Ciência Básica, vale a pena comentar um pouco
sobre o atual estágio em que se encontra a Física
Quântica, pelo menos de algumas de suas ramificações,
passados mais de cem anos de seu advento. Muitos
acreditam que se trata de uma Ciência com os
fundamentos bem estabelecidos, mas muitos estudos de
Mecânica Quântica básica continuam sendo realizados e
não se limitam à busca de aplicações. Não existem
evidências experimentais bem documentadas das quais
a Mecânica Quântica não daria conta, embora um
número relativamente pequeno de cientistas se preocupe
(e devem se preocupar!) em definir onde se
encontrariam os limites dessa visão do mundo. Por que
então testar e voltar a testar essa teoria em novas
situações encontradas na natureza (descrição mecânico-
quântica das propriedades de moléculas de proteínas,
por exemplo) ou criadas em laboratório (as chamadas
caixas quânticas ou átomos artificiais, como outro
exemplo)? Uma resposta interessante está no conceito
de complexidade introduzido por P. W. Anderson nos
anos 70. Aos poucos os especialistas foram se dando
conta - e lentamente esboçando um novo objetivo
científico - de que o conhecimento das leis fundamentais
da natureza não garante o entendimento do
funcionamento do universo. Descrever exaustivamente
as pequenas peças que compõe o mundo não implica
que possamos entender como elas funcionam em
conjunto. Quanto maior o número de peças em um
sistema, mais complexo ele se torna e novos efeitos,
absolutamente imprevisíveis a partir das leis
fundamentais, podem surgir. Mais um exemplo:
descrever as propriedades dos metais a partir do
comportamento de elétrons individuais foi um dos
grandes sucessos da Física Quântica. Mas, para entender
o fenômeno da supercondutividade é necessário estudar
o comportamento de um conjunto grande de elétrons
interagindo entre si em situações muito específicas.
O futebol pode fornecer uma ilustração útil dessa idéia
de complexidade. Trata-se de um esporte envolvendo
um número razoavelmente pequeno de participantes
atrás de um objetivo aparentemente simples (ganhar o
jogo através de esforços coletivos para colocar o maior
número possível de vezes a bola no gol do adversário).
O número de regras básicas que devem ser seguidas
pode ser dominado por qualquer criança. O número de
fundamentos (chute, drible, passes...) também é
restrito. O resultado desse conjunto de regras e
condições tão simples é um espetáculo complexo em
contínua evolução, com valores que para todos (mesmo
para aqueles que só de vez em quando assistem aos
jogos da Seleção Brasileira) transcendem à mera torcida
pelo resultado. São fenômenos coletivos, que se
renovam e são reinventados desde o surgimento desse
esporte e que simplesmente são imprevisíveis a partir de
suas regras, objetivos e fundamentos.
No futuro esses estudos terão alguma aplicação prática?
No caso das proteínas o conhecimento da seqüência
química não é suficiente para descrever (e
possivelmente modificar) suas funções biológicas, que
muitas vezes estão associadas à morfologia (sua forma),
que necessita da Química Quântica para ser desvendada.
O outro exemplo mencionado, átomos artificiais, caixas
sub-microscópicas feitas de semicondutores, contendo
um pequeno número controlável de elétrons, poderão vir
a ser os componentes que realizariam o conceito de
Computação Quântica nas próximas décadas.
A busca do melhor entendimento de sistemas complexos
é um dos maiores desafios da ciência atual, entretanto,
tentar adivinhar o futuro desses estudos não passa de
um exercício especulativo. Então, até que ponto vale a
pena investir em Ciência Básica? Muitos experimentos
são caríssimos, e provavelmente vários não levarão a
lugar algum do ponto de vista de aplicações. Em outras
palavras, a razão custo-benefício é compensadora?
Como essa questão é freqüente, e sempre presente nas
conversas e na mídia, vale a pena tentar levantar alguns
pontos referentes ao papel da ciência em nossa
sociedade, e em particular em um país em
desenvolvimento como o Brasil.
Existem muitas pessoas, incluindo políticos, jornalistas e
até cientistas, que acreditam que em um país como o
nosso não se deva incentivar a Ciência Pura. Voltando ao
exemplo da Física Quântica, segundo Leon Lederman,
Prêmio Nobel e Diretor Emérito do Fermilab, mais de
25% do produto interno bruto norte -americano depende
de tecnologias que surgiram diretamente conectadas a
fenômenos essencialmente quânticos (Leon Lederman,
The God Particle, Houghton Mifflin 1993). Porém, tal
desempenho de uma Ciência Básica nem sempre ocorre,
mas não devemos nos ater apenas ao "sucesso
econômico direto" da ciência, mas lembrar dos reflexos
indiretos que ela provoca, além da complexa questão
sobre a divisão entre o que é básico e o que é aplicado.
De acordo com John Ziman, em seu famoso livro "A
Força do Conhecimento", no capítulo sobre Ciência e a
Necessidade Social, a função social da pesquisa básica é
encarada sob três pontos de vista distintos: o primeiro, e
mais comum, refere-se ao exemplo principal de que já
tratamos neste artigo. É o que afirma que a pesquisa
básica constitui o suporte da pesquisa aplicada, mesmo
que em longo prazo. Além da história da Física Quântica,
há inúmeros casos na história da Ciência onde princípios
científicos fundamentais adquiriram enorme
aplicabilidade tecnológica com o passar dos anos. Além
disso, muitas vezes justificam-se os enormes gastos em
projetos mirabolantes, como levar o homem à lua, ou a
construção de uma estação espacial, referindo-se à
enorme quantidade de sub-produtos comercializáveis
que esses projetos produzem. A NASA e os fãs de
Fórmula-1 não se cansam de usar esse argumento.
R Î
Depois da revolução industrial, o homem vive a
revolução do conhecimento e da informação. A
integração dos computadores, da microeletrônica e das
telecomunicações no cotidiano marca uma nova era - a
da informação. Como ponto de partida dessa nova era,
temos a invenção do transistor.
R
! !!!
Pac Man
Banned
"
222 22 2 22 2$C 22
2C 22; 2C (
þ
Estrutura cúbica do sal de cozinha, onde as esferas verdes são os atomos de cloro (Cl -) e
as esferas cinzas os átomos de sódio (Na+).
Foi então que em 1912 o físico alemão von Laue, sugeriu que se os
átomos apresentam uma estrutura cristalina, átomos organizados
de forma a apresentem periodicidade ao longo do espaço, e que se
os raios-X eram ondas eletromagnéticas com comprimento de
onda menor que os espaços interatômicos, então os núcleos
atômicos que concentram a massa dos átomos poderiam difratar
os raios-X, formando franjas de difração. Quando Laue fez passar
um feixe de raios-X por uma amostra monocristalina, e pôs um
filme fotográfico após a amostra, o resultado foi que após revelar o
filme este apresentava pontos sensibilizados pelos raios-X
difratados.
þ
#
= !
R(ÎR
!
"A
"
' Primeiro laser à gás constituído por uma mistura dos gases nobres Hélio e
Neônio
"
!
$
%
&'
(
( "
r
± #$ ' ( %&
'
))
r * + + , -+
.
*+
/ ,
+*
*+
/ ,*++ , -+
*+
/ ,+ +
*+
/ , +
*+
/ ,*
*+
/ ,* ++
-
Após ter visto um momento de esplendor na Grécia Antiga, tendo como nome principal
Aristóteles, a Física entrou em declínio na Idade Média, tendo revivido apenas durante o
Renascimento, durante a Revolução Científica. Galileu Galilei é considerado o primeiro
Físico em seu sentido moderno, adotando a Matemática como ferramenta principal.
Galileu é um dos pioneiros a descrever o real objetivo de um cientista; sua função é
apenas descrever os fenômenos em vez de tentar explicá-los. Já dotado de um método
científico, a Física teve uma notável evolução com Isaac Newton, que realizou a
primeira grande unificação da Física ao unir Céus e Terra sob as mesmas leis da Física,
a gravitação universal.
No final do século XIX pensava-se que todos os fenômenos físicos poderiam ser
explicados dentro das teorias correntes. Entretanto, certos "fenômenos rebeldes" fugiam
do alcance dos cientistas. No início do século XX, ao tentar explicar matematicamente a
radiação de corpo negro, Max Planck introduziu o conceito de u de energia. Em
1905, Albert Einstein apresentou, sob a forma de cinco artigos, as base da Relatividade
e da Mecânica Quântica. Tais "fenômenos rebeldes" finalmente foram explicados, mas a
ontologia determinista estrita e pontual, característica da mecânica newtoniana, foi
abalada seriamente, que foi agravada após a publicação do Princípio da Incerteza de
Werner Heisenberg e do princípio da complementaridade de Niels Bohr.
Desde então, a Física preocupa-se em explicar, sob o ponto de vista da Física Moderna,
a natureza as quatro forças fundamentais da Natureza. O Modelo Padrão, apresentada na
década de 70, descreve três das quatro forças. Trabalhos dentro do Grande Colisor de
Hádrons (LHC), no CERN, e no Fermilab, procuram confirmar a existência do bóson de
Higgs, a única partícula prevista pelo Modelo Padrão ainda não descoberta. Entretanto,
a gravidade ainda carece de uma explicação teórico-experimental enraizada pela Física
Moderna e é ainda um grande problema em aberto da Física.
8ndice
* 0 ,
]2 #1
]2 i.
2
]2 /
0
/1
]2 23
3 33 3 3
]2 &1 4
4
]2 $5 51
]2
6
]2 [3
7
]2 %268
]2 #78
meditar] Antiguidade
As pessoas desde a Antiguidade sempre prestaram atenção nas regularidades da
Natureza;[1] o Sol nasce todo dia; um ciclo lunar é completado em aproximadamente 28
dias, praticamente o mesmo período de um ciclo menstrual; as estrelas ocupam a mesma
posição no céu em um determinado momento a cada ano, um objeto sempre cai quando
não é apoiado; as quatro estações do ano sempre estão ordenadas e se repetem
anualmente.[2]
9 : <
9 <
.
<
Aristóteles é descrito com frequência como sendo o grego que proveu as explicações
mais compreensivas dentro destes princípios filosóficos. Ele acreditava na existência de
quatro elementos básicos, a terra, a água, o ar e o fogo. Cada um tinha o seu lugar
natural no Universo, determinado pelo seu peso. A terra é pesada e tenderia a
permanecer no centro do Universo, a água tenderia a permanecer acima da terra e o ar,
por sua vez, tenderia a permanecer na superfície terrestre. O fogo tenderia a escapar do
centro do Universo.=15] Haveria ainda um quinto elemento, perfeito, que não teria peso.
As estrelas seriam formadas por esse quinto elemento, o éter. =15]
@
A
(
(
(
A
8 B
Com a queda do Império Romano no século V, a maior parte da literatura grega se
perdeu assim que a Europa entrou num período conhecido como a "idade das trevas",
onde o interesse pela obtenção do conhecimento e da própria educação praticamente
desaparece.C21] C22] A terra, que era esférica, passa a ser plana.C23] Os conhecimentos da
Natureza até então obtidos passam a ser subjugados pelas Escrituras Sagradas.
Entretanto, o conhecimento grego não foi totalmente perdido. Todo esse conhecimento,
que havia migrado para o Oriente Médio e Egito, foi traduzido para o árabe pelas
pessoas que viviam nestas regiões. Os árabes não somente mantiveram o conhecimento
grego vivo, como o enriqueceram.C24] As leis da refração já haviam sido enunciadas
pelos persas. Os árabes também traduziram trabalhos indianos e começaram a usar
numerais e a álgebra. C25] A noção de zero foi levada para a Europa pelos árabes. Al-
Battani calculou a precessão dos equinócios com maior precisão do que o grego
Ptolomeu. Mohammed al-Fazari desenvolveu o astrolábio, C26] enquanto que al-
Khwarizmi emprestou seu nome para que conhecemos atualmente como algarismo. C27]
No século XII, com a reconquista dos territórios árabes na Europa, teve início a
tradução da literatura árabe e grega para o latim, C28] e a Europa Medieval redescobriu,
assim, o conhecimento grego juntamente com novos conhecimentos árabes.C28] A
intelectualidade na Europa durante a "Idade das Trevas" manteve-se preocupada com a
cópia manuscrita de livros sagrados.C21] Em outras palavras, a educação estava em torno
da Igreja Católica. C21] Com o passar dos séculos e com a "avalanche" de conhecimentos
redescobertos, escolas começaram a se formar adjacentes às igrejas e catedrais. Tais
escolas evoluíram para as primeiras universidades medievais por volta do século
XIII. C29] As universidades inglesas de Cambridge e de Oxford surgiram nesta época.C30]
Com o advento de universidades associadas à Igreja, outras universidades foram
fundadas por governos de cidades e Estados. C4] O trabalho realizado dentro destas
universidades medievais contribuiu muito para a evolução do conhecimento científico
que se seguiria séculos depois. C31]
Na primeira metade do século XIV, ressurge a teoria do ímpeto, que já havia sido
iniciada por Hiparco e impulsionada por João Filopono, radicalmente modificada pelo
persa Avicena e consagrada pelo francês Jean Buridan. C32] Um projétil após ter sido
lançado tem seu movimento continuado devido a algo interno, chamado "ímpeto",
doado pelo lançador no momento do tiro. O "ímpeto" se perpetuaria se não houvesse a
"tendência natural de cair ao chão" e se não houvesse contato com outros objetos. Um
objeto com mais peso teria mais "ímpeto" do que um objeto mais leve, considerando-se
a mesma velocidade. Esta maneira de pensar, ainda similar à "Física" de Aristóteles,
tornou-se um antecessor às concepções de inércia, momento linear e aceleração. C33]
O inglês Guilherme de Ockham opôs-se à teoria do ímpeto e afirmou que não se pode
diferenciar qual o objeto seria o projétil, o objeto lançado ou o lançador. Segundo ele,
não podendo se afirmar qual é o projétil, não se pode afirmar nenhuma conclusão sobre
"ímpeto". C34] Além disso, Ockham, um grande lógico, criou a chamada "Navalha de
Ockham". Segundo este princípio, a melhor explicação para o funcionamento da
Natureza é aquela que pode descrever o fenômeno nos seus princípios mais
fundamentais. Outras descrições mais elaboradas são "descartadas". C34] Robert
Grosseteste e Roger Bacon realizaram importantes trabalhos experimentais sobre óptica,
nos séculos XII e XIII. C35]
Com o advento da peste negra, novamente a Europa caiu em um período onde se teve
poucas produções científicas, encerrando-se apenas com a publicação de È
a
a
a
a , de Nicolau Copérnico, trazendo o heliocentrismo
novamente ao centro das atenções.[36]
D
Um dos grandes nomes desta época é o italiano Galileu Galilei. Uma das maiores
contribuições de Galileu foi reconhecer que o papel deum cientista não era explicar o
"porquê" dos fenômenos, mas somente descrevê-los.[39] Em E
um de suas obras, È
a
È
Èa
Galileu levanta a
questão de por que um objeto cai sem sustentação. Na réplica, Galileu diz que não
explicou nada, apenas o descreveu.[39] Galileu simplificou o papel de um cientista, sua
função é apenas fazer uma descrição, sem procurar os "porquês" que ele mesmo não
pode responder.[39] Galileu foi um dos pioneiros a reconhecer na matemática uma
ferramenta para descrever os fenômenos naturais e confirmá-los através de
experimentações. F39]
Segundo Francis Bacon, a ciência deve ser qualitativa, experimental e indutiva. Deve
rejeitar assunções
. Se houver uma quantidade suficiente de observações, tais
observações devem ser usadas para se induzir ou generalizar os princípios fundamentais
envolvidos nos fenômenos a serem estudados.F45]
Porém, René Descartes propôs uma lógica diferente: não se deve iniciar as observações
com descrições de fatos "crus", sem conexão, ao se analisar um determinado fenômeno.
Descartes acreditava que os princípios mais fundamentais que regem a Natureza
poderiam ser obtidos de uma combinação de pura razão com lógica matemática. Sua
abordagem era analítica: os problemas devem ser partidos aos seus constituintes mais
fundamentais e após rearranjá-los logicamente. Os fenômenos podem ser reduzidos aos
seus componentes fundamentais. Se tais componentes fundamentais forem entendidos,
portanto o sistema como um todo também será.F46] Embora os pensamentos de Bacon e
de Descartes fossem diferentes, a congruência dessas filosofias dominou as
investigações científicas nos séculos seguintes.F47]
(
A Mecânica Clássica deriva-se da queda da física aristotélica, que perdurou por toda a
Idade Média. Esta queda iniciou-se com os trabalhos de Galileu Galilei. Tornou-se claro
que os céus não eram feitos de uma "substância perfeita", o éter. Adotando o sistema
heliocêntrico de Nicolau Copérnico, Galileu acreditou que a Terra não passaria de mais
um planeta que orbita em torno do Sol. Os importantes experimentos quantitativos de
Galileu sobre queda livre e movimento de projéteis foram importantes pontos de partida
para os trabalhos de Isaac Newton.
Newton foi o primeiro a unificar as três leis do movimento (Lei da Inércia, a força como
relação massa e aceleração e a lei da ação e reação), conhecidas como Leis de Newton,
e provar que estas leis governam tanto a Terra como os Céus.[48][49] Newton e seus
conteporâneos esperavam que a Mecânica Clássica pudesse ser capaz de explicar todos
os fenômenos, incluindo a Óptica.[49] Em seu livro, R
a
R
, Newton descreveu a universalidade de suas leis[50] e concluiu a primeira
grande unificação da História da Física, já iniciada por Galileu, ao unir Céus e Terra, os
trabalhos de Galileu e de Kepler, sob as mesmas leis físicas, a gravitação universal.[51]
A Mecânica Clássica foi aperfeiçoada com o decorrer dos séculos. Além das
contribuições de Euler, os trabalhos de Joseph-Louis Lagrange e de William Rowan
Hamilton permitiram soluções para uma grande quantidade de problemas. Em meados
do Século XIX, a Mecânica Clássica atinge seu auge: todos os problemas físicos
podiam ser reduzidos a simples problemas que a Mecânica Clássica obteria respostas
consistentes. Entretanto, várias incompatibilidades surgiram, como a diferença de
comportamentos da Mecânica Clássica com o Eletromagnetismo em referenciais
diferentes. Surgiu a necessidade de novas explicações e no início do Século XX, a
Mecânica Clássica foi reduzida a simples caso particular dentro da Relatividade e da
Mecânica Quântica.[49]
!
"
!!
Por volta de 1850, Rudolf Clausius e William Thomson (Lord Kelvin) foram os
primeiros a enunciar a Primeira Lei da Termodinâmica: a energia total é conservada.[57]
Tanto Clausius quanto Thomson também enunciaram os rudimentos daSegunda Lei da
Termodinâmica. Originalmente, ambos descreveram que o calor não "flui"
espontaneamente de um corpo frio para outro quente, o que é descrito atualmente em
termos de entropia, onde a entropia de qualquer sistema isolado tende a aumentar com o
tempo, até alcançar um valor máximo.[58]
A ideia de que gases são constituídos de moléculas em movimento foi discutida
inicialmente por Daniel Bernoulli, em 1738, embora não tenha alcançado grande
aceitação.[59] Esta ideia foi revivida por Clausius em 1857 e,[59] três anos depois, James
Clerk Maxwell derivou da mecânica da colisão de moléculas individuais a distribuição
da velocidade das moléculas em um gás. Durante os anos seguintes, ateoria cinética dos
gases desenvolveu-se rapidamente e muitas propriedades macroscópicas dos gases em
equilíbrio foram computadas.[59]
Em 1872, Ludwig Boltzmann construiu uma equação que, segundo ele, detalhava a
evolução de um gás, em equilíbrio ou não, através de um período de tempo.[60] Durante
a década de 1860, Clausius havia introduzido a noção de entropia como a razão do calor
pela temperatura e enunciou a Segunda Lei da Termodinâmica como sendo o aumento
desta grandeza.[61] Boltzmann então mostrou que sua equação implica na chamada
teorema H, que afirma que uma grandeza igual à entropia deve sempre aumentar com o
tempo em um processo irreversível.[62] Isto provaria a Segunda Lei da
Termodinâmica.[62] Entretanto, tal ideia gerou discussões, pois se assumia que as
colisões moleculares poderiam ser reversíveis e, portanto, entrava em contradição com a
Segunda Lei da Termodinâmica.[62]
'
#
Otto von Guericke construiu o primeiro gerador eletrostático utilizando a fricção de uma
esfera de enxofre.[72] Pieter van Musschenbroek é o primeiro a publicar trabalhos sobre
a "garrafa de Leiden", um dos primeiros acumuladores de carga, antecessor do
capacitor.[72] Benjamin Franklin foi um dos primeiros a propor que um corpo contém
quantidades iguais de cargas negativas e positivas, que sob circunstâncias normais, são
neutralizadas uma pela outra.[73] O ato de eletrificar seria a separação das duas "formas"
de eletricidade, a negativa e a positiva. Franklin demonstrou seus argumentos e propôs
que os raios de tempestades não passariam de gigantescas centelhas que neutralizariam
as cargas elétricas presentes no solo e nas nuvens. No famoso experimento da pipa,
Franklin conseguiu com sucesso armazenar cargas elétricas de uma nuvem de
tempestade em uma garrafa de Leiden.[73]
As primeiras tentativas de quantificação da eletricidade e do magnetismo se iniciaram
no século XVIII.[74] Charles Augustin de Coulomb inventou a balança de torção para
medir com precisão as forças envolvidas em corpos carregados eletricamente.[75]
Coulomb concluiu que a força elétrica é inversamente proporcional ao quadrado da
distância, o que ficou conhecido como a lei de Coulomb.[75] No final do século XVIII e
no início do século XIX, vários grandes físico-matemáticos conceberam vários
formalismos matemáticos para os fenômenos elétricos e magnéticos, comoSiméon-
Denis Poisson, Pierre-Simon Laplace e Carl Friedrich Gauss.[68] Alessandro Volta
descobriu que dois metais diferentes em contato produziam umpotencial elétrico.[76]
Usando isso, Volta construiu a primeira "pilha voltaica". Tal pilha poderia produzir uma
corrente elétrica com ordens de magnitude maior do que já se tinha feito até então com
geradores eletrostáticos.[76]
$# "
Sabia-se, até então, que a eletricidade e o magnetismo estavam relacionados apenas nos
formalismos matemáticos semelhantes, exceto que o magnetismo não tinhamonopolos.
No entanto, sabia-se que um raio poderia defletir a agulha de uma bússola.[77] Hans
Christian Oersted, que estava filosoficamente convencido da união das forças da
natureza, ao saber da pilha voltaica, realizou experimentos com grandes correntes e
percebeu que a força magnética está presente em uma corrente elétrica.[77] Ao saber dos
trabalhos de Oersted, André Marie Ampère desenvolveu uma completa teoria
quantitativa fundamentada matematicamente.[78] Ampère foi além: por meio de
experimentos, concluiu que a força magnética de um magneto permanente é exatamente
equivalente à força magnética de um condutor de eletricidade, considerando-se a
intensidade da corrente elétrica ou o número de espiras de um condutor enrolado (que
Ampère chamou de solenoide). Ampère também concluiu que um magneto permanente
deve conter correntes elétricas fechadas em seu interior e que a magnetização é o
alinhamento de moléculas dotadas de magnetismo.[78]
Michael Faraday introduziu o conceito de "campo", o que simplificou a matemática que
descrevia os fenômenos elétricos e magnéticos.[79] Segundo Faraday, a presença de
cargas elétricas e magnéticas causavam uma "distorção" no espaço. A esta "distorção"
Faraday chamou de campo. A ação do campo ocorria sob a forma de "linhas de
força".[79] Impressionado com os trabalhos de Oersted, Faraday propôs o inverso, a
variação da força magnética causaria corrente elétrica.[80] Após dez anos de tentativas,
em 1831 Faraday pôde demonstrar experimentalmente suas ideias. Faraday foi além:
construiu o primeiro motor elétrico, o primeiro transformador e o primeiro dínamo.[81]
Faraday também tentou explicar os fenômenos elétricos e magnéticos
microscopicamente, afirmando que a polarização dos objetos era devida a rotação de
átomos dipolares (a ideia de átomo ainda estava sendo levantada à época, e não se
previa a existência do elétron).[82] Faraday também argumentava que a luz era uma
manifestação do eletromagnetismo e cogitou a hipótese de unificar as forças elétrica e
magnética à gravitação.[83]
James Clerk Maxwell foi o grande unificador dos trabalhos dos cientistas do século
XIX, unindo, sob a mesma teoria fundamentada matematicamente, os trabalhos de
Gauss, Ampère e Faraday, com várias correções próprias.[84] Iniciando seus trabalhos
com foco nas linhas de força de Faraday, Maxwell fundamentou toda a base matemática
da teoria eletromagnética observando similaridades com outras áreas da Física Clássica,
como termodinâmica e hidrodinâmica. Seu trabalho é resumido em apenas quatro
equações, conhecidas atualmente como as equações de Maxwell.[84] Demonstrou
matematicamente a velocidade da luz usando apenas princípios eletromagnéticos, o que
finalmente levou a Óptica a ser fundida com a teoria eletromagnética.[85] Em 1888,
Heinrich Rudolf Hertz confirmou experimentalmente a existência das ondas
eletromagnéticas previstas por Maxwell.[85] O trabalho de Maxwell serviu como base
para a futura revolução tecnológica ocorrida no século XX.[84]
mi íi
Veja também: História da mecânica quântica e História da teoria quântica de
campos
((
Durante as últimas décadas do século XIX, todos os fenômenos físicos poderiam ser
explicados dentro das teorias clássicas da Física, segundo o pensamento corrente.[86]
Existiam "fenômenos rebeldes", mas que em breve poderiam ser encaixados em tais
teorias. Entretanto, tais "fenômenos rebeldes" tornaram-se grandes problemas para a
Física.[86] Dentre tais "fenômenos rebeldes", destacavam-se a radiação de corpo
negro,[86][87] o efeito fotoelétrico[86][88] e o espectro de raias dos elementos.[86][89]
%
± # ' (
G
( )!
"
"
( !
Formulação matemática
*( ,`
*+
K ,L
MM
*+
N ,O #P Q
*+
R ,$OQS
*+
R ,QS
*+
R ,%OO QS
*+
R ,& P QQSQ
*+
R , Q
-
A mecânica quântica é a teoria física que obtém sucesso no estudo dos sistemas físicos
cujas dimensões são próximas ou abaixo da escala atômica, tais como moléculas,
átomos, elétrons, prótons e de outras partículas subatômicas, muito embora também
possa descrever fenômenos macroscópicos em diversos casos. A Mecânica Quântica é
um ramo fundamental da física com vasta aplicação. A teoria quântica fornece
descrições precisas para muitos fenômenos previamente inexplicados tais como a
radiação de corpo negro e as órbitas estáveis do elétron. Apesar de na maioria dos casos
a Mecânica Quântica ser relevante para descrever sistemas microscópicos, os seus
efeitos específicos não são somente perceptíveis em tal escala. Por exemplo, a
explicação de fenômenos macroscópicos como a super fluidez e a supercondutividade
só é possível se considerarmos que o comportamento microscópico da matéria é
quântico. A quantidade característica da teoria, que determina quando ela é necessária
para a descrição de um fenômeno, é a chamada constante de Planck, que tem dimensão
de momento angular ou, equivalentemente, de ação.
A mecânica quântica recebe esse nome por prever um fenômeno bastante conhecido dos
físicos: a quantização. No caso dos estados ligados (por exemplo, um elétron orbitando
em torno de um núcleo positivo) a Mecânica Quântica prevê que a energia (do elétron)
deve ser quantizada. Este fenômeno é completamente alheio ao que prevê a teoria
clássica.
8ndice
* T ,
]2 #<
U
]2 i= V
V
1 V
W1 V
m2 i#X
Y
]2 > Z
Z
4
m2 #8
m2 i=
[
1 [
\1 [
m2 =
m2 =
]
3
:
]2 c 9
]2 &> ^3
]2 $ _?
]2
]2 [26`
]2 %
]2 #78
meditar] Um panorama
A palavra ³quântica´ (do Latim, quantum) quer dizer quantidade. Na mecânica
quântica, esta palavra refere-se a uma unidade discreta que a teoria quântica atribui a
certas quantidades físicas, como a energia de um elétron contido num átomo em
repouso. A descoberta de que as ondas eletromagnéticas podem ser explicadas como
uma emissão de pacotes de energia (chamados quanta) conduziu ao ramo da ciência que
lida com sistemas moleculares,atômicos e subatômicos. Este ramo da ciência é
atualmente conhecido como mecânica quântica.
Cada sistema ocupa um estado num instante no tempo e as leis da física devem ser
capazes de descrever como um dado sistema parte de um estado e chega a outro. Em
outras palavras, as leis da física devem dizer como o sistema evolui (de estado em
estado).
Muitas variáveis que ficam bem determinadas na mecânica clássica são substituídas por
distribuições de probabilidades na mecânica quântica, que é uma teoria intrinsicamente
probabilística (isto é, dispõe-se apenas de probabilidades não por uma simplificação ou
ignorância, mas porque isso é tudo que a teoria é capaz de fornecer).
a
m b
#2 =
c
cd+
? c
3
e?
c
dc
cd c
i 2 ##
(
!#
(!#
#
*#, (
)!+(
%#
,
- (
(
!;
&!
,
!!
#( %#
( ë
Õ impossível falar seriamente sobre mecânica quântica sem fazer alguns apontamentos
matemáticos. Isso porque muitos fenômenos quânticos difíceis de se imaginar
concretamente podem ser representados sem mais complicações com um pouco de
abstração matemática.
Por agora, importa saber que tais objetos (vetores) podem ser adicionados uns aos
outros e multiplicados por um número escalar. O resultado dessas operações é sempre
um vetor pertencente ao mesmo espaço. Os espaços vetoriais são os objetos básicos do
estudo na álgebra linear, e têm várias aplicações na matemática, na ciência, e na
engenharia.
Todos os vetores também podem ser multiplicados por um escalar - que no espaço
Euclidiano é sempre um número real. Esta multiplicação por escalar poderá alterar o
módulo do vetor e seu sentido, mas preservará sua direção. O comportamento de vetores
geométricos sob estas operações fornece um bom modelo intuitivo para o
comportamento dos vetores em espaços mais abstratos, que não precisam de ter a
mesma interpretação geométrica. Como exemplo, é possível citar o espaço de Hilbert
(onde "habitam" os vetores da mecânica quântica). Sendo ele também um espaço
vetorial, é certo que possui propriedades análogas àquelas do espaço Euclidiano.
Por exemplo, considere o Espaço Euclidiano. Para cada vetor nesse espaço é possível
executar uma rotação (de um certo ângulo) e encontrar outro vetor no mesmo espaço.
Como essa rotação é uma relação funcional entre os vetores de um espaço, podemos
definir um operador que realize essa transformação. Assim, dois exemplos bastante
concretos de operadores são os de rotação e translação.
Do ponto de vista teórico, a semente da ruptura entre as física quântica e clássica está no
emprego dos operadores. Na mecânica clássica, é usual descrever o movimento de uma
partícula com uma função
do tempo. Por exemplo, imagine que vemos um vaso
de flor caindo de uma janela. Em cada instante de tempo podemos calcular a que altura
se encontra o vaso. Em outras palavras, descrevemos a grandeza
com um
número (escalar) que varia em função do tempo.
Até este ponto já é possível perceber que a mecânica quântica descreve a natureza de
forma bastante abstrata. Em suma, os estados que um sistema físico pode ocupar são
representados por vetores de estado (kets) ou funções de onda (que também são vetores,
só que no espaço das funções). As grandezas físicas não são representadas diretamente
por escalares (como 10 m, por exemplo), mas por operadores.
Observe que qualquer matriz quadrada satisfaz a condição imposta acima desde que os
vetores no espaço possam ser representados como matrizes-coluna e que a atuação de
§ sobre os vetores de ocorra conforme o produto de matrizes a seguir:
Como foi dito, a equação acima ilustra muito bem a atuação de um operador do tipo
definido em eq.01]. Porém, é possível representar a mesma idéia de forma mais
compacta e geral sem fazer referência à representação matricial dos operadores lineares
eq.02]:
j satisfaz o problema para qualquer operador . Por isso, o vetor nulo não é
considerado uma resposta do problema.
Onde:
Como não pode ser considerado uma solução do problema, é necessário que:
m "
$!!
Na mecânica quântica, cada partícula tem associada a si uma quantidade sem análogo
clássico chamada spin ou momento angular intrínseco. O spin de uma partícula é
representado como um vetor com projeções nos eixos x, y e z. A cada projeção do vetor
spin : corresponde um operador:
O operador é geralmente representado da seguinte forma:
ou seja
Planck insistiu que este foi apenas um aspecto dos processos de absorção e emissão de
radiação e não tinha nada a ver com a realidade física da radiação em si.[2] No entanto,
naquele tempo isso parecia não explicar o efeito fotoelétrico (1839), ou seja, que a luz
brilhante em certos materiais pode ejetar elétrons do material. Em 1905, baseando seu
trabalho na hipótese quântica de Planck, Albert Einstein postulou que a própria luz é
formada por quanta individuais.[3]
Na mecânica quântica, o i íi é definido pelo conjunto de todas
as informações que podem ser extraídas desse sistema ao se efetuar algumamedida.
Como a norma dos vetores de estado não possui significado físico, todos os vetores de
estado são preferencialmente normalizados. Na notação de Dirac, os vetores de estado
são chamados "Kets" e são representados como aparece a seguir:
]2 Î
'
(
#
]2 Ë
'ï
]2 #
#
( (
(0
!# '
#
( (
#
((!
# # #
((!
ë #
( !. (
#
! (
! !# -
! )!
6# ( ( &
(
Apesar de ter sua estrutura formal basicamente pronta desde a década de 1930, a
interpretação da Mecânica Quântica foi objeto de estudos por várias décadas. O
principal é o problema da medição em Mecânica Quântica e sua relação com a não-
localidade e causalidade. Já em 1935, Einstein, Podolski e Rosen publicaram seu
È g , mostrando uma aparente contradição entre localidade e o
processo de Medida em Mecânica Quântica. Nos anos 60 J. S. Bell publicou uma série
de relações que seriam respeitadas caso a localidade ² ou pelo menos como a
entendemos classicamente ² ainda persistisse em sistemas quânticos. Tais condições
são chamadas desigualdades de Bell e foram testadas experimentalmente por A. Aspect,
P. Grangier, J. Dalibard em favor da Mecânica Quântica. Como seria de se esperar, tal
interpretação ainda causa desconforto entre vários físicos, mas a grande parte da
comunidade aceita que estados correlacionados podem violar causalidade desta forma.
'
± # ' (
( )!
ï
( h
.!(%
i77%ë
&
#
%
((
( '
((( ( (
( (
#
(
ïncontre fontes:
) (
6#
) * !
)!
2
*( ,È
*( ,
-
8ndice
* i ,
]2 #c 9
]2 i>
3
@
]2 / j
? j
j
]2 Ak
]2 &8
]2 $A
?+ l
%
#
(
]2
( & !
#
(% # !
!
%#7[ #7B#
B #$7i #7B#% " *( #6i 8
]2 &
( $'
&!
, ! 6(
( # # #%7(#%7
# (
(
( &
! #
!
( !
(
"
##
#!
(
( '
]2 &
( 9 !# (0
( &
! # #[$#i ; #
( #
(
(
( '
]2 (
( ,
# #%&& $' ! )! #
! ( !
( &
! ## # ( )!
( #
(
(
(
ë
]2 6!
( &
! (!
# #[$$& ; #
( ( #6i 8 &
( (
# !#
( !#
( !# (! (
( )!(
'
(0
ë
]2 ((6!
( &
! #( ##
(6!
( #
(;
( ( ( :# (6!
(
#
!# )! !
)!
( ;
#(( )!
((6!
( .
#
!# ()! !
()!
(
]2
( *
%#
)!(!#
#
#(
&
! #
;
( # 8
]2 '
( (
#(
(
'
(
)!(!#
#
(
# #! (
#
#(
*
#
#
! !
!; (
'!
ë
]2
( )! ; # # *
!
)!
!# # (
(
( #
#
(
]2 2
(
# 7 %
( # < ( 7 %
( < 7
]2 0 m= m m
m
n m6 m9 m m
>
m o7:77777&p
m
o
m m m
#2 / q
r
q
i2 / q
r
q
2 / q
? q
q
s
: q q
1 q
*
1 q
t7: q: q
(
> q q
t
q
:
q
1 q
C
qDE:
t
q
F q4
qG 9 q
q6 q q qD: t q q q
2 / q
G q
F
t
q
G
q
H4
t
q
q
G
q
:
q t
(
q
G
c
q
G
4q
q
q
G
q
? q
q
qc
5
*
http://pt.wikipedia.org/wiki/F%C3%ADsica_nuclear
*cJ