Que raios é ciência e como ela funciona?

18 de Dezembro de 2007, por Desconhecido - 44 comentários

Eu me considero um cientista. E como tal me interesso pela estrutura da ciência, o que talvez não seja o que Thomas Kuhn recomendaria.

Vou colar aqui um post que fiz na comunidade da USP do orkut quando se discutia o que é ciência e qual é o caráter das ciências sociais e humanas. Não sou filósofo da ciência, tampouco cientista humano. Tudo o que conheço de filosofia da ciência vem do pouco que eu li e muito que eu conversei com um amigo que é quase um epistemólogo de verdade, meu camarada Welton Gomes, que tem estudado essas coisas já por alguns anos.

Certamente os filósofos de verdade vão achar uma série de erros, mal-entendidos e falhas de interpretação. Gostaria muito se apontassem essas falhas, e me permitissem assim corrigir o texto e aprofundar meu entendimento do assunto.

A maior lição da epistemologia é a de que tentar definir ciência é uma atividade infrutífera.

 

O conceito popperiano (também chamado de falsificacionista ingênuo) é de que ciência é tudo aquilo que é experimentalmente falsificável, ou seja, aquilo que o resultado de um experimento isento e objetivo pode demonstrar ser falso.

Por exemplo: se ao medir a aceleração com que os corpos caem se notasse que objetos com massas diferentes sofrem acelerações diferentes, se demonstraria que as teorias atuais para a gravitação estão erradas - pois isso é o exato oposto das previsões que essas teorias fazem. Então a teoria da gravitação é falsificável e portanto é ciência segundo Karl Popper.

Há sérios problemas com essa definição. Por exemplo: a astrologia é perfeitamente falsificável. Basta fazer um estudo detalhado da personalidade das pessoas e compará-la às suas cartas natais. Mas ninguém gostaria de chamar a astrologia de ciência, a não ser os astrólogos. Me parece também que há também um argumento devido à Lakatos que mostra que, sob certas restrições razoáveis, não é possível demonstrar que uma afirmação é falsificável.

Então existem outras linhas de raciocínio como a teoria sociológica de Thomas Kuhn, o falsificacionismo mais sofisticado de Imre Lakatos, e a teoria "anarquista" de Paul Feyerabend. Mas nenhuma delas apresenta um claro procedimento de classificação das atividades humanas em ciência e não-ciência. Elas apenas descrevem o que se observa.

É interessante notar que geralmente esses filósofos tomam a física e a química como padrão para estudar ciência, porque são as ciências com maior número de resultados estabelecidos e que passaram por maior número de, para usar o vocabulário kuhniano, revoluções científicas, com mudanças sérias de paradigma. Ou seja: são as ciências mais "maduras", em certo aspecto.

Paul Feyerabend demonstrou com sua "teoria anarquista" de maneira muito clara que tentativas ingênuas de se definir ciência são totalmente infrutíferas e possívelmente nunca vão dar conta de incluir ou desincluir aquilo que o senso comum gostaria de chamar ou não de ciência.

Eu gosto particularmente do modelo lakatosiano/kuhniano.

 

Segundo Kuhn, uma atividade científica passa por dois tipos de períodos: os períodos de ciência normal, e os períodos de revolução científica.

Nos períodos de ciência normal, não há grandes mudanças de paradigma, mas o estabelecimento de um paradigma teórico universal entre os pesquisadores da área e o aprofundamento das aplicações desse paradigma a um número cada vez maior de questões.

De repente o paradigma alcança o seu limite, e não consegue mais explicar resultados experimentais. Então diversos candidatos (escolas de pensamento / teorias alternativas / ...) surgem como alternativas ao paradigma anterior e há um embate entre teorias. Esse é o período de revolução científica. Eventualmente esse período termina quando uma das teorias vence e um novo período de ciência normal emerge.

Essa é uma explicação bem simplificada de um modelo que é também bastante simplificado.

Lakatos construiu uma espécie de fusão do modelo kuhniano com um falsificacionismo de autoria dele, que é uma visão bem mais sofisticada (e precisa!).

Segundo Lakatos esse tipo de revolução não precisa acontecer em toda a ciência mas em determinados programas de pesquisa. Os princípios, leis, axiomas ... de um programa de pesquisa num período de ciência normal podem ser separados (talvez não de maneira muito unívoca) em duas partes: o núcleo firme que são a base de uma teoria, coisas que se forem mudadas causarão grandes mudanças; e o cinturão protetor coisas que podem mudar com o tempo sem afetar o núcleo firme.

Um período de ciência normal se caracteriza pela pesquisa apenas no cinturão protetor, sem ataques ao núcleo firme. Nesse período, o cinturão protetor se avoluma, com cada vez maior aplicação dos "fatos científicos estabelecidos" que compõe o núcleo firme à situações diferentes.

Quando eventualmente o cinturão protetor para de crescer com a falha dos resultados do núcleo firme em explicar novas situações, o núcleo firme passa a ser atacado, e temos uma revolução científica. Na minha percepção da ciência, baseada toda na física, que é minha área da atuação, parte do que é o núcleo firme de um dado programa de pesquisa pode ser parte do cinturão protetor de uma teoria mais geral. Dessa forma, a aproximação de Born-Openheimer é parte do núcleo firme da física da matéria condensada, mas é parte do cinturão protetor da física de forma mais geral.

 

Para dar o exemplo da física, grande parte dos programas de pesquisa dessa área estão, desde a década de 30, num período muito bem sucedido de ciência normal.

O núcleo firme da física (mecânica quântica, teoria quântica de campos e relatividade especial) está inabalavelmente estabelecido desde essa época. E a pesquisa no cinturão protetor (física da matéria condensada, física de altas energias, física atômica, física nuclear, ...) está em acelerada expansão desde essa época.

Algumas áreas encontram-se em períodos de revolução científica clara (física de energias ultra-altas, gravitação quântica, cosmologia) em que teorias rivais estão competindo (Loop Quantum Gravity vs. String Theory, por exemplo).

Outras áreas estão em um período meio nebuloso, difícil de classificar.

O mesmo acontece com as ciência humanas - algumas estão em períodos de revolução científica bastante prolongados, em que escolas diferentes de pensamento coexistem e nenhuma eventualmente torna-se o paradigma dominante. Talvez isso seja uma questão estrutural destas ciências humanas, pela dificuldade de estabelecimento de resultados experimentais ou talvez seja realmente uma questão de tempo até que um paradigma se mostre superior aos outros em frutificações (construção de um cinturão protetor).

Outras ciências humanas estão, eu acho, iniciando períodos de ciência normal. Ou talvez assim pareça para mim devido a minha ignorância dessas áreas. A lingüística parece ser uma delas.

 



Física e música

20 de Outubro de 2007, por Desconhecido - 66 comentários

Da série "recuperando antigos posts do Orkut", um post que eu fiz ano passado no Orkut sobre timbre e decomposição espectral. Pretendo melhorar isso mais tarde.

Quando um certo instrumento emite uma nota por exemplo, o Lá fundamental de 440 hertz, não é apenas a frequencia da nota fundamental que está sendo emitida. Todas as frequencias múltiplas dessa frequencia também estão sendo "excitadas". Na verdade isso tem a ver com o teorema da decomposição espectral, um teorema da matemática que diz que toda função periódica (um onda com frequência bem definida é um exemplo) pode ser decomposta em uma soma de senos e cossenos com frequencias multiplas dessa função original.Essa frequencias múltiplas da fundamental são os chamados harmônicos.O que dá o timbre do instrumento é a intensidade relativa de cada harmônico. Se você fizer um gráfico da potência sonora emitida em função da frequencia do número do harmônico, ele será diferente para cada instrumento musical por exemplo.

Nesta figura abaixo por exemplo está o espectro de amplitude (a potência é proporcional ao quadrado da amplitude) em função da frequencia do Dó central do meu violão:



Repare que os picos são mais ou menos igualmente espaçados. Ou seja, eles estão localizados em f, 2f,3f,4f, ... frequencias múltiplas do harmônico fundamental.

Agora vamos ver o dó central do meu clarinete:



A primeira coisa que você vai notar é que meus dois instrumentos estão desafinados heheeh. O dó central tem uma frequencia de 261 Hz. Você pode notar que o pico fundamental do clarinete está em 240 Hz mais ou menos e do violão em 150 Hz.

A segunda coisa que você vai notar é que o formato dos picos do clarinete são muito diferentes. Isso tem a ver com o ataque à nota. O som que gravei para fazer esse gráfico do clarinete era um som sustentado, longo. Não dá pra fazer isso no violão. Por mais suave que se toque a nota existe um perfil de ataque: a nota soa mais intensa logo após o momento que você tange a corda e "morre" com o tempo.

Essa forma como a amplitude se comporta no tempo é que vai dizer qual o formato do pico. Se o pico for fino e simétrico a amplitude do som é mais ou menos constante. Se o pico for mais largo significa que a nota tem um certo perfil de ataque no tempo.

Outra coisa que você vai perceber é que a relação entre as intensidades dos picos são diferentes. Os picos do violão vão ficando menores conforme a frequencia aumenta. Já no clarinete o primeiro pico é grande, o segundo é bem pequeno, o terceiro é grande de novo e etc... Isso é que dá o timbre!


Nobel de Física de 2007: Magnetoresistência Gigante

8 de Outubro de 2007, por Desconhecido - 0sem comentários ainda

Saiu hoje o prêmio Nobel de Física dessa ano para os pesquisadores Albert Fert e Peter Grünberg pela descoberta do fenômeno conhecido como Magnetorresistência Gigante (GMR, Giant Magnetoresistance). A GMR de fato transformou a indústria de computadores acelerando substancialmente a taxa com que a densidade de dados armazenadas em discos rígidos aumenta a cada ano.

Mas do que se trata esse fenômeno? Em primeiro lugar precisamos entender o conceito de spin. O spin é um grau de liberdade intrínseco de uma partícula, é uma grandeza vetorial associada a cada partícula de forma que a determinação do estado dessa partícula, envolve a determinação do estado de seu spin. A grande dificuldade em se entender do que se trata o spin é devido ao fato de que não existe analogia entre o spin e nenhuma variável da mecânica clássica, que é a que temos contato no nosso mundo macroscópico. Basta, para o que segue, entendermos que o spin é uma variável associada a cada partícula e que pode assumir certos valores.

O elétron é uma partícula que denominamos férmions, são partículas tais que uma certa componente do vetor spin em uma dada direção pode assumir um número par de valores diferentes. No caso do elétron, que é uma partícula de spin [tex]\frac{1}{2}[/tex], o spin do elétron em uma certa direção pode assumir os valores [tex]+1[/tex] ou [tex]-1[/tex], ou, de maneira mais pictórica: spins apontando para cima, ou para baixo.

O fato de que o elétron possui um spin é antigo: é conhecido desde a década de 20. Entretanto até recentemente esse fato não era tecnologicamente explorado pela microeletrônica. Toda a eletrônica moderna até a década de 90 era baseada no fato de que o elétron possui uma carga elétrica, mas a existência do spin não era explorada. A razão é simples: as energias associadas aos estados de spin são muito menores que as energias associadas aos estados orbitais dos elétrons, de forma que na prática, os spins em uma corrente elétrica comum estão totalmente misturados: a chance de se encontrar um elétron com spin [tex]+1[/tex] é exatamente a mesma de se encontrar um elétron com spin [tex]-1[/tex].

Com a evolução das técnicas de manipulação de materiais semicondutores foi finalmente possível alcançar um estágio em que podemos manipular experimentalmente o spin de elétrons em correntes elétricas e isso abriu novas possibilidades tecnológicas e de pesquisa básica culminando com a criação de um novo campo da física: a spintrônica - (do inglês: spin based electronics - eletrônica baseada em spin).

A GMR foi uma das primeiras grandes descobertas desse campo de pesquisa. O dispositivo básico para se entender esse efeito é descrito na seguinte figura:

As duas camadas vermelhas são camadas de materiais ferromagnéticos, ou seja, materiais que sob a açao de um campo magnetico podem se magnetizar de forma permanente - são finas camadas imãs. A camada azul central é feita de uma material não magnético porém suficientemente puro para que um elétron possa atravessá-lo praticamente sem mudar seu spin original (sem sofrer espalhamento que provoque uma mudança da orientação de seu spin).

Suponha que a primeira camada esteja magnetizada em uma certa direção. Em um material ferromagnético que esteja magnetizado, os estados disponíveis para condução de corrente elétrica tem todos spins alinhados na mesma direção que a magnetização (todos os estados com energia próxima a energia de Fermi tem sua componente de spin alinhada com a magnetização do material). Dessa forma a corrente que atravessa a primeira camada ferromagnética sai dela com uma boa parte de seus elétrons com seus spins apontando em uma direção especifica.

Então essa corrente atinge a camada não magnética e caminha na direção da outra camada ferromagnética. Suponha que a segunda camada ferromagnética esteja magnetizada na mesma direção que a primeira. Então existem estados disponíveis para os elétrons que estão chegando entrarem nessa camada e continuarem a conduzir corrente nessa direção. Dizemos então que a resistência elétrica do dispositivo como um todo é baixa.

No entanto se a segunda camada ferromagnética estiver magnetizada na direção oposta à primeira, então os elétrons que estão chegando não encontram estados disponíveis para ingressar naquele material pois seus spins estão alinhados na direção oposta a da magnetização da camada. A quantidade de elétrons que conseguem entrar nessa nova camada e continuar conduzindo é menor. Assim a resistência elétrica do dispositivo como um todo é bem mais alta.

Se de alguma forma conseguirmos travar a magnetização da primeira camada em uma certa direção (existem técnicas experimentais para fazer isso) e fizermos com que a segunda camada tenha uma magnetização facilmente manipulável, podemos "abrir" ou "fechar" uma válvula que aumenta ou diminue a passagem de corrente.

Assim se cria uma cabeça de leitura para discos rígidos por exemplo. Os dados estão gravados no disco de forma binária: cada pequeno trecho no disco armazena um "0" ou um "1" de maneira magnética, cada possibilidade correspondendo a uma diferente magnetização daquele pequeno pedaço do disco. Ao se aproximar a segunda camada magnética do disco ela vai orientar-se de acordo com o estado daquele trecho de disco permitindo assim a passagem de maior ou menor corrente de acordo com a informação gravada no disco.

Antes do advento dos dispositivos GMR a leitura era feita com pequenas bobinas. Entrentanto, bobinas cada vez menores apresentam cada vez menos capacidade de leitura e existe um limite para o tamanho operacional que a bobina pode ter, limitando a densidade de dados que pode ser armazenada em um disco rígido. As cabeças de leitura baseadas na GMR podem ser bem menores e continuar operando, permitindo assim o grande salto que o espaço de armazenamento dos discos rígidos tiveram no final dos anos 90.