terça-feira, 30 de outubro de 2012

Hiparco, Pogson e as magnitudes


Créditos da imagem: Babak Tafreshi/Dreamview.net (m: magnitude aparente, d: distância)

Certas definições, quando estabelecidas, são muito difíceis de serem alteradas. O conhecimento às vezes se acumula sobre conceitos que, na sua época, poderiam parecer corretos, mas que hoje tornam-se até contra-intuitivos. Essa inércia ocorre bastante em Astronomia, e os alunos geralmente sofrem para assimilar tudo isso.

Um exemplo bastante interessante é o caso da magnitude que, por definição, fornece uma escala de brilho de um dado objeto astronômico. Hiparco, brilhante astrônomo grego que viveu entre 190 e 120 a.C. desenvolveu (entre muitas outras coisas) um sistema de classificação dos objetos no céu. Para ele, a estrela mais brilhante que conseguia ver foi chamada de estrela de primeira grandeza (ou de primeira magnitude). Da mesma forma, a estrela mais fraca que seu olho conseguia enxergar foi chamada de estrela de sexta grandeza (ou sexta magnitude).


Até aí tudo certo. Passaram-se 2 mil anos até que Norman Robert Pogson percebesse que a diferença de brilho aparente entre as estrelas de primeira e sexta magnitudes era de aproximadamente 100 vezes. A primeira vista alguém poderia dizer que uma estrela de magnitude 3 é 2 vezes menos brilhante do que uma estrela de primeira magnitude, mas não é bem assim que acontece. O nosso olho possui uma resposta logarítmica à luz. Por isso que uma diferença entre 1 e 6 magnitudes é traduzida em uma razão de 100 em brilho aparente.

Assim, a magnitude aparente (m) de um objeto é proporcional ao logarítmo do fluxo recebido pelo olho (com um sinal negativo na frente, para levar em conta a inversão de escala feita por Hiparco). O problema não antecipado por Hiparco era que, um belo dia, seríamos capazes de desenvolver equipamentos que pudessem “ver” objetos muito mais fracos do que um ser humano jamais pensaria em enxergar. Então, começaram a aparecer magnitudes negativas! Alguns valores de magnitude visual estão listados abaixo:


  • Sol: m =  -26.74 (porque é a estrela que está mais próxima a nós)
  • Lua cheia: m = -13
  • Acrux: m = 1.3 (a estrela mais brilhante do Cruzeiro do Sul)
  • Urano: m = 5.6 (o limite do olho humano sem instrumentos é 6.0)
  • Plutão: m = 13.6
  • Hubble: m = 30.0 (limite de magnitude que o telescópio espacial consegue detectar)


Essa definição de magnitude aparente não leva em conta, por exemplo, a distância em que o objeto se encontra.  Com efeito, essa quantidade não fornece nenhuma informação sobre o brilho intrínseco dos objetos. A fluxo de luz que parte da estrela sofre (entre outros efeitos) uma “diluição geométrica”, diminuindo com o quadrado da distância. Além disso, a poeira presente no meio interestelar também afeta a luz vinda dos objetos. Sendo assim, estrelas muito brilhantes e muito distantes podem possuir um valor alto de magnitude aparente. Já objetos mais próximos e menos brilhantes podem ter uma magnitude menor. Para resolver o impasse, foi definida uma grandeza chamada magnitude absoluta, que fornece o brilho dos objetos em uma certa distância padrão. Nessa escala, a magnitude do Sol é 4.83.

Então agora tudo certo… Não! Para piorar um pouco a situação, as estrelas possuem cores (temperaturas) diferentes. Isso significa que cada uma emite quantidades diferentes de energia em diferentes partes do espectro eletromagnético. Assim, as magnitudes também devem ser definidas em intervalos de comprimento de onda (magnitude aparente/absoluta no visível, infra-vermelho e etc.), criando assim uma série de definições complementares. Existe ainda o conceito de magnitude bolométrica, que está associada ao fluxo emitido pelo objeto somado em todos os comprimentos de onda.

Se alguém tivesse avisado o Hiparco sobre essa confusão toda, teria ele feito algo diferente?


Via Café com Ciência


Nenhum comentário: