La escala de magnitudes

La escala de magnitudes sirve para no tener que usar números con muchos decimales cuando se habla del brillo de las estrellas.

Magnitud aparente

La magnitud aparente es una cifra que indica la cantidad de luz de las estrellas que llega al observador.

Como más brillante es la estrella, menor es la cifra de su magnitud. La regla es: por cada cinco magnitudes que se suman, el brillo se divide por cien.

Ejemplo: la estrella Vega, una de las más brillantes, tiene magnitud cero. Las estrellas de magnitud 5 tienen un brillo de 0,01 vegas, y las de magnitud 10 de 0,0001 vegas. También hay magnitudes negativas; si un satélite artificial tiene un brillo de 100 vegas, se dice que su magnitud aparente es -5.

 Mirando desde el desierto, en una noche sin luna, las estrellas menos brillantes que se ven sin aparatos tienen magnitud 6. Mirando desde Madrid o Barcelona, las menos brillantes son de magnitud 1 ó 2 (normalmente).

Magnitud absoluta

mag.abs soles
-1 190 
0 76 
1 30 
2 12 
3
4 1,9 
4,7
5 0,76 
6 0,30 
7 0,12 
8 0,05 
9 0,019 
9,7 0,01 
10 0,0076 
15 0,000076 
La magnitud absoluta de una estrella es una medida de la cantidad total de luz que emite. Claro que es más fácil hacerse una idea del brillo real de la estrella si lo pasamos a "soles", con la tabla de la derecha.

Las magnitudes absolutas siguen la misma regla que las magnitudes aparentes: sumar cinco magnitudes equivale a dividir el brillo por cien.

Según se ve en la tabla, una estrella de magnitud absoluta cero es 75 veces más brillante que el sol. Las estrellas del mismo brillo que el sol tienen magnitud 4,7. La estrella más cercana a la tierra, Próxima Centauri, no se puede ver sin telescopio. Su brillo real es 1/20000 del brillo del sol (magnitud absoluta 15,4).