Archivo para octubre 2012

Existen los Extraterrestres……?   Leave a comment

Quizas la busqueda de vida Extraterrestre, y la eterna pregunta de si existen, ya tenga respuesta…..

Aparte de las cuasi evidencias basadas en las civilizaciones antiguas, ya tengamos la respuesta.

El 15 de agosto de 1977 a las 23:16, el radiotelescopio Big Ear recibió una señal de radio de origen desconocido durante exactamente 72 segundos proveniente de la zona oeste de la constelación de Sagitario y alcanzando una intensidad 30 veces superior al ruido de fondo.

De acuerdo al protocolo utilizado, esta señal no fue grabada sino que fue registrada por la computadora del observatorio en una sección de papel continuo diseñada para tal efecto. Unos días después, el joven profesor de la Universidad Estatal de Ohio Jerry R. Ehman, que estaba trabajando como voluntario en el proyecto SETI revisando los registros de la computadora, descubrió la señal anómala más intensa que se hubiera detectado hasta entonces por un radiotelescopio. La señal fue conocida como Wow debido a la anotación que Jerry Ehman hizo en el papel continuo, denotando su sorpresa y emoción. La secuencia de dicha señal fue: 6EQUJ5.

En la actualidad aún se investiga el origen de la señal.

A esta señal, se la conoce como señal WOW.

OSU Big Ear Radio Telescope
El radiotelescopio OSURO (Ohio State University Radio Observatory) Big Ear estuvo operativo desde 1963 hasta 1997. Consistía en una reflector llano que se podía inclinar para mandar las ondas de radio a otro reflector parabólico. Este a su vez, las concentraba en un receptor de microondas.

File:Wow signal.jpg

Todos los intentos posteriores de obtener una señal de la misma dirección no han encontrado nada inusual.

Dado que la señal de radio fue 30 veces más ponderosa que la radiación promedio del espacio profundo, un astrónomo voluntario llamado Jerry Ehman, quien estaba observando los datos del telescopio escribió “Wow!” en una impresión, llevando al apodo de la señal.

File:Wow signal profile.svg

La computadora del radio-observatorio, una IBM 1130 equipada con 1 MB de disco duro y 32 KB de memoria RAM, se encargaba de convertir los datos recibidos directamente por el radio-telescopio a una serie de caracteres alfanuméricos. El software, diseñado por Bob Dixon y Jerry Ehman era bastante sofisticado ya que hacía continuos chequeos del funcionamiento del equipo y era capaz de ejecutar varios algoritmos de búsqueda simultáneamente, incluidos unos algoritmos de búsqueda capaces de aislar señales pulsantes o continuas. Además sirvió para solucionar la falta de espacio en los registros de impresora y el ahorro de tinta ya que se estaban rastreando 50 canales en la frecuencia del hidrógeno neutro (1420 MHz). Cada fila representaba los resultados de los datos recogidos durante aproximadamente 12 segundos de búsqueda. Eran necesarios 10 segundos para obtener las intensidades de todos los canales, y aproximadamente 2 segundos para que la computadora procesara los datos recibidos. Las columnas representaban las intensidades para los 50 canales en rastreo, de 10kHz de ancho de banda cada uno, con el canal nº1 situado en el extremo izquierdo y el canal nº50 situado en el extremo derecho.

Para detectar con precisión la intensidad de una posible señal, la computadora basaba las mediciones tomando como referencia la medición anterior. Esto se hacía debido a que el ruido de fondo no es constante respecto al tiempo y necesitaban tener en todo momento una referencia actualizada del mismo para poder diferenciar lo que es señal de lo que es el ruido. Este proceso se llevaba a cabo en 5 pasos:

-En un primer momento se dividía en 6 porciones la señal recibida en cada canal, de las cuales se separaban 1/6 del valor actual y 5/6 del valor anterior y eran separadas para eliminar el ruido de base.

-En el siguiente paso el resto era dividido por la desviación estándar computada sobre 60 periodos (porciones de señal), 1/60 del valor actual más 59/60 del valor anterior.

-El número calculado en el primer paso era dividido por el número calculado en el segundo. Esta operación daba el ratio de ruido de la señal.

-Después la parte entera de este ratio de ruido de la señal era tomada; y …

-Por último el número entero era impreso con las siguientes modificaciones. Si el valor era un 0 era representado mediante un espacio en blanco, los valores entre el 1 y el 9 eran impresos tal cual, y los enteros del 10 al 35 eran representados con las letras mayúsculas que van de la A a la Z respectivamente. Si alguna señal tenía una intensidad de 36,0 o superior, el programa simplemente empezaba de nuevo desde 0. Así, el valor 39 sería convertido a 4 (39-35).

La secuencia “6EQUJ5” en el segundo canal del registro de la computadora representaba los siguientes valores de ruido de la señal:

  • 6: los valores entre 6,0 y 6,999…
  • E: los valores entre 14,0 y 14,999…
  • Q: los valores entre 26,0 y 26,999…
  • U: los valores entre 30,0 y 30,999…
  • J: los valores entre 19,0 y 19,999…
  • 5: los valores entre 5,0 y 5,999…

El intervalo más intenso recibido (la “U” significa que la señal era 30 veces más intensa que el ruido de fondo. Mucho de este ruido de fondo llega al receptor sin que se vea alterado, pero algunos ruidos pueden provenir de los árboles, de la hierba u otros objetos circundantes, y algo proviene del remanente del “Big Bang“, explosión que se estima habría ocurrido hace 13.700 millones de años.

1420.4056 MHz – Hidrógeno neutro

¿Por qué en esta frecuencia? Pues porque es la del elemento más abundante en el Universo. Hay millones de frecuencias posibles en todo el espectro radio-eléctrico, pero se piensa que cualquier civilización inteligente lo suficientemente avanzada como para estudiar el universo, debería conocer la radio-astronomía y por tanto hacer investigaciones radio-astronómicas. Si esto es así deberían conocer la frecuencia natural de emisión del hidrógeno neutro, que al ser el elemento más abundante del universo proporciona un canal óptimo para la emisión y recepción de señales.

Ya tenemos el canal, pero ¿en qué tipo de onda podemos esperar recibir un posible mensaje? Hay varios tipos de ondas que se diferencian por sus características a la hora de imprimirles un mensaje, como son la modulación de frecuencia (FM), la modulación de amplitud (AM), modulación de fase, modulación digital, banda lateral única, etc… Pero de entre todas ellas destaca una en particular por su capacidad de concentrar gran cantidad de energía en el menor ancho de banda. Esta es la conocida como onda continua o CW (Continuous Wave) que por ser de una frecuencia fija y estable es la onda óptima para salvar las grandes distancias interestelares a la vez que es capaz de ser escuchada a niveles muy bajos de señal (el código Morse se emite en CW).

El ancho de banda de la señal es menor a 10 kHz. Para la frecuencia se han dado dos valores diferentes: 1420.356 MHz y 1420.456 MHz; en cualquier caso, esas frecuencias están próximas a la frecuencia de transición hiperfina del hidrógeno. Esa frecuencia forma parte del espectro de radio donde está prohibida la emisión por tratados internacionales.

Se sugieren dos posibles coordenadas ecuatoriales:

  • A.R. = 19h22m22s ± 5s
  • A.R. = 19h25m12s ± 5s

Ambas coordenadas tienen declinación  = -27°03´ ± 20´ (época B1950.0).[1] [1] Este enlace reproduce el sonido

File:Wow signal location.jpg

Lugar del espacio de donde provino la señal..

El código de letras “6EQUJ5” posee un significado específico.

Las intensidades recibidas del espacio se codifican de la siguiente manera:

0 = Intensidad 0
“1”…”9″ = Intensidad 1,…Intensidad 9
“a”, “b”,…= Intensidad 11, Intensidad 12 y así sucesivamente.

El valor ‘U’ (intensidad entre 30.0 y 30.999) fue la mayor jamás registrada por el telescopio.

El telescopio Big-Ear estaba fijo y empleaba la rotación de la Tierra para escanear el cielo. Por la velocidad de rotación de la Tierra y la ventana de observación del telescopio, éste sólo podía observar un punto cualquiera durante 72 segundos. Por eso, se da por hecho que una señal extraterrestre se registraría durante exactamente 72 segundos, y que la grabación de la intensidad de esa señal mostraría un pico gradual durante los primeros 36 segundos (hasta que la señal llegara al centro de la ventana de observación del telescopio) para luego mostrar un descenso gradual. Por eso, tanto la duración de la señal WOW!, 72 segundos, como su forma, corresponderían a un origen extraterrestre.

La señal provenia de la constelación de Sagitario.

la localización exacta de ésta: un punto al noroeste del cúmulo globular M55 en el que, aparentemente, no había ningún planeta ni estrella. ¿De dónde provenía entonces el mensaje?

Archivo:Señal Wow!3.jpg

Cumulo Globular M-55

Es la entrada número 55 en el catálogo de Charles Messier (también conocido como M55 o NGC 6809) es un cúmulo globular formado por cerca de 100,000 estrellas y se encuentra sólo a 17,300 años luz de distancia de la Tierra, en la constelación Sagitario. Fue descubierto por Nicolas Louis de Lacaille en 1751 y catalogado por Charles Messier en 1778 y para un observador situado en nuestro planeta aparece como de 2/3 del tamaño de la luna llena.

Los cúmulos globulares como la M55 circundan el halo de la Vía Láctea como poblaciones de estrellas limitadas gravitacionalmente y que son mucho más antiguas que las encontradas en nuestro disco galáctico.

Sólo se han descubierto media docena de estrellas variables en el M55.

 

El proyecto SETI ha detectado en las tres últimas décadas decenas de posibles transmisiones de radio inteligentes. La señal Wow! ha sido la más prometedora jamás detectada.

En 1997 el radiotelescopio Big Ear fue desmantelado. Nunca volvió a registrar nada reseñable, y los científicos del SETI no pudieron explicar el origen de la trasmisión. Se realizaron más de 100 estudios para explorar la misma región del espacio. Nadie volvió a encontrar nada fuera de lo normal. Pese a esto, 35 años después, la “señal Wow!” sigue siendo un misterio.

Ahora, 35 años después, en 2012  quienquiera que envió la emisión puede recibir una respuesta (claro, si es que en realidad hay una civilización detrás de la señal).

Un proyecto dirigido por el canal National Geographic y el Observatorio de Arecibo transmitió un paquete de información digital hacia el cielo el miércoles 15 del pasado agosto

Esperaremos respuesta…..

La señal Bloop:

El Bloop es el nombre que se le da a un tipo de sonido submarino de ultra-baja frecuencia ULF, de origen desconocido, detectado en varias ocasiones a lo largo del verano de 1997 por el NOAA (National Oceanic and Atmospheric Administration) de los Estados Unidos de América.

File:Bloop.jpg

Durante la Guerra Fría, Estados Unidos colocó numerosos micrófonos anclados en el fondo del mar con el fin de detectar los submarinos nucleares soviéticos.

En el verano de 1997, al revisar y arreglar dichos micrófonos, se detectó en el Pacífico Sur un sonido potentísimo (detectado por micrófonos alejados entre sí más de 5000 km) al que bautizaron como Bloop.

Los científicos determinaron que el origen del sonido estaba ubicado cerca de la siguientes coordenadas: 50° S 100° W.

Se ha postulado que el sonido podría provenir de un animal, ya fuere de una especie desconocida de pulpo o calamar gigantesco, o de una nueva especie de ballena gigante aún más grande que la ballena azul. Sin embargo, no existe entre los cefalópodos conocidos ninguno cuya fisiología le permita producir este tipo de sonido (cavidades rellenas de gas en especial), y un cetáceo más grande que la ballena azul debería subir a la superficie para respirar, con la posibilidad de ser observado.

Misterioso…. Estaremos al tanto…

Publicado octubre 31, 2012 por astroblogspain en Uncategorized

Los 7 gigantes de los Urales, y la piedra de Dashka   1 comment

Al norte de los Urales, cuando estos dejan atrás la vegetación para convertirse en aterciopeladas colinas que se pierden en el horizonte, se levantan majestuosamente siete gigantes. Siete colosos de piedra que, en medio de la nada, parecen haber hecho un alto en el camino para contemplar el paisaje desde la cima de un altiplano. Con alturas que van desde los 30 hasta los 42 metros, estos siete moais, que la naturaleza ha moldeado durante más de 200 millones de años, forman uno de los legados geológicos más impresionantes y mágicos del planeta.
 
 
Este singular fenómeno, que desde tiempos inmemoriales ha sido fuente de todo tipo de fábulas y leyendas, se originó hace unos 200-300 millones de años, cuando en ese lugar se erigía una montaña. Con el paso del tiempo, la erosión provocada por la lluvia, viento, heladas y demás fenómenos meteorológicos han ido desgastando su superfície hasta dejar los siete pilares que se conservan actualmente. En los Urales (una de las cordilleras más antiguas de la Tierra) podemos encontrar otras formaciones que guardan cierta similitud con Man-Pupu-Nyor, pero ninguna de ellas la igualan en dimensiones y espectacularidad.
Ancestralmente, el acceso a este paraje estaba reservado a los chamanes de los pueblos mansi. A su alrededor se formaron múltiples leyendas, en las que el denominador común solía ser el enfrentamiento entre un chamán y un grupo de gigantes. Según una de las más extendidas, un chamán habría pronunciado un conjuro para convertir en piedra seis malvados gigantes que pretendían cruzar la cordillera, pero con la mala fortuna de caer él también víctima del encantamiento; dando así explicación a la distribución de los pilares (seis agrupados y uno más apartado).
Debido a su remota ubicación, el acceso a Man-Pupu-Nyor está reservado a excursionistas bien preparados o viajeros que cuenten con medios como helicópteros o motos de nieve.
El clima continental extremo de la región hace que los siete gigantes de piedra adquieran muchos aspectos diferentes en función del momento del día y condiciones meteorológicas, en una metamorfosis sin fin que no deja de sorprender.

 
 
 
 
 
 
Ha sido fuente de todo tipo de fábulas y leyendas y ancestralmente, el acceso a este paraje estaba reservado a los chamanes de los pueblos mansi. 

Los hombres eran tan fuertes que uno a uno vencían a los osos; y tan rápidos que podían alcanzar al más veloz de los ciervos. En las yurtas acumulaban las pieles de los animales sacrificados y de éstas las mujeres hacían lujosos trajes. Los espíritus buenos, que habitaban en la montaña sagrada de Yalping-Nier, ayudaban siempre a los mansi.

Su líder era Kuuschai, un hombre inteligente, quien mantenía una estrecha amistad con las almas buenas. Tenía una hija, la linda Aim, empinada como el pino del bosque, y su canto atraía hasta el valle a los renos.
Pasó el tiempo y el gigante Torev (Oso), cuya tribu cazaba en las montañas de Jaraiz, pidió a Kuuschai entregarle su hija. Aim se negó a aceptar la propuesta. Despechado, Torev llamó a sus hermanos gigantes y avanzaron hacia la cumbre de Torre-Porre-Iz para llevarse a la joven a la fuerza.
Los gigantes llegaron hasta las puertas de la ciudad de piedra, mientras buena parte de los guerreros estaba de cacería. Las murallas resistieron el empuje de los invasores todo un día. Desesperada, Aim pidió desde la torre ayuda a los espíritus buenos para que enviaran de vuelta a los guerreros y a su jefe Pygrychum.
El gigante Torev tuvo tiempo de levantar la maza de hierro y reventar en pedazos la cerradura de cristal, fragmentada en pedazos y esparcidas por el viento en los Urales. Aim aprovechó la oscuridad y se ocultó con un puñado de guerreros en las montañas.

De pronto, con los primeros rayos del sol apareció Pygrychum con un brillante escudo y espada en mano, que entregaron los espíritus buenos. Volteó el escudo hacia el sol y la luz ardiente que golpeó los ojos del gigante, le hizo tambalearse hacia el lado del tambor. Los hermanos miraban asombrados cómo el gran Torev se convertía lentamente en piedra. Presos del pánico abandonaron a su hermano, pero al caer bajo los rayos del escudo se transformaron también en piedra“.

El pueblo mansi bautizó a los gigantes como Mam-Pupu-Nio, que significa la montaña de los ídolos de piedra,  y se ha convertido en un símbolo de resistencia de los pueblos del norte.

Exiten otro tipo de leyendas en las que se enfrentaban un chamán y un grupo de gigantes. Según una de las más extendidas, un chamán habría pronunciado un conjuro para convertir en piedra seis malvados gigantes que pretendían cruzar la cordillera, pero con la mala fortuna de caer él también víctima del encantamiento. Así también se da explicación a la distribución de los pilares , seis agrupados y uno más apartado.
 
 
No es facil verlos.

 
También por su remota ubicación, el acceso a Man-Pupu-Nyor está reservado a excursionistas bien preparados o viajeros que cuenten con medios como helicópteros o motos de nieve.
En lo últimos años, se ha limitado el acceso a las formaciones para protegerlas del turismo. Se puede acceder por periodos cortos de tiempo y con un permiso especial del departamento de medio ambiente.
 
Cerca, y tambien en los Urales…..
 
 
 
La piedra Dashka – el Mapa del Creador
 
 

El mapa del Creador en Bashkiria, Rusia, 20 millones de años. La historia de esta Piedra comienza cuando el doctor en ciencias físicas y matemáticas y profesor en la Universidad estatal de Bashkiriev, Alexandre Chuvyrov en compañía de una estudiante de nacionalidad china Huan Hun, decidió estudiar la hipótesis de que la antigua población de China emigrara a las zonas de Siberia y los Urales. A lo largo de sus expediciones en Bashkir, encontraron varios grabados rupestres en chino antiguo que trataban mayoritariamente sobre comercio, bodas y defunciones.
Durante esas investigaciones, encontraron en el archivo del Gobernador General de Ufa notas del siglo XVIII que relataban la existencia, cerca de la aldea de Chandar en la región de Nurimanov, de unas 200 misteriosas tablillas de piedra grabada. Otras fuentes indicaban que en los siglos XVII y XVIII, expediciones de científicos rusos a los Urales habían estudiado esas 200 tablillas blancas que tenían grabados distintos signos y motivos. Había también otras notas que indicaban que a principios del siglo XX, el arqueólogo A. Schmidt también había visto estas tablillas de color blanco en Bashkir.

Alexandre Chuvyrov formó a un equipo de estudiantes para continuar la investigación y en 1998 comenzó su expedición. Después de varias tentativas fracasadas, A. Chuvyrov comenzó a desconfiar y a sospechar que se trataba solamente de una leyenda. Pero su suerte cambió. Un año despues, en el mes de julio de 1999, el ex-presidente del Consejo Agrícola Local, Vladimir Krainov, le comunicó que en su búsqueda de estas piedras, había encontrado una de ellas semienterrada en el patio de una casa.

Incrédulo, el Dr. Chuvyrov, fue a verificar la autenticidad de la piedra. Esta se encontraba situada debajo del pórtico de una casa y era imposible moverla debido a su tamaño y peso: 148 centímetros de alto por 106 centímetros de ancho, y 16 centímetros de espesor, y al menos una tonelada de peso. Una semana más tarde, se inició la extracción de la “piedra” para su posterior estudio. La gran piedra fue transportada a la universidad.

Inesperadamente, ésta contenía un mapa tridimensional. La investigación adicional de un grupo de especialistas chinos y rusos determinó que el mapa mostraba la región de Ural. La estructura geológica de la excavación estaba compuesta de tres niveles: la base, una dolomía gruesa de 14 centímetros; la capa media o segunda capa, contiene la imagen grabada y es de cristal de diopside; y la tercera capa, de 2 milímetros de porcelana de calcio y que supuestamente protege el mapa contra los golpes.

En la tablilla figuran inscripciones verticales jeroglífico-silábicas. En un principio los científicos pensaron que el mapa podía ser la obra de los chinos antiguos por su similitud. Pero después de buscar en diferentes libros y no encontrar ninguna inscripción similar a ésas resultó imposible descifrarlas.

Diferentes radiografías confirmaban que la piedra fue fabricada con instrumentos de precisión, un simple tallador de piedra no hubiera sido capaz de conseguir tal relieve y probablemente la tablilla forme parte de un mosaico formado por otras losas.

El relieve geográfico de Bashkir no ha cambiado mucho en unos millones de años y con la ayuda de especialistas en cartografía, topografía, geología, etc. se consiguió rápidamente identificar el monte de Ufa, su falla, los diferentes ríos de la región de los Urales, la falla de Ufa en Sterlitimak; con lo que se pudo tambien deducir que el mapa está realizado a una escala de 1 cm:1,1 km.

El mapa tambien indica el uso de ingeniería civil al crear un sistema gigante de canales de aproximadamente 12.000 kilómetros de longitud y 500 metros de ancho, y 12 embalses de entre 300 y 500 metros de ancho, 10 km de largo y 3 km de profundidad cada uno.
Estos embalses que alimentaban las diferentes redes de abastecimiento y necesitaron la extracción de por lo menos 1000 metros cúbicos de tierra. Si se compara con el canal existente actualmente del Volga al Don, éste parecería un simple rasguño.

El Dr. Chuvyrov y su equipo pensaban que la edad de la losa era de unos 3000 años. Los análisis realizados con carbono 14 dieron unos resultados erráticos y poco concluyentes. En un análisis más minucioso se descubrió en la piedra la presencia de dos conchas, una de 50 y otra de 120 millones de años de antigüedad; pero nada permite saber si las conchas estaban o no ya fosilizadas en el momento de la creación del mapa.

Las investigaciones realizadas por el Centro de Cartografía Histórica de Wisconsin, propusieron que el mapa únicamente se ha podido elaborar a partir de levantamientos aéreos. Esta investigación sigue en EE.UU. Necesita de un tratamiento informático muy potente y un examen aeroespacial exhaustivo, con la utilización de datos por satélite.

El Dr. Chuvyrov se muestra muy circunspecto en cuanto a los autores del mapa: “No me agrada hablar de OVNIs o extraterrestres. Entonces llamamos al autor del mapa -sencillamente – el Creador“.

 
 
 

La piedra Dashka no es una piedra natural sino que consta de tres capas muy diferenciadas, dos de las cuales se aplicaron de forma artificial. La primera de ellas, la más firme, de 14 centímetros, estaba compuesta de dolomita, un mineral que toma su nombre en honor del mineralogista francés Deodat Dolomien. La segunda, y más interesante, estaba formada por cristal de diópsido, un silicato de calcio y magnesio aplicado con una técnica desconocida por la ciencia moderna, y era donde se encontraba encuadrado el mapa propiamente dicho, y por último  una finísima capa blanca de 2 milímetros de grosor de porcelana de calcio, a modo de protección  del mapa de la capa intermedia contra los impactos externos. Todo indicaba que para su realización se tendría que haber trabajado con maquinaria moderna, descartando completamente un origen natural y ni tan siquiera una manufactura artesanal.

La capa de porcelana sobre la superficie de la losa, junto con los signos escritos verticalmente, hicieron pensar a Chuvyrov que su procedencia podría estar relacionada con China, y por tanto con los trabajos de investigación que le habían llevado hasta ella. Es harto conocido que la escritura vertical fue utilizada en chino antiguo antes del siglo III. Para verificar estas suposiciones, el profesor Chuvyrov visitó la biblioteca pública imperial de China. Le autorizaron a utilizar la biblioteca durante 40 minutos consultando varios ejemplares raros y antiguos, pero ninguno de ellos contenía una escritura similar a la de la piedra.

Tras reunirse con sus colegas de la universidad de Hunan para contrastar información, acabó descartando totalmente la “pista china”. Ni la porcelana empleada en la capa más superficial, ni los signos que aparecían escritos, tenían relación alguna con los utilizados alguna vez en la antigua China. Las inscripciones estaban realizadas en un lenguaje silábico-jeroglífico de origen desconocido que los científicos no lograron descifrar (Chuvyrov afirma, sin embargo, haber descifrado un signo del mapa que significa la latitud de la actual ciudad de Ufa).piedra_daskha-3

La siguiente pregunta que se hicieron los científicos fue ¿cuál era el área geográfica que mostraba el mapa? Pronto se hizo evidente que lo que aparecía era la zona fronteriza cerca de la actual ciudad de Ufa. El mapa representaba una región muy concreta de los Urales. Allí aparecían los ríos Blya, Ufimka y Sutolka, accidentes geográficos como el barranco de Ufa extendiéndose como una fractura de la corteza terrestre desde la ciudad de Ufa hasta la ciudad de Sterlitimak. Según el mapa, el río Belaya poseía un lecho de río artificial. En la actualidad, el río Urshak discurre sobre el antiguo cañón. Estos y otros detalles orográficos establecían una escala de 1cm. : 1,1 Km.

¿Cómo nos las arreglamos para identificar el lugar?  Al principio no podíamos imaginarnos que el mapa fueran tan antiguo. Afortunadamente, el relieve de la Bashkiria actual no ha cambiado tanto en millones de años. Pudimos identificar la cima de Ufa , mientras que el barranco de Ufa es el punto principal de nuestras pruebas, porque llevamos a cabo estudios geológicos y encontramos su pista donde debía estar según el antiguo mapa. El desplazamiento del cañón ocurrió a causa de los bruscos empujones de las placas tectónicas que se movían desde el este .

piedra_dashka-4Pero lo más sorprendente a los ojos de los investigadores eran los trabajos de ingeniería civil: un gigantesco sistema de irrigación de unos 12.000 Km. de longitud, con dos sistemas de canales de 500 metros de ancho, 12 embalses de entre 300 y 500 metros de ancho por 10 Km. de largo y 3.000 metros de profundidad (calculada gracias a la tridimensionalidad del mapa) cada una de ellas. El conjunto iba acompañado de un sinfín de pequeños canales para distribuir el agua por amplias áreas que convertirían a todo este complejo en el más grande del mundo jamás realizado. Para los embalses que suministraban a las diferentes redes de abastecimiento se precisaría la extracción de por lo menos 1 cuatrillón (1) de metros cúbicos de tierra. En comparación con ese sistema de irrigación, el Canal Volga-Don parece un arañazo en el relieve actual. Como físico, Alexander Chuvyrov supone que en la actualidad la humanidad es capaz sólo de construir una pequeña parte de lo que aparece en el mapa.

No lejos de los canales, se muestran unos terrenos con forma de diamante, cuya finalidad se desconoce.

Sorprendió también la circunstancia de que, a pesar de lo minuciosamente detallado que aparecía el mapa, no se apreciasen carreteras o vías de comunicación terrestres, dando la impresión de que los antiguos pobladores de estas tierras se hubiesen desplazado únicamente por vías fluviales o aéreas.

UN MAPA DE HACE 120 MILLONES DE AÑOS

Fue difícil determinar siquiera una edad aproximada para la piedra. La edad mínima de la que partieron los investigadores se aproximaba a los 3.000 años pero según avanzaban los estudios la fecha iba creciendo paulatinamente. Al principio se llevaron a cabo análisis por carbono-14 (2), luego se escanearon las capas de la laja con el método de datación del uranio-238 (3), aunque las investigaciones mostraron resultados diferentes, y la edad de la piedra permanecía poco clara. Mientras examinaban la piedra, encontraron dos conchas que se habían incrustado en la superficie para señalar algunos puntos. La edad de una de ellas, la Navicopsina munitus de la familia de las Gyrodeidae, se remonta a 500 millones de años atrás, en tanto que la segunda, Ecculiomphalus princeps , de la subfamilia de los Ecculiomphalinae, tiene cerca de 120 millones de años. ¿Quién podía garantizar que las conchas todavía estaban vivas cuando fueron integradas en el mapa? Quizá estaban ya fosilizadas. Fue concretamente la edad de 120 millones de años la que se aceptó como “hipótesis de trabajo”.

” Probablemente el mapa fuera creado cuando el polo magnético de la Tierra estaba situado en la actual zona denominada Tierra de Franz Josef, que era donde estaba hace exactamente 120 millones de años “, comentó el profesor Chuvyrov. ” El mapa que tenemos va más allá de la percepción tradicional de la humanidad, y necesitaremos mucho tiempo para habituarnos a ello “. Piedra de Dashka-5

CUAL PODRIA SER LA FINALIDAD DEL MAPA

Quizás esto sea lo más interesante. Los materiales de la “Piedra de Dashka“, fueron investigados en el Centro de Estudios Cartográficos Históricos de Wisconsin, EE.UU. Los estadounidenses estaban sorprendidos. Según ellos, un mapa tridimensional de este tipo sólo podía tener un objetivo de navegación. La detección del detalle de superficie con la precisión actual se realiza mediante medición aérea. La infinidad de datos introducidos para compilar un mapa tridimensional necesita de un amplio estudio apoyado por potentes ordenadores capaces de decodificar toda la información volcada  durante su proceso

La NASA está precisamente utilizando múltiples emisiones del trasbordador espacial Shuttle para la creación de un Atlas Mundial tridimensional que debía estar listo para el 2010. Para trasladar las mediciones de altimetría se necesita el poder de las supercomputadoras y equipos de última generación. Decir que un primitivo hombre de las cavernas podría lograr lo mismo manualmente resulta absolutamente ridículo, por lo menos según los expertos estadounidenses.

En su informe concluyeron que  necesitarían varios años para poder finalizar un estudio completo y comenzar a poder contestar la mayor parte de las preguntas que planteaba la “Piedra de Dashka”.

“¡Intenten hacer un mapa aunque sea de una montaña!”, comentó Chuvyrov . “La tecnología para recopilar tales mapas requiere computadoras súper potentes y reconocimiento aerospacial a través del Shuttle” .

Los últimos estudios en los que siguen empeñados el profesor Chuvyrov y el resto de sus colaboradores, parecen indicar que la losa encontrada, es tan sólo una pequeña parte de un gran complejo cartográfico de la antigüedad, una pieza de un mosaico. Y ahora dan como cierta toda la información de los manuscritos que Chuvyrov encontró en el  Archivo General de la ciudad de Ufa, relativos a la existencia de al menos 200 losas con signos y escritura indescifrables en el área de Nurimanov.

Hay algo profundamente misterioso: a pesar de los claros signos de asentamiento de una alta civilización (pensemos en el sistema de irrigación), el mapa en relieve no presenta carreteras ubicadas en rutas terrestres. Quien creó el mapa no se movió sobre tierra, sino sólo en el agua y en el aire. Se ha conjeturado también que los desconocidos cartógrafos no llegaron a vivir allí, sino que eran un grupo de exploradores investigando y mapeando el terreno. ¿Un grupo de exploradores hace 120 millones de años? ¿Quiénes debían ser? ¿De dónde procedían?

 

 

(1) Se expresa como una unidad seguida de 24 ceros

(2) El Carbono 14 (C14), tiene un período de semidesintegración más corto, con tan solo 5.750 años

(3) El uranio 238 (U238) se transforma en plomo (PB206) mediante una cadena radioactiva cuya duración es de
     4.510 millones de años

 

Misterioso….misterioso…

Publicado octubre 30, 2012 por astroblogspain en Uncategorized

Supernovas..   Leave a comment

Supernova 1987A, situada en la Gran Nebulosa de Magallanes, a unos 180.000 años luz de la Tierra …

Lo Más bello…

Una supernova (del latín nova, «nueva») es una explosión estelar que puede manifestarse de forma muy notable, incluso a simple vista, en lugares de la esfera celeste donde antes no se había detectado nada en particular. Por esta razón, a eventos de esta naturaleza se los llamó inicialmente stellae novae («estrellas nuevas») o simplemente novae. Con el tiempo se hizo la distinción entre fenómenos aparentemente similares pero de luminosidad intrínseca muy diferente; los menos luminosos continuaron llamándose novae (novas), en tanto que a los más luminosos se les agregó el prefijo «super-».

Las supernovas producen destellos de luz intensísimos que pueden durar desde varias semanas a varios meses. Se caracterizan por un rápido aumento de la intensidad luminosa hasta alcanzar una magnitud absoluta mayor que el resto de la galaxia. Posteriormente su brillo decrece de forma más o menos suave hasta desaparecer completamente.

Se han propuesto varios escenarios para su origen. Pueden ser estrellas masivas que ya no pueden desarrollar reacciones termonucleares en su núcleo, y que son incapaces de sostenerse por la presión de degeneración de los electrones, lo que las lleva a contraerse repentinamente (colapsar) y generar, en el proceso, una fuerte emisión de energía. Otro proceso más violento aún, capaz de generar destellos incluso mucho más intensos, puede suceder cuando una enana blanca miembro de un sistema binario cerrado, recibe suficiente masa de su compañera como para superar el límite de Chandrasekhar y proceder a la fusión instantánea de todo su núcleo: esto dispara una explosión termonuclear que expulsa casi todo, si no todo, el material que la formaba.

La explosión de supernova provoca la expulsión de las capas externas de la estrella por medio de poderosas ondas de choque, enriqueciendo el espacio que la rodea con elementos pesados. Los restos eventualmente componen nubes de polvo y gas. Cuando el frente de onda de la explosión alcanza otras nubes de gas y polvo cercanas, las comprime y puede desencadenar la formación de nuevas nebulosas solares que originan, después de cierto tiempo, nuevos sistemas estelares (quizá con planetas, al estar las nebulosas enriquecidas con los elementos procedentes de la explosión).

Estos residuos estelares en expansión se denominan remanentes y pueden tener o no un objeto compacto en su interior. Dicho remanente terminará por diluirse en el medio interestelar al cabo de millones de años. Un ejemplo es RCW 86.

Las supernovas pueden liberar varias veces 1044 J de energía. Esto ha resultado en la adopción del foe (1044 J) como unidad estándar de energía en el estudio de supernovas

 

Clasificación

Imagen del telescopio espacial Hubble mostrando la supernova 1994D abajo a la izquierda y la galaxia NGC 4526

La clasificación de las supernovas tiene razones históricas, y nació de los primeros intentos, por parte de los astrónomos, de comprenderlas; es así como se empezó agrupándolas de acuerdo a las líneas de absorción de diferentes elementos químicos que aparecen en sus espectros.

La primera clave para la división es la presencia o ausencia de hidrógeno. Si el espectro de una supernova no contiene una línea de hidrógeno es clasificada como tipo I; de lo contrario, se la clasifica como tipo II.

Dentro de estos dos grupos principales hay también subdivisiones de acuerdo a la presencia de otras líneas.

 Índice

Tipo I
Sin líneas de Balmer del hidrógeno
Tipo Ia
Línea Si II a 615.0 nm
Tipo Ib
Línea He I a 587.6 nm
Tipo Ic
Sin líneas del helio
Tipo II
Con líneas de Balmer del hidrógeno
Tipo II-P
Meseta
Tipo II-L
Decrecimiento lineal

 Tipo Ia

Las supernovas de tipo Ia son, por mucho, las más potentes de todas, pudiendo emitir un brillo varias veces superior al de la galaxia que las acoge. (Recreación artística).

Las supernovas de tipo Ia carecen de helio y presentan, en cambio, una línea de silicio en el espectro. La teoría más aceptada con respecto a este tipo de supernovas sugiere que son el resultado de la acreción de masa por parte de una enana blanca de carbonooxígeno desde una estrella compañera, generalmente una gigante roja. Esto puede suceder en sistemas estelares binarios muy cercanos. Ambas estrellas tienen la misma edad y los modelos indican que casi siempre tendrán una masa semejante. Pero normalmente siempre hay una más masiva que la otra y unas ligeras diferencias en este aspecto hacen que la más masiva evolucione (abandone la secuencia principal) antes que la estrella de menor masa. Una estrella con menos de 8-9 masas solares evoluciona, al final de su vida, en una enana blanca. Por esto es corriente que, en sus etapas finales, un sistema binario esté constituido por una enana blanca y una gigante roja con sus capas exteriores muy expandidas (ver:Evolución estelar:gigantes rojas).

Esta envoltura, básicamente de hidrógeno y helio, está poco cohesionada gravitatoriamente, por lo que es capturada fácilmente por la enana blanca. Alrededor de cada estrella hay un perímetro de influencia, delimitado por una superficie equipotencial llamada lóbulo de Roche, en el que predomina su fuerza de gravedad. Si parte de la envoltura de la gigante roja, que siempre está tendiendo a aumentar de volumen, invade el lóbulo de la enana blanca, será atraída por ésta.

El material tiene que depositarse con la suficiente rapidez para que no se encienda la capa superficial de hidrógeno (si esto ocurre, el fenómeno se conoce como nova). Si el ritmo de acreción es el adecuado, la masa de la enana blanca pronto alcanza el límite de Chandrasekhar, momento en el cual los electrones degenerados ya no son capaces de sostener el objeto. El aumento de presión resulta en el colapso de la estrella, cuyas temperaturas se disparan hasta llegar a iniciar la fusión del carbono en su núcleo. Esta ignición alcanza toda la estrella, empezando en su centro y extendiéndose rápidamente hasta las capas más externas. Dado que tienen muy poco hidrógeno en su superficie, éste se ioniza rápidamente, volviéndose transparente e indetectable cuando se leen los espectros de estos destellos luminosos. La manera en que propaga la energía de la explosión en el interior de la enana es aún objeto de debate entre los científicos. Si bien se supone que la fuente principal de energía está en el centro, se desconoce si existen otros puntos simultáneos de ignición que generen ondas de choque convergentes que potencien el rendimiento de la explosión. Las turbulencias generadas por la inestabilidad de Rayleigh-Taylor parecen ser causa de una rápida propagación del frente de ignición en todo el volumen de la estrella. Se desconoce cómo dicha ignición hace su transición de deflagración subsónica a detonación supersónica.

Durante la detonación se quema, en cuestión de segundos, una cantidad de carbono que a una estrella normal le llevaría siglos. Esta enorme energía libera una poderosa onda de choque que destruye la estrella, expulsando toda su masa a velocidades de alrededor de los 10.000 km/s. La energía liberada en la explosión también causa un aumento extremo en la luminosidad, por lo que estas supernovas llegan a ser las más luminosas de todas, emitiendo alrededor de 1044 J (1 foe). Normalmente no quedan rastros de la estrella que originó el cataclismo, sino sólo restos de gas y polvo sobrecalentados en rápida expansión. La desaparición, por consiguiente, del campo gravitatorio de la enana blanca, produce un cambio en la trayectoria de la estrella vecina, si ésta pudo sobrevivir a la detonación. Al no verse sometida a la fuerza de atracción de la estrella destruida, la otra saldrá disparada en la dirección que seguía en el momento del estallido, como si de una «honda» se tratase. Estas estrellas fugitivas se pueden en principio detectar ya que deberían tener velocidades mucho mayores que las de su entorno.

Vale la pena recalcar nuevamente que el mecanismo que produce las supernovas de tipo Ia es, en cierto modo, similar al de las novas, pero en éstas la enana blanca acreta materia más lentamente, encendiéndose su superficie antes de que la masa total alcance el límite de Chandrasekhar. Este fenómeno en general no causa el colapso de la enana blanca, por lo que puede reiterarse, lo que no es el caso de las supernovas.

La supernovas de tipo Ia son fenómenos muy raros ya que requieren unos requisitos muy estrictos para su formación. En primer lugar, sólo se producirían en sistemas binarios compuestos por estrellas de masa intermedia y baja. Estos sistemas en principio son bastante corrientes, pero aún hay más restricciones. La suma de las masas de ambas estrellas ha de ser mayor que la masa de Chandrasekhar (1,44 MSol). Han de estar lo suficientemente cerca como para que sus lóbulos de Roche puedan ser invadidos por la envoltura de la gigante roja en expansión. De ser posible, la envoltura de la gigante debería engullir a la enana blanca, lo cual garantizaría una absorción rápida del material y su frenado debido a la fricción con el gas estelar. Esto cerraría aún más la binaria, lo cual aumentaría el ritmo de la acreción. Si la absorción fuese demasiado lenta y pausada, ocurriría el mencionado fenómeno de nova periódica.

También puede existir una supernova tipo Ia generada por la fusión de dos enanas blancas del mismo sistema binario. Puede ocurrir que ninguna de las dos logre por sí sola acretar la suficiente masa como para generar una supernova, pero juntas, en cambio, pueden superar la masa de Chandrasekhar. Dos enanas blancas en rotación emiten ondas gravitatorias y, con el tiempo, sus órbitas se acercan y aceleran, lo cual a su vez acelera la emisión de ondas y retroalimenta el proceso. Puede llegar un momento en el que una de las dos enanas (la menos masiva), se disgregue y forme un toro (forma de «dónut») alrededor de la otra estrella. Después, el material del disco empieza a caer sobre la superficie. El ritmo no debe ser ni muy lento ni muy rápido tampoco, ya que en cualquiera de los casos se produciría la quema prematura del carbono en la superficie.

Curva de luz de una supernova de tipo Ia. Su máximo de emisión es el mayor entre todos los tipos de supernova. Se aprecia perfectamente la fase de emisión del níquel diferenciada de la del cobalto. Cuanto más rápido decrece la luz menor es el máximo. Este hecho permite la utilización de estos objetos como candelas estándar de precisión.

Las supernovas de tipo Ia poseen una curva de luz característica. Cerca del momento de luminosidad máxima, el espectro contiene líneas de elementos de masa intermedia que van desde el oxígeno hasta el calcio (presentes en las capas externas de la estrella). Meses después de la explosión, estos elementos se han hecho totalmente transparentes y la luz que domina es la que proviene de los elementos más pesados procedentes del núcleo. En el máximo de emisión se concentra la luz emitida por el níquel-56. Éste va decayendo por radiactividad a cobalto-56, también radiactivo. En un momento dado, la emisión de luz es dominada por el cobalto, cuyos fotones de alta energía suavizan la curva de decrecimiento del brillo. La luminosidad termina con la conversión de todo el cobalto a hierro-56, el cual emitirá las líneas más tardías producto de su estado ionizado.

A diferencia de otros tipos de supernovas, las supernovas de tipo Ia se encuentran en todo tipo de galaxias, incluyendo las elípticas. Asimismo, tampoco muestran ninguna preferencia por regiones de formación estelar. Esto es así porque los sucesos que desembocan en una supernova Ia pueden durar mucho tiempo en términos estelares, sobre todo la aproximación de los dos cuerpos. Además no se originan a partir de estrellas muy masivas, por lo que no tienen por qué ubicarse en zonas de formación estelar reciente (donde se encuentran las gigantes azules), de modo que pueden acontecer en las regiones más viejas de las galaxias. Esta particularidad permite encontrarlas mirando cualquier parte del cielo, con una distribución homogénea con probabilidad constante allí donde haya galaxias.

Dada la similitud en las formas y en la magnitud de las curvas de luz de todas las supernovas de tipo Ia observadas hasta la fecha, es que son utilizadas como medida estándar de luminosidad en astronomía extragaláctica, lo que en términos astrofísicos se llama una candela estándar; en este caso, se pueden calibrar con una décima de magnitud. Las ventajas con respecto a las demás candelas estándar, como las cefeidas clásicas, es que su alta luminosidad permite detectarlas en galaxias muy lejanas, ayudando a inferir distancias de objetos que, de otra manera, sería imposible calcular. La razón de la similitud de las curvas de luminosidad es aún cuestión de debate, pero parece estar relacionada, en parte, con el hecho de que las condiciones iniciales en que se generan estos fenómenos sean casi idénticas. Estas propiedades tan favorables han revolucionado la cosmología, permitiendo develar la expansión acelerada del universo gracias a su utilización estadística.

En la Vía Láctea, el candidato más conocido para este tipo de supernova es IK Pegasi (HR 8210), localizado a una distancia de tan sólo 150 años luz. Este sistema binario está formado por una estrella de secuencia principal y una enana blanca, separadas únicamente por 31 millones de km. La enana tiene una masa estimada en 1,15 veces la masa solar.

Se piensa que pasaran varios billones de años antes de que la enana blanca llegue a la masa crítica necesaria para convertirse en una supernova de tipo Ia.

 Tipos Ib y Ic

Los espectros de las supernovas de tipos Ib y Ic no muestran la línea del silicio presente en los espectros de las Ia; se cree que se trata de estrellas al final de su vida (como las tipo II), pero que perdieron todo su hidrógeno en etapas anteriores, por lo que las líneas de este elemento no aparecen en sus espectros. En particular, se piensa que las supernovas de tipo Ib resultan del colapso de una estrella de Wolf-Rayet que ha expulsado toda su envoltura de hidrógeno por medio de los intensos vientos propios de estas estrellas. Se conocen también varias de estas supernovas en sistemas binarios: en este caso, la estrella compañera puede ayudar a desligar gravitatoriamente el gas de la envoltura de la otra estrella, la que no necesita ser tan masiva como una Wolf-Rayet aislada. En casos extremos, cuando no sólo escapa el hidrógeno sino también el helio, puede quedar expuesto el núcleo de carbono, y éste sería el escenario de una supernova Ic. El proceso de la explosión de estas supernovas es esencialmente el mismo que el de las supernovas de colapso gravitatorio típicas, las tipo II.

 Tipo II

Las supernovas de tipo II son el resultado de la imposibilidad de producir energía una vez que la estrella ha alcanzado el equilibrio estadístico nuclear con un núcleo denso de hierro y níquel. Estos elementos ya no pueden fusionarse para dar más energía, sino que requieren energía para fusionarse en elementos más pesados. La barrera de potencial de sus núcleos es demasiado fuerte para que la fusión sea rentable por lo que ese núcleo estelar inerte deja de sostenerse a sí mismo y a las capas que están por encima de él. La desestabilización definitiva de la estrella ocurre cuando la masa del núcleo de hierro alcanza el límite de Chandrasekhar, lo que normalmente toma apenas unos días. Es en ese momento cuando su peso vence a la presión que aportan los electrones degenerados del núcleo y éste colapsa. El núcleo llega a calentarse hasta los 3.000 millones de grados, momento en el que la estrella emite fotones de tan alta energía que hasta son capaces de desintegrar los átomos de hierro en partículas alfa y neutrones en un proceso llamado fotodesintegración; estas partículas son, a su vez, destruidas por otros fotones, generándose así una avalancha de neutrones en el centro de la estrella.

Estas reacciones son endotérmicas, por lo que no ayudan a sostener el núcleo compacto y éste sigue colapsando, emitiendo más y más neutrones cada vez. De hecho provocan un enfriamiento del núcleo, lo que se traduce en una menor presión y, por tanto, en una aceleración del proceso. Los propios átomos de hierro captan parte del inmenso flujo de neutrones, transformándose en elementos más pesados por medio del fenómeno llamado captura de neutrones, o proceso-r.

El núcleo se contrae tan rápido que deja un espacio de baja densidad casi vacío entre él y el resto de la estrella. La envoltura, por su parte, empieza a caer sobre el núcleo frenándose por un aluvión de fotones de frecuencia extrema, que fotodesintegran las capas más interiores de dicha envoltura. Esta destrucción de núcleos no sólo transmite momento sino que también produce un flujo de neutrones y protones que serán capturados por las capas siguientes para formar elementos más pesados. Simultáneamente, las densidades enormes que se alcanzan en la «sopa» de núcleos pesados y electrones en que se ha convertido el núcleo supercompactado, posibilitan una nueva reacción. Los electrones del núcleo estelar empiezan a caer sobre los núcleos atómicos reaccionando con los protones para formar neutrones en un proceso llamado captura de electrones por lo que, poco a poco, el núcleo se va convirtiendo en una masa de neutrones hiperdensa llamada neutronium. Los procesos de fotodesintegración y de captura de electrones aceleran aún más el hundimiento de la estrella, ya que, además, ahora también la presión de degeneración pierde fuerza rápidamente.

Pero la captura de electrones no sólo resulta en la producción de neutrones sino también en la de neutrinos. La captura se produce a tal ritmo que se genera un flujo explosivo de neutrinos que es arrastrado por el colapso, hasta que su abundancia creciente los hace degenerar y, bloquear así, la captura de nuevos electrones. Por breves instantes los electrones ni siquiera pueden seguir combinándose con los protones ya que no hay lugar en el espacio de fases donde colocar a los neutrinos que resultarían, dado que éstos están ya degenerados. Pero esto no tarda en resolverse ya que, a consecuencia de este taponamiento, se produce un escape de los neutrinos del núcleo llevándose gran cantidad de energía, lo que reactiva las capturas y realimenta a los frentes de onda de neutrinos que se expanden con gran rapidez. La emisión de neutrinos durará unos 10 segundos.

Las capas externas de material que caen hacia el núcleo se encuentran de camino con el frente de choque de la avalancha de neutrinos, también llamado neutrinosfera. A través de un proceso que no ha sido develado por completo aún, parte de la energía liberada en la explosión de neutrinos es transferida a las capas externas de la estrella. Se cree que, como se puede ver en la fórmula siguiente, los neutrinos son capaces de generar fotones mediante un proceso inverso al de generación de fotoneutrinos (ver:Neutrinos térmicos).

Cuando la onda de choque alcanza la superficie de la estrella varias horas más tarde, ocurre un incremento enorme de su luminosidad. Si la masa del núcleo colapsante es lo suficientemente pequeña, entre 1,5 y 2,5 masas solares, los propios neutrones podrán frenar el colapso; si no, seguirá contrayéndose hasta concentrarse toda la materia en una singularidad, formando así un agujero negro. Esta frontera entre estrella de neutrones y agujero negro no está bien definida debido a la falta de entendimiento de los procesos del colapso de una supernova.

En el caso de las supernovas que generan estrellas de neutrones, las capas externas apenas si llegan a chocar con la superficie del núcleo compacto. Es posible que ni la alcancen y antes hayan sido barridas por el flujo de neutrinos. En las que acaban en agujeros negros, inicialmente sí se forma una estrella de neutrones pero la cubierta posee tanta masa y empuje que gran parte de ésta cae sobre la estrella de neutrones haciendo que supere la masa máxima de unas 2,5 masas solares, aunque este límite tampoco se conoce con exactitud.

Curvas de luz de las SNII-P y SNII-L. Las primeras tienen una fase de «meseta» durante la cual el gas ionizado se enfría al expandirse, recombinándose hasta volverse transparente. Este proceso compensa el decrecimiento de luz y mantiene la luminosidad hasta que se hace neutro, momento en el cual vuelve a decrecer. En el segundo caso, apenas hay capas externas, las que probablemente se perdieron por interacción con alguna estrella vecina. Se observa también que tiene un pico notablemente menos acentuado que las SNIa.

La energía desarrollada por una supernova de tipo II típica es de unos 1046 J (unos 100 foes) emitidos en los 10 segundos de flujo explosivo de neutrinos. De toda esta energía, tan sólo un foe es absorbido por el material, reemitiéndose en forma de energía cinética del material en expansión. Entre 0,01 y 1 foes se emiten en forma de energía luminosa. Ésta última es la energía detectable ópticamente. Las supernovas con mejor rendimiento son las que dejan estrellas de neutrones como remanentes ya que, en este caso, el porcentaje de masa expulsado es máximo. En el caso de las que dejan un agujero negro, la expansión será menos eficiente porque gran parte de la energía de la explosión quedará atrapada en él. En cualquier caso, las supernovas de colapso difícilmente se acercarán al foe completo que liberan las supernovas tipo Ia.

La cuestión de cómo las supernovas logran emitir toda esa energía aún no se entiende bien. De hecho, los modelos realizados por ordenador no dan explosión alguna o, si la dan, ésta es muy marginal. Se ha especulado sobre toda una serie de factores que podrían influir en la potencia de la explosión, o que incluso podrían ser cruciales para que ésta se produjera. En primer lugar puede estar la fuerza centrífuga, que es máxima en el plano ecuatorial y que, sin duda, tiene una contribución positiva ayudando a que el material escape. Con la compresión de la estrella dicha fuerza debería acentuarse al conservarse el momento angular de la estrella. Por otra parte están los campos magnéticos que también deberían contribuir con su presión magnética. Estos dos aspectos se omiten en los modelos porque ni tienen simetría esférica ni se pueden fijar debidamente al desconocerse sus magnitudes, que por otra parte deben ser diferentes para cada estrella.

Las supernovas de tipo II pueden dividirse en los subtipos II-P y II-L. Los tipos II-P alcanzan una meseta en su curva de luz mientras que los tipos II-L poseen un decrecimiento lineal en su curva. La causa de esto se cree que es por diferencias en la envoltura de las estrellas. Las supernovas de tipo II-P poseen una gran envoltura de hidrógeno que atrapa la energía liberada en forma de rayos gamma y la liberan en frecuencias más bajas, mientras que las de tipo II-L, se cree, poseen envolturas mucho menores, convirtiendo menor cantidad de energía de rayos gamma en luz visible.

Las masas de las estrellas que dan lugar a supernovas están entre alrededor de las 10 masas solares hasta las 40 o 50. Más allá de este límite superior (que tampoco se conoce con exactitud), los momentos finales de la estrella son implosiones completas en las que nada escapa al agujero negro que se forma, rápida y directamente, engulliéndolo todo antes de que un solo rayo de luz pueda salir. Estas estrellas literalmente se desvanecen al morir.

Se ha especulado que algunas estrellas excepcionalmente masivas podrían producir hipernovas al extinguirse. El escenario propuesto para semejante fenómeno dice que, tras la transformación repentina del núcleo en agujero negro, de sus polos brotarán dos jets de plasma relativista. Estas intensas emisiones se producirían en la banda de frecuencias de los rayos gamma y podrían ser una explicación plausible para las enigmáticas explosiones de rayos gamma.

SupernovaII.png

La primera fase de la supernova es un colapso rápido del núcleo incapaz de sostenerse. Esto conlleva una fuerte emisión de fotones y neutrones que son absorbidos por las capas interiores frenando así su colapso. Simultáneamente un frente de choque de neutrinos se genera durante la neutronización del núcleo compacto. Finalmente, la neutrinosfera choca contra la cubierta y transmite su momento expulsando las capas y produciendo la explosión de supernova

Nombres de supernovas

Los descubrimientos de supernovas son notificados a la UAI (Unión Astronómica Internacional), la cual distribuye una circular con el nombre recientemente asignado. El nombre se forma por el año del descubrimiento y la designación de una o dos letras. Las primeras 26 supernovas del año llevan letras de la A a la Z (vg. Supernova 1987A); las siguientes llevan aa, ab, etc.

Supernovas destacadas

Imagen en Rayos X de la supernova SN 1006, tomada por ASCA, un satélite de la NASA para el estudio de los rayos cósmicos.

A continuación se muestra una lista de las más importantes supernovas vistas desde la Tierra en tiempos históricos. Las fechas que se dan señalan el momento en que fueron observadas. En realidad, las explosiones ocurrieron mucho antes, pues su luz ha tardado cientos o miles de años en llegar hasta la Tierra.

  • 185SN 185 – referencias en China y posiblemente en Roma. Análisis de datos tomados en rayos X por el observatorio Chandra sugieren que los restos de la supernova RCW 86 corresponden con este evento histórico.
  • 1006SN 1006 – Supernova muy brillante; referencias encontradas en Egipto, Iraq, Italia, Suiza, China, Japón y , posiblemente, Francia y Siria.
  • 1054SN 1054 – Fue la que originó la actual Nebulosa del Cangrejo, se tiene referencia de ella por los astrónomos Chinos y, seguramente, por los nativos americanos.
  • 1181SN 1181 – Dan noticia de ella los astrónomos chinos y japoneses. La supernova estalla en Casiopea y deja como remanente a la estrella de neutrones 3C 58 la cual es candidata a ser estrella extraña.
  • 1572SN 1572 – Supernova en Casiopea, observada por Tycho Brahe y Jerónimo Muñoz, descrita en el libro del primero De Nova Stella donde se usa por primera vez el término “nova”.
  • 1604SN 1604 – Supernova en Ophiuchus, observada por Johannes Kepler; es la última supernova vista en la Vía Láctea.
  • 1885S Andromedae en la Galaxia de Andrómeda, descubierta por Ernst Hartwig.
  • 1987Supernova 1987A en la Gran Nube de Magallanes, observada unas horas después de su explosión, fue la primera oportunidad de poner a prueba a través de las observaciones directas las teorías modernas sobre la formación de las supernovas.
  • Cassiopeia A – Supernova en Casiopea, no observada en la Tierra, pero se estima que explotó hace unos 300 años. Es el remanente más luminoso en la banda de radio.
  • 20052005ap – Esta supernova de tipo II es por el momento la más brillante jamas observada. Llegó a ser hasta ocho veces más brillante que la vía láctea. Esto la hace superar en casi dos veces a SN 2006gy.
  • 2006SN 2006gy en el núcleo de la galaxia NGC 1260, es la segunda más grande que se ha podido observar hasta la fecha, cinco veces más luminosa que las supernovas observadas anteriormente, su resplandor fue de 50.000 millones de veces la del Sol. Se originó por la explosión de una estrella de 150 masas solares.

Galileo usó la supernova 1604 como una prueba contra el dogma aristotélico imperante en esa época, de que el cielo era inmutable.

Las supernovas dejan un remanente estelar tras de sí; el estudio de estos objetos ayuda mucho a ampliar los conocimientos sobre los mecanismos que las producen.

 El papel de las supernovas en la evolución estelar

Las supernovas contribuyen a enriquecer el medio interestelar con metales (para los astrónomos, «metal» es todo elemento más pesado que el helio). Así, tras cada generación de estrellas (y, consecuentemente, de supernovas), la proporción de elementos pesados del medio interestelar aumenta. Mayores abundancias en metales tienen importantes efectos sobre la evolución estelar. Además, sólo los sistemas estelares con metalicidad lo suficientemente alta pueden llegar a desarrollar planetas. Una mayor metalicidad conlleva pues una mayor probabilidad de formación de planetas, pero también contribuye a formar estrellas de menor masa. Esto es debido a que el gas acretado por la protoestrella es más sensible a los efectos del viento estelar cuanto más elementos pesados posea, pues éstos absorben mejor los fotones.

Alex Filippenko y sus colaboradores postulan que las mayores supernovas (como la SN 2005ap y la SN 2006gy) habrían sido producidas por estrellas muy masivas (de 100 o más masas solares, en los casos citados 150 masas solares), y que estrellas de esas características habrían constituido la primera generación de estrellas en el universo; al estallar como gigantescas supernovas habrían difundido en el universo los elementos químicos a partir de los cuales se generaron las nuevas estrellas (y astros en general). Tales elementos químicos serían en definitiva los que constituyen a cada ente material conocido, incluidos los animales.

 

 

Bonitas nebulosas remanentes de Supernovas..

Eta Carina: ¿Podremos ver cómo se convierte en Supernova?

Al igual que hay seres humanos que viven poco pero intensamente y nos dejan algunos frutos espectaculares de su breve pero relevante paso por este universo, también hay estrellas de corta pero maravillosa existencia. Aunque todavía está viva, se cree que este es el caso de la estrella Eta Carina, una estrella doble en la constelación de La Quilla (Carinae), visible desde el hemisferio Sur, cuya alfa, o estrella más brillante, se llama Canopo. Esta estrella es la más brillante del cielo después de Sirio.

El aspecto actual de Eta Carina es ya realmente impresionante (ver imagen adjunta, cortesía del Hubble Space Telescope, NASA), pero aún podría ser mucho más espectacular.  Los astrónomos sospechan que esta estrella está dando desde hace tiempo claras muestras de estar a punto de convertirse en una Supernova, cuya explosión sería un grandioso espectáculo ya que está a tan sólo 7000 años luz de nosotros.

Las observaciones recientes realizadas (agosto 2009) con el Space Telescope Imaging Spectrograph (STIS) a bordo del Hubble, indican que Eta Carina ha aumentado su brillo en los últimos 6 meses.

En 1843, Eta Carina tuvo un aumento repentino de brillo y se hizo tan brillante como su compañera de constelación, Canopo, para disminuir después muy lentamente. Desde ese momento, los investigadores no saben si los aumentos de brillo, como el actual, se deben a algún tipo de explosión interna o a un evento superficial relacionado con el viento estelar, en ambos casos una especie de prolegómeno a la esperada gran explosión.

Se sabe que Eta Carina es una estrella doble y que entre sus dos componentes acumulan entre 90 y 100 veces la masa del Sol. Su brillo es del orden de 5 millones de veces el del Sol. También se sabe que cada 5 años y medio, las dos estrellas se acercan a una distancia de entre 1 y 2 Unidades Astronómicas (1 Unidad Astronómica o UA es la distancia media Tierra-Sol, aprox. 150 Mkm). En este acercamiento se ha detectado emisión de rayos X lo cual indica que los vientos estelares de las dos estrellas, cuya densidad es enormemente superior a la del viento estelar generado por el Sol, chocan entre sí con extraordinaria energía. En las observaciones realizadas recientemente, se ha observado un incremento de esta emisión de rayos X lo cual podría indicar síntomas de inestabilidad en alguna de las dos estrellas, producida por un incremento de pérdida de masa a través del viento estelar.

Todos estos síntomas parecen indicar que Eta Carina está muy cerca de su final, aunque no se tenga una indicación de cuándo podría ocurrir, tal vez mañana o a la vuelta de unos cuantos cientos o miles de años. Al igual que otras estrellas parecidas, como la Supernova SN 2006jc, antes de convertirse en Supernovas tuvieron episodios similares de incremento del brillo. Tal vez tengamos suerte y podamos asistir en los próximos años al nacimiento de una fantástica Supernova, la cual sería visible a plena luz del día. Mientras tanto, los astrónomos realizan mediciones sistemáticas de su brillo, como por ejemplo la que se realiza en el Observatorio de La Plata, en Argentina. En la gráfica adjunta producida por estos astrónomos (Fernández-Lajús et al, 2009) se puede observar como desde 1960, el brillo de Eta Carina ha aumentado de forma progresiva (haz clic sobre ella para verla ampliada). También se observa cómo las medidas de brillo se remontan al evento de 1843, cuando Eta Carina llamó la atención de los astrónomos por primera vez.

Hipernova?

Una hipernova es un tipo teórico de supernova que se produciría cuando estrellas muy masivas (masas superiores a las 100 masas solares) se colapsan al final de sus vidas. Después de explotar como supernova, el núcleo de la hipernova se colapsaría directamente en un agujero negro, emitiendo dos chorros de plasma extremadamente energéticos desde sus polos a velocidades cercanas a la de la luz. Estos chorros podrían generar potentes rayos gamma y serían una posible explicación de las erupciones de rayos gamma. Estrellas tan masivas son muy raras, y por lo tanto también serían raras las hipernovas: se estima que un evento de esta naturaleza puede ocurrir en nuestra Galaxia cada 200 millones de años. La estrella Eta Carinae, en nuestra Galaxia, puede ser una candidata a hipernova. Otra buena candidata a estallar en hipernova puede ser R136a1, descubierta en julio de 2010 y con una asombrosa masa de 265 soles; también la Estrella Pistola o LBV 1806-20 pueden ser candidatas a producir hipernovas de aquí a decenas o centenas de miles de años.

File:Pistol star and nebula.jpg

La Estrella Pistola (en inglés Pistol Star) es una de las estrellas hipergigantes más luminosas de la Vía Láctea. Su nombre proviene de la forma de la nebulosa que ilumina, la Nebulosa Pistola.

La Estrella Pistola se encuentra a 25.000 años luz del Sistema Solar en dirección a la constelación de Sagitario, al oeste de Nash (γ Sagittarii) y Kaus Medius (δ Sagittarii) , al noroeste de Kaus Australis (ε Sagittarii), y al sureste de Kaus Borealis (λ Sagittarii) y Nunki (σ Sagittarii). Forma parte del Cúmulo Quíntuple cercano al centro de la galaxia. La estrella es invisible desde la Tierra, ya que se halla oculta detrás de grandes nubes de polvo; si no fuese así, sería visible a simple vista como una estrella de cuarta magnitud pese a la gran distancia que nos separa de ella. Fue descubierta por el Telescopio Espacial Hubble en la década de 1990 utilizando longitudes de onda en el infrarrojo que penetran el polvo interestelar

Con una masa en torno a 150 masas solares, la Estrella Pistola está catalogada como una variable azul luminosa, al igual que Eta Carinae. Brilla con una luminosidad equivalente a 10 millones de soles, siendo una de las estrellas más luminosas del Grupo Local, del que forma parte nuestra galaxia. El hecho de que esté cerca del centro galáctico parece no ser casual, ya que allí se favorece la creación de objetos supermasivos.

A lo largo de su existencia ha ido perdiendo masa estelar, estimándose su masa inicial en torno a las 200 – 250 masas solares. Se piensa que la estrella ha expulsado 10 veces la masa del Sol en forma de material arrojado durante dos gigantescos estallidos hace 4000 y 6000 años. Su viento estelar es 10.000 millones de veces mayor que el solar. Su tiempo de vida es muy corto, aproximadamente unos 3 millones de años, y aunque no se sabe su edad con certeza, ésta puede cifrarse entre 1,7 y 2,1 millones de años. Probablemente explotará como una brillante supernova o hipernova dentro de 1 a 3 millones de años.

LBV 1806-20

LBV 1806-20 es una estrella hipergigante —o posiblemente una estrella binaria— que se encuentra a una distancia estimada entre 30.000 y 49.000 años luz del Sol.

LBV 1806-20 se encuentra en el otro extremo de la galaxia, en el centro de la radio nebulosa G10.0-0.3. Está en el extremo del cúmulo Cl* 1806-20, que forma parte de W31, una de las mayores regiones H II de la Vía Láctea. Este cúmulo contiene otras estrellas supermasivas, como dos estrellas de Wolf-Rayet ricas en carbono (WC9d y WCL), dos hipergigantes azules y un magnetar (SGR 1806-20).

El sistema tiene una masa entre 130 y 200 masas solares[3] y una luminosidad variable entre 5 y 40 millones de soles, comparable a la de Eta Carinae o Estrella Pistola, todas ellas estrellas variables azules luminosas. Actualmente su tipo espectral se halla entre O9 y B2.[4]

A pesar de su luminosidad, LBV 1806-20 es virtualmente invisible desde la Tierra porque nos llega menos de una milmillonésima parte de su luz, quedando el resto absorbida por gas y polvo interestelar. Tiene magnitud aparente 35 en el espectro visible y magnitud 8 en longitud de onda de 2 μm en el infrarrojo cercano

Las teorías actuales de formación estelar indican que una estrella debe tener como máximo unas 120 masas solares, inferior a la masa mínima estimada de 130 masas solares para LBV 1806-20. Recientes estudios de espectroscopia de alta resolución sugieren que LBV 1806-20 no es una única estrella sino un sistema binario masivo, siendo en este caso la masa de cada una de las estrellas considerablemente inferior al límite máximo para la formación estelar.

Verdaderos gigantes…….

File:Star-sizes.jpg

La siguiente es una lista de las estrellas más grandes conocidas hasta el momento; los tamaños están expresados en unidades del diámetro solar.

El orden exacto de esta lista no es definitivo ni completo. Además, hay que apuntar lo siguiente:

  • Las componentes de algunas estrellas dobles son tratadas individualmente, mientras que en otras ocasiones se da información combinada.
  • Hay variaciones estadísticas según el criterio de determinación del tamaño.
  • El diámetro del Sol es de aproximadamente 1 392 000 km (1,392 × 109 m).

Hay que tener en cuenta que no siempre las estrellas más grandes son muy masivas, ni viceversa. R136a1 es un ejemplo, dado que es la estrella más masiva (es una hipergigante), pero su radio es de 36,4 radios solares

Lista de estrellas más grandes

Nombre de la estrella Diámetro
(Sol = 1)
NML Cygni 1650
V838 Monocerotis 1170 – 1970
VV Cephei 1000 – 2200
Mu Cephei (la «Estrella Granate» de Herschel) 1450 – 1650
WOH G64 1540
V354 Cephei 1520
VY Canis Majoris 1300 – 1540
VX Sagittarii 1500
RW Cephei 1410 – 1500
KW Sagittarii 1460
KY Cygni 1420
BC Cygni 1140 – 1230
S Persei 780 – 1230 [1]
PZ Cassiopeiae 1190
RT Carinae 1090
CK Carinae 1060
HV 11423 1000
Betelgeuse (Alfa Orionis) 880 – 950
S Cassiopeiae 930 [2]
W Aquilae 870
BO Carinae 790 [3]
TV Geminorum 623 – 770
V382 Carinae 747
Antares (Alfa Scorpii) 700 [4]
RW Cygni 680
BU Geminorum 670
V509 Cassiopeiae 400 – 650
TZ Cassiopeiae 645 [5]
W Persei 620
BU Persei 620
V419 Cephei 590 [6]
S Pegasi 580 [7]
NO Aurigae 560 [8]
T Cephei 540 [9]
YZ Persei 540
R Leporis 480 – 535 [10]
119 Tauri 510 – 525 [11]
W Hydrae 520 [12]
R Cassiopeiae 500 [13]
S Orionis 400 – 500 [14]
Rho Cassiopeiae 450
Mira A (Ómicron Ceti) 332 – 402
Ras Algethi (Alfa Herculis) 400
S Doradus 380
R Doradus 370
R Leonis 320 – 350
HR Carinae 350 [15]
Estrella Pistola 340
Ji Cygni 300 – 316 [16]
V424 Lacertae 260
Y Canum Venaticorum (La Superba de Secchi) 215
Wezen (Delta Canis Majoris) 200
RS Puppis 198 [17]
l Carinae 184 [18]
Eta Carinae 80 – 180 [19]
Épsilon Aurigae A 175
Zeta Aurigae 160 [20]
LBV 1806-20 150
Enif (Épsilon Pegasi) 150
Épsilon Aurigae B 100 – 135
Deneb (Alfa Cygni) 108 – 114
Gacrux (Gamma Crucis) 113
Ni Aquilae 104
Alamak (Gamma Andromedae) 80
Arneb (Alfa Leporis) 75
Rígel (Beta Orionis) 70
Épsilon Carinae 70
R Coronae Borealis 65
Canopus (Alfa Carinae) 65
Mintaka (Delta Orionis) 60
Alnitak (Zeta Orionis) 60
Mirfak (Alfa Persei) 60
Mekbuda (Zeta Geminorum) 60
Eta Aquilae 60
Etamin (Gamma Draconis) 50
Beta Cygni A1 50
Aldebarán (Alfa Tauri) 43 [21]
Kochab (Beta Ursae Minoris) 41

Estrellas más luminosas:

Es importante tener en cuenta que las distancias a las estrellas mencionadas abajo en la mayoría de los casos no se conocen con exactitud, y además diferentes modelos dan diferentes luminosidades -por ejemplo, algunas estimaciones de brillo de Cyg OB2-12 la hacen casi seis veces menos brillante-. Para terminar de complicar la situación, algunas de las estrellas de abajo -cómo Eta Carinae– están rodeadas por nebulosidades ricas en polvo que absorbe su luz y hace más difícil su estudio y/o pueden ser estrellas dobles.

Nombre de la estrella Magnitud aparente Magnitud absoluta
bolométrica
Luminosidad en unidades solares
R136a1 (en LMC)   −12.5 8,700,000
Cyg OB2-12   −12.2 6,000,000
HD 93129A 6.97 −12.1 5,500,000
Eta Carinae 3.9 a 10.5 −12.1 5,500,000
LBV 1806-20 (modelo medio)   −12.0 5,000,000 [1]
QPM-241   −11.9 4,500,000
HDE 319718   −11.8 4,200,000
WR 102ka   −11.6 3,200,000 [2]
HD 5980   −11.5 3,000,000
HDE 269810   −11.1 2,200,000[3]
Var 83 (en M33)   −11.1 2,200,000[4]
Wray 17-96   −10.9 1,800,000[5]
Estrella Pistola   −10.8 1,700,000
AF And (en M31)   −10.8 1,600,000[6]
Var B (en M33)   −10.4 1,100,000[7]
AG Carinae 7.1 a 9.0 −10.3 1,000,000[8]
S Doradus 8.6 a 11.8 −10.1 870,000
Zeta Puppis 2.21 −10 790,000
IRC+10420   −9.7 670,000
Var C (en M33)   −9.8 660,000[9]
Rho Cassiopeiae 4.4 −9.6 550,000
HR Carinae 7.6 −9.5 500,000[10]
AE And (en M31)   −9.4 450,000[11]
VY Canis Majoris 7.95 −9.4 450,000[12]
Chi2 Orionis 4.65 −9.3 420,000
HDE 226868 8.9 −9.25 390,000
Alnilam 1.70 −9.2 380,000
KW Sagittarii   −9.17 370,000
V354 Cephei   −9.15 360,000
Mu Cephei 4.04 −9.08 340,000
VV Cephei A   −9.0 315,000
KY Cygni   −8.84 270,000
Deneb 1.25 −8.73 250,000
Theta1 Orionis C 5.13 −8.6 220,000
Alnitak 1.79 −7.8 100,000
VV Cephei B   −7.8 100,000
Mintaka 2.23 −7.6 87,000
Eta Canis Majoris 2.45 −7.51 80,000
Rigel 0.12 −7.3 66,000
Saiph 2.07 −7.3 66,000
Meissa 3.39 −7.3 66,000
Ómicron1 Canis Majoris 3.83 −7.3 66,000
Betelgeuse 0.58 −7.2 60,000
Antares 0.92 −7.2 60,000
Psi1 Aurigae 4.92 −6.95 47,000
Delta Canis Majoris 1.83 −6.87 44,000
Sigma Orionis A 4.2 −6.6 35,000
Beta Crucis 1.25 −6.6 35,000
Eta Orionis 3.38 −6.5 32,000
Ómicron2 Canis Majoris 3.02 −6.46 30,000
Alfa Crucis 0.76 −6.25 25,000
Gamma Cygni 2.23 −6.12 22,000
Alfa Herculis 3.48 −5.97 19,400
Epsilon Aurigae 3.04 −5.95 19,000
Pi4 Orionis 3.67 −5.8 17,000
Iota1 Scorpii 2.99 −5.71 15,000
Eta Leonis 3.48 −5.60 14,000
Spica 1.00 −5.6 14,000
Upsilon Carinae 2.92 −5.56 13,300
Canopus −0.62 −5.53 12,900
Iota Orionis 2.77 −5.5 12,600
Beta Centauri 0.61 −5.42 11,700
Alfa Leporis 2.58 −5.40 11,500
Phi Velorum 3.52 −5.34 10,900
Gamma Velorum 1.75 −5.31 10,600
VV Orionis 5.34 −5.2 9,600
Lambda Scorpii 1.62 −5.05 8,400
Pi Puppis 2.71 −4.92 7,400
Epsilon Pegasi 2.38 −4.8 6,600
Epsilon Canis Majoris 1.50 −4.8 6,600
Bellatrix 1.64 −4.75 6,300
Xi Puppis 3.34 −4.74 6,250
Epsilon Carinae 1.86 −4.58 5,400
W Orionis 5.88 −4.4 4,600
Achernar 0.46 −4.05 3,300[13]
Beta Lyrae 3.52 −3.91 2,900
Polaris 1.97 −3.6 2,200
Gamma Crucis 1.63 −3.2 1,500
Regulus 1.35 −1.6 350[14]
Aldebarán 0.85 −0.63 140
Arcturus −0.04 −0.31 110
Capella 0.08 0.4 55
Castor 1.98 0.5 50
Vega 0.00 0.58 47
Pollux 1.14 0.7 42
Sirio −1.46 1.4 22
HD 38529 5.94 2.7 6.6
Tabit 3.19 3.7 2.6
Alpha Centauri A −0.01 4.38 1.4
Chi1 Orionis 4.41 4.7 1.05
Sol −26.8 4.75 1.00 

Estrellas más masivas:

En la siguiente lista se recogen las estrellas más masivas que se conocen, ordenadas de acuerdo a su masa, expresada como número de masas solares.

La masa estelar es el atributo más importante de una estrella. Junto a la composición química, la masa determina su luminosidad, su tamaño y, en última instancia, su destino.

Las estrellas conocidas con una masa estimada igual o superior a 25 masas solares son:

Nombre Otra denominación Masa (MSol)
R136a1 R136a1 265
Estrella de la Nebulosa Peonía WR 102ka 150
Estrella Pistola V4647 Sagittarii 150
LBV 1806-20   130
HD 93129 A + B[1] [2] CPD-58 2618 A:120, B:80
HD 93250[3] HIP 52558 118
A1 en NGC 3603[4] NGC 3603 A1 A:116, B:89
Pismis 24-1 A + B[5] [6] HD 319718 A:100-120, B:100
Cúmulo Arches[7] [8] [9]   Muchas estrellas: 100 a 130
S Doradus HD 35343 100
Cygnus OB2 12   92
Eta Carinae[10] HD 93308 90-100/150
WR20 a + b[11]   A:83, B:82
Melnick 42[12] [13] [14]   80-100
HD 97950[15] [16] HIP 54948 80
Sk-71 51[17]   80
WR 22 A + B[18] HD 92740 A:72, B:26
R 66   70
Compañera de M33 X-7[19]   70
LH54-425 A + B[20]   A:62, B:37
Var 83 en M33[21]   60-85
Sher 25 en NGC 3603[22] NGC 3603 25 60
Zeta1 Scorpii[23] HD 152236 60
WR 22[24] V429 Carinae 55-74
V1687 Cygni[25] HD 193793 A:54, B:20
Estrella de Plaskett A + B[26] [27] HD 47129 A:43, B:51
AG Carinae HD 94910 50
WR 102c[28]   45-55
IRS-8*[29]   44,5
HD 5980 A + B[30] [31] [32] RMC 14 A:40-62, B:30
Naos[33] Zeta Puppis 40
Alnilam Épsilon Orionis 40
HD 148937[34] [35] HIP 81100 40
IRAS 05423-7120[17]   40
Rho Cassiopeiae HD 224014 40
Theta1 Orionis C HD 37022 40
Menchib[36] Xi Persei 40
HR Carinae[37] HD 90177 40
A11[38]   38,9
Compañera de NGC300 X-1[39]   38
Cúmulo R136a   12 estrellas: 37 a 76
Ji2 Orionis[40] HD 41117 35-40
Compañera de IC10 X-1[41]   35
Lambda Cephei[42] 22 Cephei 33-62
Sigma Orionis AB[43] HD 37468 32
HR 4908[44] HD 112244 31,8
14 Cephei[45] HD 209481 30,4
VY Canis Majoris[46] [47] HD 58061 30-40
Gamma Velorum A HD 68273 30
P Cygni HD 193237 30
R 126   30
Alnitak Zeta Orionis 28
V3903 Sagittarii[48] HD 165921 A:27, B:19
IRS 15[49]   26
VV Cephei HD 208816 25-40
Alfa Camelopardalis[50] [51] HD 30614 25-30
6 Cassiopeiae[52] [53] HD 223385 25
WR 6 EZ Canis Majoris 25
KY Cygni[54] RAFGL 2575 25
Mu Cephei HD 206936 25
V509 Cassiopeiae HD 217476 25
NGC 7538 S[55]   20-40
S Monocerotis A[56] HD 47839 18-30
WR 47 CD Crucis 8-48

Año luz:

Un año luz es la distancia que recorre la luz en un año. Equivale aproximadamente a 9,460728 × 1012 km = 9.460.730.000.000 km.[1] [2]

Más específicamente, un año luz es la distancia que recorrería un fotón en el vacío durante un año Juliano (365,25 días de 86.400 s) a la velocidad de la luz (299.792.458 m/s), a una distancia infinita de cualquier campo gravitacional o campo magnético.[1]

Un año luz es una unidad de longitud, (es una medida de la longitud del espaciotiempo absoluto einsteniano). En campos especializados y científicos se prefiere el pársec (unos 3,26 años luz) y sus múltiplos para las distancias astronómicas, mientras que el año luz sigue siendo habitual en ciencia popular y divulgación.[1] También hay unidades de longitud basadas en otros períodos, como el segundo luz y el minuto luz, utilizadas especialmente para describir distancias dentro del Sistema Solar, pero también se suelen restringir a trabajos de divulgación, ya que en contextos especializados se prefiere la unidad astronómica (unos 8,32 minutos luz).

Un año luz equivale a :

  • Exactamente 9.460.730.472.580,8 km
  • Aproximadamente 9,4607 × 1015 m (unidades del SI)
  • Aproximadamente 5,8786 × 1012 mi
  • Aproximadamente 5,1084 × 1012 nmi
  • Aproximadamente 63.241,0 ua
  • Aproximadamente 0,3066 pc

El pársec o parsec (símbolo pc) es una unidad de longitud utilizada en astronomía. Su nombre se deriva del inglés parallax of one arc second (paralaje de un segundo de arco o arcosegundo).

En sentido estricto pársec se define como la distancia a la que una unidad astronómica (ua) subtiende un ángulo de un segundo de arco (1″). En otras palabras, una estrella dista un pársec si su paralaje es igual a 1 segundo de arco.

De la definición resulta que:

1 pársec = 206.265 ua = 3,2616 años luz = 3,0857 × 1016 m
 
kilopársec (kpc): mil pársecs, 3.262 años luz.
megapársec (Mpc): un millón de pársecs, distancia equivalente a unos 3,26 millones de años luz.

Ejemplos de distancias en pársecs:

La unidad astronómica (abreviada ua, au, UA o AU ) es una unidad de longitud igual por definición a 149.597.870.700 metros,[1] y que equivale aproximadamente a la distancia media entre el planeta Tierra y el Sol. Esta definición está en vigor desde la asamblea general de la Unión Astronómica Internacional del 31 de agosto de 2012, en la cual se dejó sin efecto la definición gaussiana usada desde 1976, que era «el radio de una órbita circular newtoniana y libre de perturbaciones alrededor del Sol descrita por una partícula de masa infinitesimal que se desplaza en promedio a 0,01720209895 radianes por día».[2]

El símbolo ua es el recomendado por la Oficina Internacional de Pesas y Medidas y por la norma internacional ISO 80000, mientras que au es el único considerado válido por la Unión Astronómica Internacional,[1] y el más común en los países angloparlantes. También es frecuente ver el símbolo escrito en mayúsculas, UA o AU, a pesar de que el Sistema Internacional de unidades utiliza letras mayúsculas solo para los símbolos de las unidades que llevan el nombre de una persona.

El nombre proviene de los siglos XVI y XVII, cuando aún no se calculaban con precisión las distancias absolutas entre los cuerpos del Sistema Solar, y solo se conocían las distancias relativas tomando como patrón la distancia media entre la Tierra y el Sol, que fue denominada unidad astronómica. Se llegó a afirmar que el día en que se midiera este valor, «se conocería el tamaño del Universo».

Algunos factores de conversión:

Espero que os guste…otro dia más..

Publicado octubre 25, 2012 por astroblogspain en Uncategorized

Materia y Energia Oscura   Leave a comment

En astrofísica y cosmología física se denomina materia oscura a la hipotética materia que no emite suficiente radiación electromagnética para ser detectada con los medios técnicos actuales, pero cuya existencia se puede deducir a partir de los efectos gravitacionales que causa en la materia visible, tales como las estrellas o las galaxias, así como en las anisotropías del fondo cósmico de microondas presente en el universo. No se debe confundir la materia oscura con la energía oscura.

De acuerdo con las observaciones actuales (2010) de estructuras mayores que una galaxia, así como la cosmología del Big Bang, la materia oscura constituye del orden del 21% de la masa del Universo observable y la energía oscura el 70%.

La materia oscura fue propuesta por Fritz Zwicky en 1933 ante la evidencia de una “masa no visible” que influía en las velocidades orbitales de las galaxias en los cúmulos. Posteriormente, otras observaciones han indicado la presencia de materia oscura en el universo: estas observaciones incluyen la citada velocidad de rotación de las galaxias, las lentes gravitacionales de los objetos de fondo por los cúmulos de galaxias, tales como el Cúmulo Bala (1E 0657-56) y la distribución de la temperatura del gas caliente en galaxias y cúmulos de galaxias.

La materia oscura también juega un papel central en la formación de estructuras y la evolución de galaxias y tiene efectos medibles en la anisotropía de la radiación de fondo de microondas. Todas estas pruebas sugieren que las galaxias, los cúmulos de galaxias y todo el Universo contiene mucha más materia que la que interactúa con la radiación electromagnética: lo restante es llamado “el componente de materia oscura”.

La composición de la materia oscura se desconoce, pero puede incluir neutrinos ordinarios y pesados, partículas elementales recientemente postuladas como los WIMPs y los axiones, cuerpos astronómicos como las estrellas enanas, los planetas (colectivamente llamados MACHO) y las nubes de gases no luminosos. Las pruebas actuales favorecen los modelos en que el componente primario de la materia oscura son las nuevas partículas elementales llamadas colectivamente materia oscura no bariónica.

El componente de materia oscura tiene bastante más masa que el componente “visible” del Universo. En el presente, la densidad de bariones ordinarios y la radiación en el Universo se estima que son equivalentes aproximadamente a un átomo de hidrógeno por metro cúbico de espacio. Sólo aproximadamente el 5% de la densidad de energía total en el Universo (inferido de los efectos gravitacionales) se puede observar directamente. Se estima que en torno al 23% está compuesto de materia oscura. El 72% restante se piensa que consiste de energía oscura, un componente incluso más extraño, distribuido difusamente en el espacio. Alguna materia bariónica difícil de detectar realiza una contribución a la materia oscura, aunque algunos autores defienden que constituye sólo una pequeña porción. Aún así, hay que tener en cuenta que del 5% de materia bariónica estimada (la mitad de ella todavía no se ha detectado) se puede considerar materia oscura bariónica: Todas las estrellas, galaxias y gas observable forman menos de la mitad de los bariones (que se supone debería haber) y se cree que toda esta materia puede estar distribuida en filamentos gaseosos de baja densidad formando una red por todo el universo y en cuyos nodos se encuentran los diversos cúmulos de galaxias. En mayo de 2008, el telescopio XMM-Newton de la agencia espacial europea ha encontrado pruebas de la existencia de dicha red de filamentos.

La determinación de la naturaleza de esta masa no visible es una de las cuestiones más importantes de la cosmología moderna y la física de partículas. Se ha puesto de manifiesto que los nombres “materia oscura” y la “energía oscura” sirven principalmente como expresiones de nuestra ignorancia, casi como los primeros mapas etiquetados como “Terra incógnita“.

Estamos mucho más seguros de lo que la materia oscura “no” es, que de lo que en realidad es. Primero, es oscura, lo cual significa que no existe en forma de estrellas y planetas que podamos ver. Según los astrónomos, en el Universo hay muy poca materia visible como para constituir el 25% requerido por las observaciones. Segundo, la materia oscura no se manifiesta en forma de nubes oscuras de materia normal, materia constituida por partículas llamadas “bariones”2. Sabemos esto porque deberíamos ser capaces de detectar nubes bariónicas al estudiar la absorción de la radiación que pasa a través de ellas. Tercero, la materia oscura no es antimateria, porque no observamos los distintivos rayos gamma que se producen cuando la antimateria se aniquila con la materia. Finalmente, podemos descartar la existencia de agujeros negros supermasivos del tamaño de galaxias, sobre la base de cuántas lentes gravitacionales podemos ver. Las altas concentraciones de materia tienden a curvar la luz proveniente de objetos alejados que pasa cerca de ellas, pero no vemos la suficiente cantidad de lentes gravitacionales como para deducir que tales hipotéticos objetos representan el 25% del Universo.

Foto de NGC 4555 - Click para ampliar!

Foto de NGC 4555. Esta enorme y solitaria galaxia elíptica está inserta en una nube de gas a 10 millones de grados Celsius. NASA/CXC/E.O’Sullivan et al. Esta imagen no es una fotografía de la materia oscura. Es una fotografía de sus efectos, capturada por el Observatorio Chandra de rayos-X. Es una galaxia rodeada por una nube de gas extremadamente caliente. Para que esta nube de gas permanezca alrededor de la galaxia, un halo de materia que no podemos ver debe estar reteniéndola allí con su gravedad

Sin embargo, a estas alturas, todavía hay unas pocas posibilidades viables para explicar la naturaleza de la materia oscura. La materia bariónica aún podría explicar este misterio si la misma estuviera atrapada en enanas marrones, o en cuerpos pequeños y densos de elementos pesados. Estos objetos se denominan MACHOs (MAssive Compact Halo Objects, u Objetos Compactos y Masivos del Halo Galáctico en español). Pero la opinión mayoritaria es la que sostiene que la materia oscura en absoluto es bariónica, sino que estaría constituida por exóticas partículas como los axiones o WIMPS (Weakly Interacting Massive Particles, o Partículas Masivas de Interacción Débil en español). Futuros descubrimientos sin duda echarán luz sobre este profundo misterio de la ciencia.

Los bariones son una familia de partículas subatómicas formadas por tres quarks. Los más representativos, por formar el núcleo del átomo, son el neutrón y el protón; pero también existe otro gran número de bariones, aunque éstos son todos inestables. El nombre de barión se debe a que se creyó, cuando fue descubierto, que poseía una masa mayor que otras partículas

Materia oscura en cúmulos de galaxias

Efecto de las lentes gravitacionales fuertes observado por el Telescopio espacial Hubble en Abell 1689 que indica la presencia de materia oscura. Agrandar la imagen para ver las curvaturas producidas por las lentes gravitacionales. Créditos: NASA/ESA

La materia oscura también afecta a agrupaciones galácticas. Las medidas de Rayos X del caliente gas intracumular se corresponden íntimamente a las observaciones de Zwicky de las relaciones masa-luz para grandes cúmulos de casi 10 a 1. Muchos de los experimentos del Observatorio de rayos X Chandra utilizan esta técnica para determinar independientemente la masa de los cúmulos.

El cúmulo de galaxias Abell 2029 está compuesto de miles de galaxias envueltas en una nube de gas caliente y una cantidad de materia oscura equivalente a más de diez14 soles. En el centro de este cúmulo hay una enorme galaxia con forma elíptica que se piensa que se formó a partir de la unión de muchas galaxias más pequeñas. Las velocidades orbitales de las galaxias medidas dentro de los cúmulos de galaxias son consistentes con las observaciones de materia oscura.

Una importante herramienta para detectar la materia oscura son las lentes gravitacionales. Estas lentes son un efecto de la relatividad general que predice la dinámica que depende de las masas, siendo un medio completamente independiente de medir la energía oscura. En las lentes fuertes, la curvada distorsión observada de las galaxias de fondo, cuando la luz pasa a través de una lente gravitacional, ha sido observada alrededor de un cúmulo poco distante como el Abell 1689. Midiendo la distorsión geométrica, se puede obtener la masa del cúmulo que causa el fenómeno. En docenas de casos donde se ha hecho esta medición, las relaciones masa-luz obtenidas se corresponden a las medidas de materia oscura dinámica de los cúmulos.

Durante los últimos diez años se ha desarrollado una técnica —tal vez más convincente— llamada lentes débiles que mide las distorsiones de galaxias a una microescala en las grandes distancias debidas a objetos de fondo mediante análisis estadístico. Examinando la deformación de las galaxias de fondo adyacentes, los astrofísicos pueden obtener la distribución media de energía oscura por métodos estadísticos y encontrar las relaciones masa-luz que se corresponden con las densidades de materia oscura predichas por otras mediciones de estructuras a gran escala. La correspondencia de las dos técnicas: la de lentes gravitacionales junto con otras medidas de materia oscura, han convencido a casi todos los astrofísicos de que la materia oscura es realmente el mayor componente del Universo.

File:Gravitationell-lins-4.jpg

Efecto de las lentes gravitacionales fuertes observado por el Telescopio espacial Hubble en Abell 1689 que indica la presencia de materia oscura. Agrandar la imagen para ver las curvaturas producidas por las lentes gravitacionales. Créditos: NASA/ESA

La materia oscura es crucial para el modelo cosmológico del Big Bang como un componente que se corresponde directamente con las medidas de los parámetros asociados con la métrica FLRW a la relatividad general. En particular, las medidas de las anisotropías del fondo cósmico de microondas se corresponden a una cosmología donde gran parte de la materia interactúa con los fotones de forma más débil que las fuerzas fundamentales conocidas que acoplan las interacciones de la luz con la materia bariónica. Así mismo, se necesita una cantidad significativa de materia fría no-barionica para explicar la estructura a gran escala del universo.

Las observaciones sugieren que la formación de estructuras en el Universo procede jerárquicamente, con las estructuras más pequeñas uniéndose hasta formar galaxias y después cúmulos de galaxias. Según se unen las estructuras en la evolución del Universo, empiezan a “brillar” ya que la materia bariónca se calienta a través de la contracción gravitacional y los objetos se aproximan al equilibrio hidrostático. La materia barionica ordinaria tendría una temperatura demasiado alta y demasiada presión liberada desde el Big Bang para colapsar y formar estructuras más pequeñas, como estrellas, a través de la inestabilidad de Jeans. La materia oscura actúa como un compactador de estructuras. Este modelo no sólo se corresponde con investigaciones estadísticas de la estructura visible en el Universo sino también se corresponden de forma precisa con las predicciones de materia oscura de la radiación de fondo de microondas.

Este modelo inverso de formación de estructuras necesita algún tipo de la materia oscura para funcionar. Se han utilizado simulaciones por ordenador de miles de millones de partículas de materia oscura para confirmar que el modelo de materia oscura fría de la formación de estructuras es consistente con las estructuras observadas en el Universo mediante las observaciones de galaxias, como la Sloan Digital Sky Survey y la 2dF Galaxy Redshift Survey, así como las observaciones del bosque Lyman-alfa. Estos estudios han sido cruciales en la construcción del modelo Lambda-CDM que mide los parámetros cosmológicos, incluyendo la parte del Universo formada por bariones y la materia oscura.

Aunque la materia oscura fue detectada por lentes gravitacionales en agosto de 2006, muchos aspectos de la materia oscura continúan siendo cuestionados. En el experimento DAMA/NaI se afirma haber detectado materia oscura pasando a través de la Tierra, aunque muchos científicos siguen siendo escépticos al respecto, ya que los resultados negativos de otros experimentos son (casi) incompatibles con los resultados del DAMA si la materia oscura consiste en neutralinos.

Los datos de varios tipos de pruebas, como el problema de la rotación de las galaxias, las lentes gravitacionales, la formación de estructuras y la fracción de bariones en cúmulos y la abundancia de cúmulos, combinada con pruebas independientes para la densidad bariónica, indican que el 85-90% de la masa en el Universo no interactúa con la fuerza electromagnética. Esta “materia oscura” se evidencia por su efecto gravitavional. Se han propuesto varias categorías de materia oscura:

La materia oscura caliente consiste en partículas que viajan con velocidades relativistas. Se conoce un tipo de materia oscura caliente, el neutrino. Los neutrinos tienen una masa muy pequeña, no interactúan a través de fuerzas electromagnéticas o de la fuerza nuclear fuerte y son, por tanto, muy difíciles de detectar. Esto es lo que les hace atractivos como materia oscura. Sin embargo, los límites de los neutrinos indican que los neutrinos ordinarios sólo harían una pequeña contribución a la densidad de la materia oscura.

La materia oscura caliente no puede explicar cómo se formaron las galaxias desde el Big Bang. La radiación de fondo de microondas medida por el COBE y el WMAP, es increíblemente homogénea, indica que la materia se ha agrupado en escalas muy pequeñas. Las partículas de movimiento rápido, sin embargo, no pueden agruparse en tales pequeñas escalas y, de hecho, suprimen la agrupación de otra materia. La materia oscura caliente, aunque existe en nuestro Universo en forma de neutrinos es, por tanto, la única parte de la historia.

Distribución estimada de materia y energía oscura en el Universo.

El Modelo de concordancia necesita que, para explicar la estructura en el Universo, es necesario invocar la materia oscura fría (no-relativista). Las grandes masas, como los agujeros negros del tamaño de galaxias pueden ser descartados con las bases de los datos de las lentes gravitacionales. Las posibilidades involucrando materia bariónica normal incluyen enanas marrones o tal vez pequeños y densos pedazos de elementos pesados que son conocidos como Objetos de tipo halo masivos compactos (massive compact halo object) o “MACHOs”. Sin embargo, los estudios de la Nucleosíntesis del Big Bang han convencido a muchos científicos de que la materia bariónica como los MACHOs no pueden ser más que una pequeña fracción de la materia oscura total.

El punto de vista más aceptado es que la materia oscura es principalmente no-bariónica, compuesta de una o más partículas elementales distintas de las normales electrones, protones, neutrones y los neutrinos conocidos. Las partículas propuestas más comunes son los axiones, neutrinos estériles y WIMPs (partículas masivas de interacción débil, incluyendo neutralinos). Ninguna de éstas es parte del modelo estándar de física de partículas, pero pueden aparecer en ampliaciones del modelo estándar. Muchos modelos supersimétricos ocasionan naturalmente los WIMPs en forma de neutralinos. Los pesados, neutrinos estériles existen en ampliaciones del modelo estándar que explica la pequeña masa de los neutrinos a través del mecanismo del balancín.

Han sido llevadas a cabo búsquedas experimentales de estos candidatos a materia oscura y continúan. Estos esfuerzos se pueden dividir en dos grandes categorías: detección directa, en los que las partículas de materia oscuras se observan en un detector, y la detección indirecta que busca los productos de aniquilaciones de materia oscura. Los experimentos de detección de materia oscura han descartado algunos modelos de WIMP y axiones. También hay varios experimentos reclamando pruebas positivas de detección de materia oscura, como el DAMA/NaI y el Egret, pero están lejos de ser confirmados y difícilmente reconcilian los resultados negativos de otros experimentos. Varias búsquedas de materia oscura están actualmente en proceso, como la Cryogenic Dark Matter Search en la Mina de Soudan y el experimento XENON en Gran Sasso y otros que están en desarrollo, como el experimento ArDM.

En investigaciones publicadas en la primavera de 2006, los investigadores del Instituto de Astronomía de la Universidad de Cambridge afirman haber calculado que la energía oscura sólo está en cúmulos mayores de 1.000 años luz de radio, implicando una velocidad media para las partículas de materia oscura de 9 km/s, una densidad de 20 amu/cm³ y una temperatura de 10.000 kelvins.

Problema de la materia oscura

Estimaciones basadas en los efectos gravitacionales de la cantidad de materia presente en el Universo sugieren, consistentemente, que hay mucha más materia de la que es posible observar directamente. Además, la existencia de materia oscura resolvería varias inconsistencias en la teoría del Big Bang. Se cree que la mayoría de la masa del Universo existe en esta forma. Determinar cuál es la naturaleza de la materia oscura es el llamado “problema de la materia oscura” o “problema de la masa desaparecida” y es uno de los más importantes de la cosmología moderna.

La cuestión de la existencia de la materia oscura puede parecer irrelevante para nuestra existencia en la Tierra pero el hecho de que exista o no afecta al destino último del Universo. Se sabe que el Universo está expandiéndose, por el corrimiento al rojo que muestra la luz de los cuerpos celestes distantes. Si no hubiera materia oscura, esta expansión continuaría para siempre. Si la actual hipótesis de la materia oscura es correcta, y dependiendo de la cantidad de materia oscura que haya, la expansión del Universo podría ralentizarse, detenerse o incluso invertirse (lo que produciría el fenómeno conocido como Big Crunch). Sin embargo, la importancia de la materia oscura para el destino final del Universo se ha relativizado en los últimos años, en que la existencia de una constante cosmológica y de una energía oscura parece tener aún mayor importancia. Según las mediciones realizadas en 2003 y 2006 por el satélite WMAP, la expansión del Universo se está acelerando, y se seguirá acelerando debido a la existencia de la energía oscura, aunque sin causar un Big Rip.

Explicaciones de mecánica cuántica

En otra clase de teorías se intenta reconciliar la Gravedad con la Mecánica cuántica y se obtienen correcciones a la interacción gravitacional convencional. En teorías escalar-tensoriales, los campos escalares como el campo de Higgs se acopla a la curvatura dada a través del tensor de Riemann o sus trazas. En muchas de tales teorías, el campo escalar es igual al campo de inflación, que es necesario para explicar la inflación cósmica del Universo después del Big Bang, como el factor dominante de la quintaesencia o energía oscura. Utilizando una visión basada en el Grupo de Renormalización, M. Reuter y H. Weyer han demostrado que la constante de Newton y la constante cosmológica pueden ser funciones escalares en el espacio-tiempo si se asocian las escalas de renormalización a los puntos del espacio-tiempo.

En la teoría de la relatividad de escala Laurent Nottale, el espacio-tiempo es continuo pero no diferenciable, conduciendo a la aparición de una Ecuación de Schrödinger gravitacional. Como resultado, aparecen los efectos de cuantización a gran escala. Esto hace posible predecir correctamente las estructuras a gran escala del Universo sin la necesidad de las hipótesis de la materia oscura.

Una noticia de ultima hora:

Se extiende 60 millones de años luz
 
Cúmulos de galaxias masivas
 

MADRID, 16 Oct. (EUROPA PRESS) –

   Un equipo de astrónomos de la misión Hubble de la NASA y la Agencia Espacial Europea (ESA) ha estudiado por primera vez un filamento de materia oscura en tres dimensiones. Los expertos han destacado que el objetivo de esta investigación es conocer si este filamento es representativo del resto de materia y si estas estructuras pueden contener más de la mitad de toda la masa en el Universo.

   El filamento, que se extiende 60 millones de años luz, es parte de la red cósmica que constituye la estructura a gran escala del Universo y es una reminiscencia de los primeros momentos después del Big Bang. La teoría del Big Bang predice que las variaciones en la densidad de la materia en los primeros instantes del universo llevó a la mayor parte de la materia en el cosmos a condensarse en una maraña de filamentos.

   Esta opinión es apoyada por simulaciones por ordenador de la evolución cósmica, lo que sugiere que el universo está estructurado en largos filamentos que conectan entre sí a las ubicaciones de los cúmulos de galaxias masivas. Sin embargo, estos filamentos, aunque extensos, son principalmente de materia oscura, que es muy difícil de observar.

   La identificación de una sección de uno de estos filamentos se hizo a principios de este año. Ahora, un equipo de astrónomos ha ido más allá al sondear su estructura en tres dimensiones. “Ver a un filamento en 3D elimina muchos de los problemas que surgen del estudio de la imagen plana de tal estructura”, ha apuntado una de las autoras, Mathilde Jauzac.

   La científica ha apuntado que “los filamentos de la red cósmica son enormemente extendidos y difusos, lo que los hace muy difíciles de detectar, por no hablar de estudiarlos en 3D”.

   Así, para lograr este estudio, el equipo combinó imágenes de alta resolución de la región en torno al cúmulo masivo de galaxias J0717.5 3745. El análisis de estas observaciones ofrece una visión completa de la forma del filamento que se extiende desde el cúmulo de galaxias casi lo largo de la línea de visión.

   Los resultados obtenidos de este trabajo permitirán marcar los límites de las predicciones hechas hasta ahora por trabajos teóricos y simulaciones numéricas de la red cósmica. Los expertos esperan completar este trabajo cuando esté listo el James Webb Space Telescope, el sustituto de Hubble que se lanzará en 2018, que, según han señalado, será una herramienta poderosa para la detección de los filamentos de la red cósmica, gracias a su sensibilidad mucho mayor.

 

ENERGIA OSCURA:

En cosmología física, la energía oscura es una forma de materia o energía que estaría presente en todo el espacio, produciendo una presión que tiende a acelerar la expansión del Universo, resultando en una fuerza gravitacional repulsiva. Considerar la existencia de la energía oscura es la manera más frecuente de explicar las observaciones recientes de que el Universo parece estar en expansión acelerada. En el modelo estándar de la cosmología, la energía oscura aporta casi tres cuartas partes de la masa-energía total del Universo.

Temas relacionados con la energía oscura son la constante cosmológica, una energía de densidad constante que llena el espacio en forma homogénea, la Teoría cuántica de campos y la quintaesencia, como campos dinámicos cuya densidad de energía puede variar en el tiempo y el espacio. De hecho, las contribuciones de los campos escalares que son constantes en el espacio normalmente también se incluyen en la constante cosmológica. Se piensa que la constante cosmológica se origina en la energía del vacío. Los campos escalares que cambian con el espacio son difíciles de distinguir de una constante cosmológica porque los cambios pueden ser extremadamente lentos.

Para distinguir entre ambas se necesitan mediciones muy precisas de la expansión del Universo, para ver si la velocidad de expansión cambia con el tiempo. La tasa de expansión está parametrizada por la ecuación de estado. La medición de la ecuación estado de la energía oscura es uno de los mayores retos de investigación actual de la cosmología física.

Añadir la constante cosmológica a la Métrica de Friedman-Lemaître-Robertson-Walker (FLRW) conduce al modelo Lambda-CDM, que se conoce como “modelo estándar” de cosmología debido a su coincidencia precisa con las observaciones.

No se debe confundir la energía oscura con la materia oscura, ya que, aunque ambas forman la mayor parte de la masa del Universo, la materia oscura es una forma de materia, mientras que la energía oscura se asocia a un campo que ocupa todo el espacio.

La constante cosmológica fue propuesta por primera vez por Albert Einstein como un medio para obtener una solución estable de la ecuación del campo de Einstein que llevaría a un Universo estático, utilizándola para compensar la gravedad. El mecanismo no sólo fue un ejemplo poco elegante de “ajuste fino”, pues pronto se demostró que el Universo estático de Einstein sería inestable porque las heterogeneidades locales finalmente conducirían a la expansión sin control o a la contracción del Universo. El equilibrio es inestable: si el Universo se expande ligeramente, entonces la expansión libera la energía del vacío, que causa todavía más expansión. De la misma manera, un Universo que se contrae ligeramente se continuará contrayendo.

Estos tipos de perturbaciones son inevitables, debido a la distribución irregular de materia en el Universo. Las observaciones realizadas por Edwin Hubble demostraron que el Universo está expandiéndose y que no es estático en absoluto. Einstein se refirió a su fallo para predecir un Universo dinámico, en contraste a un Universo estático, como “su gran error”. Después de esta declaración, la constante cosmológica fue ignorada durante mucho tiempo como una curiosidad histórica.

Alan Guth propuso en los años 1970 que un campo de presión negativa, similar en concepto a la energía oscura, podría conducir a la inflación cósmica en el Universo pre-primigenio. La inflación postula que algunas fuerzas repulsivas, cualitativamente similar a la energía oscura, da como resultado una enorme y exponencial expansión del Universo poco después del Big Bang. Tal expansión es una característica esencial de muchos modelos actuales del Big Bang. Sin embargo, la inflación tiene que haber ocurrido a una energía mucho más alta que la energía oscura que observamos hoy y se piensa que terminó completamente cuando el Universo sólo tenía una fracción de segundo. No está claro qué relación, si hay alguna, existe entre la energía oscura y la inflación. Incluso después de que los modelos inflacionarios hayan sido aceptados, la constante cosmológica se piensa que es irrelevante en el Universo actual.

El término “energía oscura” fue acuñado por Michael Turner en 1998. En ese tiempo, el problema de la masa perdida de la nucleosíntesis primordial y la estructura a gran escala del Universo fue establecida y algunos cosmólogos habían empezado a teorizar que había un componente adicional en nuestro Universo. La primera prueba directa de la energía oscura provino de las observaciones de la aceleración de expansión de las supernovas, por Adam Riess et al. y confirmada después en Saul Perlmutter et al. Esto dio como resultado el modelo Lambda-CDM, que hasta 2006 era consistente con una serie de observaciones cosmológicas rigurosamente crecientes, las últimas de 2005 de la Supernova Legacy Survey. Los primeros resultados de la SNLS revelaron que el comportamiento medio de la energía oscura se comporta como la constante cosmológica de Einstein con una precisión del 10%.[9] Los resultados del Hubble Space Telescope Higher-Z Team indican que la energía oscura ha estado presente durante al menos 9.000 millones de años y durante el periodo precedente a la aceleración cósmica.

Descubrimiento de la energía oscura

En 1998 las observaciones de supernovas de tipo 1a muy lejanas, realizadas por parte del Supernova Cosmology Project en el Laboratorio Nacional Lawrence Berkeley y el High-z Supernova Search Team, sugirieron que la expansión del Universo se estaba acelerando.[8] [7] Desde entonces, esta aceleración se ha confirmado por varias fuentes independientes: medidas de la radiación de fondo de microondas, las lentes gravitacionales, nucleosíntesis primigenia de elementos ligeros y la estructura a gran escala del Universo, así como una mejora en las medidas de las supernovas han sido consistentes con el modelo Lambda-CDM.

Las supernovas de tipo 1a proporcionan la principal prueba directa de la existencia de la energía oscura. Según a la Ley de Hubble, todas las galaxias lejanas se alejan aparentemente de la Vía Láctea, mostrando un desplazamiento al rojo en el espectro luminoso debido al efecto Doppler. La medición del factor de escala en el momento que la luz fue emitida desde un objeto es obtenida fácilmente midiendo el corrimiento al rojo del objeto en recesión. Este desplazamiento indica la edad de un objeto lejano de forma proporcional, pero no absoluta. Por ejemplo, estudiando el espectro de un quasar se puede saber si se formó cuando el Universo tenía un 20% o un 30% de la edad actual, pero no se puede saber la edad absoluta del Universo. Para ello es necesario medir con precisión la expansión cosmológica. El valor que representa esta expansión en la actualidad se denomina Constante de Hubble. Para calcular esta constante se utilizan en cosmología las candelas estándar, que son determinados objetos astronómicos con la misma magnitud absoluta, que es conocida, de tal manera que es posible relacionar el brillo observado, o magnitud aparente, con la distancia. Sin las candelas estándar, es imposible medir la relación corrimiento al rojo-distancia de la ley de Hubble. Las supernovas tipo 1a son una de esas candelas estándar, debido a su gran magnitud absoluta, lo que posibilita que se puedan observar incluso en las galaxias más lejanas. En 1998 varias observaciones de estas supernovas en galaxias muy lejanas (y, por lo tanto, jóvenes) demostraron que la constante de Hubble no es tal, sino que su valor varía con el tiempo. Hasta ese momento se pensaba que la expansión del Universo se estaba frenando debido a la fuerza gravitatoria; sin embargo, se descubrió que se estaba acelerando, por lo que debía existir algún tipo de fuerza que acelerase el Universo.

La consistencia en magnitud absoluta para supernovas tipo 1a se ve favorecida por el modelo de una estrella enana blanca vieja que gana masa de una estrella compañera y crece hasta alcanzar el límite de Chandrasekhar definido de manera precisa. Con esta masa, la enana blanca es inestable ante fugas termonucleares y explota como una supernova tipo 1a con un brillo característico. El brillo observado de la supernova se pinta frente a su corrimiento al rojo y esto se utiliza para medir la historia de la expansión del Universo. Estas observaciones indican que la expansión del Universo no se está desacelerando, como sería de esperar para un Universo dominado por materia, sino más bien acelerándose. Estas observaciones se explican suponiendo que existe un nuevo tipo de energía con presión negativa.

La existencia de la energía oscura, de cualquier forma, es necesaria para reconciliar la geometría medida del espacio con la suma total de materia en el Universo. Las medidas de la radiación de fondo de microondas más recientes, realizadas por el satélite WMAP, indican que el Universo está muy cerca de ser plano. Para que la forma del Universo sea plana, la densidad de masa/energía del Universo tiene que ser igual a una cierta densidad crítica. Posteriores observaciones de la radiación de fondo de microondas y de la proporción de elementos formados en el Big Bang han puesto un límite a la cantidad de materia bariónica y materia oscura que puede existir en el Universo, que cuenta sólo el 30% de la densidad crítica. Esto implica la existencia de una forma de energía adicional que cuenta el 70% de la masa energía restante. Estos estudios indican que el 73% de la masa del Universo está formado por la energía oscura, un 23% es materia oscura (materia oscura fría y materia oscura caliente) y un 4% materia bariónica. La teoría de la estructura a gran escala del Universo, que determina la formación de estructuras en el Universo (estrellas, quasars, galaxias y agrupaciones galácticas), también sugiere que la densidad de materia en el Universo es sólo el 30% de la densidad crítica.

 Experimentos diseñados para probar la existencia de la energía oscura

El más conocido es el Sistema de Detección Integrado Sachs-Wolfe, ideado en 1996 por dos investigadores canadienses y utilizado por primera vez en 2003; propusieron buscar estos pequeños cambios en la energía de la luz comparando la temperatura de la radiación con mapas de galaxias en el universo local. De no existir la energía oscura, no habría correspondencia entre los dos mapas (el de fondo de microondas cósmico distante y el de la distribución de galaxias relativamente cercano). Si esta existiera, sin embargo, se podría observar un curioso fenómeno: los fotones del fondo cósmico de microondas ganarían energía —en vez de perderla— al pasar cerca de grandes masas. El experimento mejoró sus resultados gracias al eguipo de Tommaso Giannantonio, quien ha probado su existencia con una certeza algo mayor a cuatro sigmas.

La naturaleza exacta de la energía oscura es materia de debate. Se sabe que es muy homogénea, no muy densa, pero no se conoce su interacción con ninguna de las fuerzas fundamentales más que con la gravedad. Como no es muy densa, unos 10−29 g/cm³, es difícil realizar experimentos para detectarla. La energía oscura tiene una gran influencia en el Universo, pues es el 70% de toda la energía y debido a que ocupa uniformemente el espacio interestelar. Los dos modelos principales son la quintaesencia y la constante cosmológica

Quintaesencia:

La energía oscura puede convertirse en materia oscura cuando es golpeada por partículas bariónicas, conduciendo así a excitaciones como de partículas en algún tipo de campo dinámico, conocido como quintaesencia. La quintaesencia difiere de la constante cosmológica en que puede variar en el espacio y en el tiempo. Para que no se agrupen y se formen estructuras como materia, tiene que ser muy ligero de tal manera que tenga una gran longitud de onda Compton.

No se ha encontrado todavía ninguna prueba de la quintaesencia, pero tampoco ha sido descartada. Generalmente predice una aceleración ligeramente más lenta de la expansión del Universo que la constante cosmológica. Algunos científicos piensan que la mejor prueba de la quintaesencia vendría a partir de violaciones del principio de equivalencia y la variación de las constantes fundamentales de Einstein en el espacio o en el tiempo. Los campos escalares son predichos por el modelo estándar y la teoría de cuerdas, pero un problema análogo al problema de la constante cosmológica (o el problema de construir modelos de inflación cósmica) ocurre: la teoría de la renormalización predice que los campos escalares deberían adquirir grandes masas.

El problema de la coincidencia cósmica se pregunta por qué la aceleración cósmica empezó cuando lo hizo. Si la aceleración cósmica empezó antes en el Universo, las estructuras como galaxias nunca habrían tenido tiempo de formarse y permanecer, al menos como se las conoce; nunca habrían tenido una oportunidad de existir. Sin embargo, muchos modelos de quintaesencia tienen un llamado “comportamiento rastreador”, que soluciona este problema. En estos modelos, el campo de la quintaesencia tiene una densidad que sigue la pista de cerca (pero es menor que) la densidad de radiación hasta la igualdad materia-radiación, que dispara la quintaesencia empiece a comportarse como energía oscura, finalmente dominando el Universo. Esto naturalmente establece una baja escala de energía de la energía oscura.

Algunos casos especiales de quintaesencia son la energía fantasma con w=+1. , en que la densidad de energía de la quintaesencia realmente se incrementa con el tiempo y la esencia-k (acrónimo de quintaesencia cinética) que tiene una forma no convencional de energía cinética. Pueden tener propiedades inusuales: la energía fantasma, por ejemplo, puede causar un Big Rip.

La nueva quintaesencia es una forma novedosa de energía inherente en el espacio vacío, que está basada en la constante de Planck. La suma fundamental de energía contenida en el espacio-tiempo, es representada por la ecuación E = hn, donde h es la constante de Planck y n es el número de quintesencias contenido en un volumen de espacio dado, por unidad de tiempo (segundos).

 Ideas alternativas

Algunos teóricos piensan que la energía oscura y la aceleración cósmica son un fallo de la relatividad general en escalas muy grandes, mayores que los supercúmulos. Es una tremenda extrapolación pensar que la ley de la gravedad, que funciona tan bien en el sistema solar, debería trabajar sin corrección a escala universal. Se han realizado muchos intentos de modificar la relatividad general; sin embargo, han resultado ser equivalentes a las teorías de la quintaesencia o inconsistentes con las observaciones.

Las ideas alternativas a la energía oscura han venido desde la teoría de cuerdas, la cosmología brana y el principio holográfico, pero no han sido probadas todavía tan convincentemente como la quintaesencia y la constante cosmológica.

Sin embargo, otras proposiciones “radicalmente conservadoras” intentan explicar los datos observacionales mediante un uso más refinado de las teorías establecidas más que a través de la introducción de la energía oscura, centrándose, por ejemplo, en los efectos gravitacionales de heterogeneidades de la densidad (asumidas como insignificantes en la aproximación estándar de la métrica de Friedman-Lemaître-Robertson-Walker y confirmada como insignificante por los estudios de las anisotropías del fondo cósmico de microondas y las estadísticas de la estructura a gran escala del Universo) o en las consecuencias de la ruptura de la simetría electrodébil en el Universo primigenio.

Con perspicacia, la energía oscura puede deducirse de observaciones a la constelación de Virgo con el telescopio LIGO I (con su sensibilidad de 10-21), mediante la no detección de ondas gravitatorias, que puede interpretarse como un indicador de que la rigidez de un continuo espacio-tiempo CR pseudo-Riemanniano no es insignificante, más que la suposición de que las ondas gravitatorias se propagan a larga distancia. Estadísticamente LIGO I parece tener un volumen suficientemente grande y tamaño de muestreo para la inclusión de objetos compactos en sistemas binarios en órbitas estrechas al menos, incluso si no se capturan algunos eventos de fusión. Sin embargo, incluso las fusiones binarias de BHs,que generan ondas gravitatorias puede decaer rápidamente. Así, la resistencia a la deformación (stress normal: extensión y compresión e incluso cualquier esfuerzo cortante) puede que no sea insignificante. Tal rigidez (resistencia a deformaciones/distorsiones) puede ser considerada como una inercia de múltiples CR. Es decir, ondas gravitatorias que tienen energía no localizada, pero tal energía es asociada con múltiples deformaciones. Por lo tanto, la energía de tales ondas gravitatorias puede ser considerada como un intento de superar la resistencia a la deformación (rigidez) de múltiples CR. Así, tal inercia parecería representar una contribución al stress del tensor de momento de energía y su representación matricial no contribuiría significativamente a toda la curvatura. Así, si las ondas gravitatorias no son detectadas, entonces LIGO I puede realmente estar explorando un cálculo cualitativo (no los límites) para la rigidez de múltiples CR. Así, múltiples CR pueden ser suficientemente robustos para la perturbación. Cualquier robustez parecería consistente sin producir rupturas cercanas y para una escala de Planck Cp también consistente con ninguna cuantificación de múltiples CR. Entonces, será menos probable tener fugas de ondas gravitatorias propagándose fuera de múltiples CR a otra dimensión, p.ej., brana. También, cualquier rigidez significante de múltiples CR sería menos consistente con las deformaciones asociadas con las supercuerdas. Y si el concepto de la inercia múltiple es descriptivo, entonces cualquier consideración reciente de nuevas aceleraciones (p.ej. resultantes de una tensión o elasticidad múltiple) de varios CR parecería menos probable. También la energía asociada con la resistencia a la deformación múltiple puede representar una porción significante de energía necesaria para aproximar la monotonía. Es decir, más que una búsqueda de la llamada energía oscura, tal vez una contribución adicional significativa es en forma de energía de múltiples CR, tal rigidez de múltiples CR contribuyendo al stress del tensor de momento de energía y por tanto a la curvatura. Así tal vez, LIGO I ya ha hecho un gran descubrimiento, la inercia de múltiples CR. Así, varios CR parecen tener una rigidez significativa y por tanto contribuya a una suma significante de energía y así contribuye significantemente a la curvatura (véase en INFN/Torino para una lista de trabajos reciente activamente mantenida en este campo de evolución rápida).

La energía oscura y el destino del Universo

La consecuencia más directa de la existencia de la energía oscura y la aceleración del Universo es que éste es más antiguo de lo que se creía. Si se calcula la edad del Universo con base en los datos actuales de la constante de Hubble (71±4 (km/s)/Mp), se obtiene una edad de 10.000 millones de años, menor que la edad de las estrellas más viejas que es posible observar en los cúmulos globulares, lo que crea una paradoja insalvable. Los cosmólogos estiman que la aceleración empezó hace unos 9.000 millones de años. Antes de eso, se pensaba que la expansión estaba ralentizándose, debido a la influencia atractiva de la materia oscura y los bariones. La densidad de materia oscura en un Universo en expansión desaparece más rápidamente que la energía oscura y finalmente domina la energía oscura. Especificamente, cuando el volumen del Universo se dobla, la densidad de materia oscura se divide a la mitad pero la densidad de energía oscura casi permanece sin cambios (exactamente es constante en el caso de una constante cosmológica). Teniendo en cuenta la energía oscura, la edad del Universo es de unos 13.700 millones de años (de acuerdo con los datos del satélite WMAP en 2003), lo que resuelve la paradoja de la edad de las estrellas más antiguas.

Si la aceleración continúa indefinidamente, el resultado final será que las galaxias exteriores al Supercúmulo de Virgo se moverán más allá del horizonte de sucesos: no volverán a ser visibles, porque su velocidad radial será mayor que la velocidad de la luz. Esta no es una violación de la relatividad especial y el efecto no puede utilizarse para enviar una señal entre ellos. Realmente no hay ninguna manera de definir la “velocidad relativa” en un espacio-tiempo curvado. La velocidad relativa y la velocidad sólo pueden ser definidas con significado pleno en un espacio-tiempo plano o en regiones suficientemente pequeñas (infinitesimales) de espacio-tiempo curvado. A su vez, previene cualquier comunicación entre ellos y el objeto pase sin contactar. La Tierra, la Vía Láctea y el Supercúmulo de Virgo, sin embargo, permanecería virtualmente sin perturbaciones mientras el resto del Universo retrocede. En este escenario, el supercúmulo local finalmente sufriría la muerte caliente, justo como se pensaba para un Universo plano y dominado por la materia, antes de las medidas de la aceleración cósmica.

El fondo de microondas indica que la geometría del Universo es plana, es decir, el Universo tiene la masa justa para que la expansión continúe indeterminadamente. Si el Universo, en vez de plano fuese cerrado, significaría que la atracción gravitatoria de la masa que forma el Universo es mayor que la expansión del Universo, por lo que éste se volvería a contraer (Big Crunch). Sin embargo, al estudiar la masa del Universo se detectó muy pronto que faltaba materia para que el Universo fuese plano. Esta “materia perdida” se denominó materia oscura. Con el descubrimiento de la energía oscura hoy se sabe que el destino del Universo ya no depende de la geometría del mismo, es decir, de la cantidad de masa que hay en él. En un principio la expansión del Universo se frenó debido a la gravedad, pero hace unos 4.000 millones de años la energía oscura sobrepasó al efecto de la fuerza gravitatoria de la materia y comenzó la aceleración de la expansión.

El futuro último del Universo depende de la naturaleza exacta de la energía oscura. Si ésta es una constante cosmológica, el futuro del Universo será muy parecido al de un Universo plano. Sin embargo, en algunos modelos de quintaesencia, denominados energía fantasma, la densidad de la energía oscura aumenta con el tiempo, provocando una aceleración exponencial. En algunos modelos extremos la aceleración sería tan rápida que superaría las fuerzas de atracción nucleares y destruiría el Universo en unos 20.000 millones de años, en el llamado Gran Desgarro (Big Rip).

Hay algunas ideas muy especulativas sobre el futuro del Universo. Una sugiere que la energía fantasma causa una expansión divergente, que implicaría que la fuerza efectiva de la energía oscura continúa creciendo hasta que domine al resto de las fuerzas del Universo. Bajo este escenario, la energía oscura finalmente destrozaría todas las estructuras gravitacionalmente acotadas, incluyendo galaxias y sistemas solares y finalmente superaría a las fuerzas eléctrica y nuclear para destrozar a los propios átomos, terminando el Universo en un Big Rip. Por otro lado, la energía oscura puede disiparse con el tiempo o incluso llegar a ser atractiva. Tales incertidumbres abren la posibilidad de que la gravedad todavía pueda conducir al Universo que se contrae a sí mismo en un “Big Crunch“. Algunos escenarios, como el modelo cíclico, sugieren que este podía ser el caso. Mientras que estas ideas no están soportadas por las observaciones, no pueden ser excluidas. Las medidas de aceleración son cruciales para determinar el destino final del Universo en la Teoría del Big Bang.

Ultimas Noticias:

MADRID, 12 Sep. (EUROPA PRESS) –

   Astrónomos de la Universidad de Portsmouth (Reino Unido) han llevado a cabo un estudio que señala que la energía oscura, que procede de la misteriosa sustancia que se cree que ha participado en la aceleración de la expansión del Universo, existe realmente. Concretamente, su estudio apunta a que las probabilidad de su existencia son de un 99,996 por ciento.

   Hace una década, los astrónomos observaron el brillo de las supernovas distantes y se dieron cuenta de que la expansión del universo parece estar acelerándose. Esta aceleración se atribuye a la fuerza de repulsión asociada con la energía oscura que, según las teorías actuales se cree que forma 73 por ciento del cosmos.

   A pesar de que los investigadores que hicieron este descubrimiento, Saul Perlmutter, Brian P. Schmidt y Adam G. Riess, recibieron el Premio Nobel de Física en 2011, la existencia de la energía oscura continúa siendo un tema de debate entre la comunidad científica.

   Hasta ahora se han utilizado numerosas técnicas para confirmar la realidad de la energía oscura. Una clara evidencia de esta energía proviene del Sistema de Detección Integrado Sachs-Wolfe. Esta teoría señala que el fondo cósmico de microondas, la radiación del calor residual del Big Bang, se ve por todo el cielo, de manera que esta radiación se volvería un poco más azul a su paso por los campos gravitatorios de grumos de materia, un efecto conocido como corrimiento al rojo gravitacional.

   En 1996, dos investigadores canadienses llevaron esta idea al siguiente nivel. Su trabajo sugiere que los astrónomos pueden buscar estos pequeños cambios en la energía de la luz (fotones) comparando la temperatura de la radiación con mapas de galaxias en el universo local.

   De este modo, en ausencia de la energía oscura no habría correspondencia entre los dos mapas (el de fondo de microondas cósmico distante y el de la distribución de galaxias relativamente cercano), pero si esta existiera supondría el efecto contrario: los fotones del fondo cósmico de microondas ganarían energía al pasar por grandes trozos de masa.

   El Sistema de Detección Integrado Sachs-Wolfe, utilizado por primera vez en 2003 fue considerado inmediatamente como una prueba fehaciente de que la energía oscura existe, de hecho fue nombrado ‘descubrimiento del año’ por la revista ‘Science’.

   Sin embargo, también ha tenido sus detractores, que indicaban que la señal de energía oscura obtenida era demasiado débil, por lo que algunos científicos sugirieron que podría ser consecuencia de otras fuentes, como el polvo de la Vía Láctea.

   Ahora, el nuevo estudio, publicado en ‘Monthly Notices’ de la Royal Astronomical Society,  ha investigado, a lo largo de dos años, esta teoría y ha examinado todos los argumentos en contra del Sistema de Detección Integrado Sachs-Wolfe. En este trabajo, el equipo ha mejorado los mapas utilizados en la obra original y, gracias a este análisis se ha llegado a la conclusión de que existe una probabilidad del 99,99 por ciento de que la energía oscura sea responsable de las partes más calientes de los mapas del fondo cósmico de microondas.

   El autor principal del trabajo, Giannantonio Tommaso, ha apuntado que, además “este trabajo también habla de las posibles modificaciones a la teoría de Einstein de la relatividad general”.

   A su juicio, “la próxima generación de fondo de microondas cósmico, y los futuros estudios de galaxias, deberían proporcionar la medición definitiva, ya sea la que confirma la relatividad general, incluyendo la energía oscura, o incluso más intrigante, exigiendo una comprensión completamente nueva de cómo funciona la gravedad”.

Y esto es lo que sabemos…

Publicado octubre 21, 2012 por astroblogspain en Uncategorized

El Lobo…   2 comments

En vista de la trascendencia que esta teniendo ultimamente el Lobo, quiero publicar un post a su leyenda, a su imagen, y a su belleza.

Lamentablemente no corren buenos tiempos para los lobos, recientemente el principado de Asturias ha dado permisos para abatir 200 Lobos en los Picos de Europa, gracias a las acciones ecologistas, se abatiran 80, esperemos que la presión propicie que no se mate ninguno..y que los ejemplares sobrantes dealgunas reservas se usen para repoblar los montes que antaño tenian.

Y una buena noticia, recientemente unos biologos españoles han encontrado la presencia del Lobo, nada más y nada menos que en Marruecos, en la Cordillera del Atlas medio, en el parque nacional de Ifrane.

Adjunto fotos

Las fotos está tomadas en el Atlas a unos 1.800 metros de altitud

Un descubrimiento llevado a cabo por un grupo hispano-marroquí de investigadores parece haber dado al traste con la existencia posible de uno de los críptidos más buscados del norte de África. Lo que podría ser el encuentro con un adjule o alguna desconocida especie de chacal, ha resultado ser la constatación de la presencia del lobo (Canis lupus) en Marruecos por primera vez en la historia.
El descubrimiento forma parte de un amplio estudio sobre los mamíferos de Marruecos que se viene desarrollando desde 2009 por parte de la Universidad de Alicante (España) y la Universidad Chouaib Doukkali, con sede en El Jadida (Marruecos).
El trabajo está apoyado por el Emirates Center for Wildlife Propagation, un centro especializado creado conjuntamente por Emiratos Árabes Unidos y Marruecos, así como por el Gobierno marroquí a través del Alto Comisariado para el Agua, los Bosques y la Lucha contra la Desertificación.
 
Hace una semana, la investigación iniciada tres años atrás echó por tierra uno de los mitos más arraigados del Atlas. Las cámaras colocadas captaron distintas imágenes del supuesto “chacal grande”… que no era sino un lobo. Cuerpo delgado, cuello ancho y poderoso, pelo oscuro, cola corta,.. Las imágenes obtenidas por el equipo hispano-marroquí –  a la espera de las próximas pruebas de análisis genético – parecen no ofrecer dudas: el protagonista de esta historia es el lobo. Posiblemente, perteneciente a la variedad Canis lupus lupaster, es decir, lobo egipcio.
 
Ahora veremos la situacion del lobo, en la historia y en la actualidad a nivel mundial, al final nos centraremos, en el Signatus, el Lobo nuestro
 
 

El lobo (Canis lupus) es una especie de mamífero placentario del orden de los carnívoros. El perro doméstico (Canis lupus familiaris) se considera miembro de la misma especie con base a evidencias, la secuencia del ADN y otros estudios genéticos. Los lobos fueron en antaño abundantes y se distribuían por Norteamérica, Eurasia y el Oriente Medio. Actualmente, por una serie de razones relacionadas con el hombre, incluyendo el muy extendido hábito de la caza, los lobos habitan únicamente en una muy limitada porción del que antes fue su territorio.

la especie está listada como en peligro o amenazada. Los lobos son cazados en muchas áreas del mundo por la amenaza que representan para el ganado, así como por deporte.

El lobo, que es un Superdepredador, se halla en una gran cantidad de ecosistemas. Este amplio territorio de hábitat donde los lobos medran refleja su adaptabilidad como especie, ya que puede vivir en bosques, montañas, tundras, taigas y praderas.

El término “lobo ” deriva del latín lupus, con el mismo significado Por otra parte, el término “loba” solía usarse para calificar a las rameras. De hecho, según Tito Livio, es posible que la historia de la loba Luperca fuera usada para encubrir a una prostituta.

Miacis es un representante de un grupo de carnívoros primitivos que fueron los antepasados de los carnívoros modernos (orden Carnivora), pero solo la especie M. cognitus es un auténtico carnívoro. Así pues, Miacis puede ser considerado el género de mamíferos carnívoros precursor de los caniformes modernos. Se cree que el antepasado común de los miácidos y de los vivérridos (los carnívoros basales precursores de los feliformes) vivió durante el Cretácico superior.

La separación entre la rama de los carnívoros modernos y el resto de miácidos, incluyendo Miacis, tuvo lugar a mediados del Eoceno, con la aparición de grupos como el de los amfiquiónidos, que podrían ser los precursores de los osos modernos; o los hesperoquioninos, que representan el primer grupo de cánidos en aparecer después de esta separación. Hesperocyon vivió hace entre 26 y 38 millones de años y es considerado como el antepasado más lejano del perro actual. Posteriormente, dicha línea evolutiva dio lugar a la especie Eucyon davisi hace unos 10 millones de años y se cree que fue la especie que pasó a través del estrecho de Bering hacia el resto del mundo.

El peso y tamaño del lobo puede variar considerablemente a lo largo del mundo, y tiende a incrementarse proporcionalmente con la latitud, como predijo la regla de Bergmann. En términos generales la altura varía entre los 60 y los 90 centímetros hasta el hombro, y tienen un peso de entre 32 y 70 kilos. Aunque raramente encontrados, especímenes de más de 77 kg han sido hallados en Alaska y Canadá; el lobo salvaje más pesado, matado en Alaska en 1939, pesaba 80 kg. Hay algunos casos  de lobos cazados en el nordeste de Rusia que alcanzaban los 100 kg, y tambien de más de 100 kilos en Canada y Alaska. Los lobos más pequeños son las sub-especies de lobos árabes, las hembras de éstas pueden pesar unos 10 kg en la madurez. Las hembras en una población dada pesan alrededor de un 20% menos que los machos. Los lobos pueden medir entre 1,3 a 2 metros desde el hocico hasta la punta de la cola, siendo ésta aproximadamente un cuarto de la longitud total del cuerpo.

Las Malas Artes…Los cazadores y sus trofeos…..Para Que?

Estos lobos cazados en areas  de la taiga son enormes.

Este lobo viví­a en Canadá y tiene el record tras ser cazado y pesar, ni más ni menos que 104 kilos.

kent rock's embedded Photo

Big Grey Wolf

 
Holy shit that's a big wolf.
 
 
 
 
 
 
 
Una pèna ver muertos a estos bellos animales…me gustaria verlos sin sus escopetas
Aun así se aprecia el descomunal tamaño de los lobos, que basan su dieta en grandes ungulados como los Alces.
Todos ellos de las subespecies Comunis, y Occidentalis
 
Los lobos poseen rasgos ideales para viajes de larga distancia. Su estrecho pecho y su potente espalda y piernas facilitan una locomoción eficiente. Son capaces de cubrir varios kilómetros trotando a una velocidad de 10 km/h, pudiendo alcanzar velocidades punta de 65 km/h en una persecución. Mientras corren a gran velocidad pueden cubrir cinco metros por salto. Las patas de los lobos están diseñadas para andar con facilidad por una amplia variedad de terrenos, especialmente nieve. Tienen una pequeña membrana entre cada dedo, lo que les permite moverse por la nieve con más facilidad que a sus presas. Los lobos son digitígrados, y cuentan con patas traseras más largas y un quinto dedo vestigial, solo presentes en las delanteras, siendo sus garras de coloración oscura/negra y no retráctiles. Pelos erectos y garras desafiladas realzan el agarre en superficies resbaladizas, y vasos sanguíneos especiales evitan el enfriamiento de las almohadillas de las patas. Unas glándulas les ayudan a moverse por grandes extensiones mientras informa a los otros acerca de su paradero.

El mayor tamaño y longitud de las patas, ojos amarillos y mayores dientes hacen distinguir a los lobos adultos de otros cánidos, particularmente perros. Existe una glándula odorífica presente en la base de la cola de los lobos, la cual le confiere a cada individuo un rastro aromático único, que les sirve para poder identificarse entre ellos.

Pueden cazar tanto de día como de noche gracias a su agudísimo sentido del olfato y a su visión nictálope, para poca luz, dado que sus ojos poseen un tapetum lucidum tras la retina. Sus largos y poderosos hocicos ayudan a distinguirlos de los coyotes y chacales, los cuales tienen hocicos más estrechos; y de los perros que generalmente los tienen más pequeños. Los lobos difieren también en ciertas dimensiones craneales, teniendo un ángulo orbital más pequeño que, por ejemplo, los perros (53º estos y 45º los lobos), así como en una mayor capacidad cerebral, siendo la bóveda craneana un 20% más grande.

En ocasiones un lobo parece más pesado de lo que realmente es, debido a su voluminoso pelaje, compuesto por dos capas. La primera capa está diseñada para repeler el agua y la suciedad. La segunda es un denso subpelaje resistente al agua que aísla al lobo. Éste se torna en una gran mata de pelo a finales de primavera o comienzos de verano. Un lobo se frota normalmente contra objetos tales como rocas y ramas para fomentar la pérdida del pelaje. El subpelaje es usualmente gris sin tener en cuenta la apariencia del pelaje exterior. Los lobos tienen distintos pelajes en invierno y en verano que alternan en primavera y otoño. Las hembras tienden a conservar sus pelajes invernales más allá de la primavera a diferencia de los machos.

La coloración varía; va del gris al gris marrón, a través del espectro canino del blanco, rojo, marrón y negro. Estos colores tienden a mezclarse en muchas poblaciones para formar individuos predominantemente mezclados, aunque no es infrecuente que un individuo o una población entera sea de un mismo color, normalmente todos negros o todos blancos. El color del pelaje a veces corresponde con el ambiente en el que una población de lobos se desenvuelve; por ejemplo; todos los lobos blancos son mucho más comunes en áreas nevadas. Con el crecimiento van adquiriendo un matiz grisáceo en sus pelajes. Normalmente se cree que la coloración del pelaje del lobo sirve como mecanismo de camuflaje. Esto no es totalmente correcto, dado que algunos científicos han demostrado que la mezcla de colores tiene más que ver con enfatizar gestos, tanto como la sombra de ojos o el lápiz de labios en los humanos.

Al nacer, los cachorros tienden a tener el pelaje más oscuro y los ojos azules que se volverán amarillos-dorados o naranjas cuando tengan entre 8 a 16 semanas. Aunque es extremadamente inusual, es posible que un adulto retenga los ojos azules.

La gestación de los lobos dura de 60 a 63 días. Los cachorros, con un peso de medio kilo, nacen ciegos, sordos y completamente dependientes. Nacen entre cuatro y seis lobeznos por camada. Los cachorros residen en la madriguera y se quedan allí hasta que cumplen las tres semanas de edad. La madriguera está normalmente en tierras altas cerca de una fuente de agua, y tiene una “habitación” abierta al final de un túnel que puede medir unos pocos metros. Durante este tiempo, los cachorros llegarán a ser más independientes, y comenzarán finalmente a explorar el área más próxima a la madriguera, antes de alejarse más del lugar, ya con cinco semanas.

Tras esas cinco primeras semanas de vida, los cachorros comienzan a acercarse a la entrada de la guarida y, pasadas otras dos semanas, se atreverán a alejarse para comenzar sus pequeñas exploraciones comenzando a buscar algo comestible. Los lobeznos suelen recibir lecciones de vida por parte de su “niñera”, que es elegida por la hembra alfa antes del nacimiento de sus crías, con el fin de continuar con su cuidado y educación tras el destete, entre las cuatro y seis semanas de vida. Según la raza de lobo, la manada puede optar por criar a los lobeznos o dejarle el trabajo a la madre, lo que permite a la hembra alfa dedicarse de nuevo a dirigir la manada. Empiezan comiendo alimentos regurgitados y después de dos semanas, cuando les salen sus dientes de leche, se destetarán. Durante las primeras semanas de su desarrollo, la madre permanece con su camada sola, pero finalmente la mayoría de los miembros de la camada contribuirán en el cuidado de los cachorros de algún modo.

Los lobeznos son instruidos en la comunicación a través de los aullidos a una edad temprana, tres o cuatro semanas aproximadamente, recibiendo comida y elogios como recompensa. Cada cachorro aprende a aullar según su rango.

Tras dos meses, los inquietos cachorros, que empiezan a cambiar los tonos negruzcos por los colores de su capa definitiva, serán movidos a un lugar seguro donde permanecen mientras la mayoría de los adultos salen a cazar. Uno o dos adultos se quedan para asegurar su seguridad. Después de unas pocas semanas, a los cachorros se les permite reunirse con los adultos si éstos pueden, y recibirán prioridad sobre cualquier presa cazada pese a su bajo rango. A los cinco meses les sale la dentadura definitiva y empiezan a denominarse lobatos. Los lobatos serán observadores hasta los ocho meses, cuando son suficientemente grandes para participar.

Los lobos alcanzan su madurez sexual tras dos o tres años, cuando muchos de ellos son obligados a dejar sus manadas de nacimiento y buscar parejas y sus propios territorios. Los lobos que alcanzan la madurez generalmente viven de seis a ocho años en estado salvaje, aunque en cautividad pueden vivir dos veces esa edad. Las altas tasas de mortalidad les dan en general una baja expectativa de vida. Los cachorros mueren cuando el alimento escasea; pueden asimismo caer presa de predadores tal como el oso, o, menos frecuente, coyotes, zorros u otros lobos.

Las causas más significativas de mortalidad para lobos maduros son la caza, la caza furtiva, accidentes de coche y heridas infligidas por presas. Aunque los lobos adultos pueden ocasionalmente ser matados por otros predadores, los lobos de manadas rivales son generalmente sus enemigos no-humanos más peligrosos. Un estudio acerca de la mortalidad de los lobos indicó que del 14% al 65% de las muertes de lobos se debieron a otros lobos. Los lobos son susceptibles a las mismas enfermedades que afectan a perros domésticos

Los lobos se alimentan principalmente de ungulados de medio y gran tamaño, incluyendo ovejas, cabras, rebecos, cerdos, ciervos, antílopes, renos, caballos, alces, yaks y bisontes. Otras presas incluyen mamíferos marinos como las focas y ballenas varadas. El canibalismo entre los lobos ha sido documentado en tiempos de escasez de alimentos. Los lobos solitarios dependen más de animales pequeños que pueden cazar saltando encima de ellos y sujetándolos con sus patas delanteras, aunque se han documentado casos de lobos solitarios que han cazado animales de gran tamaño sin ninguna ayuda. Algunas manadas de Alaska y el oeste de Canadá han sido vistas alimentándose de salmón.También cazan roedores, aves y otros animales pequeños. Un solo lobo puede comer entre 3,2 a 3,5 kilos de comida de una vez, aunque pueden llegar a comer 13 a 15 kg cuando están hambrientos. El alimento anual requerido es de alrededor de 1,5 toneladas de carne. Pueden sobrevivir largos períodos sin probar bocado. El caso extremo lo muestra un registro ruso que afirma que un ejemplar sobrevivió 17 días sin alimento. Estudios han mostrado que dos semanas sin alimento no debilitan la actividad muscular del lobo. Después de comer, los lobos ingerirán copiosas cantidades de agua para prevenir problemas urémicos. El estómago de un lobo puede albergar 7,5 litros de agua.

Aullar ayuda a los miembros de la manada a mantenerse en contacto, permitiéndoles comunicarse con efectividad en bosques densos o en grandes distancias. Aullar también ayuda a llamar a los miembros de la manada a una localización específica. Puede también servir como declaración del territorio, mostrando una tendencia dominante en una imitación humana de un lobo “rival” en un área que el lobo considera suya. Este comportamiento es estimulado cuando una manada tiene algo que proteger, tal como una presa fresca. Manadas adyacentes pueden responder a los aullidos de otros, lo cual puede significar un problema para la manada más pequeña. Los lobos, por lo tanto, tienden a aullar con sumo cuidado.

Aúllan también por razones de comunidad. Algunos científicos especulan que fortalecen la camaradería y la unión social. Durante tales sesiones corales, los lobos aullarán en voces diferentes y variando los tonos, resultando difícil estimar el número de lobos implicados. Esta confusión del número hace que una manada rival sea cauta a la hora de escoger la acción a realizar. Por ejemplo, la confrontación puede ser desastrosa si la manada rival subestima el número de miembros de la otra. Las observaciones de las manadas sugieren que el aullido tiene lugar más a menudo durante las horas del crepúsculo, precediendo la partida de los adultos para cazar y siguiendo su retorno.

Los lobos son todavía, a pesar de la persecución de que han sido objeto, los cánidos con la distribución más amplia. Habitan en toda Eurasia y América del Norte, y han sido introducidos en Australia. Su hábitat varía desde los témpanos de hielo de Groenlandia a los desiertos de Arabia o las selvas de la India.

Tan vasta distribución ha permitido la aparición de distintas subespecies, que se diferencian en el tamaño, color y longitud del pelaje o proporciones del morro o las orejas. Se han descrito más de 50 subespecies de lobo, pero no se ha encontrado un verdadero consenso al respecto, y la lista ha sido también condensada, reduciendo las subespecies entre 13 y 15. Modernas clasificaciones de ácido desoxirribonucleico, anatomía, distribución y migración de varias colonias de lobos indican que en 2005 había unas 37 subespecies descritas en las que se incluye al dingo y al perro (subespecie doméstica del lobo bajo el nombre de Canis lupus familiaris).

El lobo ha sido uno de los mamíferos que más se ha distribuido a lo largo del mundo, viviendo en el norte a una latitud de 15° N en América del Norte y a 12° N en Eurasia. Sin embargo, aunque fue muy abundante, el lobo habita actualmente en un pequeña parte de su antiguo territorio debido a la destrucción de su hábitat y los encuentros de los lobos con los humanos que casi provocaron su extinción. Esta reducción ha sido muy grande en algunas áreas de Europa, Asia, México y los Estados Unidos debido al envenenamiento y a la persecución deliberada.

En 1982 y hasta 1994, el lobo estuvo incluido en la lista de animales en peligro de extinción de la Unión Internacional para la Conservación de la Naturaleza (IUCN). Cambios en la protección de estos animales, los cambios demográficos a áreas urbanas y el uso de la tierra han parado la disminución en la población del lobo. Además, la re-colonización y los programas de reintroducción han aumentado las poblaciones del lobo en Europa Occidental y en la zona occidental de los Estados Unidos. Por ello, en 1996, el IUCN redujo el estado de riesgo del lobo, pasando a ser de menor preocupación. Actualmente, el estado de conservación de los lobos varía enormemente, ya que en algunas áreas son protegidos y en otras son cazados por deporte o son exterminados como amenazas para la ganadería y los animales domésticos.

En muchas partes del mundo el lobo es respetado y reverenciado, mientras que en otras partes es odiado. En ocasiones han sido criados como animales domésticos y de trabajo, aunque no sin dificultad, debido al mayor problema de socialización que tienen con respecto a los perros y su instinto depredador. Por ello necesitan un entrenamiento y una correcta motivación, igual que los perros.

Félix Rodríguez de la Fuente tuvo varias manadas de lobos, de los que fue líder. En una época de persecución acérrima al lobo, este naturalista y etólogo estudió su comportamiento tratando de descubrir los motivos del odio ancestral del hombre hacia este animal, descubriendo “la verdad del lobo”, que desarrolló en numerosos artículos, logrando la preservación, por ley, de la subespecie ibérica. Tras su muerte, los trabajos para la preservación del lobo continuaron.

Ataques a humanos

Los lobos salvajes son normalmente tímidos y evitan el contacto con las personas, su reacción depende muchas veces de las experiencias anteriores que hayan tenido con humanos más que de un comportamiento natural propio. Cuando su hábitat es extenso, con suficiente comida, siendo ocasionalmente cazados, la tendencia es a evitar el contacto con la gente, incluso llegan al punto de abandonar una cacería o una pieza cazada si notan que un humano se acerca. De todos modos existen una serie de circunstancias que hacen que los lobos puedan mostrarse agresivos como la provocación, la habituación, la rabia, la identificación equivocada, la presencia de cachorros, la escasez de presas estacionales o el cruce con perros. En general los ataques suelen ser efectuados por lobos rabiosos pero se conocen también casos de ataques de lobos sanos. Históricamente y en contra de lo que se suele suponer, la mayoría de ataques se producen en los meses de verano, especialmente junio y julio, en los que las víctimas suelen ser mujeres y niños. Estos ataques se producen solo durante un intervalo de tiempo, es decir, son temporales, dando a entender que el ser humano no es una presa típica del lobo, aun así los lobos que han atacado seres humanos pueden acabar por desarrollar y mantener una conducta depredadora sobre éstos hasta su muerte.

En comparación con otros depredadores carnívoros, la frecuencia con la que se han dado casos de ataques de lobos hacia personas es bastante baja y más si tenemos en cuenta su tamaño y su potencial predatorio, no obstante antes del siglo XX, parece que el riesgo era mucho mayor sin duda debido a la presencia de la rabia. Según registros históricos, en Francia hubo 3.069 personas muertas por lobos entre 15801830, de las cuales casi la mitad murieron de rabia. En la India los ataques solían darse con relativa frecuencia, incluso en la actualidad, en Hazaribagh (Bihar) se contabilizaron 122 niños muertos y 100 heridos por ataques de lobo entre 1980 y 1986. América del Norte ha tenido muchos menos casos que Europa; el biólogo Mark McNay ha compilado unos 80 casos en Alaska y Canadá; aun así son recientes varios ataques en Canadá que se saldaron con la muerte del estudiante de geología Kenton Carnegie en Points North (Saskatchewan, Canadá) el cual aparentemente fue atacado por lobos durante un paseo vespertino por una zona boscosa cercana y parcialmente devorado; cabe destacar que en ese mismo lugar se habían producido incidentes de provocación y habituación con lobos días antes.

Subespecies de Canis lupus:

Lobos de Europa, Asia y Oceanía

Lobo europeo (Canis lupus lupus). Norte de Europa.

  • Lobo europeo (Canis lupus lupus): El lobo más típico, de tamaño medio y pelaje grisáceo a oscuro. Habita en los bosques de Europa y Rusia, aunque ha desaparecido de muchos lugares donde habitaba antiguamente.

Habitualmente se divide esta subespecie en variedades, consideradas también en ocasiones como subespecies:

Lobo español o ibérico (Canis lupus signatus): Antaño presente en toda la Península Ibérica, estuvo a punto de extinguirse en los años 70, aunque pudo ser salvado gracias a la labor de varios naturalistas y divulgadores como Félix Rodríguez de la Fuente. Hoy es un animal protegido y se encuentra en expansión: se tiene noticia de que las poblaciones asentadas en Castilla y León están avanzando hacia Extremadura, Madrid y Guadalajara, Teruel,Soria y Zaragoza, Las poblaciones andaluzas han tenido menos suerte y parece que los últimos lobos de Sierra Morena Donde quedan unos 50-70 individuos. Abunda al noroeste de la Península, el lobo en pirineo y cataluña unos 30-50 individuos, es de la subespecie italica. El tamaño es medio, algo más pequeño que otros lobos europeos con un color pardo-grisáceo y manchas negras en los pies (de ahí el nombre signatus).

Lobo levantino (Canis lupus deitanus): Al igual que el lobo ibérico, fue nombrada por Cabrera en 1907, pero en este caso siempre ha habido muchas dudas de su autenticidad, pues fue descrito a partir de varios animales que estaban cautivos en Murcia y no se han observado en estado salvaje. Los lobos levantinos eran bastante más pequeños que los ibéricos, de pelo rojizo y corto. Probablemente los ejemplares de Cabrera fuesen sólo individuos aberrantes de lobo ibérico. En cualquier caso, no se tiene noticias de ellos desde principios del siglo XX. Se crre que este Lobo quizas no existio nunca.

 

Lobo italiano (Canis lupus italicus): De aspecto intermedio entre el lobo ibérico y el típico de Europa central y del este, habita los montes Apeninos, extendiéndose en la actualidad por la cordillera alpina italiana, francesa y hasta suiza. Algunos ejemplares han llegado recientemente al sur de Francia y al Pirineo catalán, incluso hay indicios de que han llegado al Mazizo de los Ports de Tortosa-Beseit, en la confluencia de Tarragona, Teruel y Castellón.

Lobo rumano (Canis lupus minor): Presente en Europa central y hoy en día bastante escaso, aunque sigue estando bien representado en los Balcanes.

Lobo ruso (Canis lupus communis): El más abundante de los lobos europeos y el de más amplia distribución, presente en Europa del este y Rusia, así como el sur de Siberia hasta el Océano Pacífico. Este es el Lobo más grande y corpulento de toda Eurasia, y casi del mundo, con individuos de mas de 100 kg de peso.

Lobo de tundra asiático (Canis lupus albus): Lobo de gran tamaño y pelo largo y claro, con el que hace frente al clima frío de las tundras eurasiáticas, desde Finlandia al estrecho de Bering y Kamchatka. Su distribución se superpone ocasionalmente con la del lobo ruso, aunque no frecuenta tanto los bosques como éste.

Sin duda uno de los mas bonitos lobos

Lobo árabe (Canis lupus arabs): Lobo pequeño (sólo 66 cm en la cruz) y delgado, de orejas más desarrolladas que los demás y pelo muy corto, de color grisáceo a amarillento, más oscuro en el dorso. Recuerda vagamente a un chacal. Habita en las zonas menos extremas del suroeste de la península Arábiga, por donde vaga en pequeños grupos.

Lobo estepario (Canis lupus campestris): En ocasiones se divide en dos variedades, desertorum y cubanensis (aunque ésta se considera otras veces como variedad del lobo tibetano). En ambos casos, se trata de lobos pequeños pero robustos, de pelo gris corto, adaptados a la vida en las estepas y desiertos de Rusia meridional y Asia central.

Lobo tibetano o del Himalaya (Canis lupus chanco): De color grisaceo claro casi blanquecino , presenta tonalidades pardas en la parte superior del cuerpo. Se distribuye por todo el Asia central llegando hasta Mongolia por el norte y al Himalaya occidental por el oeste. En menor medida se puede encontrar en la Península de Corea

Lobo de Hokkaido (Canis lupus hattai = Canis lupus rex)(†): Raza de lobo difundida antiguamente en la isla japonesa de Hokkaidō y tal vez en la isla de Sajalín, de tamaño medio y pelo pardo claro a gris-blanquecino. Se considera extinta en la actualidad.

File:エゾオオカミ剥製・開拓記念館19840914.jpg

Lobo de Honshu (Canis lupus hodophilax)(†): Pequeño lobo de color pardo que habitaba en zonas montañosas de las islas japonesas de Honshu, Shikoku y Kyushu. Las orejas y el morro corto lo asemejaban a un perro de la raza Akita Inu, su probable descendiente doméstico. Tradicionalmente considerado como un dios protector por la religión sintoísta, fue tolerado y alimentado desde antaño por los campesinos japoneses, por lo que esta subespecie se volvió bastante dócil con el tiempo. Todo cambió con la llegada de la Era Meiji, que consideró este animal como un peligro para las nuevas granjas y plantaciones al estilo occidental que se construyeron durante la modernización del país. La caza y la tala masiva de bosques lo llevó al borde de la extinción. Una epidemia de rabia le dio el golpe de gracia en 1905.

File:Honshu-wolf4.jpg

Lobo indio (Canis lupus pallipes): Parecido al lobo árabe, también de orejas desarrolladas y pelo corto, aunque más oscuro y de tamaño mayor. Se cree que fue uno de los primeros lobos domesticados y “padre” de varias razas de perros asiáticos actuales. Difundido desde Irán a la India central, hoy está en franca regresión debido a la caza y el mestizaje con perros asilvestrados.

Y el lobo africano o Egipcio  Canis Lupus Lupaster, recien descubierto en Marruecosm como apuntamos al inicio del Post

En 2012 se ha descrito Canis lupus maximus , una subespecie que vivió en Europa occidental durante el Pleistoceno superior; se trata de la más grande de las conocidas hasta ahora.

Lobos de Norteamérica:

Lobo gigante de Kenai (Canis lupus alces) (†): Gran lobo, mayor que cualquiera de las subespecies vivas en la actualidad, que habitaba en la Península de Kenai, al sur de Alaska. El nombre de este lobo proviene de su presa más frecuente, el alce (Alces alces). Fue cazado hasta su extinción en 1935.

Era una de las 4 subespecies que han sido clasificadas en Alaska. Se considera la subespecie de lobo gris más grande de cuantas han habitado y habitan en el planeta, recibiendo también el apelativo de lobo gigante de Kenai pues los machos pesaban una media de 90 kilos en estado adulto, con una altura en ocasiones superior a los 110 centímetros y una longitud incluyendo la cola superior a los 2 metros. Este importante tamaño le obligaba a alimentarse con mayor frecuencia y le permitía cazar a su principal presa, el alce, de donde derivó su nombre trinomial científico.

Los primeros ejemplares fueron descritos por colonos llegados a finales del siglo XIX a la Península de Kenai. La caza excesiva y sobre todo el envenenamiento diezmaron la población, como resultado hacia 1925 se produjeron los últimos avistamientos probados de ejemplares lo que hace que se establezca esta fecha como la más cercana a su extinción. Tiempo después algunos habitantes creen haber visto ejemplares en la zona si bien hasta la década de los años 60 no se volvieron a constatar fehacientemente la presencia en la región de lobos, supuestamente pertenecientes a otras subespecies , aunque se tiene constancia por estudios de adn que algunos ejemplares de lobo de la Península de Kenai se cruzaron con ejemplares pertenecientes a otras subespecies.Algunos expertos consideran que la falta de datos sobre su existencia tampoco garantiza su absoluta desaparición.

Kenai Peninsula Wolf 

El lobo gigante o lobo terrible (Canis dirus) es una especie de cánido extinto de gran tamaño que vivió desde América del Norte hasta las Pampas del centro de la Argentina durante el Pleistoceno. El yacimiento donde se han encontrado más restos de Canis dirus es el de Rancho La Brea, cerca de Los Ángeles, donde han aparecido unos 3500 esqueletos completos. Ciertas características presentes en este yacimiento invitan a pensar que los lobos terribles, al igual que muchos otros cánidos, eran animales sociables que vivían y cazaban en manada.

File:Canis dirus Sergiodlarosa.jpg

Lobo Ártico (Canis lupus arctos): Rivaliza en tamaño con el lobo de Alaska. Presenta una capa de pelo largo y totalmente blanco, en ocasiones rota por una poco marcada tonalidad grisácea en el dorso. Habita en las islas más septentrionales y banquisas de hielo del ártico canadiense.

Lobo mexicano (Canis lupus baileyi): Unico lobo presente en las tierras altas mexicanas, llegando por el norte hasta Nuevo México y Arizona, típico de los bosques de hoja perenne de la zona. El manto de pelo es claro en las patas y la parte inferior del cuerpo, y oscuro en dorso y frente. En el cuello hay una banda de pelo claro y más largo. En la actualidad sobreviven poco más de 600 ejemplares en zonas protegidas y parques zoológicos.

Lobo de Terranova (Canis lupus beothucus)(†): Subespecie desaparecida que habitó la isla de Terranova de color blanquecino, con un peso medio de 45 kilos y 180 centímetros de longitud.

De tamaño grande, coloración blanca en su parte inferior y negra en la superior fue visto como una amenaza por los colonos que llegaron a la zona, lo cual motivó su persecución hasta el punto de recompensar a los cazadores con 5 libras por cada ejemplar capturado por parte del gobierno colonial en 1839, siendo además responsabilizado del descenso de la población de caribúes. Su población se redujo drásticamente a medida que el siglo XIX avanzaba, siendo a principios del siglo XX muy pocos ejemplares los que sobrevivían. El último lobo cazado lo fue en 1911 aunque se cree pudo quedar algún ejemplar con vida, considerándose oficialmente extinto en 1930.

Su nombre científico deriva de los pobladores originarios de la isla , los beothuk, actualmente también extintos.

Lobo de Bernard (Canis lupus bernardi)(†): Lobo de pelo largo blanquecino, pardo en el lomo y con una raya negra a lo largo del dorso. Antiguamente difundido en el archipiélago Victoria, se extinguió como consecuencia de la caza en 1952.

Lobo de la Columbia Británica (Canis lupus columbianus)(†): Lobo de gran tamaño y pelo largo, de color marrón oscuro o negro. Hoy en día extinto, antiguamente estaba presente presente en la Columbia Británica, Alberta y el curso del Yukón.

Lobo de Vancúver (Canis lupus crassodon): Lobo de coloración gris-negra salpicada ocasionalmente de marrón, y tamaño medio, o blanco. Se encuentra en la isla canadiense de Vancúver.

Lobo de Florida (Canis lupus floridanus)(†): Actualmente extinta esta especie habitó los bosques de Florida de color negro

Lobo de las Montañas Cascade (Canis lupus fuscus)(†): De pelaje marrón oscuro salpicado de negro, extinto hacia 1940. Antes se encontraba a lo largo de la costa del Pacífico, desde el suroeste de Canadá hasta el norte de California

Lobo de Manitoba (Canis lupus griseoalbus)(†): Probablemente extinto, aunque a veces se producen avistamientos. Antes difundido en Manitoba central y el norte de Saskatchewan.

Fue descrito y catalogado por primera vez por el naturalista John Richardson a mediados del siglo XIX[3] pero al ser una especie muy apreciada por su piel rápidamente fue llevada a la extinción en estado salvaje, en torno a los primeros años del siglo XX, quedando algunos ejemplares en cautividad, empleándose posteriormente estos ejemplares para repoblar el Parque Yellowstone, lo que supuso algunas críticas por tratarse de una especie de mayor tamaño a los lobos que históricamente habitaron el parque, como el canis lupus irremotus, erradicados décadas atrás de dichas áreas. El mayor tamaño también supone mayor depredación, no siempre obtenida de la fauna salvaje, siendo un problema para muchos ganaderos que hacía tiempo dejaron de preocuparse al desaparecer el lobo de sus territorios.

Canis lupus irremotus, conocido también como el lobo del norte de las Montañas Rocosas, es una subespecie del lobo gris, Canis lupus, que se encuentra principalmente en el norte de la Montañas Rocosas y en los estados limítrofes de Estados Unidos

File:Canis lupus standing in snow.jpg

Lobo de la Bahía de Hudson (Canis lupus hudsonicus): Lobo de tamaño medio y pelaje largo y claro, nómada. Se desplaza siguiendo las migraciones de caribúes y se le puede encontrar en Alaska, Canadá y oeste de Estados Unidos. Se le confunde en ocasiones con el lobo de tundra americano.

Lobo de Labrador (Canis lupus labradorius): Lobo de coloración gris en todo el cuerpo, salpicada de blanco en algunos ejemplares. Habita en la Península de Labrador y norte de Québec.

File:Labrador Wolf.jpg

Lobo del Archipiélago Alexander (Canis lupus ligoni): Lobo pequeño de pelo corto y oscuro (generalmente negro) natural de las islas del Archipiélago Alexander, en el extremo sureste de Alaska. un lobo bellisimo.

derek alexander archipelago wolf (Canis lupus ligoni)

Lobo del este de EE. UU. (Canis lupus lycaon):  lobo rojo canadiense. Lobo de tamaño medio y coloración variable,tambien negro, antiguamente presente al este de Norteamérica, desde el sureste de Canadá a Florida, aunque hoy ha descendido mucho debido a la presión humana. Esta especie fue la primera que se describió en América del Norte (1775) y algunos autores la consideran una especie diferente de Canis lycaon.

El lobo del Mackenzie (Canis lupus occidentalis) es un lobo de gran tamaño de color variable entre el negro y el gris blanquecino. Fue descubierto en el valle del Río Mackenzie, de donde recibió el nombre. Su área de distribución se extiende desde el Océano Glacial Ártico hasta el norte de Alberta.quizas el mayor lobo que existe en la actualidad, junto con el Lobo ruso.

En su dieta incluye el bisonte, buey almizclero, alce, caribú, ciervo, y el uapití. El lobo del Mackenzie fue introducido en el Parque Nacional de Yellowstone para mantener controlada la población del bisonte americano de llanura, el bóvido más extendido, debido a su gran éxito de adaptabilidad a cualquier nuevo ambiente

Es una de las subespecies de lobo con la manadas mayores, entre 10 a 12 lobos, pudiendo alcanzar hasta 36 individuos, cubriendo bastos territorios de entre 900 km² a 1.500 km².

File:Lobo en el Zoo de Madrid 01 cropped.jpg

Este Lobo es del Zoo de Madrid

Lobo de Baffin (Canis lupus manningi): El más pequeño de los lobos árticos, no reconocido como subespecie independiente hasta 1943. Habita en la isla de Baffin y otras islas menores adyacentes. De color blanco casi exclusivamente

Lobo mogollón (Canis lupus mogollonensis)(†): Llamado así por los indios mogollón de Arizona y Nuevo México, en cuyas tierras habitaba. De pelaje normalmente oscuro, se extinguió en 1935  jeje, tiene guasa el nombre, pero así es

Lobo tejano (Canis lupus monstrabilis)(†): Lobo de pequeño tamaño y pelo oscuro, aunque algunos ejemplares presentaban ocasionalmente coloración blanca. Antiguamente difundido al oeste de Texas y Nuevo México, se extinguió en 1942.

Lobo de pradera (Canis lupus nubilus): Lobo de tamaño medio y pelo de color pardo claro, teñido de gris en cabeza y dorso, que usaba para camuflarse entre las hierbas de las grandes llanuras de EE. UU., desde el sur de Manitoba y Saskatchewan al norte de Texas. Se considera extinto de gran parte de EEUU desde mediados del siglo XX quedando algunas poblaciones al este de los Grandes Lagos principalmente en el estado de Minnesota

Lobo de Groenlandia ( Canis lupus orion): Subespecie de dudosa identidad, antaño difundida al noroeste de Groenlandia. Muchos biólogos la consideran una variedad del lobo ártico. Actualmente extinta o próxima a la extinción.Sujeta a una fuerte controversia debido a su proximidad a la gama del lobo ártico , el Lobo de Groenlandia ha sido puesto en duda como subespecie por diversos autores, que lo cosideraban en realidad parte de los lobos árticos. La mayoría de los biólogos, no obstante, aceptan el hecho de que el Lobo de Groenlandia emigrara desde Canadá atravesando el hielo del mar congelado entre las dos regiones, una actividad que a menudo se documenta en los tiempos modernos, cuando el estrecho de Nares se congela. Se cree que pudieron ser ejemplares llegados desde otras zonas del norte de América que quedaron atrapados en el norte de la isla durante la Glaciación de Wisconsin, expandiéndose tiempo después por el resto de la isla y llegando a otras islas cercanas como las Islas de la Reina Isabel. Uno de los principales problemas para su clasificación radica en el hecho de que la población de lobos es muy baja en Groenlandia dificultando su localización y estudio e impidiendo su comparación con los estudios realizados sobre otras subespecies de lobo residentes en otras regiones de Norteamérica que se encuentran mejor estudiadas y documentadas

Lobo de Alaska (Canis lupus pambasileus): Difundido en los bosques de Alaska y el noroeste de Canadá, de color gris, casi negro en el dorso y frente, similar a un perro de raza Husky. Actualmente, es uno de los lobos más grandes de América y probablemente del mundo, tammbien llamado Lobo del Yukon

Vive en manadas en torno a los 8 ejemplares, en itinerancia, en ocasiones siguiendo a sus presas habituales. Estudios recientes confirman que en algunas zonas de su hábitat está afectado por enfermedades como el moquillo o la rabia que repercute en su población.

Antes de la llegada de los europeos a norteamérica los aborígenes cazaban a esta especie por su apreciada piel, algo que los colonizadores siguieron practicando, incluso con el fin de vender la piel a las poblaciones autóctonas, si bien más tarde ante el aumento de la población humana se sumó el envenenamiento como uso para diezmar a las poblaciones de lobos en parte por los conflictos surgidos , en parte por el estigma que esta especie suele tener. Hasta la década de los 50 del siglo XX no se realizaron censos sobre la población y estado de la especie.

En la actualidad existe cierta polémica dado que el gobierno de Alaska presidido por Sarah Palin ha incentivado la caza aérea de lobos y otras especies como osos aludiendo que es necesario controlar su población proponiendo incluso el pago de 150$ por cada ejemplar cazado, algo que finalmente no pudo aprobarse dado que las recompensas a cazadores están prohibidas desde la década de los 90 del siglo XX. Grupos ecologistas, de ciudadanos e incluso personajes famosos han protestado por tal decisión y cuestionan que estas especies presenten superabundancia. Otros alegan razones políticas a tales críticas.

 

“El Lobo, como todo animal salvaje, tiene el derecho de existir en su estado natural. Este derecho no depende de su utilidad para el Hombre, y deriva del que tienen todos los seres vivos a coexistir con él como parte integrante de los sistemas ecológicos”.
I Reunión Internacional para la Conservación del Lobo en Europa.
Estocolmo, 1.973.

Se cree que actualmente hay en todo el mundo unos  200.000 Lobos, solo en Alaska-Canada unos 60.000 ejemplares, y en Siberia unos 50.000, más de la mitad de la poblacion mundial, el resto se reparte en el resto del mundo, sobre todo en el hemisferio Norte.

Esperemos que estos datos puedan llegar un dia a los 500.000 ejemplares, para la viavilidad futura de la especie a largo plazo.

El Lobo Iberico:

El lobo ibérico (Canis lupus signatus) es una subespecie de lobo (Canis lupus) endémica de la península ibérica.

Alcanza un tamaño medio, algo más pequeño que otros lobos europeos. Los machos alcanzan entre 130 y 180 cm de longitud, y las hembras entre 130 y 160 cm. La altura de cruz puede llegar a los 70 cm. Los machos adultos pesan generalmente entre 30 y 40 kg, y las hembras pesan de 20 a 35 kg.

Tienen la cabeza grande y maciza, orejas triangulares relativamente pequeñas y ojos oblicuos de color amarillento. El hocico presenta unas manchas blancas en los belfos denominadas bigoteras. Su pelaje es heterogéneo, de tal forma que se describen unas franjas longitudinales oscuras o negras cubriendo la parte anterior de sus dos patas delanteras, una mancha oscura a lo largo de la cola, y otra mancha oscura alrededor de la cruz a la que se le conoce como silla de montar.

El conjunto de estas marcas o manchas oscuras, son las que le han dado el nombre “signatus” a esta subespecie de lobo, puesto que “signatus” (en latín) significa “signado” o ‘”marcado”‘.

Los lobeznos al nacer presentan tonos oscuros uniformes.

En movimiento llama la atención el poderío de los cuartos delanteros en relación a la grupa, levemente caída.

Este lobo es uno de los pocos grandes carnívoros que existen en la Península Ibérica, y como depredador, se alimenta básicamente de las presas que caza, grandes herbívoros y otros mamíferos de porte menor. El lobo es un carnívoro depredador. La mayor parte de su dieta está compuesta por presas cazadas, aunque ocasionalmente puede competir con aves carroñeras por los restos de animales que han muerto de forma natural o por accidente, así como por restos provenientes de vertederos cercanos a núcleos de población humana. También es conocido el hábito, en determinadas estaciones, de consumir alimentos de origen vegetal, tales como frutos silvestres.

El doctor Félix Rodríguez de la Fuente, realizó diferentes estudios para concretar la dieta del lobo ibérico en España, y según los resultados extraídos, esta podría estar compuesta por: grandes mamíferos (como corzos, muflones, ciervos…) en un 35%, ovejas en un 24%, conejos en un 14%, ratones de campo en un 9%, carroña un 7%, reptiles y aves en un 5%, insectos y vegetales un 4%, y otros carnívoros (como zorros o perros) en un 2%.

Actualmente el Corzo es la presa nº1 del lobo, el corzo se esta expandiendo muy bien por toda la peninsula Iberica, observemos su distribucion….y miremos la del lobo

Distribucion del Corzo, datos 2010

Y observese la del Lobo, año 2010

Como se observa, casí se calcan la distribucion

La poblacion actual del Lobo iberico, se situa en torno a los 2.500 individuos con una horquilla de 2000-3000, si incluimos los Lobos Portugueses

El lobo ibérico es considerado por algunos especialistas como una sub-especie (Canis lupus signatus) del Canis lupus, aunque esto sigue siendo rechazado por muchos. Se dice que este animal se distingue por las marcas negras a lo largo de su cola, en la espalda, y en las patas delanteras. Más del 50% de estos animales se encuentran en el norte de Castilla y León (aproximadamente 1000-1.500 lobos ibéricos), y menos del 35% en Galicia (aproximadamente de 500-700 lobos ibéricos), y la mayor densidad de población se encuentra en el noreste de Zamora (5-7 lobos/100km2). Una vez los lobos estuvieron presentes en toda la península ibérica, pero ahora están exiliados al Nordeste (Asturias, León, Norte de Castilla, Galicia), y algunas poblaciones están en la Sierra Morena (Jaén y Cuenca). Sin embargo recientemente, se las han arreglado para cruzar de nuevo la barrera, lo que hoy en día es el río Duero y han comenzado a extenderse hacia el sur y hacia el este: se han detectado dos grupos cerca de Guadalajara y han comenzado a moverse en Teruel, en el sur de Aragón.

El lobo es nuestro amigo, no nuestro enemigo, como muchos interesados nos quieren hacer creer, hay que luchar codo con codo, para que vuelva a ocupar nuestros montes y bosques como antaño.

E lobo solo produce un 1 por ciento de muertes de ganado, cuando la mortalidad natural del ganado, llega a un 5 por ciento, que no nos engañen…..

Que la muerte del Lobo Marley, sirva para concienciar a todos, para proteger el mejor regalo que nos dejo la naturaleza.

El lobo ibérico sufre el acoso de la ignorancia y el miedo de una parte de la sociedad que lo esta empujando a un abismo donde queda más cercana su extinción que su estabilidad como especie.  Los últimos acontecimientos, ocurridos este verano donde un lobo con collar GPS era protagonista de un estudio cientifico en el Parque Nacional de Picos de Europa y fue abatido a tiros por la propia guardería del parque han desatado la caja de los truenos de cientos de naturalistas. Conservacionistas independientes que han alzado su voz en contra de estas políticas.

Además algunos naturalistas y biologos de prestigio cuestionan los informes oficiales sobre el crecimiento de la presencia del  lobo en la peninsula ibérica. Datos que son cortinas de humo para aparentar un crecimiento general y paulatino que excuse de las nuevas ideas y licencias para abatir piezas muy codiciadas.

Políticas retrogradas como aseguran estos mismos naturalistas que nos devuelven a décadas pasadas y ensombrecen la verdadera imagen del lobo ibérico.  De otra parte esta el actual papel de algunas organizaciones ecologistas de renombre que parecen mirar a otro lado, más pendientes de las subvenciones y del amiguismo que de la propia defensa de la naturaleza y más en un tema tan importante como el lobo ibérico, especie totemica y arraigada en el acerbo cultural de nuestro país.

Primero fue Feliz Rodriguez de la Fuente, quien inicio la cruzada para salvar al lobo, Ahora tenemos a Luis Miguel Dominguez, al frente de nuestra causa, Así que apoyemosle, para conseguir salvar al lobo.

http://marleylobo.blogspot.com.es/

https://www.facebook.com/pages/Lobo-Marley/107099882777002

http://www.youtube.com/watch?v=Hira2pG5unY

El Lobo es tu mejor amigo, no lo olvides…..

Hagamos que este mapa se llene…

Una belleza que depende de nosotros para sobrevivir…..Ayudemos al hermano Lobo

Publicado octubre 18, 2012 por astroblogspain en Uncategorized

La pequeña edad de Hielo   Leave a comment

Desde el final de la Edad Media hasta casi acabado el siglo XIX, la Tierra pasó por un largo período de enfriamiento que los científicos denominan Pequeña Edad de Hielo.

Los científicos estiman que los comienzos de la Pequeña Edad de Hielo se produjeron del siglo XIII al XVI, pero hay poco consenso al respecto. Aunque las temperaturas de enfriamiento pudieron afectar a lugares tan lejanos como América del Sur y China, se hizo particularmente evidente en el norte de Europa. El avance de los glaciares de los valles de montaña destruyó pueblos alpinos y las pinturas de la época muestran a la gente patinando sobre hielo en el río Támesis en Londres y en los canales de los Países Bajos, lugares que estaban libres de hielo antes y después.

La forma dominante en la que los científicos han definido la Pequeña Edad de Hielo es por la expansión de los glaciares en los Alpes y en Noruega», apunta Miller. «Pero el tiempo en que los glaciares europeos avanzaron lo suficiente como para demoler pueblos enteros sucedió mucho tiempo después del inicio del período de frío».

fecharon con radiocarbono cerca de 150 muestras de material vegetal muerto con las raíces intactas, recogidas en la isla de Baffin, en el Ártico canadiense. Encontraron un gran número de muestras de entre 1275 y 1300, lo que indica que las plantas habían sido congeladas y envueltas por el hielo por un acontecimiento relativamente repentino. El equipo halló un segundo repunte de muestras de plantas congeladas sobre el año 1450, lo que indica un segund0 enfriamiento.

Este periodo frio coincidio con lo que llamamos Minimo de Maunder:

El mínimo de Maunder:
¿Qué le sucedió al Sol entre 1645 y 1715?

Pues parece ser que, durante ese periodo, nuestra estrella tuvo una actividad tan baja que, en la Tierra, se padeció un periodo conocido como la “Pequeña Edad de Hielo”, en el que los ríos se congelaron, hubo cosechas insuficientes para alimentar a la población, las enfermedades diezmaron a las gentes y, en general, se sufrió mucho para poder sobrevivir. ¿Qué le ocurrió al Sol para cambiar tanto y tan repentinamente?
 
o cabe duda de que consideramos al Sol como un astro bastante constante. Su majestuoso y seguro recorrido por nuestro cielo nos hace pensar que es el ejemplo perfecto de regularidad. Y, sin embargo, son muy numerosos los indicios que apoyan la idea de que el Sol no ha mantenido el mismo nivel de actividad durante el último milenio. ¿Ha tenido pues nuestra estrella episodios de “energía” menguada, en los que las manifestaciones de su gran poder han sido puntuales e infrecuentes? Y, en particular, parece ser que entre la segunda mitad del siglo XVII y principios del XVIII su actividad era tan insignificante que la Tierra, al no recibir la cantidad de radiación suficiente, casi enferma de hipotermia planetaria. ¿Tuvo lugar realmente ese periodo de frío intenso hace más de dos siglos, y si es así, por qué sucedió?
Sol...
Figura 1: imagen del Sol y sus manchas solares, muestra de su actividad. (NASA)
Todo empieza en 1843. Heinrich Samuel Schwabe (1789-1875), farmacéutico alemán aficionado a la Astronomía, con el ánimo de encontrar a Vulcano, un hipotético planeta entre el Sol y Mercurio, inicia una exhaustiva recopilación de sus observaciones disponibles de las manchas solares (abarcaban desde 1826), que son las más evidentes manifestaciones de la actividad solar (figura 1). Descubrió que su número varía periódicamente. En años apenas se veían, después en unos pocos aumentaban en cantidad, manteniéndose en número a lo largo de un par de años, y por último, poco a poco empezaban a menguar durante cinco o seis años más. En total, once años, aproximadamente, en los que era claro que existía un ciclo, con máximos en los que se observaban gran cantidad de manchas solares y mínimos en los que apenas de distinguían.Otros astrónomos pronto continuaron la labor de Schwabe, mejorando el rigor de las observaciones, pero medio siglo después de que él empezara su tarea, en 1893, Edward Walter Maunder, del Royal Greenwich Observatory, en Gran Bretaña, decidió construir la llamada ’curva undecanal’, es decir, mostrar en un gráfico la actividad solar durante un extenso periodo de tiempo. Se basó en observaciones fiables de Galileo Galilei (1564-1642) y de otros astrónomos de la época para el intervalo que abarcaba desde la aplicación del telescopio hasta 1700.

Maunder constató, asombrado, que a partir de 1643, las observaciones no incluían la presencia de grandes cantidades de manchas solares. De hecho, no había casi ninguna anotación entre ese año e inicios del siglo XVIII. Para divulgar sus hallazgos, Maunder publicó en 1894 un artículo en el que llegaba a una conclusión extraordinaria: durante casi setenta años, en el intervalo que abarca desde 1645 hasta 1717, el Sol no había mostrado prácticamente ni una mancha en su superficie (1). Y esto es extraordinario porque incluso en los momentos de menor actividad, casi siempre es posible ver alguna. No se estaba considerando no observar manchas solares durante un mínimo, que abarca dos o tres años, sino a lo largo de seis largos ciclos de actividad solar. Es más, parece ser que las manchas observadas en todo ese espacio de tiempo era más o menos similar a las vistas en un mínimo cualquiera. Y aún algo más increíble; según el estudio de Maunder, existía una década (desde 1660 hasta 1670), en la que nadie, absolutamente nadie, había podido detectar una sola mancha solar. En otras palabras, durante un ciclo entero, el Sol había evidenciado un funcionamiento mínimo, al relantí, algo traducido en su superficie como inexistencia total de manchas. Un descubrimiento tan sorprendente e importante merece encuadrar a Maunder dentro del reducido grupo de astrónomos que con sus aportaciones han cambiado radicalmente la visión que teníamos del Universo. Maunder nos reveló que el Sol cambia, que su vida no ha sido siempre igual de monótona, sino que ha padecido periodos en los que reducía su actividad a la mínima expresión, algo que no era esperable de ninguna manera en un astro tan estable.

Pero Maunder no tuvo suerte. Su artículo fue seguido por muy pocos astrónomos, aunque para realizarlo había contado con la ayuda en la documentación de otros compañeros observadores. Y si nadie confió en lo que Maunder decía fue debido más a una cuestión de fe en las teorías establecidas que por fallos o errores en la teoría del astrónomo inglés. El único punto débil que podía achacársele a Maunder fue sustentar sus ideas en una base de datos carente de la total fiabilidad. En efecto, los registros no ofrecían mucha seguridad de que fueran correctos o cuidados. Aunque fueran los más numerosos, los informes poco fiables estaban confirmados por los de otros magnos astrónomos, de los cuales no cabía duda razonable alguna de su buen hacer como observadores, ya que su vida estaba llena de importantes y difíciles descubrimientos, pero ni aún así Maunder recibió la atención que merecía.

John Flamsteed (1646-1720) primer astrónomo real inglés, de gran reputación y agudeza visual (preparó un catálogo de 3.000 estrellas en el que consignaba su posición con una precisión de 10 segundos de arco, una verdadera hazaña para la época), reseñó que por fin había podido observar una mancha solar, tras varios años intentándolo.

Por otra parte, el no menos célebre Giovanni Domenico Cassini (1625-1712), bastante antes que Flamsteed, conservaba observaciones muy antiguas, desde prácticamente 1645, es decir, a partir de cuando Maunder había considerado el inicio de su periodo de escasa actividad. Lo que Cassini escribió en 1671 se convertiría en una importante baza a favor de la teoría de Edward Maunder: aquel año, el astrónomo italo-francés había visto una mancha solar; por primera vez en …¡veinte años!. Cassini no era precisamente un astrónomo de poca habilidad visual. Para los que conozcan un poco a este extraordinario observador, recordar que además de descubrir la banda oscura entre los anillos de Saturno (división de Cassini), efectuó multitud de estudios sobre la rotación de Marte, las cinturones nubosos de Júpiter, las distancias planetarias, etc. En otras palabras, era uno de los astrónomos de mayor capacidad y talento que han existido. Si Cassini había visto una mancha solar después de veinte años de no captar ninguna, había, por fuerza, que creerle.

Asimismo, el francés Jean Picard (1620-1682) dejó escrito que el llevaba una década entera sin avistar ninguna mancha hasta que por fin vio una, precisamente en 1671, el mismo año que Cassini.

Sin embargo, el recelo a aceptar los estudios de Maunder era por otros motivos. Tal vez aunque el mismo Newton hubiera certificado la inexistencia de manchas solares durante prácticamente toda su vida (curiosamente casi coincide con el periodo de que estamos hablando, 1642-1727), los científicos de principios del siglo pasado continuarían obcecados en rechazarlo. Y esto es así porque lo que Maunder estaba destrozando la visión aceptada de un Sol con un ciclo de actividad perfectamente establecido, de once años, que se había constatado al milímetro durante los últimos 170 años (figura 2).

Figura 2: recuento del número de manchas observadas en la fotosfera solar desde los primeros registros telescópicos (hacia 1610) hasta 1998. Es clara la perfecta periodicidad de aproximadamente once años que presenta el ciclo solar, pues desde 1720 hasta la actualidad se ha presentado sin apenas modificaciones. El periodo de escasas o nulas manchas solares también aparece con nitidez entre 1645 y 1715, y con anterioridad (1610-1645) las anotaciones, aunque fragmentarias, evidencian que se registraban bastantes manchas solares. (A. A. González Coroas)
Lo extraño es que antes incluso del periodo de mínimas manchas solares, es decir, el intervalo que abarca entre las primeras observaciones telescópicas (hacia 1610) y el inicio del propio mínimo (1645), han quedado registradas gran cantidad de manchas, en especial en 1615, cuando parece ser que se alcanzaron valores cercanos a los de un máximo solar normal. En otras palabras, antes y después del periodo que estamos analizando había manchas en número abundante, y entre 1645 y 1715 apenas aparecen unas pocas. Su escaso o nulo número es constatado por observadores prestigiosos y así lo recoge y expone Maunder a la Royal Astronomical Society. Pero nadie le reconoce su acertado enfoque del fenómeno.De hecho, ha de pasar prácticamente tres cuartos de siglo hasta que se redescubre el trabajo de Maunder. Incluso en una época tan próxima a nosotros como 1965 se continuaba ignorando el prolongado mínimo de manchas solares, sobretodo porque se creía que en ese intervalo de tiempo los datos no eran fiables, aunque ya hemos visto que no era así. Incluso un científico de la talla de George Gamow (1904-1968), en su famoso libro “Una estrella llamada Sol”, de 1964, iniciaba el recuento de manchas desde 1750, prácticamente a partir del fin del mínimo de Maunder (figura 3).
Figura 3: gráfico extraído de la obra de G. Gamow “Una estrella llamada Sol”, en el que se observa que considera el inicio de los registros fiables en 1750, justo después de finalizar el mínimo de Maunder. (G. Gamow)
Debemos esperar hasta 1970 para que el astrónomo solar John A. Eddy (High Altitude Observatory, Colorado, EE.UU.) analizara los estudios de Maunder con nuevos datos y observaciones a las que este último no tenía acceso, y publicara a su vez un artículo donde certificaba que las ideas de Maunder eran esencialmente correctas, bautizando como “Mínimo de Maunder“ el periodo correspondiente entre 1645 y 1720. Eddy apoyó sus conclusiones en una serie de importantes premisas (2), entre las que caben destacar sobretodo tres puntos, a saber: la cantidad de auroras visibles en ese intervalo, el análisis del 14C (carbono 14) en los anillos de crecimiento de los árboles, y el clima que sufrió nuestro planeta durante el propio Mínimo.1) Las auroras (figura 4), esos magníficos espectáculos de luz que pueden observarse en altas y bajas latitudes (auroras boreales y australes), son debidas a que partículas energéticas procedentes del Sol, generalmente expulsadas tras la aparición de fáculas en la superficie de la estrella, alcanzan a la Tierra, y son desviadas por nuestro campo magnético hacia las regiones polares, donde entran en contacto con la alta atmósfera del planeta y se ionizan, es decir, los átomos pierden o ganan electrones y, por tanto, ya no son neutros, sino que adquieren carga eléctrica. Esta ionización de las partículas solares provoca la excitación de los átomos de oxígeno y nitrógeno presentes en la misma ionosfera, lo que se traduce en la formación de brillantes auroras. Bien, las auroras son, por tanto, una manifestación de la actividad solar. Cuando el Sol está muy activo y son abundantes las fáculas en su superficie, se expulsan gran cantidad de partículas de alta energía, llegan a los polos terrestres y excitan los átomos de la ionosfera. A mayor número de partículas, más auroras y de mayor intensidad en su brillo podremos observar.
Auroras
Figura 4: imagen tomada desde el trasbordador espacial Discovery en la misión STS-39 de una aurora austral. (NASA)
Si la actividad solar durante el Mínimo de Maunder hubiera sido tan baja, los registros de auroras, por fuerza, deberían ser a su vez igual de escasos, y aquí no había posibilidad alguna de error en las observaciones, pues para ver una aurora el único requisito es hallarse en una zona cuánto más próxima al polo mejor. Son tan brillantes y espectaculares que a simple vista es el mejor método para disfrutarlas.

Figura 5: gráfica con el número de auroras aparecidas en cada década desde el año 275 hasta 1730, según diferentes archivos históricos. (Modificado de “Sunspot cycles”, D.J. Schove)
Eddy estudió a conciencia los archivos, y constató que, por término medio, en los pueblos europeos de la época, durante los 70 años del Mínimo de Maunder las auroras que deberían haberse observado, según la extrapolación, sería de entre 1.000 y 5.000. Sorprendente es el hecho de no haber quedado registradas más que unas pocas decenas (figura 5), y parece ser que hubo un periodo de algunos años en el que no se vio ni una sola aurora.Consecuentemente, tenemos que las auroras, que son una consecuencia de la actividad solar, apenas fueron observadas durante justamente el mismo intervalo de tiempo en que en el Sol el número de manchas solares era muy bajo o inexistente. Es una prueba más, por tanto, de que efectivamente entre 1645 y 1720 nuestra estrella sufrió un mínimo importante.

2) En segundo lugar, como indicio tal vez aún más importante que el anterior, es el hecho de encontrar en la dendrocronología y en el análisis del 14C en los árboles un apoyo extraordinario a las ideas de Maunder. La dendrocronología es el estudio de los anillos de crecimiento de los árboles centenarios o milenarios, para extraer información sobre las condiciones climáticas del pasado de nuestro planeta. Como si de un calendario de la vida del propio árbol se tratara, cada uno de sus anillos corresponde a un año de crecimiento. Contando los anillos concéntricos, desde el más interno (el más antiguo en edad, que pertenece a las primeras etapas de existencia del árbol) hasta el más externo se puede calcular su edad aproximada. Pero lo más interesante de la cuestión es que no todos los años quedan registrados por igual. Cuando las condiciones climáticas son benignas, el espesor del anillo es mayor, y cuando el año ha sido más duro, el anillo es muy estrecho. En realidad, y aunque parezca extraño, entre dos anillos gruesos (o sea, entre dos años benignos), se pueden contar, más o menos, 10 anillos de menor espesor. Se desprende, pues, que en los anillos de los árboles quedan registrados los ciclos de actividad solar (o mejor dicho, lo que queda registrado es la variación climática en la Tierra, que a su vez depende bastante de la actividad solar).

Además, lo más trascendente del asunto es que en los mismos árboles podemos encontrar la cantidad de 14C que ha sido absorbida por ellos en cada periodo de tiempo. Aunque esto no parezca importante, es sin embargo el punto culminante en la demostración de la existencia del Mínimo de Maunder.

El carbono 14 se produce al impactar los rayos cósmicos en el campo magnético terrestre. Los rayos cósmicos son partículas de alta energía, procedentes del Sol (3). Son capaces de causar modificaciones genéticas en los seres vivos si llegaran a la superficie terrestre. Gracias a la acción protectora de nuestro campo magnético, una especie de caparazón que engloba a la Tierra, los rayos cósmicos no causan daños de importancia. Pero una pequeña cantidad de rayos cósmicos llega a la alta atmósfera, donde tiene lugar una reacción que produce 14C. El carbono se incorpora a los árboles, y la relación de este 14C con el 12C (el carbono “normal” del árbol), que se depositan cada año, nos informará sobre la actividad solar de este modo: si el Sol muestra una actividad elevada, en la relación 14C-12C, dominará el 12C, al no haberse fijado apenas 14C. Por contra, si la actividad solar es baja, nuestro campo magnético no tendrá la fuerza suficiente para repeler los rayos cósmicos, éstos impactarán en la atmósfera y formarán mucho 14C. Al revisar los archivos de la relación 14C-12C en el pasado, si el 14C destaca notablemente, será lógico suponer que entonces la actividad solar fue baja. ¿Cuál fue la proporción 14C-12C durante el Mínimo de Maunder?

Para saberlo, debemos observar un gráfico (figura 6) en el que nos muestren el ritmo de producción del 14C con respecto a los años, e ir descubriendo si ha habido intervalos de tiempo en los que la relación del 14C-12C ha sido inhabitual.

Lo que más destaca del gráfico en cuestión es que ha habido varios periodos en los cuales el 14C tenía una proporción muy alta con respecto al 12C, es decir, que el Sol mostraba poca actividad. A medida que nos acercamos hasta las fechas más recientes podemos ver que en el siglo XI hubo un nivel muy alto de 14C (algo que se corresponde con el Mínimo de Norman, 1010-1090), otro aún más profundo hacia el siglo XIV (Mínimo de Wolf, 1280-1350), y el más intenso de todos, que abarca todo el siglo XV (Mínimo de Spörer, 1400-1510). No obstante estos datos, todavía no puede afirmarse de manera rotunda la existencia de estos mínimos, porque no están corroborados con pruebas suficientes. En cambio, hacia el final del gráfico hay otro máximo de producción de 14C, que sin duda alguna corresponde al Mínimo de Maunder.

Figura 6: gráfico con la relación de 14C-12C medida en árboles centenarios y milenarios. La proporción positiva indica una mayor absorción del 14C y, por tanto, un debilitamiento en la actividad solar. El Mínimo de Maunder está representado al final del gráfico, y es, junto con el de Spörer, el más profundo de todo el registro.
La comparación entre el gráfico de la aparición de las auroras y el de la producción de 14C evidencia que existe una fuerte conexión entre ambos. Estos dos métodos para el estudio de la actividad solar son suficientes por sí mismos para considerar que el Mínimo de Maunder tuvo lugar realmente, o, al menos, que entre 1645 y 1720 el Sol padeció un intervalo de casi total inanición.Pero aún resta analizar otro punto fundamental: ¿qué le ocurrió a nuestro planeta durante el Mínimo? Acabamos de ver que las auroras fueron muy escasas, y que los árboles absorbieron mucho 14C, signos ambos de una baja actividad solar. Pero, en la Tierra, ¿el clima cambió? Es de suponer que si el Sol no manifestó actividad, el planeta debió sufrir alguna consecuencia climática. ¿Qué nos dicen los registros de la historia al respecto?

Si analizamos los archivos de temperatura disponibles, ya no sólo desde el siglo XVII, sino desde hace unos pocos miles de años, podemos correlacionar mejor la posible correspondencia entre actividad solar y clima terrestre (figura 7). Vemos que hacia principios del segundo milenio la temperatura había alcanzado un máximo muy destacado; era una época cálida. Seguidamente entramos en un periodo gradualmente más frío, que llega al mínimo de calor recibido hacia mediados de milenio (siglo XVI). A partir de entonces la temperatura fue aumentando poco a poco, y aunque en Groenlandia durante el siglo XVIII hubo casi un siglo de normalidad climática, y posteriormente se inició otro intervalo de mínimo térmico, esto no fue lo habitual en otros sitios. Ese periodo frío de entre el año 1500 y 1800, la “Pequeña Edad del Hielo”, tiene una fuerte conexión con el Mínimo de Maunder, y se apoya en las evidencias indirectas de formación de auroras y 14C que hemos visto.

Figura 7: medidas de la temperatura registrada en Groenlandia durante los últimos 2.500 años, obtenidas mediante la recogida de muestras de hielo. (A. Uriarte)
Son muy numerosas las diferentes manifestaciones culturales del siglo XVII y XVIII en las que aparecen representados los momentos cotidianos de las gentes de la época. Pueden llamar la atención muchas cosas, pero si observamos, por ejemplo, cuadros ingleses que muestran al río Támesis, comprobaremos asombrados que las fiestas populares no se organizaban en las calles londinenses, como sería de esperar, sino que tenían lugar… ¡sobre el mismo río! No es que los ingleses fueran capaces de permanecer flotando por encima del agua, sino que el Támesis estaba ¡totalmente congelado!. Algo tan insólito no es en absoluto habitual. Incluso en los periodos de mayor dureza climática la historia no habla de tal hecho a lo largo de los siglos.Y en España también hay otras muestras de que en nuestro país se sufrió y mucho durante la época del Mínimo de Maunder. De hecho, y aunque esto corresponda más a motivos políticos y económicos, el siglo XVII y XVIII fue el de la decadencia del imperio español. En particular, si durante el siglo XVI se vivió cierta prosperidad tanto económica como demográfica, en el XVII se produjo una drástica reducción de la población, ya que parece ser que hubo una mortalidad extraordinaria entre 1600 y 1700 (en ésta última fecha era de siete millones de habitantes, cuando en un censo aproximado de 1590 se totalizaban 8.120.000 personas). El Mínimo de Maunder se tradujo en epidemias de peste bubónica especialmente virulentas (hubo tres brotes que causaron cerca de un millón de bajas). Además, las cosechas fueron tal vez las peores de la historia desde la modernización (relativa) de la agricultura, lo que originó desnutrición entre la mayoría de la población (algo que consecuentemente propició sublevaciones y revoluciones). A esto hay que añadir la contaminación de las aguas, desastres naturales… en fin, todo un cúmulo de infortunios para los españoles, que vieron desaparecer su dominio en Europa y, posteriormente, también en América.

En general, y de acuerdo con las mediciones recogidas en varios puntos del planeta, se puede afirmar con cierta seguridad que la Tierra padeció una disminución de temperatura de un grado por término medio. Los motivos de un Sol cambiante tan repentina y drásticamente no han sido puestos de manifiesto aún (aunque J. Eddy ha especulado con la posibilidad de que se debiera a una reducción del tamaño de nuestra estrella, tal extremo no se ha visto confirmado lo suficiente). El Mínimo de Maunder nos ha mostrado a un Sol muy diferente del que estamos acostumbrados a ver y sentir. Para poder afrontar futuros mínimos (o máximos) solares extraordinarios con la seguridad adecuada, es imprescindible estudiar más y mejor al Sol, comprender por qué varía su actividad y, en todo caso, aceptar que la Tierra no es un sistema cerrado a la que no le afectan los elementos externos a ella, sino que, como de un ser vivo se tratara, sufre y siente los cambios y se adapta a ellos en la medida de sus posibilidades.

Volveremos a sufrir un minimo..?

 

Antes de la pequeña edad de Hielo, o minimo de Maunder, hubo un periodo muy calido, como refleja el grafico, que se conoce como periodo calido medieval

File:2000 Year Temperature Comparison.png

El período cálido medieval u óptimo climático medieval fue un periodo de clima extraordinariamente caluroso en la región del Atlántico norte, que duró desde el siglo X hasta el siglo XIV. No se ha alcanzado una conclusión definitiva sobre la existencia del mismo fuera de dicha región.

El óptimo climático medieval se cita a menudo en las discusiones del calentamiento global y el efecto invernadero. Algunos se refieren al suceso como Anomalía Climática Medieval; este término enfático revela de otra manera que la temperatura fue el parámetro más importante

El Período Caluroso Medieval fue un periodo extraordinariamente caluroso alrededor de 800-1300 DC, durante el Medievo europeo. La investigación inicial del Óptimo Climático Medieval y de la posterior Pequeña Edad de Hielo se realizó principalmente en Europa, dónde el fenómeno fue muy obvio y claramente documentado.

Inicialmente se creyó que los cambios de temperatura eran globales. Sin embargo, esta visión se ha cuestionado; el informe del IPCC en 2001 se resume diciendo:«(…) la evidencia actual no apoya períodos globalmente sincronizados de frío anómalo o calor moderado, y los términos Pequeña Edad de Hielo y Óptimo Climático Medieval parecen tener una limitada utilidad como descripción de tendencias de cambios en la temperatura media global o de hemisferios en siglos pasados».[ Los registros de temperaturas globales obtenidos a partir de bloques de hielo, anillos de árboles y depósitos lacustres demuestran que, globalmente, la Tierra puede haber tenido una temperatura ligeramente más fría (unos 0,03 grados Celsius) durante el ‘Periodo Calido Medieval’ que a principio y mitad del siglo XX. Crowley and Lowery observan que «no hay documentación suficiente de su existencia en el hemisferio austral».

Los Paleoclimatólogos, que desarrollan reconstrucciones regionales del clima en siglos anteriores, etiquetan el intervalo más frío como la Pequeña Edad de Hielo y el intervalo más caluroso como el Óptimo Climático Medieval. Otros siguen la convención y cuando un suceso significativo del clima se encuentra en los periodos de la “pequeña edad de hielo” o de “el óptimo climático medieval”, asocian sus eventos al período. Algunos sucesos del Óptimo Climático Medieval son eventos lluviosos o eventos fríos en lugar de los eventos estrictamente calurosos, particularmente en la región Antártica central, donde se han observado patrones climáticos opuestos a los del Atlántico Norte.

El Óptimo Climático Medieval coincide parcialmente con el máximo en la actividad del Sol (ver variación solar) denominado Máximo Medieval (11001250).

Durante el Óptimo Climático Medieval el cultivo de la uva y la producción de vino crecieron tanto en el norte de Europa como en el sur de Bretaña. Los vikingos se aprovecharon de la desaparición del hielo en los mares para colonizar Groenlandia y otras tierras periféricas del norte canadiense. El Óptimo Climático Medieval fue seguido por la Pequeña Edad de Hielo, un período más frío que duró hasta el siglo XIX, cuando empezó el período actual de calentamiento global.

En la bahía de Chesapeake, Maryland, los investigadores encontraron altas temperaturas durante el Óptimo Climático Medieval (entre 8001300) y la Pequeña Edad de Hielo (sobre 14001850), posiblemente relacionadas con los cambios en la fuerza de la circulación de la termosalina en el Atlántico Norte. Los sedimentos demuestran que el pantano de Piermont el más bajo del Valle de Hudson se muestra seco en este período del Óptimo Climático Medieval de 800-1300 d. C. Las prolongadas sequías afectaron muchas partes del occidente de Estados Unidos y especialmente la parte oriental de California y el occidente de la Great Basin. En Alaska los tres intervalos de tiempo experimentados de calor moderado comparable son: 1300, 8501200, y posteriormente 1800 d.C.

La datación mediante radiocarbono en el mar de los Sargazos muestra que la temperatura en la superficie del mar era aproximadamente 1 °C menos que hoy hace aproximadamente 400 años (la Pequeña Edad de Hielo) y hace 1700 años, y aproximadamente 1 °C más caluroso que hoy hace 1000 años (durante el Óptimo Climático Medieval).

Estamos viviendo uno de estos periodos?

 

 

Publicado octubre 15, 2012 por astroblogspain en Uncategorized

El mayor secreto de La Gran Piramide   1 comment

Hace algunos años ya, el lector recordara que se descubrieron dos pasadizos en el interior de la Gran Piramide De Keops

Un poco de Historia:

 

 

 

Detalle de la caja, mal llamada sarcofago de la camara del rey:

 

Para unos es la conclusión lógica del camino en la arquitectura funeraria hasta llegar a la pirámide más perfecta de todas; para otros una obra de ingeniería imposible aún hoy en día. Unos creen que en su geometría se halla escrita toda la historia de la Humanidad; otros que es como un gigantesco orbe de conocimientos. Unos ven en ella la tumba del más ególatra y tirano de los soberanos, otros un monumento legado por una civilización anterior a todas las conocidas. Algunos ven a miles de esclavos trabajando a golpe de látigo y otros creen ver mano de obra extraterrestre. Se ha dicho de ella que es una tumba, una gran central energética, una reproducción a escala de la Tierra, un observatorio celeste, una Biblia escrita en piedra…

Estatua de Keops (Museo Egipcio de El Cairo).

Estatua de Keops (Museo Egipcio de El Cairo).

Millones de personas de todos los rincones del mundo han viajado hasta Egipto para contemplarla de cerca: viajeros, curiosos, peregrinos, sabios, místicos, aventureros… Quienes la visiten se harán fotografías ante ella y recorrerán su interior. Unos saldrán impresionados y otros decepcionados, pero pocos dejarán pasar la ocasión de penetrar en este monumento que tanto ha dado y seguirá dando que hablar: el monumento más grande que el hombre jamás ha levantado. Vayamos a dar un paseo por la Gran Pirámide de Gizah.

Echando un vistazo al exterior lo primero que nos llama la atención son sus abrumadoras medidas: originalmente medía 146 m de altura, lo que equivale a un edificio de más de 40 pisos; mide 230 m de lado, ocho campos de fútbol cabrían en su base; en total más de 2.500.000 bloques de piedra que pesan entre 2 y 60 toneladas cada uno. Su volumen es de aproximadamente 2.600.000 m³, y su peso medio, calculado en base a la densidad, es de 6.500.000 toneladas. Su orientación, desviada 5’ 30” respecto del norte magnético, está perfectamente calculada ya que cada una de sus caras corresponde de manera exacta a un punto cardinal.

Según lo que contaron los sacerdotes egipcios al historiador griego Herodoto, que visitó Egipto hacia el 440 a.C., se tardó 20 años en su construcción y otros 10 en la de su calzada. De ser cierto esto habrían sido necesarios 100.000 obreros trabajando las 24 horas del día durante todos esos años, colocando un bloque de 2,5 a 10 toneladas cada 4 minutos.

De lejos sus caras parecen uniformes, de superficie más o menos rugosa. Parece que estuviera completa. Vista de cerca es una montaña de piedras dispuestas en hileras que forman escalones porque le faltan los bloques de revestimiento, una auténtica escalera hacia el cielo. Unos rudimentarios letreros en árabe e inglés –No Climbling– prohíben la escalada a la pirámide. Sólo quedan unos pocos bloques de revestimiento muy deteriorados, pero fueron 27.000 los que cubrían las cuatro caras de la pirámide transformándola en poco menos que un espejo de lisas y pulidas que estaban. Los árabes llamaban a las pirámides “Las Luces” debido a que este revestimiento actuaba como un espejo que deslumbraba al mirarlo a cientos de kilómetros.

Detalle del expolio sufrido en la Gran Pirámide.

Detalle del expolio sufrido en la Gran Pirámide.

Según Herodoto y otros historiadores antiguos, como el árabe Al-Latif, del siglo XIII, también se encontraba cubierta de jeroglíficos. Ahora lleva 700 años desnuda. Hacia el siglo XIII hubo grandes terremotos que asolaron el país y echaron por tierra la mayoría de los edificios. Los árabes construyeron la nueva capital, El-Cairah, que significa “la victoriosa”, y para hacerlo recurrieron entre otras fuentes a la Gran Pirámide. Los 27.000 bloques de revestimiento fueron desmontados y fragmentados para levantar con ellos palacios, fuentes, esclusas y mezquitas. Con el transcurso de los años, la Gran Pirámide vio desaparecer los 700.000 m² de revestimiento que la cubrían. Con esa depredación perdió parte de su belleza, pero aún conserva toda su grandiosidad.

Debido a que sus caras no son totalmente rectas sino que se curvan ligeramente hacia adentro y a su precisa orientación, el día del equinoccio el sol incide de manera que la sombra parte exactamente en dos la cara norte produciendo un extraño efecto que se conoce como ‘efecto relámpago’.

Lo increíble es que a pesar de su abrumadora masa y sus gigantescas proporciones sus errores de nivelación, orientación, simetría o angulación se miden por milímetros. No es sólo la obra más colosal que levantó el hombre, también es la más perfecta.

A 17 m de altura en su cara norte se observa la entrada original a la siringa. Lo primero que destaca son los cuatro gigantescos bloques de piedra que descansan sobre el dintel de la puerta. Multitud de personas con pretensión de pasar a la posteridad han escrito allí sus nombres, pero la más llamativa de todas las inscripciones es la que hay en el bloque superior derecho. Está realizada en jeroglíficos por el egiptólogo alemán Richard Lepsius a mediados del siglo XIX, y en ella se refiere al rey de Prusia, Federico Guillermo IV, ni más ni menos que como “Rey del Alto y Bajo Egipto”.

En el triángulo formado por los bloques de descarga y el dintel hay cuatro signos grabados: un tetragrama que nada tiene que ver con la escritura jeroglífica egipcia ni con ninguna otra escritura conocida. No se sabe quién grabó esos signos ni cuándo. Posiblemente sean la obra de un bromista, o tal vez estén ahí desde el principio.

El Túnel de Al-Mammun

Entrada y túnel de Al-Mammun en la cara norte.

Entrada y túnel de Al-Mammun en la cara norte.

Un poco más abajo y a la derecha se observa un agujero practicado en los bloques de la pirámide. Se trata de la entrada por la que entramos los turistas, un túnel excavado en la roca en el año 820 d.C. por el califa Al-Mammun en su búsqueda de tesoros. Trabajando sobre rampas, sus ingenieros hicieron hogueras junto a los bloques de piedra para ablandarlos, luego los empapaban de vinagre frío o vino agrio para hacerlos explotar como si fuesen bombas. Una vez dentro de la pirámide, los hombres de Al-Mammun cavaron el túnel con picos, martillos y cinceles. Un túnel que penetra 38 m en dirección norte-sur a través de la piedra, evita los bloques con los que se cegaba la entrada al canal ascendente y llega hasta éste. Se dice que los obreros oyeron bajo ellos el ruido producido por una piedra al desprenderse y excavaron un pozo, encontrando así el canal descendente. Lo cierto es que aunque la tradición afirma que el túnel de Al-Mammun fue practicado al azar, cuesta creer que por casualidad perforasen en la dirección correcta a la altura correcta, que por casualidad evitaran los bloques que taponaban el canal ascendente y que por casualidad hiciesen un pozo que fuese a dar justamente al canal descendente. Lo más probable es que Al-Mammun ya conociese la existencia y disposición de los canales antes de abrir el túnel, y de hecho hay textos que parecen demostrar que la entrada y el canal descendente eran conocidos desde antiguo.

Estrabón escribió en el año 24 a.C. que “a cierto nivel sobre uno de los lados de la pirámide hay una piedra que puede retirarse y deja ver la entrada a una galería o siringa que termina en una tumba”. Según Estrabón, el pasaje era angosto y bajo, de menos de 1,20 m de alto y de ancho. Ese pasaje descendía 114 m hasta una cámara excavada en la roca viva 46 m por debajo de la base de la pirámide. Esa cámara estaba medio llena de agua infestada y sabandijas. Los datos que proporciona Estrabón son tan próximos a la realidad que no cabe duda de que él conocía la auténtica entrada a la pirámide. También hablan de ella Herodoto y Plinio, aunque con menor detalle, pero mencionan la entrada, el túnel descendente y la cámara que hay al final de él. Según cuenta Estrabón, en la entrada había una piedra basculante dentro de las losas de revestimiento que permitía el acceso. Ha llegado la hora de entrar.

 

El interior de la Gran Pirámide

El Canal Descendente

Canal Descendente.

Canal Descendente.

Si entrásemos por la entrada original nos encontraríamos con el canal descendente de pronunciada pendiente, concretamente 26º 34’. Es un pasillo con dos barandillas, una a cada lado, y en el suelo un entarimado con tablas transversales para facilitar el descenso. El camino ha de hacerse en postura incómoda porque el pasaje mide 1,22 me de altura y poco más de 1 m de ancho. A los 30 m de recorrido ya hemos dejado la pirámide y estamos bajo ella, hundiéndonos cada vez más en el subsuelo. Ese canal descendente tiene en total 105,15 m de longitud y llega a más de 30 m por debajo del nivel de la meseta. Ya abajo del todo, al final del canal descendente se abre un pequeño tramo horizontal aún más angosto –de apenas 90 cm de anchura, 80 cm de altura y 9 m de longitud– que lleva a una cámara subterránea.

La Cámara Subterránea

La cámara subterránea es la parte más profunda de la pirámide, la más recóndita. Está labrada en la roca viva y por su irregularidad y su aspecto primitivo e inacabado ha recibido varios nombres, entre ellos el de Cámara Inacabada o Cámara del Caos.

La opinión de los arqueólogos es que se trata sencillamente de una cámara que quedó sin terminar intencionadamente. Aquéllos que consiguieran dar con la entrada a la pirámide sólo tendrían un acceso: el canal descendente. Al llegar al final y encontrarse con esta cámara subterránea sin terminar, los violadores de tumbas pensarían que ni la momia ni el ajuar funerario llegaron a ser depositados en la pirámide. Según ese criterio, las masas de piedra a medio trabajar no tendrían función práctica alguna. Sin embargo, paredes y techo están perfectamente labrados, respetando los mojones de piedra, obligando a los obreros a trabajar en unas condiciones excepcionalmente duras arrastrándose por espacios de apenas 25 cm para labrar el techo… ¿qué sentido tiene eso? Si lo que se pretendió era dar a la cámara el aspecto de inacabada sin más, ¿por qué no haber reducido la altura de esos bloques sin forma para trabajar en condiciones normales? Si lo hicieron así tendrían sus razones, como las tendrían para abrir un túnel, enfrente del que sirve de entrada, que penetra 14 m en dirección sur para terminar bruscamente. Las mismas razones que les llevaron a abrir el pozo cuadrado de 2 m de lado y que apenas llegaba a 3 m de profundidad, y que como el túnel de la pared sur tampoco conducía a sitio alguno. El coronel Howard Vyse, a mediados del siglo XIX profundizó 9 m más ese pozo buscando una posible cámara pero no encontró nada. Hoy el pozo está lleno de arena y cascotes.

Desde este lugar no podemos hacer más que recorrer el canal descendente en sentido contrario, veremos la entrada original a otro pasadizo, el canal ascendente cegado por grandes bloques de piedra. Debajo del entablado hay tres escalones en la piedra que corresponden con la entrada al canal ascendente. Durante la construcción de los túneles y en las ceremonias previas al sellado de la pirámide debía haber una rampa que facilitaba el acceso al canal ascendente, todavía abierto. Llegado el momento, la rampa fue retirada y la entrada al canal ascendente cegado con tres grandes bloques que se dejaron deslizar desde más arriba. Por aquí no podemos acceder a las partes altas de la pirámide, es preciso salir al exterior y utilizar el túnel de Al-Mammun. Éste perfora la pirámide y siguiendo un trayecto horizontal evita los bloques que obstruyen el canal ascendente y llega directamente hasta éste.

El Canal Ascendente

El recorrido por el canal ascendente es algo más cómodo que el descendente. Mide un poco más de 1 m de ancho y 1,20 m de alto. Es una obra perfecta de ingeniería, sus medidas se mantienen constantes y exactas a lo largo de sus 37,5 m. Las piedras de las paredes, techo y suelo ajustan con precisión y están pulidas. Las del suelo no están a la vista porque se ha dispuesto una rampa de madera con travesaños para facilitar la subida, porque este túnel tiene una importante pendiente, 26º 34’, exactamente la misma que el canal descendente. Al final de ese pasadizo está la Gran Galería.

La Cámara de la Reina

Cámara de la Reina.

Cámara de la Reina.

Estamos a 22 m por encima del nivel de la base de la Gran Pirámide, donde se abre la entrada a otro túnel, esta vez horizontal. Se trata de un pasadizo que avanza en dirección norte-sur. Mide algo más de 1 m de ancho y tiene una altura de 1,18 m. Cuando se han recorrido 28,5 m el suelo presenta un escalón de 52 cm y gracias a él se puede entrar casi erguido en la cámara que hay al final del túnel. Podemos penetrar por este pasillo porque ya no existe una supuesta losa que debía unir el canal ascendente con la Gran Galería. Hay cinco nichos en la pared que dan a entender que esta losa existía, y que el pasadizo y la cámara a la que accede se conservaban en el más absoluto secreto. Se trata de la Cámara de la Reina, llamada así de forma errónea ya que allí nunca se enterró a ninguna reina. Su nombre le fue dado por lo árabes, que al ver el techo construido a dos aguas, como las tumbas de sus mujeres, inmediatamente la bautizaron con ese nombre.

Es una amplia estancia rectangular construida con piedra caliza de Tura. Mide más de 5 m por cada lado y el techo alcanza los 6 m en su parte más alta. Restos de pintura evidencian que esta cámara estuvo originalmente pintada de color azul.

La idea más extendida sobre su función es que se trata del serdab, el lugar en que se conservaba la estatua del faraón. Una estatua con sus facciones a la que se le habría dado vida mediante los ritos isíacos de apertura de los ojos y boca. Esa estatua, ese doble del faraón, probablemente estaba en el nicho en cuyo fondo hay un túnel abierto, pero no corresponde a la obra original. Fue abierto por Howard Vyse y profundiza unos 15 m sin llegar a sitio alguno. Hay un detalle importante en este nicho, la parte de arriba no corresponde con lo que sería el centro lógico de la cámara, sino que está desplazado 60 cm, y eso es con toda seguridad por una razón: para que el nicho, y consecuentemente la estatua del faraón quedasen justamente en el eje de la Gran Pirámide, como así sucede. Por delante del nicho hay una serie de fracturas en la roca que indican que probablemente existió aquí un pequeño altar o una construcción ceremonial, pero todo esto son conjeturas. Los primeros viajeros que entraron en esta cámara dejaron escrito que estaba cubierta de escombros, y que si hubo algún mobiliario original estaba totalmente destrozado e irreconocible.

Los Canales de la Cámara de la Reina

Llama la atención la existencia de dos pequeños agujeros a 1,5 m de altura en mitad de la pared, de 20 cm de lado, uno en la pared norte y otro en la sur, que no fueron descubiertos hasta 1872, por la sencilla razón de que estaban tapados, la piedra continuaba y la pared era perfectamente lisa. No podía adivinarse que detrás de la piedra existían estos dos conductos.

Fue W. Dixon quien descubrió una pequeña grieta en la pared sur de la cámara. Decidió abrirla y comprobó que comunicaba con un conducto similar a los de la Cámara del Rey. La suerte y la intuición de este investigador le hicieron descubrir otro conducto similar en la pared opuesta. Al abrirlo encontró 3 objetos: una bola de piedra de unos 800 gramos, una estaca de madera y un garfio metálico que se encuentran hoy en el British Museum. Decidió introducir una serie de barras largas, que iba uniendo a medida que iba introduciendo por el conducto para estimar la longitud de los mismos, pero no pudo llegar al final y algunas barras quedaron atascadas.

No se trata de canales de ventilación puesto que estaban intencionadamente cerrados. Otra hipótesis es que se trataba de canales psíquicos por los que el alma del faraón entraba a visitar a su doble. En cualquier caso, la realización de estos dos conductos que suben y se extienden a todo lo largo de la pirámide, es una demostración del nivel técnico y constructivo de sus arquitectos, puesto que los planos no pudieron modificarse en ningún momento, ya que los canales se hacían a medida que la construcción avanzaba.

Esa idea de que eran canales de paso para el alma del faraón, el ba, es la idea más generalizada. Sin embargo, quedan muchas preguntas por responder, ¿para qué dos canales?, ¿acaso necesitaba uno para entrar y otro para salir?, y aún más, ¿para qué la existencia de los mismos canales, es que el alma no puede atravesar la piedra? Porque el hecho es que estos agujeros estaban tapados con piedra, por lo tanto el alma no podía entrar ni salir, y si podía atravesar la piedra, entonces ¿qué necesidad había de los canales? Tal vez simplemente señalaban un camino, pero si es así, ¿por qué abiertos al norte y al sur cuando en la vida de ultratumba las direcciones importantes son el este y el oeste? Estos canales siguen siendo un misterio a pesar de que en los círculos arqueológicos se sostenga que fueron canales psíquicos. Un misterio al que se ha venido a añadir otro nuevo que complica aún más las cosas.

Robot Upuaut.

Robot Upuaut.

En 1993, mientras se realizaban unas obras para mejorar la ventilación en el interior de la pirámide, el ingeniero alemán Rudolf Gantenbrink introdujo por los canales un pequeño robot –conocido como Upuaut, que significa “el abridor de caminos”– provisto de una cámara de televisión. El robot ascendió sin problemas durante los primeros 65 m en el canal sur, pero llegado a ese punto tropezó con algo inesperado. Una puerta interrumpía su paso. Una pequeña losa en la que a través de las imágenes que ese mismo robot grabó se distinguían dos pomos de cobre o de bronce de los que se desprendía una estela de oxidación.

En 2002, casi 10 años después de tan fantástico descubrimiento, un nuevo robot –el Pyramid Rover– realizó un pequeño agujero en el centro de la “puerta de Gantenbrink” para ver qué había detrás de ella. Se descubrió que existe una cavidad vacía y al final otra nueva losa, esta vez lisa, sin guarniciones de metal. También en el conducto norte se descubrió otra nueva losa o puerta, muy similar a la encontrada en 1993, también con tiradores y a la misma distancia que su homóloga sur. Habrá que seguir esperando a que nuevas investigaciones desvelen el secreto de las misteriosas puertas en los canales de la Cámara de la Reina.

Es a este ultimo pasaje donde volveremos luego….sigamos..con el monumento

 

El Pozo

Saliendo de esta cámara y volviendo al lugar donde se unen el canal ascendente con la Gran Galería, la ausencia de un sillar en el suelo deja al descubierto un estrecho canal que desde hace muchos años está cerrado a los turistas, y que por su trayecto casi vertical es conocido como “el pozo”. En realidad no es un pozo, sino un canal de 70 m de longitud, que salvando un desnivel de 50 m, comunica la Gran Galería con el canal descendente muy cerca de la Cámara Subterránea.

La parte superior del peligroso canal está abierto en la mampostería de la Gran Pirámide hasta llegar a un tramo inmediatamente por debajo de ésta donde se encuentra una pequeña gruta, puede que natural o abierta en la roca por buscadores de tesoros hace muchos siglos. Más abajo ya no hay necesidad de muro alguno porque el pozo se abre paso en la roca firme para terminar en el canal descendente. La época de su construcción y finalidad no están del todo claras.

La Gran Galería

La Gran Galería.

La Gran Galería.

Continuemos el ascenso a través de la Gran Galería. Es algo que de veras impresiona, mide casi 9 m de altura y 47 m de longitud. Sobre ella gravitan millones de toneladas de piedra. Sus muros, implacablemente paralelos en todo su recorrido, se van cerrando con siete saledizos de forma tal, que allá arriba, el techo formado por 40 losas imbricadas como tejas tiene sólo 1 m de ancho, en tanto que el suelo mide 2 m, incluyendo en ellos dos banquetas laterales.

Hay algo en las banquetas que llama la atención: 28 entalladuras rectangulares situadas en cada una de ellas. Posiblemente sirvieron para contener estatuas. Según dijo el historiador egipcio Manetón, Keops era el 28º rey egipcio después de Menes, el primer fundador de la dinastía I. Así pues, es probable que en estas entalladuras quedasen sujetas 28 estatuas: las de los 27 antepasados de Keops y la de él mismo, repetidas, emparejadas una frente a otra, de tal manera que la Gran Galería habría sido una especie de galería de antepasados del rey Keops. Es una hipótesis que es avalada por algunos autores árabes que se refieren a la existencia en tiempos antiguos de estatuas dentro de la Gran Pirámide. En cualquier caso ya no están, han desaparecido, sólo queda la Gran Galería con su desnudez, que la hace aún más impresionante. Una galería que termina en un rellano al que se abre un corto y estrecho pasadizo, el que da acceso a la Antecámara o Cámara de los Rastrillos.

La Antecámara

De todas las estancias de la Gran Pirámide, esta pequeña cámara es la que parece haber desempeñado una función más definida. Las tres correderas talladas en las paredes laterales, las 4 ranuras verticales de la pared sur y algunos otros detalles sugieren que esta cámara quedaba cerrada con tres losas de piedra que se dejaban deslizar desde arriba mediante un sistema de cuerdas. Cuando entraron los primeros profanadores, las losas habían descendido y estaban en su sitio tapando el acceso a la Cámara del Rey, la prueba es el destrozo que tuvieron que hacer en una piedra –que tuvo que ser reconstruida con yeso– para pasar por encima de las losas que obstruían la entrada. Hoy de esas losas que taponaban el conducto no queda ni rastro y el acceso a la Cámara del Rey está abierto.

La Cámara del Rey

La Cámara del Rey es la más célebre de la Gran Pirámide. Mide casi 10,5 m de largo, poco más de 5 m de ancho y casi 6 m de alto. En total más de 50 m² de superficie. Los muros están formados por 5 hileras de piedra y el techo por 9 enormes losas de granito que pesan aproximadamente unas 400 toneladas cada una. Nada hay en ella, salvo un sarcófago de granito en la parte oeste de la cámara, colocado allí seguramente durante la construcción de la pirámide ya que es más ancho que los pasadizos. A finales del siglo XVIII aún estaba la tapa rota y apoyada en la pared, hoy ni siquiera eso queda, sólo el cofre de piedra roto en una de sus esquinas y la desnuda sala.

Sarcófago en la Cámara del Rey.

Sarcófago en la Cámara del Rey de la Gran Pirámide.

Los Canales de la Cámara del Rey

En dos de las paredes, la norte y la sur, se abren dos canales de ventilación. A diferencia de los que hay en la Cámara de la Reina, éstos sí tienen salida al exterior –el conducto norte en la hilera 101 y el sur en la 102– y hoy están dotados de dos extractores de aire para renovar el ambiente y eliminar la humedad producida por los miles de turistas que la visitan.

Las Cámaras de Descarga

Aún nos queda una estancia más por visitar, se trata de las llamadas Cámaras de Descarga, a las que el turista no tiene acceso, justo encima de la Cámara del Rey. Fue Nathaniel Davison en 1765 quien descubrió accidentalmente que en la parte superior de la Gran Galería, pegado al techo, se abría un boquete cuadrado de 60 cm de lado. Estaba casi cerrado por excrementos de murciélago. Tras despejarlo pudo introducirse por el conducto y entró en una cámara hasta entonces desconocida. Una cámara cuyo suelo está formado por las losas que sirven de techo a la Cámara del Rey, por tanto, sus medidas son las mismas que las de ésta, aunque con una altura de 1,20 m. En honor a su descubridor se la conoce como Cámara de Davison.

En 1837 se descubrieron a base de dinamita otras cuatro cámaras por encima de ésta. El responsable del descubrimiento fue el inglés Howard Vyse, por lo que las cámaras fueron bautizadas muy británicamente: Cámara de Wellington, Cámara del Almirante Nelson, Cámara de Lady Arbuthnot y por último, la Cámara de Campbell con el techo construido a dos aguas.

Todas las enormes losas que forman las cámaras de descarga están planeadas con la estructura general de la pirámide. La misión de estas cinco cámaras era aliviar a la Cámara del Rey del enorme peso que tenía encima y protegerla en caso de terremoto. Una misión que han cumplido perfectamente, porque en la quinta cámara se puede ver cómo las enormes losas que forman el techo se han ido abriendo con el paso del tiempo, probablemente por efecto de algún terremoto.

Hay en la quinta cámara de descarga un elemento clave en la historia de la Gran Pirámide, una inscripción de cantero en tinta roja en la que está recogido el nombre de Keops (Jufu) en un cartucho. La única inscripción original hallada en toda la pirámide.

Hemos llegado ya al punto más alto al que se puede acceder dentro de la Gran Pirámide, aunque esto no significa que no queden todavía nuevas salas y pasajes por descubrir. Son muchos los científicos que, trabajando en el interior de la pirámide con nuevos métodos no intrusivos, han descubierto posibles cavidades y estancias hasta ahora desconocidas. Por ejemplo, y sólo como pequeña muestra, los estudios gravimétricos realizados por Jean Kerysel muestran una sala junto a la Cámara Subterránea y un pasaje bajo el canal ascendente; los arquitectos franceses Guilles Dormion y Jean Patrice Goidin descubrieron la existencia de un pasillo y una cámara idénticos y paralelos a la Cámara de la Reina y al pasillo que accede a ella, situados a la derecha de ésta; científicos de la Universidad de Waseda (Japón) hablan de otras estancias junto a la Cámara del Rey

Lo intrigante, Los conductos de la camara de la Reina:

En 1993 el ingeniero alemán Rudolf Gantenbrink descubrió al final del canal que parte de la pared sur de la Cámara de la Reina de la Gran Pirámide una puerta con dos pomos metálicos en su lado frontal. Las autoridades egipcias no se preocuparon del hallazgo hasta que en 2002 la asociación National Geographic puso sobre la mesa los medios necesarios para poder perforar la piedra y descubrir qué había detrás de ella. Como es conocido, tras la “Puerta de Gantenbrink” hay una pequeña habitación de uno 30 cm de profundidad y 20 de altura.

los corredores son demasiado pequeños para servir de accesos a otras cámaras, interpretándose como elementos simbólicos y religiosos. Dado que los dos superiores llegaban al exterior de la pirámide, se ha postulado de forma general que pudieron ser caminos para que el espíritu del faraón pudiera ascender a los cielos.

Sin embargo los dos inferiores, uno orientado al norte y otro al sur, no poseen salidas observables en la cara externa del monumento, siendo objeto de todo tipo de especulaciones. En 1986 un grupo francés encabezado por los arquitectos Gilles Dormion y Jean Patrice Goidin rastrearon diferentes puntos de la estructura debido a una serie de irregularidades que habían encontrado en los datos que se conocían acerca de la pirámide. Debido a la maestría y experiencia acumulada de los arquitectos egipcios no se consideraron fallos, sino signos de que podían existir cámaras ocultas en el interior. Al año siguiente un equipo japonés de la Universidad Wascola de Tokio detectó una serie de cavidades mediante técnicas y aparatos de microgravimetría que analizaron las diferencias de densidad de unos puntos y otros. La imaginación del gran público y de algunos especialistas se disparó, fantaseando acerca de la posibilidad de encontrar la momia de Keops y fantásticos tesoros más de mil años anteriores a los de Tutankamón. Claro está, los diminutos pasadizos de la “Cámara de la Reina” eran candidatos a ser los conductos que llevaran a esas hipotéticas estancias.

En 1993, por primera vez en su historia, estos elementos fueron explorados gracias al ingeniero alemán Rudolf Gantenbrink, que envió una cámara robotizada por el conducto sur. Después de 63,90 metros la sonda topó con una pared de caliza que incluía dos pernos de cobre. Lejos de desilusionar a egiptómanos, egiptólogos y amantes del misterio, avivó el interés por estos pequeños pasadizos. Nueve años después, en el 2002, Zahi Hawass, autorizó y supervisó uno de los trabajos arqueológicos más seguidos de la Arqueología, retransmitido a medio mundo y que se saldó con una cierta decepción para algunos y muchas incógnitas para la mayoría. El robot empleado entonces, dotado de un pequeño taladro, perforó la pared de caliza y continuó la exploración hasta detenerse en otro obstáculo similar, también con unos tiradores de cobre.

Ahora, después de esperar casi otra década, la Gran Pirámide vuelve a repetir la experiencia con una nueva investigación de campo con el empleo de sondas. Hawass, actual Ministro de Antigüedades, ha declarado que los misterios que encierran estos diminutos túneles le han fascinado durante toda su carrera. Por ello hace meses decidió organizar e impulsar un nuevo proyecto de investigación bajo el nombre de “Djedi” en honor del mago que aconsejó a Keops para el diseño y construcción de la pirámide. Después de una dura selección acabó formando un equipo internacional y aprobando el empleo de un ingenio de última generación, el robot Djedi, creado por personal de la Universidad de Leeds (west Yorkshire, Inglaterra) dirigido por el ingeniero Robert Richardson. Con financiación parcial de Mehdi Tayoubo y Richard Breitner de Dssault Systèmes de Francia se persigue explorar de forma más ambiciosa el  interior de los corredores.

El nuevo robot-sonda, equipado con un pequeño taladro, un aparato de ultrasonidos y una cámara especial que puede extenderse como una serpiente, es capaz de acceder a zonas muy difíciles y aberturas de hasta 19 milímetros de diámetro. El objetivo es poder superar los obstáculos de caliza con el menor daño posibles, introduciéndose por cualquier espacio posible. De momento las primeras exploraciones, destinadas al estudio del pasadizo norte, han detectado un sillar con tiradores de cobre como los del conducto sur también a 63,90 metros de profundidad, demostrando que se guardó una intencionada simetría entre ambos elementos. Sin embargo lo que más ha llamado la atención ha sido, de nuevo, el corredor sur, donde han aparecido unos restos sorprendentes.

La nueva sonda, a diferencia de las anteriores, no solamente puede observar lo que tiene directamente delante, poseyendo capacidad para retransmitir imágenes en otros ángulos. La exploración de las paredes del conducto entre ambas planchas de caliza ha mostrado la existencia de muescas y de signos pintados. Estas muestras, realizadas en pintura roja, podrían ser jeroglíficos de algún tipo, lo que en opinión de Richardson suministrarían valiosa información acerca del diseño y construcción del gigantesco mausoleo. Incluso podrían ser meras instrucciones del montaje y ensamblaje de los sillares, como un enorme puzle que no ha sido contemplado desde hace más de 4.500 años. Lo que resulta llamativo por parte del equipo arqueológico es la extraña ubicación de los signos ya que no es un espacio accesible, siendo incluidas inmediatamente antes de su colocación en la estructura. Por ello su aparición ha sido muy celebrada, considerándose la antesala de más pistas que podrían aparecer próximamente.

Al mismo tiempo la resolución de la cámara ha permitido un mayor detalle en las imágenes obtenidas de los elementos de cobre, que a juicio de los especialistas son demasiado extraños, aumentando las cuestiones sobre su naturaleza. Muy pequeños para ser parte de algún mecanismo, se baraja la posibilidad de alguna utilidad ritual, aunque son meras conjeturas. Por último, el pulido de las paredes de caliza, muy cuidado, también ha llamado la atención. Dedicar tanto esfuerzo para una parte del aparejo no visible resulta chocante para los arquitectos, si bien podría indicar un respeto al difunto y a la funcionalidad sagrada de los conductos.

Y estos los ultimos datos…..y secretismo despues otra vez

Ultimas imagenes, del habitaculo secreto.

habitaculo

Pueden ser las marcas dejadas por alguno de los trabajadores, o símbolos religiosos. Un pequeño robot ha tomado fotografías dentro de la pequeña sala al final del pasadizo sur de la cámara de la reina, que son vistas por la humanidad por primera vez después de 4.500 años. Esta inspección robótica también ha servido pasa disipar la controversia sobre la función de las únicas piezas de metal que se conocen en la pirámide, y también nos muestra una segunda “puerta” que podría dar acceso a una segunda cámara secreta.

Se cree que la gran pirámide de Giza fue la tumba del faraón Jufu (o Keops), la cual es la última de las 7 maravillas del mundo antiguo que se conservan. Contiene 3 salas principales:la sala de la reina,  la gran galería y la sala del rey, de la que parten dos conductos que la conectan con el exterior. Extrañamente, la sala de la reina también tiene dos galerías de unos 20 cm  x 20 cm, pero se encuentran obturadas por dos bloques de piedra antes de llegar al exterior de la pirámide. La función de estos túneles es desconocida. Algunos creen que puede ser una conexión con una sala oculta. Estas puertas son los únicos misterios relevantes que quedan por descifrar en las pirámides.

Estos túneles han sido hasta la fecha el objetivo de tres exploraciones robóticas. En 1993 un robot teledirigido ascendió por el estrecho corredor unos 63 metros para descubrir que al final había una piedra con dos piezas metálicas que lo atravesaban. Ninguna otra pieza de metal formaba parte de la estructura de la pirámide por lo que aquello significó un hallazgo extraordinario. Los más osados incluso propusieron que se trataba de una toma de corriente utilizada por los constructores alienígenas.

 

gatendoorlogo

En 2002 se equipó a un nuevo robot con un taladro con la intención de averiguar lo que había detrás de la puerta Gantenbrink. El robot después de realizar el taladro deslizó una cámara por el orificio para descubrir que detrás de esa piedra había un pequeño receptáculo en cuyo fondo se encontraba un nuevo bloque de piedra, éste sin pulir.

Robot-no-shaft-1

north_shaft_robot_probe

north_shaft_new_slab

Ahora, un nuevo robot diseñado por el ingeniero Rob Richardson de la Universidad de Leeds, ha vuelto a escalar el pasadizo portando esta vez una cámara montada sobre un soporte micro-snake flexible que puede doblarse para grabar todo el interior del habitáculo.

Las imágenes obtenidas muestran jeroglíficos inéditos escritos con pintura roja y líneas que pudieron ser dejadas por los obreros. Si esos jeroglíficos pudieran descifrarse quizá ayudase a los egiptólogos a descubrir la verdadera funcionalidad de esos pasadizos. Las marcas con pintura roja son muy comunes en las pirámides de Giza. Eran hechas por los obreros o por las cuadrillas que portaban los sillares, y representan números, fechas o el propio nombre de la cuadrilla.

La siguiente es una composición hecha con varias imágenes que muestran el suelo de la sala oculta.

suelo

La cámara de esta última exploración ha descifrado el misterio de las clavijas de metal, ya que se ha podido girar para verlas desde el otro lado de la piedra. Las fotos muestras que están terminadas en unos bonitos lazos, lo que indica que su único fin es decorativo. Nada que haga indicar que se trata de un enchufe para las máquinas antigravitatorias extraterrestres.

clavijas

Este dato unido a que la orientación de los túneles es Norte-Sur hacen pensar que estos pasadizos tengan una función simbólica relacionada con las estrellas.

Upuaut 2

 

Actualmente hay una teoria que dice, y que van a tratar de probar, y es que estos conductos realmente pertenecian a un sistema de energia electrica.

 

para el año 2012

Equipado con una gama única de herramientas que incluye  ”escarabajo robot en miniatura” que puede caber a través de un orificio de diámetro de 0.74 pulgadas y un dispositivo en miniatura de ultrasonidos que puede emitir en las paredes y escuchar la respuesta para ayudar a determinar el espesor de la piedra, el equipo de Djedi estaba listo para continuar con la exploración de la pirámide en agosto pasado. Pero el giro político de los acontecimientos en Egipto detuvo el proyecto.

Whitehead confía en que el robot revelará  mucho más una vez que a el equipo se le permita continuar su investigación.

Veremos…..

 

Publicado octubre 14, 2012 por astroblogspain en Uncategorized