La sonda Voyager


Se denomina Voyager a cualquiera de las dos sondas espaciales estadounidenses enviadas a los planetas exteriores. La Voyager 1 fue lanzada el 5 de septiembre de 1977 desde Cabo Cañaveral. Pasó por Júpiter en 1979 y por Saturno en 1980. La Voyager 2 fue enviada el 20 de agosto de 1977, pasando por Júpiter y Saturno para llegar a Urano en 1986 y Neptuno en 1989. La Voyager 2 es la única sonda que ha visitado esos dos planetas.

Equipamiento

Ambas sondas llevan consigo un disco de oro con una selección de hora y media de duración de música proveniente de varias partes y culturas del mundo, saludos en 55 idiomas humanos, un saludo del entonces Secretario General de las Naciones Unidas y el ensayo Sonidos de la Tierra, que es una mezcla de sonidos característicos del planeta. También contiene 115 imágenes (+1 de calibración) donde se explica en lenguaje científico la localización del Sistema Solar, las unidades de medida que se utilizan, características de la Tierra y características del cuerpo y la sociedad humana. Este disco fue ideado por un comité científico presidido por el astrónomo Carl Sagan quien, refiriéndose al mensaje, asegura que su objetivo principal no es el ser descifrado, por el hecho de que su simple existencia pone de manifiesto la existencia de los humanos, así como sus esfuerzos por contactar a otras especies inteligentes que pudiesen existir fuera del Sistema Solar.

Misión

Actualmente las sondas Voyager estudian el ambiente del sistema solar exterior, esperando que su vida útil sea suficiente para llegar a la zona denominada heliopausa . Esta capa se debe al encuentro entre las partículas eléctricas producidas por el Sol, denominadas viento solar , con las partículas eléctricas del medio interestelar. Por tanto, las sondas Voyager se han convertido en los instrumentos artificiales más lejanos jamás enviados por el hombre. Las naves contienen generadores eléctricos nucleares que permiten que sigan funcionando sus instrumentos científicos. A finales de 2003 la Voyager 1 envió datos que indican que podría haber atravesado esta barrera. Estos datos están sin embargo en disputa. El 15 de agosto de 2006 la sonda Voyager 1 alcanzó la distancia de 100 UA , esto es, se encuentra a más de 15.000 millones de km del Sol . Actualmente, debido a problemas de presupuesto, el proyecto es controlado por un grupo de tan sólo 10 personas pertenecientes al Jet Propulsion Laboratory , y podría ser abandonado en un futuro próximo junto con otras misiones, dejando a ambas sondas seguir su camino sin que haya nadie que las escuche en la Tierra .

Una misión que se proyectó para durar cinco años cumplió su trigésimo aniversario en el otoño de 2007 . Los científicos de la NASA siguen recibiendo datos de los Voyager a través de la red del espacio profundo DSN Deep Space Network ).

Las señales que se envían desde MDSCC Madrid Deep Space Communications Complex ) al Voyager 1 tardan a la velocidad de la luz 14 horas y 20 minutos en llegar hasta él y otro tanto en volver (28 horas 40 minutos en total). Y se sigue alejando.

La potencia de transmisión del Voyager 1 es inferior a los 20 vatios. Debilitada por la distancia, llega a la tierra una señal del orden de 10 -17,26 milivatios.

sonda-voyager1

Aquí resumimos algunos puntos clave sobre la sonda Voyager:

  1. Lanzamiento y Objetivos Iniciales:
    • La Voyager 1 fue lanzada el 5 de septiembre de 1977, seguida por la Voyager 2 el 20 de agosto de 1977.
    • Su misión original era estudiar Júpiter y Saturno, y luego continuar hacia el espacio interestelar.
  2. Encuentros Planetarios:
    • Voyager 1 pasó cerca de Júpiter en marzo de 1979 y de Saturno en noviembre de 1980.
    • Voyager 2 visitó Júpiter en julio de 1979, Saturno en agosto de 1981, Urano en enero de 1986 y Neptuno en agosto de 1989.
  3. Descubrimientos y Contribuciones:
    • Las sondas Voyager realizaron numerosos descubrimientos, como los anillos de Júpiter y la compleja estructura de anillos de Saturno.
    • Estudiaron las lunas de los planetas gigantes y proporcionaron información detallada sobre su composición, atmósfera y campos magnéticos.
  4. Misión Interestelar:
    • Después de completar sus misiones planetarias, ambas sondas continuaron hacia el espacio interestelar.
    • Voyager 1 se convirtió en la primera sonda en alcanzar el espacio interestelar en 2012, seguida por Voyager 2 en 2018.
  5. Instrumentos Científicos:
    • Las sondas llevaban una variedad de instrumentos científicos, incluyendo cámaras, espectrómetros y detectores de partículas.
    • Estos instrumentos permitieron la recopilación de datos cruciales sobre los planetas y el medio interestelar.
  6. Mensajes a la Humanidad:
    • Ambas sondas llevan el «Disco de Oro», un disco de gramófono que contiene imágenes y sonidos seleccionados para representar la diversidad de la vida y la cultura en la Tierra, en caso de que alguna inteligencia extraterrestre las encuentre.
  7. Estado Actual:
    • Aunque las sondas Voyager están ahora muy lejos de la Tierra, continúan enviando datos a través de la Red de Espacio Profundo de la NASA.

Las sondas Voyager son consideradas como algunas de las misiones más exitosas y duraderas en la historia de la exploración espacial, proporcionando una gran cantidad de información sobre el sistema solar y más allá.

Las sondas Voyager están equipadas con una variedad de instrumentos científicos sofisticados diseñados para estudiar los planetas exteriores y el medio interestelar. Aquí se presentan algunos de los instrumentos clave y su importancia científica:

  1. Plasma Science Instrument (PLS):
    • Este instrumento mide las propiedades del plasma en el espacio interestelar. Ayuda a comprender la composición y las características físicas del medio que rodea a las sondas a medida que se aventuran más allá del sistema solar.
  2. Low-Energy Charged Particle Instrument (LECP):
    • El LECP estudia partículas cargadas de baja energía. Proporciona datos sobre la radiación y el entorno de partículas en el espacio interestelar, lo que contribuye a la comprensión de la radiación cósmica y su impacto en el espacio profundo.
  3. Cosmic Ray Subsystem (CRS):
    • Este instrumento detecta y mide la energía de los rayos cósmicos. Proporciona información valiosa sobre las partículas cargadas que existen en el espacio interestelar y ayuda a caracterizar el entorno en el que viajan las sondas.
  4. Imaging Science System (ISS):
    • El ISS captura imágenes detalladas de los planetas y sus lunas. Ha proporcionado imágenes icónicas de Júpiter, Saturno y sus respectivos sistemas de anillos y lunas, permitiendo un estudio en detalle de la morfología y la geología planetaria.
  5. Infrared Interferometer Spectrometer and Radiometer (IRIS):
    • Este instrumento analiza la radiación infrarroja emitida por los planetas y lunas. Ayuda a determinar las composiciones de las atmósferas y superficies planetarias, permitiendo a los científicos inferir propiedades químicas y térmicas.
  6. Ultraviolet Spectrometer (UVS):
    • El UVS mide la radiación ultravioleta proveniente de los planetas y sus atmósferas. Este instrumento es crucial para estudiar la composición química y las propiedades atmosféricas de los planetas exteriores.
  7. Magnetometer (MAG):
    • El MAG mide los campos magnéticos en el espacio. Ha sido esencial para estudiar los campos magnéticos de Júpiter, Saturno y las interacciones con sus lunas, proporcionando información sobre la dinámica de estos campos.
  8. Radio Science System (RSS):
    • El RSS utiliza las señales de radio para estudiar las atmósferas y los campos gravitacionales de los planetas. Ha permitido mediciones precisas de la masa y la densidad de los planetas, así como investigaciones sobre la propagación de ondas de radio en el espacio.

Estos instrumentos han desempeñado un papel crítico en la recopilación de datos científicos que han llevado a una comprensión más profunda de los planetas del sistema solar y del medio interestelar. Cada uno de ellos ha contribuido de manera única a la riqueza de conocimientos que las sondas Voyager han proporcionado a la comunidad científica.

Música Celestial


La analogía entre las ondas sonoras que se propagan en un medio líquido y las ondas que recorren el interior de las estrellas proporciona una fascinante perspectiva para comprender el cosmos. Al igual que las ondas sonoras encuentran un medio de transporte en el agua, las ondas cósmicas, en este caso, son ondas acústicas que se desplazan a través del plasma caliente que constituye el interior de las estrellas.

En el contexto cósmico, estas ondas se generan debido a las complejas interacciones de la materia y la energía en el núcleo estelar. A medida que estas ondas recorren el interior de una estrella, llevan consigo información crucial sobre las características y la composición de la estrella misma. Los astrónomos utilizan técnicas de espectroscopia para medir la frecuencia de estas ondas y, a partir de esa información, pueden desentrañar la composición química y las propiedades físicas de la estrella.

La frecuencia de las ondas sonoras estelares, también conocidas como modos de oscilación, está directamente relacionada con las propiedades del medio a través del cual se propagan. Por lo tanto, al analizar las variaciones en la frecuencia de estas ondas, los astrónomos pueden deducir la temperatura, densidad y composición química del material estelar.

Esta técnica, conocida como astrosismología, se ha convertido en una herramienta invaluable en la astronomía moderna. Proporciona una ventana única para estudiar el interior de las estrellas, regiones que de otra manera serían inaccesibles directamente. Además, la astrosismología no solo revela información sobre la estructura interna de las estrellas individuales, sino que también permite comparar y contrastar diferentes tipos de estrellas, lo que contribuye significativamente a nuestra comprensión de la evolución estelar y la formación de elementos en el universo.

star-graphic

La espectroscopia, una técnica fundamental en la astronomía, permite a los astrónomos desentrañar la composición química y propiedades físicas de las estrellas mediante el análisis de la luz que emiten o absorben. En el caso de la astrosismología, los astrónomos utilizan la espectroscopia para medir las frecuencias de las ondas sonoras estelares y obtener información detallada sobre la estructura interna de las estrellas.

  1. Ejemplos concretos de espectroscopia estelar: Mediante la espectroscopia, los astrónomos pueden estudiar las líneas espectrales de una estrella. Cada elemento químico emite y absorbe luz en patrones específicos, creando líneas espectrales únicas. Al analizar estas líneas en el espectro de una estrella, los astrónomos pueden determinar la presencia y abundancia de elementos particulares. Por ejemplo, la presencia de líneas espectrales de hidrógeno, helio y otros elementos revela la composición química de una estrella.
  2. Astrosismología y la estructura interna de las estrellas: La astrosismología utiliza las ondas acústicas que recorren el interior de las estrellas para sondear su estructura interna. Estas ondas, generadas por procesos internos como la fusión nuclear en el núcleo estelar, interactúan con diferentes capas de la estrella, generando patrones de vibración específicos. Al observar cómo estas ondas afectan la luz estelar, los astrónomos pueden determinar la frecuencia de oscilación y, por ende, inferir propiedades clave de la estrella, como su densidad, temperatura y composición química.
  3. Descubrimientos destacados en astrosismología:
    • Estudio detallado del Sol: La astrosismología ha permitido un análisis profundo de nuestro propio Sol, revelando información sobre su estructura interna y procesos de fusión nuclear.
    • Estudio de exoplanetas: Al observar variaciones en la luz de estrellas debido a la presencia de exoplanetas, la astrosismología ha contribuido a la detección y caracterización de planetas fuera de nuestro sistema solar.
    • Misiones espaciales como Kepler y TESS: Estas misiones han utilizado la astrosismología para estudiar miles de estrellas, proporcionando datos cruciales para comprender la evolución estelar y la formación de sistemas planetarios.

Estos ejemplos ilustran cómo las técnicas de espectroscopia y astrosismología han revolucionado nuestro entendimiento de las estrellas y han llevado a descubrimientos significativos en el campo de la astronomía.

Fuentes:

  • Observatorio Europeo Austral (ESO),
  • «The Astrophysical Journal»,
  • «Astronomy & Astrophysics»,
  • «Monthly Notices of the Royal Astronomical Society»

El Conectograma – Una Representación Visual del Cerebro [Mapa]


El conectograma es una representación esquemática de las conexiones cerebrales, en forma circular, en la que se representan las áreas de la corteza cerebral y se distinguen los dos hemisferios, el izquierdo y el derecho. Si miramos en la parte exterior del anillo encontramos el lóbulo frontal, el temporal, el parietal y otras estructuras importantes como el cerebelo.

Cada una de las áreas de la corteza representadas (hasta 83) tiene su propio color y de ellas parten, por el interior del círculo, una serie de líneas que indican qué estructuras están conectadas. En aquellas en las que el color es más opaco hay más conexiones y en aquellas en las que la línea es más fina, hay menos.

El sistema permite ver de un vistazo cuál es el esquema general de un cerebro y sus conexiones. En el siguiente conectograma, por ejemplo, podéis ver las conexiones medias de los cerebros de 110 hombres diestros:

A nivel individual, un conectograma permite ver las anormalidades anatómicas de un paciente. En un estudio reciente publicado en PLOS ONE, el equipo de John Darrell Van Horn, elaboró un conectograma con las conexiones del histórico paciente Phineas Gage, un trabajador de los ferrocarriles que se clavó una barra de metal en el lóbulo frontal a mediados del siglo XIX, lo que provocó un cambio de su personalidad. Su conectograma, debido a los gravísimos daños provocados por la barra, lucía así:

Por su utilidad, este tipo de representaciones circulares se están extendiendo en otras áreas, como la genómica, el estudio de epidemias e incluso el estudio de ritmos musicales.

Los conectogramas son herramientas valiosas para comprender la conectividad cerebral y, por ende, son esenciales en la investigación en neurociencia. Proporcionan una visión general del esquema de conexiones en el cerebro, permitiendo identificar patrones y relaciones entre diferentes áreas. Esto contribuye significativamente a la comprensión de funciones cognitivas y comportamentales.

El Mapa del Proyecto Genoma Humano


El Genoma es el conjunto completo de los cromosomas que componen un individuo o una especie con sus genes asociados.

En 1890 los citólogos comenzaron a contar los cromosomas humanos, pero hasta 1956 no se averiguó con exactitud el número correcto de cromosomas, después de que Watson y Crick descubrieran la estructura del ADN.

El número de cromosomas de la especie humana es de 46 (23 pares): 44 autosomas y 2 cromosomas sexuales. Una mujer normal tiene dos cromosomas X, y un hombre normal posee un cromosoma X y un cromosoma Y.

Scientists looking at DNA model

Mediante un cariotipo, es decir, la representación gráfica de los cromosomas (en metafase mitótica) presentes en el núcleo de una sola célula somática, se puede determinar el número, tamaño y forma de los cromosomas e identificar los pares de homólogos (ver Mitosis).

Los cromosomas son las estructuras que llevan los genes y un gen es la secuencia de nucleótidos en la molécula de ADN que desempeña una función específica, como codificar una molécula de ARN o un polipéptido. En las células eucarióticas, el ADN del genoma se encuentra siempre en asociación con unas proteínas llamadas histonas. Esta combinación recibe el nombre de cromatina, debido a sus propiedades de coloración.

La clave del contenido de la información del ADN está en los cuatro tipos de bases nitrogenadas que forman su estructura, que son adenina, timina, citosina y guanina, y que pueden disponerse en cualquier orden. La secuenciación del ADN consiste en determinar ese orden exacto.

En el genoma ecucariótico, la cantidad de ADN por célula es la misma para cada célula diploide, igual que ocurre en las demás especies de organismos; sin embargo, la diferencia entre especies es muy elevada. La mayor cantidad de ADN encontrada hasta el momento corresponde a la salamandra, con 8 x 1010 pares de bases por genoma haploide. Otra característica del genoma eucariótico es la excesiva cantidad de ADN existente sin funciones aparentes (ADN egoísta), y que según algunos científicos no sirve para nada. A diferencia de otras especies, como bacterias y virus, la cantidad de ADN humano codificante para proteínas puede suponer solamente el 1% y, en general, en las células eucarióticas se estima que no sobrepasa el 10%. Además, casi la mitad del ADN de la célula eucariótica consiste en secuencias de nucleótidos que se repiten centenas, o hasta millones de veces, mientras que según la genética mendeliana un gen debe estar presente sólo dos veces por cada célula eucariótica diploide, y no en multitud de copias. Detalles como éstos podrían revelar los misterios de la evolución humana y de otros organismos.

Por otra parte, el genoma eucariótico también se caracteriza por la existencia de unas secuencias no codificadoras de proteínas, que se encuentran interrumpiendo las secuencias codificadoras. Estas interrupciones no codificadoras reciben el nombre de intrones, mientras que aquéllas que se expresan reciben el nombre de exones. Los intrones se transcriben a moléculas de ARN y se escinden antes de la traducción. Ésta es una de las principales características del genoma eucariótico. Normalmente, cuanto más complejo y más reciente es un organismo en el proceso de la evolución, más grandes y abundantes son sus intrones.

Se piensa que el ADN de cada cromosoma eucariótico se encuentra en forma de una única molécula y cada una de ellas mide entre 3 y 4 cm de largo. Con el ADN de una persona podríamos formar un cordón y rodear varias veces la Tierra, por lo tanto, es difícil imaginar su capacidad para empaquetarse hasta reducir 7.000 veces su longitud en cada célula, y organizarse junto con proteínas para formar los cromosomas. Se estima que su longitud total es de 3.000 millones de nucleótidos y el cuerpo humano entero contiene aproximadamente 25.000 millones de kilómetros de ADN de doble hélice. Con todo esto se comprende lo difícil que resulta averiguar el orden de cada uno de esos nucleótidos.

Además, el ADN de un individuo es tan distintivo como una huella digital. Ninguna persona es idéntica a otra, pues cada ser humano es el producto de combinaciones únicas de las bases nitrogenadas que forman su ADN. Se ha estimado que el número de combinaciones posibles superan el número de átomos del universo, y por tanto no ha habido ni habrá dos personas idénticas en este planeta. Sin embargo, tenemos mucho ADN en común con el resto de seres vivos, lo que puede servir para determinar hasta qué punto el ser humano está relacionado evolutivamente con otros organismos. Un detalle interesante es que en el cromosoma 22 del genoma humano existe un gen que es casi exactamente igual en humanos que en levaduras, a pesar de las grandes diferencias que existen entre ambas especies. Algunos científicos explican el hecho al considerar que si este gen no ha evolucionado con el tiempo, a diferencia de la mayoría, posiblemente indique que debe ser vital para todas las células y que un pequeño cambio en su secuencia puede acarrear graves consecuencias.

Proyecto Genoma humano

Este proyecto ha sido coordinado por numerosas instituciones y se inició en 1990 con el fin de obtener el genoma humano completo. Se esperaba completar para el año 2003, sin embargo, se ha conseguido secuenciar todo el genoma completo en abril del año 2000, tres años antes de la fecha prevista. Siete meses más tarde, los equipos de investigación encargados de ordenar la secuencia genética descubrieron que el genoma del ser humano contiene poco más de 30.000 genes, la mitad de los que los científicos esperaban encontrar. El resultado fue sorprendente porque organismos inferiores como la mosca o el gusano tienen un código genético formado por 13.000 y 19.000 genes, respectivamente.

Las técnicas de genética molecular permiten cortar el ADN por los sitios que más nos interesa, utilizando herramientas químicas de gran precisión denominadas enzimas de restricción. Gracias a ellas, se pueden obtener fragmentos, separarlos y secuenciarlos. El primer triunfo de este proyecto ha sido la descripción completa de la secuencia del cromosoma 22, el segundo más pequeño de los 24 que caracterizan a la especie humana, al que se le han identificado unos 33, 4 millones de nuecleótidos y 545 genes (que suponen menos del 2 % del genoma humano).

El genoma humano es mapeado y secuenciado en su totalidad. Mediante el empleo de endonucleasas de restricción se cortan los clones y se obtienen los mapas de clones contiguos; este es el método de trabajo del grupo Proyecto Genoma Humano (PGH). Los datos obtenidos acerca del tamaño de los fragmentos de restricción de cada clon se introducen en un ordenador, que compara esos tamaños en todos los clones analizados y determina qué clones presentan sitios de restricción comunes, por lo que dichos clones pueden ordenarse según este criterio. Los mapas que se obtengan serán de gran valor en investigaciones acerca de la organización génica y cromosómica, así como en la identificación de genes implicados en ciertas enfermedades genéticas. La correlación de estos mapas con datos de secuencias obtenidas por otros estudios permitiría la secuenciación de todo el genoma humano.

Para obtener buenos resultados es necesario que se investigue en el desarrollo de nuevos vectores de clonaje y en la tecnología necesaria para analizar un gran número de clones. De hecho, ya se han obtenidos mapas de los cromosomas que pertenecen a organismos más sencillos, como E. coli, el moho limoso Dictyostelium y la mosca Drosophila (secuenciada en 6 meses). Sin embargo, en los humanos las técnicas de secuenciación automática deben perfeccionarse, pues el número de pares de bases de que consta nuestro genoma es de 3.3 x 109.

Muchos investigadores piensan que tener todo nuestro ADN descifrado puede producir también situaciones comprometidas, ya que un genoma accesible a todo el mundo podría provocar problemas sociales y graves marginaciones; estaríamos sometidos a un control genético, además del control informático actual, por parte de los estamentos gubernamentales y, por otra parte, los profesionales sanitarios podrían realizar un parte genético en el que se pudiera descifrar claramente una enfermedad futura irreversible. Sin embargo, las averiguaciones que se pueden obtener pueden ser la clave para comprender y tratar los cánceres, así como la terapia de reemplazo de genes. De hecho, ya se han relacionado varios genes del cromosoma 22 con algunas enfermedades. Una secuencia de este cromosoma parece estar implicada en la esquizofrenia y otro grupo de genes en el síndrome de GiGeorge y en trastornos del movimientos catalogados como ataxia espinocerebral. Se supone que una docena de enfermedades genéticas están ligadas a este cromosoma.

Los resultados de la secuenciación del ADN que ha realizado el grupo PGH se han hecho públicos en internet y se han actualizado cada 24 horas. Con su método de trabajo “clon a clon” se ha avanzado en la secuencia a un ritmo de 500 bases cada vez. Por otra parte, la Celera Genomics Systems es una empresa privada que también estaba secuenciando el genoma y ha utilizado un método más rápido para la secuenciación, pero por la complejidad del genoma humano y la gran cantidad de secuencias repetidas que posee, no es más efectivo. El método consiste en dividir todo el genoma en fragmentos y leerlos simultáneamente introduciéndolos en uno de los supercomputadores más potentes del mundo. Pero depende de los resultados del PGH para reunir los fragmentos de forma correcta. En abril del año 2000 la empresa privada Celera ha conseguido secuenciar todo el genoma humano. La firma estadounidense se enfrenta ahora con el reto de ensamblar los 50 millones de fragmentos de ADN.

Los avances en el estudio de los genomas coloca a la biología en un momento clave que hace imprescindible el desarrollo de técnicas informáticas que permitan procesar y examinar toda la información disponible; por ello, el gran auge de lo que se podría llamar una nueva ciencia, la Bioinformática. De esta manera, al estar secuenciado todo el genoma humano, se dispondrá de técnicas de análisis masivo de datos que permitirán deducir la posición de los genes en el cromosoma, millones de puntos significativos en el mapa y toda la información referente a la secuencia de los nucleótidos y a todas las proteínas humanas cuya síntesis está controlada por esos genes.

La Acidez de los Océanos y la Extinción de los Dinosaurios


Una paleontóloga de la Universidad de Zaragoza, junto a dos investigadores estadounidenses, ha hallado nuevas causas de la extinción de los dinosaurios, entre otras especies, que se produjo en los océanos tras el impacto de un asteroide hace 65,5 millones de años.

El estudio de la oscense Laia Alegret, profesora de Paleontología de la Universidad de Zaragoza y miembro del Instituto Universitario de Investigación en Ciencias Ambientales de Aragón (IUCA), demuestra que la fotosíntesis y la cadena alimenticia en los océanos se recuperaron mucho antes de lo que se creía.

Asimismo señala que una rápida acidificación de las aguas superficiales tras el impacto explicaría por qué muchas especies se extinguieron, mientras que otras que habitaban en los fondos oceánicos sobrevivieron, ha informado la Universidad de Zaragoza en un comunicado.

El trabajo, en el que han participado dos investigadores de las universidades de Yale y Michigan, acaba de ser publicado en la revista científica estadounidense PNAS (Proceedings of the National Academy of Sciences).

En el mismo se analiza la gran extinción que se produjo hace 65,5 millones de años como consecuencia del impacto de un meteorito y que afectó a casi el 70 por ciento de las especies del planeta, como los dinosaurios, los mosasaurios (grandes reptiles marinos) o los ammonites (cefalópodos primitivos).

Aunque la causa de las extinciones está clara para los científicos, como es la de un impacto meteorítico en la península del Yucatán (México), según los autores de la investigación quedan preguntas por responder.

Entre otras, ¿por qué el impacto causó las extinciones de unos organismos y no de otros? Y, ¿cuáles fueron los mecanismos concretos que causaron las extinciones?

Unas preguntas a las que se responden en el estudio liderado por Alegret, en el que se analizan en detalle las extinciones que tuvieron lugar en los océanos y se descartan los mecanismos más aceptados hasta el momento.

Las hipótesis clásicas se refieren a que, tras el impacto del asteroide, una gran cantidad de polvo y gases fue despedida a la atmósfera, bloqueando el paso de los rayos del sol.

El oscurecimiento del planeta impediría que los productores primarios (las plantas en medios terrestres y, fundamentalmente, algas unicelulares en los océanos) realizaran la fotosíntesis.

Cese de fotosíntesis

Partiendo de esta base, a finales del siglo pasado se propusieron varios modelos para explicar cómo un impacto meteorítico provocaría las extinciones en los océanos. Todos ellos implican un cese de la fotosíntesis durante un largo periodo de tiempo, de decenas a cientos de miles de años.

En el artículo publicado en PNAS se descarta el oscurecimiento del planeta como la principal causa de las extinciones, dado que no todos los microorganismos que realizaban la fotosíntesis sufrieron extinciones importantes, sólo los de conchas carbonatadas.

En este sentido, los autores del estudio proponen que la principal causa de las extinciones en medios marinos se debió a la rápida acidificación de los océanos, es decir, al descenso del PH en las aguas, que duraría muy poco en términos geológicos (de meses a años) y tendría lugar únicamente en las aguas superficiales oceánicas.

Un hecho que explicaría la extinción masiva de numerosos organismos de conchas carbonatadas que flotan en las aguas superficiales (sus conchas de carbonato se disolverían al disminuir el pH), así como de los mosasaurios, grandes peces, y ammonites.

Dado que la acidez de las aguas no llegaría a los fondos oceánicos, este modelo también explicaría la supervivencia de los organismos que habitan allí.

El Gran Colisionador de Hadrones


El Gran Colisionador de Hadrones, GCH (en inglés Large Hadron Collider, LHC) es un acelerador y colisionador de partículas ubicado en la Organización Europea para la Investigación Nuclear (CERN, sigla que corresponde a su antiguo nombre en francés: Conseil Européen pour la Recherche Nucléaire), cerca de Ginebra, en la frontera franco-suiza. Fue diseñado para colisionar haces de hadrones, más exactamente de protones, de hasta 7 TeV de energía, siendo su propósito principal examinar la validez y límites del Modelo Estándar, el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.

Dentro del colisionador dos haces de protones son acelerados en sentidos opuestos hasta alcanzar el 99,99% de la velocidad de la luz, y se los hace chocar entre sí produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos inmediatamente después del big bang.

El LHC es el acelerador de partículas más grande y energético del mundo. Usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés) y más de 2000 físicos de 34 países y cientos de universidades y laboratorios han participado en su construcción.

Una vez enfriado hasta su temperatura de funcionamiento, que es de 1,9 K (menos de 2 grados por encima del cero absoluto o −271,15 °C), los primeros haces de partículas fueron inyectados el 1 de agosto de 2008, y el primer intento para hacerlos circular por toda la trayectoria del colisionador se produjo el 10 de septiembre del año 2008. Aunque las primeras colisiones a alta energía en principio estuvieron previstas para el 21 de octubre de 2008, el experimento fue postergado debido a una avería que produjo la fuga del helio líquido que enfría uno de los imanes superconductores.

A fines de 2009 fue vuelto a poner en marcha, y el 30 de noviembre del 2010 se convirtió en el acelerador de partículas más potente al conseguir energías de 1,18 TeV en sus haces, superando el récord anterior de 0,98 TeV establecido por el Tevatrón estadounidense. El 30 de marzo de 2010 las primeras colisiones de protones del LHC alcanzaron una energía de 7 TeV (al chocar dos haces de 3,5 TeV cada uno) lo que significó un nuevo récord para este tipo de ensayos. El colisionador funcionará a medio rendimiento durante dos años, al cabo de los cuales se proyecta llevarlo a su potencia máxima de 14 TeV.

Teóricamente se espera que este instrumento permita confirmar la existencia de la partícula conocida como bosón de Higgs, a veces llamada “partícula de la masa”. La observación de esta partícula confirmaría las predicciones y “enlaces perdidos” del Modelo Estándar de la física, pudiéndose explicar cómo las otras partículas elementales adquieren propiedades como la masa.

Verificar la existencia del bosón de Higgs sería un paso significativo en la búsqueda de una teoría de la gran unificación, que pretende relacionar tres de las cuatro fuerzas fundamentales conocidas, quedando fuera de ella únicamente la gravedad. Además este bosón podría explicar por qué la gravedad es tan débil comparada con las otras tres fuerzas. Junto al bosón de Higgs también podrían producirse otras nuevas partículas cuya existencia se ha predicho teóricamente, y para las que se ha planificado su búsqueda, como los strangelets, los micro agujeros negros, el monopolo magnético o las partículas supersimétricas.

Fuente: Wiki

La Historia de la Astronáutica y la Carrera Espacial


Se llama astronáutica a la navegación realizada entre los astros, es decir, realizada fuera del ámbito de la Tierra. También es conocida como cosmonáutica, ya que también se realiza en el cosmos. El término astronáutica ha sido más utilizada en occidente, de ahí que los tripulantes de naves espaciales occidentales sean conocidos como astronautas, mientras que en la antigua URSS eran conocidos como cosmonautas, o navegantes del cosmos. Evidentemente esta disciplina no sólo incluye el estudio de los vuelos espaciales, sino que incluye también la investigación, construcción de los vehículos necesarios, así como una serie de tecnologías anexas.

A la hora de plantearse la posibilidad de salir de la atmósfera terrestre, tanto para orbitar alrededor de la Tierra como para navegar en el cosmos, se ha de tener siempre presente la fuerza de la gravedad. La gravedad es la fuerza que mantiene la cohesión del universo y la que rige su mecánica. Los vehículos o artefactos que vuelan por el espacio no son ajenos a esta fuerza.

Escapar a la gravedad terrestre

Como recordaremos, la ley de la gravitación universal, enunciada por Isaac Newton, dice que cualquier partícula de materia atrae a cada una de las demás con una fuerza directamente proporcional al producto de sus masas respectivas e inversamente al cuadrado de la distancia que las separa. Como los astros están en movimiento constante, la fuerza centrífuga provocada por ese movimiento contrarresta en parte la atracción gravitacional, creándose una complejísima maraña de interacciones entre unos cuerpos y otros.

Los cuerpos más grandes atraen con mayor fuerza a los pequeños. Esta atracción será más intensa si la distancia es poca. Así encontramos que ciertos cuerpos son capaces de atraer a otros obligándoles a orbitar a su alrededor. Si estos cuerpos atrapados por la gravedad de uno mayor estuvieran quietos serían arrastrados hasta chocar.

La gravedad que nos interesa en este caso, la de la Tierra, es muy poderosa. Nos mantiene sobre su superficie y da forma a todo nuestro mundo. A nivel intuitivo sabemos que todo cuerpo dejado en libertad en el aire caerá en dirección al centro de gravedad de la Tierra con una aceleración, es decir, su movimiento será cada vez más rápido según pasa el tiempo.

A la aceleración que sufren los cuerpos por efecto de la gravedad terrestre es conocida como g, y su valor oficial es de 9,81metros por segundo. Es fácil imaginar que este valor varía en cada cuerpo celeste. Así en la Luna, un cuerpo de una masa mucho menor que la de la Tierra, la aceleración de la gravedad es mucho menor a la terrestre, ya que su masa también lo es.

Un dato a tener en cuenta sobre el valor de g, 9,81 m/s., es que se trata de un valor en un punto concreto, a nivel del mar. Según dice la ley de la gravitación universal, si nos acercamos al centro de gravedad, ese valor aumentará. Si nos alejamos de ese punto, la aceleración de la gravedad tenderá a disminuir.

Una vez que sabemos como interactúa la gravedad de la Tierra con los cuerpos que hay en su superficie, tenemos un problema si queremos salir de la Tierra, bien hacia otros planetas, o bien para colocar un cuerpo en una órbita para que se comporte como un satélite. Hemos de vencer la fuerza de la gravedad que tenderá a que ese objeto caiga hacia el centro de gravedad. La experiencia nos dice que cuando lanzamos algo, este objeto seguirá subiendo hasta que su velocidad se anule y caiga.

¿Cómo hacer que un objeto nunca caiga hacia el centro de gravedad de la Tierra? Muy sencillo, haciendo que esté cayendo constantemente hacia ese punto y la forma de realizarlo es imprimiéndole una velocidad inicial horizontal adecuada. Esta velocidad es de aproximadamente de unos 8 km por segundo, es decir, unos 28.800 km/h. Aunque ese objeto se desplace a esa velocidad también tenderá a caer hacia el centro de gravedad de la Tierra.

Si la Tierra fuera plana, el objeto, pasado un tiempo, llegaría a la superficie. Pero la Tierra es una esfera y por cada 8 km que se recorren en un segundo, en sentido horizontal, ese cuerpo ha caído en ese mismo tiempo la cota del arco de 8 km. Esto significa que la caída de ese objeto coincide con la curvatura de la Tierra, por lo que la trayectoria es paralela a la superficie terrestre. Hemos logrado que ese objeto entre en órbita. A menor velocidad el cuerpo terminaría cayendo a tierra. Pero para que esta órbita sirva para algo debe de ser continua, ya que dentro de la atmósfera ese impulso inicial se iría perdiendo con el paso del tiempo por el rozamiento del aire.

Sin embargo, a una distancia de unos 200 km de la superficie terrestre, la atmósfera es inexistente. Además, no debemos olvidar que cuanto mayor sea la distancia del objeto al centro de gravedad, menor será la atracción gravitacional. Así, a partir de estas alturas, no encontramos nada que frene el avance del cuerpo y además la velocidad horizontal que se ha de lograr para equilibrar la fuerza de gravitación es menor. Como ejemplo baste decir que a 1.666 km sobre la superficie terrestre, la velocidad circular que contrarreste la fuerza de la gravedad es de 7,02 km por segundo.

Cuando hablábamos de la Tierra, la describíamos como un esfera para simplificar, ya que en realidad tiene una distribución irregular de las masas, además de estar achatada en ambos polos. Esto supone que las órbitas no sean circulares sino elípticas o excéntricas. En las órbitas elípticas de los satélites la Tierra ocupa un foco de dicha elipse.

Puede ocurrir que nuestra intención sea que un aparato viaje hacia otros lugares más lejanos. En ese caso también hay una velocidad de escape de la influencia gravitacional de la Tierra. Esa velocidad está establecida en 11,2 km segundo, o lo que es lo mismo 40.000 km/h. A partir de esa velocidad ese objeto no describe una elipse sino una parábola. Aún consideramos otra velocidad de escape y es la necesaria para escapar a la influencia gravitacional del Sol, establecida en 16,7 km por segundo.

CohetesAntes de establecer la órbita hemos tenido que elevar ese objeto hasta el punto de eyección, o lugar en donde inicia su órbita. Debemos conseguir que un cohete, sirva de portador al objeto que pretendemos poner en órbita y sea capaz de alcanzar la velocidad necesaria.

Realmente un cohete no es más que un gran contenedor del propergol, es decir, combustible y oxidante, listo para realizar la reacción química en el motor que produzca el empuje. Es cierto que además hay un gran número de sistemas que controlan su funcionamiento. No debemos olvidar que hay que acoplarle en la parte superior el satélite que se ha de poner en órbita. En un lanzamiento normal, o sea vertical, el motor debe ser capaz de elevar toda su masa, el empuje del motor debe superar la masa del cohete.

Otro problema al que se enfrentan los técnicos es el de lograr que el cohete alcance la velocidad necesaria para lograr poner en órbita un satélite, (aproximadamente 8 km por segundo). En este caso es muy importante relacionar la masa estructural del cohete y el peso total con el propergol. Cuanto menos pese la estructura y mayor carga de propergol pueda transportar, mayores posibilidades de alcanzar la velocidad adecuada. Pero la tecnología actual no permite que un cohete alcance la velocidad necesaria.

Este es un grave problema que sin embargo tiene una sencilla solución. Se recurre a los cohetes de fases, es decir, un cohete que en realidad se comporta como varios. Esto es así por que la velocidad de cada una de las etapas se suma. Se recurre a un cohete de 3 etapas, en la que cada etapa es capaz, por ejemplo, de imprimir al conjunto una velocidad de 3 km por segundo, lo que significa una velocidad final de 9 km por segundo. Además, cada etapa ha de imprimir esa velocidad a una masa cada vez menor. En primer lugar porque el propergol se va consumiendo en cada fase del vuelo. Además, cuando las etapas dejan de funcionar se desprenden del conjunto, con lo que la masa del cohete va descendiendo mientras aumenta la velocidad.

Para que este principio se cumpla, la masa de cada etapa sucesiva debe ser proporcionalmente mucho menor que la anterior. Aún así la relación entre la carga que se pondrá en órbita y el peso del cohete que ha de llevarla, incluyendo el propergol, es bajísima, aunque cada vez se hace más favorable con la mejora en la propulsión y en la utilización de materiales más ligeros.

Una vez que ya tenemos el cohete capaz de alcanzar las velocidades necesarias a lo largo de su vuelo, nos encontramos con que ese vuelo ha de ser controlado con gran exactitud. Los satélites están pensados para trabajos muy concretos que necesitan a la vez de órbitas precisas. A su vez, como ya comentamos, la forma de la órbita tiene mucho que ver con la velocidad del satélite y la forma en que es eyectado en su órbita correspondiente. Ya que el cohete, en sus primeras fases, vuela dentro de la atmósfera, el control efectivo de su actitud se realiza recurriendo a superficies de control similares a las que utiliza un avión, en este caso a aletas, normalmente en la base de la estructura. Pronto la densidad de la atmósfera es tan poca que las aletas no ejercen control efectivo, por lo que se recurre a pequeños motores cohete instalados en puntos estratégicos. Este es el mismo sistema que se utiliza en el resto de ingenios espaciales para su control. Ya tenemos listo el cohete. Su carga, montada en el extremo superior, va resguardada por una caperuza cónica conocida como ojiva.

Aunque la lógica nos dice que la trayectoria rápida para alcanzar una órbita es inclinando el cohete en esa dirección, el vuelo inicial es casi vertical. La razón es muy sencilla. El cohete alcanzará grandes velocidades aún en su primera fase de vuelo dentro de la atmósfera más densa. A las velocidades a las que se trabaja, el rozamiento de la atmósfera tenderá a frenar el movimiento además de calentar fuertemente el recubrimiento de la estructura. Cuanto menos tiempo permanezca el cohete en la atmósfera mucho mejor. La forma de hacerlo es mediante una trayectoria lo más vertical posible, que es la que suele coincidir con el funcionamiento de la primera fase.

Una vez que se ha alcanzado una altura suficiente y la densidad del aire es baja, comienza a funcionar la segunda fase del cohete que ya toma una inclinación vertical en busca de la órbita. La tercera fase será la que confiera al satélite la velocidad necesaria para entrar en órbita a la altura necesaria. Todas las funciones del cohete, así como sus evoluciones, son controladas desde tierra gracias a equipos de radio.

Historia de la astronáutica

Para hablar de la astronáutica, que ha dado todos sus frutos a lo largo de este siglo, hemos de retroceder hasta el siglo X, al menos, para encontrar la primeras aplicaciones del principio de reacción para impulsar un cuerpo, con los primeros cohetes de pólvora chinos. Ya en el siglo XIII estos cohetes se utilizaron como armas contra los mongoles. Con esta finalidad serán utilizados hasta que la artillería los desbanque en el siglo XIX.

Curiosamente antes de que el cohete se desarrollara como un instrumento útil, podemos encontrar a un gran número de visionarios que ya piensan en la exploración espacial y que investigan sobre los problemas de la propulsión. Uno de los primeros es el ruso Kibalchich. Pensaba utilizar para la propulsión la pólvora dentro de una cámara de combustión. Era un gran especialista en la utilización de dicho elemento aunque parece ser que para la construcción de bombas, motivo por el que fue ejecutado en 1881. Otro de los pioneros, que expuso sus teorías a finales del siglo XIX, fue el alemán Ganswindt. Sin embargo, el que todos los estudiosos consideran como el padre de la astronáutica es el ruso Konstantin Eduardovich Tsiolkovski. Su obra, Exploración del universo mediante vehículos propulsados por cohetes, sienta las bases de la astronáutica.

En 1921, Tijomirov crea en la URSS el Laboratorio de Dinámica de Gases, que tan buenos resultados obtendría en la aplicación de los cohetes a la artillería de saturación durante la II Guerra Mundial. Se trataba de los cohetes Katiuska, cuyos lanzadores eran conocidos como los Órganos de Stalin.

El americano, Robert Hutchins Goddar, inició en 1926 sus trabajos en cohetes en su afán de alcanzar cada vez mayor empuje y altura. Fue el primer investigador que trabajo con propergol líquido con el que obtuvo grandes éxitos. Uno de sus ingenios superó en 1935 la velocidad del sonido. Pero desgraciadamente sus experiencias no sirvieron de mucho ya que su trabajo fue ignorado y será otro país, Alemania, el que tomará la delantera en este campo.

Los alemanes crearon en 1930 un campo de experimentación cerca de Berlín que sirvió de embrión para el desarrollo de un vasto programa sobre cohetes de uso militar. Tenían como base los trabajos teóricos de otro precursor, el alemán Julius Obert. En 1936 se centralizan todas estas experiencias en una isla del mar Báltico, en un lugar conocido como Peenemünde, controlada por el ejército alemán.

Entre los técnicos que trabajarán en esta base se encuentran Maximilian Valier, Walter Neubert y el famoso Wernher von Braun, que más tarde será el padre de los más importantes cohetes americanos. Sus trabajos darán lugar a los primeros cohetes realmente útiles de la historia, eso sí, de uso militar. Tras años de experimentos, en 1942 vuela el primer A 4. Se trata de un cohete de propergol líquido, concretamente alcohol y oxígeno líquido, que logra alcanzar alturas de 200 km y velocidades superiores a los 5.000 km/h. Este será el primer cohete que salga de la atmósfera terrestre. Con 14 m. de altura y más de 12 t. de peso se trata pues de un sistema ya muy evolucionado, capaz de transportar explosivos, a más de 300 km. El cohete conocido militarmente como V 2, será el origen de los desarrollos posteriores en la técnica de los cohetes.

Esos técnicos que habían logrado el primer cohete moderno de la historia, serán uno de los botines más apetecidos tras la derrota de Alemania en 1945. Tanto las potencias occidentales como la URSS emprendieron una auténtica carrera para hacerse con el mayor número de V 2, así como de los ingenieros que las hicieron posibles. Ellos serán la base del desarrollo de los cohetes en ambos bloques. En 1947 los soviéticos ya realizan desarrollos de las V 2 con mayores capacidades. También los norteamericanos empiezan sus trabajos sobre esos mismos cohetes. En los EEUU es donde volará el primer cohete de dos etapas en 1949. Se trata del cohete Bumper. La primera fase es una V 2, mientras que la segunda es un desarrollo americano llamado WAC Corporal. Con este cohete se logra una altura de 392 km. Todavía los esfuerzos técnicos están más centrados en las posibilidades como armamento de estos ingenios que como plataforma para llegar al espacio.

La carrera espacial

Será la URSS la que dé muestras de mayor agilidad en este campo, con la puesta en funcionamiento del primer cohete intercontinental: el SS 6, que convenientemente remozado será el cohete utilizado en los primeros vuelos espaciales. Aunque los EEUU habían anunciado que pondrían en órbita su primer satélite artificial en 1957-1958, para conmemorar el Año Geofísico Internacional, fueron los soviéticos los que dieron la sorpresa el día 4 de octubre de 1957, colocando en órbita el primer objeto artificial de la historia: el Sputnik 1. Lo sorprendente de la hazaña es que este satélite, que tan sólo portaba un emisor encerrado en una carcasa esférica, tenía un peso realmente elevado, 86,3 kg. El cohete portador era un Vostock y el satélite describía una órbita completa a la Tierra en 96 minutos.

El pánico se desató en los EEUU y la Guerra Fría encontró otro nuevo escenario para el combate, el espacio. Los americanos se apresuraron a responder al desafío, pero todos los intentos acabaron en fracaso. Mientras, la URSS no deja de sorprender al mundo lanzando el 3 de noviembre del mismo año el Sputnik 2. Para la época se trataba de un satélite inmenso ya que medía 4 m y pesaba 508 kg. Pero lo más sorprendente es que a bordo llevaba una perra, Laika, que se mantuvo viva y en perfectas condiciones durante 7 días. Era la demostración de que los vuelos tripulados eran posibles.

No será hasta enero de 1958 cuando los EEUU logran poner en órbita su primer satélite: el Explorer 1. Aunque varias misiones posteriores son un fracaso, también logran poner en órbita el Vanguar 1, primer satélite que utiliza células solares para producir energía eléctrica. Otro éxito es la colocación en órbita del primer satélite de comunicaciones SCORE. Finalmente, en octubre de ese año se crea la Agencia Espacial de los Estados Unidos, NASA, que a partir de este momento centralizará todo el esfuerzo en el campo de la astronáutica. Ese año los soviéticos dan un paso más y lanzan a dos perras que después son recuperadas con total normalidad.

En el año 1959 los soviéticos logran lo que antes intentaron en varias ocasiones, alcanzar la Luna gracias a la sonda Lunik 2 que invierte 34 horas en alcanzar nuestro satélite. Será la Lunik 3 la que logre llegar a la Luna y volver a una órbita terrestre tras transmitir las primeras imágenes de la cara oculta del satélite.

La década de los 60 será sin duda la más intensa en la carrera, aunque no hay que olvidar que también es la que marca el inicio de los satélites artificiales como plataformas usuales de investigación, pero también para otros usos. Así, a principios de esta década encontramos los primeros satélites meteorológicos como el TIROS 1, de comunicaciones como el Echo 1, el más avanzado Courier 1B, y el de defensa como el Midas 3.


Vuelos espaciales tripulados

Para responder al reto de colocar un hombre en órbita, los EEUU preparan el proyecto Mercurio. En una cápsula de este tipo, en enero de 1961, vuela el chimpancé Ham, que vuelve a la tierra en perfectas condiciones. Pero de nuevo los soviéticos dan la sorpresa. El cosmonauta Yuri A. Gagarin es el primer hombre que llega al espacio, el día 12 de abril de 1961. Es, a su vez, el primero que entra en órbita, describiendo una revolución completa al planeta antes de descender en su cápsula Vostok. Parece ser que este vuelo sufrió graves problemas que hicieron peligrar la vida de Gagarin.

Los EEUU no pudieron enviar su primer hombre al espacio hasta el 5 de mayo, aunque la trayectoria de la cápsula Mercurio era de tipo balística, es decir, no entra en órbita. Los americanos realizan tres misiones de este tipo hasta que en 1962, John Glenn logra las primeras tres órbitas. De todos modos el reto era muy distinto ya que en el verano anterior el cosmonauta Titov había logrado pasar un día completo en órbita.

Los soviéticos ganaban claramente la carrera. Ese era el momento de lanzar una apuesta más arriesgada y eso fue lo que hizo el presidente estadounidense John F. Kennedy, apostar por alcanzar la Luna antes de que terminara la década. Será la década de oro para la NASA, con presupuestos casi ilimitados. Era el momento de contrarrestar el avance comunista hasta en el espacio y el ciudadano de a pie seguía ansioso cada progreso en la carrera del espacio. En 1963 los soviéticos dan otra vez la campanada con el primer vuelo de una mujer, Valentina V. Terechkova.

Es importante hacer notar que los EEUU, aunque avanzan de forma más lenta en el campo de los vuelos tripulados, logran grandes éxitos en el campo de los satélites. Los de comunicaciones se muestran fiables y capaces de permitir buenas comunicaciones entre continentes como el Syncom I y II y el Telstar. Una de las grandes aportaciones soviéticas durante 1963 es la puesta en órbita del satélite Polet que es capaz de cambiar de órbita de forma controlada.

En cuanto a los nuevos cohetes, los EEUU logran lanzar el Saturno I en 1964, el cohete más potente de la época y que será determinante en el proyecto de llegar a la Luna. También en este año se produce el primer vuelo en el que la cápsula acoge a más de un tripulante, concretamente son tres cosmonautas.

En cuanto a la investigación de otros planetas, se inicia con algunos intentos de alcanzar Venus y Marte. La sonda americana Mariner llega cerca de Venus en 1962 aportando diversa información, mientras que la Mariner 4 alcanza en 1965 Marte, enviando imágenes de este planeta.

El evento más importante ocurrido durante 1965 es, sin duda, el primer paseo espacial de la historia. Ocurrió el 18 de marzo de ese año, cuando el cosmonauta soviético Alexei A. Leonov salió de la cápsula Vosjod 2, permaneciendo fuera de la nave durante 10 minutos. Leonov, equipado con un traje espacial, estuvo en todo momento sujeto a la cápsula con un cable. Apenas tres meses después, el astronauta Edward White logra ser el primer americano en salir de una cápsula en plena órbita. También fue el año del primer lanzamiento de un cohete espacial francés.

El año 1966 está marcado por los preparativos para la llegada del hombre a la Luna. Los primeros son los soviéticos que logran posar de forma suave sobre su superficie una sonda. Se trata de la Luna 9. Este aparato capaz de enviar fotografías, será seguido por la Luna 13 que es capaz de tomar muestras del suelo y analizarlas. También los EEUU consiguen enviar una sonda a nuestro satélite, concretamente la Surveyor, que permanecerá activa durante varios meses. En el marco de esa preparación, dos astronautas, Neil Armstrong y David Scott, logran que la cápsula Géminis 8 se acople a un cohete Agena en pleno vuelo.

Camino de la Luna

La NASA había logrado los objetivos fijados dentro del programa Géminis, por lo que en 1967 pasa al siguiente programa, el Apolo, con el objetivo puesto en la Luna. Dicho programa no puede empezar peor. En enero de ese año mueren tres astronautas durante un ensayo en el Apolo I, lo que supuso el más grave de los accidentes en este campo hasta la fecha. Tampoco el programa soviético se libraba de estos accidentes y en abril murió un cosmonauta a bordo de la nave Soyuz I. Ese mismo año la sonda soviética Venusik 4 alcanza el planeta Venus, enviando importantes datos del poco conocido planeta.

La siguiente prueba para el programa Apolo es el de la permanencia de los tripulantes en el espacio. El Apolo VII logra en octubre de 1968 permanecer 11 días en el espacio con tres tripulantes a bordo. El camino hacia la Luna estaba despejado.

El año 1969 se inicia con un ensamblaje de dos naves tripuladas. Fue realizado por las soviéticas Soyuz V y la Soyuz VI. Mientras los soviéticos parecían haber perdido el interés por la Luna, los EE.UU. seguían sus progresos dentro del programa Apolo. La misión Apolo IX incluye la separación del módulo de descenso lunar LEM, tripulado por dos astronautas, para volver a unirse a la cápsula más tarde orbitando sobre la Luna. La siguiente misión llevó el LEM muy cerca de la superficie del satélite.

El Apolo XI siguió el mismo programa que las dos misiones anteriores. Una vez que los astronautas entraron en la órbita del satélite, el módulo lunar Eagle se separó del módulo de mando en el que permaneció el astronauta Michael Collins. El Eagle llevaba a bordo a Edwin Aldrin y Neil Armstrong, que será el que pise por primera vez la superficie lunar el día 20 de julio de ese año.

Durante algo más de dos horas permanecen fuera del módulo haciendo diversas pruebas y recogiendo muestras. Terminada la misión, el módulo lunar abandona la superficie para unirse al módulo de mando e iniciar la vuelta a la Tierra. En total la misión duró algo más de 8 días. Por fin los estadounidenses pueden presumir de haber batido ampliamente a los soviéticos. Antes de que acabe el año, el Apolo XII llega de nuevo a la superficie del satélite.

El mes de abril de 1970 se produce el intento fallido de llegada a la Luna del Apolo XIII, que tras un accidente puede volver a la Tierra, con su tripulación a salvo. Ese mismo año la República China pone en órbita su primer satélite artificial, entrando de esta forma en el club de las potencias espaciales.

A finales de este año la URSS lanza el Lunik 17, que alcanza la Luna. A bordo de este ingenio se encuentra un vehículo, el Lunajod, que es capaz de rodar por la superficie del satélite. Al año siguiente ponen en órbita la primera estación espacial de la historia, la nave Salyut. Esta estación puede ser visitada por los cosmonautas en naves Soyuz. La primera tripulación permanece 24 días en su interior, aunque en el regreso se produce un accidente, en el que pierden la vida los tres cosmonautas.

Durante 1971 llega a la Luna el Apolo XV que permaneció 4 días en la Luna, llevando a bordo un vehículo para desplazarse por la superficie. Los EE.UU. comienzan en 1972 sus misiones con sondas de larga duración, con el lanzamiento del Pioneer X en dirección a Júpiter. Ese mismo año se realiza la que será última misión tripulada a la Luna hasta el momento, la Apolo XVII. En estos momentos los programas espaciales no logran despertar el entusiasmo popular de la década pasada y se empieza a cuestionar su rentabilidad. A partir de este momento se reorientará el programa espacial americano. Los soviéticos seguirán con su programa Salyut no exento de problemas.

De fracaso se puede considerar el primer y ambicioso laboratorio espacial americano, el Skylab. Puesto en órbita en 1973, es ocupado por varias tripulaciones a pesar de sus problemas técnicos, que lo dejarán inservible hasta el momento de su descenso y desintegración en 1979.

En 1975 se asiste a la primera misión conjunta realizada por los EE.UU. y la URSS. Consistía en la unión de una nave Apolo y otra Soyuz. Durante dos días las tripulaciones de ambas naves realizaron diversos experimentos.

Ese mismo año nace lal que terminará siendo el gran competidor de soviéticos y americanos en el espacio es la Agencia Espacial Europea o ESA, como resultado de la fusión de otros organismos europeos. Su base de lanzamiento se establece en Kourou, en la Guayana Francesa. Su programa de lanzadores será conocido como Ariane, el primero de los cuales hace su vuelo a finales de 1979.

El uso del satélite artificial ha alcanzado en este punto una gran difusión, baste saber que hasta 1980, el número de estos aparatos puestos en órbita era de 2.170. Concretamente el mayor número de estos ingenios lo constituyen los de comunicaciones. Además hemos de destacar el gran avance que suponen los satélites para la meteorología. Una de las series de satélites meteorológicos más famosa se inicia con el lanzamiento del Meteosat 1 en 1977. También ese año los EEUU lanzan dos sondas: la Voyager 1 y 2. Estas sondas han aportado interesantes datos sobre los planetas exteriores del sistema solar.

El transbordador espacial americano Columbia vuela en 1981. Se trata de una nave orbital reutilizable, con forma de avión. En el momento del lanzamiento se le acopla un gran depósito de combustible líquido, además de dos cohetes laterales de combustible sólido. El empuje a la hora del despegue es proporcionado por los motores principales, alimentados por el depósito externo y los dos aceleradores laterales. A unos 40 km de altura se desprenden los cohetes auxiliares, que pueden ser utilizados varias veces. A mayor altura el tanque principal se desprende y queda sólo el orbitador. Tiene en su interior una gran bodega en la que se pueden transportar tanto laboratorios, como sondas o satélites.

Gracias a un brazo articulado estos ingenios pueden ser sacados de la bodega o incluso atrapar objetos para ser trasladados a tierra. Será la tripulación del transbordador Discovery en 1984 la primera que atrape un satélite en órbita para introducirlo en la bodega. Terminada la misión el orbitador vuelve a la Tierra planeando para perder altura y velocidad antes de aterrizar como un avión normal. Pronto se comprobó que para colocar satélites en órbita era mucho más caro que los lanzadores convencionales. En 1984 se produce la primera misión en la que un astronauta americano se aleje del transbordador sin estar unido físicamente a éste. Utiliza una mochila especial con un gran número de pequeños cohetes.

En la década de los 80 la cooperación entre Europa y los EEUU se hace más estrecha, así ESA y NASA participan conjuntamente en varios programas. En 1983 el transbordador espacial lleva a bordo un laboratorio reutilizable, llamada Spacelab construido por la ESA y que viajará en varias ocasiones al espacio.

Los soviéticos, por su parte, se están especializando en prolongadas permanencias en el espacio. En este sentido, logran en 1986 uno de sus mayores éxitos al colocar en órbita la estación Mir. Se trata de un conjunto de módulos de tipo científico, en el que los cosmonautas pueden permanecer durante largos períodos de tiempo. Se ha sobrepasado el año, realizando investigaciones de todo tipo. La operatividad de esta estación es muy alta ya que para su mantenimiento se ha ideado un sistema de naves no tripuladas muy sencillas, capaces de atracar automáticamente.

Precisamente en el año 86 se registra la mayor catástrofe de la carrera espacial al morir los 7 ocupantes del transbordador americano Challenger, a los pocos segundos de su despegue.
Al año siguiente, 1987, nace otra potencia espacial: Japón, con el lanzamiento del cohete H1 portando un satélite de comunicaciones.

Los soviéticos deciden apostar por un vehículo reutilizable como el transbordador americano y crean el Buran. Hace un vuelo automático en 1988 con total éxito, aunque esta será su primera y única misión. Sin embargo, de este proyecto sale el que es en la actualidad el cohete más potente, el Energía, capaz de elevar hasta su órbita baja una carga de 100 t.

En Europa, sigue el éxito comercial de los lanzadores Ariane. En 1988 se presenta la serie 4 de este lanzador, que será el cohete con el que Europa competirá con los lanzadores americanos por el creciente mercado de lanzamiento de satélites.

La siguiente década comienza con uno de los proyectos científicos más espectaculares: la puesta en órbita de un gran telescopio, el Hubble. Se trata de un satélite con el que se pueden realizar observaciones astronómicas imposibles de conseguir desde la Tierra. Este instrumento, de más de 12 t. de peso fue puesto en órbita en 1990 por el transbordador espacial. Pero lo más espectacular es que en 1994 fue reparado en órbita por los astronautas de otro transbordador, en una operación muy compleja que se saldó con un rotundo éxito. Esta operación fue también un ensayo para la construcción de la proyectada estación espacial americana.

Desde la década de los 80 el programa espacial soviético se iba ralentizando ante los problemas económicos crecientes. El grueso del programa se centraba en la estación Mir, aunque sin olvidar la exploración, como la realizada por las sondas Venera.

El colapso llegó con la desintegración de la URSS. A partir de este momento la situación se hace crítica. Los lanzamientos se ralentizan y el antiguo programa soviético queda dividido entre las distintas repúblicas que formaban la antigua URSS, aunque el peso de las operaciones lo llevará Rusia. Desde ese momento la situación se ha normalizado, dando lugar a un alto nivel de cooperación entre las potencias espaciales. Así cosmonautas rusos, europeos y americanos han podido participar en programas de cada una de las agencias. Los rusos necesitan financiación, mientras que los EEUU necesitan la gran experiencia en vuelos de larga duración y en estaciones orbitales que han acumulado los rusos. Así, el transbordador americano ya ha atracado en la base Mir, lo que es sólo el preludio de una cooperación más estrecha en la construcción de la estación espacial Alpha.

El proyecto Alpha ha sido uno de los más polémicos de los últimos años, ya que a él se han enfrentado los políticos americanos alegando sus costes. Se rebajaron sus características y se dio paso a la colaboración de rusos, canadienses, japoneses y europeos. Se espera que los primeros módulos sean lanzados en 1997, a la espera de completar todo el conjunto en los primeros años del próximo siglo.

En cuanto a los programas no tripulados hemos de destacar el programa conjunto americano-europeo Ulysses para la exploración de los polos del Sol y el programa ISO, un proyecto europeo de satélite con un telescopio de infrarrojos.

En cuanto al futuro cabe señalar que todos los expertos hablan sobre una misión tripulada a Marte, sobre todo ahora que la cooperación entre las distintas agencias nacionales hace más asumible el coste económico y tecnológico. Durante los últimos años se ha seguido con el envío de sondas a Marte como parte de una futura misión. De todos modos aún no hay ningún proyecto concreto.

Presencia de agua en Marte


La presencia de agua en Marte se investiga desde hace cientos de años. La geografía del planeta parece indicar fuertes accidentes que habrían sido producidos por el agua en tiempos pasados, en condiciones ambientales muy diferentes de las actuales. Hoy la atmósfera de Marte se estima que tiene un 0,01 % de agua en forma de vapor y se sabe que hay también agua helada en el subsuelo. La presión atmosférica marciana es muy inferior a la de la Tierra y la temperatura también; estas condiciones ambientales hacen que el ciclo del agua en Marte sea diferente al de la Tierra, puesto que esta pasa directamente de estado sólido a gaseoso y viceversa sin pasar por el estado líquido.

 

Reconstrucción del Oceano de Marte

La noción de agua en Marte precedió a la era espacial por cientos de años. Los primeros observadores, utilizando telescopios ópticos, asumieron correctamente que los casquetes y las nubes polares de color blanco eran indicadores de la presencia de agua. Estas observaciones, junto con el hecho de que Marte tiene un día de 24 horas, llevó al astrónomo William Herschel a declarar en 1784 que Marte probablemente ofrecería a sus hipotéticos habitantes «una situación en muchos aspectos similar a la nuestra».

A principios del siglo XX, la mayoría de los astrónomos reconocían que Marte era mucho más frío y seco que la Tierra. La presencia de océanos ya no se aceptaba, por lo que el paradigma cambió a una imagen de Marte como un planeta «moribundo» con solo una escasa cantidad de agua. Las áreas oscuras, que se podía ver como cambiaban estacionalmente, fueron consideradas entonces como extensiones de vegetación.​ La persona responsable de popularizar esta visión de Marte fue Percival Lowell (1855 – 1916), quien imaginó una raza de marcianos construyendo una red de canales para llevar agua desde los polos a los habitantes establecidos en el ecuador del planeta. A pesar de generar un tremendo entusiasmo público, las ideas de Lowell fueron rechazadas por la mayoría de los astrónomos. El consenso científico establecido por entonces es probablemente mejor resumido por el astrónomo inglés Edward Maunder (1851-1928), quien comparó el clima de Marte con «las condiciones sobre un pico de seis mil metros de altura en una isla del Ártico, donde solamente se podría esperar que sobreviviesen los líquenes».

Mientras tanto, muchos astrónomos estaban refinando la herramienta de la espectroscopia planetaria con la esperanza de determinar la composición de la atmósfera de Marte. Entre 1925 y 1943, Walter Adams y Theodore Dunham del Observatorio del Monte Wilson intentaron identificar el oxígeno y el vapor de agua en la atmósfera marciana, con resultados generalmente negativos. El único componente de la atmósfera marciana conocida con certeza fue el dióxido de carbono (CO2) identificado espectroscópicamente por Gerard Kuiper en 1947.​ El vapor de agua no fue detectado inequívocamente en Marte hasta 1963.

La composición de los casquetes polares de Marte, se había asumido que estaban formados por hielo de agua desde los tiempos de Cassini (1666). Sin embargo, esta idea fue cuestionada por algunos científicos en el siglo XIX, que pensaron en el hielo de CO2 debido a la baja temperatura total del planeta y a la apreciable carencia evidente de agua. Esta hipótesis fue confirmada teóricamente por Robert Leighton y Bruce Murray en 1966.​ Actualmente se sabe que los casquetes invernales en ambos polos se componen principalmente de hielo de CO2, pero que permanece una capa permanente (o perenne) de hielo de agua durante el verano en el Polo Norte. En el Polo Sur, un pequeño casquete de hielo de CO2 permanece durante el verano, pero esta capa también está cubierta por el hielo de agua.

La pieza final del rompecabezas del clima marciano fue proporcionada por el Mariner 4 en 1965. Las granuladas imágenes de televisión enviadas por la nave espacial mostraron una superficie dominada por cráteres de impacto, lo que implicaba que la superficie era muy antigua y no había experimentado el nivel de erosión y actividad tectónica presente en la Tierra. Poca erosión significaba que el agua líquida no había desempeñado probablemente un papel grande en la geomorfología del planeta durante miles de millones de años. Además, las variaciones en las señales de radio de la nave espacial a medida que pasaba detrás del planeta permitían a los científicos calcular la densidad de la atmósfera. Los resultados mostraron una presión atmosférica inferior al 1% de la tierra en al nivel del mar, excluía de forma efectiva la existencia de agua líquida, que rápidamente herviría o se congelaría a presiones tan bajas.​ Estos datos generaron una visión de Marte como un mundo muy parecido a la Luna, pero con una tenue atmósfera capaz de mover el polvo alrededor alrededor del planeta. Esta visión de Marte duraría casi otra década, hasta que el Mariner 9 mostró un Marte mucho más dinámico, con indicios de que el ambiente del pasado del planeta fue menos inclemente que el actual.

El 24 de enero de 2014, la NASA informó acerca de que los vehículos exploradores Curiosity y Opportunity estaban buscando evidencias de antigua vida en Marte, incluyendo indicios de una biosfera basada en microorganismos de nutrición autótrofa, quimiótrofa y/o litótrofa, así como la antigua presencia agua, incluyendo planicies lacustres (llanuras relacionadas con ríos antiguos o lagos) que puedieran haber sido habitables.

Durante muchos años se pensó que los restos observados de las inundaciones fueron causados por la liberación de un acúmulo de agua global, pero una investigación publicada en 2015 revela depósitos regionales de sedimentos y de hielo formados 450 millones de años antes de convertirse en flujos de agua.​ Así, «la deposición de sedimentos de los ríos y el derretimiento glacial rellenaron cañones gigantes en el fondo del antiguo océano primordial que había ocupado las tierras bajas del norte del planeta», y «fue el agua preservada en estos sedimentos de los cañones la que fue liberada más tarde formando grandes inundaciones, cuyos efectos pueden ser vistos hoy.»


Dos posibles océanos

La existencia de océanos en el Marte antiguo ya se ha sospechado antes y las características que recuerdan a las costas han sido identificadas con imágenes desde varias naves espaciales. Pero, aún así, sigue siendo un tema controvertido.

Por el momento, los científicos han propuesto dos posibles océanos: uno de hace 4.000 millones de años, cuando prevalecía un clima más cálido, y otro de 3.000 millones de años atrás cuando el hielo se fundió bajo la superficie después de un gran impacto y creó canales de salida que drenaban el agua hacia zonas de poca elevación.

“El instrumento MARSIS penetra profundamente en el suelo, dejando al descubierto los primeros 60-80 metros de subsuelo del planeta”, dice Kofman Wlodek, líder del equipo de radar en el IPAG. “A lo largo de toda esta profundidad, hemos visto evidencias de material sedimentario y de hielo”.
Los sedimentos revelados por MARSIS son áreas de baja reflectividad al radar. Estos sedimentos son normalmente materiales granulares de baja densidad que han sido erosionados por el agua y llevados por ella hasta su destino final.

Demasiado efímeros para formar vida

Este océano, sin embargo, habría sido temporal. En un millón de años o menos, según estimaciones Mouginot, el agua o se habría congelado allí mismo y conservado bajo tierra o se habría convertido en vapor y levantado poco a poco en la atmósfera.

“Yo no creo que pudiera haber quedado como un océano el tiempo suficiente como para llegar a formar vida”, explica el investigador. Con el fin de encontrar evidencia de vida, los astrobiólogos tendrán que buscar aún más atrás en la historia de Marte, cuando el agua líquida existió durante mucho más tiempo.

Sin embargo, este trabajo proporciona algunas de las mejores evidencias de que hubo alguna vez grandes cantidades de agua líquida en Marte y es una prueba más del papel del agua líquida en la historia geológica marciana. “Esto añade nuevas piezas de información para el rompecabezas, pero se mantiene la pregunta: ¿de dónde vino todo el agua?”, se pregunta Mouginot.

El Proceso del Nacimiento y Muerte de las Estrellas


Desde que una nube de hidrógeno empieza a contraerse por fuerzas gravitatorias hasta que es un cuerpo inerte, opaco, una estrella pasa por una serie de etapas, cada una de las cuales tiene un tamaño, luminosidad y proceso termonuclear distinto.


Nucleosíntesis estelar

En las regiones centrales de las estrellas, donde existe una alta presión y una elevada temperatura, se producen reacciones de fusión termonuclear, que originan la radiación que emite. La temperatura necesaria para que se produzcan estas reacciones tiene su origen en la contracción gravitatoria de las estrellas, y por tanto dependerá fundamentalmente de su masa. Esto implica que existirá un límite inferior de la masa de una estrella para que pueda radiar. Hay que resaltar que estas reacciones de fusión son el origen de todos los elementos más pesados que el hidrógeno que existen en el Universo.

En el centro de las estrellas de la secuencia principal (el 90% de las que existen) se dan unas condiciones de temperatura (107 K) y presión (103 atm) que hacen posible la fusión de los núcleos de hidrógeno para dar lugar a núcleos de helio. Estas reacciones se producen mediante diversos procesos, el más importante de los cuales es la cadena protón-protón o p-p, en la cual cuatro núcleos de 1H se fusionan para formar un núcleo de 4He.

En una etapa más evolucionada de la secuencia principal se produce la fusión del hidrógeno a través del denominado ciclo CNO, en el cual intervienen isótopos del carbono, del nitrógeno y del oxígeno, y donde el carbono tiene un papel de catalizador. Este ciclo produce más energía que la cadena p-p, sin embargo sólo se produce en los núcleos de las estrellas más calientes.

Una vez que se agota el hidrógeno central, la reacción de fusión se detiene, y roto el equilibrio entre la fuerza gravitacional y la fuerza hidrostática alimentada por el horno nuclear, se produce una contracción gravitatoria del núcleo. Como consecuencia de esta contracción se libera energía gravitacional y aumenta la temperatura, pudiendo iniciarse las reacciones de fusión de elementos más pesados.

En estrellas con masas superiores a 2 M, la implosión central hace que se alcancen en el centro temperaturas del orden de 100 millones de grados, lo que hace posible las reacciones de fusión del helio en carbono. El inicio de esta etapa puede ser muy rápido (en escala astronómica), que da lugar al denominado flash de helio.

En estrellas aún más masivas una nueva contracción al acabarse el helio supone un aumento adicional de la temperatura del núcleo, compuesto de las cenizas o productos de fusión del helio, generalmente carbono, nitrógeno y oxígeno. La temperatura alcanza valores de 500 millones de grados, produciéndose entonces la fusión del carbono para formar sodio.

En las estrellas supergigantes (10 M) se alcanza una etapa de fusión del oxígeno, para lo cual se requieren temperaturas del orden de mil millones de grados. El producto más abundante de esta reacción de fusión es el silicio. En estrellas supergigantes con masas mayores de 10 M se alcanzan temperaturas centrales de varios miles de millones de grados, produciéndose la fusión lenta del silicio para dar lugar principalmente al hierro. Al final de la evolución de estas estrellas se llega a una estructura en capas, en la que cada capa es rica en un tipo de isótopo en particular. El núcleo esta compuesto de 56Fe, que no puede experimentar sucesivas nucleosíntesis por ser a partir de este elemento reacciones endoenergéticas. Debido al fin de los procesos de producción de energía, la estrella colapsa por efecto de su gran densidad y explota en lo que se conoce como una explosión de supernova, donde se produce tal cantidad de energía que la estrella brilla tanto como una galaxia entera durante algunos días.

Para explicar la existencia de elementos más pesados que el hierro es necesario considerar reacciones nucleares de adicción de neutrones. Estas reacciones son más rápidas que las cadenas de fusión de la nucleosíntesis estelar, y se producen durante las explosiones de supernova.

El hidrógeno, combustible nuclear de las estrellas normales, y parte del helio, tiene su origen directamente en la Gran Explosión (Big Bang) que se supone el origen del Universo. Una prueba crucial de los modelos cosmológicos es predecir las abundancias correctas de hidrógeno y helio primigenio.

Fases de la evolución estelar.

Las fases evolutivas de una estrella de 1 M pueden resumirse en: protoestrella (duración 150 millones de años), etapa en la secuencia principal (10 000 millones de años), fase de gigante roja ( 1000 millones de años) y evolución hacia enana blanca ( 20 millones de años).

Para entender la evolución estelar hay que considerar el teorema de Russell-Vogt, que establece que la estructura física de una estrella está determinada únicamente por su masa y por su composición química. Estos dos parámetros serán, por tanto, los que fijen la posición de la estrella en el diagrama HR; la evolución de las estrellas va a estar determinada principalmente por la variación de la composición química, ya que la variación de la masa no es muy grande. A continuación se describen sucintamente las etapas más importantes.

Fase de secuencia principal.

Las estrellas inician su vida en la secuencia principal. En ella se produce la energía por medio de la fusión del hidrógeno en helio, y es la etapa más larga de la evolución estelar; es por ello que a estas estrellas se las distinga como normales (tal como es el Sol). La duración de esta fase corresponde al tiempo necesario para que una masa crítica del hidrógeno central se fusione en helio; la fracción que representa esta masa crítica respecto al total de la estrella es de 7-10%. Puede estimarse la vida en la secuencia principal de una estrella suponiendo que toda la masa crítica se transforma en energía según la relación E = m c2, y conociendo su luminosidad.

Considerando la relación empírica masa-luminosidad para las estrellas de la secuencia principal se observa que la duración de la fase de secuencia principal sea menor cuanto mayor es la masa de la estrella, pues las estrellas más masivas emiten más energía por unidad de tiempo que las menos masivas, y por tanto consumen antes su combustible nuclear.

La masa de las estrellas en la secuencia principal aumenta a medida que se sube hacia el extremo de altas temperaturas efectivas. Las estrellas con una masa inferior a 0.08 M tienen una temperatura central demasiado baja para producir reacciones nucleares de fusión de hidrógeno, y por tanto se denominan enanas marrones. Se cree que pueden contribuir significativamente a la masa oscura del Universo.

Etapa gigante roja

A medida que se va consumiendo el hidrógeno central, el helio va reemplazando al hidrógeno. Al agotarse el hidrógeno las reacciones nucleares cesan, y la temperatura y presión del núcleo de helio disminuyen. Esto produce un colapso gravitatorio del núcleo, y se libera energía en el proceso. Como consecuencia, las capas exteriores se calientan y se dilatan, con lo que aumenta el tamaño de la estrella y disminuye su temperatura efectiva. Por otro lado, el aumento de temperatura en la capa de hidrógeno que rodea al núcleo de helio inicia ahí las reacciones de fusión del hidrógeno, y aumenta por tanto la luminosidad de la estrella. En el diagrama HR, la estrella se desplaza hacia la zona de gigante roja, ya que aumenta su tamaño y su color se desplaza hacia el rojo (ley de Wien).

Por medio de sucesivas contracciones del núcleo se van iniciando las reacciones de fusión de elementos cada vez más pesados. Debido a esto, el tamaño de la estrella disminuye mientras su luminosidad se mantiene casi constante. La estrella evoluciona hacia su estado final moviéndose hacia la izquierda en el diagrama HR.

Etapas finales de la evolución

Para las estrellas de la secuencia principal, el equilibrio hidrostático está definido por la presión hidrostática o gaseosa. En las fases finales, con la materia del centro de la estrella nuclearmente inerte y sometida a elevadísimas presiones por efecto de su gran densidad, las fuerzas de compresión gravitatorias son compensadas por una presión de origen cuántico, la denominada presión de degeneración electrónica.

El equilibrio entre estas dos presiones se mantiene hasta una masa igual a 1.44 M (límite de Chandrasekar). Si la estrella final se encuentra por encima de este límite, se tiene una enana blanca; si por el contrario la masa es mayor que el límite, se produce el colapso gravitatorio, hasta que una nueva presión de degeneración neutrónica contrarresta las fuerzas gravitatorias.

Sin embargo, para masas superiores a 5 M, esta presión de degeneración no es suficientemente intensa y el colapso gravitatorio no se detiene hasta que toda la masa se concentra en un punto de densidad infinita, que constituyen los agujeros negros. La gravedad de estos objetos es tan intensa que ni siquiera la luz puede escapar de ellos, de ahí su nombre. El radio de un agujero negro, el denominado horizonte de sucesos, está definido por el radio de Schwarzschild.

El horizonte de sucesos es la superficie esférica dentro de la cual nada, ni siquiera la luz, puede escapar. Por lo tanto, el horizonte de sucesos separa causalmente al agujero negro del resto del Universo, y esconde en su interior la singularidad.

Especies y subespecies extinguidas de vertebrados


Especie
Año de extinción
Lugar
Causa
Bucardo
2000
Parque Nacional de Ordesa Caza
Tigre de Java
1976
Isla de Java Caza y destrucción del hábitat
Tigre de Caspio
1970
Suroeste de Asia Caza y destrucción del hábitat
Foca monje del Caribe
1952
Mar Caribe y golfo de México Comercio y caza
Tigre de Bali
1937
Isla de Bali Caza y destrucción del hábitat
Lobo marsupial
1930
Australia Caza
Periquito de Carolina
1918
Estados Unidos Caza, coleccionismo y destrucción del habitat
Paloma migratoria americana
1914
Norteamérica Caza
Ostrero canario
1913
Islas Canarias Coleccionismo y animales introducidos
Chochín de la isla de Stephen
1894
Isla de Stephen (Nueva Zelanda) Animales introducidos
Cebra cuaga
1880
África oriental Caza, comercio y destrucción del habitat
Alca gigante
1852
Atlántico norte Caza y coleccionismo
Garrio azul
1800
África del sur Caza
Vaca marina de Steller
1768
Pacífico norte Caza y obtención de pieles
Dodo
1662
Isla Mauricio Captura para alimentación

Bucardo (Capra pyrenaica pyrenaica),

El 5 de enero del año 2000 murió el último bucardo que vivía en España. Esta subespecie de cabra montés ibérica estaba en peligro de extinción desde principios del siglo XX, debido sobre todo a la caza excesiva.

Junto con el Mueyu o cabra montés portuguesa (Capra pyrenaica lusitanica), que se extinguió en 1892, es una de las dos subespecies de cabra montés que ha sido exterminadas directamente por el hombre. Se diferenciaba de las otras subespecies principalmente por su pelo más largo y denso en invierno y la base más gruesa de los cuernos, tanto en machos como en hembras. La cornamenta del bucardo era así mismo, la más larga de entre las cuatro subespecies de cabra montés que han habitado la Península Ibérica en tiempos históricos.

Historia y Extinción

Esta especie estaba difundida originalmente por ambas vertientes del Pirineo, extendiéndose por el sur hacia las zonas montañosas del País Vasco, Navarra, Lérida y Gerona.

Vestigios de que era una pieza de caza común desde la Prehistoria se encuentran ya en las cuevas de la zona, habitadas durante el Paleolítico por los neandertales primero y luego por nuestra propia especie. Con el paso de los siglos desapareció de las zonas más meridionales de su distribución hasta quedar circunscrita al área pirenaica, donde todavía era especialmente abundante durante el siglo XIX.

En la segunda mitad de ese siglo, multitud de cazadores europeos, de España, Francia y Gran Bretaña, sobre todo, acudieron a la zona en busca de ejemplares que abatir. La rareza de la cabra montés en el mundo (entonces distribuida únicamente por España, sur de Francia y noroeste de Portugal) y el imponente tamaño de la cornamenta de los machos, más gruesa y separada que la del íbice (Capra ibex) de los Alpes multiplicaron su valor y demanda en los círculos cinegéticos. La caza fue tan intensa que hacia el año 1900, la subespecie pirenaica ya se había extinguido en Francia y sólo quedaba un reducido grupo de menos de 50 individuos en España, demasiado pequeño para sobrevivir a largo plazo. Por si fuera poco, la protección estatal de la subespecie no llegó hasta 1973 y la declaración de Ordesa, única zona donde habitaba, como parque nacional, fue insuficiente para asegurar su supervivencia. Otras medidas como la cría en cautividad y posterior suelta en el medio de los animales, que podían haber disminuido las probabilidades de extinción, no llegaron a tomarse hasta 1996, cuando se capturó una hembra que murió poco después en cautividad sin llegar a reproducirse.

A pesar de ello, la población permaneció estable por encima de la treintena hasta 1981. Sin que se sepa todavía muy bien por qué, los animales disminuyeron rápidamente hasta ser 10 en 1993, y sólo 2 en 1997. En 1999, el último macho murió debido a su avanzada edad, quedando sólo una hembra, Celia, como último bucardo sobre la tierra. Celia murió en enero de 2000 cuando un árbol se desplomó sobre ella y le aplastó el cráneo.

Tigre de Java (Panthera tigris sondaica),

es una subespecie de tigre, hoy extinta, que se encontraba originalmente en la isla indonesia de Java. De aspecto bastante similar al tigre de Sumatra (Panthera tigris sumatrae), se diferenciaba de éste por su pelaje más oscuro y rayas negras más finas, abundantes y apretadas. Algunos ejemplares de esta subespecie llegaban a tener más de 100 rayas, muchas más que cualquier otra subepecie de tigre. Así mismo, el pelo de las mejillas de los tigres de Java era más largo que el de los demás tigres, y las rayas de los flancos y la espalda se distribuían por parejas.

Se conocen fósiles de tigres primitivos en Java (Panthera tigris trinilensis) de hasta 1.2 millones de años de antigüedad, pero los modermos tigres de Java no descendían de éstos, sino que llegaron a la isla a finales del Pleistoceno o principios del Holoceno, provenientes del norte. Fueron abundantes hasta el siglo XIX, cuando la población humana comenzó a incrementarse en Java y destruyó cada vez más areas de bosque para destinarlas a la agricultura. A esta pérdida de hábitat se añadió la caza, el tráfico de sus pieles y la disminución de las presas potenciales del tigre, que ocasionó a su vez un aumento de la competencia por conseguir lo que quedaba de éstas con otros depredadores de la isla como leopardos y perros salvajes. En menos de 100 años, el tigre de Java pasó de ser considerado una peste a un animal en peligro. En la década de 1950 la población total ya se había reducido a 20 o 25 individuos dispersos por toda la isla, y en 1960 desaparecieron incluso del Parque Nacional Udjung Kulon, famosa reserva natural de Java que acoge a los últimos rinocerontes de la isla. El último lugar donde persistieron los tigres fue una remota área montañosa del sureste de Java llamada Meru – Betiri, que fue protegida en 1972 (aunque eso no le salvó de padecer la tala y roturación ilegal). Ese año se produjo el último avistamiento confirmado en la zona, y en 1979 se localizaron por última vez unas huellas que podrían corresponder a tres ejemplares diferentes. Desde entonces no hay evidencias fiables de la existencia del tigre de Java, a pesar de que se han realizado algunos supuestos avistamientos en Meru – Betiri que probablemente corresponden en realidad a leopardos.

Se sabe que hubo tigres de Java en los zoológicos de Rotterdam, Berlín y varias ciudades de Indonesia, pero toda evidencia de los mismos se perdió durante la II Guerra Mundial. Las reservas creadas en Java a partir de los años 40 eran demasiado pequeñas para sostener una población de tigres y fueron por tanto incapaces de salvarlo.

El tigre persa o tigre del Caspio,

es una subespecie de tigre actualmente extinta. Su área de distribución original abarcaba la península de Anatolia, el Cáucaso, el Kurdistán, norte de Irak e Irán, Afganistán y gran parte de Asia Central hasta Mongolia. Esta subespecie, la más occidental de todas, era también la tercera más grande, después del tigre siberiano y de bengala.

El pelaje de esta especie era amarillo – dorado, un poco más apagado que el del tigre de Bengala y con más zonas blancas en costados y cara. Las rayas, en lugar de ser negras, tenían un color marrón de distintas tonalidades e incluso se volvían amarillentas en las zonas blancas cercanas al vientre. En invierno, el pelo crecía bastante para soportar el frío clima que se adueñaba entonces de las montañas de Asia centro – occidental, especialmente en el vientre y la característica barba o pequeña melena de la zona de las mejillas y garganta.

Los machos eran más grandes que las hembras, los primeros pesaban entre 169 y 240 kg, con una longitud de 2,65 – 2,95 m, mientras que las hembras pesaban hasta 135 kg.

El cuerpo era bastante robusto, y algo alargado, con patas fuertes y bien desarrolladas rematadas por unas garras excepcionalmente largas, más grandes que las de cualquier otro tigre. Las largas a la par que robustas patas les permitían recorrer largas distancias; de hecho, esta subespecie de tigre, al contrario que las otras, emigraba cada año siguiendo las manadas de saigas, asnos salvajes, ciervos y camellos de los que se alimentaba. Debido a esto, los kazajos lo conocían como «leopardo viajero», en contrastre con el auténtico leopardo que aún habita en Turkmenistán y es de carácter sedentario. En cuanto a la cola, era bastante corta y estaba surcada por rayas blancas y pardo-amarillentas alternadas.

Los tigres del Caspio evitaban las zonas más secas y descubiertas de su entorno, fijando su hábitat característico en los tugai, las zonas cubiertas de bosques, matorrales y hierbas que se concentraban en torno a los cursos fluviales, y de las que el tigre dependía para camuflarse y acechar a sus presas.

Foca monje del Caribe (Monachus tropicalis)

era un mamífero caribeño que se extinguió en el siglo XX. Habitaba en el mar Caribe desde las aguas tropicales de Florida a las zonas costeras de Texas, Grandes y Pequeñas Antillas y la península de Yucatán. Los relatos de avistamientos ocurren esporádicamente, pero varios intentos de encontrar al animal no dieron resultado.

Características

La foca monje del Caribe medía entre 2,20 y 2,40 metros de longitud y pesaba unos 130 kilos. Su pelaje era castaño en todo el cuerpo menos en la barriga que era blanco amarillento.

Las crías nacían totalmente negras. Las hembras tenían cuatro glándulas mamarias, en vez de dos como el resto de focas. Los hábitos de reproducción de esta especie son desconocidos, lo único que se sabe es que daban a luz a una cría en torno al mes de diciembre.

Estos animales se alimentaban de peces, cefalópodos y crustáceos y eran muy activos, sobre todo desde el amanecer al crepúsculo. Sus únicos depredadores eran los tiburones caribeños y, más tarde, el hombre.

Tigre de Bali o tigre balinés (Panthera tigris balica)

es una subespecie de tigre extinta desde 1937. Esta subespecie, endémica de la isla indonesia de Bali, era la más pequeña de todas, rondando el tamaño de un jaguar.

Los machos rondaban los 90 – 100 kg de peso, un tercio de lo que alcanza la subespecie más grande, el tigre de Amur, y medían entre 2,20 y 2,31 m de largo, las hembras eran aún más pequeñas, con un peso de 65 – 80 kg y una longitud de entre 1,9 y 2,11 m. Por su aspecto recordaba fuertemente al también extinto tigre de Java, del que se diferenciaba por su menor tamaño y color más oscuro. Éste era un naranja fuerte en costados, dorso y cola, surcado por finas rayas negras, bifurcadas y apretadas, en menor número que en otras subespecies. También se daban manchas negras ocasionales entre las rayas. El vientre y parte de la cara eran blancos; ésta última aparecía surcada por rayas características de esta subespecie. El pelaje era corto y denso en todo el cuerpo. La estructura del cráneo del tigre de Bali presenta importantes diferencias en el hueso nasal y los dientes que lo diferencian claramente de los cráneos de otros tigres, vivos o extintos.

Dada la escasa extensión de Bali, esta isla no podía sostener una alta población de tigres, que necesitan amplios territorios de caza, por lo que la subespecie nativa nunca fue abundante. Con la llegada del siglo XX la población humana aumentó y se aclararon cada vez más zonas de bosque tropical para destinarlas al cultivo; también se persiguió duramente a los tigres por el miedo que inspiraban. Tras la Primera Guerra Mundial, varios cazadores occidentales llegaron a la parte oeste de la isla (única zona donde habitaba para entonces) y abatieron animales por deporte. El 27 de septiembre de 1937 se cazó el último ejemplar, una hembra, en esta zona. Durante la década de los 40 y en menor medida hasta 1972 se produjeron varios avistamientos no confirmados, pero en fechas posteriores la extinción ya se puede considerar totalmente segura. Hoy en día, los escasos restos del bosque original que quedan en Bali son demasiado pequeños para mantener a un gran felino viviendo en ellos. No obstante, se han documentado en las últimas décadas animales muertos por algún tipo de carnívoro salvaje en la isla que no ha podido ser identificado.

En ocasiones se ha dudado de la autenticidad de esta subespecie, cuestionándose que se originara al quedar separada de la población javanesa por la subida del nivel del mar tras la última glaciación. Los tigres son buenos nadadores, y en ocasiones se les ha observado vadeando pequeños brazos de mar. Si los tigres podían cruzar los apenas 2,4 km que separan Bali de Java, las dos subespecies se habrían mantenido en contacto, e incluso podría ser que la población de Bali se hubiese originado por medio de una migración de este tipo y adquirido una serie de diferencias superficiales posteriores debido a las mayores condiciones de insularidad del territorio. Por ahora, la falta de material de ambas subespecies, ya desaparecidas, impide investigar este asunto.

El tilacino (Thylacinus cynocephalus),

también conocido como lobo de Tasmania, lobo marsupial o tigre de Tasmania; era un carnívoro marsupial de tamaño medio, nativo de Australia.

El tilacino es un ejemplo clásico de convergencia evolutiva en la literatura científica, dado su notable parecido con los cánidos de otros continentes (el cognomen taxonómico cynocephalus significa «cabeza de perro»). Al igual que éstos era un carnívoro adaptado a la captura de presas de tamaño pequeño o medio tras lanzarse a la carrera. Tenía un cuerpo estilizado, patas finas aunque no demasiado largas y cola delgada. El pelaje era corto y de color leonado, con rayas negras (o café oscuro) en los cuartos traseros y cola (de ahí el apelativo de «tigre»). Las mandíbulas, provistas de 46 dientes, podían abrirse hasta extremos asombrosos (aproximadamente 120°), más propios de un reptil que de un mamífero, permitiéndoles engullir grandes pedazos de carne sin masticar.

La especie se extinguió antes de ser estudiada en profundidad por zoólogos, por lo que no se sabe muy bien qué técnicas usaba para cazar, aunque varios testimonios recogidos hacen suponer que detectaba a sus presas preferentemente por el olfato, seguido del oído; mas el colorido desarrollado de su pelaje proveía camuflaje que indica que era un predador que podía esperar a su presa, ya que antes de la llegada de los colonos ingleses y de los dingos, el tilacino no tenía competencia, por ser marsupial y animal más desarrollado.

Según los colonos ingleses del siglo XIX, este animal emitía unos sonidos similares al ladrido de un fox terrier. Los machos eran más grandes y robustos que las hembras. Éstas poseían una bolsa que se abría hacia atrás, donde se alojaban hasta cuatro crías que nacían muy desvalidas, y seguían a su madre un tiempo después de abandonar el marsupio.

Periquito de Carolina (Conuropsis carolinensis)

era la única especie de loro natural del Este de Estados Unidos . Fue encontrado desde el Golfo de México a los Grandes Lagos, y vivio en viejos bosques a lo largo de ríos.

El último espécimen salvaje fue matado en el Condado Okeechobee en Florida en 1904, y el último pájaro cautivo muerto en el Zoo Cincinnati en 1918. Esto era el espécimen masculino «incas», que murió un año antes de su compañero » la Señora Jane. » Era no antes de 1939, sin embargo, fue determinado el periquito de Carolina se había extinguido.

Paloma migratoria (Ectopistes migratorius)

es una especie de ave, hoy extinta, que pertenecía al orden de las Columbiformes, el mismo grupo en el que se clasifican las tórtolas y palomas comunes. Se trata del animal que ha sufrido el declive poblacional más acusado de la Historia reciente, pues en un sólo siglo pasó de ser el ave más abundante de Norteamérica (y tal vez del mundo) a engordar la lista de especies extinguidas.

En 1914 moría en cautividad la última paloma migratoria americana. Con ella desaparecía para siempre una especie que, sólo medio siglo antes, podía considerarse el ave más abundante de la Tierra.

El ostrero unicolor canario ( Haematopus meadewaldoi ),

también llamado ostrero canario, fue una especie endémica del Archipiélago y observada en las islas orientales hasta mediados del siglo XX. El área de distribución se circunscribía a Fuerteventura, Lanzarote y el Archipiélago Chinijo (La Graciosa, Montaña Clara, Alegranza, Roque del Oeste y Roque del Este) y Lobos.

Entre la población, era conocido por los pescadores y mariscadores de las islas orientales, que llegaron a darle diferentes nombres, tales como grajo marino, grajo de mar, graja, cuervo marino, corvino o lapero. Esta última denominación estaba probablemente relacionada con sus costumbres alimenticias, ligadas al consumo de lapas y moluscos de la franja litoral. El resto de nombres hacían referencia a su coloración oscura, similitud con el plumaje de los córvidos, sus hábitos estrictamente costeros e, incluso, a su característico reclamo semejante al del córvido.

Pudo nidificar en playas arenosas con una escasa perturbación humana y dunas de pequeño tamaño y vegetación psammófila o halófila ocasional, que le servia de refugio para sus huevos. El nido debió consistir en una pequeña depresión en la arena, recubierto de pequeñas conchas, piedras e incluso unas pocas ramas, tal y como hacen otros miembros de su familia.

Su alimentación debió estar ligada principalmente a la presencia de lapas y mejillones, además de otros moluscos que podían quedar en la superficie durante la bajamar. De esta forma, seguramente centró su atención gastronómica en las cuatro especies de lapas que se encuentran en Canarias: lapa de pie negro ( Patella tenuis crenata ), lapa de pie blanco ( Patella ulyssiponensis aspera ), lapa curvina ( Patella piperata ) y lapa de sol o majorera ( Patella candei ), siendo quizá esta última la más consumida, debido a que frecuentaba la franja más alta de la zona de mareas o intermareal (mesolitoral superior) de las costas rocosas, especialmente en áreas no sometidas a fuertes oleajes. Un molusco que suele ser observado sobre la banda de sacabocados o clacas ( Chathamalus stellatus ). En Canarias, su posición en la zona de mareas se solapa con la de otras dos especies de lapas. Por debajo, se encuentra lapa de pie negro y, por encima, la lapa curvina o lapa de sol. Es la más grande de todas ellas, teniendo una concha muy alta comparada con las otras especies, aportando mayor biomasa.

Probablemente, la presencia del ostrero estuvo muy ligada a la lapa majorera, que en el pasado se encontraba en todas las Islas, tal y como muestra su abundancia en muchos yacimientos subfósiles, aunque en los concheros antiguos ya se presentaba en proporciones reducidas en comparación con las otras especies de lapas, apareciendo principalmente en los de las islas orientales. Pese a esto, hasta hace tres décadas menudeaban en la costa de Fuerteventura, donde eran recolectadas por los hombres de la mar con relativa frecuencia. Su distribución actual se restringe a algunas localidades de Fuerteventura, Archipiélago Chinijo y de las Salvajes, donde aún es abundante.

Esta relación convirtió al ostrero en un ave vulnerable ante el intensivo marisqueo, que se remonta a los antiguos isleños, como lo evidencia la presencia en los concheros repartidos por todas las Islas. Pero, la excelente calidad de la carne de las lapas, provocó que sus poblaciones disminuyeran rápidamente en la mayoría del Archipiélago, llegando a desaparecer de muchas localidades. Aunque en Fuerteventura y Lanzarote esta práctica en época precolonial debió de tener menos incidencia e impacto que en las islas occidentales, debido probablemente a una población humana más reducida, lo que pudo motivar que sobreviviera en estas islas hasta fechas más recientes.

Así, el uso humano de la costa hasta mediados del siglo XX, fecha en la que desaparece el ostrero unicolor canario, se limitaba a la pesca artesanal a caña desde tierra; al pardeleo o captura de pollos de pardela cenicienta ( Calonectris diomedea ) como recurso alimenticio; la construcción y explotación de salinas artesanales en la franja costera; la extracción y exportación de la cal; el cultivo de tomates y leguminosas en los terrenos fértiles cercanos a la costa; el marisqueo intensivo ya nombrado y todo un sinfín de acciones humanas vinculadas a pequeñas economías locales de subsistencia y limitada exportación interinsular, que mantuvo una población humana en pésimas condiciones de vida y aislamiento socioeconómico, agravada por los periodos de entreguerra y miserias de la época franquista.

El golpe de gracia sobre la especie lo asestaron los propios naturalistas y coleccionistas, que, al servicio de los grandes museos de historia natural del siglo XIX, recorrían fusil en ristre distintos lugares del planeta en busca de raras especies de flora y fauna, con el objeto de aumentar las numerosas y vastas colecciones científicas. De este modo, fue muy cotizado el ostrero canario a finales del siglo XIX y comienzos del XX. De hecho, oportunistas locales ofertaban huevos y pieles de adultos en sus catálogos por cuantiosas cantidades de dinero de la época. Hoy en día, algunas de esas aves colectadas en las Canarias figuran entre las luctuosas colecciones científicas de prestigiosos museos, como el British Museum de Londres, etiquetadas con el rubro EXTINGUIDO. Una ‘extinción’ que representa la desaparición total de todos los ejemplares o individuos vivos de una especie, la liquidación de un taxón en todo el mundo, la pérdida para siempre de una forma de vida.

Chochín de la isla de Stephen(Xenicus lyalli)

El Xenicus de Lyall (Xenicus lyalli) era una especie de pequeño pájaro que vivía en la isla Stephen, situada entre las dos islas principales de Nueva Zelanda, y se extinguió a finales del siglo XIX.

Fue descrito en 1895 por Lionel Walter Rothschild, que se lo dedicó a D. Lyall, guardián del faro de la isla Stephen. Sobre este islote rocoso vivía esta especie y en ningún otro lugar. Se conocen en total 13 especímenes, que fueron todos llevados al faro por el gato del guardián. Aficionado a la ornitología, el guardián decide disecarlos y enviarlos a eminentes ornitólogos como lord Rothschild, que recibió ocho ejemplares. Desde entonces no se encontraron más ejemplares, por lo que este pájaro constituye un caso único en la historia de especie que se extingue casi al mismo tiempo de ser descubierta para la ciencia.

No se sabe nada de las costumbres ni de la reproducción de esta especie, aparte del hecho de que era incapaz de volar o al menos era reticente a hacerlo, lo que explica la facilidad del gato del farero a la hora de exterminarla.

La cebra de llanura, de los llanos,

de planicie o simplemente comun (Equus quagga, anteriormente Equus burchelli), es el tipo más común y extendido de cebra, una vez halladas en las llanuras y sabanas desde el sur de Etiopía a lo largo del África oriental, y tan al sur como Angola y la parte oriental de Suráfrica. La cebra de la llanura es hoy menos numerosa de lo que fue en el pasado debido a que las actividades humanas, tales como la caza -por su carne y cuero-, así como la reducción de su hábitat natural ha reducido su número, pero aún es común en ciertas reservas.

Características y comportamiento

La cebra de la llanura es de tamaño mediano, cuerpo ancho y patas relativamente cortas. Los adultos de ambos sexos tienen una altura de unos 1,4 metros y una longitud de unos 2,3 metros de largo; pesan unos 230 kg. Igual que las demás cebras, sus cuerpos están cubiertos por franjas negras y blancas, y dos individuos nunca lucen idénticamente iguales. Actualmente, se reconocen tres subespecies, además de dos ya desaparecidas. Todas tienen franjas verticales en la parte delantera del cuerpo, las cuales luego se tornan horizontales según se acercan a la parte posterior. Las especies norteñas tienen franjas más estrechas y definidas; las poblaciones del sur tienen un número más variado, pero menor, de franjas en la parte baja del cuerpo, las patas y la parte trasera. La primera subespecie en ser descrita, la Quagga, que ya se ha extinguido, tenía la parte posterior de color marrón, sin franjas.

Las cebras de la llanura son muy sociables y comúnmente viven en pequeños grupos compuestos por un sólo macho y una, dos o varias hembras con sus crías. Estos grupos son permanentes, y tienden a variar según el hábitat: en campos pobres, los grupos suelen ser pequeños. De vez en cuando, familias de cebras de la llanura se agrupan en grandes manadas de cebras y otras especies, especialmente el ñu y otros antílopes.

A diferencia de la mayoría de los ungulados del África, las cebras de la llanura prefieren, pero no requieren, hierba de poca altura para pastar. Consecuentemente, se extienden más que otras especies (por tener más campo), incluso en regiones boscosas. Frecuentemente, son las primeras especies en aparecer en zonas con abundante vegetación. Sólo después de que las cebras han consumido y pisoteado los pastos altos, entonces aparecen los antílopes y las gacelas. No obstante, para protegerse de los depredadores, las cebras de la llanura se retiran a áreas abiertas donde tienen buena visibilidad en la noche, y se turnan los momentos de guardia. Las cebras se alimentan de una gran variedad de hierbas, aunque prefieren las tiernas y jóvenes si las hay disponible; también comen hojas y tallos de vez en cuando.

Alca Gigante o Pinguinus impennis

La más grande de las alcas, también llamada alca imperial, gran pingüino o simplemente pingüino. Originalmente, la única ave que recibía este nombre (derivado del gaélico penwyn) era el alca gigante. Posteriormente, los marineros y exploradores de los mares antárticos (en su mayor parte británicos, norteamericanos y escandinavos) comenzaron a llamar también pingüinos a las aves no voladoras del hemisferio sur (hasta entonces conocidas como pájaros o patos bobos), debido a su fuerte parecido externo fruto de la convergencia evolutiva. El nombre científico del alca imperial es Pinguinus impennis.

Esta especie se encontraba difundida en la época romana a lo largo de las costas del Océano Atlántico, desde Florida a Groenlandia, Islandia, Escandinavia, Islas Británicas, Europa Occidental y Marruecos, viéndose también en todo el Mar Báltico y más raramente al oeste del Mar Mediterráneo.

Los ejemplares adultos tenían alrededor de un metro de altura. El plumaje era negro en las alas y la espalda, cuello y cabeza. A los lados de ésta destacaban dos manchas blancas (pen gwyn significa precisamente «cabeza blanca» en gaélico), del mismo color que el abdomen. Las patas eran oscuras y palmeadas, y el pico, usado para arponear peces bajo el agua, era muy robusto, razón por la cual los escandinavos la conocían como geirfugl o garefowl, que significa «ave lanza» en castellano. El rasgo más distintivo de estas aves era su incapacidad para volar, fruto de su adaptación al buceo. Formaban parejas que incubaban un único huevo extraordinariamente grande sobre los acantilados o las playas durante la época de reproducción.

Su incapacidad para volar y lo apetitoso de sus huevos y carne las hicieron unas presas perfectas ya en la prehistoria, como demuestran varios yacimientos paleolíticos. A finales del siglo XVI el alca gigante ya había desaparecido de la Europa continental y en América del Norte sólo abundaba al norte de Nueva York. Los naturalistas del siglo XVIII describen su sabor como atroz, pero parece que los marineros no tenían un paladar tan exquisito y paraban a menudo durante sus viajes para aprovisionarse de carne y huevos sobre todo. Cuando Linneo nombró la especie inicialmente como Alca impennis, en 1758, el alca gigante era un animal sumamente raro en Europa, incluso en islas del Mar del Norte donde un siglo antes abundaba. En 1790 se capturó un ejemplar en Kiel, lo que causó gran extrañeza por ser el único visto en el Mar Báltico en años. Hacia 1800, la especie ya se había extinguido en Norteamérica y su distribución se reducía a Islandia.

Sorprendentemente, mientras el ave se extinguía en el resto del mundo, las alcas abundaban por cientos en algunos lugares de Islandia, como la isla de Geirfuglasker, adonde se dirigían con frecuencia los marineros para aprovisionarse de carne, pero debían pagar antes la mitad de lo que lo que cazasen a las cercanas iglesias de Kyrkjevogr y Utskála, que controlaban el acceso a las rocas de la isla, azotada también por fuertes marejadas durante todo el año. Peligrosidad y poca rentabilidad mantenían a salvo a las últimas alcas gigantes, de tal manera que algunos años ni siquiera arribaba allí un solo barco. Su suerte cambió durante las Guerras Napoleónicas, cuando dos barcos arribaron allí en 1808 y 1813 (ésta última vez en plena época de anidación) y se cobraron cientos de aves y huevos, sin respetar los privilegios de las iglesias cercanas. Para colmo, un terremoto hizo desaparecer la isla de Geirfuglasker bajo las aguas en 1830. Las alcas imperiales emigraron a otros lugares de Islandia donde no se habían visto en años (y fueron cazadas igualmente), e incluso apareció una, casi muerta de hambre, en las costas de Irlanda. La Isla de Eldey, cerca de la desaparecida Geirfuglasker, se convirtió en el hogar de las últimas parejas supervivientes.

Un ave tan sumamente rara despertó entonces el interés de todos los coleccionistas europeos, que pagaron cantidades cada vez más desorbitadas por hacerse con una piel o un ejemplar disecado de alca gigante. En 1840, los marineros de la zona informaron de que la población había desaparecido después de varias expediciones furtivas. En 1844, Carl Siemsen, de Reykjavík, persuadió al pescador Vilhjalmur Hakonársson para realizar una última expedición a la isla, pues había oído que en Dinamarca ofrecían 100 coronas por un solo pellejo de alca gigante que pudieran encontrar. Hakonársson desembarcó en Eldey el 2 de Junio junto con otros tres hombres, y dos días más tarde consiguieron divisar entre las gaviotas una sola pareja de alcas en su nido. Las mataron y ya no se volvió a conocer la existencia de ningún otro ejemplar vivo.

Varios museos de Europa y Estados Unidos conservan plumas, huesos y huevos de alcas gigantes, especialmente de la «cosecha» de 1830-1831.

Garrio Azul

Sin informacion

Vaca marina de Steller(Hydrodamalis gigas, antes Rhytina gigas)

fue un enorme sirenio de 8 metros de longitud (hasta 10 en algunos casos) y de 4 a 10 toneladas, el mayor sirenio que ha existido jamás. Fue descubierta por la expedición rusa de Vitus Bering en 1741, y desde ese momento se convirtió en una presa codiciada por los marineros, que la cazaron en gran número hasta su extinción en 1768, apenas 27 años después de su descubrimiento.

Este enorme mamífero era un animal estrechamente emparentado con el dugongo (Dugong dugon) que habita actualmente en las costas del Océano Índico y parte del Pacífico desde Taiwán a Nueva Guinea. Al contrario que otros sirenios, la vaca marina de Steller era el único conocido que habitaba en aguas frías, aunque tenía el mismo temperamento excepcionalmente manso (hasta el punto de dejarse matar con facilidad) y se alimentaba también de una amplia variedad de algas. El registro fósil demuestra que durante el Pleistoceno hubo momentos en que su distribución se extendía desde las costas de Japón a las de California, pero a finales del mismo la especie quedó restringida a las islas Komandorskie, cerca de la Península de Kamchatka.

Las causas de su extinción están en la demanda humana de su carne, grasa y piel, de gran calidad. El naturalista alemán Georg Steller, que viajaba en la expedición de Bering, las describió de la siguiente manera:

La carne de los individuos adultos no se distingue de la de buey y la grasa… es… dura, glandulosa y blanquecina… cocida supera en suavidad a la mejor grasa.

La piel era tan resistente que podía usarse para revestir el casco de los buques, y la grasa y carne, además de gratos alimentos, se demostraron como potentes remedios contra el escorbuto debido a su riqueza en vitamina C. Las islas Komandorskie se convirtieron en un importante centro de cazadores de vacas marinas hasta la extinción del animal.

En años posteriores se comunicaron algunos avistamientos en las Komandorskie y otras islas cercanas, pero la existencia de este animal después de 1768 no ha podido ser probada nunca de forma fiable.

Dodo o dront (Raphus cucullatus, llamado Didus ineptus por Linnaeus)

era un ave no voladora de aproximadamente un metro de altura, con un peso que oscilaba entre 13 y 25 kg. Era originaria de las islas Mauricio, situadas en el Océano Índico, y se alimentaba de frutas. Su pico, particularmente por la forma, le permitía romper las cortezas de los cocos, y anidaba en el suelo.

Se piensa que evolutivamente surgió de palomas que migraban entre África y el sudeste asiático, por esto se trataba de una peculiar ave «áptera», ya que en la ausencia de depredadores, hizo que esta ave no desarrollara su sistema muscular para el vuelo. Era un pariente cercano del solitario de Rodríguez, otra ave de las Mauricio que también se extinguió apenas un siglo después. Se cree que la paloma de Nicobar es el pariente más cercano todavía vivo.

El ser humano llegó a su hábitat en el siglo XVII. Las primeras noticias que en Europa se tuvieron del ave parecen datar de 1674; en 1681 un conquistador español llevó un ejemplar a Europa. Los descubridores portugueses llamaron dodo («estúpido» en el habla coloquial portuguesa) al ave por su torpeza y la facilidad con que podía ser cazada. También se la ha llamado dronte, una denominación algo más científica.

La llegada del hombre acarreó la propagación de nuevas especies a la isla, incluyendo cerdos, macacos cangrejeros, perros, gatos y ratas , la aparición de nuevas enfermedades y la propia destrucción de bosque, del cual dependía en gran medida la subsistencia del dodo. Se estima que el saqueo de sus nidos por parte de las nuevas especies tuvo un efecto más devastador que el de la caza. Como consecuencia se produjo la completa extinción de esta ave un siglo después de la llegada del ser humano a la isla.

Sir Thomas Herbert, el introductor de la palabra «dodo», dedicó al animal en 1627 un dramático epitafio: «Tienen un semblante melancólico, como si fueran sensibles a la injusticia de la naturaleza al modelar un cuerpo tan macizo destinado a ser dirigido por alas complementarias ciertamente incapaces de levantarlo del suelo».