La Luna y sus características; El satélite natural que controla a la tierra Por: Heriberto Paz

luna

La Luna

Es el único satélite natural de la Tierra y, por consiguiente, el objeto estelar más próximo a ella.Está situada en órbita ecuatorial a una distancia media de 384,400 Km. Esta órbita es ligeramente elíptica, con una una excentricidad del 0,05%. Por ello, el perigeo es de 354.000 Km y el apogeo de 404.000 Km. Completa un período orbital cada 27 días 7 h 43 min y 11,5 s, lo que se conoce como mes sideral. Al mismo tiempo y debido al efecto gravitacional de la Tierra sobre la Luna, ésta gira sobre su eje exactamente en el mismo período, por lo que, a la vista de los habitantes de la Tierra, la Luna presenta siempre la misma cara, permaneciendo, por lo tanto, constantemente oculta la cara opuesta. La órbita de la Luna presenta una inclinación de 5 respecto al plano de la eclíptica. Mirando al sistema Tierra-Luna desde el norte, la Luna gira en sentido contrario a las agujas del reloj, y viaja a través de su órbita con una velocidad media de 1 Km/ s, o 3.700 Km /h.

Su diámetro medio es 3.476 Km, la cuarta parte del de la Tierra, y su volumen está alrededor de 74 veces menor. La masa total alcanza los 7,35 x 1022 kg, 80 veces menor que la de la Tierra; la densidad media de la Luna es aproximadamente 3,34 g/cm;, dos tercios de la de la Tierra. Tiene un débil campo magnético muy inferior al de la Tierra, casi imperceptible y no distribuido de manera uniforme. La diferencia de masa y dimensiones con la Tierra hace que la gravedad de nuestro satélite sea tan solo un sexto de la de la Tierra. Aunque se nos aparezca como un objeto brillante, no brilla con luz propia, sino que refleja un 0,07% de la luz solar que recibe. Para un observador cercano, la Luna sería un astro cubierto de polvo oscuro.

Como resultado de la traslación de la Tierra alrededor del Sol, el ángulo de iluminación solar cambia en un grado por día. Desde la Tierra solo puede observarse una de las caras de la Luna, el 50% de su superficie. Adicionalmente y debido a la inclinación de la órbita puede observarse un 8% más de la superficie lunar. Según sea su posición relativa respecto del Sol, se nos presenta en diferentes perspectivas o “fases”, cuatro de las cuales reciben nombre propio (se verán con más detenimiento más adelante). Estas fases se repiten cada 29,5 días, lo que podría hacer suponer que éste es el periodo real de rotación. El alargamiento aparente de 2,5 días se debe a que mientras la Luna gira alrededor de la Tierra, ambas lo hacen en torno al Sol, por lo que a los ojos de los observadores terrestres y tomando como referencia al Sol, la Luna repite su posición cada 29,53 días, lo que corresponde a un mes sinódico. El mes sinódico ha tenido para la humanidad mucha mayor importancia que el sideral, ya que los cambios en la apariencia de la Luna fueron apreciados en la Antigüedad y empleados para la medida del tiempo. Las propias fases de la Luna ofrecen noción de su transcurso y para la apreciación del mismo no es necesario contar con ningún aparato.

Las condiciones en la Luna.

Como se dijo antes, la gravedad de la Luna es solo un sexto de la de la Tierra, por lo que debido a su pequeño tamaño y baja gravedad no puede retener los gases que se producen; por tanto, la Luna no tiene una capa de gases que la circunde. La presión de gases en la Luna es tan baja que los mejores equipos de vacío de que dispone la tecnología actual no son capaces de reproducir una ausencia de gases tan absoluta como la lunar. Como consecuencia de esta falta de atmósfera, los elementos volátiles prácticamente han desaparecido de la composición de sus minerales, por lo que carece no solo de agua libre, sino también de minerales que la incorporen a su composición.

La ausencia de un mecanismo regulador de la temperatura, como la atmósfera o los mares de la Tierra, hace que la superficie de la Luna oscile entre temperaturas que van desde los 1271C durante el mediodía lunar hasta los -173 1C de la noche lunar.

Mediciones realizadas según el magnetismo lunar indican que la temperatura interna de la Luna se acerca a los 16001C, temperatura que está por encima del punto de fusión de las rocas lunares. La baja densidad y las medidas sísmicas indican que su interior se compone de silicatos líquidos y que carece de un núcleo metálico, como en el caso de la Tierra.

La ausencia de atmósfera permite que cualquier meteorito, por pequeño que sea, alcance la superficie lunar, y aunque los impactos no son tan frecuentes como en épocas pasadas, los instrumentos sísmicos ubicados en su superficie señalan que anualmente se producen entre 75 y 150 impactos de meteoritos con una masa comprendida entre 100 y 1.000 kg.

La superficie Lunar

Los astrónomos de la Antigüedad ya observaron algunos de los detalles de la Luna y pensaron que las zonas de color gris oscuro eran océanos, por lo que les asignaron el nombre latino Maria (mares); a la vez, a las zonas claras que observaron, las llamaron continentes. Con Galileo y el telescopio, comenzaron a observase con más detalle la superficie lunar y sus montañas, cráteres, grietas, etc.

Entre los años 1959 y 1967 se exploró el satélite y, mediante sondas, se levantaron mapas de casi toda la superficie lunar, incluida su cara oculta (salvo un 1%, aproximadamente, que ha quedado sin estudiar en su polo Sur).

Los continentes en general son de carácter montañoso, y están salpicados de accidentes, que van desde un simple cráter del tamaño de un nido de gorrión hasta extensos anillos de varios cientos de kilómetros de diámetro.

En un principio se pensó que los cráteres eran consecuencia de la actividad volcánica; posteriormente se comprobó que en su mayoría eran el resultado del bombardeo de la superficie de la Luna por meteoritos durante miles de millones de años. Los análisis realizados empleando datación de rocas sugieren que la mayor parte de los cráteres se produjeron por impactos explosivos de alta velocidad producidos por meteoritos o pequeños asteroides hace unos 4000 millones de años. Se ha calculado que en la superficie lunar hay al menos 300.000 cráteres de más de un kilómetro de diámetro, y más de tres billones con más de un metro de diámetro. Estos choques han producido, además, una gran cantidad de rocas sueltas y polvo. Estas rocas están diseminadas y semienterradas en la capa de polvo, que en algunos lugares puede tener metros de espesor.

Las zonas oscuras, los mares, tienen una estructura similar al magma volcánico solidificado, que en muchos casos ha cubierto total o parcialmente los cráteres. La teoría más admitida es que posteriormente a la etapa de lluvia de meteoritos y, en parte, como consecuencia de la misma, rocas calientes del interior afloraron a la superficie y se fundieron inmediatamente, por lo que buena parte de la superficie de la Luna se vio invadida de un mar de lava.

El mayor de los mares se denomina Mare Imbrium (‘mar de las lluvias’), con una anchura de más de 1.200 Km. Con anterioridad, habría sido un cráter de las mismas dimensiones, del cual quedan restos de las paredes verticales, en lo que se conoce como “las cadenas montañosas de los Apeninos y los Cárpatos”. Otros océanos conocidos son el Mare Insularum o el Mar de la Tranquilidad, lugar donde se posó la nave Apolo XI el 20 de julio de 1969. Las montañas más altas se encuentran en las cercanías del polo sur lunar, que tienen picos que alcanzan los 6.100 m de altura.

Fases de la Luna.

Durante su rotación alrededor de la Tierra, la Luna recibe la luz del Sol desde un ángulo diferente, de manera que la parte de la cara que vemos iluminada va cambiando de aspecto. Existe un momento en que la Luna se encuentra situada en la linea recta que une al Sol y la Tierra, al este del Sol, y toda su superficie aparece oscura, fase que se denomina Luna nueva; conforme la Luna gira hacia el oeste, la parte iluminada va creciendo Luna creciente hasta situarse justamente opuesta al Sol; en ese momento toda su cara visible aparece como un círculo iluminado Luna Llena, para, en días sucesivos, ir perdiendo parte de la superficie iluminada (Luna menguante) conforme se desplaza hacia el oeste, hasta llegar a oscurecerse del todo Luna nueva y comenzar el ciclo de nuevo, exactamente cada 29,5 días.

Origen de la Luna

Hasta el estudio concienzudo de los más de 300 kg de muestras lunares que el programa Apolo de la NASA trajo de nuestro satélite, el origen de la Luna fue una controversia. La teoría más antigua sobre el origen de la Luna es la de la fisión.

Esta teoría proponía que la Luna podría ser un fragmento desgajado de la Tierra, precisamente de la zona que correspondería al Océano Pacifico, separado como consecuencia de un excesivo alargamiento ecuatorial de la Tierra a consecuencia de un giro rapidísimo. Esta teoría justificaba el hecho de que la densidad de la Luna fuese notablemente más baja que la de la Tierra, debido a que la parte desprendida procedería del manto terrestre de menor densidad. Lo difícil de justificar era el enorme momento angular que habría sido necesario para producir esta fisión, y el bajo momento que el sistema Tierra-Luna tiene hoy.

Otra hipótesis suponía que la Luna, completamente formada, había sido capturada por la fuerza de gravitación de la Tierra hacia algo más de 600 millones de años. Si esto hubiera sido así, las enormes alteraciones geológicas que la captura de la Luna debieran haber producido, podría justificar el hecho de que precisamente hace 600 millones de años aparezcan repentinamente numerosos fósiles, mientras que son prácticamente inexistentes poco antes. No obstante, si la Luna fuese un planeta capturado, se habría formado en otra parte del universo y su distribución de isótopos de oxigeno no debería ser idéntica a la de la Tierra.

Los análisis realizados en muestras de rocas lunares demostraban tener una distribución de los isótopos de oxigeno idéntica a la de la Tierra, por lo tanto se habían formado en la misma zona del universo. Este hecho daba pie a la teoría del doble planeta, según la cual la Tierra y la Luna se habían formado al mismo tiempo. Mientras una buena parte de los planatesimales se agrupaban para formar la Tierra, en su órbita se acumulaban otros fragmentos que al agruparse formarían la Luna. Esta tesis no satisfacía el hecho de las diferentes densidades entre la Tierra y la Luna. El origen de esta diferencia está en la carencia casi completa en la Luna de un núcleo metálico más denso, como tiene la Tierra, puesto que, si se hubiesen formado a partir de las mismas materias primas, los resultados debían ser idénticos.

La controversia del posible origen de la Luna no se resolvió hasta 1994, doce años después de la llegada del hombre a su superficie. Como resultado de la datación isotópica de las muestras lunares se llegó a la conclusión de que la Luna se había formado al mismo tiempo que la Tierra hace 4.500 millones de años, y que la actividad volcánica había cesado hace unos 2.000 millones de años.

Según la teoría aceptada recientemente, la Luna se habría formado como consecuencia de un gran impacto. Una masa externa a la Tierra, de tamaño similar a Marte habría chocado oblicuamente con su superficie, poniendo en órbita numerosos fragmentos de la corteza de la Tierra que se habrían agrupado para formar la Luna. Como resultado del choque un 70% de los materiales expelidos lo habrían hecho a altas temperaturas, por encima del punto de fusión. De esta manera, al agruparse en órbita, la Luna habría sido un océano de magma. Posteriormente la Luna sufririó un periodo de frecuentes impactos de meteoritos que dieron lugar a esos cráteres tan característicos (aunque bastante comunes en otros objetos de sistema Solar).

Esta teoría fue formulada en 1975. Se apoya en un hecho bastante normal durante la formación del universo, como es la colisión de planetas, y justifica, por una parte, que al estar la Luna formada por masa arracada de la Tierra tenga una composición semejante en su superficie; y por otra parte, que al estar formada por masa del manto más ligero, en la Luna no se ha formado el núcleo metálico más pesado. Además, el enorme calor producido en la colisión habría evaporado todo el agua Lunar.

Composición de la Luna

La composición de la Luna guarda bastantes similitudes con la Tierra, aunque sus diferencias son grandes. Como consecuencia de su falta de atmósfera, los elementos volátiles prácticamente han desaparecido. No solamente carece de agua libre, sino también de minerales que la incorporen a su composición. No obstante, se supone que podría haber rastros de agua en los polos donde las temperaturas son muy bajas durante todo el tiempo. Este agua procedería de las aportaciones de algunos meteoritos, y de las colas de los cometas que interceptase la Luna.

Elementos comunes en la Tierra, como el sodio y el potasio, son mucho más raros en la Luna, al igual que muchas sustancias con bajo punto de fusión. En lo que se conoce como mares lunares, la superficie de color oscuro está recubierta de una capa de varios kilómetros de profundidad de grava, con materiales de estructura cristalina inexistentes en la Tierra, resultado de los impactos explosivos de los meteoritos.

Se ha estimado que la edad de la Luna se aproxima a los 4.600A106 años, similar a la de la Tierra y a la del resto del Sistema Solar.

Tras la enorme colisión y la posterior agrupación de los fragmentos que dieron lugar a la formación de la Luna y el advenimiento de la etapa del océano de magma, sobrevino un periodo en el que se produjeron numerosos cráteres de impacto (proceso que todavía sigue afectando a muchos planetas). Se han diferenciado dos periodos de especial agrupamiento de bombardeo de la Luna. El primero, inmediatamente después de la cristalización del océano de magma (hace 4.400 años), y el segundo hace 3.900 años. Por lo tanto, las rocas que conforman los actuales mares estarían compuestas por rocas similares a los basaltos terrestres.

Las cordilleras de color más claro contienen elementos más ligeros, como el aluminio, que se han diferenciado por densidad. Están formadas por feldespato, basalto con más aluminio, y anortosita, una roca profunda cuyo componente principal es la plagioclasa; otros elementos secundarios son el piroxeno, el olivino, la cromita y la magnetita. Tiene grano homogéneo de medio a grueso, que se origina en la diferenciación de magmas básicos. Entre las rocas lunares se incluyen, además, algunos vidrios, brechas (aglomerados de rocas cementadas entre si por calor y/o presión).

La existencia de débiles campos magnéticos y algunas rocas magnetizadas (aunque débilmente) hace suponer que la Luna pudo tener en algún momento un campo magnético más fuerte.

Exploración de la Luna

La posibilidad de explorar la Luna estuvo en la imaginación del hombre desde la Antigüedad. Como se suponía que el aire que respiramos se extendía por el universo, no faltó quien imaginase que volando con algún ingenio, a la manera de Ícaro, algún día se pudiese alcanzar la Luna.

La cara visible de la Luna fue objeto de la atención de los astrónomos desde los tiempos de Galileo, y durante los siglos XIX y XX, con potentes telescopios y técnicas fotográficas, se hizo una abundante cartografía de su superficie. Las observaciones visuales convencieron a los científicos de la inviabilidad de vida sobre la Luna.

La sonda rusa Lunik I, lanzada el 2 de enero de 1959, fue el primer ingenio del hombre en aproximarse a la Luna. El 12 de septiembre la Lunik II consiguió posarse en su superficie. Fue la primera vez que un objeto fabricado por el hombre se posaba en la superficie de otro mundo. Las primeras imágenes de la cara oculta fueron enviadas a la Tierra por la nave rusa Lunik III en octubre de 1959, y mostraron el gran parecido de ambas caras, con similar abundancia en cráteres y montañas, pero con escasos mares en la oculta.

En 1964 los norteamericanos enviaron, sucesivamente, las sondas Ranger VII, VIII, y IX, y los Orbiter I y II en 1965.

El 3 de febrero de 1966, la sonda Luna IX realizó el primer aterrizaje suave en la superficie lunar, enviando a la Tierra imágenes tomadas a nivel de la superficie. El 3 de abril de ese mismo año, la sonda soviética Luna X permaneció durante tres horas en órbita alrededor de la Luna. Durante este tiempo midió la radiactividad lunar, de lo cual se dedujo que la superficie del satélite tenia una composición similar al basalto que se encuentra en las profundidades oceánicas terrestres. En septiembre de 1967, la sonda norteamericana Surveyor V, manejada por control remoto, consiguió analizar la superficie lunar confirmando su naturaleza basáltica, además de detectar que en la superficie lunar abundaban partículas metálicas de hierro probablemente de origen meteórico.

A partir de 1966, una serie de sondas orbitales norteamericanas fotografiaron detalladamente la mayor parte de la superficie lunar, incluyendo la cara oculta y enviando miles de fotografías a la Tierra, lo cual permitió construir precisos mapas lunares.

El programa Apolo, diseñado para alcanzar la Luna en vuelo tripulado, alcanzó su éxito con el Apolo XI, nave tripulada por los astronautas Neil Armstrong y Edwin Aldrin, que alcanzó su objetivo el 20 de julio de 1969. Posteriormente los Apolo XII, XIV, XV, XVI y XVII alcanzaron también la superficie lunar, y regresaron con éxito a la Tierra.

Los astronautas del programa Apolo colocaron numerosos instrumentos en la superficie lunar para medir las temperaturas, la presión del gas, el flujo de calor y la radiación en dicha superficie, información que es enviada a la Tierra por radio. Además, recogieron 384 kilogramos de rocas lunares y realizaron miles de fotografías de su superficie.

En el Apolo XVII, por primera vez, se incluyó a un científico, el geólogo H. H. Schmitt, quien, empleando un vehículo especialmente diseñado para moverse por la superficie lunar, realizó una excursión de 35 kilómetros explorando el valle Taurus-Litrrow.

Los rusos, aunque no alcanzaron la Luna, han enviado varios vehículos, dirigidos por control remoto, que han permanecido activos durante meses enviando toda clase de datos.

El 25 de enero de 1994, EEUU envió a la Luna la nave Clementine (1,2 x 1,8 metros y 259 kg de peso), que durante 71 días estuvo explorando la superficie lunar, donde realizó más de dos millones de fotografías utilizando sensores ultrasensibles diseñados para la Guerra de las Galaxias. La nave abandonó la órbita lunar el 2 de mayo rumbo a la Tierra, pero poco después se perdió por una fallo técnico. El análisis cuidadoso de los datos obtenidos permitió al Departamento de Defensa americano anunciar que, con toda probabilidad, en el polo sur de la Luna y, concretamente, en el fondo del cráter Aitkin, que con 2.400 Km de diámetro está considerado como el más extenso y profundo del Sistema Solar, se encuentra un lago de hielo que ocupa un 1% de la superficie y varios metros de espesor. Esta agua, que podría proceder de los impactos con meteoritos, posibilitaría el establecimiento de estaciones permanentes y habitadas en la Luna.

 

Heriberto Paz

previous page · next page

5 teorías evolutivas anteriores a Darwin

teoria-evolucion

 

 

La explicación a ¿Cómo los humanos pasamos de criaturas rudimentarias y con un aspecto más bien animal, a las personas que somos hoy en día?, estaría en la Teoría de la Evolución de Charles Darwin. Sin embargo, vamos a a contarte acerca de 5 teorías evolutivas pre-darwinianas.

¿Cómo los humanos pasamos de criaturas rudimentarias y con un aspecto más bien animal, a las personas que somos hoy en día? La explicación estaría en la Teoría de la Evolución de Charles Darwin. Éste expuso su teoría a mediados del siglo XIX, pero a lo largo de la historia han existido diferentes teorías evolutivas previas al darwinismo. Hoy, vamos a contarte acerca de 5 teorías evolutivas pre-darwinianas.

1. Creacionismo

Es la más conocida de todas y que aún se enseña en ciertos círculos, especialmente en comunidades altamente religiosas. El Creacionismo parte de la base que los humanos y toda la vida en la Tierra fueron creadas por Dios o algún ente divino. Algunos interpretan la biblia de forma textual y, la historia de la vida de en la Tierra se basa en momentos bíblicos. Para el Creacionismo de doctrina cristiana no hay evolución como tal, así que todas las especies surgieron al mismo tiempo y en su forma actual.

2. La gran cadena del ser

Una de las teorías evolutivas que tuvo gran apoyo es la llamada Gran cadena del ser que, si bien tiene una base creacionista, explica que las especies son una sucesión progresiva hasta llegar a su forma actual. La Gran cadena del ser tuvo su apogeo en el siglo XVIII y la evolución se daba producto a las complejidades que la naturaleza imponía a los seres.

3. Teoría de la Transmutación de especies

Una de las teorías evolutivas pre-darwinianas que contó con una gran aceptación científica fue la Teoría de la Transmutación de especies, que corresponde al naturalista francés Jean-Baptiste Chevalier de Lamarck. En su trabajo, a inicios del siglo XIX, Lamarck expone que no existen antepasados biológicos, y que los organismos aparecían de forma espontánea y transmutan de forma gradual y progresiva para adaptarse al ambiente, lo que luego heredan las siguientes generaciones.

4. Catastrofismo

George Cuvier, contemporáneo de Lamarck y cercano a sus estudios, propuso la idea del Catastrofismo. Según la teoría sucesivos desastres naturales fueron dando forma a la Tierra, y las criaturas y vegetación que vivían en ella tendían a morir. Luego de esto, nuevas formas se movían hacia otras áreas. Si bien no es muy completa, el catastrofismo pueda dar base a la selección natural.

5. Uniformismo

El geólogo británico Charles Lyell consideraba que el Catastrofismo tenía errores, y durante la tercera década del siglo XIX se dedicó a plantear lo que sería el Uniformismo. Para Lyell, los cambios en la Tierra no fueron tan violentos como los describió el Catastrofismo, sino más bien graduales y que se venían dando una y otra vez desde los orígenes del planeta, que creía muy antiguo.

Los cambios existentes son similares a lo que ocurrieron en un pasado, ello producto de erupciones volcánicas, terremotos y otros desastres, siendo la fuerza de la naturaleza la que llevó a los cambios.

Como ven, las teorías evolutivas pre-darwinianas fueron bastante diversas y, aunque sea en pequeños aspectos, contribuyeron a la Teoría de la Evolución de las especies, la cual es científicamente plausible y considerada correcta de forma casi universal.

Cortesía: Informe21

 

previous page · next page

¿A dónde fue a parar todo el plástico en los océanos?

Las-islas-de-plastico-de-los-oceanos

¿A dónde fue a parar el plástico en los océanos? Lo que parecería una buena noticia para el estado de las aguas del planeta es en realidad un gran reto, para entender dónde está todo el plástico que se sabe que termina en los océanos y que no está flotando en la superficie.

Una investigación ha demostrado que la contaminación de basura plástica que flota en los océanos se extiende en cantidades mucho menores de lo que indicaban las predicciones. Los científicos esperaban encontrar “100 veces más plástico”.

Hace pocos días les informamos sobre la expedición Malaspina, que durante 2010 y 2011 recogió muestras de los océanos que demostraron que el 88% de las aguas contiene plástico de diverso tamaño.

Sin embargo, otro dato que arrojó la investigación, dirigida por el investigador del Instituto de los Océanos de la Universidad del Oeste de Australia Carlos Duarte, revela que el 99% del plástico que se pensaba encontrar, simplemente no fue detectado. “Esperábamos encontrar 100 veces más plástico de lo que hemos encontrado”, explica Duarte, según lo cita El Mundo.

La realidad es que no sabemos dónde está el 99% del plástico que llega al océano“. Según esta investigación, la cantidad estimada de plástico que flota en los océanos varía entre 7.000 y 35.000 toneladas, lo que representa solo el 1% de todo el plástico que hay en los océanos, según explica Andrés Cózar, investigador de la Universidad de Cádiz y coautor del informe.

Lo que parecería una buena noticia para el estado de las aguas del planeta es en realidad un gran reto para el equipo de Duarte y Cózar para entender dónde está todo el plástico que se sabe que termina en los océanos y que no está flotando en la superficie.

Una de las teorías que manejan sugiere que el plástico está siendo ingerido por los pequeños peces mesopelágicos, cuya ración coincide en tamaño con las pequeñas partículas de plástico.

El potencial peligro es que estos peces son a su vez parte del alimento de los atunes y los peces espada. “Pero nadie, que yo sepa, ha estudiado si en estos grandes depredadores también hay estos contaminantes”, agrega Cózar.

Por su parte, Duarte pone este peligro plausible en perspectiva y lo compara con el exagerado consumo de plástico de las sociedades modernas. “La cantidad de plástico que puede llegar a haber en estos peces no es mayor que el plástico que ya ingerimos debido a los envoltorios de todo lo que compramos. Si analizamos la sangre de cualquiera de nosotros, seguro que encontraremos trazas de plásticos. Lo que nos tenemos que plantear es la cantidad de plástico que utilizamos”, señala el investigador.

Cortesía: El Grafico

previous page · next page

Crean un virus incurable capaz de desatar una pandemia global

virus

Un científico controvertido de EE.UU. ha creado deliberadamente una forma de gripe capaz de ignorar el sistema inmunitario humano

En el marco de un estudio de los virus de influenza, un científico controvertido de EE.UU. ha creado deliberadamente una forma de gripe capaz de ignorar el sistema inmunitario humano, informa el periódico ‘The Independent‘.

La creación de un monstruo

El científico en cuestión, Yoshihiro Kawaoka, profesor de virología de la Universidad de Wisconsin-Madison, alteró genéticamente la cepa de la gripe A (H1N1) —que causó la pandemia de 2009— con la intención de estudiar la posible evolución de la capacidad de resistir del sistema inmunitario humano, según ‘The Independent’.

Inicialmente el proyecto fue dedicado a la observación de los cambios genéticos en el H1N1 de 2009 con el objeto de crear vacunas más eficaces contra la gripe en el futuro.

Aunque crear un virus contra el cual la humanidad no tiene defensa parezca un éxito dudoso, el profesor Kawaoka defendió su estudio. Según el científico, el proceso del estudio coincide con los cambios naturales, y el resultado muestra que pueden evolucionar naturalmente los virus capaces de ignorar el sistema inmunitario, lo que es importante para la creación de nuevas vacunas y drogas.

Horror entre la comunidad científica

Al salir a la luz el proyecto de Kawaoka durante una reunión cerrada, los científicos presentes se quedaron horrorizados tanto por los resultados —un virus de la gripe casi omnipotente— como por el hecho de que tal virus fuera creado deliberadamente tras un riguroso trabajo.

“[Kawaoka] tomó el virus que ya había causado una pandemia y eligió las cepas que el sistema inmunitario no neutralizaba. Repitió el proceso varias veces y llegó a la creación de una auténtica maravilla de virus”, comentó uno de sus colegas.

Cabe mencionar que el laboratorio de la Universidad de Wisconsin tiene un alto nivel de seguridad biológica (nivel 3, según la clasificación estadounidense que tiene 4 niveles en total). Sin embargo, en realidad las cepas de H1N1 se contenían en lugares menos seguros (nivel 2), algo que Kawaoka y las autoridades calificaron de “medidas adecuadas”.

Varios intentos

El H1N1 de 2009 no es el primer virus peligroso tocado por Yoshishiro Kawaoka. Su trabajo más reciente describe el intento de reconstruir la gripe H1N1 de 1918, más conocida como ‘la gripe española‘. Logró hacerlo, pero su estudio fue criticado por la comunidad científica como “estúpido” y “irresponsable”.

También intentó aumentar deliberadamente la virulencia de la gripe aviar H5N1 de 2004-2006 para estudiar la evolución de este proceso.

¿Por qué actúa así Kawaoka?

Por un lado, estudios como este mejoran nuestro conocimiento sobre los diferentes virus y permiten crear vacunas y drogas más eficaces.

Por otro lado, el riesgo de un accidente biológico está siempre presente, y un solo error podría llevar a una epidemia global de una enfermedad potente, lo que sería una tragedia que no compensan los posibles logros científicos.

Cortesía: Informe21.com

previous page · next page

“Douglas” generará potencial de lluvias en Michoacán

Douglas-generar-clima-lluvioso

 

México, DF.- La tormenta tropical “Douglas” del Océano Pacífico ocasionará desprendimientos nubosos con potencial de lluvias, viento y oleaje elevado en los estados de Guerrero, Michoacán, Colima, Jalisco y Nayarit.
El Servicio Meteorológico Nacional (SMN) explicó que a las 04:00 horas, tiempo del centro de México, este fenómeno se ubicó a 775 kilómetros al sur-suroeste de Cabo San Lucas, Baja California Sur, y a 890 al suroeste de Cabo Corrientes, Jalisco.
Indicó en un comunicado que Douglas avanza al oeste-noroeste a 15 kilómetros por hora, con vientos sostenidos máximos de 65 kilómetros por hora y rachas de 85. Por ello, el SMN prevé lluvias intensas de 75 a 150 milímetros en Michoacán y Guerrero, incluyendo al Archipiélago de Revillagigedo; muy fuertes de 50 a 75 milímetros en Jalisco y Colima, y fuertes en Sinaloa y Nayarit, así como en las Islas Marías.
También soplarán vientos con rachas de 50 kilómetros por hora y oleaje elevado en las costas de Guerrero, Michoacán, Colima y Jalisco.
Exhortó a la población en general y a la navegación marítima en las inmediaciones del sistema, tomar precauciones y atender las recomendaciones emitidas por las autoridades del Sistema Nacional de Protección Civil (Sinaproc).

 

Notimex

previous page · next page

Descubren la ‘partícula de Dios’ que explica cómo se forma la materia

 

La Organización Europea para la Investigación Nuclear (CERN) acaba de escribir un capítulo crucial en la historia de la Física, al descubrir una nueva partícula subatómica que confirma con más de un 99% de probabilidad la existencia del bosón de Higgs, conocido popularmente como la ‘partícula de Dios’, un hallazgo fundamental para explicar por qué existe la materia tal y como la conocemos.

Con los resultados presentados hoy, la existencia del bosón de Higgs -la partícula subatómica teorizada por el físico británico Peter Higgs en los años sesenta, y que supone el único ingrediente del Modelo Estándar de la Física que aún no se había demostrado experimentalmente- es prácticamente un hecho.

Si no fuera por el bosón de Higgs, las partículas fundamentales de las que se compone todo, desde un grano de arena hasta las personas, los planetas y las galaxias, viajarían por el Cosmos a la velocidad de la luz, y el Universo no se habría ‘coagulado’ para formar materia. Por ese motivo, el editor del físico Leon Lederman creyó oportuno cambiar el título de su libro llamado originalmente ‘The goddamn particle’ (‘La puñetera partícula’) por el de ‘The God particle’ (La ‘partícula Dios’, aunque popularmente se ha traducido como ‘la partícula de Dios’).

El físico británico Peter Higgs, en el centro de la imagen, hoy en Ginebra. | CERNEl físico británico Peter Higgs, en el centro de la imagen, hoy en Ginebra. | CERN

En 1964, Higgs describió con la sola ayuda de un lápiz y un papel las ecuaciones que predicen la existencia de una partícula nunca vista, pero necesaria para que funcione el Modelo Estándar sobre el que se basa la física actual. Es la partícula fundamental de lo que se conoce como el mecanismo de Higgs, una especie de campo invisible presente en todos y cada uno de los rincones del universo y que hace que las partículas inmersas en él tengan masa.

El bosón de Higgs es el componente fundamental de ese campo, de la misma manera que el fotón es el componente fundamental de la luz. Si la ‘partícula de Dios’ no existiera, tampoco existiría nada material en el Universo.

“Puedo confirmar que se ha descubierto una partícula que es consistente con la teoría del bosón de Higgs”, explicó John Womersley, director ejecutivo del Consejo de Tecnología y Ciencia del Reino Unido, durante una presentación del hallazgo en Londres.

Joe Incandela, portavoz de uno de los dos equipos que trabajan en la búsqueda de la partícula de Higgs, aseguró que “se trata de un resultado todavía preliminar, pero creemos que es muy fuerte y muy sólido“.

Tras terminar su presentación, el estruendoso aplauso en el auditorio no cesaba a pesar de que Incandela trataba de pedir la palabra para agradecer a toda la organización la colaboración y el ambiente científico donde ha podido desarrollar su investigación.

Nervios y emoción

En el auditorio estaba presente el propio Peter Higgs, con cuyo apellido se bautizó al mítico bosón, quien no pudo contener las lágrimas al escuchar los resultados que han confirmado su teoría. “Sólo quiero dar las gracias a todas las personas que han estado relacionadas con este trabajo. Es lo mas increíble que me ha pasado en toda la vida“, aseguró el científico emocionado.

La presentación de estos resultados ha tenido lugar en la Conferencia Internacional de Física de Altas Energías (ICHEP 2012) que se celebra en Melbourne (Australia), donde se están exponiendo los resultados obtenidos por los experimentos ATLAS y CMS del Gran Colisionador de Hadrones (LHC) en 2012. El director del CERN, Rolf Heuer, ha comenzado la conferencia nervioso y ha afirmado que “hoy es un día muy especial en todos los sentidos”.

ATLAS, uno de los dos experimentos del CERN que busca el bosón de Higgs, ha confirmado la observación de una nueva partícula a un nivel de 5 sigma (una forma de medir la probabilidad de que los resultados sean ciertos que ronda el 100%). Esta medición implica que la probabilidad de error es de tres en un millón, una cifra que, oficialmente, es suficiente para dar por confirmado un descubrimiento.

“Es dificil no estar emocionado con estos resultados”, ha dicho Sergio Bertolucci, director de investigación del CERN. “Con toda la precaución necesaria, me parece que estamos en un punto rompedor”.

“Es un hito histórico, pero estamos solo al principio“, ha declarado por su parte Heuer, el director del CERN.

Muy cerca del objetivo

Los datos del CERN no son todavía tan concluyentes como para poder afirmar con total certeza que han encontrado la ‘particula de Dios’, pero están realmente cerca de alcanzar ese objetivo. “Hemos encontrado un nuevo bosón con una masa de 125,3 gigaelectrónvoltios (una medida usada por los fisicos para cuantificar masas muy pequeñas), con un grado de consistencia de 4,9 sigma. Estamos de acuerdo con el modelo estándar en un 95%, pero necesitamos más datos“, explicó Icandela.

“Observamos en nuestros datos claros signos de una nueva partícula, con un nivel de confianza estadística de 5 sigma (superior al 99,99994%), en la región de masas de alrededor de 125 gigaelectrónvoltios. El excepcional funcionamiento del LHC y ATLAS, y los enormes esfuerzos de mucha gente, nos han llevado a esta emocionante etapa”, asegura la portavoz del experimento ATLAS, Fabiola Gianotti, “pero se necesita un poco más de tiempo para preparar estos resultados para su publicación”.

El portavoz del experimento CMS, Joe Incandela, explica: “Los resultados son preliminares, pero la señal de 5 sigma alrededor de 125 gigaelectrónvoltios que estamos viendo es dramática. Es realmente una nueva partícula. Sabemos que debe ser un bosón y es el bosón más pesado jamás encontrado”. Para Incandela, “las implicaciones son muy significativas y es precisamente por esta razón por lo que es preciso ser extremadamente diligentes en todos los estudios y comprobaciones”.

Gran expectación

El pasado mes de Diciembre ya se habló de un posible anuncio del CERN. En aquella ocasión los expertos señalaron que se “había cerrado el cerco” en torno a la partícula, por lo que ya estaban más cerca de encontrarla.

Además, el director general del CERN, Rolf Heuer, señaló la semana pasada que ya podría haber datos “suficientes” para hallar el Bosón de Higgs. En un artículo en ‘The Bulletin’, Heuer indicó que “hallar el Bosón de Higgs es una posibilidad real y que, a menos de dos semanas para que se celebre la conferencia ICHEP, la noticias de los experimentos se esperado ansiosamente”.

 

https://www.youtube.com/watch?v=Bh2znpe1xdg

A pesar de estas palabras, Heuer ha pedido a la comunidad científica que tenga “un poco más de paciencia”. En este sentido, recordó que aunque ATLAS o CMS muestren datos que supongan el descubrimiento de la partícula “siempre se necesita tiempo para saber si es el Bosón de Higgs buscado durante mucho tiempo -el último ingrediente que falta en el Modelo Estándar de física de partículas- o si se trata de una forma más exótica de esta partícula de que podría abrir la puerta a una nueva física“.

Nivel de certeza

Los físicos de partículas mantienen un consenso general acerca de lo que se puede considerar un ‘descubrimiento': un nivel de certeza de 5 sigmas. La cantidad de sigmas mide la improbabilidad de obtener un resultado experimental fruto de la suerte en lugar de provenir de un efecto real.

Se suele poner como ejemplo el lanzamiento de una moneda al aire y ver cuántas veces sale cara. Por ejemplo, 3 sigmas representarían una desviación de la media equivalente a obtener ocho caras en ocho lanzamientos seguidos. Y 5 sigmas, 20 caras en 20 lanzamientos.

La toma de datos para la ICHEP 2012 concluyó el lunes 18 de junio después de un “exitoso primer periodo” de funcionamiento del LHC durante este año, según ha explicado del CERN. Precisamente, Heuer ha señalado que es el “impresionante trabajo” que ha tenido el LHC en 2012 lo que “ha elevado las expectativas de cara a un descubrimiento”.

El equipo de expertos que trabaja para la organización en Ginebra ha diseñado la actividad del LHC para el primer periodo de 2012 de manera que obtuviera la máxima cantidad de datos posibles antes de que se celebrara el ICHEP. De hecho, se han obtenido más datos entre abril y junio de este año que en todo 2011. “La estrategia ha sido un éxito”, ha indicado el director general del CERN.

 

Cortesía: Elmundo

previous page · next page

A la caza de la materia oscura

 

materia-oscura

La materia ordinaria que forma todo lo que vemos supone sólo en 5% del Cosmos

En los años 40, la ciencia no era precisamente cosa de mujeres. En su primer acercamiento a la universidad, Vera Rubin tenía más que claro su interés por la astronomía. Sin embargo, el empleado de la oficina de admisiones le sugirió la idea de cambiar su vocación por algo relacionado con el estudio de las estrellas, pero, de alguna forma, más femenino… como la pintura. Rubin acabó estudiando Artes en el Vassar College de Nueva York. Pero no dio su brazo a torcer y terminó estudiando Física en Cornell con Richard Feynman, aunque no lo tuvo fácil. Como cuenta el físico teórico de Caltech Sean Carroll en su libro La partícula al final del Universo (Debate), cuando escribió a la Universidad de Princeton pidiendo el catálogo de estudios de doctorado se negaron a enviárselo señalando que el departamento de Astronomía no aceptaba mujeres como estudiantes de postgrado (algo que no cambió hasta el año 1975).

La perseverancia dio sus frutos y en 1978 Vera Rubin y su colega Kent Ford descubrieron algo inesperado que cambiaría la concepción del Cosmos. La Ley de la Gravedad dice que las estrellas deberían moverse a menor velocidad a medida que se alejan del centro de su galaxia, igual que los planetas más lejanos del Sistema Solar giran a menor velocidad que la Tierra alrededor del Sol. Cuanto más lejos del cuerpo que se orbita, menos intensa es la fuerza gravitatoria.

Sin embargo, Rubin y Ford observaron algo muy diferente: Las estrellas se mueven a la misma velocidad aunque se alejen del centro de la galaxia. Parecía imposible, pero no había otra explicación: las galaxias tenían que tener mucha más masa de la que podemos ver. Sin saberlo, habían demostrado la existencia de la materia oscura, uno de los grandes retos de la Astronomía y la Física actuales.

Hacia lo desconocido

No obstante, otros investigadores como Fritz Zwicky o Jan Oort ya habían demostrado por otras vías que en el Universo había mucha más materia de la que podemos ver con los telescopios. El Cosmos es mucho más que galaxias, planetas, estrellas y cuerpos celestes. Toda la materia ordinaria que conocemos, la que compone la Tierra, el Sol, todas las estrellas y constelaciones y a nosotros mismos supone apenas un 5% del Cosmos. El resto del Universo está formado por materia (25%) y energía (70%) oscuras. Pero a pesar de que lo oscuro supone el 95% del Universo y de que han transcurrido 35 años desde el descubrimiento de Rubin, la Física aún no puede explicar ni siquiera qué compone esta enigmática materia, y mucho menos qué hay detrás de la energía oscura.

«La materia oscura es un misterio, pero hay un consenso de que está formada por partículas», explica Carlos Muñoz, director del Instituto de Física Teórica (IFT) de la Universidad Autónoma de Madrid y el CSIC y coordinador del Proyecto Multidark. «En la energía oscura, en cambio, no se sabe nada, no se sabe ni por donde empezar», asegura.

Mapa 3D de la materia oscura del Cosmos.NASA / ESA

Tras el sonado Hallazgo del Bosón de Higgs en julio de 2012, la materia oscura se ha convertido en el nuevo El Dorado de la Física. La partícula predicha por el británico Peter Higgs era la última pieza que faltaba por encontrar del Modelo Estándar de la Física, el que explica las propiedades y el funcionamiento de la materia que nos rodea y que nos constituye. Lo que se abre ahora ante los físicos es la frontera de lo desconocido. Por ese motivo, bajo el paraguas del proyecto de excelencia Multidark que dirige Carlos Muñoz desde el año 2010, se acaba de celebrar en el Instituto de Física Corpuscular (IFIC) de Valencia una reunión científica internacional para poner en común los últimos avances en la búsqueda de materia oscura.

Pero para entrar en esa nueva era hace falta una nueva Física, nuevas reglas del juego que hagan encajar las piezas del puzle de la materia oscura. Y, aunque no se sabe cuáles serán, sí hay varias teorías propuestas que podrían hacer funcionar esa nueva Física. «La más atractiva es la Supersimetría», dice Carlos Muñoz. Según este modelo, conocido entre los físicos como SUSY, cada partícula elemental del Modelo Estándar -quarks, electrones, bosones, neutrinos, etcétera- tendría un duplicado supersimétrico, pero con mucha más masa y con unas propiedades distintas, como que no emiten ni absorben luz o que no tienen carga eléctrica, porque en caso contrario, ya las habríamos encontrado.

Eso explicaría la enorme masa que detectaron Zwicky o Rubin y que aún no somos capaces de ver. Pero hay otros muchos modelos propuestos que habría que comprobar en caso de que alguna partícula oscura fuese finalmente detectada.

«Lo que nos interesa es saber de qué está hecho lo que no podemos ver del Universo», afirma David G. Cerdeño, investigador del IFT de Madrid, durante su conferencia titulada Los cazadores de materia oscura. «Como no podemos encontrar estas partículas directamente ya que no son visibles y sus interacciones son muy débiles, buscamos las huellas que deja», dice Cerdeño.

 

https://www.youtube.com/watch?v=pBvDXwtjpb8

Huellas sobre la nieve

La metáfora perfecta es el final de la adaptación al cine de James Whale de la novela de H. G. Wells El hombre invisible, cuando el atormentado e invisible protagonista deja sus pisadas sobre la nieve. «No podemos ver ni detectar estas partículas de ningún modo, a no ser que atraviesen un campo de nieve, como en la película», explica Cerdeño.

Los físicos experimentales han sido capaces en los últimos años de diseñar un buen número de experimentos que hagan las veces de nieve sobre la que podría pisar una partícula oscura y ser detectada.

De forma sintética, hay tres vías para cazar estas partículas. Mediante métodos directos en los que un material es capaz de detectar el choque de una partícula oscura contra el núcleo de un átomo de ese material; de forma indirecta localizando los neutrinos o rayos gamma que se producen cuando una de estas partículas se aniquila o produciéndolas en un acelerador de partículas, como el LHC (de hecho, el aumento de enería que está sufriendo para pasar de 8GeV a 14GeV está enfocado a producir partículas más pesadas, como las que se piensa que tiene la materia oscura).

Desde hace años, se trata de dar caza a la materia oscura desde satélites como el Fermi -dedicado a analizar rayos gamma- o desde laboratorios subterráneos o excavados en el hielo, como el IceCube de la Antártida o el de Gran Sasso (Italia), tristemente conocido por los resultados que resultaron erróneos sobre neutrinos que viajaban más rápido que la velocidad de la luz. Pero en el campo de la materia oscura, de las decenas de experimentos que se llevan años realizando, sólo uno asegura haber encontrado este tipo de partículas, y fue precisamente el experimento Dama-Libra, llevado a cabo en Gran Sasso.

Desde entonces, muchos grupos científicos persiguen el sueño de encontrar esas mismas partículas y corroborar así los resultados obtenidos en Italia. Pero nadie lo ha logrado aún. Aldo Morselli es uno de los científicos principales del telescopio espacial Fermi que está tratando de confirmar los resultados de Dama-Libra. «Estamos en niveles de confianza de 2 o 3 sigma, si llegamos a cinco sigma podremos decir que hemos encontrado materia oscura», adelanta Morselli. «Esperamos poder tener más resultados en medio año, pero si tuviera que apostar mi dinero sobre cuándo se encontrarán partículas de materia oscura diría que se logrará en el próximo año», asegura.

Los cazadores de materia oscura no sólo ocupan laboratorios fuera de nuestras fronteras. En España, hay desde hace años instalaciones punteras a nivel mundial para la búsqueda de lo desconocido en el Cosmos. La materia oscura tiene interacciones muy débiles, así que el efecto que provoca en los núcleos de los detectores es pequeño y éstos tienen que ser muy sensibles.

Además, para evitar el efecto de los rayos cósmicos estos laboratorios se tienen que proteger bajo montañas de roca, excavadas en el hielo o en el fondo del mar. Por esa razón, quizá los dos mejores exponentes en España estén en un túnel ferroviario en Canfranc (Pirineos) a 850 metros de profundidad bajo el monte Tobazo -Laboratorio Subterráneo de Canfranc, dirigido desde la Universidad de Zaragoza- y bajo las aguas del Mediterráneo, como el proyecto Antares de detección de neutrinos desarrollado por el IFIC.

A pesar de los esfuerzos internacionales por esclarecer la porción oscura de la materia, aún ni siquiera se alcanzan a vislumbrar sus posibles aplicaciones prácticas. «Nadie tiene ni idea de para qué puede servir la materia oscura si se llega a encontrar», admite Carlos Muñoz. «Pero Faraday y Maxwell, cuando descubrieron la electricidad, tampoco sabían para qué se podía utilizar lo que estaban construyendo y era nada menos que el mundo moderno».

En todo caso, el momento de buscar la practicidad de un avance semejante aún parece muy lejano. Para Quaisar Shafi, físico teórico del experimento BICEP 2 que confirmó recientemente La teoría de la inflación cósmica y, por tanto, la del Big Bang, queda un trabajo enorme de búsqueda y de contraste con las diferentes teorías sobre la materia oscura. Aún así, para él estamos viviendo un momento apasionante para la historia de la Física.

«Si se encuentra materia oscura, pero no encaja con ninguna teoría de las que hay sobre la mesa, sería muy interesante para los físicos teóricos, se abriría una nueva era de la Física. En ese momento, sí que necesitaríamos un nuevo Einstein», asegura Shafi exaltado. Quizá en este nuevo siglo, el nuevo Einstein podría ser una mujer.

 

Cortesía: Elmundo

previous page · next page

El misterio de los agujeros negros

agujero-negro-3

Los agujeros negros estaban, sin que apenas nadie lo percibiera en aquel entonces, en el centro la Teoría de la Relatividad General de Einstein. Nadie excepto el excelso matemático y astrofísico que dirigía a principios del Siglo XX el Observatorio de Postdam, Karl Schwarzschild, quien se daría cuenta pronto de su existencia y su importancia en la gravitación universal.

Pero la Primera Guerra Mundial complicó mucho su trabajo científico. Cuando Einstein publicó los artículos en los que enunciaba las ecuaciones del campo gravitatorio de su teoría, Schwarzschild se encontraba destinado en los campos de batalla de Rusia, encargado de calcular la trayectoria de los proyectiles de artillería. Él mismo se había presentado voluntario al ejército del Imperio alemán. Pero el trabajo debía quedársele pequeño porque, tras leer el trabajo de Einstein, se puso inmediatamente a aplicar las nuevas ecuaciones a los objetos del Cosmos.

Y las conclusiones no tardaron en llegar. En enero de 1916 -sólo tres meses después de la publicación de la Teoría de la Relatividad General-, Schwarzschild envió por correo sus resultados a Einstein.«Estoy seguro de que permitirán a su teoría brillar con mayor pureza», escribió desde el frente ruso el astrofísico alemán. El propio genio de la Física se rindió ante los cálculos de Schwarzschild. «Jamás habría esperado que la solución exacta al problema pudiera formularse de una manera tan simple», respondió, según cita el escritor Walter Isaacson en la biografía titulada Einstein, su vida y su universo (Debate).

Dyson: «Los agujeros negros no son raros y no constituyen un adorno accidental de nuestro universo. Son los únicos lugares del Universo donde la Teoría de la Relatividad de Einstein se muestra en toda su potencia y esplendor»

Pero no en todo estaba de acuerdo con los cálculos de Schwarzschild. Éste se había centrado en la curvatura del espacio-tiempo, tanto fuera como en el interior de una estrella esférica. No obstante, en sus conclusiones había algo con lo que Einstein jamás comulgaría. Si toda la masa de la estrella se comprimiese en un espacio lo suficientemente pequeño, el espacio-tiempo se curvaría de forma infinita sobre sí mismo. Lo que ocurriría en ese caso es que dentro de ese pequeño espacio -definido por lo que ha pasado a la historia de la Ciencia como radio de Schwarzschild- nada podría escapar de la fuerza gravitatoria de ese cuerpo, ni siquiera la luz. Pero, además, el tiempo también se vería afectado, dilatándose hasta cero. Dicho de otro modo, si una persona se situase cerca de ese objeto ultradenso quedaría, a ojos de un observador externo, congelado en el tiempo.

La Tierra en una canica

Eso ocurriría, según sus cálculos, si toda la masa de nuestro Sol se comprimiera en un radio de algo menos de tres kilómetros o a la Tierra si pudiésemos concentrar su masa en una canica de dos centímetros. Para Einstein esto era, sencillamente, imposible. Pero ni uno ni otro tendrían tiempo para comprobar que de lo que estaban hablando era de los agujeros negros. Schwarzschild murió en el frente a consecuencia de una enfermedad autoinmune que atacó a las células de su piel pocas semanas después de escribir a Einstein. Y éste también moriría antes de que otros gigantes científicos como Stephen Hawking, Roger Penrose, John Wheeler o Freeman Dyson demostrasen en la década de los 60 que la extraña teoría de Schwarzschild era algo más que real.

Al contrario de lo que ocurre con otras disciplinas científicas, los físicos suelen ser muy buenos vendedores de sus teorías y sus nombres son en ocasiones auténticos productos de marketing diseñados para triunfar. Según cuenta el profesor de Física de la Universidad de Columbia Brian Greene en su obra La realidad oculta (Crítica), el hecho de que el abismo gravitatorio creado por los agujeros negros atrape incluso a la luz implica que estas regiones del Universo estén fundidas en negro, por lo que, poco después de que se publicasen los resultados de Schwarzschild, fueron denominadas como «estrellas oscuras». También el efecto que tienen sobre el tiempo llevó a que se propusiese el nombre de «estrellas congeladas». Pero eso fue hasta que, medio siglo después, John Wheeler -físico teórico de la Universidad de Princeton y uno de los pioneros de la fisión nuclear dentro del Proyecto Manhattan que permitió el desarrollo de la bomba atómica- comenzó a estudiar estos objetos cósmicos ultradensos. «Wheeler, casi tan adepto al marketing como a la física», popularizó estas estrellas con el nombre que las ha hecho célebres: «agujeros negros», relata Greene.

En la actualidad, se han descubierto decenas de agujeros negros en todo el Universo y no pasa una sola semana sin que la comunidad científica publique un nuevo avance en el estudio de estos densos objetos cósmicos. Como explicó el brillante físico británico -nacionalizado después estadounidense- Freeman Dyson, los agujeros negros «no son raros y no constituyen un adorno accidental de nuestro universo. Son los únicos lugares del Universo donde la Teoría de la Relatividad de Einstein se muestra en toda su potencia y esplendor».

Sin embargo, a pesar de los casi 100 años que han pasado desde su descubrimiento y de los esfuerzos de algunas de las mentes científicas más brillantes del siglo XX aún hay muchas incógnitas en torno a los agujeros negros.

La última gran esperanza para avanzar en el conocimiento de estos misteriosos objetos se acaba de desvanecer recientemente. A pesar de lo terrorífico que pueda sonar para el gran público el concepto deun gran sumidero cósmico capaz de engullir cualquier objeto del Universo y del que nada puede escapar, hay agujeros negros en todas las galaxias.

Un sumidero cósmico cercano

Se han detectado agujeros negros en algunas cercanas, como en la Nube de Magallanes, a más de 130.000 años luz de distancia de la Tierra. Pero también en la Vía Láctea. De hecho, un enorme agujero negro de cuatro millones de veces la masa del Sol, llamado Sagittarius A*, domina el centro de nuestra galaxia.

Cuando engullen la materia de cualquier objeto cósmico, la gran atracción que generan acelera esta materia hasta una velocidad cercana a la de la luz. Y cuando eso sucede… ¡Fuegos artificiales! Se emiten rayos X

«En la Vía Láctea hay unos 100.000 millones de estrellas y todas ellas giran en torno a este fantástico agujero negro», dice Jorge Casares, investigador del Instituto Astrofísico de Canarias y de la Universidad de la Laguna. «Para tener ligadas gravitacionalmente a tantas estrellas hay que tener un agujero negro como Sagittarius A* o mayor», asegura.

A principios de año, dos de los grupos más punteros en el estudio y seguimiento de este agujero negro -el que dirige Andrea Ghez en la Universidad de California, Los Angeles (UCLA), y el de Stefan Gillessen en el Instituto Max Planck para Física Extraterrestre de Alemania- anunciaban que, por primera vez, los astrónomos tendrían la posibilidad de asistir a uno de los banquetes cosmicos de Ságitarius Las observaciones indicaban que en los meses de marzo o abril de 2014 una nube de gas pasaría por el punto más cercano al agujero negro y sería devorada en apenas unos días.

La comunidad astrofísica esperaba el acontecimiento con impaciencia, pero finalmente no ha sido así. Las previsiones han fallado. La semana pasada, la propia Andrea Ghez publicaba una comunicación en un sistema de intercambio de información científica llamado The Astronomer’s Telegram donde aseguraba que, después de alcanzar el punto más cercano a Sagittarius A*, la nube de gas -denominada G2- «está todavía intacta». Incluso en ese punto de máximo acercamiento, la distancia entre la nube de gas y el agujero negro sería todavía de 200 veces la distancia que hay de la Tierra al Sol.

«Se esperaba que se deshiciera en el punto más cercano y no ha sucedido», explica Marc Ribó, investigador experto en agujeros negros de la Universidad de Barcelona. «Se sigue observando como si fuera una fuente puntual, lo que permite pensar que G2 podría ser una nube de gas, pero que está alrededor de una estrella», opina.

Las previsiones científicas indicaban que la enorme fuerza gravitacional del agujero negro del centro de nuestra galaxia debería atraer a la nube de gas a velocidades de varios miles de kilómetros por segundo. Sólo para dar una idea de la magnitud, a esa velocidad se podría volar de desde Estados Unidos a España en menos de un segundo. Sin embargo, la fuerza gravitacional de esa posible estrella del interior de la nube de gas podría haber impedido que G2 fuera engullida por el agujero negro.

Representación artística del disco y de los chorros eyectados en el...

Representación artística del disco y de los chorros eyectados en el agujero negro de Cygnus X-1. NASA

«Todavía hay gas que está siendo arrancado de este objeto, de la nube G2», asegura  Andrea Ghez. «Y este material aún podría chocar eventualmente con Sagittarius A*, incluso aunque hubiese una estrella en el centro que evite que el objeto entero sea atraído en forma de espiral y devorado por el agujero negro. Así que sólo es cuestión del grado y la magnitud del evento que podamos observar», dice.

Sea como fuese, se ha desvanecido una oportunidad única para estudiar la acreción de una gran cantidad de materia en uno de los agujeros negros que predecía la Teoría de la Relatividad de Einstein y que demostró en 1916 Karl Schwarzschild desde los campos de batalla rusos.

Resulta paradójico pensar que, a pesar de la urgente actualidad que tiene el estudio del centro de la galaxia para los astrofísicos, Sagittarius A* se encuentra a 26.000 años luz de distancia de la Tierra, por lo que los acontecimientos que se estudian hoy ocurrieron en realidad hace 26.000 años.

Para los astrofísicos, la oportunidad perdida tampoco es el fin del mundo. «Puede ser que volvamos a tener alguna otra oportunidad a lo largo de nuestra vida», afirma Ribó. «Si hubiera pasado hace 15 años, no lo hubiéramos visto, porque los instrumentos de observación de entonces no lo permitían», dice. Y tiene mucha razón. El avance de las tecnologías de observación espacial de los últimos años han sido determinantes. Pero no sólo la construcción de potentes telescopios con espejos de varios metros de diámetro en el desierto de Atacama de Chile o en Hawai. También están siendo fundamentales otras tecnologías para profundizar en el estudio de los misteriosos agujeros negros.

Fuegos artificiales

El hecho de que su enorme atracción gravitatoria arrastre hasta a las partículas elementales de la luz -los fotones-, hace que no emitan ninguna señal y que sean imposibles de detectar por sí mismos. «Los agujeros negros se pueden detectar en fases de actividad, cuando engullen cosas», explica Casares. Si están en estado de quietud, no hay nada que dé la alarma. «No vemos nada», dice.

Sin embargo, cuando engullen la materia de cualquier objeto cósmico, la enorme atracción que generan acelera esta materia hasta una velocidad cercana a la de la luz. Y cuando eso sucede… ¡Fuegos artificiales! Los jirones de materia que el agujero negro arranca a las estrellas o a las nubes de gas cercanas emiten rayos X y otros tipos de radiación que los instrumentos astronómicos actuales son capaces de detectar aunque estén a decenas de miles de años luz de distancia.

Los fuegos artificiales que los astrofísicos pueden ver cuando se produce una acreción de materia en un agujero negro consisten en la formación de un disco de material y de chorros que salen eyectados de forma perpendicular al disco.

«Además de los telescopios de luz infrarroja o de rayos X, estos hallazgos han sido posibles gracias a técnicas de óptica adaptativa que son capaces de corregir en las imágenes las turbulencias de la atmósfera, que deforman las estrellas», dice Casares. «Es como si pudiésemos situar el Very Large Telescope (VLT) del desierto chileno de Atacama por encima de la atmósfera y observar desde allí el espacio».

Los agujeros negros supermasivos como el que ocupa el centro de la Vía Láctea parecen tener mucho más atractivo para el gran público. Pero lo más habitual para los astrofísicos es detectar otros más pequeños -de cinco o diez masas solares- que normalmente están asociados a una estrella, a la que arrancan la materia que es engullida y que permite a los físicos observar el acontecimiento. Según el criterio de los científicos, si su masa es equivalente a tres veces la del Sol es un agujero negro, pero si es menor puede ser otras cosas, como una estrella de neutrones.

Hasta ahora, la comunidad científica ha detectado unos 20 agujeros negros confirmados. Un equipo científico español en el que participan Jorge Casares y Marc Ribó es uno de los más activos en la búsqueda de estos objetos y es responsable del hallazgo de seis de los 20 encontrados en total. «Vemos unos dos eventos de acreción de materia en agujeros negros cada año», dice Casares. «Es más fácil ver acontecimientos en agujeros negros más pequeños», explica Ribó.

La explosión de una estrella en una supernova puede dar lugar a uno de estos objetos cósmicos y, de hecho, esto ya se ha observado tras un colapso estelar. Pero lo que continúa siendo un enigma es cómo se formaron los agujeros negros de varios millones -incluso de millones de millones- de masas como la del Sol. «Los agujeros negros muy masivos, de cientos de miles de millones de masas solares se postula que se formaron en el origen del Universo, cuando las estrellas que se formaban en aquel cosmos primigenio tenían masas enormes y explotaban como supernovas», dice Casares. La formación de cúmulos de agujeros negros en aquel universo recién nacido podría explicar la presencia de gigantes como Sagittarius A*.

Materia oscura

Otro de los grandes misterios de los agujeros negros es por qué existen de pequeño tamaño, unas cinco o 10 masas solares, y de gran tamaño, millones de veces la masa del Sol y no hay evidencias de la existencia de agujeros negros intermedios de 100 o 1.000 masas solares. Demasiadas incógnitas. Pero en este terreno de la Astrofísica y Física teórica de vanguardia todo puede complicarse aún más. Y es que en algún punto el papel cósmico de los agujeros negros se da la mano con otro de los grandes misterios actuales del estudio del Cosmos: La Materio Oscura

El año próximo, el proyecto Event Horizon Telescope -una iniciativa para crear una red global de observatorios para estudiar el entorno inmediato de Sagittarius A*- alcanzará suficiente resolución como para diferenciar la luz que es arrastrada hacia el interior del agujero negro de la que va a parar al enigmático halo de materia oscura que lo rodea.

Hace apenas tres días, un equipo científico de EEUU daba un paso adelante en el estudio de esta indescifrable pareja de objetos cósmicos que domina nuestra galaxia. El descubrimiento de una estrella que viaja a una velocidad de casi dos millones de kilómetros por hora podría arrojar luz sobre el más oscuro secreto de la Vía Láctea. «No podemos ver el halo de materia oscura, pero su gravedad actúa sobre la estrella», dice Zheng Zheng, profesor de Física y Astronomía de la Universidad de Utah y autor principal del estudio.

https://www.youtube.com/watch?v=gjkag0nM-MM

Según los expertos, una desviación de la forma prevista de este misterioso halo podría indicar que la teoría de la gravedad de Einstein necesita ser revisada. Pero aún es pronto para eso. En el año 2018, una estrella llamada So-2 pasará considerablemente más cerca del agujero negro gigante del centro de nuestra galaxia de lo que está la nube de gas G2 en este momento. La órbita de esta estrella podría poner a prueba si las ecuaciones de Einstein describen correctamente la gravedad en las inmediaciones de un agujero negro supermasivo. Para ese momento, las teorías del genial físico alemán y los cálculos matemáticos de Karl Schwarzschild ya habrán cumplido más de 100 años. Y, como en aquel momento, los agujeros negros aún serán uno de los grandes misterios del Universo para los físicos.

Cortesía: Elmundo

previous page · next page

El derretimiento de los glaciares en la Antártida están dejando ver, pirámides.

MISTERIO Y TREMENDA SORPREjSA

Tres pirámides antiguas han sido descubiertas en la Antártida por un equipo de científicos estadounidenses y europeos.
Dos de las pirámides fueron descubiertas a 16 kilómetros tierra adentro,mientras que la tercera estaba muy cerca de la costa.
Los primeros informes sobre las pirámides apareció en los medios de comunicación occidentales el año pasado. Unas cuantas fotos se publicaron en algunos sitios web con un comentario que las extrañas estructuras podrían servir de prueba de que el continente cubierto de hielo solía ser lo suficientemente caliente como para haber tenido una antigua civilización viviendo.

MISTERIO Y TREMENDA SORPRESA

Imagen aérea tomada a través del hielo del Polo Sur parecen mostrar dos o posiblemente tres pirámides en una fila en similar formación a las pirámides de Giza.

MISTERIO Y TREMENDA SORPRESA3

Hasta el momento se conoce poco acerca de las pirámides y el equipo sigue manteniendo silencio sobre el increible descubrimiento. La única información fiable proporcionada por los científicos era que ellos estaban planeando una expedición a las pirámides para investigar más a fondo y determinar a ciencia cierta si las estructuras eran artificiales o naturales.
No se ofrecieron detalles sobre la expedición.

En caso de que los investigadores prueben que las pirámides son estructuras hechas por el hombre,
el descubrimiento podría llevar a cabo la mayor revisión de la historia de la humanidad como jamás se ha hecho.

MISTERIO Y TREMENDA SORPRESA4

Miembros de la expedición tratando de acercarse a la pirámide.

MISTERIO Y TREMENDA SORPRESA5

La imagen muestra una estructura piramidal rodeada de hielo justo en el centro de la foto, en la costa. Imagen: Integrated Ocean Drilling Program

Mientras tanto, una serie de extraños pero interesantes descubrimientos se han hecho últimamente en la Antártida. En 2009 los científicos del clima han encontrado allí partículas de polen, que posiblemente podría afirmar que los árboles de palma, una vez crecieron en la Antártida y las temperaturas de verano alcanzaron los 21C. Tres años más tarde, en 2012, los científicos del Instituto de Investigación del Desierto de Nevada identificaron 32 especies de bacterias en muestras de aguas del Lago Vida en la Antártida oriental.
Una posible civilización que la historia oficial no tomo en cuenta…

¿Será posible que la Antártida era una vez lo suficientemente caliente en el pasado reciente como para tener una civilización antigua viviendo allí? Y aún más sorprendente es la cuestión de que si una cultura avanzada se desarrolló allí ¿Existirá algunas estructuras restantes que todavía estén enterrados debajo del hielo?
Los estudiosos y egiptólogos han sospechado durante mucho tiempo que la esfinge es mucho más antigua de lo estimado, posiblemente tiene más de 10.000 años de antigüedad.
Los científicos descubrieron que la evidencia de la erosión del agua sobre la antigua estatua, siendo la mayor del mundo, cuenta una historia de cambio climático desde una selva lluviosa al calor del desierto en unos pocos miles de años.
Si el clima en Egipto ha cambiado tan rápidamente, ¿Es igualmente posible que el clima antártico también podría haber cambiado drásticamente en el mismo tiempo?
De acuerdo con la teoría de la correlación de Robert Bauval y Adrian Gilbert, la construcción de las pirámides de Giza habría tenido lugar en un período anterior a los 10,500 a 12,500 años BC, motivando esta retroactividad con la correlación entre la ubicación de las tres principales pirámides de la necrópolis de Giza y las tres estrellas de la constelación de Orión, y que esta correlación fue intencionalmente creada por personas que construyeron las pirámides.

MISTERIO Y TREMENDA SORPRESA6

Las pirámides de Giza y las tres estrellas de la constelación de Orión
La referencia a la fecha de hace 12.500 años es significativo para Hancock, ya que la posición de las
pirámides indica el momento preciso en que una anterior civilización avanzada ha visto su ocaso debido a un cataclismo global.
En su libro Las Huellas de los Dioses, Graham Hancock ha encontrado pistas que llevan a todos hacia un punto preciso.

Según Hancock, las pirámides fueron construidas en todas las culturas del planeta y sus monumentos contienen configuraciones astronómicas más o menos evidentes.

MISTERIO Y TREMENDA SORPRESA7

A partir de antiguos testimonios de numerosas poblaciones — la gran esfinge de Egipto, los misteriosos templos de Tiahuanaco, las gigantes líneas de Nazca de Perú, las pirámides masivas del Sol y la Luna de México — y al ponerlos en comparación con los mitos y leyendas universales, con el estudio de los mapas que datan de tiempos antiguos, el erudito sugiere la existencia de un pueblo con una posesión de inteligencia superiores de tecnologías sofisticadas y un conocimiento científico detallado, cuya “huella”, sin embargo, fueron exterminados por completo por un desastre de enormes proporciones.

Cada cultura ha adorado a sus reyes como dioses. Sus religiones fueron todos dirigidos a la búsqueda de la inmortalidad del alma y sus sacerdotes eran los astrónomos, con un conocimiento anticipatorio de los movimientos celestes. La serpiente-reptil es una figura simbólica presente en todas las culturas y es considerado sagrado.
Esta gran unidad cultural, según Hancock, sugiere que la civilización humana no nació de repente de la nada, sino que fue “ayudado” por alguien con conocimientos
tecnológico y cultural de avanzada.
La evidencia que apoya esta teoría es la expansión de la agricultura.
Resultó que la agricultura nace simultáneamente en al menos seis zonas del mundo sin ninguna relación aparente entre ellos: Centro y Sur América, la Media Luna Fértil, África Central, China Oriental y el Sudeste Asiático.

EN CONCLUSION :
Si miramos con alarma los informes del calentamiento global que advierten que tanto las regiones del Ártico y la Antártida se están derritiendo.
Muchos de nosotros podríamos vivir para ver el día en que estará expuesto todo el continente de la Antártida, al igual que todas las edificaciones antiguas que alguna vez existieron allí.
Si se encuentra una pirámide gigante va a cambiar la forma de pensar del mundo para siempre. Aun no hemos logrado volver a crear las grandes pirámides. Nosotros simplemente no tenemos la tecnología.

Así que la pregunta es: quién, o qué, hizo estas pirámides
en la Antártida? ¿Y qué dejaron atrás?

Cortesía: Viadimension

previous page · next page

Premian a jóvenes por innovación tecnológica

Tec

El Instituto Tecnológico de Massachusetts reconoció a cinco jóvenes mexicanos con los premios MIT Technology Review Innovadores menores de 35, por la creatividad de sus trabajos tecnológicos.

Daniel Jacobo, Scott Munguía, Caleb Rascón, Guillermo Ulises Ruiz y Blanca Lorena Villarreal, todos del Tecnológico de Monterrey, recibieron la distinción de la edición en español de Technology Review del Massachusetts Institute of Technology (MIT), en una ceremonia en el campus Santa Fe.

Los premios “Innovadores menores de 35” abarcan todas las áreas de la tecnología y distinguen a los inventores, emprendedores, pioneros, visionarios, solidarios que han creado soluciones innovadoras con un impacto real en los problemas que preocupan a nivel global.

El egresado de la maestría de Biotecnología, Daniel Alberto Jacobo-Velázquez desarrolló un sistema alternativo a los transgénicos para convertir hortalizas en biofábricas de moléculas de interés alimentario y farmacéutico.

El estudiante de ingeniería en Químico Administrador, Scott Miguel Munguía Olvera diseñó una tecnología para la producción de bioplásticos a partir de semillas de aguacate, con la que fundó una empresa dedicada al desarrollo de tecnologías en plástico biodegradable.

El egresado de la Ingeniería en Sistemas Electrónicos, Caleb Antonio Rascón Estebané, creó un sistema de audición robótica capaz de detectar y ubicar varias fuentes sonoras con un menor número de micrófonos.

En tanto, el estudiante de doctorado en Biotecnología, Guillermo Ulises Ruiz Esparza, desarrolló una terapia con nanovectores para mejorar la eficiencia de los fármacos en la insuficiencia cardiaca con la que se pueden proporcionar nuevos tratamientos eficaces, no invasivos y de menor costo.

A su vez, la egresada de ingeniería en Mecatrónica y del doctorado en Tecnologías de la Información y Comunicaciones, Blanca Lorena Villarreal Guerra, creó una nariz robótica capaz de detectar y seguir con rapidez la trayectoria de una fuente de olor, que puede utilizarse para identificar la dirección de la que proceden las fugas de gases y otras fuentes de olor.

Al presentar a los ganadores, el director de la edición en español de MIT Technology Review, Pedro Moneo, destacó el trabajo de los jóvenes, quienes “han tenido la valentía para llevarlo al mercado y convertirlo en un proyecto con un gran impacto social y económico”

En la entrega de los galardones también participaron gerente de Relaciones Externas del BID, Marcelo Cabrol; el coordinador de Innovación de la UNAM, Juan Manuel Romero; y el secretario de Desarrollo Económico del Distrito Federal, Salomón Chertorivski.

Cortesía: Notimex

previous page · next page