Resuelven el problema de la “catástrofe de la materia oscura fría”
Una simulación computación logra explicar la falta de presencia de materia oscura en galaxias enanas introduciendo las consecuencias que tendrían las explosiones de supernovas.
|
Hay un tema recurrente en la Astrofísica moderna que no deja de dar problemas y aparentemente no tiene una solución satisfactoria, pese a que a veces es un estorbo y otras un ingrediente. Se trata, naturalmente, del problema de la materia oscura: esa parte de masa del Universo que no vemos y cuya naturaleza desconocemos.
La materia oscura es un ingrediente fundamental o básico en los modelos cosmológicos. Sin materia oscura de uno u otro tipo (fundamentalmente a los cosmólogos les basta con considerar si es fría o caliente) los modelos cosmológicos no funcionarían. De hecho, la materia ordinaria suele ser un simple condimento a la receta que prácticamente no se tiene en cuenta. El grueso de la evolución cosmológica está protagonizado por la materia oscura, que crea una red irregular sobre la cual se condensa por gravedad la materia ordinaria y, por tanto, las estrellas que vemos. Las galaxias, según esta visión, son en su mayoría materia oscura y se desprecia la influencia de la materia ordinaria en el proceso de formación.
Durante cerca 20 años los científicos han intentado resolver una discrepancia en los modelos de materia oscura fría. Problema al que han denominado “catástrofe de la materia oscura fría”. Ahora un grupo de científicos internacionales dirigidos por Lucio Mayer, de la universidad de Zurich, creen haber resuelto esta paradoja en la simulación de formación de galaxias enanas.
La presencia de materia oscura fría en los modelos resuelve muchos problemas cosmológicos y permite describir, entre otras cosas, la distribución de galaxias a gran escala. Sin embargo, cuando se trata de aplicarlo a galaxias enanas, del orden de decenas de miles de años luz de tamaño, el modelo fracasa.
Básicamente, la predicción dice que la región central de estas galaxias debería rotar a una velocidad mayor de lo que lo hace en la realidad. Lo que implica una mayor cantidad de materia oscura fría presente en ese tipo de galaxias de la que realmente hay.
Hasta ahora los intentos de resolver esta paradoja han terminado en fracaso. Sin embargo, un grupo internacional parece que por fin ha resuelto el problema.
En sus simulaciones computacionales tuvieron en cuenta, por primera vez, no solamente la influencia de la materia oscura en la formación de este tipo de galaxias, sino además el comportamiento altamente complejo de la materia ordinaria (bariónica). Las simulaciones se realizaron a alta resolución con varios supercomputadores de la NASA, que totalizaban 250 microprocesadores, y se necesitaron 2 meses para poder realizarlas.
Estos científicos muestran que durante la explosión de supernovas no solamente se expulsa materia ordinaria, sino que también se empuja a la materia oscura. Este proceso logra expulsar suficiente cantidad de materia oscura fuera de la parte central de la galaxia como para que la velocidad de rotación de ésta coincida con lo observado.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=2972
Fuentes y referencias:
Nota de prensa de la Universidad de Zurich
Artículo en Nature.
Vídeo en Youtube sobre las simulaciones.
8 Comentarios
RSS feed for comments on this post.
Lo sentimos, esta noticia está ya cerrada a comentarios.
lunes 18 enero, 2010 @ 9:02 am
¿El último párrafo es así o la diferencia se atribuye a materia oscura y todo cuadra?
Lo siento, pero no me gusta el nombre. A veces me pregunto si lo que está mal es el cálculo de la edad del Universo o si está correctamente interpretado el efecto Doppler y la «acelerada constante de Hubble». Tampoco me cuadra la solución de la época de expansión acelerada del espacio-universo mucho más rápida que la velocidad de la luz.
En fin, que las incógnitas nos avasallan antes de haber resuelto alguna.
lunes 18 enero, 2010 @ 10:03 am
El último párrafo es correcto. Los resultados del modelo coinciden con las medidas observacionales. Básicamente estas galaxias tienen mucha menos materia oscura.
La velocidad de rotación no tienen nada que ver con la velocidad de recesión y ésta no produce efecto Doppler, sino corrimiento al rojo cosmológico.
lunes 18 enero, 2010 @ 10:58 am
Sin ánimo de polemizar. El efecto Doppler puede medir la velocidad de giro de una galaxia cuyo plano no sea perpendicular a la visual, precisamente por su corrimiento hacia el rojo de las partes que se alejan y hacia el violeta de las que se acercan.
Por otra parte entre el corrimiento hacia el rojo cosmológico, consecuencia del efecto Doppler, y la «variable constante de Hubble» hay una íntima relación.
Si es como digo ahora, quizá no me expresé claramente en mi comentario anterior.
lunes 18 enero, 2010 @ 6:56 pm
Pues a la vista de esta simulación quizá haya que descartar la hipótesis de Mordehai Milgrom en la que sostiene que no se precisaría la «materia oscura» si la ley de la inversa del cuadrado (de la distancia) fuera incorrecta por debajo de un cierto valor, con lo que se subestimaría la verdadera fuerza de la gravedad. Por otro lado cabe considerar que la ley de la inversa sólo ha sido verificada, que yo sepa, a la escala del sistema solar y aplicarla a escalas cientos de millones de veces mayores pues tiene su aquél.
martes 19 enero, 2010 @ 1:44 am
Estimado Tomás:
Tiene razón en lo de medir la velocidad de giro de las galaxias por efecto Doppler. Es así como se hace. Perdón por haber entendido otra cosa.
Sobre el corrimiento al rojo cosmológico insisto que no tiene nada que ver con Doppler. Por desgracia hay incluso libros de texto que así lo afirman. La expansión del espacio hace que las longitudes de onda se alarguen, y de ahí el corrimiento. Las galaxias no se mueven, es el espacio que media entre ellas el que se expande.
martes 19 enero, 2010 @ 8:49 am
En efecto, Neo, y agradezco mucho tu comentario. He revisado mis libros y ciertamente están anticuados: tienen decenas de años; muy pocas, pero decenas. Esto me produce algún desasosiego pues siempre he procurado que mis conceptos fuesen claros. Mas soy aprendiz de todo y maestro de nada. Así que me he ido a Wiki para corroborar la forma de medir la expansión del espacio. Como actualmente es casi imposible comprobar algo por uno mismo y aunque, en lo sencillo, me apaño, he de echar mano de cierta confianza, lo que tampoco me satisface, pues ello tiene que ver con la fe cuando lo mío es la duda.
A propósito de tu último párrafo del comentario 5, me cabe la siguiente: si ello es así, tal como dices, las propiedades del espacio intergaláctico o entre cúmulos, ha de tener distinta naturaleza que la del espacio intragaláctico o intracúmulos. Si el espacio lejano es la regla de medir, no notaremos que cambia una distancia puesto que también la regla se estira. ¿No ves aquí una contradicción? Si pongo la onda -supongámosla plana- en una lámina de goma-espacio, al estirarlo, se estira la onda y esto resulta muy intuitivo, pero entonces, cuando mido una distancia a otra galaxia, habré de sumar o restar este efecto. ¿O quizá es tan pequeño a escala local que podemos ignorarlo?
martes 19 enero, 2010 @ 11:40 am
Apreciado Tomás:
El mayor problema de la Astronomía es cómo medir distancias, pues estamos clavados en la Tierra. Para cada tramo de distancia se utiliza un método distinto (radar, paralaje, paralaje espectroscópico, cefeidas variables, supernovas Ia, relación Tully Fisher, redshift…), que con suerte se pueden empalmar con el siguiente para así tener más precisión. Sin embargo, para grandes distancias hay un error apreciable. Las distancias medidas por el redshift (corrimiento al rojo) dependen de la ley de Hubble y no de una regla de medida en particular, por tanto, dependen de la constante de Hubble. Cuanto mejor conozcamos dicha constante mejor podremos medir esas distancias, pero no la conocemos muy bien (muy mal hace pocos años). Además, se asume una aproximación lineal a una expansión cosmológica que no tiene por qué ser así. Encima, vemos las galaxias más distantes donde estaban hace miles de millones de años y habría que corregir eso para saber dónde están «ahora» (si es que ese «ahora» tiene sentido). La conclusión es que esas distancias tienen unos márgenes de error bastante grandes.
Para curarse en salud los cosmólogos y astrofísicos hablan de redshift y casi nunca de distancias, aunque en los textos de divulgación si se haga.
martes 19 enero, 2010 @ 2:11 pm
Muy bueno el artículo. Solo puntualizar la parte que me toca (informática). 250 microprocesadores forman, aproximadamente, un 20% de uno de los supercomputadores de la Nasa (estoy pensando en el Columbia, aunque supongo que lo habrán actualizado desde la última vez que lo miré).
No es que el texto estuviera mal, pero al leerlo me daba la sensación de que los cálculos requerían de la potencia de varios supercomputadores y he pensado que podría ir bien un poquito de perspectiva :p
¡Saludos y seguid así!