Friday, October 3, 2008

El Gran Colisionador de Hadrones (LHC)

Por S. Almaraz

El LHC es el último y mas poderoso acelerador de partículas que se ha construido en el mundo, es un proyecto internacional de investigación en física de partículas basado en el laboratorio europeo CERN que se encuentra en Ginebra, Suiza. Aquí, físicos e ingenieros de 111 paises crearon y llevan a cabo actualmente el experimento científico más grande realizado en la historia de la humanidad.

Este gigantesco instrumento científico es un acelerador de partículas localizado 100 metros bajo tierra en la frontera entre Suiza y Francia, en donde 2 haces de partículas subatómicas llamadas "Hadrones" (los cuales en este caso seran protones o iones de Plomo) viajarán en direcciones opuestas dentro del acelerador, ganando energía con cada vuelta hasta alcanzar la energía máxima y chocar de frente, generando partículas jamas vistas que los científicos analizaran utilizando los diferentes detectores construidos y dedicados especialmente para el LHC.

Con sus 27 kilometros de circunferencia, el LHC es la máquina más grande y poderosa creada por el hombre; a su máxima potencia, los protones viajarán a 99.99% de la velocidad de la luz generando alrededor de 600 millones de colisiones por segundo a 14 TeV (tera-electronvoltios). En el instante en que los protones choquen de frente, se alcanzarán temperaturas 100,000 veces más altas que la del centro del sol. En contraste, el sistema cryogénico consiste de Helio superfluido que circula alrededor del anillo del acelerador, el cual lo mantiene a una temperatura de -271.3 °C, haciendolo aún más frio que el espacio exterior. Para evitar las colisiones con partículas de gas en el interior del acelerador, los haces de partículas viajarán en ultra alto vacio (tan vacio o más que el espacio interplanetario). Para detectar y registrar esta gran cantidad de eventos se han construido los detectores más grandes y sofisticados asi como el sistema de supercomputadoras más poderoso en el mundo.

Existen muchas teorias acerca de cuales serán los resultados de estas colisiones. El LHC ha sido construido para ayudar a encontrar respuestas a algunas de las preguntas fundamentales y aún sin resolver en la física de partículas. El conocimiento de las partículas fundamentales de las cuales esta hecho el universo y sus interacciones, esta encapsulado en lo que es conocido como el “Modelo Estándar” de la física de partículas. Sin embargo existen vacios en la teoria, los cuales se pretenden llenar con los datos experimentales arrojados por el LHC, solo estos datos pueden ampliar nuestro conocimiento e inclinar la balanza en favor de aquellos que buscan confirmación del conocimiento establecido o de los que sueñan desafiarlo.

¿Qué pasaría si algo sale mal en el LHC?, como se ha mencionado, este alcanzará energías jamás producidas por el hombre, ¿hay probabilidades de lo que se pretende crear con esta máquina nos destruya? Existen muchas dudas acerca de lo que descubrirá el LHC, por eso mismo, algunos miembros de la comunidad científica han demandado judicialmente al proyecto para que se haga una valoracion de riesgos [1]. El proyecto del LHC ha sido sometido y ha aprobado rigurosos exámenes de seguridad y confiabilidad.

El punto fundamental es que aunque el LHC alcanzará las más altas energías producidas en un acelerador de partículas, energías de esta magnitud o mayores, se producen a menudo en el espacio exterior, por ejemplo en los rayos cósmicos. Asi lo que se produzca en el LHC, es algo que la naturaleza ha estado produciendo continuamente. Además la máxima energía producida esta restringida a un pequeño volumen al interior de los detectores, los cuales estan diseñados para detectar, interactuar, localizar y detener todo lo que se produzca (a excepción de los neutrinos), ya que capturar todas las diferentes formas de energía es escencial para identificar que tipo de partículas se han producido. El peligro principal es para el acelerador mismo, la mayor preocupación es que la energía pueda ser deflectada hacia las paredes, la linea del haz o los imanes del LHC, lo que causaría grandes destrozos. Por ello, el LHC esta equipado con varios sistemas de seguridad automáticos los cuales monitorean todas las partes críticas del acelerador y si algo no esperado en el funcionamiento sucede se cortará la energía automaticamente y se desviará el haz de partículas hacia un tunel dispuesto para disipar la energía en forma segura.



Algunas preguntas sin respuesta…

Los científicos creen que nuestro unvierso se originó a partir de una explosión inimaginablemente violenta a la que se le conoce como “Big Bang”, a partir de ahi, el unvierso se ha ido enfriando y volviendo menos energético. Se piensa que muy temprano en el proceso de enfriamiento, la materia y las fuerzas que forman nuestro universo se condensaron a partir de esta bola de energía, sin embargo no se entiende cómo y por qué se desarrollo el universo de la manera que lo vemos ahora. Las colisiones que se produciran en el LHC recrearan en microescala las energías y las condiciones que existieron en el universo millonésimas de segundo después del Big Bang, dando respuesta a algunas de las preguntas fundamentales y mas audaces de la ciencia.

El bosón de Higgs y el misterio de la masa.

Sabemos que algunas partículas como el electrón o los quarks, tienen masa, sin embargo, otras como los fotones no tienen, la pregunta es entonces ¿qué es la masa?, o ¿por qué algunas particulas tienen masa y otras no? La respuesta mas aceptada propone la existencia de un campo (el campo de Higgs) el cual permea todo el universo e interactua con solo algunas partículas dandoles masa. Si la teoria es acertada el campo de Higgs se debe revelar como una partícula, el bosón de Higgs, la cual deberia ser producida y detectada a las energias del LHC.

Las partículas super-simétricas y el universo invisible.

Todo lo que vemos en el universo, desde un grano de arena hasta las estrellas y galaxias, pasando por los seres vivos, estamos hechos de materia, el problema es que juntando toda la materia en el unvierso solo llegamos al 4% del mismo, ¡No sabemos qué es o de qué esta hecho el otro 96%! Se cree que la materia obscura y la energía obscura forman esta parte desconocida, sin embargo son muy difíciles de detectar y estudiar. La teoria de la supersimetria sugiere que todas las partículas tienen compañeros supersimétricos que aún no han sido detectados, pero si existen, el LHC deberia encontrarlos. Una possible explicación es que la materia obscura consista de partículas supersimétricas.

La antimateria.

Al principio de nuestro universo, el Big Bang debio haber creado cantidades iguales de materia y de antimateria, pero cuando materia y antimateria se juntan, se aniquilan produciendo energía. Sin embargo, en algun momento, de alguna manera una pequeña fracción de materia debió haber sobrevivido para formar nuestro unvierso como lo vemos hoy, aunque se ha detectado la antimateria y se sabe que algunas partículas decaen en antipartículas, no se entiende porque la naturaleza parece tener preferencia hacia la materia sobre la antimateria. Uno de los experimentos del LHC esta dedicado a encontrar las diferencias en el decaimiento de las partículas producidas y determinar que paso o donde esta la antimateria.

El quark-gluón plasma y los secretos del Big Bang.

La materia como la conocemos esta formada por átomos, los cuales contienen nucleos compuestos por protones y neutrones, los cuales a su vez, estan hechos de quarks que se mantienen unidos gracias a los gluones. Esta interaccion es muy fuerte y hasta ahora no se han encontrado quarks aislados. Sin embargo se cree que durante los primeros microsegundos despues del Big Bang, el unverso pudo haber contenido una muy caliente y densa mezcla de quarks y gluones a la que se le llama el quark-gluón plasma. Cuando nucleos de Plomo colisionen en el LHC, se daran las condiciones que recrearán ese temprano estado en la evolución del unvierso, proporcionando información muy importante acerca de este estado de la materia.

Las extra-dimensiones del espacio y los universos ocultos.

Einstein mostro que las tres dimensiones espaciales y el tiempo estan relacionados creando un universo de 4 dimensiones. En la actualidad muchos físicos piensan que el universo tiene más dimensiones, por ejemplo la teoria de cuerdas sugiere que existen dimensiones espaciales adicionales a las observadas. La fuerza de gravedad no se ajusta de una manera cómoda a las descripciones de las demas interacciones del unvierso, es ademas mucho más débil que las otras fuerzas fundamentales. Una posible explicación es que nuestro universo sea parte de una realidad multi-dimensional más grande y que la gravedad pueda influir en las otras dimensiones, lo que la haria parecer mas débil que las demas interacciones. El LHC puede permitirnos obtener evidencia de esas extradimensiones, por ejemplo, con la producción de hoyos negros miniatura los cuales entrarian y saldrian de nuestro unvierso en una pequeña fracción de segundo.

Todas estas preguntas y posibles respuestas hacen que el LHC sea esperado con gran entusiasmo por la comunidad científica internacional, los resultados que arroje pueden ser totalmente inesperados, ¡pero eso es parte del proyecto! Cabe señalar que el LHC no creará un nuevo universo, ya que aunque pretende recrear a microescala las condiciones que se dieron poco despues de que se inicio el Big Bang, no poseé la energía para crear las condiciones del Big Bang mismo. De acuerdo a los reportes de seguridad [2], no existe la posibilidad de que hoyos negros microscópicos producidos en las colisiones se traguen la tierra, o que se creén perturbaciones que destruyan nuestro universo. Los investigadores esperan confirmar predicciones hechas a partir de teorias y experimentos previos. Sin embargo, parte de la excitación del proyecto es que pueden descubrir hechos totalmente nuevos acerca de la materia y del origen del universo de los cuales pronto seremos testigos.


REFERENCIAS

http://public.web.cern.ch/public/en/LHC/

http://www.lhc.ac.uk/

[1] http://www.lhcdefense.org/

[2] http://lsag.web.cern.ch/lsag/LSAG-Report.pdf


Video:

LHC (CERN TV) y El LHC rap



Sunday, September 28, 2008

La Política y el uso del Miedo

Por J. Jimenez

La política es una actividad humana con el fin a gobernar o dirigir la acción del estado en beneficio de la sociedad. Esta es una actividad orientada, ideológicamente, a la toma de decisiones de un grupo para el logro de unos objetivos. La ideología política esta en general compuesta de dos propiedades, la económica y la social. Por lo que su clasificación entra en cierto espectro que depende de la afinidad a estas dos propiedades. Por ejemplo, pudiera clasificarse en totalitarismo, conservadurismo, socialismo o liberalismo.

En una nación democrática, la organización del Estado o gobierno, es elegida mediante el voto de la sociedad, y con ello cierto grupo o individuo político obtendrá legitimidad a representarlo por la obtención mayoritaria del voto. Así, la intención del voto del individuo (influenciada por su ideología política), es muy importante por grupos políticos diversos. Por ello es importante para los grupos políticos la influencia que pudieran tener en malear esta intención (que es cada día mas evidente en el uso mediático de la información con fines políticos), pero es aun de mas importancia que el ciudadano tenga conocimiento y no dar cabida a artimañas inapropiadas.

Una persona puede sentirse afín a cierta ideología, y en base a ella demuestra una actitud hacia ciertos temas sociales, como el aborto, inmigración, penas capitales, libertad de expresión, seguridad social, etc. La actitud individual a estos temas siempre se ha relacionado a su estatus económico, familiar, de amistad y educación.

La investigación de Oxley, D. y colegas [1] sugiere que las posturas políticas pudieran tener bases biológicas. Esto es, que hay variaciones en sus posturas al someter a los individuos a estrés físico. Ellos tomaron un grupo de participantes con fuertes creencias políticas, individuos con una medible baja sensitividad hacia ruidos abruptos e imágenes intimidantes eran mas afines a políticas como: inmigración liberal, pacifismo, control de armas, mientras que individuos con una medible mayor reacción fisiológica al mismo estimulo fueron mas afines a favor de la defensa del gasto económico, pena capital, patriotismo y políticas de guerra.



La investigación conducida indica que las respuestas del individuo esta correlacionada en que la persona fuera liberal o conservadora socialmente hablando. Los métodos empleados fue dar a los participantes dos pruebas y medir su respuesta fisiológica a la intimidación. Primeramente se utilizo equipo para medir su conductancia de la piel, la cual se sabe aumenta con el estrés emocional en respuesta al aumento de su humedad. A estos se les mostraron imágenes fuertes, como personas ensangrentadas. La otra medida se dirigió al parpadeo involuntario a eventos de sobresalto, como ruido abrupto muy fuerte.

Los grupos se dividieron en dos, en uno se encontraban aquellos con interés en proteger la “unidad social”, dentro de este grupo están aquellos que soportan fines como, pena de muerte, actos patrióticos, obediencia, verdad bíblica. Y a su vez se oponen al pacifismo, inmigración, control de armas, sexo premarital, boda homosexual, derechos al aborto y pornografía. El otro grupo eran participantes con menor interés de la “unidad social”.

En la primera grafica (izq.) se muestra el resultado de la medición de la conductividad, los participantes que mostraban mayor interés en proteger la “unidad social” se distinguieron por mostrar un incremento (en azul) en la conductancia cuando el estimulo de intimidación se les presentaba. Aquellos que presentaban un menor interés en la “unidad social” se vieron casi no afectados. En la segunda grafica (der.) se muestra el resultado del estudio del parpadeo al estimulo de sobresalto, similarmente a las mediciones previas mostraron mayor sensibilidad en individuos que apoyan las políticas de protección de la unidad social (en azul).



Fig.1. Cambios en la conductancia de la piel al exponer a imágenes intimidatorias (izq). Cambios en la media del parpadeo en respuesta a sonido abrupto de individuos afines a políticas sociales de protección (der.). Ref. [1]

Como conclusión esta investigación sugiere que la afinidad política varía con la exposición a intimidación fisiológica, y que se relaciona con la experiencia y procesamiento de estas amenazas ambientales. Con esto, se presenta como una posible explicación al hecho de falta de maleabilidad en creencias a individuos con fuerte convicción política.



Referencia:

[1] Oxley, D. R., Smith, K. B., Alford, J. R., Hibbing M. v., Miller, J. L., Scalora, M., Hatemi, P. K., Hibbing, J. R., Political Attitudes Vary with Physiological Traits, Science, vol. 321, 19 Sept. 2008.


The Shock doctrine (video):



Sunday, September 7, 2008

Los Huracanes y el aumento de su fuerza

Por J. Jimenez

Un ciclón tropical es caracterizado por una baja presión en su centro y numerosas tormentas eléctricas que producen vientos muy fuertes y una gran cantidad de lluvia. De acuerdo a su localización y fuerza, los ciclones tropicales suelen ser nombrados también como: Huracán, tifón, depresión tropical o simplemente ciclón. Es sabido que estos forman parte del sistema de circulación atmosférica que permite el movimiento del a calor del Ecuador a mayores latitudes. La temporada en que los huracanes tienen su máxima actividad es al final del verano, cuando la temperatura superficial de los océanos es más cálida

Este año la temporada de huracanes parece ser más agresiva que en tiempos anteriores, científicos han presentado evidencia firme que muestra que el calentamiento global ha influido en el incremento de la intensidad de las tormentas extremas a nivel global.

Argumentos teóricos y simulaciones computacionales indican que los vientos de los ciclones tropicales aumentan al incrementar la temperatura oceánica. Elsner J., Kossin J. y Jagger T. [1], investigadores de la Universidad de Florida y la Universidad de Wisconsin-Madison han presentado un estudio que concuerda con la hipótesis que el calentamiento global contribuye con el incremento en la intensidad de los ciclones. Este estudio utiliza imágenes satelitales para el diagnostico de los vientos de 2,097 ciclones tropicales en el periodo de 1981-2006. Fig. 1(a) muestra la velocidad máxima del viento que se presento a dado año, y el número de ciclones se muestra en pequeños números sobre el eje de los años. Una tendencia de aumento se muestra en la velocidad máxima, aunque no parece haber un aumento en frecuencia. El análisis estadístico arroja que los incrementos son mayores para ciclones al Norte del Atlántico (Incluye el Océano Atlántico, el Mar Caribe y el Golfo de México). Por lo tanto, no hay un significante aumento en el numero de ciclones, sin embargo se encontró que si existe un aumento notable en la fuerza en que se presentan, por lo que hubo un mayor numero de tormentas que excedieron los 210 km/hr (Categoría 4 y 5, en la escala Zafiro-Simpson).

Figura 1. Análisis de los datos de imagenes satelitales sobre la macima velocidad en la vida de los ciclones tropicales. Lineas de tendencia para la media, 0.75 cuantil, 1.5 veces el rango del intercuartil. [1]

El aumento de las temperaturas oceánicas es la causa principal en la tendencia que los ciclones sean cada vez más fuertes. En promedio 13 ciclones se observan por año. El estudio estima que un aumento de un grado centígrado (1°C) en la superficie-del-mar puede resultar en un incremento del 31% en la frecuencia global de huracanes de categoría 4 a 5: de 13 a 17.

Referencias:

[1] Elsner J., Kossin J. and Jagger T., The increasing intensity of the strongest tropical cyclones, Nature, vol. 455, Sept. 2008.


Formación de Huracanes ( en ingles):

Tuesday, July 22, 2008

Desarrollo vertebral en animales

Por J. Jimenez

La evolución ha producido una amplia diversidad en las formas corporales en los seres vivos de acuerdo a su estilo de vida. La forma corporal de los animales esta relacionada con su estructura de huesos, en especial con el número de vértebras que posee. Cabe mencionar que se denomina vértebra a cada uno de los huesos que conforman la columna vertebral. En algunos animales el número de vértebras ha ido al extremo, por ejemplo en serpientes en general tienen más de 300 que resulta impresionante al compararse con los 33 del humano.


Las vértebras se desarrollan de segmentos de tejido de nombre “somitas”, las cuales se forman una después de otra, en dirección cabeza-rabo ó inicio-final, en el embrión (ver Fig. 1). Estas somitas se dividen al final de la “cabeza” del mesodermo presomitico (PSM), un tejido inmaduro produce la generación de somitas. Esta separación en pequeñas protuberancias es regulada por un modelo tipo “reloj y un frente de onda”. Ondas cíclicas de expresión genética, controladas por un oscilador molecular llamado reloj de segmentación, se distribuyen por el PSM de inicio a final (de cabeza a rabo). Estas oscilaciones proceden cuando se unen a una onda de maduración que barre a través del PSM en la dirección opuesta. Cada ciclo resulta en un nuevo par de somitas, el proceso termina cuando la onda de maduración llega a mantenerse con el “final” del PSM.


Figure 1. Somito-genesis, a) Somitas, segmentos regulares embrionicos, de los cuales algunos huesos (incluyendo vértebras) se desarrollan en vertebrados por un modelo reloj-frente de onda. b) En serpientes esta formación es mucho mas rápida, comparado con animales de cuerpos mas cortos. (Vonk F. J. y Richardson M. K., [1]).


Gómez, et al. [2], han publicado recientemente un estudio sobre el desarrollo vertebral a nivel embrionario en serpientes, peces, ratones y pollos. Su estudio corrobora la existencia de un “reloj” que regula el desarrollo de divisiones en el arreglo de vértebras, así en las serpientes este “reloj” tendría un tic-tac acelerado (relativo a la razón de crecimiento) en comparación con otras especies. Asumiendo que una somita es formada durante cada oscilación de este reloj, se puede deducir que el periodo de las oscilaciones al contar la razón de formación de somitas en embriones. En la serpiente de maíz (Elaphe guttata guttata), el promedio de formación de somitas es de un par cada 100 minutos, comparado a las razones de un par cada 10, 90 y 120 min., en pez tipo zebra, pollo y ratón, respectivamente. Otro aspecto interesante es que durante esta somito-génesis el tamaño se incrementa al inicio, pero gradualmente se contrae hasta que se agota, lo que termina con la formaron de somitas. Ver Fig. 2 y Fig. 3.


Figura 2. Formación vertebral y somito-genesis de la serpiente de maíz. a) vértebras, b) tiempo de desarrollo, (Gomez, et al., [2]).


Figura 3. Dinámica del PSM en pez zebra, serpiente de maíz, pollo y ratón, a-t, vistas dorsales y laterales. u-x, gráficas de la evolución de la formación de somitas en estas especies, (Gomez, et al., [2]).


Este mecanismo de reloj-frente de onda al parecer es muy importante para la selección natural, ya que cambios en el número de vértebras en los seres vivos puede afectar de manera importante a su salud y desempeño. Por ejemplo, el número de vértebras en animales puede influenciar su velocidad en locomoción.



Referencias:

[1] Vonk F. J. and Richardson M. K., Serpent clocks tick faster, Nature, vol.454, 17 July 2008.

[2] Gomez, C., Ozbudak, E. M., Wunderlich, J., Baumann, D., Lewis, J., Pourquie, O., Control of segment number in vertebrae embryos, Nature, vol. 454, 17 July 2008.



Video (Desarrollo embrionario Pez zebra):


Monday, July 7, 2008

Las sondas espaciales Viajero 1 y 2

Por J. Jimenez

Las misiones Viajero o “Voyager” de la Agencia Espacial Norteamericana (N.A.S.A.), han transformado la visión de la humanidad del Sistema Solar. El viajero 1 o “Voyager 1”, es una sonda espacial lanzada para explorar los limites del sistema solar y mas allá. Lanzada en septiembre de 1977 aun sigue operacional. Este viajero ha visitado Júpiter y Saturno, siendo la primera sonda espacial en mostrar imágenes de las lunas de estos planetas. Hasta mayo del 2008, el viajero 1 esta a una distancia de unos 15.89x109 km, o 106.26 Unidades Astronómicas (UA) del Sol. El viajero 2 o “Voyager 2”, fue lanzada en Agosto de 1977, un poco antes de viajero 1. Esto debido a fallas de viajero 2, pero que sirvieron como aprendizaje y permitió que viajero 1 despegara satisfactoriamente. La trayectoria de viajero 1 fue mas corta, con lo que se acerco antes a Júpiter en Marzo de 1979. Posteriormente fue a Saturno en Noviembre de 1980. Viajero 2 paso por Júpiter (en julio de 1979) y Saturno (en Agosto de 1981) también.

Estas misiones espaciales han sido muy exitosas, han tomado imágenes de alta resolución de atmósferas, satélites, anillos, las lunas de Júpiter y Saturno, además de sus Magnetosferas. Actualmente viajero 2 ha seguido al viajero 1 a una región mas allá del alcance del viento solar, donde la influencia del espacio interestelar es mucho mayor, con ello abre una nueva era de exploración.

Gran parte de la investigación reciente se esta realizando en la Heliosfera. Este es el nombre que se le da a la región espacial que se encuentra bajo la influencia del viento solar, que se compone de iones procedentes de la atmósfera solar. Esto da origen a una burbuja en cuyo interior se encuentran los planetas de nuestro Sistema Solar. El límite que impone la burbuja se llama heliopausa (Heliopause). La capa que separa a la heliopausa del frente de choque de terminación se llama heliofunda (Heliosheath).


Viajero 2 ha realizado múltiples cruces con la heliofunda, esto se presume es debido a los cambios dinámicos de la onda de choque (movimientos rápidos al interior y exterior, re-formación de la onda), efectos similares a los que podríamos ver en una llave de agua de cocina, solo como analogía, en este el agua es radiada de un punto, similar al fenómeno de radiación del Sol. Entonces el agua forma una onda de choque envolvente casi-circular, y si añadimos, un medio de flujo uniforme representado por agua jabonosa proveniente de la izquierda, se asemejaría a la interacción del Sol con el espacio interestelar [2]. Ver figura siguiente.



Las observaciones de los viajeros han corroborado la existencia de esta onda de choque, la cual al parecer es muy compleja en sus interacciones. Además, ha establecido una nueva perspectiva en nuestra visión de la interacción del Sol con la Galaxia.


Referencias:

[1] Jokipii, J., A shock for Voyager 2, Nature, Vol.454, July 2008.

Videos:

Video revista Nature: http://www.nature.com/nature/videoarchive/voyager/



Monday, June 9, 2008

¿Que paso antes del origen del universo?

Por S. Almaraz

Una de las preguntas más importantes en la ciencia es ¿como empezó el universo?

La teoría de la gran explosión ha sido considerada por los científicos como el mejor modelo para explicar el inicio del universo, utilizando la teoría de la relatividad general de Einstein y extrapolando el tiempo y la expansión del universo hacia atrás, se llega a que el nacimiento del universo sucedió hace aproximadamente 13.7 mil millones de años a partir de una “singularidad” que consiste de un punto de volumen igual a cero pero al mismo tiempo con densidad y energía infinitos.

La teoría de la “gran explosión” (Big Bang), ha sido exitosamente confirmada por varias observaciones independientes, por ejemplo, el corrimiento al rojo de las galaxias es el resultado de la expansión del universo, la radiación de fondo, que es radiación cósmica de microondas existente en todo el universo, provee evidencia de que debido a la expansión, el universo se ha enfriado naturalmente a partir de densidades y temperaturas extremas al inicio. La abundancia de los elementos ligeros, Hidrógeno y Helio en el universo, se ajusta casi perfectamente a las predicciones calculadas provenientes del la teoría de núcleosíntesis en la gran explosión.

Sin embargo, existen misterios del universo que no son explicados por el modelo de la gran explosión. Una de las fallas encontradas al modelo es que lo que paso durante la gran explosión no puede ser derivado de la teoría pues existe un punto en el tiempo a partir del cual deja de ser válida, este punto es el tiempo de Planck (10-43 seg.) y ha sido una barrera en los intentos científicos de entender el origen de nuestro universo en expansión. La singularidad esta en total contradicción con el principio de incertidumbre, fundamento de la física cuántica, ya que según este, no es posible una densidad infinita. Así, la singularidad al inicio del universo parece ser una limitación de la teoría de relatividad general más que un inicio físico del universo [1].

El físico mexicano Alejandro Corichi, investigador del Instituto de Matemáticas de la UNAM , en colaboración con investigadores del "Institute for Gravitation and the Cosmos" perteneciente a la Universidad estatal de Pennsylvania en Estados Unidos, y del "Perimeter Institute for Theoretical Physics" en Ontario, Canadá, han propuesto que en lugar de la gran explosión lo que ocurrió fue un “gran rebote” (Big Bounce) [2].

Los investigadores desarrollaron una herramienta matemática llamada “Loop quantum gravity”[3] que combina relatividad general con física cuántica, esta teoría predice que en su origen, nuestro universo tenia un volumen que no es cero y una energía que no es infinita, con lo cual, las ecuaciones de la teoría producen resultados matemáticos válidos durante y antes de la gran explosión, abriendo así una ventana en el tiempo que permite mirar antes del gran rebote, concluyendo que nuestro universo es el resultado de un universo anterior que se colapsó y dio origen al nuestro.

Aunque la idea de un universo oscilatorio o de un modelo cíclico de universos no es nueva, Alejandro Corichi, en su artículo publicado en Physical Review Letters en abril del 2008, no solo resuelve exactamente el primer modelo matemático que establece la existencia de un gran rebote sino que va mas allá y demuestra que, dentro de su modelo, existen propiedades del universo anterior que fueron retenidas después de ocurrir el gran rebote y que se conservan en nuestro universo. El modelo utilizado es muy simplificado pero el hecho de que sea el primero en su tipo que es posible resolverlo exactamente da a los científicos oportunidad de buscar observables que sean predichas por la teoría, así como derivar propiedades y características del universo anterior.


Referencias

[1]M. Bojowald, Nature Physics 3, 523 - 525 (2007)

[2]A. Corichi and P. Singh, PRL 100, 161302 (2008)

[3] http://gravity.psu.edu/


Saturday, May 31, 2008

Brazo robótico controlado con la mente

Por J. Jimenez

Visualicemos por un momento a un mono llevándose a la boca un pequeño dulce, una imagen nada fuera de lo común, ¿no?, que tal si este mono en vez recoger el pequeño dulce con su propia mano utilizara un brazo mecánico con movimiento controlado por su mente, una situación propia de la ciencia ficción. Sin embargo hoy, científicos dedicados a la Neurobiología de la Universidad de Pittsburgh y la Universidad de Carnegie-Mellon han logrado este hecho instalando pequeños sensores en el cerebro de dos monos, los cuales permiten por medio de una interfase el aprender a controlar un brazo mecánico solo con sus pensamientos cuando se les ha puesto la tarea de tomar un pedazo de comida y llevarlo a la boca.


Esta es una de las demostraciones más sorprendentes de la llamada tecnología de cerebro-control de interfaces artificiales. En estudios previos investigadores habían logrado que personas con parálisis pudieran aprender a controlar un cursor en una pantalla de computadora. El estudio llevado a cabo en monos (especie Macaca mulatta) es un avance importante, el mono parece controlar el dispositivo mecánico como una extremidad propia, además de refinar sus movimientos constantemente al interactuar con objetos reales y en tiempo real.


El movimiento de una extremidad propia como un brazo esta bien representado en ciertos grupos de neuronas de la corteza motora del cerebro. Así, el uso de patrones de actividad cortical ha sido usado en este campo de investigación en desarrollo de interfaz cerebro-maquina. Lo que esto significa es que movimientos de nuestro brazo, tienen algún patrón de actividad bien definida visto por ejemplo en imágenes en tiempo real de nuestro cerebro. Estas interfaces cerebro-maquina capturan las transmisiones cerebrales que involucran la intención de un sujeto a actuar. Por lo que estas señales son traducidas a comandos que pudieran controlar el movimiento de algún dispositivo mecánico por medio de una computadora.

A los monos se les implantaron arreglos de micro-electrodos intracorticales en su corteza motora primaria [1]. Los brazos mecánicos tenían cinco grados de libertad: tres en el hombro, una en el codo y uno en la mano. Para darles un control propio del brazo mecánico, a cada mono se le restringió el movimiento de brazos, el brazo mecánico se posiciono cerca de su hombro. Posteriormente al llevar a cabo el experimento, se ponía al mono algún alimento a su alcance, la acción natural del mono era el deseo de mover el brazo mecánico, por lo que la actividad cerebral o señal era procesada y usada para el control tridimensional del brazo, así como su velocidad y la apertura de la mano en tiempo real (ver siguiente imagen [1]).

Estas investigaciones traerán muchos beneficios, por ejemplo a personas discapacitadas por amputación o parálisis que necesiten la restauración de alguna extremidad; con ello mejorar su calidad de vida.

Referencia:

[1] Velliste M., Perel S., Chance M., Whitford A., Schwartz A., Cortical control of a prosthetic arm for self-feeding, Nature Letters, May 2008.

Video:


Monday, May 26, 2008

Objetos Invisibles

Por A. Guajardo-Cuéllar

Uno de los tópicos favoritos de los escritores de ciencia ficción es la posibilidad de ser invisibles. La lista de películas y novelas que hacen referencia al tema es numerosa, y por mencionar algún ejemplo de ellas que sean de conocimiento de este autor se tiene a "Depredador", "la liga extraordinaria" y "El hombre sin sombra". Es en esta última donde la invisibilidad del personaje se obtiene a través de introducir una sustancia dentro del personaje. Hasta ahora la posibilidad de obtener la invisibilidad modificando la composición de un objeto como lo sugeriría el ejemplo mencionado se ve poco probable. Se sabe que la luz debe de viajar en línea recta entre dos puntos y de esta forma recorrer la distancia mas corta, sin embargo comportamiento diferente de ondas electromagnéticas se puede observar ante la presencia de objetos de escala comparable al de las estrellas que son capaces de deformar el espacio y de esta forma hacer que las ondas electromagnéticas viajen en forma curveada, lo anterior es una explicación burda de la teoría general de la relatividad.


Para efectos prácticos el concepto descrito no es factible dado que la escala en la que el ser humano tiene percepción no es del mismo orden de magnitud que la necesaria para obtener el efecto deseado, sin embargo el concepto de un espacio curveado puede ser de utilidad. Investigadores de la Universidad de Duke [1], [2] encontraron una forma de reproducir invisibilidad basada en lo explicado. La idea en principio parece bastante simple y consiste en simplemente resolver las ecuaciones de Maxwell en un sistema coordenado que contenga la configuración de un espacio curveado. Pensemos en el siguiente experimento mental para comprender la idea, supóngase que se tiene en un inicio un sistema coordenado que describe un una malla cuadrada, lo cual puede ser descrito digamos por coordenadas rectangulares simplemente, ahora supóngase que en vez de tener una malla rectangular se tenga una malla que contenga un espacio curveado, ahora se requerirá una transformación de coordenadas que describan la nueva malla, y las ondas electromagnéticas seguirán las líneas de corriente de la nueva malla. En resumen el procedimiento consiste en hacer una transformación del espacio, y resolver las ecuaciones de Maxwell en este espacio. Después de realizar las transformaciones los parámetros presentes en las ecuaciones como la permeabilidad y la permitividad también sufrirán modificaciones quedando ahora en función de la nueva geometría. Este último aspecto es el que hace que la posibilidad de alcanzar invisibilidad aun sea un reto. En palabras simples, se puede decir lo siguiente, el problema ya ha sido solucionado matemáticamente pero el reto es la fabricación de materiales que contengan las propiedades requeridas dada la solución matemática en el espacio transformado. El objetivo ha sido alcanzado por materiales llamado metamateriales que son materiales modificados en su estructura mas que en su composición.


Este descubrimiento no tan reciente (2006) es un gran avance y se puede pensar en un sin numero de aplicaciones. Es importante mencionar que el objetivo de este estudio es obtener la invisibilidad sin que esta sea un dispositivo óptico contrario a lo que algunos otros investigadores han alcanzado como el japonés Susumi Tachi el cual ha inventado dispositivos que se basan en técnicas de camuflaje análogas a las que presentan ciertos animales en la naturaleza. Se puede concluir de esta discusión que una idea tan simple como puede ser el tratar las ecuaciones de Maxwell en un espacio deformado puede dar pie a una idea tan ingeniosa. No será esta la primera vez que una idea simple tiene un gran impacto.




[1] Schurig, D., Mock, J.J., Justice, B.J., Cummer, S.A., Pendry, J.B., Starr, A.F., Smith, D.R., Material Electromagnetic Cloack at Microwave Frequencies, Science, vol. 314, p. 977-980, 2006.
[2] www.ee.duke.edu/~drsmith/cloaking.html




El explorador espacial Phoenix

Por J. Jimenez

El explorador espacial Phoenix, estará encargado de estudiar la presencia de agua y búsqueda de moléculas orgánicas en el suelo ártico marciano. Marte es un planeta con un desierto frío y sin agua en su superficie. Sin embargo, descubrimientos de exploradores anteriores, como la “Mars Odissey” en el 2002, mostraron que habría unas grandes cantidades de agua-hielo en el subsuelo de la zona ártica del norte marciano.

Esta misión marciana es operada por la NASA, el laboratorio lunar y planetario de la Universidad de Arizona, además de otros grupos como el de la JPL, Lockheed Martin, y la agencia espacial canadiense. Su diseño comenzó en Agosto del 2003, su lanzamiento fue en Agosto del 2007, y su arribo a suelo marciano en Mayo del 2008.

Los objetivos específicos son:

1) Estudiar la historia de la presencia de agua examinando el hielo del subsuelo marciano. Phoenix excavará en el terreno con el instrumental científico.

2) Determinar si el suelo del ártico marciano pudiera soportar vida. Descubrimientos recientes muestran que la vida puede existir aun un en condiciones extremas. Ciertas bacterias podrían estar presentes. La sonda contiene equipo para llevar a cabo experimentos químicos, como el determinar la composición del terreno y buscar elementos como carbón, nitrógeno, fósforos e hidrogeno. Phoenix también buscará en terrenos protegidos de la radiación solar.

Los instrumentos a bordo del Phoenix son de tecnología de punta, entre ellos se encuentra: Un brazo robótico con cámara integrada, que preemitirá excavar y recoger muestras, a su vez de posicionarlas en los instrumentos de análisis. Equipo de análisis de microscopia, electroquímica y conductividad, con las muestras recogidas este equipo podrá determinar características importantes como acidez, salinidad y composición. Estación meteorológica, este equipo permitirá grabar el clima actual en la región donde trabaje la sonda por medio de sensores de temperatura y presión.

Hoy, Marte es un planeta frió, seco y con una atmósfera de dióxido de carbono. La superficie marciana no tiene agua en su superficie (no ríos, lagos, u océanos). Sin embargo, la evidencia apunta que en el pasado fue muy diferente. Las anteriores exploraciones han revelado que alguna vez pudo haber fluido agua en Marte, por ejemplo las observaciones de los canales que conectan áreas bajas y altas. La búsqueda del agua es importante ya que todas las formas de vida conocidas requieren de ella para sobrevivir. Las siguientes son unas de las primeras imagenes del Phoenix.


Animación del Phoenix:


Libro: Consejos para el investigador joven

Por Möbius

Un libro muy interesante para aquellos que están iniciando en la investigación científica es Consejos para el joven investigador (Advice for the young investigator) de Santiago Ramón y Cajal , médico, neurólogo e investigador español que ganó el premio Nobel de Medicina en 1906 por fundar las bases de la neurología moderna. Este libro es la versión en inglés de Reglas y consejos sobre investigación biológica (los tónicos de la libertad) cuya cuarta edición se escribió en 1916. Aunque el libro se centra en la investigación médica-biológica, sus principios pueden ser aplicados a la mayoría de los campos científicos. La idea del libro es dar una serie de consejos para alentar al joven investigador en el trabajo científico. En sus primeras hojas habla de como el joven puede caer en ciertos errores como el creer que ya no puede contribuir más en la ciencia por que "todos los problemas importantes ya están resultos" o como eliminar inseguridades al sentirse que no tiene la capacidad necesaria para hacer ciencia. Habla también de la importancia de los lenguajes, en especial aquellos que son estándar para la ciencia, en aquella época el Alemán, Francés e Inglés (probablemente ahora solo el Inglés) así como de ciertas metodologías que son escenciales para cualquier científico.

Un detalle que me pareció muy interesante es que aún y cuando su primera edición se escribió hace más de 100 años, gran parte de sus enseñanzas siguen vigentes. Un ejemplo que aplica muy bien a paises de habla hispana, es una explicación de cómo el rezago científico aquejaba en aquel entonces a España y como los jóvenes pueden ayudar a combatirlo. Una situación que ahora es evidente en paises de América Latina. Google books tiene acceso gratis a fragmentos de este libro (en inglés) : Advice for the young investigator.

Monday, May 19, 2008

Fractales y la dimensión fractal de la línea de costa de México

Por J. Jimenez

Un fractal es una forma geométrica que consiste en una estructura que se repite a si misma a cualquier escala que se le observe. El término fractal fue propuesto por el matemático Benoît Mandelbrot y deriva del Latín fractus, que significa quebrado o fracturado.

La característica básica de un fractal es la autosemejanza. Los fractales son, al mismo tiempo, muy complejos y particularmente simples. Son complejos en virtud de su detalle infinito y sus propiedades matemáticas únicas; sin embargo, son simples por que pueden ser generados por la aplicación sucesiva de una simple iteración, y en la introducción de elementos aleatorios. Por lo que, su forma es especificada por un algoritmo iterativo que instruye como construir el objeto. Por ejemplo, consideremos el conocido fractal “curva de Koch”, el algoritmo para generarlo es añadir repetidamente un triangulo equilátero en cada uno de sus bordes, triangulo en el cual sus lados corresponden a un tercio del largo del borde (Ver la siguiente figura,tese el parecido a un copo de nieve). El perímetro de la curva de Koch aumenta por 4/3 a cada iteración, así en teoría, al hacer n-infinitas iteraciones su perímetro se hace infinitamente largo. Imagine si quisiera recorrerse idealmente con un lápiz toda la curva que comprende este perímetro, no se llegaría jamás al final, aun cuando encierra una figura hexagonal de área perfectamente limitada.


Los fractales aparecen en la Naturaleza con bastante frecuencia, mostrando su escalada autosemejanza, por ejemplo, en plantas, árboles, nubes, montanas, líneas costeras, en los copos de nieve, en el sistema vascular de la circulación sanguínea, etc. Como ejemplo, los copos de nieve y un brócoli tipo Romanesco.



Un concepto m
atemático interesante en el campo de los fractales es su dimensión de auto-semejanza. La gran mayoría de nosotros estamos familiarizados con las provenientes de la geometría Euclidiana de la instrucción que recibimos en la escuela. Su legado es que el espacio tiene 3-dimensiones, un plano tiene 2, y un punto tiene cero. En nuestra vida diaria es común concebir estos objetos bidimensionales: por ejemplo, un mapa, que para propósitos prácticos es bidimensional. Nosotros vivimos en un mundo tridimensional, lo que quiere decir que necesitamos tres números para situar un punto: por ejemplo, longitud, latitud y altitud. Por ello estamos acostumbrados a tratar con puntos, líneas, áreas y volumenes.

Para entender mejor el carácter de dimensión hagamos el siguiente ejercicio: Tomemos un segmento de línea de largo 1 metro (m), un cuadrado de área 1 m2 y un cubo de volumen 1 m3. La dimensión fractal, D, como veremos es una generalización de la dimensión Euclidea. Si partimos de un segmento de longitud 1, y lo partimos en segmentos de longitud o razón de escala {r} obtendremos N(r) partes, (N(r), significa N es función de r), entonces como se muestra en la siguiente figura:



Para la línea Nr1=1; para el cuadrado, Nr2=1; y para el cubo, Nr3=1. Por ejemplo, para clarificar la idea tomemos el cuadrado dividido en 4 partes autosemejantes, N=4, r=1/2, esto implica, 4*(1/2)2=1. Para el cubo dividido en 8 partes autosemejantes, N=8, r=1/2, esto implica 8*(1/2)3=1. Por convención tomemos al exponente como {D}. En general, NrD=1, entonces en forma logarítmica

D=log N / log(1/r)

Al tomar el limite cuando r tiende a cero (como esperaríamos para un fractal)

D= limr-0 {log N / log(1/r)}

Es la llamada dimensión fractal Hausdorff-Besicovitch.

Tomemos el fractal conocido como la curva de Koch en su versión lineal. Empecemos por un segmento de línea S0. Para generar S1, borremos la parte central de un tercio de S0 y reemplazársele por otros dos lados de un triangulo equilátero. Subsecuentemente cada siguiente fase es generada recursivamente por la misma regla: Sn es obtenida reemplazando la parte central de cada segmento en Sn-1 por otros dos lados de un triangulo equilátero. El arreglo limite Sinfinito es la curva de Koch [1].



Usando la definición de dimensión por autosemejanza, la curva esta compuesta de 4 piezas iguales, cada una similar a la original, pero escalada por un factor de 3 en ambas direcciones, por lo que tendremos que el numero de copias N=4 cuando el factor de escala 1/r =3, por lo que D=ln4/ln3= 1.26 . En sentido mas estricto, para la generación n-esima de la curva de Koch, r=r0/3n, el numero de partes N es proporcional a 4n, igualmente usando la definición de dimensión fractal de Hausdorff-Besicovitch, D=1.26.

Esta es una característica muy interesante ya que D esta entre dimensión 1 y 2, de alguna manera satisfaciendo para una curva infinita, siendo mas que un objeto uni-dimensional.

Una aplicación interesante de este concepto viene de Mandelbrot, en su publicación, ¿Que tan larga es la Costa de Gran Bretaña?: Autosemejanza estadística y dimensión fractal [2]. Bien es sabido que la costa o el límite de cualquier país es irregular. Mandelbrot supuso que estas curvas geográficas son indefinibles en su largo por su fino detalle. Sin embargo, si presentara auto-semejanza, con lo que cada porción pudiera ser considerada una imagen de escala reducida del todo, el grado de complicación podría ser descrito por una dimensión fractal. Mandelbrot baso esta investigación en los estudios hechos por Richardson sobre mediciones de curvas geográficas por polígonos.

Por ejemplo si tenemos una línea de costa irregular, podemos empezar por medirla con una regla para obtener un estimado. El largo estimado, L(G), igual al largo de la regla, G, multiplicado por M, donde M es una constante. Es obvio que al ir disminuyendo el tamaño de la regla, el largo de la línea de costa aumentara debido a que estamos “adaptándonos” más a la irregularidad de la línea. Richardson observo que si hacemos un gráfico logarítmico del Largo medido vs. Largo de la escala usada (regla) esta tiene una relación lineal, como se muestra en la siguiente figura.


Richardson propuso una formula empírica de sus datos:

L(G)=MG1-R

Donde R es una constante al menos igual a 1. R es característica a la línea de costa medida. Esta formula representa una función potencial.

Mandelbrot relaciono esta formula con la dimensión fractal con ello demostró que en esta curva log-log un escalamiento potencial lleva a estimar la dimensión fraccional de la línea de costa. Nota: L(G)=MG1-R, es igual a, log L(G)=(1-R)log G + b, donde b=log M.

Por lo que (1-R) representa la pendiente y la dimensión fractal, D=R. R=1, representaría una frontera que luce recta en el mapa. Algunos datos: Gran Bretaña que luce irregular tiene R=1.25, España y Portugal R=1.14, Australia R=1.13, Sudáfrica R=1.02.

Con este análisis podemos calcular la dimensión fractal de la línea de costa de México, estimación que mostrare a continuación. Primero es necesario tener la referencia geográfica adecuada, para ello usaremos la base de datos del INEGI (Instituto Nacional de Geografía e Informática, México) la cual cuenta con un mapa digital e incluye la opción de medición de distancia. Haremos una tabla del largo estimado L(G) y de la escala usada, G, en kilómetros. Tres diferentes escalas fueron empleadas (lineas rojo-blanco en la frontera exterior, ver Figuras siguientes).


L(G) [km]

G [km]

8500

500

9900

300

11100

100

Posteriormente, realizamos una graficación log-log de los datos, y podemos hacer una aproximación por regresión lineal, de lo que obtenemos:


(1-R)=-0.156,

Por lo que R=1.156, siendo esta la dimensión fractal de la línea de costa de la Republica Mexicana. Note que la longitud estimada de la línea de costa de es de 11,100 km, muy cercano al valor oficial de 11,122 km.

Dimensión fractal de otros objetos son: Membrana pulmonar, D=2.9; Galaxias, D=1.23; Atractor de Lorenz, D=2.05; Turbulencia (disipación), D=2.5-2.6; Piramide del Sol (Teotihuacan), D=1.8882; Piramide de la Luna (Teotihuacan), D= 1.8993 [3].

Las aplicaciones de los fractales son muchas y científicos constantemente encuentran nuevas o descubren su presencia en la Naturaleza. ¿Qué otros fenómenos incluirán características fractales?, la búsqueda continua…



Referencias:
[1] Strogatz, S., Nonlinear Dynamics and Chaos, Perseus Books, 1994.
[2] Mandelbrot, B., How long is the Coast of Britain?: Statistical Self-Similarity and Fractional Dimension, Science, vol. 156, p.636-638,1967.
[3] Oleschko, K., Brambila, R., Brambila, F., Parrot, J-F., Lopez, P., Fractal Analysis of Teotihuacan México, Journal of Archaeological Science, vol. 27, p. 1007-1016, 2000.