Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


NOTICIAS DE ULTIMA HORA

--Nuevas Noticias Próximamente--

NOTICIAS EXTENDIDAS

OCTUBRE 2008

TITULARES DE LAS NOTICIAS DEL MES

 

Un paso más cerca de conocer la anatomía del cerebro

"Phoenix" en estado latente

Un estudio revela el legado de los fenicios en el Mediterráneo

"El hombre de los hielos" perteneció a un grupo genético humano que ha desaparecido

Donde nace el odio en el cerebro

La sonda MRO detecta nuevos indicios de minerales en Marte

El hombre necesitará dos planetas si mantiene el gasto de recursos naturales

Una ONG crea una campaña para que Al Gore le ayude a paliar la desnutrición infantil

El tiranosaurio tenía el mejor olfato del Jurásico

Un cambio climático similar al financiero ocurrirá si no se actúa ya

Navegar por internet mejora el funcionamiento del cerebro

El primer dinosaurio vegetariano

El microscopio más avanzado

El nuevo coche de la NASA: grandes distancias sin incómodos trajes

No hay agua en un cráter de la Luna

Aldrin defiende establecer colonias en Marte

Un satélite para viajar al centro de las estrellas

El dinosaurio que usaba plumas para aparearse

Un grupo de científicos logra borrar la memoria a los ratones

Nace una plataforma para desarrollar la captura y almacenamiento del dióxido de carbono

Inaugurada la máquina del "Big Bang" pese a la avería que la mantendrá apagada hasta el 2009

India se suma a la carrera hacia la Luna

Los volcanes originaron la vida en la Tierra

La radiación del "Big-Bang" pierde intensidad  al atravesar supercúmulos de galaxias

La vida y obra de Nikolas Tesla, el hombre que iluminó el mundo

Base lunar construida con el hormigón hecho en el satélite

La nanobiotecnología y la implicación de la opinión pública

Usando medios digitales para hacer avanzar la ciencia

Un "neurochip" en el cerebro permite mover los músculos a afectados de una parálisis

Homo sapiens pudo salir de África por el Sáhara

Viaje a las profundidades del MareNostrum

Las asimetrías de la naturaleza

La NASA intentará que el telescopio Hubble resucite el Viernes

"La enfermedad ha dejado de dar miedo al mundo desarrollado"

La destrucción de la Amazonia no se frena

Hallan bajo tierra el primer ecosistema formado por una única especie

La ciencia que nos salvará de la crisis

Un equipo de científicos obtiene células madre pluripotentes a partir de testículos humanos

Investigadores comunitarios ponen en marcha un nuevo proyecto sobre fusión por láser

El Nobel de Química premia el descubrimiento y desarrollo de la proteína verde fluorescente

Seis ordenadores pasarán el test de Turing para comprobar si "piensan"

El Nobel de Física premia la teoría que cambió la comprensión del universo

Nobel de medicina para los descubridores del SIDA y el papiloma humano

Punto de mira: La Tierra

Los siete magníficos

Científicos españoles diseñan un chip para medir el viento solar

Un viaje a los orígenes del SIDA

Un ratón con células madre inducidas

El aniversario más austero de la NASA

 

Archivo


-Un paso más cerca de conocer la anatomía del cerebro

Neguémonos a aceptar que ese órgano gris y uniforme, que estamos habituados a ver a través del escáner, es el verdadero cerebro". Con esta máxima, Van Wedeen, experto del Hospital General de Massachusetts (EEUU), ha sido capaz de obtener imágenes en color y 3D de las fibras nerviosas responsables de las distintas funciones del cuerpo humano: vista, olfato, movimiento... Todo un entramado de carreteras que se entrecruzan y que presentan una geometría nada casual.

El trabajo de este especialista en Imagen Biomédica, y recogido en revistas como 'Brain' y 'Neuroimage', se basa en la resonancia magnética y las técnicas de difusión (DSI, sus siglas en inglés), también conocidas como tractografía.

"Nos basamos en la difusión del agua y el patrón que ésta sigue. Es nuestro trazador para conocer las características de las fibras cerebrales", explica a elmundo.es y añade que su objetivo es "ver la verdadera anatomía del cerebro y no sólo su superficie".

Este mismo método es el que usaron los autores de un trabajo publicado hace cuatro meses en 'PLoS Biology' y en el que se dio a conocer lo existencia de un 'kilómetro cero' en el cerebro, el punto del que salen las distintas autopistas que lo recorren. Las aportaciones de Wedeen a este estudio suponen un paso más allá: "No nos centramos en las direcciones más probables sino que analizamos todas las posibles conexiones".

Fibras que se superponen

La utilización del DSI resultó básica para poder identificar la superposición de las fibras nerviosas. "Hasta ahora, no se había tenido en cuenta que se montan las unas sobre las otras y es algo omnipresente en el cerebro. Eso sí, el que ahora podamos verlas no supone el final de la historia sino solamente el principio. Tenemos que aceptar que, en realidad, se sabe muy poco de las conexiones cerebrales", aclara este profesor de Radiología en la Escuela Médica Harvard.

El lugar en el que se aloja nuestra mente está compuesto por cerca de "400 pequeños órganos neuronales, cada uno conectado con otros cinco o seis". Por tanto, todas estas conexiones dentro de un órgano de tamaño relativamente reducido no pueden sino entrecruzarse. "En una misma área puedes encontrarte con 10 estructuras que ocupan el mismo nivel".

Por eso, diseccionar el cerebro y mirarlo bajo un microscopio tampoco es una solución realista ni eficaz. "Necesitaríamos una verdadera tecnología en tres dimensiones, hacer cortes de todas las zonas y luego ser capaces de manejar la ingente cantidad de información que obtendríamos", apunta Wedeen. Bajo los escáneres del Centro de Imagen Biomédica Martinos, dependiente del mencionado centro sanitario de Massachusetts, ha pasado toda clase de especies animales: ratas, ratones, gatos, macacos y también humanos. "Hemos detectado que los roedores presentan un desarrollo muy importante de las áreas relacionadas con la memoria y el olfato. Algo similar ocurre con los gatos, pero en las localizaciones asociadas con el movimiento".

Ensayos con humanos

Si la técnica está en sus inicios, lo está aún más en cuanto a conocimiento del cerebro de las personas. "Por ejemplo, si queremos escanear el cerebro de un cadáver de mono podemos hacerlo durante 48 horas seguidas y analizar la información resultante". Sin embargo, esto no puede llevarse a cabo con las personas. El equipo de Massachusetts ha estudiado a algunos humanos, pero sin que el paciente superase los 50 minutos bajo el escáner. A la hora de analizar el cerebro de un fallecido, aunque en ese caso no tendría por qué haber límite de tiempo, las máquinas actuales no están suficientemente preparadas para estudiar eficazmente una masa tan grande.

"Esperamos que la técnica mejore en los próximos cinco ó 10 años, cuando se construyan escáneres especialmente indicados para estas técnicas de difusión. La tractografía va a suponer una revolución, igual que ocurrió cuando comenzó a utilizarse la resonancia magnética tradicional", asegura Van Wedeen.

Además de saber más sobre los trastornos relacionados con las conexiones neuronales (esquizofrenia o esclerosis múltiple, por ejemplo), este tipo de 'mapas cerebrales' pueden tener infinitas aplicaciones: conocer cómo se desarrolla la mente con la edad; identificar las diferencias entre un zurdo y un diestro; establecer el daño provocado por un trauma cerebral; o, trazar las zonas afectadas por un tumor y ayudar en la cirugía.

"Nos encontramos ante un nivel de detalle estructural que nunca se había pensado. Lo principal es que nos permite detectar las 'huellas dactilares' de las distintas formas cerebrales y visualizar su bella y característica geometría. Cada conexión es un órgano con una estructura que expresa su función", concluye el científico.

Fuente: elmundo.es, 31 de Octubre de 2008

 

 

-"Phoenix" en estado latente

Phoenix se comunicó con la sonda MRO el jueves. La nave estaba en modo de precaución debido a la baja energía de la que dispone. Los ingenieros de la misión están haciendo análisis para volver a poner a los trabajos científicos. El lander no respondió a los intentos de comunicación de un orbitador el miércoles por la noche y el jueves por la mañana.  El estado en el que entró sólo le permitía mantener comunicaciones en un intervalo de tiempo de dos horas al día, después del cual "Phoenix" vuelve a su estado de latencia. Recordemos que el lander ha estado funcionando dos meses más de lo que inicialmente se había proyectado.  Las tormentas de arena y el descenso de las horas de sol ha hecho que las baterías no tengan mucha energía.

  

Imagen de la zona en la "Phoenix" se encuentra

Fuente: NASA, 30 de Octubre de 2008

 

 

 

-Un estudio revela el legado de los fenicios en el Mediterráneo

Uno de cada 17 habitantes de la región del Mediterráneo tiene probablemente raíces fenicias, según revela una investigación genética publicada hoy por la revista American Journal of Human Genetics". Se trata de una investigación que forma parte del Proyecto Genographic, cuyos responsables aseguran que esta civilización no sólo legó al mundo su alfabeto, sino también muchos de sus genes.

Chris Tyler-Smith, del Instituto Wellcome Trust Sanger y científico de Genographic, ha indicado que al comenzar el estudio no se sabía nada de la genética de los fenicios. "Todo lo que teníamos para guiarnos era la historia: sabíamos dónde se habían establecido y adónde no habían llegado". Sin embargo, con la ayuda de la genética moderna, se ha logrado ubicar a los descendientes de "ese pueblo extinguido".

Considerados los primeros "capitalistas globales", los fenicios controlaron durante casi un milenio el comercio en toda la región del Mediterráneo, incluyendo España y el norte de África, donde fundaron Cartago, que fue su centro de operaciones. Su apogeo duró hasta el siglo II A.C., cuando cayeron bajo el imperio romano. En los siglos siguientes mucho de lo que quedó de ese pueblo se perdió o fue destruido.

Descendientes directos

El nuevo método analítico ha buscado características genéticas en hombres modernos a través del cromosoma Y que se presenta exclusivamente en los varones. Esas características han resultado ser más comunes en regiones que fueron fenicias que en otras cercanas donde esos comerciantes de la antigüedad nunca vivieron.

El estudio ha incluido a habitantes desde las costas del Líbano hasta las de España, incluyendo las de Túnez y las riberas italianas. Daniel Platt, del Centro IBM de Biología Informática en el Centro T. J. Watson de Investigaciones, señala que los resultados muestran que los asentamientos fenicios están marcados por una característica genética diferente a la que hubiesen dejado otros grupos.

La consideración de las características en su conjunto sugiere que los fenicios contribuyeron al menos en un 6% a las poblaciones modernas, con lo que un niño en cada escuela, desde Chipre a Túnez, puede ser un descendiente directo de los comerciantes fenicios, indica el estudio. "Esto demuestra que estos asentamientos, algunos de los cuales sobrevivieron centenares de años, dejaron un legado genético que persiste en los tiempos modernos", señalan los científicos.

Según Pierre Zallua, investigador de Genographic para Oriente Medio y el Norte de África, el estudio saca a la luz "una magnífica parte del legado de nuestra población que había sido enterrado u olvidado". Es "un baluarte clave contra la incomprensión o los conceptos equivocados de nuestra historia", ha añadido.

Fuente: EFE, 30 de Octubre de 2008

 

-"El hombre de los hielos" perteneció a un grupo genético humano que ha desaparecido

Ötzi, el 'hombre de los hielos', que vivió en Europa hace unos 5.000 años, no tendría hoy parientes en el continente porque perteneció a un sublinaje humano que ha desaparecido, o que es muy extraño en la actualidad. Un equipo de científicos italianos y británicos ha logrado secuenciar completamente su genoma mitocondrial, que es el ADN que sólo se transmite por vía materna, y ha descubierto que su rama genética acabó extinguiéndose con el paso del tiempo, un fenómeno que, por otro lado, no es excepcional en caso de linajes muy minoritarios.

Los investigadadores han publicado setos resultados en la revista científica 'Current Biology'. La historia que rodea a Ötzi, probablemente la momia natural más estudiada del mundo, aumenta el interés por todo lo que tiene que ver con su vida. Fue localizada por dos turistas alemanes en 1991 en los Alpes italianos, a pocos metros de la frontera con Austria. Los científicos determinaron desde un primer momento que había sido el frío perenne en esa zona el factor que hizo posible la conservación de todos los tejidos finos de su organismo e incluso de sus órganos internos. Todo ello ha sido exhaustivamente analizado.

Ya en el año 2000, los investigadores descongelaron parte de sus intestinos para secuenciar un fragmento de su ADN mitocondrial (mt), que determinó que pertenecía a un linaje conocido como el haplogrupo K, al que pertenecen el 8% de los originarios de Europa. Ahora se ha averiguado que el hombre de los hielos era de una de las ramas del sublinaje K1 (también existe el K2). «La sorpresa fue descubrir que no pertenecía a ninguna de las tres variantes genéticas conocidas del K1», ha señalado el profesor italiano Franco Rollo, de la Univesidad de Camerino. Su equipo ha bautizado esta variante genética como la rama Ötzi.

Rollo deja claro que «eso no significa que este individuo, que murió asesinado por una flecha, tuviera un ADN que le hacía diferente, pero sí que en el pasado hubo un grupo de hombres y mujeres que tenían su ADN mitocondrial y que ahora ese grupo o ha desaparecido o es muy raro».

Carles Lalueza, investigador español del Instituto de Investigación sobre Evolución Biológica (CSIC), «no resulta sorprendente que un linaje humano desaparezca porque para ello basta que una mujer no tenga hijas, así que es un asunto en el que interviene mucho el azar».

 

El 'hombre de los hielos', en el laboratorio donde se ha analizado su ADN.

Fuente: elmundo.es, 30 de Octubre de 2008

 

-Donde nace el odio en el cerebro

Científicos británicos descubrieron el mecanismo del cerebro humano que produce que odiemos a alguien.  Y la zona donde se inicia esta poderosa emoción está íntimamente relacionada al área cerebral donde se produce el amor, afirmó la investigación llevada a cabo en la Universidad de Londres.  El estudio -publicado en la revista de la Biblioteca Pública de Ciencia, PLoS One- analizó a varios voluntarios que miraran fotografías de alguien a quien odiaban.  Descubrieron que se activaban una serie de circuitos cerebrales en un área del cerebro que comparte ciertas estructuras asociadas al amor romántico.

El odio comparte estructuras cerebrales que también se activan con el amor.

 

 

El circuito del odio está en la corteza (F), el putamen (P) y la ínsula (I).

Pasión "interesante"

"El odio a menudo es considerado una pasión malvada que debe ser reprimida, controlada y erradicada" explicó el profesor Semir Zeki, del Laboratorio Wellcome de Neurobiología de la Universidad de Londres y quien dirigió el estudio.

"Pero para los neurobiólogos el odio es una pasión tan interesante como el amor".

"Porque igual que el amor, el odio a menudo parece ser irracional y puede conducir al individuo a conductas heroicas o malvadas. ¿Cómo es posible que dos sentimientos tan opuestos conduzcan al mismo comportamiento?".

Esa es la pregunta que se planteó el profesor Zeki al iniciar este estudio, que es la continuación de otras investigaciones previas en su laboratorio sobre los mecanismos cerebrales del amor romántico y el amor maternal.  En el nuevo estudio Zeki y su equipo se concentraron específicamente en el odio que siente el ser humano hacia otro individuo.  En la investigación participaron 17 voluntarios, tanto hombres como mujeres, elegidos porque dijeron sentir profundo odio hacia otra persona. Los científicos llevaron a cabo escáneres cerebrales mientras los participantes miraban tanto la fotografía de la persona odiada, como fotografías de rostros "neutrales" que les eran familiares.

"Cuando miraban el rostro de la persona odiada -señalaron los autores- se produjo actividad en zonas cerebrales que puede ser consideradas el "circuito del odio".

Este circuito del odio incluye estructuras en la corteza y la subcorteza cerebral y tiene componentes que también se activan cuando se genera una conducta agresiva.  El cerebro funciona traduciendo estas señales de los circuitos cerebrales en acciones, como la planeación de movimientos del cuerpo.  Y el circuito del odio también está ubicado en una parte de la corteza frontal que se cree es muy importante en la predicción de las acciones de los demás.

Quizás, explican los científicos, esto es lo que nos hace actuar cuando nos enfrentamos a una persona odiada.

Odio crítico

Pero lo que más sorprendió a los investigadores fue descubrir que el circuito del odio también produce actividad en dos estructuras de la subcorteza cerebral: el putamen y la ínsula.

Según el profesor Zeki "es muy interesante que el putamen y la ínsula también se activan con el amor romántico".

"Pero no es tan sorprendente considerando que el putamen también podría estar involucrado en actos agresivos en un contexto romántico, como en situaciones donde un rival presenta una amenaza".

Los investigadores también descubrieron una diferencia importante en la actividad cortical que producen tanto el odio como el amor.

"Mientras que en el amor grandes partes de la corteza asociadas al juicio y razonamiento se desactivan, con el odio sólo se desactiva una pequeña zona", explicaron los autores.

Los investigadores creen que esto es sorprendente si consideramos que el odio también es, como el amor, una pasión que nos consume totalmente.  Pero mientras que en el amor romántico el amante pocas veces es crítico o juzga a la persona amada, en el contexto del odio, el que odia utiliza su criterio y es calculador para hacer daño, herir o vengarse de la persona odiada.  Otra diferencia es que el amor romántico está dirigido a una sola persona, pero el odio puede ser experimentado contra varios individuos o grupos, como en el caso del odio racial, político o sexual.  El profesor Zaki y su equipo planean ahora centrar sus investigaciones en estas diferentes variedades del odio.

Fuente: BBC Mundo, 29 de Octubre de 2008

 

 

-La sonda MRO detecta nuevos indicios de minerales en Marte

Imagen captada por la 'Mars Reconnaisance Oribiter' de la región de Marte donde se han hallado

los nuevos minerales. (Foto: NASA/AP)

La sonda Mars Reconnaissance Orbiter ha descubierto sobre Marte nuevos tipos de minerales que sugieren la presencia de agua en el planeta durante mucho más tiempo de lo que se creía.

Según ha informado el Laboratorio de Propulsión a Chorro (JPL, por sus siglas en inglés) de la agencia espacial estadounidense, esos minerales también indican la importancia que tuvo el líquido en la topografía marciana así como en la posible creación de vida. Las imágenes captadas por el espectrómetro de la sonda de esos yacimientos demuestran la presencia de silicio hidratado, más conocido como opal, los cuales son los indicios fundamentales de la presencia de agua en el antiguo Marte.

 

"Este es un importante descubrimiento porque extiende el tiempo en que hubo agua líquida en Marte y (señala) los lugares donde pudo haber respaldado la vida", indicó Scott Murchie, investigador a cargo del espectrómetro en el Laboratorio de Ciencias Aplicadas de la Universidad Johns Hopkins.

"La identificación del silicio opalino nos revela que es posible que haya habido agua hasta hace unos 2.000 millones de años", indicó. Hasta ahora, el orbitador del planeta sólo había detectado la presencia de filosilicatos y sulfatos hidratados que se formaron hace más de 3.500 millones de años.

Según el comunicado de JPL, los nuevos minerales detectados se formaron cuando el agua alteró materiales creados por la actividad volcánica o por el impacto de un meteorito.

"Hemos visto numerosos promontorios de materiales opalinos en capas delgadas que se extienden sobre largas distancias en torno a los bordes del Valles Marineris así como dentro de esa misma quebrada", indicó Ralph Milliken, científico de JPL.

En algunos lugares las formaciones de minerales opalinos se encuentran en el cauce seco o alrededor de lo que aparentemente fueron corrientes similares a un río. Según indicó el comunicado de JPL, eso indica que hubo agua en la superficie de Marte durante mucho más tiempo que el líquido que ayudó en la formación de los minerales opalinos.

"Lo más importante es que mientras más tiempo haya existido el agua en Marte más tiempo hubo para la presencia de vida", indicó.

Fuente: elmundo.es, 29 de Octubre de 2008

 

 

-El hombre necesitará dos planetas si mantiene el gasto de recursos naturales

La Tierra ha perdido en poco más de un cuarto de siglo casi la tercera parte de su riqueza biológica y recursos, y al ritmo actual la Humanidad necesitará dos planetas en 2030 para mantener su estilo de vida, advirtió hoy el Fondo Mundial de la Naturaleza (WWF).

Y es que la demanda de la Humanidad excede en cerca de un 30 por ciento la capacidad regeneradora de la Tierra, señaló el Informe Planeta Vivo 2008, que difunde esta organización ecologista cada dos años acerca de la situación ambiental de los ecosistemas del planeta.

"El mundo está luchando actualmente con las consecuencias de haber sobrevalorado sus activos financieros. Pero una crisis mucho más grave sigue adelante: un desastre ecológico causado por infravalorar nuestros recursos medioambientales, que son la base de toda vida y prosperidad", señaló el director general de WWF, James Leape, al comentar el informe.

El estudio muestra que más de las tres cuartas partes de la población mundial vive actualmente en países que son "deudores ecológicos", pues el consumo nacional ha superado a su capacidad biológica de regeneración.

"La mayoría de nosotros seguimos alimentando nuestro estilo de vida y nuestro crecimiento económico extrayendo cada vez más el capital ecológico de otras partes del mundo", señaló Leape.

Demanda creciente

"Si las demandas en nuestro planeta siguen creciendo al mismo ritmo, para mediados de los años 30 necesitaremos el equivalente a dos planetas para mantener nuestro estilo de vida", agregó.

El informe, que se elabora cada dos años desde 1998, señala que el Índice Planeta Vivo (IPV) ha descendido casi un 30 por ciento desde 1970, es decir, que se han reducido en esa proporción unas 5.000 poblaciones naturales de unas 1.686 especies, una tasa superior a la del 25 por ciento del informe de 2006.

Estas pérdidas se deben, en primer lugar a la deforestación y la reconversión de tierras en los trópicos (un 50 por ciento de descenso), pero también a factores como la polución, la sobrepesca y el impacto de diques y del cambio climático.

"Estamos actuando ecológicamente como lo han hecho las instituciones financieras económicamente, buscando la gratificación inmediata sin mirar las consecuencias", lamentó el codirector de la Sociedad Zoológica de Londres, Jonathan Loh, una de las instituciones que ha contribuido al informe.

Según el estudio, que ha medido la "huella ecológica de la humanidad", o el deterioro que las actividades humanas producen en los sistemas naturales, éstas han utilizado una media de 2,7 hectáreas globales por persona, mientras que la biocapacidad de los sistemas -o su capacidad de absorber el impacto- sólo llega a 2,1 hectáreas de media por persona.

Estados Unidos y China, las mayores huellas 

Estados Unidos y China cuentan con las mayores huellas ecológicas nacionales, cada una un 21 por ciento de la biocapacidad global, pero ambos países "consumen" una parte mucho mayor de los recursos. Así, cada ciudadano de EEUU requiere una media de 9,4 hectáreas globales, mientras que los chinos usan una media de 2,1 hectáreas. Ocho naciones -EEUU, Brasil, Rusia, China, India, Canadá, Argentina y Australia- contienen más de la mitad de la biocapacidad global. Pero tres de ellos -EEUU, China e India- debido a sus poblaciones y a sus hábitos de consumo son "deudores ecológicos", con huellas ecológicas superiores a sus capacidades, pues la exceden, respectivamente, 1,8 veces, 2,3 veces, y 2,2 veces.

Estos datos contrastan con un país como Congo, con una biocapacidad de casi 14 hectáreas globales por persona y que sólo utiliza 0,5 por persona, pero que afronta un futuro de degradación medioambiental por la deforestación y las crecientes demandas de una población en aumento y presiones exportadoras.

Fuente: EFE, 29 de Octubre de 2008

 

 

--Una ONG crea una campaña para que Al Gore le ayude a paliar la desnutrición infantil

La organización no gubernamental Acción contra el Hambre (ACF, por sus siglas en francés)) ha presentado una campaña, llamada No Hunger,  para alertar sobre la desnutrición aguda. La campaña tiene como objetivo hacer una petición a nivel mundial a Al Gore, premio Nobel de la Paz en 2007, para que protagonice un documental y así utilice todo su poder mediático para llamar la atención sobre este tema. La campaña, denominada No Hunger y desarrollada por la agencia Shackleton, pretende conseguir que se haga una petición a nivel mundial para que Al Gore protagonice una película-documental sobre la desnutrición aguda infantil bajo este mismo título. La ONG Acción contra el Hambre ha decidido que, tras el éxito de Una verdad incómoda, el documental sobre el cambio climático que logró alertar al mundo sobre este grave problema y que protagonizó el vicepresidente de Clinton, se puede utilizar su tirón mediático para concienciar a la población mundial sobre otro gran problema como es la desnutrición infantil.
 

 

Movilización internacional
 

"Para lograr que se realice la película es necesaria la movilización de toda la sociedad civil", por eso la campaña se va a lanzar progresivamente en todos los países donde la organización tiene sede: Estados Unidos, Inglaterra, Francia y Canadá.

A través de su eje central, la página web www.pideseloaalgore.com, además de encontrar información sobre la desnutrición aguda y su solución, cualquiera podrá dar su apoyo y firmar para pedir que el documental se lleve a cabo.

"Con esta iniciativa queremos que todo el mundo sepa que el fin de la desnutrición aguda ya no es una utopía, sino una realidad que depende de todos y cada uno de nosotros", afirma Olivier Longue, director general de Acción contra el Hambre

La desnutrición aguda es una enfermedad devastadora. En el mundo, 55 millones de niños menores de 5 años sufren desnutrición global y 19 millones la padecen de forma aguda severa, el estadio más grave. De ellos, 5 millones no superan la enfermedad cada año, según los datos que maneja ACF. Tras muchos años de trabajo de las ONGs para afrontar este problema, se han desarrollado tratamientos nutricionales que logran recuperar a un niño desnutrido en apenas un mes. La clave de todo es el RUTF (Ready to Use Therapeutic Food), un alimento terapéutico a base de pasta de cacahuete, con un alto contenido energético, que puede administrarse desde casa, ya que no necesita cocción y soporta condiciones y temperaturas extremas.

"Con este tratamiento, que tiene un coste total de 40 euros, logramos curar al 80% de los niños severamente desnutridos que atendemos. Los resultados son muy positivos y su eficacia está ya más que demostrada" explica Amador Gómez, director técnico de Acción contra el Hambre.

Para paliar la desnutrición en los 19 millones de niños que la sufren al año haría falta una inversión de 3.000 millones de euros, financiación que, organizada por el conjunto de los países industrializados sería económicamente factible, según la campaña.

Fuente: publico.es, 28 de Octubre de 2008

 

 

-El tiranosaurio tenía el mejor olfato del Jurásico

El Tyrannosaurus rex fue el dinosaurio con mejor olfato entre todos sus congéneres carnívoros, un descubrimiento que relega su reputación de carroñero a un segundo plano. Es la conclusión a la que han llegado los investigadores Darla Zelenitsky de la Universidad de Calgary (Canadá) y François Therrien del Museo Royal Tyrrell en Alberta (Canadá) tras determinar el volumen y la forma del bulbo olfativo de una gran variedad de dinosaurios bípedos (los terópodos) que habitaron la Tierra en el Jurásico, hace entre 200 y 145 millones de años. Además del T. rex, entre los terópodos examinados se han incluido raptores, ornitomimosaurios (los lagartos imitadores de aves, parecidos a las avestruces) y el primitivo pájaro Archaeopteryx, que evolucionó a partir de los terópodos carnívoros de menor tamaño.

 

La investigadora de la Universidad de Calgary, Darla Zelenitsky,

 posa con el cráneo de un 'Tyrannosaurus rex'.

Análisis craneal

El bulbo olfativo es la parte del cerebro asociada con el sentido del olfato -se encuentra, de hecho, al final de las fosas nasales-. Naturalmente, el cerebro no se conserva pero, gracias a la tecnología TAC (tomografía axial computarizada), hoy es posible analizar el cráneo -si está en buen estado- e inferir cómo era. Zelenitsky, autora principal del estudio, explica que la fama de carroñero del T. rex proviene de su agudo olfato rastreador, algo que no se corresponde con lo que puede observarse en los animales actuales.

"Los bulbos olfatorios de gran tamaño se hallan en pájaros y mamíferos actuales que dependen en gran parte de su olfato para encontrar carne, en animales que son activos durante la noche y en aquellos que patrullan áreas extensas", aclara la paleontóloga.

Olfato para cazar

Así que el rey de los dinosaurios carnívoros debió usar su aguzada nariz para dar con sus presas, aunque no por ello habría renunciado a darse un banquete de carne muerta gratis. Además de estas pistas sobre la biología y el comportamiento del Tyrannosaurus, el estudio ha permitido saber que el Archaeopteryx, el ancestro de los pájaros modernos, tenía un bulbo olfativo de un tamaño comparable al resto de terópodos y, por lo tanto, también un buen olfato. Una característica que no conservan los pájaros modernos, que en general ven muy bien pero tienen un sentido olfativo muy pobre. Este descubrimiento, dice Therrien, reconduce la idea de que el olfato en los pájaros perdió importancia respecto a la vista en los primeros ancestros, ya que se tuvo que producir "en algún punto de la evolución de los pájaros más avanzada que el Archaeopteryx". El estudio lo publica hoy la revista británica Proceedings of the Royal Society B.

Fuente: adn.es, 28 de Octubre de 2008

 

 

 

-Un cambio climático similar al financiero ocurrirá si no se actúa ya
El economista y académico británico Nicholas Stern auguró hoy en Hong Kong una situación climática similar a la actual crisis financiera mundial si los mandatarios de China y Estados Unidos, principalmente, no acuerdan liderar el descenso de emisiones de dióxido de carbono (CO2).

"Es necesario aprender que ser negligente con los riesgos genera zarpazos, y cuanto más negligente se es mayor es el zarpazo que recibimos, como ha ocurrido con la actual crisis financiera", dijo el académico, autor del Informe Stern sobre la economía del cambio climático (2006) durante una conferencia en la Universidad de Hong Kong.

El británico, que subrayó la necesidad de que haya reguladores de CO2 como los hay financieros, subrayó que "controlar las emisiones con antelación será siempre más barato que hacerlo precipitadamente urgidos por la necesidad", o que adaptarse al cambio climático.

Confianza en el sucesor de Bush

En un nuevo paralelismo con la actual situación financiera, el economista afirmó que "se ha puesto dinero en los bancos no porque guste, sino porque era crucial hacerlo", de modo que con el medioambiente hay que actuar de forma similar.

Stern se mostró positivo y confió en que el sucesor de George W. Bush, ya sea John McCain o Barack Obama, ponga más interés en el problema del cambio climático, que, de no actuar con celeridad, "redibujará la actual geografía" y traerá, entre otros, "grandes movimientos de población y los consiguientes grandes conflictos que éstos pueden generar".

Fuente: EFE, 27 de Octubre de 2008

 

-Navegar por internet mejora el funcionamiento del cerebro

Internet está cambiando no sólo cómo vive la gente, sino también cómo funciona el cerebro, y un neurocientífico asegura que se trata de un cambio evolutivo que pondrá los conocimientos en tecnología al frente del nuevo orden social.

Gary Small, un neurocientífico de la UCLA en California que está especializado en el funcionamiento del cerebro, ha descubierto mediante estudios que buscar en Internet y mandar mensajes de texto ha hecho a los cerebros más avezados a la hora de filtrar información y tomar decisiones rápidas. Small, en cualquier caso, alega que la gente que estará al frente en la próxima generación será la que tenga una mezcla de habilidades tecnológicas y sociales

"Estamos viendo un cambio evolutivo. La gente en la próxima generación que realmente va a destacar son los que dominan la tecnología y también las habilidades del cara a cara", dijo Small. "Sabrán cuándo la mejor respuesta a un email o a un mensaje instantáneo es hablar en lugar de sentarse y seguir enviando correos electrónicos".

En su recién lanzado cuarto libro iCerebro: Sobrevivir a la alteración tecnológica de la mente moderna, Small se fija en cómo la tecnología ha alterado cómo se desarrollan, funcionan e interpretan información las mentes jóvenes. Small, director del Centro de Investigación de Memoria y el Envejecimiento en el Instituto Semel para Neurociencia y el Comportamiento Humano y el Centro sobre Envejecimiento en la UCLA, dijo que el cerebro era muy sensible a los cambios en el entorno como los que traía la tecnología.

Señaló que un estudio de adultos mientras utilizaban Internet descubrió que los internautas experimentados duplicaban la actividad en áreas del cerebro que controlan la toma de decisiones y el razonamiento complejo que los novatos.

"El cerebro está muy especializado en su sistema de circuitos y si repites tareas mentales una y otra vez reforzará ciertos circuitos neurales e ignorará otros", declaró Small.

"Estamos cambiando el entorno. El joven medio pasa ahora nueve horas al día exponiendo su cerebro a la tecnología. La evolución es una mejora de un momento a otro y lo que vemos es cómo la tecnología afecta a nuestra evolución".

Fuente: publico.es, 27 de Octubre de 2008

 

-El primer dinosaurio vegetariano

El examen de un pequeño cráneo fósil de un joven heterodontosaurio del Jurásico explica cómo y cuándo los dinosaurios abandonaron la dieta carnívora y empezaron a comer plantas. El cráneo fósil del animal, que vivió durante el Jurásico temprano -hace unos 190 millones de años- en el territorio que hoy ocupa Sudáfrica, fue encontrado durante las excavaciones realizadas en los años 60 en ese país, y está en el Museo Sudafricano Iziko, en Ciudad del Cabo. Tiene sólo cuatro centímetros y medio de largo, y debió pertenecer a un heterodontosaurio muy joven de no más de 200 gramos -los adultos eran del tamaño de un pavo de unos dos kilos y medio-.

Laura Porro, estudiante de postdoctorado de la Universidad de Chicago,

posa con un cráneo de heterodontosaurio.

 

Cambio de dieta

Explica la doctora Laura Porro, investigadora de la Universidad de Chicago (EEUU) y coautora del estudio, que probablemente los ancestros de todos los dinosaurios eran carnívoros y que los heterodontosaurios, que se encuentran entre los primeros dinosaurios adaptados al consumo de plantas, podrían representar la transición entre una y otra dieta. Los heterodontosaurios pertenecen al gran grupo de dinosaurios herbívoros, los Ornistisquios, pero su extraña composición de dientes -largos caninos para desgarrar y molares para triturar- había suscitado entre los paleontólogos cierta discusión acerca de lo que comían.

Algunos científicos pensaban que incluían pequeños animales en su dieta normalmente vegetariana, mientras que otros sostenían que comían sólo plantas y que los colmillos eran sólo un rasgo que distinguía a los machos -un dimorfismo sexual-, como ocurre en los jabalíes. El estudio que publica hoy la revista "Journal of Vertebrate Paleontology" y que desvela la presencia de dientes caninos en la mandíbula del recién hallado joven heterodontosaurio, apunta hacia la primera hipótesis.

Según el doctor Richard Butler, autor principal del estudio e investigador del Museo de Historia Natural en Londres, la presencia de estas piezas en un estadio del crecimiento tan temprano "sugiere que no se trata de un dimorfismo sexual, porque estos caracteres aparecen más tarde".

Los dientes, para defenderse

Los científicos sospechan que los heterodontosaurios usaban los caninos, largos como colmillos, para defenderse de los depredadores, o para cazar algún insecto o algún pequeño mamífero o reptil. Es decir, eran seguramente omnívoros ocasionales. Lo sorprendente del estudio, y que abre una nueva incógnita, es que no han encontrado ni rastro de las piezas de reemplazo. Así que, a diferencia de la mayor parte de los reptiles, los heterodontosaurios no debían cambiar constantemente los dientes a lo largo de sus vidas.

Al parecer, se parecían más a la mayoría de mamíferos que, como nosotros, cambiamos los dientes sólo una vez. Sólo que debían aparecer más tarde, durante el crecimiento, apuntan los autores. Con un desarrollo de la dentición más lento, explican, se consigue que las piezas dentales encajen mejor las unas con las otras y el mordisco sea más preciso. En el estudio también han participado investigadores de la Universidad de Cambridge (Reino Unido).

Fuente: adn.es, 25 de Octubre de 2008

-El microscopio más avanzado

El instrumento acaba de ser instalado en el nuevo Centro Canadiense para Microscopía Electrónica de la Universidad de McMaster.  Según sus creadores, el Titán 80-300 Cubed tiene una resolución equivalente a la del telescopio espacial Hubble.  Pero en lugar de ver a las estrellas y los astros, escrutará átomos en la Tierra.

El Titán está en cuatro especialmente diseñado para

evitar mínimas vibraciones.

 

"Somos la primera universidad del mundo que cuenta con un microscopio de este alto calibre" afirmó Gianluigi Botton, director del Centro Canadiense.

"Con este microscopio podremos ahora identificar fácilmente átomos, medir su estado químico e incluso analizar los electrones que los unen", señaló.

Alta sensibilidad

El Titán 80-300 Cubed fue instalado en un cuarto estable especialmente diseñado, capaz de soportar vibraciones ultrabajas, los sonidos más débiles, y fluctuaciones mínimas de temperatura. Debido a que este microscopio es el último límite de lo que la física nos permite ver -expresó Botton- incluso la respiración cerca del aparato puede afectar los resultados".

El instrumento será operado desde un cuarto separado para asegurar que los resultados son de la mejor calidad.  Los científicos creen que la capacidad del Titán para analizar la estructura de materiales sólidos a nivel atómico tendrá un impacto en el desarrollo de nuevas tecnologías, desde biomedicina hasta energía.  En principio, afirmaron los investigadores, el instrumento podrá examinar a nivel "nano" cientos de productos que usamos en la vida diaria.  El objetivo será entender, manipular y mejorar su eficiencia. Por ejemplo se le podrá usar para producir luz más eficiente y mejores celdas solares.

Investigación de materiales

Un ejemplo es la foto de la derecha, que muestra lo que se ve en la lente del microscopio con una muestra de aleación de aluminio como la utilizada en las latas de bebidas.

Lo que se observa es una ampliación de 14 millones de veces, la escala es de un nanómetro, o el equivalente de la milmillonésima parte de un cabello humano.  Se espera que el Titán sirva también para estudiar proteínas y materiales para suministro de fármacos para combatir tumores cancerosos de manera más precisa.  Y también para crear materiales más ligeros y resistentes e instrumentos de almacenamiento de memoria con mayor densidad.  Tal como señalan los expertos, el campo de la microscopía está avanzando a un ritmo acelerado.  Así que quizás no será de extrañar que en los próximos meses veamos la presentación de un aparato más avanzado que éste.

El Titán fue construido en Holanda por la Compañía FEI con un costo de US$15 millones.  Y el proyecto fue financiado por la Fundación Canadiense para la Innovación, el Ministerio de Investigación e Innovación de Ontario, la compañía FEI y la Universidad McMaster.


Fuente: BBC Mundo, 24 de Octubre de 2008

 

 

-El nuevo coche de la NASA: grandes distancias sin incómodos trajes

La NASA ha revelado un nuevo vehículo lunar que busca transformar la exploración espacial, al permitir que los astronautas recorran grandes distancias sin incómodos trajes cuando regresen a la Luna en el 2020.

Un equipo de científicos está probando el vehículo de exploración presurizado, que se parece a un pequeño coche futurista de recreación montado en seis pares de ruedas, 12 en total, en un rocoso sector del norte de Arizona, escogido por su similitud con la superficie de la Luna.

"Esta es la próxima generación de exploración lunar", dijo Doug Craig, director de programa de la NASA, mientras un astronauta entraba al vehículo para dar una vuelta sobre un campo de lava rodeado por montañas escarpadas.

El explorador funciona a batería y viaja a una velocidad de hasta 10 kilómetros por hora. Es parte de varios sistemas y equipos que están siendo desarrollados por la agencia espacial para su regreso programado a la Luna durante la próxima década. La NASA espera construir una base permanente ocupada por personas en la superficie de la Luna, antes de sus siguientes misiones de exploración a Marte. El nuevo explorador presurizado es la continuación de vehículos utilizados por el programa Apolo de la década de 1970, cuando los astronautas en trajes espaciales usaban vehículos que parecían no tener carrocería para realizar pequeños recorridos para reunir rocas.

El nuevo prototipo tiene una cabina presurizada y está equipado con asientos de cuero y literas. Permite a una tripulación de dos astronautas realizar viajes de exploración prolongados de hasta dos semanas, cubriendo distancias de hasta 1.000 kilómetros, dijo Craig. La tripulación no usará trajes espaciales mientras esté en el vehículo, que está equipado con grandes ventanas que ofrecen una amplia vista del terreno, pero para salir tendrán que ponerse los trajes en escotillas especiales, dijeron funcionarios.

"Sólo usas el traje espacial cuando necesitas estar en la superficie para recoger rocas", dijo el astronauta Mike Gernhardt, un veterano que ha participado en cuatro misiones del transbordador y en una caminata espacial, mientras llevó a periodistas a dar un recorrido en el vehículo.

 

Imagen del prototipo del nuevo vehículo lunar. (Foto: REUTERS)

 

"Así que todo el tiempo que estás realizando observaciones, puedes estar dentro de un ambiente presurizado con una cómoda y cálida camiseta en lugar de en un traje espacial", agregó".

Además de su mayor rango, Gernhardt dijo que el vehículo es mucho más seguro y más cómodo que exploradores anteriores que fueron llevados a la luna durante el programa Apolo.

"Realmente permite mucha más exploración, mucha más productividad, y francamente es mucho más seguro que lo que teníamos cuando fuimos en el programa Apolo", afirmó. "Este es el futuro", concluyó.

Fuente: elmundo.es, 24 de Octubre de 2008

 

 

-No hay agua en un cráter de la Luna

La sonda japonesa Kaguya (Selene) ha vertido un jarro de agua fría sobre las esperanzas de la exploración lunar. Sólo que en este jarro lo que falta es, precisamente, el agua.  No existen depósitos superficiales de hielo en el cráter Shackleton del polo sur de la Luna, un enclave en sombra permanente donde los científicos confiaban en encontrar una fuente de recursos hídricos que pudiese abastecer a los futuros exploradores del satélite.  Irónicamente, el cráter ostenta el nombre del explorador irlandés de la Antártida que protagonizó una epopeya de supervivencia entre los hielos.

La posible presencia de hielo en los polos lunares se planteó en 1998, cuando la sonda de la NASA Lunar Prospector detectó altas concentraciones de hidrógeno en aquellas regiones gélidas y oscuras.  Según un trabajo publicado entonces en Science, los modelos más plausibles sugerían que entre un 20% y un 50% del vapor de agua depositado en la Luna por cometas y asteroides podía permanecer allí en forma de hielo durante miles de millones de años, gracias a las bajas temperaturas.

Uno de los mejores candidatos para albergar estos depósitos es el cráter Shackleton, en el polo sur, más umbrío que el norte. Su pared circular de 10,5 kilómetros de radio encierra un lecho a gran profundidad, 4.200 metros, en sombra permanente y a una temperatura máxima estimada de -185ºC.

Luz de verano

Los responsables de la misión nipona, lanzada en septiembre de 2007, aprovecharon el verano en el polo sur lunar, entre octubre y diciembre del pasado año, para fotografiar el fondo del cráter, apoyándose en la luz dispersada por la cresta del circo, siempre débil pero máxima en esta época.  Con las imágenes tomadas por Kaguya (Selene) a una resolución de 10 metros, elaboraron una reconstrucción digital del terreno en 3D.

Según el estudio, dirigido por el investigador de la agencia japonesa del espacio (JAXA) Junichi Haruyama y publicado hoy en Science, “no hay depósitos expuestos de agua helada pura que ocupen un área mayor que la resolución de la cámara”.

¿Dónde está entonces el hidrógeno? Una posibilidad, prosiguen los científicos, es que el suelo esconda bolsas de hielo bajo la superficie, algo que ya insinuaban los datos del Lunar Prospector.  Otra opción, concluye el estudio, es que el hielo esté sucio, diseminado y mezclado con el polvo en baja proporción.

Fuente: publico.es, 24 de Octubre de 2008

 

-Aldrin defiende establecer colonias en Marte

Aldrin en la presentación de "Fly me to the moon "

 

Primero llegarían los suministros y los sistemas de soporte vital a bordo de varias avanzadillas robóticas. Después se posaría en Marte el primer contingente humano, formado por media docena de pioneros, a los que se unirían otros en vuelos sucesivos hasta completar una colonia de unas 30 personas.

Es el escenario de colonización marciana que propone el ex astronauta Edwin Buzz Aldrin, el segundo hombre sobre la Luna.

A sus 78 años, y 39 después de su momento de gloria, Aldrin no ha colgado el impulso aventurero de los primeros astronautas, que con tecnologías contemporáneas del tocadiscos y la televisión en color alcanzaron metas nunca superadas.

Ataviado con una chaqueta bordada con el escudo de la misión Apolo 11, Aldrin asistió esta semana a la presentación en París de la película de animación en 3D Fly me to the moon (Llévame a la Luna).

Aldrin continúa siendo un entusiasta de la exploración espacial al viejo estilo, más preocupado por el reto de llegar más allá que por la rentabilidad de las misiones.

Para un perfil como el suyo, los programas actuales son decepcionantes: “El shuttle no ha satisfecho las expectativas, como tampoco lo ha hecho la Estación Espacial Internacional”, declaraba a AFP durante el acto.

Como alternativa a estas misiones casi domésticas, Buzz propone un plan más ambicioso que permita “hacer cosas innovadoras, nuevas, pioneras”. Y el lugar adecuado, dice, es el más similar a la Tierra, rebosante de reservas de agua y minerales: Marte.

 

Pioneros en el nuevo mundo

El entusiasmo de Aldrin por el desafío interplanetario no está vacío de argumentos. Frente a los ocho días que duró su travesía a la Luna, un viaje de ida y vuelta a Marte no se cubriría en menos de un año y medio. El astronauta expone: “Si vamos a llevar a algunas personas allí y asegurarnos de su protección, ¿nos tomaríamos todas esas molestias para traerlos de vuelta de inmediato?”.

Y responde a su pregunta: “Deberíamos enviarlos allí de forma permanente. Si no estamos dispuestos a hacerlo así, no creo que debamos afrontar ese gasto para luego detenernos”.

Aldrin postula como premisa para los candidatos una “psicología del colono”, la del que piensa que no regresará, y cita como ejemplo los pioneros europeos en América. “A los 30 años, se les da la oportunidad. Si aceptan, los entrenamos y, a los 35, los enviamos. A los 65, quién sabe qué avances se habrán producido. Pueden jubilarse allí o quizá podamos traerlos de vuelta”.

Aldrin no es la primera voz que propone un esquema de misiones marcianas sin retorno. Pero, hasta ahora, los planes que las agencias espaciales de EEUU y Europa esbozan para viajar a Marte en las próximas décadas no incluyen este planteamiento.

Fuente: publico.es, 24 de octubre de 2008

 

-Un satélite para viajar al centro de las estrellas

Ilustración del satélite ‘CoRoT’. - CNES

 

Viajar al interior de una estrella parece imposible, pero los astrónomos lo han logrado gracias a la astrosismología. Esta técnica es similar a la que emplean los geólogos para conocer el interior de la Tierra. Observando las vibraciones que se producen en la superficie de las estrellas, es posible conocer las condiciones físicas de su interior. Esta forma de observación se había empleado, sobre todo, con el Sol, pero ahora, un estudio con información recogida por el satélite europeo CoRoT, muestra que también es posible realizar astrosismología con gran precisión para conocer otras estrellas. “Los astrónomos no podemos realizar nuestros estudios en un laboratorio y tenemos que inventar formas ingeniosas para estudiar unos objetos que no podemos manipular. En este caso, creo que es bastante sorprendente que sólo con los fotones que nos mandan estas estrellas seamos capaces de estudiar su interior”, explica Ignasi Ribas, investigador del Instituto de Ciencias del Espacio (CSIC) y coautor del estudio, que hoy se publica en Science.  El satélite ha permitido observar astros distintos del Sol con una precisión que hasta ahora sólo era posible alcanzar con nuestra estrella. Esto permitirá realizar comparaciones y conocer mejor cambios en el Sol, como los relacionados con las tormentas solares o los que pueden influir en los cambios del clima en la Tierra.

En la superficie de las estrellas se producen oscilaciones, similares a los terremotos que tienen lugar en la Tierra, que están siendo útiles para que los astrónomos averiguen qué esconden en el interior estos lejanos astros. Detectar y analizar estos cambios es la misión del satélite europeo CoRoT, cuyos resultados se publican esta semana en la revista 'Science'.

Ha sido un consorcio internacional, en el que participan varias instituciones científicas españolas, el responsable de medir estas oscilaciones en tres estrellas cercanas al Sistema Solar.

Rafael Garrido, investigador del Instituto de Astrofísica de Andalucía (CSIC) y coordinador de equipo español, explica que el objetivo es el mismo que en la Tierra: "En nuestro planeta sabemos lo que hay dentro porque se estudian las ondas que lo atraviesan y se observan las diferentes zonas por la que pasan en función de la densidad. Es lo mismo que ocurre en las estrellas. En su superficie hay ondas, producidas por cambios en las temperaturas. Nosotros medimos las variaciones en la luz y podemos averiguar cómo es el interior".

El satélite CoRoT, situado en órbita a 800 kilómetros y que gira en torno al planeta, ha logrado medir con gran precisión estas ondas en tres estrellas y ha visto que estas variaciones son 1,56 veces más vigorosas que las que se producen en el Sol y que su granulación (que son las burbujas que forman los gases que hierven en el interior) es tres veces más fina.

"Son como ollas en ebullición en las que las ondas se propagan y se amortiguan continuamente. Así podemos saber qué hay en el interior de estas estrellas, que de momento siguen las mismas pautas que hemos observado en nuestro Sol", añade el experto granadino.

Garrido explica que el objetivo, además de la curiosidad de continuar desvelando misterios del Universo, es observar qué ocurre en otras estrellas, que pueden ser mucho más antiguas que el Sol, para saber por adelantado cuál será el comportamiento de nuestro 'astro rey' en el futuro.

 

Participación española

La misión, que comenzó en diciembre de 2006 con el lanzamiento del satélite, está financiada en un 80% por la agencia espacial francesa CNES, pero ha contado con una importante colaboración tecnológica española: la empresa GMV ha sido la responsable del software de mantenimiento del satélite. El satélite CoRoT cuenta con un pequeño telescopio dedicado a la medición de la luz con una precisión asombrosa: es capaz de detectar variaciones de una parte por millón, es decir, podría observar un millón de bombillas y distinguir el parpadeo de una sola de ellas. Estas mediciones no sólo desvelan el comportamiento de cada una de las estrellas, sino que podrían ayudar a la búsqueda de planetas similares a la Tierra en torno a estrellas que puedan ser similares al Sol. También puede cambiar la actual clasificación estelar.

Los astrónomos españoles, precisamente, han contribuido a la hora de decidir cuales eran las estrellas más interesantes de observar, gracias al trabajo de los telescopios instalados en Canarias y en Andalucía. Entre las instituciones españolas participantes se encuentran también el Instituto de Ciencias del Espacio (CSIC), el Instituto de Astrofísica de Canarias, la Universidad de Valencia, el Laboratorio de AStrofísica y Física Fundamental de Madrid y la empresa GME.

Fuente: publico.es, elmundo.es,  23 de Octubre de 2008

 

-El dinosaurio que usaba plumas para aparearse

Epidexipteryx carecía de plumas de

contorno- NATURE

El dinosaurio Epidexipteryx escribe hoy "un nuevo capítulo en la historia temprana de los pájaros", según los editores de la revista Nature, donde se presenta el hallazgo. Del tamaño de una paloma y unos 160 gramos de peso, Epidexipteryx tenía el cuerpo cubierto de plumas, incluidas cuatro de cola muy largas, parecidas a cintas. Pero no podía volar, porque sus alas carecen de las plumas de contorno para el vuelo típicas de las aves.

Esto lo distingue de otros dinosaurios parecidos a pájaros descubiertos previamente, como Microrraptor. Y desde luego del popular Archaeopteryx, visto antiguamente como un eslabón entre los dinosaurios y las aves, pero considerado hoy más bien como un pájaro de pleno derecho. El fósil está tan bien conservado que ha permitido a los científicos observar todas estas características de modo fiable.

El dinosaurio emplumado vivió en el jurásico medio-tardío, hace unos 160 millones de años, en la actual Mongolia interior. Fucheng Zhang y sus colegas de la Academia China de Ciencias, en Pekín, que lo presentan hoy en Nature, lo han bautizado Epidexipteryx hui. La primera palabra puede traducirse como alarde de plumas, y la segunda es un homenaje a Yaoming Hu, un paleontólogo chino muerto de forma prematura.

Las plumas de cola alongadas son un componente normal del plumaje ornamental de las aves actuales. Se usan para mandar señales visuales, sobre todo durante los rituales de apareamiento. "Es muy probable que Epidexipteryx usara sus plumas de cola para el apareamiento, y no para el vuelo o para protegerse del frío", dicen los científicos chinos. "Esto indica que las plumas aparecieron antes como ornamento que como instrumento de aislamiento o de vuelo durante la evolución de las aves".

 

 

 

-Un grupo de científicos logra borrar la memoria a los ratones

Un equipo de investigadores del Colegio Médico de Georgia (EE UU) ha conseguido borrar selectivamente y bajo control una serie de recuerdos del cerebro de los ratones. Saber cómo aprendemos cosas, consolidamos y almacenamos esa información y, finalmente, podemos recordarla, son las cuatro cuestiones que los neurobiólogos persiguen desde hace décadas. Son nada más y nada menos que los cuatro pilares de la memoria.

La revista Neuron, del grupo Cell Press, publica la descripción del método que el equipo del doctor Joe Z. Tsien ha desarrollado. Este neurobiólogo saltó a la palestra en 1999, cuando consiguió unos ratones transgénicos -los Doodies- que aprendían y recordaban más que sus congéneres normales. Esos ratones producían más receptores NMDA, unos complejos situados en la membrana de las neuronas cuya activación desencadena el impulso nervioso. En esta ocasión, el equipo de Tsien ha manipulado genéticamente a los ratones para que produzcan, en la parte anterior del cerebro, más cantidad de enzima CaMKII, a la que denominan la "molécula de la memoria", y además lo hagan en el momento deseado.

"Usamos un compuesto para encender y apagar específicamente esta enzima (la CaMKII) en el momento que se recupera el recuerdo. Este compuesto puede atravesar la barrera hematoencefálica, pero sólo funciona sobre el transgén que hemos introducido en el ratón. Se conoce como un inhibidor sensibilizado genéticamente, que no tiene efecto alguno sobre ninguna proteína natural del cuerpo", explica Tsien.

Borrado del recuerdo

Sorprendentemente, dice el investigador, lo que descubrieron es que activar la producción de la CaMKII en el momento de evocar conduce al "borrado inmediato del recuerdo en particular que se esté recuperando, mientras que el resto de recuerdos que no se traen a la memoria quedan intactos".

En el estudio, los investigadores han puesto a prueba la memoria de los roedores para recordar objetos nuevos y algunas experiencias que les dan miedo, a corto y largo plazo. Se sabe que con estas tres pruebas se ponen en marcha tres partes distintas del cerebro, por lo que, según Tsien, el hecho de que puedan eliminar cualquiera de esos recuerdos sugiere que el mecanismo molecular es común y las aplicaciones podrían ser generales. Con el apoyo de los análisis fisiológicos que han realizado, Tsien cree que la producción de la CaMKII en el preciso instante en que los ratones recuerdan algo debilita rápidamente las conexiones sinápticas -entre las neuronas- que en un primer se encargaron de formar el recuerdo, lo que explicaría ese "formateado" selectivo.

No en humanos

Este método, sin embargo, está lejos de poder aplicarse en humanos, al menos tal como lo han hecho en los animales. Tendrían que buscar otras moléculas que pudieran servir de diana para un posible fármaco, y Tsien opina que, "dada la complejidad de nuestros cerebros", no es posible. Al menos de momento, porque añade que si en el transcurso de su vida eso ocurriera "tampoco se sorprendería".

Además, todos los recuerdos, incluidos los dolorosos, subraya el neurobiólogo, tienen una función. "De esos recuerdos aprendemos lecciones para evitar que repitamos los mismos errores y ayudarnos a adaptarnos al entorno y las situaciones. La naturaleza se asegura así que el cerebro no olvide fácilmente esos recuerdos".

Y opina que "si uno tiene una mala relación con otra persona, desear tener una píldora para eliminar el recuerdo de esa persona o esa relación no es la solución". Además, les podría pasar como a los protagonistas de la película Eternal Sunshine of the Spotless Mind (¡Olvídate de mí!) y arrepentirse de haberlo hecho.

Fuente: adn.es, 22 de Octubre de 2008

 

 

-Nace una plataforma para desarrollar la captura y almacenamiento del dióxido de carbono

Capturar y almacenar dióxido de carbono emitido por la industria hasta absorber el 90 por ciento de emisiones a partir de 2020 es el objetivo de la Plataforma Tecnológica Española del CO2 (PTECO2), una iniciativa presentada hoy en el Consejo Superior de Investigaciones Científicas (CSIC).

El nacimiento de esta plataforma, presidida por Santiago Sabugal, está respaldado por 70 entidades tanto públicas como privadas y su coordinación está auspiciada por tres ministerios: Ciencia e Innovación, Medio Ambiente e Industria. Sabugal, quien ha señalado que PTECO2 ha sido más "una iniciativa ciudadana que de la administración", ha concretado el objetivo de la plataforma en "apoyar el cumplimiento de los compromisos adquiridos por España en cuanto a reducción de emisiones de dióxido de carbono".

En este sentido, el grupo ha presentado una serie de catorce propuestas con el fin de optimizar las tecnologías de Captura y Almacenamiento de CO2 bajo el epígrafe de "Documento de Despliegue Estratégico", un plan de actuaciones para el que la plataforma calcula un coste en inversiones de unos 304 millones de euros.

La captura y almacenamiento de CO2 está considerada en el Protocolo de Kioto como "una tecnología eficaz, viable y segura" para lograr reducir unas emisiones que para el Panel Intergubernamental de Cambio Climático de la ONU son culpables del 64 por ciento del calentamiento global causado por el hombre.

Ciudad de la Energía

El proyecto angular de esta nueva plataforma está basado en la construcción y explotación de una Ciudad de la Energía (CIUDEN) en Ponferrada (León), en cuyo interior planean instalar una planta piloto de oxicombustión con captura, transporte y almacenamiento geológico de CO2.

"El conocimiento para ejecutar esta tecnología existe ya", ha indicado Sabugal, para quien el principal reto está en reducir los costes, ya que actualmente cuesta entre 30 y 60 euros capturar una tonelada de CO2 para evitar su emisión a la atmósfera.

Uno de los objetivos del VII Programa Marco de la Unión Europea es que este coste baje de los 15 euros por tonelada en 2020, lo que permitiría a esta plataforma recoger más del 90 por ciento del CO2 emitido para inyectarlo bajo tierra.

La plataforma ha anunciado también proyectos como CENIT-CO2 (para investigar e incrementar la eficiencia en la captura, almacenamiento y valorización del gas) o PSE-CO2 (para separar CO2 en precombustión con coproducción de hidrógeno) que complementarán el trabajo realizado en la citada planta del Bierzo.

Fuente: adn.es, 21 de Octubre de 2008

 

-Inaugurada la máquina del "Big Bang" pese a la avería que la mantendrá apagada hasta el 2009

El Laboratorio Europeo de Física de Partículas (CERN) ha inaugurado oficialmente el mayor acelerador de partículas del mundo, su proyecto estrella, pese a la avería que le mantendrá parado el LHC hasta la primavera de 2009. Los responsables del CERN así como los principales representantes de Estados miembros quitaron importancia al contratiempo del Gran Colisionador de Hadrones (LHC), y aseguraron que eso no cambia las grandes perspectivas que se abren con este proyecto que ha costado 4.000 millones de euros y con el que se quiere desentrañar los misterios del Universo.

De izquierda a derecha, en primera fila, el presidente de Suiza, Pascal Couchepin, el director del CERN, Robert Aymar, y el primer ministro francés, Francois Fillon, en la ceremonia de inauguración del LHC. (Foto: REUTERS)

 

 

"El LHC es un proyecto audaz, que ha necesitado más de 20 años de planificación y que nos permitirá investigar el 96 por ciento del universo que nos es desconocido, y aunque hoy es una fiesta, no puedo negar que siento decepción por el incidente que ha obligado a parar la máquina", dijo el director general del CERN, Robert Aymar, en sus palabras de inauguración.

Pero, tras agradecer a los estados miembros sus esfuerzos y contribuciones, Aymar aseguró que "tenemos el equipo y los medios para repararlo y para garantizar que algo así no vuelva a ocurrir".

Unos 1.500 invitados asistieron al evento, pero sólo Suiza estuvo representado por su jefe de Estado, Pascal Couchepin, mientras que por Francia -el otro país en cuyo territorio se extiende el CERN- asistió el primer ministro, Francois Fillon, quien expresó el total apoyo de París al proyecto.

"Hace años, algunos calificaban el proyecto del acelerador de sueño irrealizable, pero hoy existe y es espectacular...Entramos en una etapa decisiva y fantástica... y no es sorprendente que haya imprevistos técnicos. Hay que aceptarlos y hay que superarlos, pero la confianza de mi gobierno en el proyecto es total", afirmó Fillon en su discurso. Para el primer ministro francés, igual que la crisis financiera mundial es un mal ejemplo de la globalización, el trabajo del CERN lo es de la colaboración internacional en busca de los misterios de la materia. Los demás países europeos miembros del CERN enviaron a sus ministros de Ciencia o viceministros, así como otros estados que han participado en este proyecto multinacional. España estuvo representada por el secretario de Estado para la investigación,Carlos Martínez.

Fuga de helio

La avería que mantiene parado el acelerador tuvo lugar sólo diez días después de su espectacular puesta en marcha el 10 de septiembre, cuando los científicos del laboratorio lograron que el primer haz de protones circulara y diera una vuelta completa por el gigantesco túnel de 27 kilómetros de circunferencia donde se halla el acelerador, bajo la frontera suizo-francesa, a las afueras de Ginebra. El problema se debió a una importante fuga de helio en el sector 3-4 del túnel, uno de los 8 que lo conforman, y el CERN ha confirmado que se debió a una conexión eléctrica defectuosa entre dos imanes del acelerador.

Pero los trabajos de reparación requerirán meses, puesto que la propia complejidad de la máquina ha obligado a calentarla a temperatura ambiente, desde los 271 grados bajo cero y habrá que volver a enfriarla después para poder hacer circular protones y colisionarlos a la velocidad de la luz.

"Cuando te compras un coche de fórmula 1, pasas un cierto tiempo poniéndole a punto y como lo hemos celebrado antes de que el coche estuviese a punto, no es nada raro que tengamos problemas, eso se podía esperar, pero los resolveremos", comentó el físico español Alvaro de Rújula, acerca de que la celebración se haga con el acelerador paralizado.

El lado más lúdico de la ceremonia fue un concierto audiovisual, "Orígenes", con música de Philip Glass, interpretada por la Orquesta de la Suiza Romanda. Y el broche de oro y "plato fuerte", el buffet de "gastronomía molecular" servido por el cocinero italiano Ettore Bocchia, que combina la alta gastronomía y la ciencia física.

Otro chef experimental, el catalán Ferran Adria, se encargó del café servido después de la cena, con su innovador'Èspesso' creado para una conocida marca de café italiana y que es el único café del mundo que se toma con cuchara por su textura sólida.

Fuente: EFE, 21 de Octubre de 2008

 

-India se suma a la carrera hacia la Luna

Todo está listo para el lanzamiento del Chandrayaan-1, la sonda que añadirá a India al club de los países con presencia en el satélite natural de la Tierra. El director adjunto del Centro Espacial de Satish Dhawan, M. Y. S. Prasad, informó hoy de que la cuenta atrás ha comenzado y de que todo va “perfectamente, según lo planeado”.

El lanzamiento tendrá lugar a las 2:50 de la madrugada del miércoles (hora peninsular española) desde el centro Dhawan, en Sriharikota, a 80 kilómetros de Chennai, en la costa suroriental del país.

Con un coste de 80 millones de dólares, Chandrayaan-1 orbitará a 100 kilómetros de la Luna durante dos años, tomando imágenes para elaborar mapas geológicos y topográficos. Dispone además de un segundo módulo que descenderá a la superficie. En total, está equipada con 11 instrumentos procedentes de India, EEUU y Europa.  La sonda se elevará a bordo de una versión modificada del cohete indio Polar Satellite Launch Vehicle (PSLV), que ha lanzado 29 satélites en 15 años. La misión es un paso de gigante en el programa de la Organización India de Investigación Espacial (ISRO), que busca recortar distancias con las principales potencias espaciales del continente asiático, Japón y China. Ambos cuentan ya con satélites orbitando la Luna desde el pasado año, el chino Chang’e-1 y el japonés Selene (Kaguya), la segunda sonda lunar nipona.  Además, el lanzamiento del Shenzou-7 a la órbita terrestre el mes pasado convirtió a China en el tercer país, después de EEUU y de la extinta URSS, en completar un paseo espacial organizado por una sola nación.

Ciencia y negocio

 

Pero como en el caso de sus competidores en el espacio, los fines de India trascienden el ámbito puramente científico. Este país envió su primer satélite a la órbita en 1980, inicialmente para mejorar sus comunicaciones, pero los objetivos comerciales se han expandido en los últimos años con el lanzamiento de varios satélites para clientes extranjeros.  El último PSLV hasta hoy, que despegó en abril, cargaba en su interior 10 aparatos pertenecientes a seis países distintos. India quiere ampliar su cuota de mercado en el creciente negocio espacial, para lo cual prepara una constelación de siete satélites de comunicaciones que se desplegará en los próximos años hasta 2012.

Al contrario que China, que se muestra ambigua con sus planes de enviar un hombre a la Luna, India no tiene dudas. Según el ex director de ISRO, G. K. Menon, “el siguiente paso será una misión tripulada a la Luna, cuyas pruebas ya han comenzado”.

Japón también ha declarado intenciones de pisar el suelo lunar en 2020, el mismo año en que China planea disponer de su propia estación espacial.

Fuente: publico.es, 20 de Octubre de 2008

 

 

 

-Los volcanes originaron la vida en la Tierra

Fue tan sencillo como convincente. El experimento que un científico de la Universidad de Chicago llamado Stanley Miller reprodujo una y otra vez en el laboratorio hace más de medio siglo sigue explicando hoy los posibles orígenes de la vida en la Tierra. Un ya histórico estudio publicado en 'Science' en 1953 demostraba cómo a partir de los componentes de la atmósfera terrestre inicial podían surgir los aminoácidos, clave para la formación de la vida. No había ingredientes más conocidos y accesibles para la "sopa primigenia" -como la descrita por Darwin-: metano, hidrógeno, amoniaco, agua y electricidad.

Imagen de la lava del volcán hawaiano Kilauea, en Hawai. (Foto: EFE)

 

El experimento de Miller, hoy común en las clases de química de los institutos, consistió en juntar todos estos ingredientes y descargar electricidad, simulando así el océano, la atmósfera y los rayos de hace 4.500 millones de años. El resultado fue una sopa de aminoácidos. Un simple experimento había logrado crear 13 de los 21 aminoácidos necesarios para la vida. El célebre astrofísico Carl Sagan lo consideró "el paso más significativo para convencer a los científicos de que la vida puede ser abundante en el cosmos".

Cincuenta y cinco años después, la misma revista 'Science' publica una revisión del experimento. Jeffrey Bada, de la Institución Scripps de Oceanografía en la Universidad de California en San Diego, y colegas han reinterpretado el análisis de Miller para concluir que los principales componentes de la vida pudieron surgir de las erupciones volcánicas.

Más aminoácidos

Durante estas décadas, varias evidencias han cuestionado la validez de la atmósfera recreada por Miller (existen dudas de que ésta fuese tan reductora, es decir, pobre en oxígeno). Sin embargo, el nuevo experimento llevado a cabo por Bada sugiere que "incluso si la atmósfera en su conjunto no era tan reductora, podría haberse dado una síntesis prebiótica localizada" en sistemas volcánicos, dice el estudio. Se cree que la Tierra, en sus orígenes, era un planeta convulso, sacudido por la actividad volcánica. El estudio actual sugiere que los rayos y las emisiones de gases resultantes de las erupciones volcánicas pudieron producir los componentes químicos necesarios para la vida. Al volver a realizar el experimento con técnicas contemporáneas, los investigadores han logrado crear un total de... ¡22 aminoácidos!

Tras una de las pruebas, los autores del estudio publicado hoy describen que "el vapor [expulsado por los volcanes] inyectado en la chispa [eléctrica] puede haber generado con radicales hidroxilados que reaccionaron o bien con los precursores de los aminoácidos o con los propios aminoácidos".

Tras la muerte de Miller en 2007, Bada, ya veterano, y sus colegas rescataron las muestras químicas originales de aquella "sopa primigenia". "Estábamos seguros de que aún quedaban cosas por descubrir en el experimento original de Miller", dice Bada, coautor del estudio. "Nos dimos cuenta de que una versión moderna" de las pruebas con sistemas volcánicos "produce una variedad más amplia de componentes".

Fuente: elmundo.es,  20 de Octubre de 2008

 

-La radiación del "Big-Bang" pierde intensidad  al atravesar supercúmulos de galaxias

Astrónomos del Instituto de Astrofísica de Canarias (IAC) y de las universidades de Mánchester y Cambridge han encontrado la primera evidencia de que la radiación del Big Bang es alterada al atravesar supercúmulos de galaxias, las mayores estructuras del Universo. Este descubrimiento sugiere la presencia de gran cantidad de materia en forma de plasma en los supercúmulos, han explicado en una entrevista con la Agencia EFE los astrónomos del IAC Rafael Rebolo, José Alberto Rubiño y Ricardo Génova. El hallazgo se ha hecho cuando estos investigadores estudiaban la radiación del fondo cósmico de microondas, que es el resto fósil de la Gran Explosión (o Big Bang) que dio origen al Universo. Al observar dicho fondo de microondas en la dirección del supercúmulo de galaxias de la Corona Boreal, encontraron un notable decremento en la intensidad de esta radiación. Este decremento es cuatro veces más débil que la intensidad típica del fondo de microondas en cualquier otra dirección del cielo.
 

 

Imagen de la galaxia NCG 3077 tomada por el telescopio

espacial 'Hubble'. (Foto: NASA-ESA


Rafael Rebolo, José Alberto Rubiño y Ricardo Génova explicaron que dicha observación constituye una evidencia indirecta de que en los supercúmulos de galaxias hay gran cantidad de gas caliente, con temperaturas próximas al millón de grados centígrados. A estas temperaturas, la materia se encuentra en un estado de plasma, siendo su componente principal los electrones. El proceso físico que origina dicho rasgo en el fondo de microondas, que fue predicho por los astrofísicos rusos Sunyaev y Zel'dovich en 1970, es el resultado de la interacción de la radiación del fondo de microondas con materia en forma de plasma. Se manifiesta en forma de variaciones de intensidad en el fondo de microondas similares a la detectada.

Escalas mucho mayores
Este efecto había sido detectado hasta ahora en cúmulos de galaxias, donde se sabía con certeza que debía producirse, debido a la gran cantidad de gas caliente que se encuentra en el interior de estas estructuras. Sin embargo, predicciones basadas en cálculos teóricos desarrollados en los más grandes superordenadores establecen que mucha de la materia ordinaria del Universo no estaría en estrellas, galaxias o cúmulos de galaxias, sino distribuida en escalas mucho mayores en forma de un plasma difuso de temperatura muy alta, posiblemente en el interior de supercúmulos de galaxias.

De acuerdo con estos estudios teóricos, esta materia de los supercúmulos, que son las mayores estructuras que se conocen en el Universo, debería generar también un efecto Sunyaev-Zel'dovich detectable. Estas observaciones confirman la predicción, y suponen de hecho la primera detección, del efecto Sunyaev-Zel'dovich en supercúmulos, y con ello la primera evidencia directa basada en medidas del fondo de microondas de la existencia de esta materia en su interior. Otra posible explicación a este descubrimiento, mucho más especulativa pero también interesante, es que en el Big Bang se produjesen anomalías como la que se ha detectado, algo muy improbable en la teoría actual y que llevaría a revisar los modelos básicos del origen del Universo. Los astrofísicos del IAC no descartan esta explicación pero la creen menos probable.

La evidencia de que hay gran cantidad de gas en el supercúmulo de la Corona Boreal se ha llevado a cabo con el experimento VSA (Very Small Array) instalado en el Observatorio del Teide (Tenerife). El VSA está formado por 14 antenas que funcionan a una frecuencia de 33 GHz y que apuntan de forma simultánea a una misma región del cielo para obtener una señal que luego se combina electrónicamente por medio de un procedimiento denominado interferometría. Con este interferómetro se estudia el fondo de radiación emitido unos 380.000 años después de la gran explosión que se cree que dio origen al Universo. El descubrimiento será publicado en la revista 'MNRAS', de la Real Sociedad Astronómica del Reino Unido.

Fuente: elmundo.es, 19 de Octubre de 2008

 

-La vida y obra de Nikolas Tesla, el hombre que iluminó el mundo

Pasó a la historia como el mago de la luz, el hombre que iluminó el mundo, pero murió prácticamente solo, alimentando a las palomas desde la ventana de un hotel. Antes, en su larga e intensa vida, patentó 170 inventos, entre ellos la corriente alterna, la radio o los Rayos X. Ahora, la Universidad Politécnica de Madrid, le rinde un homenaje con una muestra y un ciclo de conferencias.

La exposición, abierta al público en la Escuela Técnica Superior de Ingenieros Industriales (C/ José Gutiérrez Abascal, 2, de Madrid) lleva viajando por el mundo desde hace dos años, cuando la ONU declaró el año dedicado a Nikola Tesla (1956-1943). Consiste en 10 paneles y tres pantallas multimedia que sirven para acercarse a la vida de este prolífico inventor, del que también se pueden ver dos artefactos: el famoso Huevo de Colón de Tesla, que presento en la Exposición Universal de 1893, y una bobina que puede llegar a generar tres millones de voltios. "Queremos que sea una muestra interactiva y educativa, que la gente se acerque al personaje y recuerde cómo nos ha mejorado la vida", explicaba a elmundo.es Matea Brstilo Resetar, del Museo de Historia Natural de Croacia.

Brstilo recuerda que Tesla "es un orgullo, un hombre sin el que, quizás, el mundo hubiera sido más oscuro". "Tuvo tal capacidad de invención que algunos de sus descubrimientos se aplicaron sólo después de su muerte y otros aún no están en uso, como la transmisión de electricidad inalámbrica", añade. También tuvo mala suerte: un incendio en su laboratorio le hizo perder muchos de sus trabajos, como los relacionados con el hallazgo de los electrones o el microscopio electrónico.

Desde luego, si algo se desprende de la visita a la exposición (abierta hasta el 12 de diciembre) es que era polifacético y controvertido. Nació en la pequeña localidad de Smiljan, un pueblo donde,irónicamente, la electricidad llegó hace sólo dos años. Enfermó de cólera muy joven, por lo que quedó descartado como futuro militar: ésta fue la razón por la que sus padres le permitieron seguir sus estudios, primero en Granz y luego en varias ciudades europeas antes de aterrizar en Estados Unidos.

 

Torre para la transmisión de electricidad de Tesla. (Foto: Museo de Historia de Croacia).

 

Enfrentamiento con Thomas Edison

Para entonces ya trabajaba en la compañía de Edison, con quien pronto entró en conflicto: "Él era un lobo solitario, no formaba grandes equipos. Desde joven le fascinaron los fenómenos naturales, los truenos y los relámpagos. Más de una vez dijo que necesitaba vivir 100 años para crear todo lo que llevaba dentro, y casi lo consigue", añade Renato Filipin, del Museo Técnico de Zagreb. El primer problema surgió porque Edison defendía la corriente continua, frente a la alterna de Tesla, que es la que finalmente se utiliza universalmente. Según explica Brstilo, "el primero inició una guerra sucia contra el croata. Pero lo cierto es que él podía iluminar un barrio y con el sistema de Tesla se daba luz a una ciudad", añade su compatriota.

No fue el único enfrentamiento que tuvo a lo largo de su vida. Con Marconi le pasó lo mismo, puesto que fue Tesla el primero en transmitir un mensaje oral de forma inalámbrica, es decir, la radio, un invento cuya patente EE. UU. sólo le reconoció después de muerto. Durante la presentación en la Escuela de Industriales, el embajador de Croacia, Filip Vucak, recordaba que Tesla llegó a registrar 700 inventos, pese a lo cual "siempre dijo que no le importaba la fama y las riquezas de este mundo, que sólo encontraba satisfacción en el trabajo".

El rector de la Politécnica, Javier Uceda, también hizo mención de algunas afirmaciones de Tesla a mediados del siglo pasado: "Fue el primero que adivinó que un día leeríamos los diarios por una conexión inalámbrica en casa".

Las conferencias sobre sus aportaciones tendrán lugar los próximos días 5 de noviembre (Tesla en Nueva York) y 12 de noviembre (Nikola Testa, de la infancia al hotel New Yorker). Las visitas a la exposición serán guiadas (incluidos sábados y domingos).

Fuente: elmundo.es, 19 de Octubre de 2008

 

 

-Base lunar construida con el hormigón hecho en el satélite

Un grupo de científicos de EEUU ha propuesto construir una base lunar con hormigón sin agua hecho con polvo recogido en el satélite. Llevar a la Luna las cantidades de material para construir una base sería extremadamente caro. El precio de transportar un kilo podría llegar a alcanzar los 100.000 dólares. Por ese motivo, resultaría interesante encontrar la forma de edificar con material autóctono. El hormigón lunar se elaboraría a partir de polvo lunar aglutinado con azufre purificado extraído también en el satélite. Las pruebas realizadas por ingenieros de la NASA han permitido comprobar que  el material hecho así llegó a resistir una presión equivalente a 170 atmósferas. Peter Chen, otro científico de la NASA, elaboró este año un tipo de hormigón sin agua empleando el epoxi como aglutinante. En este caso, el epoxi debería enviarse en cohetes a la Luna, pero se reduciría significativamente la cantidad de material transportado.

Hormigonera lunar

Además, una vez en la superficie del satélite, elaborar el hormigón con su técnica sería más sencillo que empleando el azufre como aglutinante. Otro problema que habría que solucionar en caso de elaborar el hormigón en la Luna sería la fuente de energía para hacer la mezcla. Sin embargo, los científicos que proponen esta solución creen que los costes serían mucho menores que el transporte de material desde la Tierra.

Fuente: publico.es, 19 de Octubre de 2008
 

 

-La nanobiotecnología y la implicación de la opinión pública

La nanobiotecnología tiene el potencial de transformar radicalmente la sociedad; no obstante, en demasiadas ocasiones el debate en torno a esta ciencia está protagonizado por el miedo que han engendrado algunas novelas como «Presa», de Michael Crichton, y los medios informativos con titulares que presagian una pesadilla del tipo de la «plaga gris» (Grey Goo). Ahora un nuevo informe, elaborado en el marco del proyecto NanoBio-RAISE, financiado con fondos comunitarios, concluye que para disipar esos temores hay que tener más en cuenta a la opinión pública. El informe se presentó recientemente en el congreso EuroBIO2008 celebrado en París (Francia). El proyecto NanoBio-RAISE fue financiado por la Unión Europea con 553.845 euros mediante el área de actividad «Ciencia y Sociedad» del Sexto Programa Marco (6PM).

Se trata de un proyecto que combina la divulgación de la ciencia con la investigación ética en la nanobiotecnología y que pretende anticiparse a cualquier problema de tipo ético o social que pueda surgir.  En el transcurso de una serie de talleres, expertos en bioética de Estados Unidos y Europa recopilaron información e investigaron las repercusiones de la nanobiotecnología en los ámbitos de la alimentación y la medicina así como en el novedoso campo de la potenciación humana (human enhancement). En el último taller se sopesaron distintos métodos para implicar a la opinión pública en un debate con conocimiento de causa en torno a cuestiones concretas.

Con respecto a la cuestión de la potenciación humana, el informe llama la atención sobre las distintas actitudes que se observan en Estados Unidos y la UE. En Europa, la potenciación humana se centra en la medicina regenerativa y las enfermedades neurodegenerativas; en Estados Unidos, el interés se centra en aplicaciones militares, principalmente en la creación de «soldados biónicos». En aquella nación el debate incluye también la cuestión de la naturaleza de la condición humana y las formas de potenciar (y no simplemente de reparar) nuestro estado físico y mental.

Los temores actuales relacionados con la nanobiotecnología guardan relación principalmente con la tecnología nanoalimentaria, que suele asociarse a los alimentos transgénicos. En las conversaciones sobre el tema tampoco falta cierta dosis de ciencia ficción, por ejemplo la idea de que se construyan máquinas expendedoras capaces de fabricar sus propios productos. La percepción general de la nanomedicina es mucho más positiva; se considera un gran logro todo adelanto que contribuya a mejorar el diagnóstico, tratamiento y seguimiento de los pacientes, sobre todo en los terrenos del cáncer y las enfermedades cardiovasculares y neurodegenerativas.

A la vista de estas conclusiones, el coordinador de NanoBio-RAISE, el Dr. David Bennett, y sus colaboradores han hecho un llamamiento a movilizarse para transmitir confianza a la opinión pública acerca del potencial de la nanobiotecnología.

«Hay una demanda generalizada de que se produzca un debate más abierto y se implique más a la sociedad que hasta ahora en la formulación de políticas relativas a la ciencia y la tecnología. La nanobiotecnología es uno de los nuevos campos en los que se debe satisfacer dicha demanda y, en nuestra opinión, es uno de los casos más acuciantes. Consideramos que la UE debe desempeñar un papel destacado por lo que concierne a trabajar con la comunidad investigadora, la industria y otros grupos interesados para poner en marcha programas y actividades innovadoras y eficaces orientadas a todos los sectores de la sociedad», afirmó.
 

Fuente: CORDIS, 17 de Octubre de 2008

 

-50 años matando marcianitos

Los organizadores no daban crédito: centenares de personas hacían cola para jugar con un cacharro que un científico había colocado entre los aparatos de investigación que, como cada año, exhibía el Laboratorio Nacional Brookhaven (un centro de investigación nuclear de EEUU) en su día de puertas abiertas. Era el 18 de octubre de 1958, inicio de la era de los videojuegos.

El ocurrente científico fue William Higinbotham. Este antiguo miembro del ‘Proyecto Manhattan' (donde se creó la bomba atómica) era responsable de la División de Instrumentación del Brookhaven. Para dar vida a la aburrida exposición de cachivaches de todos los años, decidió hacer algo diferente. Cogió un osciloscopio y lo convirtió en un juego de tenis en el que dos personas podían controlar y lanzar un punto luminoso verde a modo de pelota. Tardó dos horas en diseñarlo y, junto a Bob Dvorak, tres semanas en reunir todas las piezas y fabricarlo

Bautizado como ‘Tennis for Two', era un pequeño ordenador analógico. Cuatro amplificadores creaban el movimiento de la bola y otros seis sentían cuándo golpeaba en el suelo o en la red. Un miembro de la actual División de Instrumentación del Laboratorio Brookhaven, Peter Takacs, explica la importancia entonces del germanio: "Usó los transistores para fabricar un circuito de rápidos interruptores que tomaba las tres salidas del ordenador y las desplegaba en la pantalla del osciloscopio a la ‘impresionante' velocidad de 36 hercios".

¿El primer videojuego?

Aunque la mayoría de los libros y páginas dedicadas a los videojuegos consideran a la creación de Higinbotham como el primer juego electrónico, hay tres antecedentes que quieren disputarle el honor. Pero tanto la patente del ‘Dispositivo de Entretenimiento de Tubo de Rayos Catódicos' (1948), como el juego de estratégica ‘Nim', ideado para el ordenador británico Nimrod (1951) e, incluso el ‘OXO', una especie de ‘Tres en Raya', del año siguiente, carecían de algunos elementos. Así, el primero exigía poner imágenes de papel sobre la pantalla. El segundo se hizo para comprobar la potencia de un procesador. Y el tercero, un juego de único jugador, pretendía estudiar la interacción entre máquina y hombre.

Solo ‘Tennis for Two' nació para divertir. Aunque en 1959 se le aumentó la pantalla hasta las 17 pulgadas, el videojuego nunca fue comercializado. Higinbotham, que había usado material del Gobierno federal para fabricarlo, ni siquiera lo patentó. De haberlo hecho, quizás podría haber participado del fabuloso negocio que nació hace 50 años. Un negocio que, sólo en España, generó el año pasado 1.454 millones de euros.

Fuente: publico.es, 17 de Octubre de 2008

 

-Usando medios digitales para hacer avanzar la ciencia

Cuando me fui de España, hace dos años ya, confieso que no tenía mucha experiencia en el campo de la divulgación científica. Pero un colega curtido en batallas se me quejaba de que, en ocasiones, en algunos de los seminarios para comunicadores científicos a los que asistía todavía se planteaban preguntas tan básicas y “demodé” como “¿pueden científicos y periodistas comunicarse?” Al pobre le ponían de los nervios.

Luego, cuando estuve estudiando mi postgrado en una universidad de Estados Unidos (donde los periodistas científicos ya saben que sí, se pueden comunicar con los investigadores), fui testigo una y otra vez de otro tipo de quejas de los profesionales del sector, que lloraban la progresiva pérdida de espacio dedicado a las noticias de ciencia en los periódicos, y se entristecían por la batalla (perdida de antemano) de los medios tradicionales frente a los digitales.

“La profesión anda de capa caída”, nos decían a mis compañeros de clase y a mí. “No quiero desanimaros, pero no son buenos tiempos para empezar a trabajar en este campo”.

La verdad, nunca acabé de creerme que la cosa estuviera tan mal. Pero aun así, fue alentador asistir la semana pasada a un seminario que, en vez de quejarse por los cambios del sector, se centraba en explicar a periodistas, educadores y científicos cómo sacar el máximo provecho de las nuevas oportunidades que se presentan con el avance de los medios digitales.

El seminario, “New Digital Media and Public Engagement With Science” (“Nuevos medios digitales y participación del público en la ciencia”), estaba organizado por el
Exploratorium (el museo de la ciencia de San Francisco, que con su página web fue uno de los pioneros en el campo de la comunicación científica en Internet) y avalado por la National Science Foundation. Durante la presentación, el director ejecutivo del Exploratorium, Rob Semper, habló de cómo las particularidades de Internet presentan retos tanto a científicos como a educadores y periodistas especializados en ciencia. En Internet, la audiencia tiene una capacidad de atención más corta, lo cual supone un dolor de cabeza para los pobres comunicadores, acostumbrados a contar  sus historias en formatos más extendidos. Además, a esta ciber-audiencia le gusta “meter mano” en todo (dejando comentarios por doquier, creando sus propias páginas web o contribuyendo en proyectos comunales, como Wikipedia) y en Internet es más difícil garantizar que la información científica que se publica es precisa, ya que existen menos filtros. ¿Debería esto desanimar a los aquellos involucrados en la difusión de la ciencia? No, porque los consumidores de información científica a través de medios digitales presentan también características muy atractivas: buscan información activamente (en vez de recibirla pasivamente, como los espectadores de televisión), están motivados y muy distribuidos tanto geográfica como socialmente.

A continuación, John Horrigan, del
Pew Internet Project, presentó los últimos datos conocidos sobre cómo el público utiliza Internet para acceder a información científica, que incluían un aumento en el uso de Internet a través de dispositivos móviles, como PDAs y teléfonos. Como curiosidad, Horrigan destacó que el teléfono móvil permite un acceso más universal a la información, ya que sectores sociales que normalmente no disponen de demasiada facilidad para usar ordenadores con conexión a Internet, como afroamericanos y latinos, sí que utilizan sus móviles activamente.

Una periodista de
Scientific American, una revista que ha estado apostando fuerte en su versión digital en los últimos años, dio varias recomendaciones para todo aquel medio que quiera triunfar en crear una comunidad online: ten en mente cuál es tu objetivo (¿Fidelizar a tus lectores? ¿Incrementar el tráfico de tu página web?), conoce a tu audiencia, contrata suficiente personal para mantener actualizada la web, consigue a un experto que te monte una página increíblemente sencilla de navegar y sobretodo, invierte en márketing, porque en este mundo sobredosificado de información, tener un producto extraordinariamente bueno no equivale a tener garantía de que triunfará.

Tras la participación de un comunicador que ha montado la operación en Second Life para la NASA, de una periodista del programa de ciencia
Quest (que utiliza tanto recursos de TV, como de radio y Web) y de responsables de comunicación para varios programas de exploración antártica, Matt Nisbet, un académico que estudia la eficacia de las campañas de comunicación, advirtió que, para involucrar al público con la ciencia, no basta con Internet: la información científica web es sólo un cebo, pero a partir de ahí se tiene que conseguir que la gente participe en actividades en el “mundo real” (como visitas a museos u otros tipos de actividades científicas) para que realmente aprendan, desarrollen un afecto verdadero por la ciencia y se conviertan ellos mismos en promotores del conocimiento científico entre sus conocidos.

Fuente: Blog "Política científica", 16 de Octubre de 2008
 

 

-Un "neurochip" en el cerebro permite mover los músculos a afectados de una parálisis

Para mover un músculo puede ser suficiente con activar una sola neurona, o al menos eso es lo que sucede en el cerebro de los monos. Los responsables de un concienzudo ensayo científico se han adentrado en la mente de estos primates para conocer mejor las bases del movimiento y, en última instancia, proponer nuevas líneas de trabajo que faciliten la vida de las personas con parálisis.

Hace escasos cuatro meses saltaba a la palestra el trabajo de un equipo de la Universidad de Pittsburgh (EEUU), en el que dos monos eran capaces de alimentarse moviendo un brazo biónico con la energía del pensamiento. Ahora, la revista 'Nature', la misma que publicó aquel documento, recoge en sus páginas una impactante investigación con distintos medios pero parecidos fines.

"Los monos 'Macaca memestrina' pueden controlar directamente la estimulación de los músculos empleando sólo la actividad de las neuronas de la corteza motora [una zona del cerebro implicada en el movimiento]", afirman sus autores, procedentes de la Universidad de Washington (EEUU).

Para llegar a esa conclusión, primero se implantó un electrodo en el cerebro de dos monos, que permitió grabar su actividad neuronal. A continuación, con un programa informático, se transformaron estos datos en señales capaces de estimular la muñeca de los animales. Como han explicado Chet T. Moritz y Eberhard E. Fetz, dos de estos expertos, en una rueda de prensa, "pusimos dos electrodos por cada músculo que quisimos estimular", y no se necesitó emplear "complejos algoritmos de descodificación ni brazos robóticos".

 

Jugando a un videojuego

En el experimento se estudió la mente de los macacos mientras jugaban a un simple videojuego, en el que tuvieron que mover la mano en varios sentidos. Cuando ya habían adquirido cierta pericia en esta tarea, los científicos anestesiaron su antebrazo para eliminar su función motora y su sensibilidad. A pesar de esta parálisis temporal, los animales continuaron moviendo el cursor con el impulso de la mente.

"Convertimos la actividad celular en una serie de estímulos proporcionales que se hicieron llegar a los músculos paralizados", explican los científicos estadounidenses. Como resultado, los monos no sólo fueron capaces de mover la extremidad paralizada sino que también contrajeron y extendieron la mano. Su habilidad fue mejorando según se incrementó el tiempo de prácticas.

Otro de los principales hallazgos del trabajo, financiado por los Institutos Nacionales de la Salud de EEUU (NIH, en sus siglas en inglés), tiene que ver con la naturaleza de las células implicadas en el proceso. En contra de lo que pudiera pensarse, "las neuronas pudieron controlar la estimulación funcional con igual destreza sin importar si previamente se habían asociado con el movimiento".

"Este resultado pone en evidencia la gran plasticidad del cerebro. A través del aprendizaje se puede variar la función de estas células y, en este caso, reclutarlas para que cumplan un papel motor", afirma Eberhard E. Fetz.

Una neurona para un músculo

El ensayo también presta especial atención al enorme potencial individual de las neuronas. El que una sola célula pueda mover un músculo tiene importantes implicaciones: "Los canales directos, que unen las células individuales y determinados músculos, pueden aportar al cerebro una información más clara sobre la actividad celular y permitir que los mecanismos innatos de aprendizaje motor ayuden a optimizar el control de las nuevas conexiones".

"Es la primera demostración de que las conexiones artificiales y directas entre las células corticales y los músculos pueden compensar los caminos fisiológicos interrumpidos y restaurar el movimiento voluntario de las extremidades paralizadas", subrayan los autores.

De aplicarse en humanos, podría restaurar acciones tan cotidianas como coger una taza o presionar una tecla. "El mayor desarrollo de este tipo de estrategias directas podría devolver los movimientos voluntarios a las personas con parálisis", concluye el documento.

Eso sí, antes de poder emplear esta técnica en personas, se deberá allanar el terreno para, entre otros objetivos, lograr electrodos que no provoquen rechazo o conseguir una tecnología 'wireless' que evite tener que introducir cables en el organismo humano.

Fuente: elmundo.es, 16 de Octubre de 2008

 

-Homo sapiens pudo salir de África por el Sáhara

El Sahara no siempre ha sido tan árido como hoy lo conocemos. Imágenes de radar y análisis geoquímicos de sedimentos en varias localizaciones del desierto han permitido el hallazgo de rastros de antiguos ríos que lo atravesaban y llegaban al Mediterráneo en la zona de la actual Libia. Ese corredor verde fue utilizado por las primeras migraciones de homo sapiens, cuya aparición se calcula que ocurrió hace entre 150.000 y 200.000 años en el África subsahariana, de acuerdo con una investigación realizada por científicos británicos. Hasta ahora se creía que la dispersión del hombre moderno desde el centro de África se había producido siguiendo la ruta del valle del Nilo. La teoría se mantenía por considerar que la aridez del desierto del Sáhara impedía haberlo cruzado a pie, a pesar de que la datación de hallazgos arqueológicos en el valle del Nilo y Oriente Próximo no avalaban del todo la vía egipcia.

La nueva investigación, dirida por Anne H. Osborne, de la Universidad de Bristol, aporta por primera vez pruebas de que la expansión de las primeras oleadas de nuestros antepasados pudo hacerse a través del Sáhara, lo que se ajusta más a la antigüedad de los restos fósiles encontrados en la costa sur mediterránea. El estudio defiende que «el Nilo no debería ser ni la única ni, tal vez, la ruta potencial más probable de dispersión».

Un corredor de agua dulce

Las pruebas realizadas con radar detectan lechos fósiles de ríos ahora enterrados que cruzan el desierto y desembocan en la costa mediterránea. La existencia de esos canales explicaría el disperso hallazgo en algunos oasis de ciertas artesanías datadas a mediados de la Edad de Piedra relacionadas con otras halladas cerca del mar. El estudio presenta datos geoquímicos que demuestran que el agua en esos sistemas fósiles derivaba del sur. «Esto prueba la existencia de un ininterrumpido corredor de agua dulce a través de la actualmente hiperárida región del Sahara en el momento de las tempranas migraciones del hombre moderno hacia el norte de África y fuera de ella», asevera el equipo investigador.

Corredores verdes

De hace aproximadamente 130.000 años datan los restos de homo sapiens más antiguos encontrados en la zona más occidental de Oriente Medio. Hasta ahora se suponía que la especie había llegado allí a través del valle del Nilo. Sin embargo, nuevos fósiles y hallazgos arqueológicos han revelado una amplia distribución de homo sapiens a lo largo de la costa del norte de África y el norte del Sahara durante ese mismo período, lo que apoyaría la tesis del uso de los corredores verdes del Sahara.

«Utilizando análisis geoquímicos hemos demostrado que esos canales estaban activos durante el último periodo interglacial. Eso ofrece importante cauce en esa región que de otro modo sería árida», según Anne H. Osborne.

Para Derek Vance, otro de los autores del estudio, en el que también han participado geólogos libios, se muestra por primera vez que «las lluvias monzónicas alimentaron los ríos que se extienden desde el Sahara hasta el Mediterráneo». De hecho, añade, «esos corredores rivalizaron con el valle del Nilo como rutas potenciales para las migraciones humanas hasta el Mediterráneo».

Fuente: abc.es, 15 de Octubre de 2008

 

 

-Viaje a las profundidades del MareNostrum

Lo primero que sorprende es la chocante fusión de dos mundos: lo sagrado y lo profano, lo espiritual y lo tecnológico, lo religioso y lo científico. MareNostrum, el superordenador más potente de España, se encuentra en el interior de una capilla que construyó en Barcelona una familia de nobles catalanes a principios del siglo XX, y hoy se ha convertido en un espacio desacralizado al servicio de la investigación más puntera de todo el planeta.

El superordenador 'MareNostrum' se halla en el interior de una capilla desacralizada. (Foto: Domènec Umbert)

Debido a esta insólita ubicación, cuando uno recorre las tripas de esta gigantesca computadora, impresiona el contraste entre las 40 torres metálicas que albergan sus 10.240 procesadores de última generación -capaces de realizar 94 billones de operaciones por segundo-, y la ancestral simbología cristiana que decora las vidrieras de sus muros.

«Somos conocidos en todo el mundo por nuestra potencia de computación, pero sobre todo, por el hecho que el superordenador está instalado en este lugar tan espectacular», reconoce Francesc Subirada, director asociado de este centro inaugurado hace ahora casi tres años, en noviembre de 2005. Impulsado y gestionado por un consorcio formado por el Ministerio de Ciencia e Innovación (51%), la Generalitat (37%), y la Universidad Politécnica de Cataluña (12%), el MareNostrum se ha convertido en una referencia internacional en el campo de la supercomputación.

Al adentrarnos en el interior de la instalación, lo que también impacta es el ruido: un zumbido ensordecedor que provoca el sofisticado sistema de refrigeración que bombea aire frío las 24 horas del día, para evitar el sobrecalentamiento del sistema. El 'MareNostrum' no descansa nunca: día y noche, realiza operaciones que centenares de investigadores de todo el mundo utilizan para simular toda clase de procesos con aplicaciones en disciplinas tan variadas como la biomedicina, la climatología, y la astrofísica.

«Lo que nos permite un supercomputador como el 'MareNostrum' es una gran capacidad para modelar la realidad y predecir resultados que de otra manera no podríamos obtener porque resultaría demasiado caro, peligroso o imposible realizar un experimento», explica Subirada.

Múltiples aplicaciones

En estos momentos, por ejemplo, hay equipos científicos aprovechando el potencial de esta máquina para investigar la eficacia de nuevos tratamientos para diversas enfermedades, mediante la simulación de las reacciones entre fármacos y proteínas.

Otros intentan simular los diferentes escenarios climáticos que podrían provocar los gases contaminantes que están desencadenando el calentamiento global. Y algunos incluso intentan reproducir los primeros momentos posteriores al 'Big Bang', como en el recientemente inaugurado acelerador de partículas del CERN en Ginebra, para desentrañar nuevas claves sobre los orígenes del Universo.

En el 80% de los casos, los científicos que obtienen autorización para aprovechar la capacidad de cálculo del 'MareNostrum' -tras pasar por el filtro de un comité de expertos que decide cada cuatro meses quién puede usar la máquina- pertenecen a organismos públicos de investigación para los que este servicio es totalmente gratuito. Sin embargo, aproximadamente un 20% del tiempo se reserva para empresas que alquilan la máquina para aprovechar su potencia de cálculo.

Un ejemplo notable es el de Repsol, que ya ha adoptado decisiones sobre las zonas concretas en las que va a realizar prospecciones de petróleo en el Golfo de México, basándose en las simulaciones geológicas realizadas con el 'MareNostrum'. Además, también hay empresas en los sectores de la aviación y el automóvil que están aprovechando el potencial del superdenador para desarrollar nuevos modelos de vehículos más eficientes y aerodinámicos.

«El 'MareNostrum' está permitiendo a España jugar en la primera división de la supercomputación», asegura José María Baldasano, director del Área de Ciencias de la Tierra del Barcelona Supercomputing Center (BSC) donde se ubica el ordenador. De hecho, las simulaciones que realiza este científico sobre el calentamiento global con el MareNostrum se van a utilizar para elaborar el próximo informe del Panel Intergubernamental del Cambio Climático (IPCC) de la ONU. «Esto refleja el peso científico que hemos adquirido en el mundo gracias a este proyecto», concluye Baldasano.

Fuente: elmundo.es, 15 de Octubre de 2008

 

 

-Las asimetrías de la naturaleza

Bajo el signo de la simetría y la belleza se ha concedido este año el Premio Nobel de Física a tres teóricos de partículas, Yoichiro Nambu, Makoto Kobayashi y Toshihide Maskawa. Y también bajo la interrogante e inquietante sombra de una omisión.

¿Qué es una simetría? Una transformación que deja algo igual o equivalente al original. Por ejemplo, los dos lados de una cara son geométricamente simétricos. El número 8 es simétrico bajo reflexión en un espejo: su imagen y la reflejada son idénticas. Si se gira 60 grados un copo de nieve, parecerá exactamente igual que antes del giro.

A veces las simetrías no son evidentes, están escondidas. Un ejemplo es el de una pelota en la cima de una colina. Está en un estado claramente simétrico respecto a las posibles direcciones de caída. Pero la menor perturbación la hará rodar, y si cuando la encontramos ya está abajo, quizás no nos demos cuenta de que todas las direcciones son equivalentes.

Bajo el aparente caos y arbitrariedad de la naturaleza, se esconden también simetrías. Sencillas y fascinantes simetrías que rigen las fuerzas del cosmos al nivel más fundamental. No necesariamente saltan a la vista. Nambu se dio cuenta de que algunas fuerzas que actúan sobre las partículas elementales podrían obedecer a simetrías exactas, pero ocultas: bellas simetrías escondidas que se conocen por el inapropiado nombre de espontáneamente rotas.

Nambu ideó un mecanismo de ocultación de simetrías que ha resultado esencial en el entendimiento del microcosmos, y más concretamente en la construcción del Modelo Estándar de física de partículas. Su aplicación más impactante permite que las partículas portadoras de fuerzas puedan tener masas muy diferentes y, sin embargo, ser equivalentes e intercambiables gracias a la simetría exacta subyacente. Las diferencias de masa sencillamente eclipsan la simetría. Por ejemplo, las fuerzas electromagnética y débil (cuya vertiente más conocida es la radiactividad) han sido identificadas como debidas al mismo fenómeno de base, a la misma simetría, a pesar de que sus respectivas partículas portadoras tienen masas muy diferentes y, por tanto, alcance muy diferente.

 

Toshihide Maskawa y Makoto Kobayashi- AFP / REUTERS

También la popular partícula de Higgs, esencial en el origen de la masa de todo lo vis ible y objetivo del acelerador LHC del CERN (Laboratorio Europeo de Física de Partículas, junto a Ginebra), basa su esperada existencia en una aplicación del mecanismo premiado.

Nambu, japonés nacionalizado estadounidense, ha hecho otras contribuciones espectaculares a la física teórica. Sobresale como una figura de inmensa talla científica y es el suyo un Premio Nobel indiscutible y pendiente desde hace muchos años.

La otra mitad del premio señala los soberbios trabajos de los científicos japoneses Kobayashi y Maskawa sobre otra fascinante simetría, ésta rota de verdad, que relaciona materia con antimateria y se apoya en la existencia de una tercera familia de partículas elementales. Toda la materia del universo visible está hecha de un pequeño kit básico de partículas-Lego, dos de las cuales son quarks. A ese kit básico se le llama primera familia. Sin embargo, en colisiones de alta energía se producen dos réplicas más pesadas de ese kit.

Kobayashi y Maskawa fueron quienes propusieron la existencia de la tercera familia réplica, luego confirmada experimentalmente. Además, señalaron que con tres familias en el seno del Modelo Estándar se podía violar una cierta simetría llamada CP. CP relaciona materia con antimateria, o si se prefiere cada partícula con su antipartícula.

Materia y antimateria se comportan casi igual, pero no del todo. Una partícula y su antipartícula tienen la misma masa pero carga opuesta. Obviamente, el mundo que nos rodea está hecho de materia, no de antimateria, y fue pues muy bienvenido el que la teoría que pretende explicar las interacciones básicas reflejara esa asimetría ya a nivel microscópico, en su mismo esqueleto.

Los experimentos realizados en laboratorio sobre violación de CP confirman el mecanismo premiado. Lo que sin embargo no ha explicado ese mecanismo es la asimetría materia-antimateria observada en el mundo macroscópico, es decir, cómo es que no hay traza alguna de antimateria tras la evolución cosmológica del universo posterior al Big Bang, cuando tanto en rayos cósmicos como en nuestros laboratorios producimos con facilidad tanta antimateria como materia. Es éste uno de los grandes misterios científicos que aguardan resolución. El trabajo de Kobayashi y Maskawa, aunque no lo explica, sirve de guía en tal búsqueda.

Todo ello está muy bien... si no fuera porque el mecanismo se conoce en la comunidad científica por mecanismo CKM, acrónimo de Cabibbo-Kobayashi-Maskawa. Al conocerse la noticia del Nobel para Kobayashi y Maskawa, la reacción típica de los colegas ha sido "Ah, ¡qué bien! ¡qué bien!... pero [mirada perpleja]... ¿y Cabibbo?".

Nicola Cabibbo es un gran físico italiano al que se atribuye la paternidad última del mecanismo. Allá por los años sesenta reinaba el caos en el entendimiento de las desintegraciones de muchas partículas. El tiempo y los productos de desintegración variaban mucho y de modo extraño. En medio de aquel marasmo, Cabibbo supo ver una increíble regularidad: que actuaba una única fuerza, la débil o radiactiva, y por tanto una única intensidad, pero los quarks sólo participaban combinados en mezclas particulares, en cócteles de quarks de masas diferentes. Había nacido el concepto de mezcla de familias.

Kobayashi y Maskawa sencillamente generalizaron esa idea de mezcla de Cabibbo de dos a tres familias: la tercera tiene que mezclarse con las otras dos para que haya violación de CP. Así pues, aun celebrando la muy acertada atribución del Premio Nobel a Kobayashi y Maskawa, hay una triste perplejidad por la omisión de Cabibbo. Se diría que también algo de asimetría parece haber permeado esta elección.

El comité Nobel ha significado, pues, este año trabajos teóricos fundamentales para identificar las simetrías, exactas o rotas, que describen el orden escondido de la naturaleza. Ellas son clave en la búsqueda del origen de la masa de todo el universo visible y de las mezclas entre sus constituyentes. Tal es el reto presente en física de partículas. El paso siguiente podría ser el descubrimiento de la partícula de Higgs en el LHC. Sospechamos que tras él nos aguardan nuevas simetrías apasionantes.

Fuente: elpais.com, 15 de Diciembre de 2008

 

 

-La NASA intentará que el telescopio Hubble resucite el Viernes

La NASA trabaja desde este miércoles para conseguir que el telescopio espacial Hubble vuelva a enviar información a la Tierra, según explicó la agencia espacial de EEUU ayer. Desde la avería que sufrió hace dos semanas, el que quizá sea el instrumento científico espacial más valioso permanece incomunicado. Los ingenieros de la NASA van a reconfigurar el telescopio para que comience a funcionar con su cara B o sistema de respuesto. Si todo va bien, los datos volverán a fluir desde el Hubble el viernes.

Hubble

Art Whipple, director de la oficina de gestión de sistemas del telescopio, se mostró optimista respecto al trabajo que su equipo llevará a cabo en los próximos días, pero reconoció que si fracasan, el telescopio no podría desarrollar sus principales funciones científicas hasta que llegase el equipo de reparación con el lanzamiento del shuttle previsto para febrero de 2009.

Además, en caso de que la cara B del Hubble no funcione, la misión de mantenimiento tendrá que realizar un trabajo doble, porque además de los mecanismos principales tendría que reparar los de repuesto. Si el el plan funciona, el telescopio seguirá en marcha con el equipo de repuesto, aún cuando se repare el principal.

El telescopio espacial Hubble fue lanzado hace ya 18 años y muchos de sus instrumentos siguen funcionando desde entonces.

Fuente: publico.es, 14 de Octubre de 2008

 

 

-"La enfermedad ha dejado de dar miedo al mundo desarrollado"

Una fotografía de Françoise Barré-Sinoussi, rodeada de guirnaldas navideñas y unos cuantos globos, junto a un cartel de felicitación por el Nobel recién conquistado, adorna el pasillo de entrada de la Unidad de Regulación de Enfermedades Retrovirales que dirige, en el Instituto Pasteur de París. Para la institución, que el mes pasado cumplió 120 años, el galardón a una de sus investigadoras más destacadas ha sido el mejor regalo de cumpleaños. Una demostración, quizás, de que el viejo edificio, con su aspecto un poco caótico y descuidado, alberga dentro a la flor y nata de la investigación francesa, por más que el Nobel premie un hallazgo de hace 25 años.

Barré-Sinoussi (París, 30 de julio 1947) parece disfrutar de su éxito con la misma discreción con la que ha vivido hasta ahora su anonimato de investigadora apasionada por su trabajo, pero con escasa proyección pública y prácticamente desconocida fuera de los ambientes científicos. Su marido, fallecido hace pocos meses, no ha llegado a tiempo de saborear un triunfo que sabe un poco a revancha, porque ella fue la investigadora que descubrió el Virus de Inmunodeficiencia Humana (VIH), a comienzos de 1983. Virus que más tarde sería identificado como el causante del sida. Vestida con un traje de chaqueta en tonos vainilla y ocre, y meticulosamente maquillada, Barré-Sinoussi se presenta ante la periodista con un cigarrillo en la mano, y reclama un minuto para salir a fumárselo al patio trasero del instituto.

 

La científica francesa Françoise Barré-Sinoussi- G.

Pregunta. Es usted la primera mujer francesa que recibe el Nobel de Medicina. ¿Cómo se siente?

Respuesta. Muy bien. La verdad es que la presencia de la mujer en la investigación científica ha sido muy minoritaria durante siglos, de manera que era normal esta falta de premios. Tampoco creo que haya que enfocarlo de una manera estrictamente feminista. Pero estoy encantada y, para ser sincera, muchos colegas masculinos me han felicitado efusivamente.

P. Ser mujer, ¿ha sido un obstáculo en su carrera?

R. Sí, desde luego. Sobre todo en los años ochenta. Yo era más joven y las dificultades mucho mayores. Con los años, el porcentaje de mujeres científicas ha aumentado mucho. En este trabajo se gana poco, por eso hay cada vez más mujeres. Aunque en los niveles de responsabilidad sigue habiendo pocas.

P. Los hombres tienen más exigencias económicas.

R. Históricamente era el hombre el que mantenía a la familia, el que llevaba el sustento a casa. Por eso siempre ha estado más atento a la cuestión económica.

P. En esta ocasión, en cambio, el Nobel la ha preferido a otros miembros masculinos del equipo que descubrió el virus del sida, por ejemplo, al profesor Jean Claude Chermann, con el que usted se inició en la investigación, a principios de los años setenta.

R. Ha sido un poco triste, porque empecé trabajando con él y le considero como un padre profesional. Además, formaba parte del equipo que logró ese hallazgo. Son cosas de la vida. He hablado con él y está dolido, es normal, pero al mismo tiempo está muy contento por mí. El descubrimiento del virus del sida fue un trabajo de equipo en el que participaron muchas personas, del Instituto Pasteur y de varios hospitales.

P. También usted ha esperado 25 años para recibir este reconocimiento que, hasta ahora, se le atribuía exclusivamente al profesor Luc Montagnier. ¿Cómo ha encajado tantos años de anonimato?

R. Bien. No me preocupaba en absoluto. Lo que se adapta más a mi personalidad es trabajar en mi laboratorio, o viajar a los países más afectados por el sida para ver sobre el terreno cual es la situación.

P. Dice que el descubrimiento le cambió totalmente la vida. ¿En qué sentido?

R. Me hizo darme cuenta del alcance práctico de mi trabajo. A partir de ese momento he tenido más clara la responsabilidad de mi tarea, hasta el punto de que me ha llevado a olvidarme de mi vida personal. Me he visto empujada por la urgencia de buscar fórmulas para mejorar la vida de los pacientes.

P. Veo que pertenece usted a varios comités del Instituto Pasteur, además de trabajar para la Agencia de Prevención del Sida, que publica trabajos y asiste a simposios, conferencias, etcétera, ¿de dónde saca el tiempo?

R. Duermo pocas horas, no más de cuatro, y trabajo 12 o 13 horas diarias. Nunca he considerado la investigación como una actividad profesional, para mí es una pasión.

P. ¿Es cierto que estamos bajando la guardia con el sida?

R. Hay sectores de la población con más riesgo que se están olvidando de la prevención. Y lo mismo ocurre con los jóvenes. Se habla mucho menos del sida que antes, y eso da miedo, porque la infección sigue ahí. Muchos jóvenes piensan que el tratamiento es efectivo y que no hay que preocuparse, pero, en realidad, el tratamiento no sólo es caro, es complicado y para toda la vida.

Además, con el tiempo tiene efectos secundarios serios, produce alteraciones del metabolismo. Por lo tanto, hay que prevenirse.

P. El fenómeno se produce además en el mundo desarrollado.

R. Sí, en países occidentales, como Francia o España, y es muy preocupante. Porque, además, la persona infectada por el virus tarda mucho tiempo en ser consciente de ello y eso puede dar lugar a una cadena de contagios. Por eso es fundamental el diagnóstico precoz, las pruebas, para prevenir la transmisión del virus.

P. Las instituciones internacionales se han implicado mucho últimamente en la lucha contra el sida.

R. Sí. El objetivo del fondo mundial de lucha contra el sida es que haya un tratamiento universal para todos los afectados por la enfermedad para 2010. Es un objetivo ambicioso con el que se puede soñar siempre que la ayuda financiera de los países ricos siga llegando. Si el fondo de lucha contra el sida, la tuberculosis y el paludismo sigue recibiendo este dinero, es posible alcanzar ese objetivo. Lo malo es que no sabemos lo que va a ocurrir con esos fondos con la actual crisis financiera en el mundo. Si disminuyen las aportaciones, como nos tememos, sobre todo las del Gobierno de Estados Unidos, la cosa se complica.

P. ¿En qué situación se encuentra la investigación sobre el sida en estos momentos?

R. Se han hecho muchos avances pero hay muchas cosas que no conocemos. Por ejemplo, si el virus es capaz de provocar la inmunodeficiencia, ¿por qué en ciertos sujetos esto no se produce? En cuanto a los modelos animales, tampoco sabemos por qué el mono verde no desarrolla la enfermedad pese a estar infectado por un virus muy similar al VIH. Desconocemos cuales son los mecanismos precisos de protección contra la infección. Y mientras no se conozcan será difícil encontrar una vacuna contra el sida

Fuente: elpais.com, 12 de Octubre de 2008

 

-La destrucción de la Amazonia no se frena

La Amazonía brasileña sufre de una enfermedad crónica -la deforestación- y sus médicos, las autoridades del país, no sólo no le ponen cura, sino que están ayudando a extender este virus mortal. Este es el diagnóstico que realiza el profesor de la Universidad de São Paulo Ariovaldo Umbelino de Oliveira, un experto en desarrollo agrario cuyo equipo ha sido responsable de los estudios de impacto ambiental de importantes infraestructuras en la selva.

Imagen por satélite de un área del estado de Mato Grosso en el año 200 y en el 2007 (Foto: Univ. de Sao Paulo)

"Cada año desaparecen por la deforestación 15.000 kilómetros cuadrados de selva por la explotación de la madera, la agropecuaria y la soja. Durante cuatro años conseguimos que esta cifra se redujera, pero desde 2007 ha vuelto a aumentar porque se utiliza una nueva estrategia para evitar el control gubernamental", asegura este experto, que ha visitado Madrid invitado por CosmoCaixa para participar en un ciclo de conferencias sobre un posible desarrollo sostenible en la cuenca del Amazonas (hasta el 4 de noviembre).

La estrategia a la que se refiere Umbelino de Oliveira tiene como objetivo evitar la vigilancia vía satélite, el instrumento que en los últimos años utiliza el Gobierno de Lula para saber qué áreas se están devastando, dado que, hasta ahora, las dimensiones de la Amazonia, una región de siete millones de kilómetros cuadrados, hacía imposible este control.

Consiste en que los ganaderos aprovechan para talar árboles la época de lluvias, porque las nubes tapan las cámaras de los satélites.

La deforestación afecta a tierras de titularidad pública, de las que los terratenientes se apropian ilegalmente. "La ley les favorece porque si un propietario deforesta más de lo que la ley le permite, que es un 20%, puede comprar otra tierra con el compromiso de no talarla. El problema de Brasil es que no se cumplen las leyes y que lo habitual es que eliminen hasta el 80% de los árboles", acusa el profesor.

¿Cómo es posible ese descontrol? "Pues porque los empresarios y los terratenientes presionan a diputados y senadores que, a su vez, los necesitan para mantenerse en el poder", asegura De Oliveira.

La Amazonía brasileña sufre de una enfermedad crónica -la deforestación- y sus médicos, las autoridades del país, no sólo no le ponen cura, sino que están ayudando a extender este virus mortal. Este es el diagnóstico que realiza el profesor de la Universidad de São Paulo Ariovaldo Umbelino de Oliveira, un experto en desarrollo agrario cuyo equipo ha sido responsable de los estudios de impacto ambiental de importantes infraestructuras en la selva.

"Cada año desaparecen por la deforestación 15.000 kilómetros cuadrados de selva por la explotación de la madera, la agropecuaria y la soja. Durante cuatro años conseguimos que esta cifra se redujera, pero desde 2007 ha vuelto a aumentar porque se utiliza una nueva estrategia para evitar el control gubernamental", asegura este experto, que ha visitado Madrid invitado por CosmoCaixa para participar en un ciclo de conferencias sobre un posible desarrollo sostenible en la cuenca del Amazonas (hasta el 4 de noviembre).

La estrategia a la que se refiere Umbelino de Oliveira tiene como objetivo evitar la vigilancia vía satélite, el instrumento que en los últimos años utiliza el Gobierno de Lula para saber qué áreas se están devastando, dado que, hasta ahora, las dimensiones de la Amazonia, una región de siete millones de kilómetros cuadrados, hacía imposible este control.

Consiste en que los ganaderos aprovechan para talar árboles la época de lluvias, porque las nubes tapan las cámaras de los satélites.

La deforestación afecta a tierras de titularidad pública, de las que los terratenientes se apropian ilegalmente. "La ley les favorece porque si un propietario deforesta más de lo que la ley le permite, que es un 20%, puede comprar otra tierra con el compromiso de no talarla. El problema de Brasil es que no se cumplen las leyes y que lo habitual es que eliminen hasta el 80% de los árboles", acusa el profesor.

¿Cómo es posible ese descontrol? "Pues porque los empresarios y los terratenientes presionan a diputados y senadores que, a su vez, los necesitan para mantenerse en el poder", asegura De Oliveira.

La consecuencia es mortífera para la cuenca amazónica: un 30% está en manos privadas, aunque sólo un 5% tiene títulos de propiedad legales. La situación, según los datos más recientes, es especialmente grave en los estados de Mato Grosso y Pará.

La preocupación por este inmenso pulmón del planeta, afectado por el cáncer de un desarrollo que le devora lentamente, ha aumentado con la aprobación, el pasado mes de agosto, de una nueva ley que permite regularizar áreas ocupadas ilegalmente de hasta 1.500 hectáreas de extensión. El experto brasileño comenta que se trata de "una ley inconstitucional, porque la Constitución sólo permite hasta 100 hectáreas y, por lógica, aumentará aún más el desastre". El proceso es el siguiente: los ganaderos van en busca de nuevas tierras porque las suyas se reconvierten para el cultivo de la caña de azúcar, que se paga mejor. Por ello 'okupan' tierras de la selva y talan los árboles cuando llueve. Con la venta de las maderas nobles, se ponen vallas en el terreno.

El siguiente paso consiste en eliminar toda la vegetación arbustiva para pastos o cultivos. El rico ecosistema tropical, su flora y su fauna, desaparece para siempre y se convierte en sabana. En Brasil se cultivan siete millones de hectáreas de caña de azúcar y 22 millones de soja, casi toda para exportar, según datos aportados por el investigador.

Respecto a la caña, el 55% se destina a la producción de etanol, que se utiliza como combustible para los coches. El presidente Lula lleva tiempo tratando de vender este etanol en Europa y Estados Unidos para luchar contra el cambio climático.

"En mi universidad hemos probado que el etanol produce otros gases y favorece la generación de ozono de superficie, del cual aún se desconocen las consecuencias. Sin olvidar que el 65% de la caña de azúcar se recoge tras quemarla y ello también genera CO2", argumenta el investigador brasileño.

Construcción de carreteras

Estos negocios agrarios a gran escala tienen otro impacto directo: la construcción de carreteras para sacar los productos. Es el caso de la autovía que atraviesa Mato Grosso y Pará, en cuyo informe de impacto ambiental participó De Oliveira.

Ahora, trabaja en el informe sobre otra vía planificada en Boca do Accre, al sur de la Amazonia, un área donde viven comunidades indígenas de apurinás con tierras aún no demarcadas y que se verían gravemente afectados por un proyecto cuya finalidad es transportar la carne que producen allí dos grandes empresas. Para implicarles en sus negocios, los ganaderos, explica Oliveira, les ofrecen una de cada cinco cabezas de ganado que crían. Para el investigador brasileño «se les está comprando para deforestar sus tierras».

Sin embargo, aún no ha perdido la esperanza: "Los indígenas siempre preservaron la selva. El problema son los agronegocios, que sólo han dejado un 4% de cobertura vegetal en el estado de São Paulo", recuerda.

"El Gobierno no tiene una política de control; aunque aumentó las zonas protegidas en los últimos años, no es suficiente. La solución debe pasar porque el mercado internacional deje de presionar en el consumo de materias primas de la Amazonia. Y que se entregara la tierra a los indígenas para que preserven la selva. La floresta se autoalimenta, pero si la derribamos no crecerá más".

Fuente: elmundo.es, 12 de Octubre de 2008

 

 

-Hallan bajo tierra el primer ecosistema formado por una única especie

 

Es el primer ecosistema jamás encontrado que conste de una sola especie. Fue hallado bajo 2.800 metros de sólida roca, en el corazón mismo de una mina de oro sudafricana, cerca de Johannesburgo. Su habitante único es una bacteria en forma de bastoncillo, bautizada como Desulforudis audaxviator y que es capaz de vivir en el más completo aislamiento, en la más total oscuridad, sin oxígeno y a una temperatura de 60 grados centígrados, alimentándose del hidrógeno y los sulfatos producidos por la desintegración radiactiva del uranio del terreno que la rodea.

Debido a su tremenda soledad (no se ha relacionado jamás con ningún otro ser vivo), esta auténtica heroína de la vida ha tenido que ingeniárselas para construir por sí misma las moléculas de su organismo. Y lo ha hecho sin agua, a base de carbono inorgánico y otros elementos que ha conseguido aprovechar (como el amoniaco) de las rocas de alrededor.

Durante su largo viaje de miles de años hacia las profundidades de la tierra, la evolución ha ido dotando a este extraordinario organismo con una serie de genes que le han permitido desarrollar capacidades únicas, gracias a las que ha conseguido hacer frente a un amplio abanico de condiciones hostiles.

 

Un organismo aparte

Muchos de esos genes son del mismo tipo de los que se encuentran en «archaea», un dominio de la vida recientemente descubierto, y por completo diferente a los otros dos (bacteria y eukaria, al que pertenecen todas las criaturas formadas por célunas con núcleo). El estudio, que se publica hoy en la revista Science, ha sido dirigido por Adam Arkin y Terry Hazen, del Berkeley Lab y por el Instituto de Astrobiología de la NASA.

El microorganismo fue descubierto en una muestra de roca obtenida de la mina de Mponeng, y su extraordinario genoma secuenciado y analizado con una técnica denominada «genómica medioambiental» o «metagenómica».

Una de las cuestiones que surgen al considerar la capacidad de otros planetas para albergar vida es precisamente la de saber si es posible la existencia de organismos que vivan completamente aislados e incluso sin acceso a la luz del Sol. A partir de ahora se puede responder a la pregunta con un «sí». Varios de los investigadores que han tomado parte en el estudio se han mostrado entusiasmados con la idea de que todo lo necesario para la vida pueda estar «empaquetado» dentro del genoma.

Fuente: abc.es, 10 de Octubre de 2008

 

 

-La ciencia que nos salvará de la crisis

 

Me sorprende mucho la visión que los anglosajones tienen de la ciencia, tan opuesta a la nuestra. Seguro que me corregiréis si me equivoco, pero en España, la idea de fondo  -generalizada aunque quizá no admitida- es que la ciencia es algo que está bien tener, como de adorno, pero que no tiene ninguna aplicación práctica para resolver los problemas del día a día. Es algo así como la reacción de mi madre que, ante la acumulación de libros que tomaba por completo la librería del salón, y mi defensa alengando “no son sólo libros, mamá, es cultura”, solía contestar, “si mucha cultura, mucha cultura, ¿nos dará dar de comer la cultura?” . 

Pues si. Pensamos que la ciencia no da de comer, pero los americanos y los ingleses tienen un concepto opuesto. En realidad, para ellos, la ciencia se encuentra en el origen mismo de la creación de empleo.

Sin inversión no hay innovación, sin innovación no hay creación de empleo, no hay nuevas industrias y eso quizá explica por qué en aquellos lugares no se depende del turismo como motor de la economía

Alguna (de las muchas)
organizaciones de defensa de la importancia de la ciencia (¿cuántas de éstas tenemos en España?) de Estados Unidos publicaba hace unos días una lista de las preguntas que se iban a plantear a Obama y a McClain, para medir con sus respuestas, lo adecuado de que sean presidentes. Inaudito, que las decisiones en cuestiones de nuclear-carbon y captura de carbono, si o no, nanotecnología o biología sintética puedan determinar los votos hacia un candidato. Nada que ver con nuestra realidad, donde aún utilizamos argumentos muchos más sentimentalistas, nada científicos, mucho menos empíricos y recurriemos la mayor parte de las veces a los golpes bajos (aunque de esto los americanos también son culpables).

Pero eso, si, como son los americanos, y como serían los ingleses, el documento argumentaba la importancia de la inversión en investigación básica no con razonamientos apasionados, sino con datos incontestables.

 ¿Cómo puede entonces la investigación básica contribuir en la crisis económica? Pues por que más de la mitad del crecimiento económico americano de los últimos 60 años se pueden relacionar con innovación científica y tecnológica. Asi, a bocajarro, parece difícil de creer, ¿verdad? Pues miremos a la industria biotecnológica, que tiene el potencial de generar 70 mil millones de dólares o digamos que sólo en el 2006 se crearon 553 compañías para explotar comercialmente la tecnología originada en los laboratorios..

 A los que no les sirvan estos datos hay más. Podemos tomar en cuenta ése que dice que la industria relacionada con la nanotecnología tiene el potencial de generar más de dos mil millones de dólares de beneficios, o , podemos también mirar por ahí a los muchos datos disponibles, de todos esos informes que estiman el potencial de crecimiento de todo el sector económicos relacionados con las tecnologías limpias.

Y es qué como diría Einstein.. en medio de la dificultad yace la oportunidad.. Ésta parece entonces una ocasión de oro. 

Fuente: Blog ciencia centrífuga, 9 de Octubre de 2008
 

 

-Un equipo de científicos obtiene células madre pluripotentes a partir de testículos humanos

Un grupo de científicos alemanes y británicos ha obtenido por primera vez células madre pluripotentes a partir de células espermatogónicas procedentes de testículos humanos, lo que abre nuevas posibilidades para la medicina regenerativa

En su investigación, que recoge la revista "Nature", el equipo dirigido por Thomas Skutella obtuvo resultados similares a los registrados el año pasado en un experimento con ratones, lo que confirma que está más cerca "la posibilidad de generación de células para tratamientos individuales", indica la revista.

Skutella, director del Centro de Biología y Medicina Regenerativa de Tübingen (Alemania), y sus colegas demostraron que es posible obtener células parecidas a las embrionarias de una biopsia testicular. Las células madre son células inmaduras que pueden desarrollarse en uno o más tejidos de diferentes tipos, por lo que son clave para la investigación y posible tratamiento de muchas enfermedades.  Los expertos obtuvieron las células madre a partir de la biopsia testicular realizada a 22 varones de edades entre los 17 y los 81 años. Las muestras obtenidas fueron tratadas en cultivos con varios químicos biológicos para producir células madre de línea germinal (con material genético) con propiedades pluripotentes. Posteriormente, éstas fueron separadas para producir varias líneas celulares. Tras una serie de pruebas, los expertos comprobaron que las células madre obtenidas tenían un cariotipo normal (46 cromosomas) y también los mismos marcadores presentes en las células madre embrionarias. Previamente, ya se había demostrado que las células madres germinales derivadas de testículos de ratones tenían propiedades pluripotentes.

En el caso del estudio presentado, varias pruebas clínicas demostraron que las células obtenidas eran, en efecto, capaces de diferenciar entre células nerviosas, del páncreas, musculares o de los huesos. "La generación de células madre germinales adultas de biopsias testiculares puede proporcionar un acceso simple y no controvertido a tratamientos individuales basados en células sin los problemas éticos e inmunológicos asociados con las células madre embrionarias", concluyen los científicos en "Nature". La obtención de células madres del tejido testicular abre muchas posibilidades de tratamiento individual porque, entre otras cosas, al ser el paciente el donante, habría menos riesgo de rechazo del tejido implantado.

Además, plantea menos cuestiones éticas que el uso de células obtenidas de embriones, o humanos no nacidos. Los propios expertos reconocen, sin embargo, que existe el riesgo de que los tratamientos que utilizan células inmaduras puedan causar cáncer, ya que éstas son muy similares a los tumores. De hecho, las utilizadas en la investigación dirigida por Skutella provocaron tumores cuando fueron implantadas en ratones inmunodeficientes.

Fuente: EFE, 9 de Octubre de 2008

 


 

-Investigadores comunitarios ponen en marcha un nuevo proyecto sobre fusión por láser

El proyecto, denominado HIPER («Láser de alta potencia para la investigación energética»), reúne a veintiséis socios de diez países. Además de allanar el camino para la construcción de una central eléctrica comercial basada en la fusión por láser, HIPER facilitará la investigación de algunas de las condiciones más extremas del universo, como las que se dan en el centro del Sol o en la explosión de una supernova. En el interior de las instalaciones de HIPER, la temperatura alcanzará cientos de millones de grados, la presión será de miles de millones de atmósferas y se generarán campos eléctricos y magnéticos de enorme potencia.

HIPER project



«Vivimos una época muy emocionante para la fusión», declaró el profesor Mike Dunne del Science and Technology Facilities Council del Reino Unido y coordinador del proyecto HIPER. «La Comunidad Europea ha definido una estrategia de futuro centrada en este nuevo proyecto. Veintiséis instituciones de diez naciones trabajan juntas para conseguir este objetivo, en el que se combina la ciencia de lo extremo con uno de los temas que más apremia a nuestra sociedad. La fusión no es un parche momentáneo, sino que está pensada para cubrir las necesidades de nuestra civilización a largo plazo.»

La fusión es la fuente de energía del Sol y del resto de estrellas. Se produce cuando el deuterio y el tritio (dos isótopos del hidrógeno) se unen para crear un átomo de helio, una partícula denominada neutrón y muchísima energía. Para que se produzca esta reacción, el combustible debe calentarse a millones de grados centígrados. En condiciones normales, cuando la materia se calienta también se expande y, a medida que los átomos se separan, se reduce la probabilidad de que se unan entre ellos.

Para que los átomos permanezcan juntos se debe confinar el combustible en un espacio pequeño. Una manera de conseguir este resultado es encerrando el plasma en un campo magnético o eléctrico, estrategia ésta seguida por el experimento internacional ITER, actualmente en construcción en el sur de Francia.

El proyecto HIPER ha tomado, sin embargo, otro camino. HIPER se vale de láseres para comprimir una pequeña bola de combustible de deuterio-tritio hasta conseguir una densidad muy alta. De este modo se obliga a los átomos del combustible a juntarse, lo que aumenta la probabilidad de reacción entre ellos. A continuación, el combustible se expone a un láser extremadamente potente que eleva la temperatura hasta el nivel necesario para que se produzca la fusión.

Se prevé que la fase preparatoria del HIPER continúe hasta 2011, y que se alcance un acuerdo para su construcción dos años más tarde. Los socios del proyecto confían en que su construcción comenzará poco después y se terminará en 2020.

«Los beneficios de la energía de fusión son indudables cuando la humanidad se enfrenta a los formidables retos del cambio climático, la polución, la seguridad energética y la cada vez mayor demanda de energía», declaró el profesor Dunne. «HIPER representa un paso adelante muy importante en ese sentido.»

HIPER recibe financiación del Séptimo Programa Marco (7PM) y está recogido en la hoja de ruta europea para las infraestructuras de investigación publicada en octubre de 2006 por el ESFRI (Foro Estratégico Europeo sobre Infraestructuras de Investigación).
 

Fuente: CORDIS, 9 de Octubre de 2008



 

-El Nobel de Química premia el descubrimiento y desarrollo de la proteína verde fluorescente

Osamu Shimomura, del Laboratorio de Biología Marina (Massachusetts); Martin Chalfie, de la Universidad de Columbia (Nueva York); y Roger Y. Tsien, de la Universidad de California (San Diego), han sido galardonados con el Premio Nobel de Química por "el descubrimiento y desarrollo" de la proteína verde fluorescente (GFP, por sus siglas en inglés), una de las principales herramientas de trabajo de la biociencia moderna.

Los premiados Martin Chalfie, Osamu Shimomura y Roger Tsien. (Fotos: Reuters)

La proteína GFP se observó por primera vez en la década de los 60 en la medusa 'Aequorea victoria', en la costa oeste de Norteamérica. Osamu Shimomura, nacido en 1928, fue el primero en aislarla y en descubrir que, bajo la luz ultravioleta, la proteína brillaba de color verde fluorescente.

"El descubrimiento de esta proteína fue un logro biológico digno de destacar, como han hecho ahora", señala a elmundo.es Ricardo Martínez, investigador en el campo de la Neurobiología del Instituto Cajal del Consejo Superior de Investigaciones Científicas.

El trabajo realizado por el estadounidense de 61 años Martin Chalfie, demostró su utilidad a la hora de 'iluminar' distintos fenómenos biológicos. Uno de sus primeros experimentos consistió en colorear seis células, hasta ese momento transparentes, del 'Caenorhabditis elegans', uno de los gusanos más estudiados en los laboratorios científicos. El más joven de los tres galardonados, Roger Y. Tsien, de 56 años, también dedicó gran parte de su trayectoria profesional a esta proteína. Gracias a él, el marcador puede iluminar las células y las proteínas con distintos colores, no sólo el verde fosforescente.

"El poder combinar distintos colores resulta fundamental. Por ejemplo, te permite marcar las células implicadas en un proceso y luego, en distintos colores, las que participan en una fase temprana, media o tardía", destaca Antonio Bernard, jefe del departamento de Cardiología Regenerativa del Centro Nacional de Investigaciones Científicas (CNIC).

El director del Centro Andaluz de Biología del Desarrollo del CSIC, Acaimo González, también señala otra ventaja de los diferentes colores de la GFP. "En una misma célula puedes introducir diferentes variantes para, por ejemplo, visualizar en rojo el contorno celular, en azul el núcleo, en amarillo el citoesqueleto y el verde el ADN y ver cómo se coordinan entre ellos", indica. Este investigador, que trabaja en el estudio de células madre con la mosca Drosophila, explica que en sus estudios utiliza habitualmente esta proteína para ver cómo influye el ambiente en las células troncales y cómo se comportan éstas.

El empleo de la GFP, que lleva más de una década utilizándose, "es una técnica que ha revolucionado la biología celular y molecular y forma parte de la rutina diaria completamente. Por eso nos ha sorprendido tanto el Nobel, casi te olvidas de las personas que desarrollaron la herramienta que usas tan a menudo", añade Bernard. Los tres galardonados compartirán a partes iguales las 10 millones de coronas suecas (alrededor de un millón de euros).

Investigaciones 'iluminadas' con la proteína

Por tanto, además de premiar el descubrimiento, en esta ocasión la Academia Sueca ha reconocido los trabajos posteriormente realizados con la ayuda de la GFP. En la actualidad, y desde hace aproximadamente una década, es bastante corriente que los expertos inyecten el gen que produce esta proteína para visualizar células. Gracias a ello, se han podido observar procesos hasta ahora invisibles, como el desarrollo de las células nerviosas o el movimiento de las células cancerosas.

Los investigadores suelen utilizar esta proteína como apoyo de sus estudios. Se trata de una herramienta de trabajo, no de una terapia, con la que pueden valorar la eficacia de la inserción de otros genes, cómo actúa un tratamiento a nivel biológico o cómo los vasos sanguíneos dan soporte a ciertos tumores. Según explica Ricardo Martínez, "el empleo de esta proteína resuelve muchos problemas de identificación. Dentro de la neurobiología, en el estudio del cáncer y en la biología en general es muy útil ya que permite visualizar el procedimiento biológico de incorporación de genes. Un ejemplo de su uso es en el estudio de la angiogénesis. Hay ratones transgénicos que tienen el endotelio de sus vasos marcados con esta proteína", y gracias a que sus venas y arterias presentan un tono fluorescente se puede evaluar algunos procesos tumorales.

El daño neuronal que sufren los pacientes con Alzheimer o la creación de células productoras de insulina son otros de los campos destacados por la Fundación Nobel y en los que la fluorescencia ha resultado esencial.

Aunque su uso va más allá. Tal y como señala María Montoya, jefe de la Unidad de Microscopía Confocal y Citometría del Centro Nacional de Investigaciones Oncológicas, "hoy en día se utiliza en todos los campos de la investigación sobre todo en biología celular. Además, gracias a la multitud de colores que ha conseguido Roger Tsien también se puede emplear en el estudio de plantas, ya que antes el verde fluorescente no permitía su uso en ellas".

Montoya explica que antes de su descubrimiento la única manera de observar las estructuras celulares eran tiñéndolas externamente, eran células fijadas (muertas) y manipuladas. "Ahora, con la GFP se pueden hacer estudios de microscopía en células vivas, intactas y en procesos dinámicos". Hace años, la visualización era como una foto 'fija' de las estructuras y ahora se podría decir que esta proteína permite ver el 'vídeo' en tiempo real de los procesos biológicos. Por ejemplo, en el vídeo adjunto, según explica Montoya, se puede observar la dinámica molecular de una proteasa (MT1-MMP), que desempeña un papel importante en la degradación de la matriz de los tejidos durante la invasión tumoral. "La función de MT1-MMP es clave para el desarrollo de metástasis en cáncer y la utilización de GFP nos ha permitido desenmascarar el mecanismo molecular responsable de la función pro-invasiva de esta molécula".

"En un experimento espectacular, los investigadores fueron capaces de marcar distintas células nerviosas en el cerebro de un ratón con un caleidoscopio de colores", apunta la Academia Sueca en un comunicado.

No obstante, como resalta el científico del CNIC, el potencial de esta herramienta está prácticamente sin explotar. "Sabemos dónde se encuentran las proteínas pero no conocemos las secuencias reguladoras de la mayoría, cómo se regulan, por qué se expresan de una forma u otra... Hasta que no tengamos más información de ese tipo no podremos sacar más provecho de la GFP".

Fuente: elmundo.es, 8 de Octubre de 2008

 

-Seis ordenadores pasarán el test de Turing para comprobar si "piensan"

 

Un día los ordenadores podrán mantener una conversación con nosotros como si aparentemente fueran otra persona. Quizás ese día ya ha llegado. El próximo domingo, seis programas informáticos de inteligencia artificial serán sometidos al test de Turing. Si durante cinco minutos alguno de los ordenadores que apliquen los programas genera un diálogo por escrito que no pueda distinguirse del que sería propio de una persona, se marcará un hito.

Pasar la prueba, que tiene lugar anualmente desde hace casi veinte años, significaría que la «mente» de los ordenadores ha dejado atrás su infancia para entrar en la madurez, fruto de los grandes progresos que en el campo de la inteligencia artificial se han realizado los últimos años. Según el científico Kevin Warwick, el momento de superar el test de Turing está muy cercano y bien podría ocurrir el próximo domingo en la Universidad de Reading, donde tendrá lugar la convocatoria del Premio Loebner para Inteligencia Artificial.
El test fue creado a mediados del siglo pasado por el matemático británico Alan Turing con el fin de probar la capacidad de un ordenador para pensar independientemente, tal como lo haría un ser humano, de forma que por la secuencia lógica de sus respuestas engañe a quienes lo juzgan y les convenza de que han sido dictadas por una persona. Turing había ayudado a descifrar los códigos secretos del Ejército alemán durante la Segunda Guerra Mundial, y publicó su propuesta en 1950 en la revista «Mind».
Examen a tres bandas
El domingo se pondrán a prueba seis programas de inteligencia artificial. A estas «entidades conversadoras artificiales» se les ha bautizado con los nombres de Alice, Brother Jerome, Elbot, Eugene Gootsman, Jabberwacky y Ultra Hal. Quienes les examinen se sentarán a un teclado, delante de una pantalla de ordenador dividida en dos, en la que mantendrán simultáneamente conversaciones con otros dos participantes. Uno de ellos será una persona, que no estará a la vista ni será conocida por el interrogador, el otro será un ordenador.
Si en una conversación por escrito sobre cualquier tema este último consigue burlar durante cinco minutos a quien le examina, haciéndole creer que la máquina es la que produce el otro diálogo, entonces se dará por superada la prueba. Sería la primera vez que esto ocurre. Desde 1990, el Premio Loebner para Inteligencia Artificial ofrece una medalla de oro de 18 quilates y 100.000 dólares a quienes diseñen un programa que supere el test de Turing. Aún no ha sucedido, pero «las máquinas están cada vez más cerca», advierte Warwick.
De tener éxito, se trataría de un salto similar al dado por el supercomputador Deep Blue de IBM en 1997 al derrotar al campeón mundial de ajedrez Garry Kasparov. Además, generaría preguntas de gran calado como la posibilidad de que los ordenadores tengan conciencia y, de ser así, la autoridad moral de un humano para «desenchufarlo».

Fuente: abc.es, 8 de Octubre de 2008

 

-El Nobel de Física premia la teoría que cambió la comprensión del universo

El universo, sencillamente, no existiría si las leyes de la naturaleza fueran perfectamente simétricas. Hace casi 14.000 millones de años, durante el Big Bang, cuando surgió todo lo que podemos observar hoy, una pequeña «ruptura de la simetría» inicial hizo posible que la materia se desarrollara y adquiriera las formas que nos son familiares ( planetas, estrellas, galaxias...).

En principio, y según hemos ido aprendiendo la manera en que funcionan las cosas, en el momento de la gran explosión se debería de haber creado exactamente la misma cantidad de materia que de antimateria. Y debido al hecho de que ambas, cuando entran en contacto, se aniquilan mutuamente, el resultado lógico es que toda la materia que vemos no debería de existir.

Sin embargo, el hecho mismo de que estemos aquí demuestra que, por alguna razón, en el origen hubo un ligero «exceso» de materia con respecto a la antimateria. En una proporción mínima (cerca de un átomo por cada 10.000 millones), pero suficiente para dar cuenta de todo lo que existe. Cuando toda la materia se destruyó al interactuar con la antimateria, ese pequeño «sobrante» dio origen al universo en el que vivimos. Después, y gracias a otra asímetría (esta vez en la temperatura), esa materia sobrante se fue concentrando en puntos privilegiados del joven universo en expansión, dando lugar a estructuras cada vez más y más complejas.

Ayer, más de tres décadas después de que el norteamericano Yoichiro Nambu, de origen japonés, se diera cuanta de ese hecho fundamental, la Academia sueca le otorgó, precisamente por ese motivo, el Nobel de Física de este año. Un premio, por cierto, compartido con otros dos científicos japoneses, Makoto Kobayashi y Toshihide Maskawa, cuyo trabajo, partiendo de las premisas sentadas por Nambu, les llevó a postular la existencia de tres familias de quarks, los «ladrillos fundamentales» de los que toda la materia está hecha.

Las partes del átomo

Gracias a su trabajo, la imagen clásica de un átomo constituido por un núcleo pesado (protones y neutrones) rodeado por una nube de electrones dejó paso a otra en la que también los protones y los neutrones se pueden dividir en partes. De hecho, cada una de estas partículas es la suma de tres quarks diferentes. «Nambu tuvo las extraordinarias ideas básicas. Los otros dos se encargaron luego de un problema irresoluto», dijo ayer Lars Brink, que forma parte del Comité Nobel. A Nambu, de 87 años, le fue concedida la mitad del galardón de diez millones de coronas (un millón de euros) por el descubrimiento del mecanismo de ruptura espontánea de simetría en la física subatómica. El estadounidense trabaja en el Instituto Enrico Fermi de la Universidad de Chicago. La otra mitad del premio la comparten Kobayashi, de 64 años, y Maskawa, de 68. Kobayashi es profesor emérito de la Organización de Investigación de Aceleradores de Alta Energía (KEK) de Tsukuba; mientras que Maskawa, también retirado, trabajó en el Instituto Yukawa de Física Teórica (YITP) de la Universidad de Kyoto. Se espera que, entre otras cuestiones, el gran acelerador de hadrones (LHC) pueda explicar en el futuro la razón de esta asimetría entre materia y antimateria.

Fuente: abc.es, 8 de Octubre de 2008

 

-Nobel de medicina para los descubridores del SIDA y el papiloma humano

Françoise Barré-Sinoussi, en una foto de archivo tomada en el Instituto Pasteur de París en 2003- REUTERS

 

Herald zur Hausen. EFE

 

Luc Montagnier, en una foto de archivo tomada en junio de 2004- EFE

 

El Instituto Karolinska de Estocolmo ha distinguido con el Nobel de Fisiología o Medicina 2008 a tres investigadores consagrados a la lucha de enfermedades que afectan a millones de personas en todo el mundo. Se trata de tres virólogos, el alemán Harald zur Hausen y los franceses Françoise Barré-Sinoussi y Luc Montagnier. El primero de ellos ha sido premiado "por su descubrimiento de los virus del papiloma humano causantes del cáncer cervical" o también llamado de útero, el segundo cáncer más común entre las mujeres. Los dos científicos franceses han sido reconocidos "por su descubrimiento del VIH", el agente causante del síndrome de inmunodeficiencia adquirida (SIDA).

Tras la detección de los primeros casos de sida en 1981 en EE UU, numerosos equipos de científicos comenzaron a buscar el agente culpable de la enfermedad. Dos años después, en 1983, un grupo de especialistas del Instituto Pasteur de París liderado por Françoise Barré-Sinoussi y Luc Montagnier descubrieron el virus causante del sida a partir del análisis de los hinchados ganglios linfáticos de pacientes severamente inmunodeprimidos. Barré-Sinoussi y Montagnier definieron el virus encontrado como lymphadenopathy-associated virus (virus asociado a la linfoadenopatía, LAV), que después recibiría el nombre definitivo de human immunodeficiency virus (virus de la inmunodeficiencia humana, VIH).

La Academia sueca destaca que nunca antes la ciencia había logrado en tan corto espacio de tiempo encontrar el origen de un síndrome que devino en pandemia. Esto ha permitido determinar el comportamiento del virus, el diagnóstico de la enfermedad y limitar la expansión del sida gracias al desarrollo de antivirales, que han posibilitando que, actualmente, la esperanza de vida de las personas con sida sea prácticamente la misma que la de aquellas sin el virus. Los científicos creen que el VIH pasó de los chimpancés a los humanos en el oeste de África a principios del siglo XX, aunque lo que no se sabe aún es por qué se extendió tan rápidamente a partir de 1970.

Espaldarazo a Montagnier respecto a Gallo

En la actualidad, Françoise Barré-Sinoussi, nacida en 1947, trabaja en el departamento de Virología del Instituto Pasteur de París. Luc Montagnier, nacido en 1932, forma parte de la Fundación Mundial para la Investigación y Prevención del Sida de París.

El Nobel es un espaldarazo a Montagnier en la polémica sobre la paternidad del hallazgo del virus que durante la década de los 80 mantuvo con el estadounidense Robert Gallo. Ambos sellaron la paz años más tarde para unir esfuerzos en la lucha contra la pandemia, después de que Gallo admitiera la paternidad francesa. Montagnier y Gallo compartieron en 2000 el Premio Príncipe de Asturias de Investigación Científica y Técnica por sus trabajos sobre el VIH.

En contra de las teorías dominantes en la década de 1970, Harald zur Hausen (Gelsenkirchen, 1936), quien actualmente preside el Centro de Investigación de Heidelberg, postuló que el virus del papiloma humano (HPV, por sus iniciales en inglés) jugaba un importante rol en el desarrollo del cáncer cervical, el segundo más común entre las mujeres. A partir de estudios con liebres, el investigador alemán logró aislar dos cepas del virus del papiloma humano implicadas en el 70% de los tumores de cuello de útero. Sus descubrimientos permitieron el desarrollo de la vacuna contra el papiloma humano, en el mercado desde 2006.

El premio de Medicina está dotado con diez millones de coronas suecas (un millón de euros) y, como el resto de galardones Nobel, se entregará el próximo 10 de diciembre, aniversario de la muerte de su fundador, Alfred Nobel. Los tres galardonados hoy suceden a los genetistas Mario Capecchi, Oliver Smithies y Martin J. Evans, premiados en 2007 por sus descubrimientos relacionados con las células madres embrionarias y la recombinación del ADN en mamíferos. Zur Hausen se llevará la mitad de los diez millones de coronas con que está dotado el galardón, mientras que los dos franceses se repartirán la otra.

El anuncio del Nobel de Medicina abre la ronda de estos prestigiosos premios, que continuará esta semana, día a día, por este orden, con los de Física, Química, Literatura y de la Paz; y finalizará el próximo lunes día 13 con el de Economía.

Fuente: elpais.com, 6 de Octubre de 2008

 

-Punto de mira: La Tierra

Algo, tal vez el sentido común, induce a creer que deben existir numerosos equipos de científicos dispersos por el mundo, manejando equipos sofisticados con el fin de detectar y prevenir la posible colisión de algún asteroide con la Tierra. Pero la realidad es diferente; según declaraba a National Geographic el astrónomo del Centro Ames de la NASA, David Morrison, “el número de expertos trabajando en esto apenas cubriría un par de turnos en un McDonald’s”.

Recreación de una colisión ficticia con un objeto de 500 kilómetros, unas 50 veces mayor que el que pudo

 aniquilar a los dinosaurios. DON DAVIS/NASA

Este posible agujero en la seguridad del planeta no tiene visos de disminuir a corto plazo. De hecho, una de las instalaciones que ejercen esta vigilancia, el gigantesco radiotelescopio de Arecibo, en Puerto Rico, sufre amenaza de cierre por falta de fondos. Y todo ello sobre un mar de fondo de controversia acerca del riesgo real de que el asteroide Apophis, un vecino incómodo y caprichoso, decida por fin hacer carambola con la Tierra en 2036.

¿Existe un verdadero riesgo? El director de la agencia rusa del espacio Roskosmos, Anatoly Perminov, no lo duda: “el problema existe realmente”, declaraba el mes pasado en entrevista al diario Krasnaya Zvezda. Cada día los telescopios detectan uno o dos de los llamados objetos cercanos a la Tierra (NEO, por sus siglas en inglés), aunque la mayor parte de ellos son demasiado pequeños como para representar una amenaza. Actualmente la NASA sigue la pista a 209 de esos objetos.

Pero los científicos estiman que un objeto de gran magnitud colisiona con la Tierra cada 200 a 1.000 años y que en los próximos 15 años podría detectarse una amenaza potencial. La última ocasión fue en 1908, cuando un meteorito explotó sobre la región siberiana de Tunguska con la potencia de 1.000 bombas de Hiroshima, arrasando 2.150 kilómetros cuadrados y derribando 80 millones de árboles; una broma frente a un posible impacto de Apophis, que sería entre 30 y 100 veces mayor.

Colaboración internacional 

En sus declaraciones, Perminov urgía a una “amplia colaboración internacional en el marco de Naciones Unidas”. La sugerencia no era una flecha al aire, sino un testimonio de adhesión a una iniciativa ya en marcha, la de la Asociación de Exploradores del Espacio (ASE, por sus siglas en inglés). Se trata de una organización formada por más de 300 personas de 34 países, que cumplen el único requisito exigido para afiliarse: haber completado al menos una órbita alrededor de la Tierra en una nave espacial.

Entre otras actividades, la ASE cuenta desde 2005 con un comité dedicado a los NEO. Con el fin de analizar el problema, este comité designó un panel multidisciplinar internacional para la mitigación de amenazas de asteroides. El grupo de trabajo se ha reunido en cuatro ocasiones en los dos últimos años. El resultado es un informe, Amenazas de asteroides: un llamamiento a la respuesta global, que se presentó hace unos días en San Francisco (EEUU), y que se entregó al representante del Comité para Usos Pacíficos del Espacio Extra Atmosférico de Naciones Unidas, con el fin de que el contenido sea debatido en las reuniones que este organismo mantendrá el próximo año en Viena (Austria).

El documento aborda la cuestión desde distintos ángulos. Según la miembro del panel Karlene Roberts, experta en comportamiento organizativo de la Universidad de California (EEUU), “este no es un problema astronómico. Es un problema financiero, contable, internacional, organizativo, político y que debe resolverse por la unión de entidades públicas y privadas”.

En la presentación del informe, el director del comité NEO de la ASE, el astronauta del Apolo 9 Rusty Schweickart, alertó de que “en cierto sentido, estamos conduciendo por el universo sin seguro”. Mencionando el impacto de un asteroide en Yucatán que provocó la extinción del 70% de la vida en la Tierra hace 65 millones de años, Schweickart añadió que “hasta que no tengamos una respuesta preparada, somos tan vulnerables como los dinosaurios”.

Tres niveles de trabajo

El informe de la ASE se centra en tres aspectos: la puesta en marcha de una red de información, análisis y alerta; un grupo de operaciones y planificación de misiones para proponer y designar la manera más adecuada de desviar el NEO; y por último, la creación de un panel intergubernamental en la ONU –al estilo del que ya existe contra el cambio climático– para que supervise las funciones anteriores, establezca las directrices y someta las recomendaciones de acción al que debería ser el órgano de decisión: el Consejo de Seguridad.

Según explica la ASE, los dos primeros elementos, que se refieren a la capacidad para prevenir un desastre, existen en cierto grado. Entre otras iniciativas, el proyecto Don Quijote, de la Agencia Europea del Espacio, planea un sistema compuesto por dos sondas, Hidalgo y Sancho, que se repartirían las tareas de desviar el asteroide y vigilar su trayectoria. Pero falta el tercer aspecto; la comunidad internacional carece de la organización necesaria para articular esa capacidad.

El precio de llevar el programa a la práctica, calcula la ASE, sería de 500 millones de dólares. Una cifra razonable si se trata de preservar la única vida en el universo de cuya existencia podemos dar fe.

Fuente: publico.es, 6 de Octubre de 2008

 

-Los siete magníficos

El matemático y pensador Bertrand Rusell escribió en su libro Historia de la Filosofía Occidental que "la ciencia debe poner límites al conocimiento, pero no a la imaginación", y lo cierto es que lo que se sabe del Universo, de su materia y energía, se basa en más de un 95% en hipótesis y teorías todavía sin demostrar. ¿Qué es la materia oscura? ¿Cuál el origen de los rayos cósmicos? ¿Viven los protones para siempre? Preguntas fundamentales para la física de astropartículas, a las que los científicos europeos pretenden dar respuesta con una ambiciosa estrategia a 10 años vista presentada esta semana en Bruselas.
 

En esta hoja de ruta, en la que se ha trabajado durante dos años, se presentan los siete experimentos que permitirán avanzar en el estudio de los mensajeros cósmicos. Los proyectos, bautizados como Los Siete Magníficos por Aspera, la red europea de agencias nacionales de física de astropartículas, incluyen un telescopio de neutrinos que ocuparía un kilómetro cúbico en el mar Mediterráneo, una instalación subterránea de un megatón (mil toneladas) para determinar la vida media del protón y comprobar si se desintegra, o una colección de 100 telescopios para detectar rayos gamma de alta energía.

Otro de los experimentos ayudaría a descubrir las ondas gravitacionales, cuyo concepto acuñó Albert Einstein. De la Teoría de la Relatividad del genial científico, se desprende la existencia de estas ondas, de las que sólo se tiene constancia de manera indirecta, y que se producen en el seno de la deformación del espacio y del tiempo que provocan grandes cataclismos, como el colapso de una galaxia o una supernova.

"Además de comprobar el sueño de Einstein, estos experimentos nos permitirían dar un paso de gigante en el conocimiento del Universo, su origen, su evolución o su destino", asegura Antonio Ferrer, catedrático de Física Atómica Molecular y Nuclear de la Universidad de Valencia y representante del Ministerio de Innovación en la reunión. Ferrer destaca que la física de astropartículas es relativamente reciente como disciplina y que los medios para su investigación son muy costosos.

Imagen del telescopio usado para el proyecto 'Magic' para el estudio de rayos Gamma. - ASPERA/R. Wagner

 

El estudio de los mensajeros cósmicos requiere grandes infraestructuras: kilómetros de túneles subterráneos, enormes telescopios, una cuenca de un millón de litros de agua... Además de estas construcciones, algunos materiales, como el germanio, son caros y escasos. La estrategia europea prevé el incremento paulatino de su presupuesto, desde los 70 millones al año actuales hasta los 140 millones en un decenio, pero hay algunos experimentos que solo podrán costearse con la colaboración de otras potencias tecnológicas, como EEUU o Japón.

"Aunque existe una competición innegable, los europeos estamos de acuerdo con otros investigadores en la hoja de ruta a medio plazo y en que de la coordinación saldrán los descubrimientos", asegura Arnaud Marsollier, del CERN, la Organización Europea para la Investigación Nuclear.

Marsollier prevé "comenzar dos de los experimentos más ambiciosos [los que estudiarán los rayos gamma y los neutrinos] en 2012". "Y para ello necesitamos financiación", añade. Para Ferrer, esto no será fácil: "Los científicos proponemos, pero luego los gobiernos nos imponen las rebajas".

Aplicaciones prácticas

"La nueva ventana al Universo nos permitirá conocer algo más de los confines de lo real, pero también de nosotros mismos, aunque ahora no parezca evidente", sostiene Ferrer, quien resalta que una inversión tan grande no va destinada a "investigar por investigar.

Si hablamos de aplicaciones concretas para la vida de los ciudadanos, no debemos olvidar que en centros como el CERN, considerado inicialmente por algunos como un agujero negro de dinero, han salido la World Wide Web o algunos tratamientos para el cáncer", recalca Y advierte: "El problema es que, como no sabemos muy bien qué nos vamos a encontrar, no podemos hablar por el momento de aplicaciones más allá de un conocimiento y explicación del Universo".

Una vez solucionada la financiación de Los Siete Magníficos, habrá que ponerlos sobre el mapa, lo que "causará muchos dolores de cabeza a los Estados miembros que optan a albergarlos", según Marsollier.

En España, ya se investiga en experimentos de menor envergadura, pero que preparan el camino. Uno de ellos es Magic, en el observatorio Roque de los Muchachos de La Palma. Allí se han instalado dos telescopios Cherenkov que analizan los rayos gamma de alta energía, que sirven para estudiar aspectos de la física fundamental o la cosmología, en particular, la evolución del Universo. Uno de estos telescopios cuenta con el mayor espejo del mundo y descubrió este verano la emisión de rayos gamma en la galaxia 3C 279, situada a más de 5.000 millones de años luz de la Tierra (casi la mitad del radio del Universo).

Las prioridades científicas parecen estar claras, a tenor del consenso internacional, pero el desarrollo de la estrategia para los próximos 10 años, que exige la voluntad política de duplicar el presupuesto europeo actual, plantea por el momento casi tantas incógnitas como el propio origen del Universo.

De la materia oscura, a las ondas gravitatorias 

Conocer los neutrinos

Dos de los experimentos incluidos entre ‘Los Siete Magníficos' tienen que ver con el estudio de los neutrinos, unas partículas subatómicas de las que se desconoce la masa y que pasan a través de la materia sin prácticamente modificarla. Uno de ellos es el KM3NeT, un enorme telescopio de un kilómetro cúbico de tamaño que se ubicará en el mar Mediterráneo para detectar neutrinos.

El megatón

¿Cuánto puede vivir una partícula como el protón? ¿Es cierta la teoría de la gran unificación? Otro de los experimentos, el megatón para la desintegración de los protones, pretende comprobar la validez de la teoría de la gran unificación, que asegura la convergencia de tres de las cuatro fuerzas fundamentales en la naturaleza: la gravitatoria, la electromagnética, la nuclear fuerte y la nuclear débil.

Confirmar a Albert Einstein

Cuando Einstein formuló la Teoría General de la Relatividad, adelantó un amplio número de fenómenos relacionados con la curvatura del espacio-tiempo. Aunque la mayoría han sido confirmados a lo largo del tiempo, la emisión de las ondas gravitacionales se ha resistido a ser explicada. La planeada antena gravitatoria subterránea de tercera generación permitiría detectar las ondas gravitacionales acuñadas por el físico y que se derivan de grandes explosiones en el Universo (como la colisión de una galaxia). Para ello, harían falta tres túneles de al menos dos kilómetros de longitud.

Rayos gamma

Partiendo de los resultados aportados por el experimento ‘Magic', desarrollado en la isla española de La Palma a menor escala, la hoja de ruta quiere poner en marcha al menos un centenar de telescopios Cherenkov, destinados a detectar y estudiar rayos gamma de alta energía procedentes del espacio.

Detección de rayos cósmicos

Desde que en 1911 el austríaco Victor Hess hiciera un experimento con grandes globos que detectaron nuevos rayos cósmicos, no se ha conseguido saber más sobre su origen o cómo se mueven. Se trata de las partículas de mayor energía jamás observadas. El telescopio Auger, en la Pampa argentina, y su gemelo en Colorado (EEUU) están aportando mucha información sobre este tipo de radiación.

Materia oscura

La materia oscura recibe su nombre por el desconocimiento científico de su contenido exacto. La tecnología actual debería ser sustituida por varios grandes detectores que usaran gases nobles -como el xenón y el argón- en estado líquido o cristales criogénicos. Esto aumentaría la sensibilidad de detección en tres grados de magnitud,
lo que podría ayudar a arrojar luz sobre la materia oscura. 

Fuente: publico.es, 3 de Octubre de 2008

 

-Científicos españoles diseñan un chip para medir el viento solar

El viento de Marte se analizará en el futuro con tecnología española. Un equipo de investigadores de la Universidad Politécnica de Cataluña (UPC) ha diseñado el primer chip fabricado íntegramente en nuestro país destinado a medir el viento del planeta rojo. Esta es la pieza clave del anemómetro que incorpora una estación meteorológica desarrollada por científicos españoles para el vehículo Mars Science Laboratory (MSL) de la NASA, cuyo lanzamiento está previsto para el otoño de 2009.

El rover o vehículo robotizado MSL servirá para investigar si el entorno marciano es o ha sido propicio para el desarrollo de algún tipo de vida. Entre los instrumentos que lleva se encuentra la estación meteorológica REMS (Rover Environment Monitoring Station), que medirá la temperatura del aire y del suelo, la presión atmosférica, la radiación ultravioleta y la humedad, así como la velocidad y dirección del viento, con el chip diseñado por los ingenieros españoles. Los detalles de esta aportación científica han sido publicados recientemente en la revista 'Planetary and Space Science'.

Luis Castañer, coordinador del Grupo de Micro y Nano Tecnologías de la UPC que ha desarrollado la pieza, explica que este chip es más eficiente en términos energéticos que los desarrollados anteriormente, y por primera vez se utiliza tecnología de silicio para esta aplicación en el espacio.

Cada chip o dado de silicio mide 1,5 milímetros de lado e incorpora tres elementos de platino sensibles a la temperatura: uno mide la temperatura del chip, otro lo calienta unos 25º C por encima de la temperatura ambiente, y el tercero ajusta las características del sensor de viento. El chip también lleva grabado el nombre de sus creadores.

El principio físico utilizado por los ingenieros para medir el viento es el conocido como anemometría por punto caliente. Castañer, académico de la Real Academia de Ingeniería (RAI), recuerda que tradicionalmente el viento se mide con una técnica en la que se calienta un hilo, el aire lo refrigera haciendo variar su temperatura, y esto permite establecer relaciones con la velocidad del aire.

Diseño del futuro vehículo "Mars Science Laboratory" de la NASA. Foto NASA

"En el caso del chip, el punto caliente no es un hilo, sino el dado de silicio calentado por una fina película que está sobre él y que actúa como resistencia para calentar", señala el investigador.

Búsqueda de vida

El Grupo de Micro y Nano Tecnologías (MNT) ha patentado un sistema que permite averiguar la magnitud del viento y su dirección en un plano utilizando cuatro chips colocados sobre una placa en dicho plano, y tomando como referencia la temperatura ambiente que mide con un quinto chip idéntico a los otros cuatro.

Utilizando esta metodología se puede medir la velocidad del viento en 2D, pero se puede deducir la velocidad en 3D poniendo tantas placas como se necesiten. La estación meteorológica REMS incorpora 6 sensores de viento, con 5 chips de silicio cada uno, situados en el extremo de dos plumas o 'booms' y separados en un ángulo de 120 grados.

El MSL realizará cuatro tipos de investigaciones. Por un lado, estudiará el potencial biológico del entorno, inventariando los elementos químicos fundamentales para la vida y detectando la presencia de compuestos orgánicos. Por otro, caracterizará la geología y geoquímica de la región, analizando la composición de la superficie de Marte e interpretando los procesos que han formado o modificado sus rocas.

Los instrumentos del vehículo también servirán para investigar la radiación superficial y algunos procesos atmosféricos, como en los que interviene el agua, que pudieran ser relevantes para determinar si en el pasado pudieron existir seres vivos en el planeta rojo.

Fuente: elmundo.es, 3 de Octubre de 2008

 

 

-Un viaje a los orígenes del SIDA

Hasta ahora se pensaba que el sida empezó en África, concretamente en el sureste de Camerún, cuando la primera temida cepa del virus saltó de los chimpancés al hombre. Se creía, además, que esto ocurrió alrededor de la tercera década del siglo XX. Nuevos estudios acreditan que el brote original es bastante anterior, de entre 1894 y 1924, y que en la consolidación de la pandemia fueron clave los primeros núcleos urbanos fundados por el hombre blanco en el Continente Negro. Concretamente la ciudad que entonces se llamaba Léopoldville y que ahora conocemos por Kinshasa, capital de la República Democrática del Congo.

Kinshasa es la tercera ciudad más importante de África, por detrás de Lagos y El Cairo y empatada con Johannesburgo. Tiene 7,5 millones de habitantes y se encuentra a orillas del río Congo, mirando cómo en la otra orilla se yergue la capital del «otro» Congo, Brazzaville. La capital de un país casi se toca con la del otro. Esta tradición de encrucijada le viene de lejos, de cuando Léopoldville (llamada así porque entonces el Congo pertenecía a Bélgica) fue fundada en 1881 precisamente como un punto de intercambio comercial. Allí estuvo el primer puerto navegable al norte de las Cataratas Livingstone. En 1998 el advenimiento del ferrocarril redobló su potencial estratégico.

Por desgracia no era estratégico sólo para las mercancías. Según dos estudios que esta semana publica Nature, Léopoldville fue el primer epicentro mundial de contagio del sida. Allí un virus todavía incipiente tuvo la posibilidad de echar el ancla en organismos humanos muy variados y, sobre todo, muy móviles.

«Se transmite mal»

¿No habría sida sin colonización y urbanización africana? El doctor Michael Worobey, de la Universidad de Arizona, que ha dirigido el estudio, subraya que el virus de inmunodeficiencia humana (VIH) más extendido como causa del sida tiene muchos puntos fuertes que lo hacen aún inatacable: sólo entre cuatro y diez días después de la infección ya es capaz de interferir la capacidad inmunitaria y de crear profundas reservas en el organismo, se diversifica enormemente... Una vez dentro del cuerpo es casi invencible. Pero en cambio su punto débil más curioso es que le cuesta más entrar que a otros virus. «Se transmite mal», afirma Worobey.

Aunque no es esta una idea en la que se insista mucho para no relajar las alertas sanitarias, los versados en la materia como Worobey sí son conscientes de lo que esto puede significar. Por ejemplo, que sin las primeras aglomeraciones urbanas de África el VIH quizás no se habría hecho tan fuerte.

De la zona de Kinshasa son las dos muestras cuidadosamente analizadas por el equipo de Worobey. Son las más antiguas de las que se tiene noticia y datan de 1959 y 1960, que es cuando la pandemia empieza a detectarse. La amplia gama de síntomas posibles y la alta mortalidad en África por muchas otras razones retrasaron la identificación de la amenaza.

Desde entonces está acreditada la infección en todo el mundo de 60 millones de personas. La mitad de ellas han muerto. Aunque farmacológicamente la enfermedad ya se controla y la infección se mantiene a raya, nadie ha podido aún encontrar una vacuna total, y sobre todo que atienda a las distintas poblaciones y hasta nacionalidades del virus.
Dos muestras analizadas
Worobey busca las fuentes del Nilo de esta enfermedad explorando muestras de tejidos humanos infectados y comparándolas con cepas del virus original de los chimpancés. Las dos muestras disponibles fueron tratadas con nuevas técnicas capaces de trazar el árbol genealógico hasta la cepa, con una rama para cada mutación. La conclusión fue que el virus original de los chimpancés era el común ancestro de ambas muestras, cuyas respectivas mutaciones estaban separadas por unos cuarenta años de historia del virus.
Es la primera vez que se aplican técnicas casi de resucitación genética a muestras de tejidos infectados tan antiguas, es decir, mucho más cercanas al foco primigenio de la infección. Hasta ahora no se había pasado de muestras de los años setenta, lo cual añadía grandes dosis de incertidumbre a los resultados.
No es que las conclusiones de este estudio sean en sí esperanzadoras. Pero proyectan una mirada mucho más directa sobre el largo y casi clandestino proceso de maduración de esta enfermedad. También abre una puerta a preguntarse qué otra clase de pandemias no estarán siendo calladamente incubadas por la Humanidad en este preciso minuto, y si podrán ser detectadas antes de que sea demasiado tarde.

Fuente: ABC.es, 2 de Octubre de 2008

 

-Un ratón con células madre inducidas

 

Si el trabajo con células madre es complicado, cuando se mezcla con la manipulación genética puede convertirse en un arma de doble filo. Pero eso no quiere decir que no merezca la pena intentarlo. Eso es lo que han hecho investigadores de la Universidad de Harvard, que han ideado un sistema para fabricar células madre adultas activando otras normales introduciéndoles genes con un virus.

El resultado es un tipo poco explotado de células madre, las llamadas inducidas para diferenciarlas de las adultas (se encargan de regenerar músculos, huesos y otros tejidos en las personas ya desarrolladas) y las embrionarias (evolucionan en las primeras dos semanas de gestación para luego diferenciarse en todos los órganos de un ser humano). Para conseguirlas, los investigadores, liderados por Mathias Stadfeldt, han utilizado fibroblastos y células hepáticas. El cambio lo han conseguido poniéndolas en contacto con virus que les transmitan los genes necesarios para convertirlas en células pluripotentes (el equivalente a las madre adultas), sin infectarlas realmente.

La técnica evita algunos de los efectos secundarios asociados a intentos anteriores. Además, son útiles -o se espera que lo sean- para tratar muchos tipos de enfermedades, desde las neurodegenerativas (parkinson, alzhéimer) a las traumáticas (paraplejias) o para regenerar los glóbulos blancos destruidos después de un agresivo tratamiento contra el cáncer, por ejemplo.

Para empezar, el virus (llamado vector porque lleva la información genética clave) se puede eliminar fácilmente y se evitan las posibles enfermedades transmitidas por éstos. También se controla mejor qué información se introduce en las células, y su crecimiento posterior. Así se evita el segundo gran obstáculo habido hasta ahora cuando se han intentado fabricar células madre. Lo que las hace útiles es, precisamente, su capacidad para reproducirse en ciertas condiciones.

Pero, hasta ahora, los intentos de utilizar estas aplicaciones en personas se han encontrado con un obstáculo: al colocar en una zona lesionada células madre, éstas, estimuladas por las condiciones del entorno, tienden a proliferar. El resultado puede ser un tumor, lo que da al traste con sus aplicaciones terapéuticas.

Con el nuevo método, los científicos han conseguido, en ratones, células pulmonares, cardiacas e incluso neuronas, sin que se haya producido la temida proliferación descontrolada ni la infección por el virus utilizado como vector de transmisión del material genético, según han publicado en Science Express, la versión digital de la prestigiosa publicación.

 

De esta manera, han abierto la puerta a una nueva vía para regenerar tejidos, aunque los propios investigadores señalan que todavía es pronto para saber si podrán competir con las otras dos fuentes de células madre: las obtenidas directamente de adultos, menos capaces de transformarse pero con un funcionamiento más natural, o las de embriones, versátiles aunque más difíciles de controlar.

Lo que importa, de momento, es que se abre otra posibilidad para la ciencia, y que el método tiene otras aplicaciones. El uso de microorganismos como los adenovirus es una de las opciones más perseguidas para conseguir vacunas avanzadas (por ejemplo, en el caso del sida) o terapias génicas, aunque no se haya conseguido todavía controlarlos al 100%.

Fuente: elpais.com, 1 de Octubre de 2008

 

 

-El aniversario más austero de la NASA

A lo largo de sus cincuenta años de historia, la NASA ha pasado de ser un interés prioritario del Gobierno de Estados Unidos y ser una agencia costosa de mantener, cuyos proyectos quedan aplazados por falta de presupuesto.

La Administración Nacional de Aeronáutica y del Espacio (NASA) celebra hoy, entre noticias sobre el aplazamiento de la misión del transbordador espacial Atlantis, medio siglo de existencia con una larga lista de misiones y exitosos lanzamientos espaciales. Sin embargo, la NASA no atraviesa uno de sus mejores momentos. Durante los últimos años, la agencia espacial estadounidense ha tenido que luchar con uñas y dientes para conseguir lo más importante: dinero. En 1958 su presupuesto fue de 500 millones de dólares (cifra actualizada según la inflación de 2007) y alcanzó la cima en 1967 con 29.7000 millones de dólares, cuando la NASA todavía perseguía el sueño del presidente John F. Kennedy de llevar a un hombre a la Luna.

El impresionante gasto militar de EEUU ha querido que el dinero cambie de manos y la agencia espacial tendrá que conformarse con 17.614 millones de dólares para financiar sus misiones en 2009. Aunque la cifra es elevada, este nuevo presupuesto prácticamente anula todo el programa de exploración marciana que estaba previsto para la próxima década y lo deja en una situación incierta. La comunidad científica no ha tardado en expresar su malestar a la Administración Bush que ha obligado a la NASA a desarrollar nuevos cohetes y naves para ir a la Luna, pero no la ha dotado de dinero para hacerlo.

El presupuesto destinado a la investigación científica ha caído a 264,7 millones de dólares, creciendo solamente un 1% en relación al del año pasado. Este dato resulta alarmante si se tiene en cuenta que este tipo de estudio es esencial para la evolución de la sociedad. "La investigación espacial ha permitido mejorar el conocimiento de la física de una manera brutal. Además, muchas de las tecnologías que se han desarrollado para las misiones espaciales terminan aplicándose en la Tierra, como ha sucedido en la medicina", explica Andrés Ripoll, ingeniero aeronáutico de la NASA durante programa Apollo y miembro de la Real Academia de Ingeniería. "Unos 50.000 sistemas han sido patentados y más de la mitad han sido utilizados para mejorar la sanidad", añade.

Quizá la entrada de China en la carrera espacial –el lunes el gigante asiático recibió como héroes a sus tres taikonautas tras realizar el primer paseo espacial de su historia– impulse una vez más la inyección de dinero en este tipo de proyectos para, por ejemplo, llegar de nuevo a la Luna.

La época dorada de la NASA
La ironía quiso que la aventura de la agencia espacial estadounidense comenzara su andadura tras la puesta en órbita el 4 de octubre de 1957 del Sputnik 1, primer satélite artificial del mundo, lanzado por el eterno enemigo, la Unión Soviética.

Tanto el presidente Dwight D. Eisenhower como el Congreso de Estados Unidos percibieron este hito como una amenaza para la seguridad del país y decidieron crear una agencia federal que dirigiera la actividad espacial no militar. La NASA empezó a funcionar el 1 de octubre de 1958, con un único objetivo: no permitir que la URSS ganara la denominada carrera espacial.

La agencia inició sus operaciones inmediatamente con el programa Mercury. Este proyecto tenía una meta simple, saber si el hombre podría sobrevivir en el espacio exterior. Alan B. Shepard, Virgil I. Grissom, Gordon Cooper, Walter Schirra, Deke Slayton, John Glenn y Scott Carpenter, conocidos como los siete de Mercury, fueron los pilotos escogidos para enfrentarse a la incógnita del cosmos. El 5 de mayo de 1961, Alan Shepard se convirtió en el primer astronautas estadounidense al pilotar el Libertad 7 en un vuelo suborbital de 15 minutos.

Veinte días después del acontecimiento, el presidente John F. Kennedy se comprometió a llevar "un hombre a la Luna y devolverlo sano y salvo a la Tierra antes del final de la década". La NASA cambió sus planes y aceptó el reto. El 20 de junio de 1969, Neil Armstrong y Edwin E. Aldrin alunizaron con el Apollo 11 en el Mar de la Tranquilidad. Las entrecortadas palabras de Armstrong –"Este es un pequeño paso para el hombre, pero un gran salto para la Humanidad"– se perdieron en el espacio, pero perduraron y cambiaron para siempre la historia.

Tras Armstrong, el programa Apollo condujo a 12 astronautas más hasta nuestro satélite para llevar a cabo diferentes investigaciones. Posteriormente, la NASA se ha centrado en otros objetivos, como Marte, planeta al que ha enviado diversas misiones como el robot Spirit, que investiga actualmente la superficie marciana, o el desarrollo de sistemas más baratos para sus vuelos, lo que ha conseguido con transbordadores espaciales como el Columbia.

Fuente: expansion.com, 1 de Octubre de 2008