| 
                Inicio | 
                
                    | 
               
               
                 | 
               
             
           | 
         
       
     
     | 
  
 


NOTICIAS
CIENTÍFICAS
Octubre 2010
TITULARES DE LAS NOTICIAS DEL MES
 
Creadas células "zombies" que se activan con luz
El Sol desde otra perspectiva
Las "buckybolas" pueden ser el origen 
    de la vida
La última frontera del universo
Mundos oscuros en los confines del universo
La ciencia se acerca a la lectura 
del pensamiento
Hallan la estrella de neutrones más masiva
  El rayo que nos cambió la vida
    Textiles inteligentes integrados en redes 
inalámbricas para ocio y salud
¿Y si el 
universo fuera un hologroma?
Vegetación autóctona clave para recuperar territorios contaminados
Bienvenidos a la segunda era espacial
La NASA descubre plata en la cara oculta de la Luna
El LHC busca universos paralelos
"Esto 
puede ser muy parecido a `Gran Hermano´"
La sonda LCROSS confirma la presencia de agua helada en la Luna
La ONU pesimita con respecto a los acuerdos de Cancún
  La nueva "arca de Noé" es una torre de 100 
metros
El canibalismo del "Tiranosaurio rex"
Cazando leones en Atapuerca
"Las matemáticas siempre han ayudado al progreso de las ciencias"
El nitrógeno 
antropogénico, una amenaza para la flora y la fauna
Un yacimiento de gas junto al "Prestige"
Objetivo: detectar el cáncer en la sangre
La mano de obra sale a 4,6 euros por iPhone en China
EEUU trata al primer paciente con células madre embrionarias
"No 
he visto un nivel de destrucción así en mi vida"
El primer ministro húngaro habla de "negligencia humana" tras el 
vertido tóxico
Google diseña un coche 
sin conductor
Naves interestelares: un grupo de científicos 
diseña una máquina para ir más allá del Sol
Mil millones 
de toneladas de hielo del polo Sur para observar neutrinos
Aragón registra un caso de malaria autóctono
El vertido tóxico ya alcanza el Danubio
Terremotos: ¿esta la naturaleza fuera de control?
California tiembla por la amenaza del "Big 
  One"
Así robó el Sol a Marte su atmósfera
La fuga de una sustancia tóxica deja al menos tres muertos en 
Hungría
Nobel de Física para dos científicos rusos por sus 
  trabajos sobre el grafeno
  Los océanos pueden esconder 750000 especies marinas
La mosca de la fruta se expandió por el mundo desde África
Nuevo telescopio de rayos X para estudiar agujeros negros
Pseudociencia en el campus
La muerte de un planeta
  Los dinosaurios que surgían de la tierra
 
Archivo
-Creadas células "zombies" que se activan con luz
  
    | 
     
    
      
    
     | 
      | 
    Un equipo de la Universidad Duke (EEUU) ha desarrollado 
    células que cambian su estado cuando se les proyecta un simple rayo de luz 
    azul. La investigación, publicada en Nature Methods, tiene el 
    objetivo de desarrollar células modificadas que puedan regenerar tejido 
    cerebral dañado o incluso segregar un medicamento en tejidos enfermos, según
    Chandra Tucker, investigadora principal del proyecto. Se 
    trata de una técnica a muy largo plazo cuyos primeros frutos se centrarán en 
    la investigación básica o animal, reconocen los autores. 
     Los investigadores usaron células de levadura, así como células de hígado 
    y del cerebro de ratones. Introdujeron en ellas dos proteínas de la planta
    Arabidopsis thaliana. Cuando se exponen a la luz, las proteínas se 
    activan dentro de las células, lo que podría ayudar a controlar sus 
    funciones. Hasta ahora, los trabajos previos en este campo necesitaban 
    inocular otros productos en las células modificadas para que sus 
    interruptores se encendiesen o apagasen cuando se les aplicaba luz.
      
    "Este nuevo sistema, con una de las moléculas ya dentro de las 
    células, hace mucho más fácil construir un interruptor de luz", 
    explica Tucker. El interruptor de Tucker permite controlar la 
    interacción de diferentes proteínas dentro de las células.   
    Si se logra perfeccionar la técnica, podría contribuir a que células 
    enfermas se suicidasen o que otras segregasen medicamentos a zonas dañadas. 
    Como también funciona en células cerebrales, se podrían reconstruir 
    conexiones neuronales  | 
  
 
Fuente: 
publico.es, 31-10-10
 

 
-El 
Sol desde otra perspectiva
 
  
      
        | 
         
        
          
        
          
          Esquema de un torbellino horizontal (las flechas 
          representan la velocidad). | CSIC  
           | 
          | 
        El telescopio solar Sunrise ha desvelado una 
        "inesperada" actividad en el Sol, según los primeros resultados
        
        
        de esta misión publicados en doce artículos en la revista
        
        
        The 
        Astrophysical Journal Letters. 
        La misión, cuyos resultados 
        proceden en su mayoría del magnetógrafo IMaX, diseñado 
        y construido en España, ha revelado una "espectacular" actividad en 
        regiones de la superficie solar que se consideraban en calma. El 
        magnetógrafo es el instrumento que registra los componentes del campo 
        magnético de un astro y fue construido bajo la dirección del 
        Instituto de Astrofísica de 
        Canarias y con la participación de la
        
        
        Universidad de 
        Valencia, el  
        Instituto 
        Nacional de Técnica Aeroespacial y el
        
        Instituto de Astrofísica de 
        Andalucía. 
        "Tan sólo con el análisis de dos períodos de observación de media 
        hora cada uno hemos obtenido resultados espectaculares, la mayoría con 
        datos de IMaX/Sunrise, lo que constituye un verdadero éxito de 
        la misión y de la tecnología desarrollada por el equipo español", 
        ha remachado el investigador del 
        
        CSIC José 
        Carlos del Toro.   
        
        El 
        telescopio Sunrise, durante  
        
        un viaje de cinco días en globo circunvolando el Ártico, estudió la 
        superficie solar con una resolución sin precedentes, de casi 100 
        kilómetros. Despegó en junio de 2010 desde Suecia y se situó durante 
        cinco días a una altura de 40 kilómetros sobre la superficie terrestre.  | 
      
    
    Varios hallazgos
    Los recientes resultados aportan luz a algunos de los más antiguos 
    problemas de la física solar, como el calentamiento de la cromosfera, la 
    capa inmediatamente superior a la fotosfera, la superficie del Sol.
    Hasta ahora se desconocía por qué, si la temperatura de la fotosfera se 
    estima en 6.000 grados, en la cromosfera se alcanzaban hasta 20.000. IMaX/Sunrise 
    ha hallado que en las regiones por debajo de la fotosfera se produce 
    el doble de energía acústica de lo que se pensaba, "lo que se 
    acerca a los valores necesarios para explicar el calentamiento cuando dicha 
    energía se transporta hacia arriba".
    Esta energía se produce por los movimientos convectivos en el Sol, es 
    decir, por material caliente que asciende hacia la superficie, se enfría y 
    vuelve a descender. Esta convección genera cambios de presión que se 
    propagan en forma de ondas que, al transportarse, liberan energía 
    térmica y aumentan la temperatura. IMaX/Sunrise también ha 
    permitido obtener pruebas directas de la existencia de tubos de 
    flujo magnético a pequeña escala, considerados los ladrillos del 
    magnetismo solar desde los años 70, pero cuya existencia había sido 
    imposible de demostrar de forma directa por su pequeño tamaño. Otro de los 
    hallazgos se relaciona con la granulación solar, fenómeno 
    producido por el gas caliente que sube hacia la superficie desde el interior 
    solar (similar al burbujeo del agua al hervir) y que se manifiesta en forma 
    de gránulos con un tamaño medio de aproximadamente 1.000 kilómetros y una 
    duración de cinco minutos.
    Se han descubierto torbellinos horizontales que avanzan a través de las 
    celdas de los gránulos y pequeñas estructuras magnéticas horizontales que 
    aparecen y desaparecen. En definitiva, Sunrise "ofrece una 
    panorámica del Sol inédita y caracterizada por una actividad 
    constante a pequeña y gran escala", según Del Toro. En un segundo vuelo, 
    previsto para 2013, Sunrise completará una trayectoria alrededor del polo 
    Sur de entre 12 y 14 días.
    Fuente: elmundo.es, 30-10-10
    

 
 
 
  
    -Las "buckybolas" pueden ser el origen 
    de la vida
    El pasado mes de julio, el 
    
    telescopio Spitzer de la NASA descubrió en una nebulosa planetaria un 
    raro fenómeno que nunca antes había sido hallado en el espacio. 
    
    Consiguió detectar «buckybolas», unas moléculas de carbono con forma de 
    balón de fútbol y con propiedades únicas cuya existencia más allá de la 
    atmósfera resultaba una auténtica sorpresa. El asombro fue tan grande que 
    los científicos llegaron a plantearse que podría tratarse de algo 
    anecdótico, y que, simplemente, habían tenido suerte al encontrarlas. Nada 
    de eso. Estas esferas de carbono no solo existen allá arriba, sino que son 
    muy abundantes. El Spitzer las ha encontrado alrededor de tres estrellas 
    moribundas en la Vía Láctea y cerca de una cuarta en una galaxia cercana, 
    donde hay tantas que su masa equivale a quince lunas como la nuestra. El 
    hallazgo puede tener importantes repercusiones en la comprensión de cómo se 
    formó la vida en la Tierra.
    
      
        | 
         Las
        
        
        «buckybolas», también conocidas como
        
        
        fullerenos, son moléculas que constan de 60 átomos de carbono 
        unidos. Toman su nombre del parecido con las cúpulas geodésicas del 
        arquitecto Buckminster Fuller, como las que se encuentran en la entrada 
        del parque temático Epcot de Disney, en Orlando, Florida (EE.UU.). Estas 
        esferas en miniatura fueron descubiertas por primera vez en un 
        laboratorio hace 25 años, y son muy comunes en el hollín de las velas y 
        en las capas de rocas y meteoritos, pero no fue hasta el pasado julio 
        que pudo confirmarse su existencia en el espacio.   
        
        «Resulta que las 
        buckybolas son mucho más comunes y abundantes en el Universo de lo que 
        inicialmente se pensaba», explica la astrónoma Letizia Stanghellini, del 
        Observatorio Nacional de Astronomía Óptica en Tucson, Arizona. «Spitzer 
        las había encontrado recientemente en una posición específica, pero 
        ahora las hemos visto en otros entornos. Esto tiene implicaciones para 
        la química de la vida.
        
        Es posible que las buckybolas del espacio exterior proporcionaran las 
        semillas para la vida en la Tierra».  | 
          | 
        
         
        
           | 
      
    
   
  
    Quince veces la masa de la Luna
    Los investigadores, 
    liderados por Aníbal García-Hernández, del 
    
    Instituto de Astrofísica de Canarias, encontraron las esferas alrededor 
    de tres estrellas moribundas similares al Sol, conocidas como nebulosas 
    planetarias, en nuestra Vía Láctea. Todas las nebulosas donde se han 
    detectado buckybolas son ricas en hidrógeno. Esto contradice lo que los 
    investigadores han pensado durante décadas, ya que creían que el hidrógeno 
    contaminaría el carbono, provocando que se formasen cadenas y otras 
    estructuras en lugar de esferas.  
    El equipo también 
    localizó estas bolas en una nebulosa planetaria dentro de una galaxia 
    cercana conocida como 
    
    Pequeña Nube de Magallanes. Y hay muchísimas: juntas tienen un 2% la 
    masa de la Tierra, lo que es lo mismo a
    
    quince veces la masa de la Luna. 
    Cestas para la vida
    Las implicaciones de este 
    descubrimiento son de gran alcance. Los científicos han especulado en el 
    pasado con las buckybolas, las cuales pueden actuar como cestas para 
    moléculas y átomos, y podrían haber transportado sustancias a la Tierra para 
    el inicio de la vida. Las pruebas para esta teoría proceden del hecho de que 
    se han encontrado buckybolas en meteoritos que portan gases extraterrestres.
    
    
    «Las buckybolas son una 
    especie de diamantes con agujeros en el centro», dice Stanghellini. «Son 
    unas moléculas increíblemente estables y difíciles de destruir, y podrían 
    transportar otras moléculas interesantes en su interior. Esperamos aprender 
    más sobre el importante papel que pueden desempeñar en la muerte y el 
    nacimiento de estrellas y planetas, y tal vez en la propia vida».
    En la Tierra, el estudio de estas 
    moléculas se aplica a la investigación en fármacos, superconductores, 
    dispositivos ópticos y potabilización de agua, entre otros ejemplos.
 
  Fuente: abc.es, 29-10-10
  

   
  -La última frontera del universo
  Un mínimo punto de luz, casi invisible, indetectable 
  durante miles de millones de años, aparece de pronto en el fondo negro del 
  Universo. Como un signo de puntuación escrito en el espacio, los telescopios 
  dejan de leer para detenerse y enfocar lo más posible sus objetivos. Esa 
  pequeña nota luminosa es el objeto más distante jamás detectado, una galaxia 
  de complejo nombre bautizada como UDFy-38135539, cuya luz
  
  ha tardado 13.000 millones de años en llegar a la Tierra. Ningún cuerpo 
  celeste más lejano ni más antiguo ha sido visto jamás por el ser humano.
   
  A medida que las técnicas de detección se han ido 
  desarrollando, los astrónomos han sido capaces de encontrar objetos cada vez 
  más lejanos en el espacio; galaxias, estrellas o quasares que aparecieron 
  apenas unos cientos de millones de años después de la gran explosión del Big 
  Bang, cuando el Cosmos, mucho más pequeño y menos «concurrido», era muy 
  diferente del que hoy conocemos, y la aparición de la Tierra ni siquiera 
  estaba apuntada en la agenda de la creación.  
  
    
      | 
       
      
        
      
      En el centro del cuadrado blanco galaxia más lejana de la 
      conocidas  | 
        | 
      
         
      La galaxia que ha batido todos los records 
      fue detectada por primera vez por la nueva Cámara de Gran Angular 3 (WF3) 
      del telescopio espacial Hubble en 2009. Ahora, científicos del 
      
      Observatorio Europeo Austral (ESO) han confirmado en una investigación 
      publicada en la revista Nature, su antiquísima naturaleza. No ha sido nada 
      fácil dar con ella, ya que su luz, emitida tan sólo 600 millones de años 
      después del Big Bang, ha llegado a la Tierra de forma extremadamente 
      débil, en gran parte porque hasta esa época una densa nube de hidrógeno 
      neutro cubría casi todo el Universo.
      
      Descubrirla es como encontrar una aguja en una pajar... lleno de niebla. 
      Para ello, han utilizado la técnica de espectroscopia, la más fiable para 
      echarle años a las galaxias. 
      «Estamos asistiendo, si no a la primera 
      generación de estrellas, a una de las primeras que aparecieron en el 
      Universo, y eso tiene un impacto cosmológico muy fuerte», explica Miguel 
      Mas Hesse, investigador del Centro de Astrobiología (INTA-CSIC). Es 
      cierto. La carrera de hallazgos ha sido impresionante en los últimos diez 
      años. La última galaxia ha desbancado en el puesto de objeto más lejano a 
      una estrella descubierta el pasado año, cuya muerte en forma de estallido 
      de rayos gamma, una potente explosión de energía, llegó a la Tierra tras 
      viajar también cerca de 13.000 millones de años. A su vez, este «ejemplar 
      de Neandertal», como fue descrita por los científicos españoles que 
      participaron en su detección, le quitó el puesto a una lista de galaxias y 
      quasares formados cuando el Universo tenía de 700 a 800 millones de años.  | 
    
  
 
La edad oscura
Ahora, los científicos se enfrentan a un reto aún 
mayor, descubrir objetos de un tiempo incluso anterior, cuando el Universo 
entero no tenía más de 500 millones de años, estructuras que pertenecen al final 
de la llamada «edad oscura», la época tras la que aparecieron las primeras 
estrellas y de la que se aún se sabe muy poco. «Estamos seguros de que en los 
próximos años, con los instrumentos que ya tenemos -entre ellos destaca el Gran 
Telescopio de Canarias-, vamos a ser capaces de alcanzarlo», augura Mas. Pero 
serán dos grandes telescopios, el espacial James Webb, que se lanza en 2014, 
optimizado para trabajar en la longitud de onda en la que llegan las emisiones 
de este tipo de estrellas «arqueológicas», y el potentísimo y gigantesco E-ELT, 
que abrirá su gran ojo tres años más tarde en Chile, los que podrán analizar en 
profundidad estas maravillas . Cuando entren en funcionamiento, el Universo 
tendrá menos secretos.
Los objetos más antiguos tras el Big Bang:
1) 13.074 millones de años: La galaxia UDFy-38135539, descubierta en 
2009, es el objeto más lejano y antiguo
2) 13.035 millones de años: El estallido de rayos gamma GRB 090423, en 
cuyo descubrimiento participó el CSIC
3) 12.968 millones de años: Galaxia A1689-zD1. Su edad pudo ser 
confirmada hace un par de años
4) 12.888 millones de años: Galaxia A2218, donde se forman estrellas 
masivas de manera intensa
5) 12.882 millones de años: Galaxia OIK 1. Su edad fue confirmada por 
espectroscopia en 2006
6) 12.797 millones de años: El quásar CFHQS J2329-031, una galaxia 
dominada por un agujero negro muy masivo.
  
  Las capas de cebolla¿Cómo saben los científicos que 
  lo que o es tan lejano y antiguo? Básicamente, el quid de la cuestión lo tiene 
  un fenómeno de la Física llamado 
  
  corrimiento al rojo, que pone a cada objeto su medalla en el ranking. 
  «Cuanto más lejos está un objeto, su espectro se desplaza hacia las longitudes 
  de onda del rojo, lo que permite calcular la distancia a la que se encuentra», 
  indica Miguel Mas. La galaxia ganadora tiene un corrimiento al rojo de 8,6; la 
  estrella en segunda posición, uno de 8,2. «Hace diez años, el límite estaba 
  tan solo en 2 ó 3, lo que demuestra lo mucho que hemos avanzado». señala el 
  investigador del CSIC. «Es como quitar capas a una cebolla -continua-, cuanto 
  más lejos están los objetos vamos más atrás en el tiempo y podemos conocer 
  cómo ha evolucionado el Universo».
 
Fuente: abc.es, 29-10-10

 
-Mundos oscuros en los confines 
del universo
Rebuscando en los archivos de imágenes digitales tomadas por el telescopio 
espacial Hubble, un equipo de astrónomos ha detectado recientemente 14 nuevos 
vecinos de Plutón. El estudio de tales objetos trans-Neptunianos, oscuros y 
helados, sirve para comprender los momentos iniciales de la formación de nuestro 
Sistema Solar hace ahora 4.500 millones de años.
  
    | 
     
    
      
    
      
        
        Comparación de tamaños y colores de los mayores TNOs | A. 
        Feild (STScI)  
     
     | 
    
     
    
      
    
    
    Algunos de los mayores TNOs que se conocen | NASA, ESA, A. Feild (STScI  | 
  
La región abisal del Sistema Solar
Plutón no es más que uno de los numerosos pequeños mundos que 
pueblan la región profunda del Sistema Solar, más allá de la órbita de Neptuno. 
Apenas iluminados por el lejano Sol, estos objetos trans-Neptunianos (o TNOs, 
por sus siglas en inglés) viven en una permanente oscuridad que dificulta su 
localización y su estudio.
Se ha determinado bien la órbita de unos dos centenares de 
TNOs, pero de la inmensa mayoría de éstos se conoce muy poco. Plutón, prototipo 
de los recientemente denominados 'planetas enanos', es el mayor de todos los 
objetos de esa región, desde donde también nos llegan numerosos cometas, como el 
Halley.
Auténticas reliquias intactas desde la formación del Sistema 
Solar, estos cuerpos conservan la composición química de la nube primordial que 
formó nuestro sistema planetario. Su estudio nos permite por tanto ayudar a 
comprender los momentos iniciales de la formación del Sol y su grupo de 
planetas, hace ahora unos 4.500 millones de años.
Buscando débiles estelas
El inmenso legado del telescopio espacial Hubble, en la forma 
de numerosísimas y muy profundas imágenes digitales, se ha revelado como un 
poderoso archivo para detectar nuevos ejemplares de estos débiles TNOs. El 
astrónomo César Fuentes y sus colaboradores del Harvard-Smithsonian Center for 
Astrophysics (cerca de Cambridge, EEUU) han desarrollado una técnica automática 
para detectar tales objetos sobre imágenes de archivo. En esas imágenes, un TNO, 
debido a su movimiento alrededor del Sol, aparece como una débil estela luminosa 
ante las estrellas fijas del fondo.
Los astrónomos desarrollaron un software para localizar tales 
estelas de manera automática. La localización de una estela se complementó con 
un cuidadoso examen visual que permitió confirmar (o rechazar) la asociación 
real de cada estela con un TNO. Tras explorar varios centenares de imágenes de 
zonas próximas a la eclíptica (el plano que contiene al Sol y a los ocho 
planetas), este equipo de investigadores localizó 14 nuevos TNOs, entre ellos 
uno binario (similar al sistema Plutón-Caronte). Todos ellos son oscuros y 
extremadamente débiles (más de 100 millones de veces más débiles que las 
estrellas visibles por el ojo desnudo).
Las medidas de sus movimientos en el cielo permitieron 
calcular las órbitas y distancias de todos los objetos. Y haciendo hipótesis 
razonables sobre la reflectividad del material de que están constituidos, 
llegaron a determinar los tamaños de todos estos objetos, que resultan estar en 
un rango de 40 a 100 kilómetros de diámetro. Todos estos resultados han sido 
publicados en un artículo reciente del Astrophysical Journal (Fuente et al. 
2010, disponible 
aquí.)
Algunos de estos TNOs pueden tener órbitas muy inclinadas 
respecto de la eclíptica, por lo que examinando imágenes de regiones más 
distantes sería posible detectar aún más TNOs. Los autores esperan extender su 
trabajo de esta manera para llegar a detectar quizás varios centenares de nuevos 
objetos.
Sin duda el archivo del Hubble nos reserva aún numerosos 
descubrimientos y sorpresas.
Nuevos Horizontes
El 19 de Enero de 2006, la NASA lanzó desde Cabo Cañaveral la 
sonda New Horizons, una misión no tripulada que tiene por objetivo la 
exploración in situ del sistema Plutón-Caronte y de sus dos lunas Nix e Hidra. 
La sonda pasó por las proximidades de Júpiter en el primer semestre de 2007 y 
allí aprovechó el campo gravitatorio del gigante gaseoso para ganar más 
velocidad. Se espera que la sonda sobrevuele Plutón (al que se acercará a una 
distancia menor de 10.000 kilómetros) y Caronte en Julio de 2015. También está 
previsto que New Horizons pueda explorar otros TNOs antes del año 2020.
También interesante
  - 
  
Plutón, descubierto en 1930, fue el primer TNO 
  identificado. Le siguió su luna Caronte en 1978. Pero fue la detección, 
  realizada en 1992 desde el observatorio de Mauna Kea en Hawaii, del siguiente 
  objeto denominado '(15760) 1992 QB1' el que desencadenó las búsquedas 
  sistemáticas para realizar un censo lo más completo posible.
 
  - 
  
El mayor TNO conocido es Eris, un planeta enano de unos 
  2500 kilómetros de diámetro, que se encuentra 100 veces más lejos del Sol que 
  la Tierra (esto es, unas tres veces más lejano del Sol que Plutón). Eris fue 
  identificado en el año 2005 en el Observatorio de Monte Palomar. Tiene una 
  pequeña luna (de apenas 100 kilómetros de tamaño) llamada Disnomia (como la 
  hija de la diosa Eris en la mitología griega).
 
  - 
  
El 31 de Mayo de 2008 se descubrió el primer TNO con 
  movimiento retrógrado. Se trata del objeto '2008 KV42' apodado informalmente 'Drac'.
 
  - 
  
La sonda New Horizons transporta, además de la carga 
  científica, un CD con casi medio millón de nombres recogidos en el sitio web 
  de la misión, una bandera de EEUU y algunas cenizas de Clyde Tombaugh 
  (1906-1997), el astrónomo estadounidense que descubrió Plutón en 1930.  
 
Fuente: elmundo.es, 28-10-10

-La ciencia se acerca a la lectura del 
pensamiento
  
    
      | 
       
      
         | 
      Aunque leer la mente sigue siendo una utopía, es posible 
      que, en un futuro, se pueda conseguir y, con ello, permitir la 
      comunicación de pacientes con graves lesiones neurológicas.  Un 
      dispositivo desarrollado por investigadores del Instituto Tecnológico de 
      California ha sido capaz de registrar la respuesta de las neuronas del 
      lóbulo temporal medio a distintos estímulos visuales. 
       De esta forma, los investigadores que publican su hallazgo en la 
      edición de hoy de Nature son capaces de adivinar
      en qué están pensando dentro de las 
      opciones ofrecidas en el experimento.  Para llevar a cabo su 
      estudio, los científicos, dirigidos por Moran Cerf, aprovecharon los 
      electrodos implantados en el cerebro de varios pacientes para tratar sus 
      convulsiones cerebrales y midieron su respuesta ante determinados 
      conceptos, que incluían desde 
      personalidades como Madonna a lugares como la torre Eiffel.   
      Fuente: publico.es, 27-10-10  | 
    
  
  

 
-Hallan la estrella de neutrones 
más masiva
  Un grupo internacional de astrónomos ha anunciado en Nature 
  el descubrimiento de la 
  
  estrella de neutrones más masiva observada hasta la fecha, un hallazgo que 
  tendrá importantes repercusiones en diversos campos de la Física y la 
  Astrofísica. La estrella, un 
  
  púlsar que está
  
  a 3.000 años luz de la Tierra y que gira sobre sí mismo 317 veces por 
  segundo, forma "pareja" con una 
  
  enana blanca.  
  
    
      | 
       
      
         | 
        | 
      
       "Esta estrella de neutrones tiene el doble de 
      la masa del Sol -explica Paul Demorest, del Observatorio Nacional de Radio 
      Astronomía, (NRAO)- . Lo cual es sorprendente, ya que tanta masa 
      comprimida en tan poco espacio significa que muchos de los modelos 
      teóricos que tenemos sobre la composición interna de estrellas de 
      neutrones quedan descartados. La medida de esta gran masa también tiene 
      implicaciones en nuestra comprensión sobre la materia cuando se encuentra 
      en densidades extremadamente altas y
      
      aclara numerosos detalles de la física nuclear". 
      Una estrella de neutrones es
      
      el cadáver superdenso de una estrella muy masiva que ha estallado en forma 
      de supernova. Después de la explosión, toda la masa de la estrella 
      original queda comprimida en
      
      una esfera que mide apenas unos pocos km de diámetro. La fuerza 
      gravitatoria de este cuerpo superdenso es tal que los electrones, cuya 
      carga eléctrica es negativa, han terminado por incrustarse "contra natura" 
      en los protones de los núcleos atómicos (que tienen cargas positivas), 
      dando como resultado partículas eléctricamente neutras, los neutrones.
      
        | 
    
  
 
  Una cucharada de cientos de millones de toneladas
  Estos neutrones, aplastados unos contra otros por 
  la gravedad, dan lugar a cuerpos de extraordinaria densidad, las estrellas de 
  neutrones.
  
  Una simple cucharadita de la materia superdensa de una estrella de neutrones 
  puede pesar cientos de millones de toneladas. Esta tremenda densidad 
  hace que las estrellas de neutrones sean extraordinarios laboratorios 
  naturales para el estudio de los estados más extremos y densos de materia 
  conocidos por la Física.
  Para medir la masa de la estrella, que 
  prácticamente dobla a la de la mayoría de las estrellas de neutrones 
  conocidas, los científicos han utilizado un curioso efecto 
  
  (el retardo Saphiro) predicho por la teoría General de la Relatividad de 
  Einstein. La estrella forma parte de un sistema binario, y está acompañada por 
  una 
  
  enana blanca que orbita a su alrededor. La estrella de neutrones, que gira 
  rápidamente sobre sí misma (317 veces por segundo) es un púlsar que emite, en 
  cada rotación, potentes ondas de radio.
  Este 
  
  púlsar, llamado PSR J1614-2230, y su compañera completan una órbita, una 
  alrededor de la otra, en apenas nueve días. Y resulta que la orientación de 
  ambas estrellas permite
  
  una excelente observación desde la Tierra, algo de vital importancia 
  para medir la masa de ambas. Cuando las órbitas llevan a la enana blanca a 
  colocarse directamente delante del púlsar, las radioondas que emite y que 
  llegan hasta la Tierra tienen que pasar muy cerca de la enana blanca. Y ese 
  acercamiento causa un ligero retraso causado por la distorsión gravitatoria de 
  la enana blanca. Ese ligero retraso, el retardo Saphiro, es precisamente el 
  que permite medir la masa de ambas estrellas.
  "Hemos tenido mucha suerte con este sistema 
  -afirma Scott Ransom, otro de los investigadores del NRAO-. La rápida rotación 
  del púlsar nos proporciona una clara señal para seguirlo a través de su 
  órbita, que está casi perfectamente alineada (con la Tierra). Además, resulta 
  que la enana blanca es particularmente masiva para una estrella de esa clase. 
  Y esta combinación única de factores hace que el retardo Saphiro sea mucho más 
  fuerte y fácil de medir".
  Dados sus datos preliminares, los investigadores 
  pensaban que la estrella de neutrones no tendría más de una vez y media la 
  masa del Sol. Pero tras observar una rotación completa de ambas estrellas 
  comprobaron, para su sorpresa, que era de más del doble. Un hecho que, según 
  ellos, cambia nuestra comprensión tanto sobre la composición de las estrellas 
  de neutrones como sobre el comportamiento de la materia bajo la presión de 
  densidades extremas.
  Fuente: abc.es, 27-10-10
 

 
  -El rayo que nos cambió la vida
  La historia del 
  láser comenzó en 1917 como un postulado teórico de Albert Einstein, que pensó 
  que existía la posibilidad de estimular los electrones de un átomo para lograr 
  que emitieran luz en una determinada longitud de onda. Pero todavía tendría 
  que pasar algún tiempo para la demostración experimental de este efecto; más 
  de 40 años para conseguir desarrollar el primer dispositivo eficiente basado 
  en este enunciado.
  
    
      | 
       
      
         | 
        | 
      
       A principios de siglo, probablemente, a nadie se le 
      pasó por la cabeza que la teoría de la radiación estimulada pudiera tener 
      implicaciones prácticas y, mucho menos, que acabara siendo uno de los 
      cinco inventos más importantes de la historia. En la actualidad, 
      es difícil creer que el desarrollo que hace posible el 95% de las 
      comunicaciones de telefonía se le denominara en los años 50 'un invento en 
      busca de una aplicación', pero así fue. Y tal vez sea uno de los 
      mejores ejemplos de cómo una idea surgida de la curiosidad científica 
      puede transformar radicalmente el mundo. 
      El interés por desarrollar este artefacto comenzó en 
      los años 50, una época en la que diferentes grupos de investigadores, 
      algunos por su cuenta y otros asociados a prestigiosos laboratorios, 
      perseguían la idea de construir lo que luego sería conocido como láser. Y 
      aunque, finalmente, fue Mainman el que se llevó 'el gato al agua' 
      fabricando en 1960 el primer láser experimental que empleaba rubí como 
      medio amplificador, fueron muchos los científicos que pusieron su granito 
      de arena para que este invento fuera posible. 
      Como anécdota curiosa que ejemplifica lo que ha 
      cambiado la visión de la Ciencia en este medio siglo, se podría contar que 
      cuando este físico comunicó a la prensa su invención, el dispositivo era 
      tan minúsculo -sólo medía unos centímetros de longitud- que para la foto 
      se mostró a los periodistas otro aparato que, aunque no funcionaba, 
      impresionaba más por su tamaño.  | 
    
  
  Alentado por la industria del cine se le atribuyeron 
  propiedades espectaculares, como la del 'rayo de la muerte', aunque sus 
  inicios fueron más modestos. De hecho, su primera aplicación 
  industrial fue la soldadura de chapa de automóviles. Pero a estas 
  alturas, los investigadores, aún no sabiendo exactamente para qué, ya intuían 
  sus enormes posibilidades y las patentes relacionadas con este invento se 
  multiplicaron.
  Hoy en día nos sería muy difícil imaginar un mundo sin 
  láser. Es la base de la fibra óptica que hace posible el funcionamiento de la 
  red de comunicaciones que ofrece la telefonía o Internet; de soportes como el 
  CD, el DVD o el Blu ray; del lector de código de barras; de las impresoras 
  láser; de los hologramas de seguridad en tarjetas de crédito; del desarrollo 
  de la ingeniería aeronáutica o automovilística; de los bisturís que han 
  revolucionado la cirugía; del perfeccionamiento de las miras telescópicas; de 
  los medidores de distancias. En definitiva, si nos detuviéramos a analizar 
  muchos de los objetos que nos rodean y aplicaciones que nos han cambiado la 
  vida es seguro que, directa o indirectamente, este invento tiene mucho que 
  ver.
  Pero ¿qué propiedades tiene esta luz que la hace tan 
  especial? ¿En qué se diferencia de la emitida por otras fuentes, como podría 
  ser el fuego o una bombilla? Para empezar la palabra 'Laser' son las 
  siglas inglesas de Light Amplification by Stimulated Emission of Radiation 
  (Amplificación de Luz por Emisión Estimulada de Radiación) y se trata de una 
  luz con unas ciertas características bien diferenciadas.
  El láser es monocromático, de un solo color, 
  mientras que la luz ordinaria es el resultado de la combinación de diferentes 
  colores. Es coherente, lo cual significa que todas sus partículas de 
  luz están en sintonía con las demás. Y posee también direccionalidad, lo que 
  implica que sus fotones viajan en la misma dirección, pudiéndose concentrar en 
  un punto muy pequeño. Y estas propiedades son la base de su inmenso poder y 
  versatilidad, ya que permiten hacer desde una holografía o cortar un duro 
  metal a medir la distancia que hay de la tierra a la luna.
  El láser del futuro
  Este año 2010, el láser cumple medio siglo de vida y 
  coincidiendo con este aniversario, el Instituto de Física Interdisciplinar y 
  Sistemas Complejos del IFISC (CSIC-UIB) ha elaborado, dentro de la Semana de 
  la Ciencia, un programa especial en el que quieren divulgar múltiples aspectos 
  de este gran invento del siglo XX. El ciclo de conferencias comenzó con la 
  impartida por Claudio Mirasso, catedrático de la UIB e investigador del IFISC, 
  titulada 50 años de un invento que ha cambiado nuestras vidas, en la que 
  explicó los fundamentos científicos del láser, de su tecnología; así como sus 
  aplicaciones presentes y posibilidades de futuro.
  
    
      Y si lo que conocemos es sorprendente, lo que está a 
      punto de llegar entra en el territorio de la ciencia ficción. Según este 
      investigador no quedan muchos años para lograr la fusión nuclear. La 
      instalación NIF (National Ignition Facility) es un gran proyecto de EEUU 
      que posee 192 haces de luz enfocados hacia un punto mínimo. La 
      focalización de toda esa energía en un diámetro inferior a un cabello 
      alcanzaría temperaturas de 100 millones de grados -como en el 
      interior de una estrella- y sería capaz de liberar en la miniexplosión 
      instantánea una cantidad ingente de energía como para alumbrar a todo un 
      país. ¿Quién nos dice que no será el láser la fuente de energía inagotable 
      y limpia que estamos buscando?
      Por otra parte, la posibilidad de focalizar el 
      haz más y mejor está mejorando la capacidad de almacenamiento de la 
      información. Según Mirasso, la fecha en que podamos tener en un 
      disco de ordenador todas las películas de la historia del cine en alta 
      definición está a la vuelta de la esquina. Otro de los campos menos 
      conocidos del láser es el que está relacionado con la nanotecnología. El 
      origen de todas estas aplicaciones son las pinzas ópticas conformadas por 
      un haz de rayo láser fuertemente enfocado, que produce un área de máxima 
      intensidad y con la energía suficiente para atrapar una partícula de 
      materia y mantenerla inmóvil en el punto de enfoque de la luz.
      Fueron desarrolladas en 1986 por Ashkin y sus colaboradores y, desde 
      entonces, gracias a la incorporación de diversos tipos de haces de luz se 
      han perfeccionando, por lo que se cuenta con múltiples técnicas de 
      manipulación óptica muy avanzadas. Por ejemplo, estas pinzas se han 
      utilizado para examinar la cantidad de fuerza necesaria para estirar y 
      enrollar moléculas individuales de ADN. ¿Cómo podríamos denominar a 
      comienzos del siglo XXI a este 'invento en busca de una aplicación'?
      Fuente: elmundo.es, 26-10-10
 
   
   
 

 
 
  
    -Textiles inteligentes integrados en redes inalámbricas 
    para ocio y salud
    Aitex, Ateval y la empresa textil Rapife, 
    junto con otras entidades, universidades y empresas europeas trabajan en el 
    desarrollo en nuevos textiles inteligentes aplicados a la medicina, a la 
    rehabilitación y a los videojuegos dentro del proyecto europeo Wear-a-Ban. 
    Este proyecto nos sitúa en un nuevo escenario tecnológico relacionado con el 
    desarrollo textil inteligente que integra sensores, tanto de movimiento como 
    emocionales, y basados en tecnología de radiofrecuencia, según informa Fedit.
 
  
    Wear-a-Ban, así se llama este nuevo proyecto europeo cuyo objetivo es 
    desarrollar redes inalámbricas sofisticadas que integrarán textiles 
    inteligentes que monitorizarán tanto parámetros físicos (como el 
    movimiento), como parámetros emocionales.
 
  
    Se investigarán el potencial de las tecnologías inalámbricas en “redes de 
    área corporal” que permitan obtener sinergias hombre-máquina en segmentos de 
    mercado tales como los textiles inteligentes y interactivos, robótica para 
    asistencia y rehabilitación y dispositivos de interfaz naturales para 
    videojuegos.
 
  
    Se busca que la comunicación entre hombre y máquina sea más intuitiva y 
    natural, integrando la información motora y emocional, parámetros que son 
    difíciles de expresar con dispositivos estándares. Los recientes avances en 
    microelectrónica, procesamiento de señales integrados y tecnologías de 
    software, permiten obtener soluciones hombre-máquina más naturales que 
    facilitarán nuevas manera de jugar, rehabilitación médica etc.
    Fuente: 
    interempresas.net, 25-10-10
    

 
-¿Y si el universo 
fuera un hologroma?
 
  
 
  Especialistas del 
  
  Fermilab -uno de los laboratorios científicos más avanzados y afanados del 
  mundo- están construyendo un 
  aparato denominado “Holometer” (u “holómetro”), cuya función será 
  determinar si el universo tridimensional que perciben nuestros sentidos es “de 
  verdad” o solo se trata de un holograma. El artefacto busca responder la vieja 
  cuestión de si el espacio-tiempo es uniforme o discreto.  
  
    
      | 
       
      
        
      
        
        Diseño conceptual del holómetro del Fermilab  
       | 
        | 
      
       
      ¿Cómo es realmente el universo que percibimos? Esta pregunta aparentemente 
      inocente ha mantenido a ejércitos de físicos discutiendo durante mucho más 
      tiempo del que hubiesen preferido. Cuando descubrieron que la energía en 
      realidad no podía tomar “cualquier” valor, sino que estaba “dosificada” en 
      pequeñísimos paquetes (llamados cuantos) resultó inevitable preguntarse si 
      las dimensiones espaciales son realmente tan continuas como nos parecen o 
      si, por el contrario, también están “pixeladas”.   
      
      ¿Qué significa esto? Imaginemos que tomamos una cámara fotográfica que 
      posea una resolución de “infinitos megapíxeles”, y comenzamos a tomar 
      fotografías de un objeto cualquiera. A “1x” el objeto aparece tal como lo 
      vemos con nuestros ojos. A “10x” comenzamos a percibir detalles que 
      difícilmente veríamos a simple vista. A “100x” comienzan a aparecer 
      detalles imperceptibles de otra manera, que revelan las microrayaduras y 
      granos de polvo depositados sobre su superficie. Si seguimos aumentando el 
      detalle de las imágenes, llegará un momento en que podremos “ver” las 
      moléculas que lo conforman.   
      
      Y si seguimos aumentando la resolución de nuestra cámara imaginaria, 
      veremos sus átomos, y luego sus partículas. Lo que intentan averiguar los 
      científicos es si esta “realidad”, en alguna escala que somos incapaces de 
      percibir, comienza a “cuantificarse” tal como se “pixela” una fotografía 
      al aplicarle un valor de zoom demasiado alto.  | 
    
  
 
La tercera dimensión
  
  Determinar semejante cosa no es, por supuesto, una tarea sencilla. Los 
  encargados de tomar el toro por las astas han sido los científicos del 
  Fermilab, el laboratorio físico nacional estadounidense que posee el segundo 
  acelerador de partículas más potente del mundo. Una de las teorías que manejan 
  los especialistas -y que a los profanos nos suena a chino- es que la realidad 
  consiste solamente en dos dimensiones, y lo que percibimos como una “tercera 
  dimensión” no es otra cosa que una “ilusión” -sumamente realista, por 
  supuesto- que surge de la interacción de estas dos con el tiempo.  
  
  Si esto es cierto,
  
  la realidad sería algo así como un holograma, una especie de truco de mago de 
  feria en el que se nos “vende” una dimensión que realmente no está 
  allí. Algunos físicos creen que no podemos darnos cuenta del engaño “culpa” de 
  algunas limitaciones impuestas por las leyes de la física, como que “nada 
  puede viajar más rápido que la luz” y naderías por el estilo. No sabemos cómo 
  se podría conciliar todo esto con las 10 dimensiones contempladas por
  
  la Teoría de Cuerdas y
  
  los universos paralelos que buscan con el LHC, pero seguramente ambas 
  hipótesis no puedan ser válidas a la vez.
  
  En el Fermilab han comenzado la construcción de un holómetro (“holometer”) , 
  un máquina de altísima tecnología que podría atisbar por los “espacios” 
  existentes entre uno y otro “píxel” de la realidad. Explicar cómo funciona una 
  máquina como esa es sumamente complicado, pero en un comunicado del 
  laboratorio han dejado entrever que hará su magia gracias a
  
  un reloj extremadamente preciso (en realidad, será
  
  el más exacto jamás construido) y un láser. Los primeros datos serán 
  proporcionados por el holómetro en algún momento del año próximo. Si recuerdas 
  la película
  
  «Matrix», esto significa que tienes entre 3 y 12 meses para decidir si 
  tomas la pastilla roja o la pastilla azul. 
 
 
Fuente: abc.es, 
25-10-10
 

 
 
-Vegetación autóctona clave para recuperar territorios contaminados
 
Un grupo de 
investigadores perteneciente a la Unidad de Botánica del Departamento de 
Biología de la UAM, y dirigido por la Dra. Vicenta de la Fuente, estudia las 
dinámicas de vegetación y las modificaciones en los suelos de uno de los 
territorios más ácidos y con mayor contenido en metales de la Península: la 
cuenca del Río Tinto (Huelva). 
En un trabajo publicado recientemente en Arid Land Research and Management, los 
investigadores presentan un compendio de la vegetación autóctona de la cuenca 
del Río Tinto y de las dinámicas temporales regresivas y progresivas de la 
misma. En el trabajo se muestra que la evolución progresiva (desde las 
comunidades de vegetación colonizadora de suelos pobres y terrenos desnudos 
hasta alcanzar la fase madura del bosque) implica un enriquecimiento en especies 
autóctonas y un cambio gradual en los suelos, donde disminuye la acidez y se 
tiende a reducir la concentración de alguno de los elementos predominantes del 
territorio (S, Fe, As y Pb). 
Estos resultados constituyen una clave de vital importancia a la hora de 
plantear programas de restauración de territorios contaminados con metales 
pesados. El empleo de la vegetación autóctona, respetando la secuencia de la 
serie de vegetación del territorio afectado, garantiza una reforestación 
efectiva (aunque lenta), contribuye a la protección de la flora y vegetación 
autóctona, favorece el enriquecimiento progresivo de la biodiversidad vegetal, 
modifica el paisaje y evita pérdidas económicas por la muerte de especies 
alóctonas no aclimatadas. 
Dinámicas de vegetaciones y suelo
Desde el punto de vista climático, edáfico y biogeográfico, la vegetación de un 
territorio homogéneo evoluciona temporalmente hasta alcanzar lo que se considera 
la comunidad vegetal clímax o permanente, que generalmente suele ser un bosque. 
Partiendo de una roca desnuda, el esquema teórico que seguiría la vegetación 
hasta alcanzar la comunidad clímax sería: comunidades vegetales pioneras, 
pastos, matorrales, pre-bosques y bosques. El conjunto de todas estas 
comunidades constituiría lo que se denomina serie de vegetación. El cambio 
sucesivo de las comunidades vegetales que componen la serie de vegetación 
conlleva una evolución en los suelos sobre los que se asienta desde el punto de 
vista físico y químico. 
Río Tinto
El río nace en el corazón de la comarca minera del Andévalo, situada sobre uno 
de los depósitos de sulfuros metálicos más extensos del mundo. En este ambiente 
dominan el ácido sulfúrico, el hierro férrico y numerosos metales que se 
encuentran químicamente biodisponibles en concentraciones tóxicas dada la 
elevada acidez de las aguas y los suelos del territorio. Además, la histórica e 
intensa actividad minera en la comarca, tanto a cielo abierto como subterránea, 
ha provocado la pérdida de suelos y por ende la eliminación de la cubierta 
vegetal, quedando una gran extensión de terreno desnudo, taludes, desmontes y 
escombreras.  
 
Fuente: UAM, 
24-10-10
 

 
 
-Bienvenidos a la segunda era espacial
Los catalanes Ana Bru y Ramón Segarra se vieron ya vestidos 
de astronautas. Pepita Campdesuñer, la empresaria jubilada de 80 años, empezó a 
contar los días para su primer vuelo a la heterosfera. Y Richard Branson, 
el visionario fundador de Virgin Galactic, oteó con impaciencia los 
cielos moteados de Nuevo México, invocando la silueta etérea de su nave 
suborbital.
  
    | 
     "Bienvenidos a la segunda era espacial", proclamó Branson, 
    mientras anticipaba el vuelo rasante de WhiteKnightTwo, la nave 
    nodriza, arropada en el aire por la trepidante SpaceShipTwo (capaz 
    de subir por encima de los 100 kilómetros de altitud propulsada por un 
    cohete híbrido). 
    "Entre ocho y 19 meses acabaremos con la fase de pruebas 
    y estaremos listos para los primeros vuelos comerciales", vaticinó el 
    magnate de Virgin, con su inconfudible melena rubia, sin quitarse la chupa 
    de cuero. "La seguridad es nuestra prioridad absoluta: los turistas 
    espaciales han comprado un billete de vuelta". 
    Hasta la fecha, un total 370 mortales que están 
    dispuestos a pagar 144.000 euros por dos horas y media de vuelo. Setenta de 
    ellos se desplazaron este fin de semana hasta el Spaceport de Nuevo México, 
    a tomarle la medida a la primera pista 'espacial' de tres kilómetros de 
    largo por 61 metros de ancho. 
    La mayoría esperaba ver poco más que una 
    serpiente de asfalto en mitad del desierto. Los primeros 
    sorprendidos fueron Ana Bru y Ramón Segarra, que decidieron ponerse el casco 
    de obras e inspeccionar el impresionante aeropuerto/hangar diseñado por 
    Norman Foster, emergiendo ya con su perfil de molusco futurista sobre la 
    arena. 
    'Quisimos ser los primeros en probar'
    "Nosotros siempre tuvimos fe en este proyecto, aunque 
    para muchos era difícil de imaginar", confesaba la pareja de 'pioneros' 
    catalanes, que reclutan aspirantes españoles a través de la agencia Bru&Bru.
    "Quisimos ser los primeros en probar y la verdad es que hoy 
    lo hemos visto más claro que nunca. Ahora que el futuro está tan cercano, 
    sentimos mucha emoción y un cierto cosquilleo".  | 
      | 
    
     
    
      
    
    
    Aeropuerto espacial de Nuevo México  | 
  
  
    El WhiteKnightTwo sobrevoló varias veces su futuro nido, 
    antes de aterrizar en la pista recién inaugurada, en medio de un 
    paisaje sideral y a más de 20 kilómetros de la población más 
    cercana (llamada curiosamente 'Verdad y Consecuencias', en homenaje a un 
    legendario programa televisivo).
    "Dejamos atrás 52 años de historia y entramos 
    decididamente en una nueva era", certificó la administradora adjunta de la 
    NASA Lori Garver a pie de pista. "Atrás queda lo que llamábamos la 
    'carrera' espacial. Ahora avanzamos por el camino de la cooperación 
    entre países y entre empresas. Estamos todos en la misma nave".
    Richard Branson se subió sobre la marcha y anunció que 
    Virgin Galactic pujará –en solitario o junto a otras dos compañías- al 
    programa de 50 millones de dólares para desarrollar futuras naves 
    tripuladas auspiciado por la Administración Obama. "Tenemos planes 
    para explorar el campo de los vuelos orbitales en los próximos años", 
    anticipó.
    
      
        De momento, Branson se ha reservado el primer vuelo 
        para toda la familia (incluidos su hijo Sam y sus padres de 92 y 
        89 años) y confía en despegar del Spaceport de Nuevo México a 
        finales del 2011 o primeros del 2012. "Para mí, este viaje es algo muy 
        presonal", recalcó. "Aunque mi empeño será hacer el turismo espacial 
        accesible para el común de la gente. Cuando llevemos quinientos o mil 
        pasajeros podremos bajar las tarifas, y, tal vez, fletar tres vuelos 
        diarios. Espero que los vuelos suborbitales sean algo 'normal' para 
        vuestros hijos y vuestros nietos".
        "¿Para cuándo un Aeropuerto Espacial en Europa?", le 
        preguntamos. "Tenemos que consolidar primero este proyecto antes de 
        pensar en futuras ubicaciones". ¿España está en el radar? "Amo 
        mucho a España y puedo asegurar que cuando llegue el momento 
        estará muy alto en la lista".
        "Lo primero es estabilizar este proyecto aquí, y 
        después lo llevaremos a España", declaró en español y con cierta sorna 
        el gobernador Bill Richardson, que decidió impulsar el proyecto 
        (estimado inicialmente en 212 millones de dólares) para convertir
        Nuevo México en el centro de gravedad del turismo espacial.
 
     
    Más que la experiencia de la ingravidez, Ana Bru espera 
    disfrutar de la "pura adrenalina" de la subida y, sobre todo, de la 
    experiencia de la bajada. "Ahí es cuando de verdad sientes donde 
    tienes el estómago", asegura, recordando el entrenamiento en el 
    simulador del Nastar Space Center de Filadelfia. Ramón Segarra recuerda la 
    sensación de otra manera –"es como si te estiraran la piel"- pero insiste en 
    que los vuelos suborbitales son aptos "para cualquier persona con buena 
    salud".
    "Nosotros no somos multimillonarios, ni coleccionamos 
    coches en el garaje como Bill Gates", asegura Ana. "Hemos ido 
    reservando el dinero durante bastante tiempo porque sabemos que 
    ésta puede ser la gran experiencia de nuestras vidas. Yo siento una tremenda 
    curiosidad por ver y apreciar la Tierra desde allí arriba".
    "Volando me siento insignificante, como si estuviera 
    conectada con la naturaleza", confiesa por su parte la octogenaria y 
    vitalísima Pepita Campdesuñer, superada tan sólo en edad por los padres del 
    propio Branson. "Yo tomé uno de los primeros vuelos comerciales en un 
    trimotor en 1953, entre Bilbao, Barcelona y Palma. Recuerdo también como si 
    fuera ayer el momento en que el hombre puso el pie en la Luna. Y quiero 
    vivir desde dentro este otro momento histórico... A ver si me llega".
 
 
Fuente: elmundo.es, 23-10-10

 
-La NASA descubre plata en la cara oculta de la Luna
  
    
      
        | 
         El impacto sobre la superficie lunar, provocado por
        
        
        un cohete de la NASA en octubre del año pasado, ha revelado que, 
        bajo la superficie del cráter Cabeus, en el polo sur, hay un 
        5,6% de agua helada, y también otros elementos como hidróxido, 
        monóxido de carbono, amoníaco, mercurio, magnesio, sodio y hasta la 
        preciada plata. 
        La NASA lanzó el Satélite de Observación del Cráter 
        Lunar, conocida como misión 
        
        LCROSS, el 18 de junio del año pasado. Llevaba a bordo un cohete, el 
        Centauro, que tres meses y medio después, el 9 de octubre, se estrellaba 
        contra la Luna, generando una gran nube de más de más de 750 
        metros sde altura obre su superficie. Según el artículo que se 
        publica en 'Science', se estima que fueron expulsados hacia el espacio 
        entre 4.000 y 6.000 kilos de restos y vapor de agua.
        
         
        A los cuatro minutos de la explosión, la sonda LCROSS 
        atravesaba esa nube para recoger muestras, que durante un año han sido 
        analizadas por varios grupos de investigación en Estados Unidos. 
        Los resultados del equipo de Anthony Colapetre, del 
        Centro de Investigación Ames de la NASA, revelan que el impacto expulsó 
        unos 155 kilos de vapor de agua y hielo, y estiman que un 5,6% de la 
        masa total del interior del cráter Cabeus es agua helada. También 
        encontraron hidrocarburos, sulfuro y dióxido de carbono.  | 
          | 
        
         
        
           | 
      
    
    Geología compleja
    En la  
    Universidad de 
    Brown, otro equipo, dirigido por el geólogo Peter Schultz, ha analizado 
    las características del cráter y los minerales que contiene, encontrando que 
    la composición de la Luna es mucho más compleja de lo que se pensaba. Además 
    de agua, también contiene compuestos como el amoniaco, el sodio y la 
    plata.
    Todos estos elementos combinados, les han dado pistas 
    sobre el origen de estos minerales y el proceso por el cual acabaron los 
    cráteres polares, que no han visto la luz del Sol en miles de millones de 
    años.
    Schultz cree que los elementos detectados llegaron a la 
    Luna por impactos de cometas, asteroides y meteoritos a lo 
    largo de su historia. Apunta que se fueron depositando por todas las parte 
    del satélite terrestre, pero que después fueron liberados de la superficie 
    por otros impactos menores o se calentaron con el Sol, lo que les dio 
    energía suficiente para volar hasta alcanzar los polos, donde habrían 
    quedado atrapados entre las sombras de los cráteres.
    Además, mantiene la hipótesis de que la variedad de 
    elementos volátiles implica que hay una especie de guerra constante 
    entre lo que se acumula y lo que se pierde continuamente en la tenue 
    atmósfera lunar. "Hay un equilibrio entre lo que llega y lo que se 
    va, aunque creo que va ganando lo que está llegando", afirma el experto, que 
    ha estado estudiando la Luna desde los años 60.
    Fuente: elmundo.es, 22-10-10
 
 
 

 
 
-El 
LHC busca universos paralelos
 
  
    
      | 
       
      El gigantesco 
      acelerador de partículas
      
      LHC, construido por el
      
      CERN, podría encontrar dentro de poco tiempo evidencias de la 
      existencia de “universos paralelos”. Suena a ciencia ficción, pero parece 
      que los experimentos de física de alta energía que se realizan en ese 
      lugar podrían efectivamente probar la validez de estas teorías. Mientras 
      tanto, seguimos esperando la “aparición” del escurridizo
      
      bosón de Higgs. 
      
        Es muy difícil hablar de “universos 
        paralelos” sin pensar en el argumento de una historia de ciencia 
        ficción. Sin embargo, y aunque la idea ha sido difundida ampliamente por 
        los escritores de este tipo de novelas, el concepto tiene muchos adeptos 
        entre los científicos. Desde el punto de vista de la ciencia, tal como 
        lo explica el último boletín de noticias emitido por el 
        
        CERN, referirse a los universos paralelos significa hablar de 
        “formas desconocidas de materias o dimensiones extras”. Desde hace 
        décadas, los físicos se han quemado las pestañas tratando de determinar 
        si el universo realmente posee las cuatro dimensiones de toda la vida 
        (tres físicas y una temporal), o si existen otras que por su naturaleza 
        no podemos percibir.  
       | 
        | 
      
       
      
         | 
    
  
   La 
  
  Teoría de Cuerdas, por ejemplo, postula que las partículas de nuestro 
  universo, como los electrones o protones, no son un mero "punto sin estructura 
  interna y de dimensión cero”, sino una minúscula cuerda que vibra en un 
  espacio-tiempo de más de cuatro dimensiones. Sus defensores creen que estas 
  cuerdas no se mueven en el espacio-tiempo ordinario de cuatro dimensiones 
  (tipo Kaluza-Klein) sino que lo hacen en seis dimensiones adicionales, 
  compactadas, dando lugar a un universo de 10 dimensiones: una temporal, tres 
  espaciales “normales” y seis “minimizadas” e indetectables por ahora.
  Dimensiones ocultas
  Los físicos del CERN que investigan los orígenes 
  del Universo esperan que en 2011 puedan obtenerse, gracias al LHC, las 
  primeras pruebas concretas de estas “dimensiones ocultas”. Esto no significa 
  que se hayan abandonado los esfuerzos dedicados a dar con el bosón de Higgs -a 
  veces referido como
  
  “la partícula de Dios” por la prensa- ni mucho menos. De hecho, estas 
  dimensiones extrañas del universo podrían evidenciarse mientras se producen 
  los choques de partículas de alta energía que el acelerador provoca para 
  encontrar la escurridiza súper partícula.  
  El director general del CERN, Rolf Heuer, tiene 
  la esperanza de que al analizar los datos generados por el acelerador aparezca 
  alguna evidencia de estos -quizás mal llamados- “universos paralelos”. El 
  mismo Heuer ha dicho que el acelerador está produciendo
  
  choques de protones a un ritmo de 5 millones por segundo, algunas semanas 
  antes de lo que estaba previsto. Si no surgen retrasos, a principios 
  del próximo año este ritmo se incrementará, y los detectores del CERN entregarán 
  miles de millones de datos extra entre los que se podrían encontrar 
  “algunas sorpresas”.
  Aparece y desaparece
  ¿Como podemos saber que una de estas dimensiones 
  ocultas existe realmente? Los físicos del CERN creen que al analizar los datos 
  del acelerador podrían encontrar rastros 
  de que alguna partícula “desaparece” durante un brevísimo lapso de tiempo, 
  para luego aparecer nuevamente. Si ello ocurre, una de las 
  explicaciones posibles sería que la partícula en cuestión se ha “deslizado” a 
  alguna de estas seis dimensiones ocultas para luego volver al universo que 
  todos conocemos. Esto, de producirse y probarse su existencia, no significa 
  que tengamos -ni remotamente- la posibilidad de explorar o viajar a estos 
  “universos paralelos”. Solo habríamos probado que la estructura íntima de la 
  materia es diferente a lo normalmente aceptado, que -por supuesto- no es poca 
  cosa.
  Fuente: abc.es, 22-10-10
  

 
 
 
"Esto 
puede ser muy parecido a `Gran Hermano´"
  El viaje imaginario a Marte más ambicioso de la historia 
  lleva más de 140 días en marcha. Sus participantes tres rusos, un francés, un 
  italocolombiano y un chino no se han movido ni un centímetro del módulo de 
  aislamiento en Moscú en el que simulan un viaje de ida y vuelta al planeta 
  rojo. Por delante quedan más de 350 días en los que seguirán siendo objeto de 
  decenas de experimentos y durante los cuales se enfundarán en trajes 
  espaciales para explorar una superficie marciana de pega. Diego Urbina, uno de 
  los tripulantes de la misión Mars 500, financiada por la Agencia Espacial 
  Europea y el Instituto de Problemas Biomédicos de Moscú, narra su experiencia 
  a Público con un sistema de email con retardo, debido a que, en 
  teoría, está a más de 33 millones de kilómetros de la Tierra.  
  
  
  
  ¿En qué punto se encuentran y cuándo llegarán a 
  Marte?
  Desde aquí la Tierra sería como una moneda de dos euros a 
  una distancia de 70 metros. Llegaremos a Marte en febrero de 2011. Entonces, 
  Alexander, Wang Yue y yo nos iremos a vivir al módulo de aterrizaje marciano 
  durante un mes y realizaremos una exploración con trajes de astronauta.
  ¿Cómo es un día normal dentro del módulo de 
  confinamiento?
  Nos levantamos a las ocho de la mañana y nos entregamos a 
  las tareas rutinarias, tests psicológicos, muestras de orina... Después 
  desayunamos juntos. Antes nos lavamos las manos, claro. Hacemos experimentos y 
  luego vamos al gimnasio durante una hora. Luego comemos y hacemos más 
  experimentos. Tenemos casi toda la tarde libre. La pasamos leyendo, viendo 
  películas o jugando a videojuegos con la red interna de la nave. En total 
  tenemos unas seis horas de trabajo al día, diez horas libres y otras ocho para 
  dormir. Algunos días sientes que necesitas más trabajo, aunque a finales de 
  mes, cuando se concentra la mayoría de los experimentos, esto es una locura.
  Están realizando más de 100 experimentos, desde 
  usar medicina alternativa a aliviar la tensión con realidad virtual. ¿Cuáles 
  han sido los más difíciles?
  Mis experimentos favoritos son los simuladores con naves 
  espaciales y los que tienen ejercicio físico, aunque el que más aborrezco es 
  uno en el que tengo que sostener una bolsa de 25 kilos durante un buen rato. 
  Otro que no es nada divertido es pincharme el dedo cada hora durante una 
  mañana entera para tomar muestras de sangre, aunque afortunadamente sólo lo 
  tenemos que hacer cada dos meses.
  Ahora que lleva 140 días, ¿qué cree que sería 
  diferente si realmente estuviera viajando hacia Marte?
  Muchas cosas serían igual. La separación de tu familia, la 
  soledad, la autonomía, la necesidad de vivir una vida nueva mucho más simple, 
  el extraordinario cuidado que debes tener contigo mismo, la necesidad de que 
  el equipo funcione, la paciencia y testarudez que se necesita para hacer algo 
  como esto... Pero otras cosas cambiarían, como la posibilidad de sufrir 
  accidentes con la nave o lo emocionante que sería llegar a Marte de verdad.
  ¿Qué ha sido lo mejor de estos 140 días?
  He tenido muchas experiencias positivas, sobre todo cuando 
  intentas sobreponerte a las dificultades con cierta ingenuidad. Por ejemplo, 
  me he inventado una manera para poder twittear de forma indirecta, 
  sin internet. También he ideado un software que me ahorra tener que repetir 
  muchos experimentos. Hasta he diseñado una especie de bolsillo extra para los 
  pantalones cortos reglamentarios, que por un error se hicieron sin bolsillos. 
  Todo esto parecerá una tontería desde fuera, pero aquí te ayuda a seguir 
  adelante, a aprender de ti mismo y conocerte mejor.
  ¿Qué ha sido lo peor?
  Por ahora no me puedo quejar, toco madera. Tal vez lo peor 
  sea no poder hablar italiano o español casi nunca.
  ¿Qué dice su familia sobre lo que está haciendo?
  Me animan mucho. Me mandan noticias de todo el mundo. No 
  podría hacer lo que hago sin el apoyo que me están dando.
  Su misión se ha rebautizado como el Gran Hermano 
  Marciano'. ¿Está empezando a parecerse?
  Puede ser muy parecido, porque tenemos a un grupo de gente 
  que vive en el mismo sitio y está siendo grabada en todo momento. El resto es 
  diferente, aquí la gente no finge, ni se pelea ni hace cosas intolerables para 
  ganar audiencia o ser más popular. Aquí sólo somos seis tipos intentando hacer 
  cada día lo más agradable posible, mientras hacemos un trabajo duro.
  ¿Qué es lo que más echa de menos? ¿Tal vez a su 
  pareja?
  La libertad de poder ir a donde quiera. La facilidad de 
  comunicarme con quien quiera por teléfono o internet. Echo de menos a mi 
  familia y amigos. Sin embargo, estar aislado de posibles distracciones tiene 
  ventajas, más oportunidades para mejorar como persona.
  ¿Cómo está la moral para llegar a los 520 días?
  Estupenda. Pasamos mucho tiempo juntos y estamos de buen humor. Esperamos 
  que todo siga así en la segunda parte de la misión.
  ¿A qué piensa dedicarse una vez termine la misión?
  Seguiré siendo ingeniero espacial y me dedicaré a la educación para 
  contribuir a que algún día la humanidad salga de su cuna, la Tierra.
  ¿Qué será lo primero que haga cuando salga de ahí?
  Me pegaré una cena impresionante y me iré a bailar música latina hasta que 
  me caiga redondo.
  Fuente: publico.es, 21-10-10
   
  

   
 
 
-La 
sonda LCROSS confirma la presencia de agua helada en la Luna
Cinco toneladas de Luna que 
habían estado esperando miles de millones de años en un oscuro cráter 
salieron a la luz cuando 
una sonda de la NASA se estrelló allí el 9 de octubre del 
año pasado. El análisis del material liberado, presentado ayer en rueda de 
prensa y detallado hoy en la revista Science, confirma que los cráteres del polo 
sur de la Luna albergan una gran cantidad de agua helada.
 
  
    | 
     
    
      
    
      
        
          
          El cráter Cabeus, lugar del impacto de la sonda 
          Lcross de la NASA en el polo sur de la Luna NASA 
          
       
     
     | 
      | 
    
     Estos resultados “indican que hay minerales de interés a 
    poca profundidad y que se podrá acceder a ellos con las tecnologías 
    actuales” si se envía una misión robótica o tripulada al polo sur de la 
    Luna, explicó ayer Ignasi Casanova, geólogo planetario de la Universitat 
    Politècnica de Catalunya que trabaja en un proyecto de exploración lunar. 
     
    Cuando 
    
    la NASA lanzó la  
    misión LCROSS en junio del 2009, el 
    objetivo era precisamente explorar la superficie lunar con vistas a volver a 
    enviar astronautas allí alrededor del 2020 y más adelante construir una base 
    lunar. En este sentido, la misión ha cumplido sus objetivos. Desde el punto 
    de vista de ingeniería, sus resultados allanan el trabajo a futuras 
    misiones, apunta Casanova.  
     
    En los últimos 16 meses, sin embargo, la Administración Obama ha reorientado 
    la estrategia de la NASA y ha renunciado a los planes de reanudar los vuelos 
    tripulados a la Luna. En este nuevo contexto, no hay planes para que los 
    frutos de LCROSS tengan continuidad a corto plazo. 
     
    Según los resultados presentados ayer, el impacto que la misión LCROSS 
    provocó en el polo sur de la Luna abrió un cráter de entre 25 y 30 metros de 
    diámetro. Con el calor liberado en la colisión, los minerales que se 
    encontraban allí pasaron de unos 230 grados bajo cero a más de 700 grados. 
    El impacto liberó por lo menos dos toneladas de minerales, y probablemente 
    entre cuatro y seis, que salieron despedidas hacia el espacio formando un 
    gran penacho de gas y polvo.    | 
  
Los investigadores han estimado que cerca de un 5,6% del material liberado era
vapor de agua, una cantidad suficiente para pensar en extraer oxígeno del suelo 
del satélite el día que los astronautas vuelvan a la Luna. El director 
científico de la misión, Anthony Colaprete, calcula que hay suficiente agua para 
llenar 1.500 piscinas olímpicas en el cráter Cabeus, una 
formación de unos 100 kilómetros de diámetro que fue elegida para el impacto.
Cabeus fue seleccionado porque tiene una amplia región en la que nunca brilla el 
sol. Al estar siempre a baja temperatura, pensaban los científicos, habría 
conservado el agua helada de los cometas que han caído allí desde los albores 
del sistema solar. Los resultados presentados ayer han superado las 
expectativas, ya que el cráter contiene más agua de la que se esperaba.
Junto al agua, los investigadores han identificado otras moléculas interesantes 
como hidrocarburos ligeros, así como metales inesperados como plata y mercurio. 
“Los hidrocarburos son interesantes cara a comprender cómo llegaron estos 
minerales a la Luna”, explicó ayer Ignasi Casanova. En cuanto al mercurio, del 
que se liberaron 120 kilos en el lugar del impacto, habrá que tomar precauciones 
para evitar que intoxique a astronautas en el futuro, advirtió Kurt Retherford, 
investigador de la misión.
Fuente: lavanguardia.es, 21-10-10

 
-La ONU pesimita con 
respecto a los acuerdos de Cancún
La ONU ha descartado que la 
Conferencia de las Partes de 
Naciones Unidas sobre Cambio Climático (COP16) que se celebrará a finales de 
año en Cancún alcance "acuerdos exhaustivos", pero confió en que se logren 
pactos "integrales con resultados a corto plazo".
Así lo afirmó en la capital mexicana Christiana Figueres, 
principal representante de la  
ONU para el diálogo sobre el cambio climático, quien aseguró que durante la 
cita de Cancún se requerirá una "voluntad política decidida" 
para lograr acciones concretas.
La alta funcionaria señaló, a través de una videoconferencia 
durante un seminario sobre cambio climático organizado por la ONU, que los 
gobiernos que asistirán a Cancún "quieren abordar todos los temas, pero 
será imposible hacerlo en detalle".
Acuerdos y desencuentros
En su opinión, uno de los asuntos más complejos en la 
negociación será el de lograr metas en la reducción de emisiones de dióxido de 
carbono y definir qué países deben adoptar estas limitaciones. Sin embargo, 
señaló que existe un consenso sobre la necesidad de crear un fondo 
para que los países desarrollados apoyen la reducción y adaptación al cambio 
climático de las naciones en desarrollo.
  
    Otro de los puntos en los que se podrían avanzar 
    acuerdos, según Figueres, es la reducción de la deforestación a través del
    
    
    Mecanismo 
    de Reducción de Emisiones por Deforestación y Degradación de los Bosques (REDD+). 
    La funcionaria afirmó que en Cancún podrían darse las condiciones para 
    otorgar incentivos a los países que reglamenten la deforestación. Sobre la 
    aprobación de una nueva "arquitectura financiera" las naciones están 
    divididas entre los que quieren que se apoyen en instituciones existentes 
    como el  
    Banco Mundial, 
    y los que defienden la creación de un fondo nuevo controlado por los 
    gobiernos, dijo Figueres.  
    Se refirió también a la confrontación entre China 
    y Estados Unidos, los dos países con mayores emisiones 
    contaminantes del mundo y que no están sometidos a compromisos de reducción. 
    A su juicio, la Cumbre de Cancún debería lograr que ambas naciones firmen 
    sus promesas, hasta ahora "informales", de reducción de emisiones.
    Futuro incierto
    Figueres aseguró que es una incógnita qué sucederá con el
    
    
    Protocolo de Kioto, que vence en 2012, pues la mayoría de países en 
    desarrollo apuestan por un nuevo periodo de compromiso a partir de 2013 y 
    otros, como Rusia y Japón, se oponen a ello. Este lunes, el Gobierno de 
    México, anfitrión del encuentro de Cancún, reconoció también que "no están 
    dadas las condiciones" para lograr un acuerdo global de reducciones de 
    emisiones de gases en esa cita.
    Según Figueres, la COP15, celebrada el pasado año en 
    Copenhague y que concluyó sin un acuerdo vinculante en reducción de 
    emisiones, estuvo marcada por la falta de transparencia, mientras que para 
    la COP16 el gobierno mexicano actúa bajo la premisa de la "inclusividad".
    Las autoridades mexicanas calculan que más de 30.000 
    personas asistirán cada día a la cita de Cancún, a la que de momento ningún 
    mandatario ha confirmado su participación pero en la que estarán 
    representadas 193 naciones.
    Fuente: elmundo.es, 20-10-10
 
 

 
 
  -La nueva "arca de Noé" es una torre de 100 metros
  Un
  
  zoológico vertical de más de 100 metros ha sido propuesto para ser 
  construido en Buenos Aires, en la Reserva Ecológica Costanera Sur. El 
  proyecto, denominado
  
  Eco-Cliff, consiste en una espectacular torre que podría servir como 
  punto de anidación para miles de aves migratorias y un hábitat ecológico para 
  todo tipo de animales.  
  
    
      
      
        | 
        | 
      
       Una de las estructuras conceptuales más 
      interesantes presentadas en los últimos tiempos ha sido la torre de 
      burbujas del MIT, que estaba planeada para las Olimpiadas de 2012 en 
      Londres. Sin embargo, ahora estamos frente a un concepto aún más 
      interesante, que podría construirse en Argentina. La torre ha sido 
      diseñada por Hila Davidpu, Tal Gazit, Eli Gotman y Hofi Harari para 
      participar de una competición para construir un
      
      zoológico vertical frente a Puerto Madero, en la Reserva Ecológica 
      Costanera Sur.   
Sería un verdadero 
espectáculo para la vista si se hiciera realidad. Según explican los 
responsables, para minimizar el uso de vehículos a motor, la torre
solo sería accesible mediante teleférico y utilizaría un sistema de 
células fotoeléctricas para autoabastecerse de energía. Y no solo sería un 
impactante diseño, sino que también sería un zoológico y hábitat para varios 
tipos de animales.
Todos los visitantes podrían ver a los animales a través de senderos 
artificiales que serpentearían a lo largo de la torre, ofreciendo una 
experiencia fuera de lo común. Con la idea de simular un acantilado, la torre 
tendría varias aperturas para que ingresen los rayos del sol, la lluvia y el 
aire fresco, y se serviría de un sistema de redes y cables para cumplir 
distintas funciones. La pregunta que quedaría por responder es si muchas 
especies animales serían capaces de vivir en una torre de más de 100 metros del 
altura, en condiciones que, sin más detalle, parecen distar bastante de las de 
su hábitat natural. Si llegan a hacerlo posible, sería una cita obligada como 
muchas otras fantásticas construcciones alrededor del mundo. 
       | 
    
  
 
Fuente: abc.es, 
19-10-10
 

 
-El 
canibalismo del "Tiranosaurio rex"
El rey de los dinosaurios practicaba el canibalismo. El 
temido 'Tiranosaurio rex' no sólo comía otros dinosaurios sino que también se 
alimentaba de ejemplares de su misma especie. Un grupo de paleontólogos de EEUU 
y Canadá ha llegado a esta conclusión tras comprobar que las mordeduras halladas 
en algunos huesos gigantes fueron hechas por un 'Tiranosaurio rex'. La 
investigación ha sido publicada esta semana en la revista 
PLoS ONE.
El cine ha hecho del 'T. rex' uno de los dinosaurios más 
conocidos. Fue también uno de los carnívoros terrestres de mayor tamaño 
de todos los tiempos: podía alcanzar los 13 metros de longitud y medir cinco 
metros de altura. Asimismo, su peso podía llegar a las 10 toneladas. 
Este animal vivió hace entre 67 y 65 millones de años en el Maastrichtiano, la 
última época del Cretácico, en el territorio que hoy ocupa Norteamérica.
Su dieta es uno de los aspectos que más discusión 
siguen suscitando entre los científicos ya que, hasta ahora, había 
pocas pruebas directas sobre la forma en la que se alimentaba.
Una práctica habitual
  
    | 
     
    
      
    
      
      Recreación de un T. rex devorando a otro. | N. Longrich / 
      Yale University  
     | 
      | 
    
     Tras examinar las colecciones de fósiles de varios 
    museos, el equipo liderado por el investigador de la 
    Universidad de Yale Nick 
    Longrich halló en cuatro ejemplares de 'T. rex' marcas de dientes realizadas 
    por dinosaurios carnívoros de gran tamaño. La mayor parte de las mordeduras 
    estaban en las patas. El único animal capaz de hacer este tipo de marcas en 
    la época en la que vivieron los animales examinados era otro 'T. rex'. 
    Los investigadores se han mostrado sorprendidos por la 
    frecuencia con la que aparentemente practicaban el canibalismo, aunque
    todavía no saben su significado. Es posible que actuaran 
    como carroñeros cuando un animal moría o bien el resultado de una pelea 
    entre 'T. rex': el ganador se daba un festín a costa del derrotado. 
    "Los carnívoros actuales se comportan así todo el tiempo. Era una 
    manera de acabar con la competencia y obtener comida al mismo tiempo", 
    asegura Longrich. 
    Sin embargo, algunas de las marcas fueron hechas 
    tiempo después de que el animal hubiera fallecido. Según los 
    investigadores, esto podría explicarse de la siguiente manera. El dinosaurio 
    vencedor se habría comido las partes más accesibles de su víctima en el 
    momento de la muerte. Tiempo después, habría vuelto a por los huesos de las 
    patas. 
       | 
  
  
    A pesar de que a los científicos sólo les consta que otra 
    especie de dinosaurio, el 'Majungatholus', practicara el canibalismo, los 
    paleontólogos sospechan que se trataba de una práctica relativamente común 
    entre los grandes carnívoros.
 
 
 
Fuente: 
elmundo.es, 19-10-10
 

-Cazando leones en Atapuerca
Efectivamente, el nivel 10 de este yacimiento está siendo excavado desde el 
año 1980, primero en una reducida extensión y desde hace más de 10 años en una 
área de aproximadamente 80 metros cuadrados.  Se han registrado decenas de miles 
de restos esqueléticos pertenecientes básicamente a herbívoros, así como 
herramientas de piedra talladas sobre rocas de silex y cuarcita, pertenecientes 
presumiblemente a los restos dejados por el 
Homo 
heildebergensis en sus ocupaciones humanas en esta cueva durante el 
Pleistoceno medio, hace entre 300.000 a 350.000 años.
El análisis efectuado sobre los restos óseos de un paleodepredador de gran 
tamaño podría alcanzar los 400 kilos; se ha podido demostrar que se habían 
practicado sobre su cadáver una serie de intervenciones destinadas a la 
obtención de la biomasa animal. Había sido despellejado y eviscerado, 
siguiendo las pautas que los homininos hacían servir en el Pleistoceno con otros 
vertebrados herbívoros.
La caza de un león de gran envergadura con las armas de que disponían estos 
homínidos, hipotéticamente palos afilados y lanzas, no debía ser una 
tarea fácil a menos que el animal tuviera alguna patología que lo hacia 
más vulnerable. Es interesante el hecho que se constate que los Homo 
heidelbergensis, en sus estrategias cinegéticas, tuvieran también como 
objetivo estos grades depredadores.
Todo parece indicar un gran incremento de complejidad para 
las poblaciones de homininos que habitaban la meseta hace más de 300.000 años. 
Los descubrimientos que hemos efectuado en la 
Sima de los Huesos, con una 
antigüedad de más de 500.000 han evidenciado una gran encefalización, 
así como una gran robustez en los taxones analizados. Estas dos 
características nos hacen pensar que los homininos de Gran Dolina, más recientes 
que los de la Sima, pero pertenecientes a la misma especie, disponían de 
unas habilidades y un potencial de caza extraordinario, por lo cual no 
es de extrañar que cacen leones.
A medida que la investigación avanza, nuevos hallazgos nos permiten conocer 
las estrategias adaptativas de nuestros antepasados. 
Enfrentarse a animales poderosos formaba parte de su estrategia social. 
Seguramente, sin incrementar su sociabilidad durante decenas de 
miles de años, no hubiera podido hacer frente a este reto.
Fuente: elmundo.es (blog sapiens), 18-10-10
 

 
 
-"Las 
matemáticas siempre han ayudado al progreso de las ciencias"
Simon Levin (Baltimore, 1941) recogió el jueves pasado en Barcelona el Premio 
Ramon Margalef de Ecología 2010 por su contribución a la ecología teórica y por 
su trabajo innovador sobre la integración de diferentes escalas para la 
comprensión de los procesos ecológicos.
  
    | 
     
    
      
    
      
        
           
          Simon Levin, en Barcelona, después de recoger el Premio 
          Margalef. Guillem Valle
        
       
      
     
       | 
      | 
    
     Usted es matemático de formación. ¿Hasta qué 
    punto han sido importantes las matemáticas en su carrera? 
    Me han dado la metodología para entender las cosas, 
    realizar predicciones, sugerir soluciones. Las matemáticas siempre han 
    ayudado al progreso de las ciencias. En la universidad empecé a ocuparme de 
    la dinámica de fluidos y de la física, pero quería ir más allá. Las 
    matemáticas se habían aplicado a la ecología y la biología, aunque cuando yo 
    empecé había muy pocos investigadores provenientes de este campo. Siempre 
    enfatizo la importancia de asociar la teoría matemática a las pruebas 
    empíricas en los trabajos de laboratorio o de campo. 
    Cada vez se utilizan más los modelos de 
    previsión, pero ¿no cree que nos faltan demasiados datos? 
    
      Sin duda. Hay una limitación muy grande. Y, a menudo, 
      la teoría que tenemos no es adecuada a los datos de los que disponemos. A 
      veces el trabajo teórico sustituye al empírico si este no se puede llevar 
      a cabo y para ello debemos poder desarrollar modelos de confianza. Es la 
      situación en la que nos encontramos al predecir el cambio climático o 
      algunas enfermedades infecciosas  
     | 
  
  
  El Premio Margalef destaca su contribución al integrar diferentes 
  escalas a las investigaciones...
  Todos los 
  problemas científicos implican procesos que operan a diferentes escalas: 
  temporales, espaciales o de complejidad organizativa. La física trata de 
  capturar de forma estadística el comportamiento de un número muy grande de 
  moléculas en situaciones simples, como hervir agua, por ejemplo. Este tipo de 
  problemas también se dan en fenómenos biológicos y sociales.  
  ¿Cómo se mejora la gestión de los ecosistemas?
  Es nuestro mayor reto. Vivimos en una comunidad global, 
  donde los recursos son compartidos por todos. El mayor beneficio global 
  requiere que algunos actores (individuos o naciones) se sacrifiquen.
  ¿Hasta qué punto afecta al mar la sobreexplotación 
  pesquera?
  En los mares se dan los cambios más preocupantes. Tenemos 
  que recibir los bienes y servicios que nos ofrecen los ecosistemas, que es la 
  esencia de la sostenibilidad. Por desgracia, hemos visto los recursos 
  pesqueros como algo infinito. Sabemos que las especies que consumimos se han 
  reducido, especialmente por la sobreexplotación y eso da lugar a situaciones 
  como la del mero chileno, un pescado muy popular y delicioso, que las ONG nos 
  sugieren que dejemos de consumir. Sin embargo, está en los menús. ¿Debo dejar 
  de comer este pescado? Al fin y al cabo, ya está muerto. Pero sustituir 
  poblaciones salvajes por las de piscifactoría lleva a otros problemas 
  medioambientales, como la contaminación o el abuso energético, que son 
  inaceptables.  
  Fuente: publico.es, 17-10-10
 
 
 

 
 
-El nitrógeno 
antropogénico, una amenaza para la flora y la fauna
 
Investigadores de 
Dinamarca y Estados Unidos han descubierto que los ecosistemas del planeta están 
saturados de nitrógeno generado por el ser humano. Además, la concentración de 
nitrógeno se ve aumentada por la quema de combustibles fósiles y por la 
intensificación de la actividad industrial y agrícola. 
 
Este exceso de 
nitrógeno podría repercutir gravemente en el clima y viene al mismo tiempo 
acompañado de una contaminación de cursos de agua dulce y zonas litorales por 
efecto de diversas actividades humanas. El estudio, publicado en la revista 
Science, ha revelado que una aplicación más amplia de prácticas sostenibles y ya 
consolidadas contribuiría a limitar los impactos nocivos en el medio ambiente.
Los investigadores, pertenecientes a la Universidad del Sur de Dinamarca y a las 
Universidades de California-Berkeley y Rutgers (Estados Unidos), explican que el 
ciclo del nitrógeno, que tiene miles de millones de años de antigüedad, consiste 
en la transformación de las formas de nitrógeno de la atmósfera que no son 
útiles biológicamente en una serie de formas que sí lo son y que diversos 
organismos necesitan para crear proteínas, ADN y ARN (ácidos desoxirribonucleico 
y ribonucleico) y hacer la fotosíntesis. La «fijación del nitrógeno» es el 
término científico empleado para referirse a la conversión de nitrógeno 
atmosférico en diversos compuestos, como el amoníaco, ya sea por medios 
naturales o procesos industriales. . La fijación del nitrógeno se produce en un 
ciclo que abarca la atmósfera, el suelo, las plantas y sus raíces y por él 
discurren los productos generados, fomentando relaciones entre organismos, 
microorganismos y plantas.
Con el tiempo, dicho ciclo ha cambiado gradualmente desde sus orígenes debido a 
distintas circunstancias como la luz solar, los procesos volcánicos y las 
actividades biológicas. Tras 2.500 millones de años de evolución, los procesos 
microbianos han conformado el ciclo del nitrógeno tal y como lo conocemos ahora.
Las actividades humanas empezaron a influir en este ciclo a principios del s. XX. 
«De hecho, en los últimos 2.500 millones de años probablemente ningún otro 
fenómeno ha influido más que las actividades humanas en el ciclo del nitrógeno», 
indicó uno de los autores del estudio, el profesor Paul Falkowski del Instituto 
de Estudios Marinos y Costeros de la Universidad Rutgers. «En conjunto, las 
actividades humanas generan actualmente el doble de los procesos de fijación de 
nitrógeno terrestre que las fuentes naturales y proporcionan cerca del 45% del 
total del nitrógeno biológicamente útil que se produce cada año en la Tierra».
Los datos recabados indican que la mayor parte del exceso de nitrógeno que hay 
en los ecosistemas del planeta se debe a un incremento del 800% en el uso de 
fertilizantes a base de nitrógeno en el periodo 1960-2000. 
Este exceso se atribuye también a un uso inadecuado de una gran cantidad de 
fertilizante a base de nitrógeno en cultivos de todo el planeta. Cerca del 60% 
del nitrógeno contenido en los fertilizantes aplicados no llega a ser absorbido 
por las plantas y por tanto es arrastrado desde las zonas radicales y a va a 
parar a ríos, lagos, acuíferos y aguas costeras, los cuales contamina por 
eutrofización. Este proceso se debe al exceso de nutrientes que agota el oxígeno 
de las masas de agua y, por consiguiente, provoca la muerte de la flora y la 
fauna.
Con respecto a la atmósfera, los investigadores indican que el óxido de 
nitrógeno es un gas de efecto invernadero cuyo efecto en el calentamiento del 
planeta es 300 veces por molécula superior al del dióxido de carbono. En 
resumen, el óxido de nitrógeno elimina el ozono de la estratosfera, que protege 
el planeta frente a los dañinos rayos ultravioleta.
«Es probable que los procesos naturales de retroalimentación de los 
microorganismos provoquen un nuevo régimen estacionario en escalas de tiempo de 
numerosas décadas», afirmó el profesor Falkowski. «En dicho régimen 
estacionario, el nitrógeno excedente procedente de fuentes humanas se eliminará 
a la misma velocidad a la que se añadirá, sin llegar a acumularse».
Los autores han concretado tres intervenciones fundamentales para remediar los 
daños causados al ciclo del nitrógeno: 1) aplicar rotaciones sistemáticas en 
cultivos que suministren nitrógeno; 2) optimizar los tiempos y las cantidades de 
los fertilizantes aplicados y adoptar técnicas fitogenéticas seleccionadas o 
bien desarrollar variedades de plantas transgénicas cuya eficiencia en el uso 
del nitrógeno sea mayor; y 3) aplicar técnicas fitológicas tradicionales que 
aumenten el potencial de variedades económicamente viables de trigo, cebada y 
centeno.
 
Fuente: CORDIS, 
16-10-10
 

 
-Un yacimiento de gas junto al "Prestige"
  
    | 
     Misión Galega do Gran Burato es el nombre que ha 
    recibido la expedición científica compuesta por una veintena de 
    investigadores que, desde hoy, tratará de determinar si en la costa gallega 
    se acumula gas en un volumen suficiente como para hacer rentable su 
    explotación comercial. En concreto, el yacimiento de hidratos de gas, una 
    tipología de hidrocarburo, se encuentra muy cerca del pecio del petrolero
    Prestige, hundido hace ahora ocho años, en una cavidad de cuatro 
    kilómetros de diámetro y 300 metros de fondo, en lo que constituye "la 
    estructura de este tipo más grande del mundo", según Daniel Rey, catedrático 
    de la Universidade de Vigo, del grupo 
    de Geología Marina y Ambiental (Geoma) que coordina la misión. Pese a todo, 
    Rey se muestra cauteloso en cuanto a los resultados. "Sabemos que existe el 
    yacimiento pero la zona es muy inaccesible [se encuentra a 140 kilómetros de 
    la costa y a 1.700 metros de profundidad], por lo que es imposible hablar en 
    estos momentos de si será rentable o 
    no su explotación. Lo que queremos determinar en esta primera fase es si 
    merece la pena seguir con las prospecciones", precisa.   
    
      Por la misma razón, es demasiado pronto para establecer 
      cómo se efectuarían las eventuales extracciones y la 
      explotación del hidrocarburo. De lo que no existe ninguna duda es 
      de la acumulación gasística. Los primeros indicios salieron a la luz en 
      2007 durante la travesía del buque oceanográfico L'Atalante hacia 
      la zona de hundimiento del Prestige. Tres años después, se ha 
      confirmado la presencia de "indicios de gas importantes". La morfología 
      del gran burato (gran agujero, en gallego), así como los
      registros sísmicos, son pruebas 
      concluyentes de la presencia de una reserva de gas. 
      
     | 
      | 
    
     
    
      
    
    
    El Buque Sarmiento de Gamboa  | 
  
  Quince días de estudio
  Investigadores de la Universidade de Vigo y de Aveiro 
  (Portugal), así como científicos del Instituto Español de Oceanografía y del 
  Instituto Andaluz de Ciencias de la Tierra se embarcarán durante 15 días en el 
  buque oceanográfico Sarmiento de Gamboa en una
  expedición financiada por la 
  Conselleria de Industria de la Xunta.  
  "La estructura es gigantesca desde el punto de vista 
  geológico y supone una investigación muy interesante, con el
  interés económico añadido que supone la 
  posibilidad de encontrar gas", explica el catedrático. Con un presupuesto 
  inicial "modesto" de 450.000 euros, precisa Rey, lo siguiente será determinar 
  si compensa seguir adelante con las inversiones.  
  "En esa fase sería preciso poner a prueba una tecnología 
  muy específica y puntera con la que sólo cuentan las grandes petroleras", 
  aclara Rey, que intenta calmar las "expectativas" generadas desde que 
  trascendió la existencia del yacimiento. "Aunque se confirme la viabilidad, no 
  va a cambiar la economía de un día para otro", dice.
  La Xunta no duda, en cambio, de que "si 
  se constatase la existencia de gas con un yacimiento que pudiese ser 
  explotado, Galicia cambiará su posición en el contexto internacional de la 
  energía", según el conselleiro de Industria, Javier Guerra.
  Fuente: publico.es, 15-10-10
 
 
 

 
 
-Objetivo: detectar el cáncer en la sangre
  Los marcadores biológicos constituyen el 'santo grial' del 
  diagnóstico precoz y el tratamiento personalizado en oncología. Esta semana se 
  ha celebrado en Denver (EEUU), bajo los auspicios de la Asociación Americana 
  de Investigación del Cáncer, la reunión más importante en este ámbito. Los 
  estudios presentados muestran la intensa búsqueda de sustancias con un 
  gran potencial para detectar tumores en fases iniciales o predecir su 
  evolución con una simple muestra de sangre.
  
    
      | 
       Uno de los trabajos expuestos, desarrollado en Reino 
      Unido por la empresa Oxford Gene Technology, consiste en un conjunto de 
      biomarcadores que pueden determinar si existe un cáncer de próstata con un 
      porcentaje de seguridad del 90%. Otro estudio describe un procedimiento 
      que detecta en sangre la mayoría de los cánceres de colon cuando apenas 
      han empezado a gestarse. Mama, vejiga, pulmón... todos los tumores podrían 
      contar, en el futuro, con sistemas de diagnóstico mucho más sencillos que 
      los actuales. Los más optimistas creen que, incluso, podrían 
      llegar a sustituir a las actuales mamografías, colonoscopias y biopsias. 
      Sin embargo, de momento se trata únicamente de 
      promesas. Respaldadas por expertos de reconocido prestigio y con una 
      sólida base científica, pero con un largo recorrido por delante. Tal y 
      como explica Jesús García-Foncillas, codirector del Programa de 
      Biomarcadores en Oncología del Instituto Roche y director del Departamento 
      de Oncología de la Clínica Universidad de Navarra, "existe una clarísima 
      base racional para afirmar que, desde los primeros albores de un tumor, 
      las células tumorales secretan moléculas que pueden detectarse en sangre 
      periférica".  | 
        | 
      
       
      
         | 
    
  
  El problema es que esas sustancias aparecen en cantidades 
  muy pequeñas cuando el cáncer es incipiente y, con frecuencia, sólo se 
  observan de forma clara y abundante cuando el tumor ya se encuentra en una 
  fase bastante más avanzada.
  Confusión
  Algunos marcadores pueden plantear otro escollo: que sean 
  poco específicos. Puede ser que se relacionen con una enfermedad, pero que 
  también estén elevados en otras patologías o circunstancias. Un ejemplo 
  hipotético: si una proteína presente en la sangre de quienes sufren un cáncer 
  de colon en fase inicial también se encuentra en cantidades elevadas en los 
  fumadores, ¿cómo podrían asegurarse los médicos de que realmente se trata de 
  un tumor? La respuesta está clara: mediante la realización de otras pruebas 
  disponibles, como la colonoscopia.
  En la última década se ha intensificado la búsqueda de 
  biomarcadores para el diagnóstico precoz del cáncer en sangre. Pero, debido a 
  las dificultades mencionadas, "hoy por hoy, lo que tenemos en la 
  práctica clínica diaria es muy poco", señala Félix Bonilla, jefe del 
  Servicio de Oncología del Hospital Universitario Puerta de Hierro Majadahonda 
  de Madrid. "Hay dos muy buenos para los tumores germinales de testículo y de 
  ovario, que permiten hacer un diagnóstico sin necesidad de pruebas de imagen", 
  añade. Se trata de las proteínas beta-HCG y alfa-fetoproteína. Otra sustancia 
  muy usada es el antígeno prostático específico (PSA) para detectar el cáncer 
  de próstata, aunque su empleo no está exento de controversia.
  Los oncólogos utilizan otros biomarcadores que se 
  encuentran en la sangre. Sin embargo, no van destinados al diagnóstico, sino 
  al seguimiento de la evolución de los tumores. Se ha comprobado que algunas 
  sustancias aportan información muy útil sobre el pronóstico de la patología y 
  muestran si responde de forma adecuada a la medicación.
  Ésta es, precisamente, una de las áreas que, según García-Foncillas, 
  sí que está logrando introducirse en los hospitales de todo el mundo. No todos 
  los posibles biomarcadores destinados a predecir qué fármaco es mejor para 
  cada tumor llegan a buen puerto, pero el experto calcula que aproximadamente 
  uno de cada cinco pasa la criba y se consolida en la práctica clínica.
 
 
Fuente: abc.es, 
14-10-11
 

 
 
-La 
mano de obra sale a 4,6 euros por iPhone en China
 
  La mano de obra para la fabricación del iPhone 
  4 sale en China a 6,54 dólares (4,6 euros) por unidad, lo que significa 
  un 1,1% de su precio de venta, según la firma de investigaciones de mercado
  
  
  iSuppli.
    
      | 
       Este dato resulta llamativo coincidiendo con la 
      denuncia de las condiciones laborales de 
      los trabajadores de Foxconn, empresa encargada de la fabricación 
      del iPhone y con sede en China, envuelta en polémica por una ola de 
      suicidio. 
      Por el contrario, el informe resalta que los márgenes 
      de beneficio de Apple con el iPhone rondan el
      60%. 
      El pasado mes de junio, iSuppli también cifraba el 
      coste total de fabricación del dispositivo en
      188 dólares (152,4 euros). El 
      análisis era con la versión de 16 GB del iPhone 4, que se podía adquirir 
      por 199 dólares (161,3 euros) en EEUU, a lo que había que sumar un 
      contrato de consumo con AT&T. 
      Algunos de los precios de las piezas eran, por ejemplo, 
      el chip del giroscopio, en 2,6 dólares (2,1 euros) o el chip A4 fabricado 
      por Samsung, 10,75 dólares (8,7 euros). El componente más caro era la 
      pantalla del dispositivo, fabricada por LG Display con un coste de 28,5 
      dólares (23 euros).  | 
        | 
      
       
      
         | 
    
  
  Fuente: publico.es, 13-5-10
 
 
 

 
 
-EEUU trata al primer paciente con células madre embrionarias
El primer paciente inscrito en el primer ensayo clínico con 
células madre embrionarias humanas del mundo ha sufrido hace menos de 14 días un 
daño medular agudo que le ha producido una parálisis parcial. Es muy probable 
que sea una víctima más de los accidentes de automóvil, pero no se sabe, igual 
que no se conocen su nombre, su sexo y su edad. Lo único que se sabe es que está 
siendo tratado en el hospital privado Shepherd Center de Atlanta (Estado de 
Georgia, EE UU), porque así lo han comunicado la empresa Geron, fabricante de 
los dos millones de células que se aplicaron el viernes a este paciente, y el 
citado hospital. No se van a dar más datos por ahora, pero los requisitos para 
entrar en el ensayo clínico sí se conocen y son los descritos: pacientes con 
lesión medular grave, con falta total de actividad locomotora o sensorial por 
debajo de la lesión, y que por las características de esta puedan ser tratados 
entre los siete y los 14 días siguientes.
Las acciones de Geron subieron ayer alrededor de un 6% en 
Bolsa y algunos activistas contrarios al uso de células embrionarias criticaron 
el ensayo: "Geron ayuda a su acción, no a la ciencia ni, especialmente, a los 
pacientes. Pasarán años antes de tener pruebas sólidas sobre la seguridad o la 
efectividad", declaró, por ejemplo, David Prentice, del Consejo de Investigación 
de la Familia.
La empresa obtuvo este verano el permiso definitivo de la 
autoridad sanitaria (la Administración de Alimentos y Medicamentos, FDA) para 
realizar el ensayo, de fase I. El objetivo es probar la seguridad y la 
tolerancia del tratamiento durante un año, aunque también se evaluará su posible 
eficacia en la regeneración de la médula espinal. La terapia consiste en una 
única inyección de un tipo de células del sistema nervioso en el lugar del daño 
en la médula espinal. Estas células producen mielina -la capa aislante que rodea 
los axones de las neuronas y les permite comunicarse a través de impulsos 
eléctricos- así como otros compuestos que favorecen la actividad de las 
neuronas. Cuando se inyectaron en animales estas células, que son precursoras de 
los oligodendrocitos, se vio que migraron al lugar de la lesión, se convirtieron 
en oligodendrocitos funcionales y mejoró ostensiblemente la locomoción de los 
animales.
El ensayo se hará con solo 10 pacientes y en todos o algunos 
de los siete hospitales seleccionados, de los que únicamente se conocen dos, el 
Shepherd Center y el Northwestern Medicine de Chicago.
"El inicio del ensayo clínico es un hito en el campo de las 
terapias basadas en células madre embrionarias", dice Thomas B. Okarma, 
presidente de Geron, en un comunicado. "Cuando empezamos a trabajar con estas 
células, en 1999, muchos predijeron que pasarían décadas antes de que se pudiera 
aprobar una terapia y realizar ensayos clínicos".
Geron ha partido de células procedentes de embriones 
desechados en tratamientos de fertilidad, que ha logrado diferenciar en 
laboratorio para dar lugar a las que va a utilizar en el ensayo. Es una empresa 
privada que no utiliza fondos públicos por lo que no resulta afectada por el 
laberinto legal en que se encuentra en Estados Unidos la investigación con 
células madre embrionarias humanas con estos fondos. Los tribunales permitieron 
recientemente que sigan los experimentos en marcha en este área mientras entran 
a juzgar el fondo de la cuestión, tras admitir a trámite denuncias contra el uso 
de este tipo de células.
Mientras tanto, sigue el desarrollo de técnicas de 
manipulación genética para llegar al mismo sitio a partir de células adultas, 
que se reprograman, y los intentos por clonar células de pacientes para obtener 
terapias celulares sin rechazo.
Fuente: elmundo.es, 12-10-10

 
 
-"No 
he visto un nivel de destrucción así en mi vida"
 
El muro de contención ya 
está terminado, pero los habitantes de Kolontár perderan unas 40 casas dañadas 
por la riada y los productos químicos del lodo
 
  
    
      | 
       El muro ya ha sido levantado, pero muchos de los 
      vecinos de Kolontár están concentrados ahora mismo en otro tipo de 
      construcciones. Sus casas tendrán que ser derruidas por los efectos de la
      
      
      riada de lodo tóxico  
      que ha convertido en un infierno rojo su tierra. 
      Les han prometido viviendas, pero no saben dónde ni quién pondrá en dinero 
      para poder cobijarse bajo un nuevo techo. 
      "No he visto un nivel de destrucción así en mi vida", 
      confiesa Denis Dalmy, un arquitecto encargado de revisar los daños de los 
      edificios. Los peritos, más allá de causa directa de la riada, que ha 
      dañado las infraestructuras de las casas, han destacado que unas 40 
      tendrán que ser derribadas por los perniciosos efectos de los productos 
      químicos y metales pesados que contiene el barro, informa Nuño 
      Domínguez. "Con tanto lodo, habrá que tirarlas".   
      Tibor Dobson, coordinador de la protección civil 
      húngara (OKF), ha confirmado que el Gobierno ha prometido nuevas viviendas 
      a las víctimas, que podrían elegir su ubicación: bien en una zona de la 
      localidad no afectada por la riada, bien en otra población. Los que han 
      corrido mejor suerte tendrán que esperar previsiblemente hasta el sábado 
      para regresar a sus hogares.    | 
        | 
      
       
      
         | 
    
  
  Seis metros de alto
  Las obras del nuevo dique de contención para proteger del
  
  
  lodo tóxico a las localidades húngaras de Kolontár y Devecser han 
  concluido. En algunos puntos mide hasta seis metros y los materiales empleados 
  han sido rocas y tierra compacta, según OKF. 
  Por su parte, la portavoz de protección civil,
  Györgyi Tüttös, explicó que los medios 
  de comunicación y los habitantes no tienen permitido por ahora acercarse a la 
  zona, ya que los niveles de contaminación aérea son tres veces superiores a lo 
  permitido. En un par de días es posible que puedan hacerlo.
  Kolontár, el poblado más afectado 
  Kolontár, en al oeste de Hungría, fue el poblado más 
  afectado por el derrame el 4 de octubre de barro rojo y el levantamiento del 
  nuevo dique de contención tiene por objetivo desviar una posible segunda riada 
  del material corrosivo restante en el reservorio. El muro de unos 1.500 metros 
  de largo está compuesto por unas 40.000 toneladas de rocas transportadas con 
  camiones de gran tonelaje.
  Las autoridades húngaras dan por seguro que ocurrirá un 
  segundo vertido, aunque el barro rojo restante es menos fluido por lo que 
  apenas se desplazará unos mil metros de la balsa. Tüttös explicó que las 
  grietas detectadas en el muro norte del dique de la represa no han aumentado 
  desde hace varios días, lo que indicaría que ha disminuido el peligro de un 
  nuevo vertido.
  Fuente: elmundo.es, 12-10-10
 
 
 

 
 
-El 
primer ministro húngaro habla de "negligencia humana" tras el vertido tóxico
 
  
    | 
     El Estado húngaro ha tomado el control de Magyar 
    Alumínium (MAL), la empresa responsable del vertido tóxico que ha 
    causado ocho muertos en el oeste del país y graves daños ecológicos, tras la 
    detención de su director. 
    "La empresa responsable de la catástrofe debe ser puesta 
    bajo el control del Estado", dijo el primer ministro húngaro, Viktor Orban, 
    en una intervención en el Parlamento en la que recalcó que la 
    "negligencia humana" está detrás de la catástrofe. En su discurso, 
    el jefe de Gobierno húngaro prometió un proceso legal "severo y justo", tras 
    asegurar que no se puede "seguir viviendo con peligros secretos". 
    "Tenemos razones para creer que hubo personas que eran 
    conscientes del peligroso debilitamiento de los muros, pero llevados 
    por sus intereses creyeron que no merecía la pena repararlos", 
    agregó. 
    Detenido el director de la empresa
    El director de MAL, Zoltán Bakonyi, ha sido detenido de 
    forma cautelar durante 72 horas por las acusaciones de crear un peligro 
    público y ser responsable de la muerte de varias personas, así como de 
    incontables daños naturales. 
    Bakonyi ha sido detenido este lunes por agentes de la 
    Oficina Central de Investigaciones, que posteriormente lo han interrogado, 
    según informó la Policía. En los días anteriores tanto Orbán como otros 
    miembros del Gobierno aseguraron que lo sucedido se debió a un error humano 
    y que los responsables serían "castigados severamente". 
       | 
      | 
    
     
    
      
    
    
    Imagen de la balsa  | 
  
  
    Las prioridades
    Las cuatro prioridades del gobierno después de la 
    catástrofe medioambiental son, según adelantó Orbán: indemnizar a los 
    damnificados, asegurar el trabajo en la empresa para que no se pierdan 
    empleos, impedir otras catástrofes y encontrar a los responsables de lo 
    sucedido.
    MAL ha sido puesta bajo control directo del Estado, dirigida por 
    un "comisario de defensa de catástrofes", que será responsable de 
    "supervisar, dirigir y manejar" los bienes de la empresa.
    La construcción de un nuevo dique
    Mientras el Gobierno ha dado un golpe de autoridad para 
    tratar de depurar responsabilidades por la peor catástrofe ecológica del 
    país, en la zona siniestrada se trabaja contrarreloj para terminar 
    un dique de contención que frene una segunda riada de "barro rojo".
    Ya se han construido unos 1.000 metros de longitud de 
    éste dique que tendrá una anchura de 25 metros y cinco de altura. En total 
    estará compuesto por unas 40.000 toneladas de rocas que tienen como fin 
    contener y desviar ese segundo vertido a una zona de control, explicó la 
    portavoz de protección civil, Györgyi Tüttös.
    Las autoridades dan por segura una segunda riada, aunque 
    el "barro rojo" que queda en la represa es menos líquido y su movilidad 
    sería sólo de unos 1.000 metros, mucho menor que el derrame de hace una 
    semana, que ha contaminado con metales pesados unos 40 kilómetros 
    cuadrados.
    De momento no se sabe a ciencia cierta cuánto aguantará 
    el muro norte de la balsa de acumulación, que presenta importantes 
    grietas, por lo que las autoridades consideran que una nueva fuga 
    puede producirse en "semanas o meses".
    El clima, a favor de los operarios
    Gracias al buen tiempo, las grietas detectadas el jueves 
    en el muro norte no han aumentado, pero el sol y las relativamente altas 
    temperaturas están haciendo que se seque el lodo y se convierta en polvo en 
    la región afectada.
    Por ello, las autoridades hicieron hoy obligatorio el uso 
    de mascarillas y gafas protectoras a todos los que trabajan en los retenes 
    de reconstrucción, ya que debido al buen tiempo de los últimos días se ha 
    incrementado el polvo tóxico en el aire, que podría causar problemas de 
    salud.
    Mientras, la dirección de aguas de la región informó de 
    que el estado de las aguas de ríos infectados en el vertido del lunes, como 
    el Rába y el Mosoni-Duna, es hoy similar a los índices registrados antes de 
    la catástrofe.
    Este mediodía llegaron a Hungría tres de los cinco expertos europeos que 
    analizarán la situación en las poblaciones afectadas y presentarán un 
    informe sobre sus recomendaciones el viernes.
    Fuente: elmundo.es, 11-10-10
 
 
 
 

 
-Google diseña un coche 
sin conductor
Google ya no solo quiere clasificar toda la información que hay en internet; 
ahora también quiere organizar el tráfico en las carreteras.  
La compañía anunció el sábado, mediante un comunicado colgado 
en su página web, que ha creado una nueva generación de vehículos que funcionan 
sin conductor.  
  
    | 
     
    
      
    
      
        
           
          Detalle del proyecto de Mike Montemerlo, de la 
          Universidad de Stanford (2005), ganador del desafío DARPA que inspiró 
          los coches autónomos de Google.
        
       
      
     
       | 
      | 
    
     Según la nota, firmada por el ingeniero de software
    Sebastian Thrun, "el objetivo es prevenir accidentes de 
    tráfico, conseguir que la gente tenga más tiempo y reducir las emisiones de 
    carbono, cambiando radicalmente el uso del coche". 
    Los expertos de Google han trabajado durante meses con 
    los ingenieros Mike Montemerlo y Chris Urmson, ganadores en 2005 y 2007, 
    respectivamente, del desafío DARPA, una carrera de vehículos robotizados 
    organizada por el Gobierno de EEUU. Los 
    coches automatizados de Google han recorrido mil millas (1.609 
    kilómetros) sin ninguna intervención humana, y alrededor de 140.000 (unos 
    225.300 kilómetros) con la ayuda de los ingenieros. Uno de los coches 
    condujo solo, incluso, por la famosa calle Lombard de San Francisco, repleta 
    de complicadas curvas. 
    En su nota, Google ofrece escasos detalles sobre 
    los vehículos, y tampoco proporciona fotografías. Únicamente 
    explica que los coches utilizan videocámaras y sensores por radar y láser 
    para observar al resto de vehículos y controlar los obstáculos del camino. 
    Además, los autómatas utilizan una base de datos con mapas detallados de la 
    zona.   
    The New York Times ofrecía este domingo más 
    información. Según explica el diario, un equipo de 15 ingenieros de Google y 
    otra docena de personas, todas con un historial intachable al volante, han 
    circulado por las carreteras de California a bordo de seis Prius y un Audi 
    TT, tuneados con radares y cámaras.    | 
  
Perfil precavido o agresivo
Según explica en su crónica el periodista John Markoff, que 
montó en uno de los coches, el vehículo se adapta a la velocidad permitida 
legalmente en cada tramo por el que se conduce, y alerta al conductor, con una 
agradable voz femenina, cuando se aproxima a un paso de cebra o a algún 
obstáculo. Se trata de simple precaución porque los ingenieros no tienen que 
intervenir. El coche puede ser programado según la personalidad del 
conductor, entre precavido y agresivo y, según la decisión, el coche 
cederá el paso al resto de vehículos con mayor o menor frecuencia.  
Los ingenieros de Google aseguran que los coches sólo 
tuvieron un accidente, y ocurrió porque uno de ellos fue golpeado por detrás. En 
su nota, Thrun explica que el proyecto "está en un estado experimental", pero 
asegura: "Permite vislumbrar cómo podría ser el transporte en el futuro".
 
Los detalles del vehículo robot
  
    - Un sensor en el 
    techo del coche de Google genera mapas en tres dimensiones de todos los 
    objetos que lo rodean.  
    - Cerca del espejo retrovisor, los ingenieros colocaron 
    una videocámara que detecta los 
    semáforos y reconoce obstáculos en movimiento, como ciclistas y peatones.
    - Cuatro radares (tres en la parte 
    frontal del vehículo y uno en la trasera) determinan la posición de los 
    objetos más distantes.
    Fuente: publico.es, 10-10-11
     
 
 

 
 
-Naves interestelares: un grupo de científicos diseña una 
máquina para ir más allá del Sol
  
    La máquina que pudiera llegar a 
    planetas ajenos al Sistema Solar debería estar propulsada por energía 
    procedente de la fusión nuclear, resistir las condiciones más extremas de 
    radiación, temperatura e impactos. Una minúscula partícula de polvo podría 
    dañarla si viaja a una quinta parte de la velocidad de la luz. Con todo, en 
    el mejor de los casos, sólo el trayecto de ida duraría más de 25 años.
    
    
    
 
 
Cuando el ser humano consiguió 
poner un pie en la Luna, un cóctel de optimismo colectivo y desbordante 
imaginación hizo pensar a una parte importante de la población que no era sino 
el primero de una serie de pasos para conquistar el espacio. No parecía tan 
descabellado ni siquiera en los años 80 concebir vuelos regulares al satélite de 
la Tierra o al fascinante planeta rojo, donde habría futuristas bases habitables 
con todas las comodidades. Sin embargo, ya inmersos en la segunda década del 
siglo XXI, los conocimientos han avanzado, sí, pero por Marte sólo circulan 
vehículos robotizados para recoger muestras que en ocasiones se hacen papilla al 
aterrizar sobre la superficie marciana o acaban en algún agujero.
Visionarios
Los sueños se quedaron muy cortos, pero sin personas con mente ambiciosa que 
piensan «un día será posible» el ser humano nunca hubiera logrado hitos en el 
conocimiento y la exploración. Puede que nadie haya pisado Marte todavía, pero 
un grupo de científicos lleva mucho tiempo estudiando no sólo cómo alcanzar 
cuerpos celestiales del Sistema Solar, diseñan una nave para viajar más allá del 
Sol hacia mundos donde la Humanidad pueda establecerse cuando la Tierra sucumba 
a los excesos o hacia planetas en los pueda haber alguna forma de vida. En los 
años setenta, un grupo de científicos de la Sociedad Interplanetaria Británica 
pusieron en marcha el proyecto Dédalo para diseñar un modelo de nave que pudiera 
alcanzar la estrella de Barnard, que se encuentra a nada menos que 5,9 años luz 
de la Tierra. Ahora, jóvenes científicos trabajan en el proyecto Icarus (Ícaro), 
el hijo de Dédalo, con el objetivo de poner las bases para que una nave pueda 
viajar fuera del Sistema Solar. 
La semana pasada, estos visionarios recibieron una noticia que incita a trabajar 
con más ahínco en su estudio: la existencia un planeta muy parecido al nuestro, 
pero a 20 años luz de aquí. Un grupo de astrónomos de Estado Unidos ha 
descubierto una «nueva Tierra» que gravita en torno a la estrella Gliese 581. 
Tiene cuatro veces su tamaño, pero unas condiciones de gravedad y temperatura 
que lo hacen compatible con la vida humana. 
Está claro que la tecnología actual impide conquistar ni siquiera los dominios 
de nuestra estrella, el Sol, pero ¿qué tendría que cambiar para que fueran 
factibles los viajes interestelares? El proyecto Icarus plantea que una nave no 
tripulada lograse viajar a un 20 por ciento de la velocidad de la luz, ése es su 
objetivo, pero el camino está plagado de dificultades como resume a este 
semanario Richard Obusy, físico teórico y uno de los miembros del proyecto, 
«incluso si logramos la velocidad que proponemos, alcanzar las estrellas más 
cercanas podría llevarnos un cuarto de siglo. Los combustibles actuales para los 
cohetes no sirven. Pero hay más problemas además de la propulsión. Viajando a 
esas velocidades incluso una diminuta partícula de polvo podría causar un gran 
daño a la estructura de la nave, tendría que tener mucha autonomía energética 
para funcionar sin ayuda durante tantos años y también están las comunicaciones 
para transmitir a la Tierra desde tan lejos…».
Combustible
Por su parte, Jesús López, catedrático de Ingeniería Aeroespacial de la ETSI 
Aeronáuticos de la Universidad Politécnica de Madrid, cree que «el mayor 
problema por resolver sería la propulsión, para lo que la opción más prometedora 
es la fusión nuclear». El hombre persigue el objetivo de reproducir de forma 
artificial ese proceso que sólo tiene lugar en el interior de estrellas y 
planetas y que consiste en la unión de varios núcleos atómicos para formar otros 
más pesados, lo que implica la liberación de una gran cantidad de energía. «La 
fusión es la opción más lógica, pero hay que garantizar que funciona y que es 
embarcable en una nave para usar esa energía para propulsarse. También se puede 
pensar en el empleo de energía solar, pero no deberíamos depender de otras 
estrellas sobre las que desconocemos muchas cosas». Respecto a las posibilidades 
de colisionar, López los considera un problema menor, «no es más difícil que lo 
que ya se ha resuelto para viajar por el Sistema Solar, un buen sistema de 
navegación podría evitar chocar contra otros objetos», añade.
Desde la NASA, el portavoz de la Oficina de Tecnología, David E. Steitz, asegura 
que «también la nave debe enfrentarse a condiciones extremas de radiación, 
temperatura. Pero también debería ser capaz de almacenar enormes cantidades de 
energía. De hecho, el éxito de esta misión significaría que hemos logrado 
solventar grandes problemas de comunicaciones, materiales, fiabilidad de la 
mecánica, electrónica y todo eso se reflejaría en todas las tecnologías y 
objetos de consumo en la Tierra, como los coches, los teléfonos, ordenadores, 
aviones… así que es un objetivo muy deseable para la raza humana».
Sin embargo, Steitz recalca cuán lejos estamos de lograr velocidades de crucero 
prodigiosas. «El objeto más rápido fabricado por el hombre es la sonda Voyager 
I, que viaja a 17 kilómetros por segundo. Alcanzar Alfa Centauro, nuestra 
estrella más próxima, le llevaría 75.000 años; y si pudiera viajar mil veces más 
rápido ya serían 75 años. Pero mantener esa velocidad hasta alcanzar el objetivo 
no resultaría muy útil para estudiar esos mundos, habría por tanto que reducir 
la velocidad en el tramo final del trayecto y compensarlo con una velocidad 
punta mucho mayor hasta la mitad del recorrido».
Queda mucho por hacer. El trabajo de los miembros del Proyecto Icarus no es 
tanto ver construida esa nave, sino sentar las bases para una nueva generación 
de científicos que sí tenga en sus manos las herramientas técnicas que lo 
permitan. Obusy cree que «el descubrimiento de planetas parecidos a la Tierra 
desatará más interés en los viajes interestelares». Sobre si lo lograremos, el 
catedrático Jesús López afirma que «el ser humano ha sido capaz de poner en 
marcha todos lo que se ha imaginado. Si nos empreñamos, lo conseguiremos». 
¿Merece la pena?
Siempre hay quien se pregunta para qué invertir tanto dinero  en conocer otros 
mundos con tantos problemas que tenemos a la vuelta de la esquina. Una misión 
como Icarus costaría varios billones de euros, pero a esas magnitudes, según 
Richard Obusy, «no es comparativamente más caro que la Estación Espacial 
Internacional». Respecto a los grandes problemas de la Humanidad (cambio 
climático, hambruna, pobreza...), el físico lo considera un debate «con trampa» 
ya que si quisiéramos  luchar contra esas lacras podríamos haber empleado los 
150 millones de dólares gastados en la inauguración de los Juegos Olímpicos de 
Pekín o los 20.000 millones de  dólares que se gastaron en alcohol los 
adolescentes estadounidenses o los sueldos de los jugadores de la Premier League.  
Hay que pensar también en el retorno de la inversión, en los miles de empleos 
que se crearían para científicos, ingenieros y especialistas, nuevas 
industrias...», dice.
Fuente: 
larazon.es, 9-10-10
 

 
 
-Mil millones de toneladas 
de hielo del polo Sur para observar neutrinos
Si los experimentos de física de partículas suelen ser 
sorprendentes, el IceCube bien puede ser el más peculiar. Se trata de un 
observatorio de neutrinos de alta energía que utiliza mil millones de toneladas 
de hielo profundo antártico, de extremada transparencia, para detectar neutrinos 
con gran precisión, tal vez las partículas elementales más fantasmagóricas dado 
que apenas interaccionan con la materia y billones de ellas atraviesan cualquier 
cosa cada día, incluso el cuerpo humano, sin que se note. Por eso es 
dificilísimo verlas y por eso los físicos diseñan extraños dispositivos para 
estudiarlas. El IceCube, que se empezó a construir en 2004 justo en el polo Sur, 
junto a al  
base 
científica estadounidense Amundsen-Scott, tras años de planes y ensayos; se 
terminará en enero de 2011.
  
    | 
     
    
      
    
    
    Los registros de los sensores del observatorio IceCube se transmiten por 
    cables desde las perforaciones en el hielo hasta los ordenadores del 
    laboratorio- J. HAUGEN 
       | 
      | 
    
     El observatorio, que en la superficie se extiende un 
    kilómetro cuadrado y se adentra en el hielo antártico hasta 2.500 metros de 
    profundidad, esta formado por un conjunto de 86 líneas verticales con 
    detectores y equipos electrónicos. En total son 5.160 sensores ópticos, 
    además de todos los dispositivos de registro y transmisión de datos. Para 
    colocar las líneas se van haciendo perforaciones de 61 centímetros de 
    diámetro en el hielo con agua caliente, se bajan las líneas de instrumentos 
    y, cuando el agua se vuelve a congelar, quedan fijas. La dificultad de la 
    construcción del Icecube y las complicaciones de la logística en el 
    continente blanco han sido tremendas, explican el director científico del 
    proyecto, el estadounidense Francis Halzen y su colega Spencer Klein en un 
    largo artículo publicado en una revista del Instituto Americano de Física 
    (API) ahora que se acerca ya la hora de comenzar (el año que viene) la 
    investigación. Con él, afirman, se abren las puertas de la auténtica 
    astronomía de neutrinos. En los fenómenos más violentos del universo, como 
    explosiones estelares, agujeros negros o estallidos de rayos gamma, se 
    generan estas partículas y su estudio ayudará a resolver misterios de estos 
    fenómenos cósmicos. 
    IceCube se basa en el hecho de que cuando un neutrino 
    choca contra el núcleo de una molécula del agua helada se genera una emisión 
    de luz llamada Cherenkov que ven los sensores del detector. La información 
    combinada de los sensores perfectamente calibrados y sincronizados permitirá 
    reconocer las fuentes de esos neutrinos en el universo. También la materia 
    oscura puede desvelarse en esta gran instalación, aseguran los 
    especialistas. 
    El nuevo gran detector, cuyo coste asciende a 212 
    millones de euros, es heredero directo de varios predecesores, trampas de de 
    neutrinos también peculiares (con las líneas sumergidas en el mar por, 
    ejemplo) y varios han tenido éxito y funcionan. Otros fracasaron porque el 
    reto era excesivo para la tecnología del momento, como el Dumand, que se 
    empezó a montar cerca de Hawai para aprovechar las aguas oceánicas allí como 
    Icecube aprovecha el hielo transparente de la Antártida, recuerdan Halzen y 
    Klein.    | 
  
Un detector en el lago Baikal y tres en el Mediterráneo (Antares, 
Nestor y Nemo) han aportado los conocimientos y la experiencia suficiente para 
confiar en el éxito del IceCube. Antares, cerca de la costa francesa, instalado 
a 2.400 metros de profundidad, está ya completo con 12 líneas de sensores y 
funciona. Otros observatorios, más pequeños pero muy eficaces para determinados 
estudios están en funcionamiento, como el Superkamiokande japonés o el SNO 
canadiense, situado en las profundidades de una mina de carbón.
Pero el antecesor directo del IceCube ha sido el Amanda, 
también instalado en el continente blanco y en funcionamiento desde 2000 a 2009. 
El nuevo dispositivo es mucho más ambicioso y, gracias a su gran tamaño, 
permitirá llegar más lejos científicamente. "Hacen falta inmensos detectores de 
partículas para capturar neutrinos cósmicos en cantidades estadísticamente 
significativas", escriben los dos físicos en la revista Review of Scientific 
Instruments de la API. El IceCube observará varios cientos de neutrinos de 
alta energía cada día, según las previsiones.
La construcción de una instalación como IceCube en la 
Antártida, un proyecto internacional liderado por la 
National Science Foundation 
estadounidense, es extremadamente compleja. La temporada anual para trabajar es 
muy corta, solo de mediados de octubre a mediados de febrero (el verano 
austral), y para hacer todas las perforaciones en el hielo colocando las líneas 
de sensores han hecho falta siete campañas. Solo el transporte hasta el polo Sur 
de todo el material, desde perforadoras hasta plantas energéticas y de agua 
caliente hasta bombas de alta presión, es ya una complicación. La mayor parte de 
los equipos han sido especialmente diseñados para este trabajo. Halzen y Klein 
agradecen especialmente el apoyo que presta en el proyecto el personal de la 
base antártica Amundse-Scott.
Fuente: elapais.com, 9-10-10

 
 
-Aragón registra un caso de malaria autóctono
  
    Es el primer contagio de paludismo que se produce en 
    España desde 1961 y no supone ningún riesgo para la población. El paciente, 
    diagnosticado en el mes de septiembre en la provincia de Huesca, contrajo la 
    enfermedad por la picadura de un mosquito 'Anopheles atroparvus' que portaba 
    el parásito. Las autoridades sanitarias subrayan que se trata de una 
    "curiosidad epidemiológica".
    El caso fue detectado a finales de septiembre en un 
    paciente que presentaba fiebre y malestar que no remitían con los 
    tratamientos habituales. Tras una analítica anormal, se enviaron muestras al 
    Instituto de Salud Carlos III de Madrid que confirmó el día 1 de octubre el 
    diagnóstico de malaria. El paciente recibió terapia y se recuperó 
    sin mayor complicación.
    Aunque el contagio se produjo en España, puesto que el 
    paciente no había viajado al extranjero, "se trata de un caso 
    concreto y aislado y, además, de poco riesgo", subrayan desde la 
    Consejería de Sanidad de Aragón. "Es una curiosidad epidemiológica que no 
    pone en riesgo a la población. Una anécdota más que una amenaza", ha 
    explicado a ELMUNDO.es Francisco Javier Falo, director de Salud Pública del 
    citado organismo.
    Los análisis indicaron que el parásito responsable de la 
    infección era el 'Plasmodium vivax', que produce una forma leve de la 
    enfermedad. El transmisor, según las autoridades, sería el mosquito 'Anopheles 
    atroparvus', una de las especies más importantes en los países 
    mediterráneos.
    Para el experto aragonés, la detección de este caso es 
    "un signo de robustez del sistema sanitario" que tiene "trascendencia desde 
    el punto de vista epidemiológico" pero cuyo "impacto en la salud es muy 
    reducido".
    'Anophelismo sin paludismo'
    La 
    
    malaria no es una enfermedad extraña en nuestro país ya que cada año se 
    registran alrededor de 500 casos. Todos ellos corresponden a personas que 
    han contraido la infección durante un viaje al extranjero y la han 
    'importado'. Los contagios producidos por un mosquito patrio no se 
    registran desde 1961 y el paludismo se declaró oficialmente 
    erradicado en 1964.
    "El vector ['An. atroparvus'] está presente con carácter 
    general en toda España", señala Francisco Javier Falo. "Se dice que es una 
    región de anophelismo sin paludismo", añade.
    Hace unos meses, un informe del proyecto europeo EDEN (Emerging 
    Diseases in a changing European eNvironment) confirmó la elevada presencia 
    del vector en la zona del Delta del Ebro aunque afirmaba que el riesgo de 
    reaparición del paludismo en España es prácticamente nulo dada la eficacia 
    del sistema de salud.
    "Para que haya una transmisión efectiva del parásito, tiene que haber 
    mucha gente con paludismo porque los mosquitos tienen que adquirir el 
    parásito picando a una persona infectada y después transmitírselo a otra 
    picándola igualmente. Con un solo caso, la probabilidad es casi 
    inexistente", ha subrayado el experto en salud pública.
    Fuente: elmundo.es, 11-10-10
 
 
 
 

  -El vertido tóxico ya alcanza el Danubio
  
    La contaminación de lodo tóxico que afecta al suroeste de Hungría ha llegado 
    ya hasta el río Danubio, aunque la concentración de metales pesados 
    en las aguas es muy reducida y el riesgo de contaminación más bajo.
      
        | 
         
        
          
        
          
          Un hombre camina entre el lodo. | Ap  
         | 
          | 
        
         Así lo anunció la portavoz de la Oficina de 
        Catástrofes, Gyorgyi Tuttos, que explicó que el ph del agua contaminada 
        ha bajado desde el valor 13 de ayer, incompatible con la vida, hasta 9, 
        más cercano al punto de inocuidad. 
        De acuerdo con un funcionario del Departamento del 
        Agua, las muestras de agua recogidas en la confluencia del río Danubio 
        con el afluente Raab revelan "una tasa ligeramente más alta de alcalino 
        de lo normal, entre 8,96% a 9,07%", mientras que lo 
        habitual es del 8%. 
        La portavoz de Oficina de Catástrofes, Gyorgyi Tuttos, 
        explicó que este jueves sobre las 07.27 GMT la ola de "barro rojo" 
        alcanzó este afluente, a unos 20 kilómetros del Danubio, aunque aseguró 
        que el PH del agua ha bajado hasta 9,2, después de que este 
        miércoles hubiera alcanzado un valor de 13, incompatible con la 
        vida.  | 
      
    
    El lodo rojo, producido por un accidente industrial y que ha anegado los 
    condados de Veszprem, Gyor-Moson-Sopron y Vas, amenaza ahora el 
    ecosistema del río más grande del país y el segundo de Europa, con 
    una tasa de residuos alcalinos superior a la normal. Las autoridades 
    húngaras han iniciado una investigación criminal para conocer las causas del 
    derrame.
    Después del río Marcal -ya contaminado, la contaminación ha llegado al 
    Danubio en la mitad del camino entre Viena y Budapest. El río llega a 
    Croacia a unos 155 kilómetros al sur de la capital húngara, luego va 
    a través de Serbia, Bulgaria, Moldavia, Ucrania y Rumania antes de llegar al 
    Mar Negro.
    La rotura de una balsa de acumulación, propiedad de la empresa fabricante 
    de aluminio MAL Zrt, provocó el lunes el 
    
    derrame de un millón de metros cúbicos de lodos altamente tóxicos. 
    Cuatro personas, entre ellas un niño, fallecieron en el accidente y otras 
    seis se encuentran desaparecidas.
    El presidente de la organización ecologista Greenpeace en Hungría, Zsolt 
    Szegfalvi, destacó que se trata de la catástrofe más grande de 
    Europa relacionada con el llamado barro rojo.
    Por su parte, el primer ministro húngaro, Viktor Orban, ha asegurado que 
    "no se puede vivir" en la zona del desastre. Orban, que está visitando los 
    pueblos afectados, anunció que habrá que cercar y aislar las zonas 
    más contaminadas de Kolontár, uno de los pueblos arrasados por la 
    ola tóxica.
    Fuente: elmundo.es, 9-10-10
    

     
    -Terremotos: ¿esta la naturaleza fuera de control?
  Primero Haití, con cientos de miles de muertos. Después 
  Chile, con más de 200, y Japón, donde, por fortuna, no se registraron 
  víctimas. En tan sólo dos meses,
  la Tierra 
  ha temblado con muchísima fuerza como si se levantara en armas. La 
  potencia de estos terremotos -el chileno del pasado sábado ha alcanzado los
  8,8 grados 
  en la escala de Richter (uno de los mayores en los últimos cien años en 
  todo el mundo) , 7,2 el nipón y 7 el de Haití- nos ha sorprendido y 
  conmocionado,
  como si 
  esto no pudiera repetirse en un plazo de tiempo tan corto y algo 
  anormal estuviera sucediendo.  
  
    
      | 
       Sin embargo, los científicos aseguran que las entrañas 
      del planeta no están más activas ahora que en otros tiempos desde que se 
      tiene memoria y registros sísmicos. Simplemente,
      
      obedecen a las órdenes de una naturaleza que, en este caso y al 
      contrario de lo que ocurre con el clima, sólo responde a sus propias 
      normas, las que marca la geología. Y al ser humano no le queda más remedio 
      que prevenir y, en la medida de lo posible, protegerse.   
      «Un terremoto siempre es una sorpresa y más con estas 
      dimensiones, pero en un lugar como Chile la actividad sísmica es alta y se 
      sabe que estos terremotos pueden ocurrir», señala Luis Cabañas, sismólogo 
      de la Red Sísmica del 
      
      Instituto Geográfico Nacional. El seísmo de Chile ha sido 
      especialmente duro,
      el 
      segundo más potente del país después del registrado en 1960, con 
      magnitud 9.5 y el mayor ocurrido en el mundo. El motivo de este castigo 
      para los chilenos es que su país está situado en el llamado 
      
      «círculo de fuego» que bordea los países del Pacífico, una de las 
      zonas más sísmicas del planeta, donde se producen el 80% de los 
      terremotos. «Estos terremotos ocurren
      como 
      consecuencia de la convergencia de las placas tectónicas de Nazca y de 
      Suramérica, lo que produce rupturas bastante intensas y violentas. 
      La placa de Nazca de naturaleza oceánica se curva e introduce bajo la 
      placa de Suramérica de carácter continental, formando lo que se denomina 
      un margen de subducción», explica Cabañas.  | 
        | 
      
       
      
        
      
        
        Imagen de 
        humo y polvo sobre Santiago de Chile tras el terremoto tomada por un 
        satélite de la NASA / NASA  
         | 
    
  
 
  Un seísmo 
  gigante al año
  Pero, ¿por qué un terremoto tras otro en distintas partes 
  del mundo? ¿Le sucede algo a la Tierra? «En principio, creemos que no, que
  es un 
  comportamiento normal producido por el movimiento de placas», explica 
  el experto. Las estadísticas indican que aproximadamente
  «hay un 
  terremoto de magnitud superior a ocho al año -puede ocurrir uno o 
  ninguno-, mientras que pueden registrarse
  entre 15 ó 
  18 seísmos de magnitud entre siete y ocho». Lo que ocurre es que no 
  siempre se producen en zonas pobladas ni causan catástrofes tan graves, por lo 
  que muchos se quedan en noticias poco destacadas que olvidamos con facilidad, 
  hasta que uno golpea en una zona densamente habitada y provoca una catástrofe 
  humana que se queda grabada en nuestra retina.
 
  La época que nos ha tocado vivir no ha sufrido más o menos 
  terremotos que otras. Según Cabañas, lo que conocemos del registro sísmico 
  «viene a ser estadísticamente constante». Tampoco influye la mano del hombre . 
  «Es un proceso completamente natural. La intervención humana no tiene por qué 
  afectar, no tiene nada que ver con lo que sucede, por ejemplo, con el clima».
  
 
  Después del terremoto de Haití, algunos científicos 
  advirtieron de que 
  
  catástrofes similares pueden repetirse en Turquía y en Sumatra en los 
  próximos años, y pedían a los gobiernos de estos países que tomasen medidas 
  urgentes de protección antes de que fuera demasiado tarde. Sin embargo, Luis 
  Cabañas indica que es «imposible predecir el lugar y el momento. Al final, los 
  terremotos vuelven a ocurrir donde siempre han ocurrido, son los límites de 
  las placas tectónicas sometidas a esfuerzos y deformaciones que cuando se 
  acumulan y no resisten más liberan energía bruscamente. Hay una posibilidad de 
  conocer cómo están cargándose esas fallas, pero es imposible predecir a 
  ciencia cierta cuándo va a ocurrir. Es probable que en Turquía tengamos un 
  nuevo terremoto, pero igual pasan veinte años y no se ha producido». Eso sí,
  en Chile 
  se producirán nuevas réplicas. 
 
  Ante los terremotos, lo único que le queda al ser humano es 
  protegerse lo mejor posible. «Los países deben tener una
  normativa 
  sismoresistente para que se construya con más seguridad, una normativa 
  que debe estar basada en estudios sismológicos».
  Fuente: abc.es, 8-10-10
     
     
    

 
   
  -California tiembla por la amenaza del "Big 
  One"
  Un día más en Los Ángeles. A las 7.50 de la mañana, el sol 
  ya hace prever una nueva jornada calurosa. Las autopistas comienzan a llenarse 
  de automovilistas camino del trabajo y los helicópteros de las televisiones 
  locales sobrevuelan el área más superpoblada de Estados Unidos informando de 
  las incidencias del tráfico. Mientras, bajo la superficie, a 20 kilómetros de 
  profundidad, la tierra comienza a moverse, silenciosa. Un segmento de 400 
  kilómetros de la falla de San Andrés, que se ha mantenido estable durante 
  décadas, se desprende e inicia el camino hacia un nuevo equilibrio entre 
  placas tectónicas. Tras seis minutos, los californianos 
  comienzan a notar los primeros efectos. Lo que se inicia como un suave 
  contoneo se convierte en un virulento temblor y sacude la ciudad durante 25 
  segundos. Tras el primer golpe, se suceden unos segundos de calma. Después una 
  nueva sacudida, más violenta, de entre 30 y 40 segundos. En poco más de tres 
  minutos, el área metropolitana de Los Ángeles ha vivido su pequeño 
  apocalipsis: el temblor ha dejado un reguero de coches volcados, 
  autopistas destrozadas y casas derrumbadas.  
  
    
      | 
       Este es el supuesto con el que los servicios de 
      emergencias de la megaurbe californiana trabajan para preparar el Big 
      One, un devastador seísmo que sacudirá el estado en los próximos 30 
      años con una probabilidad del 99,7% y que podría dejar entre 2.000 
      y 15.000 muertos, además de al menos 50.000 heridos y una huella 
      de destrucción que costaría reparar unos 200.000 millones de dólares.
        
      "Un terremoto de gran magnitud puede ser más mortífero 
      y destructivo que un ataque terrorista con una bomba nuclear. Afecta a un 
      área mayor y a mucha más a gente", explica con gesto de preocupación
      Michael Contreras, director del Departamento de 
      Emergencias de Los Ángeles, mientras comenta el último informe sobre 
      seísmos elaborado por Lisa Grant Ludwig, sismóloga de la Universidad de 
      California en Irvine (UCI). Según Grant Ludwig, el Big One está 
      mucho más cerca de lo que algunos pensaban. Su investigación demuestra que 
      el territorio del sur de California sufre un gran terremoto entre cada 45 
      y 144 años y que, en esta ocasión, ya hemos salido de cuentas. El último 
      seísmo devastador, de magnitud 7,8, sucedió hace 153 años. 
      "Las probabilidades de sufrir un gran terremoto ya eran 
      altas pero, con los nuevos datos que hemos recopilado, se hace inminente", 
      aseguró a Público Grant Ludwig en una conversación telefónica. 
      Hasta que vio la luz su descubrimiento, basado en el análisis de 
      los registros sísmicos recogidos en la zona durante los últimos 
      700 años, los geólogos consideraban que los temblores por encima de 
      magnitud 7,5 ocurrían cada 250 años aproximadamente. 
      Sin embargo, Grant Ludwig y su equipo han acelerado la 
      cuenta demostrando que el Estado sufrió grandes terremotos en los años 
      1417, 1462, 1565, 1614, 1713 y 1857. 
      A pesar de que California está más preparada que otras 
      zonas del planeta, según los cálculos de los servicios de emergencias, un 
      terremoto de estas características podría acabar con la vida de una de 
      cada 1.000 personas. De ahí que la doctora Grant Ludwig reconozca que es 
      fundamental estar preparados. "Mucha gente piensa que, como los terremotos 
      no se pueden evitar ni prever, no hace falta estar listos, pero se 
      equivocan", asegura la sismóloga, quien insinúa que el Big One no 
      va a ser como el terremoto de Northridge, de 6,7, que 
      acabó con la vida de 72 personas y dejó heridas a 8.700. 
      "En esta ocasión la sacudida será mucho mayor, lo suficientemente grande 
      como para romper el suelo", advierte.  | 
        | 
      
       
      
         | 
    
  
  Precisamente para minimizar los posibles daños en la 
  población, el estado organiza cada año el Shake out, un enorme 
  simulacro que bajo el lema agáchese, cúbrase y aguante pretende 
  concienciar a los ciudadanos de la importancia de estar preparados ante un 
  desastre inevitable. El ejercicio de este año está programado a las 
  10.21 de la mañana del próximo 21, y en él está previsto que 
  participen más de siete millones de personas, casi el 20% de la población de 
  California.  
  Durante el simulacro se instruirá a los participantes sobre 
  cómo hacer frente a un gran terremoto antes de que suceda, porque con una 
  simple planificación es posible minimizar los daños, sobre todo personales. 
  David Oglesby, profesor en la Universidad de California en Riverside y experto 
  en desastres naturales, asegura que para evitar lesiones graves 
  dentro de casa es fundamental asegurar los muebles a la pared. "El mayor 
  peligro de un terremoto en California no es que se colapsen las casas, sino 
  que los objetos que hay en ellas nos golpeen en la cabeza", asegura Oglesby 
  con cierta ironía. De hecho, los cortes con cristales rotos o los golpes con 
  muebles son los responsables del mayor número de heridos en los seísmos de 
  estas características
  Además, durante el Shake out expertos como Oglesby 
  mostrarán a los ciudadanos cómo lidiar con todas las eventualidades que pueden 
  surgir tras un terremoto, como escapes de gas, incendios o la ausencia de 
  electricidad y agua potable, que pueden llegar a prolongarse 
  hasta durante seis meses. "Es totalmente imprescindible contar con víveres que 
  nos permitan ser autosuficientes durante al menos tres días", reconoce el 
  experto. "Contar con un kit de supervivencia o diseñar un plan de escape 
  debería ser parte de nuestra cultura, como lavarse los dientes", añade.
  Llamadas de atención
  Sin embargo, los esfuerzos de la administración local son, 
  de momento, baldíos, y los californianos sólo se preocupan cuando un temblor, 
  como el vivido en Baja California el pasado abril, les recuerda lo que podría 
  sucederles. "Son como pequeñas llamadas de atención", asegura Chad Allen, 
  propietario de una tienda especializada en artículos de supervivencia. "Cada 
  vez que hay un terremoto aumentan las ventas; es como si de 
  repente la gente se acordase de que debe prepararse", explica.  
  Algo similar le sucede a La Tienda de los Terremotos, el 
  establecimiento dedicado a los desastres naturales más grande de Los Ángeles. 
  Desde su sede en Burbank, Blair Brady no ha parado de vender kits de 
  supervivencia en todo el verano. "La gente se está empezando a 
  preparar", asegura. Los servicios de emergencias de California aseguran que 
  "lo sucedido este año en Chile y Haití no son más que avisos de lo que puede 
  suceder en California".
  Fuente: publico.es, 7-10-10
   
  

   
  -Así robó el Sol a Marte su atmósfera
  
    El Planeta Rojo está herido de muerte. Pero no es sangre 
    lo que mana de sus heridas, sino su atmósfera, que se pierde 
    irremediablemente, gota a gota, en la inmensidad del espacio. El culpable de 
    este crimen es nuestro Sol, que utiliza su propia respiración, el viento 
    solar, y sus radiaciones para robarle a Marte el aire. Por su culpa, ese 
    mundo hermano de la Tierra, que una vez fue prometedor para la vida, podría 
    estar condenado para siempre a una existencia fría y estéril.
    
      
        | 
         La fisonomía de Marte no deja lugar a 
        dudas. Antiguos lechos secos de lo que una vez fueron ríos caudalosos y 
        la presencia de minerales que sólo se forman con el agua indican que el 
        planeta tuvo, en algún momento, una atmósfera, y que su temperatura fue 
        lo suficientemente cálida como para permitir la existencia de agua 
        líquida sobre su hoy polvorienta y árida superficie. Sin embargo, algo 
        hizo que lo que alguna vez fuera una densa y rica atmósfera se perdiera 
        irremediablemente en el espacio. 
        Aparentemente, Marte lleva miles de 
        millones de años siendo un planeta seco y frío, y con un envoltorio 
        gaseoso tan tenue y delgado que cualquier resto de agua que pudiera 
        haber el la superficie se evapora al instante al ritmo con que el Sol 
        peina cada rincón de ese desdichado mundo con sus mortíferos rayos 
        ultravioleta. 
        Unas condiciones que marcan, 
        inevitablemente, el final del camino para cualquier forma de vida 
        conocida. A pesar de todo, la esperanza es lo último que se pierde y 
        entra dentro de lo posible que los últimos restos de la antigua vida 
        marciana se oculten bajo la superficie, donde el agua aún puede existir 
        en forma líquida y donde la letal radiación no puede llegar.  | 
          | 
        
         
        
           | 
      
    
   
  Azotes de viento solar
  El principal sospechoso de este robo es el Sol, y 
  el arma utilizada es el viento solar. Todos los planetas (sin excepción) de 
  nuestro sistema son azotados regularmente por el viento solar, una auténtica e 
  inagotable corriente de gases cargados eléctricamente que fluyen de forma 
  contínua desde la superficie del Sol al espacio circundante.
  Aquí, en la Tierra, un potente campo magnético 
  sirve de escudo, protegiendo nuestra preciada atmósfera y haciendo que la 
  mayor parte de los vientos solares se desvíen alrededor del planeta. Y es que 
  las partículas cargadas con electricidade que componen los vientos solares, en 
  su mayoría iones y electrones, tienen serias dificultades para cruzar los 
  campos magnéticos.
  "Marte no puede 
  protegerse a sí mismo del viento solar porque ya no tiene escudo -afirma Bruce 
  Jakosky, de la Universidad de Colorado -. El campo magnético del planeta está 
  muerto". Jakosky es, además, el investigador principal de la misión
  
  
  MAVEN (Mars Atmosphere and Volatile Evolution Mission), que investigará 
  hasta el mínimo detalle las causas de la desaparición de la atmósfera 
  marciana.
  Sin protección
  Lo que sabemos por el momento es que el Planeta 
  Rojo perdió su campo magnético durante su juventud, hace ya varios miles de 
  millones de años. Y que una vez desaparecida esa protección, la atmósfera 
  marciana quedó expuesta al viento solar que la ha ido barriendo, literalmente, 
  hasta del último rincón del planeta.
  Algunos "fósiles" del antiguo campo magnético aún 
  sobreviven en las rocas más viejas y en zonas aisladas de la superficie 
  marciana, aunque no proporcionan, ni mucho menos, la protección que lo que 
  queda de atmósfera necesita.
  Ahora bien, aunque el viento solar parece ser el 
  arma principal usada para este robo, las emisiones solares pueden desvalijar 
  la valiosa atmósfera de Marte de muchas otras formas. Por ejemplo, en 
  combinación con la radiación ultravioleta, que tiene la propiedad de 
  transformar los átomos de las capas superiores de la atmósfera en iones 
  (partículas eléctricamente cargadas), que después son fácilmente barridas por 
  los campos eléctricos del viento solar.
  Y hay, además, otros sospechosos.
  
  Marte tiene sobre su polvorienta superficie más de veinte cráteres de 
  impacto de cerca de 1.000 km de diámetro, cicatrices dejadas por asteroides 
  del tamaño de pequeñas lunas. Este auténtico bombardeo podría haber expulsado 
  grandes cantidades de atmósfera marciana al espacio exterior.
  Una acción, sin embargo, que debería haber sido 
  anulada en parte por la erupción de enormes volcanes (como el monte Olimpo) 
  que habrían inyectado a la atmósfera herida una gran cantidad de gases 
  procedentes del interior del planeta.
  Otros culpables
  Es incluso posible, opinan los científicos, que 
  el secuestro del aire marciano tenga más de un culpable, y que a él haya 
  contribuido tanto el viento solar como
  
  los impactos de grandes meteoritos. En esas condiciones y sin su campo 
  magnético, cualquier cantidad de gases extra que pudieran haber aportado los 
  volcanes habría sido igualmente barrida por el implacable viento solar.
  Así, a medida que la atmósfera adelgazaba,
  
  el planeta se fue secando sin remedio, ya que todo el vapor de agua 
  atmosférico también se fue perdiendo en el espacio en lugar de volver a regar, 
  como sucede en la Tierra, la superficie del planeta. El agua que quedaba, se 
  evaporó al desaparecer la atmósfera y bajar las temperaturas. Muy pronto, la 
  misión
  
  MAVEN, que se lanzará entre el 18 de noviembre y el 7 de diciembre de 
  2013, podrá decirnos, midiendo la proporción de isótopos de hidrógeno,
  
  cuál fue aproximadamente la cantidad de agua que se perdió de esa forma, 
  así como la cantidad de atmósfera que se ha ido perdiendo en el espacio desde 
  el lejano día en que Marte perdió su campo magnético.  
  Entonces, y sólo entonces, sabremos a ciencia 
  cierta si las sospechas de los investigadores son acertadas y si el principal 
  sospechoso de este crimen planetario es, efectivamente, culpable de las 
  acusaciones que pesan sobre él.
  Fuente: abc.es, 6-10-10
  

  
 
  -La fuga de una sustancia tóxica deja al 
  menos tres muertos en Hungría
  Al menos tres personas han muerto, siete han desaparecido y 
  otras 60 están heridas a consecuencia de la rotura de un dique de "barro rojo" 
  en Hungría, una sustancia química muy corrosiva y alcalina, según informó la 
  prensa local.
  La rotura de la instalación de una empresa de aluminio se 
  produjo cerca de la localidad de Ajka, próxima al lago Balaton. Las 
  autoridades han informado de que la sustancia supone un peligro para 
  siete localidades cercanas, informaron los servicios de catástrofes (OKF), 
  según recoge la agencia MTI. 
  El Gobierno húngaro ha declarado el estado de emergencia en 
  tres condados en el oeste del país (Veszprem, Gyor-Moson-Sopron y Vas).
  Todas las víctimas son vecinos de los pueblos afectados por 
  el siniestro.  Los fallecidos, dos hombres y una mujer, fueron arrastrados por 
  parte del agua y el vertido químico de un millón de metros cúbicos de esa 
  sustancia, según las autoridades. Los heridos sufrieron quemaduras de 
  diferente grado al entrar en contacto con la substancia corrosiva, de 
  los cuales diez se encuentran graves, según los servicios médicos.
  El "barro rojo" es un residuo que se produce durante la 
  producción de aluminio y tiene grandes cantidades de silicio, hierro y otros 
  metales pesados.
  
    Labores de rescate
     
    Para evitar que la sustancia tóxica se extienda y cause 
    mayores daños, los equipos de rescate han comenzado a arrojar desde 
    helicópteros yeso sobre el "barro rojo", así como diferentes productos 
    neutralizadores al río Marcal. Centenares de bomberos, miembros de los 
    equipos de rescate y soldados han sido movilizados para tratar de contener 
    la fuga química y ayudar a la población afectada. En Devecser las 
    aguas infectadas por el "barro rojo" inundaron más de 400 inmuebles, 
    de donde se evacuaron a sus habitantes. Complica la situación que el barro 
    rojo haya llegado hasta el cercano arroyo de Torna, por lo que la 
    contaminación podría afectar a otras localidades. En las cercanías de los 
    pueblos afectados se prohibió el transporte, hasta que concluyan las 
    operaciones de rescate.
Fuente: publico.es, 6-10-10
 
  

   
  -Nobel de Física para dos científicos rusos por sus 
  trabajos sobre el grafeno
  Andre Geim y Konstantin Novoselov, científicos de la Universidad de 
  Manchester (Reino Unido), han sido distinguidos este año con el 
  Premio Nobel de Física 
  "por sus experimentos fundamentales sobre el 
  
  material bidimensional grafeno ", según ha anunciado hoy el Comité Nobel 
  de la Academia de las Ciencias de Suecia.
  Una lámina de carbono, de un átomo de grosor, está detrás 
  del Nobel de Física de este año. Los dos galardonados, Geim (Rusia, 1958) y 
  Novoselov (Rusia, 1974), han demostrado que el carbono en esa configuración 
  plana tiene propiedades extraordinarias originadas en el mundo de la física 
  cuántica. El grafeno es un nuevo material, extremadamente delgado y resistente 
  que, como conductor de la electricidad, se comporta como el cobre, y como 
  conductor de calor, supera a cualquier otro material conocido. Es casi 
  completamente transparente y tan denso que ni siquiera el helio, el átomo de 
  gas más pequeño, puede atravesarlo, explica la Fundación Nobel.
  
    
      | 
       
      
        
      
      
      Andre Geim y Konstantin Novoselov- 
      FUNDACIÓN NOBEL 
         | 
        | 
      
       
      
        
      
      
      Una red de grafeno casi perfecta, de un átomo de grosor 
      formada por átomos de carbono en una configuración hexagonal- 
      SCIENCEA  | 
    
  
  Geim, de nacionalidad holandesa, y Novoselov, 
  británico-ruso, obtuvieron el grafeno a partir del grafito normal, el material 
  de las minas de los lápices, y lograron una lámina de un grosor de solo un 
  átomo. Muchos pensaban entonces que era imposible que un material así fuera 
  estable. Sin embargo, a partir de los trabajos de estos dos científicos, los 
  físicos pueden estudiar ahora una nueva clase de materiales bidimensionales 
  con propiedades únicas.
  El grafeno también tiene una amplia variedad de 
  aplicaciones posibles, incluida la fabricación de nuevos materiales y de 
  dispositivos electrónicos avanzados. Los transistores de grafeno pueden ser 
  sustancialmente más rápidos que los actuales de silicio, con lo que se podrán 
  fabricar ordenadores más eficaces. También, como es transparente y un buen 
  conductor, se vislumbran aplicaciones en pantallas de dispositivos 
  electrónicos e incluso paneles solares.
  Geim, en una conferencia vía telefónica, ha declarado que 
  no esperaba el premio y que intentará evitar que esta distinción cambie su 
  rutina. "Mi plan para hoy es ir al trabajo y terminar un artículo que tengo 
  pendiente", ha señalado. El Comité Nobel ha informado de que Novoselov, de 36 
  años, es el físico más joven premiado con un Nobel desde 1973, informa la 
  agencia Reuters.
  El Nobel de Física se entrega desde 1901 (excepto en años 
  concretos: 1916, 1931, 1934, 1940, 1941 y 1942) y está dotado con 10 millones 
  de coronas suecas (1,1 millones de euros). Ayer se dio a conocer 
  
  el de Fisiología y Medicina, que fue para Robert Edwards por el desarrollo 
  de la fertilización in vitro. Seguirán al de Física, el de Química (mañana), 
  Literatura (jueves), de la Paz (viernes) y cerrará la ronda de estos 
  galardones el de Economía, que se fallará el lunes próximo.
  
    
    También Geig  logró ganar el IG Nobel
  Geim y Novoselov (el segundo fue alumno de doctorado con el 
  primero) deben disfrutar con sus experimentos. Los realizados para obtener el 
  grafeno sorprenden por su sencillez conceptual (ir separando capas de grafito 
  hasta lograr una sola aislada, que es el nuevo material). Pero ya antes habían 
  hecho experimentos peculiares. En 1997, Geim logró hacer levitar una rana en 
  un campo magnético, "una forma ingeniosa de ilustrar los principios de la 
  física", dice la Fundación Nobel. Por aquellos experimentos con la rana, 
  recibieron en 2000 el IgNobel de Física, uno de los galardones que se 
  consideran Nobel alternativos y que se dan desde hace 20 años para aquellos 
  trabajos "que primero hacen reir y después pensar". "Creo que soy el primero 
  que ha obtenido ambos Nobel y estoy muy orgulloso de los dos premios", ha 
  comentado hoy Geim.
  Fuente: elpais.com, 5-10-10
  

  
  
  -Los océanos pueden esconder 750000 especies marinas
  
    
      | 
       
      
        
      
      Epimeria georgiana  | 
        | 
      
       Los océanos podrían albergar 750.000 especies sin 
      identificar, unas 250.000 más de lo estimado en un principio, según el 
      primer censo de Vida Marina hecho público tras diez años de trabajo. Otra 
      década más de investigaciones, asegura la comunidad científica, podría 
      arrojar una cifra total del número de especies marinas existente. De 
      momento,
      
      la base de datos contiene alrededor de 120.000: 6.000 podrían ser 
      «nuevas»; 1.200 de ellas ya han sido descritas de manera formal.
      
       
      A pesar de la gran diversidad constatada, la actividad 
      humana es «devastadora». Ese es el mensaje que quieren transmitir los más 
      de 2.700 profesionales que han participado en el proyecto. Las
      
      540 expediciones realizadas en los océanos de todo el mundo han 
      evidenciado cómo la sobrepesca, la pérdida de hábitats y la contaminación 
      han empobrecido la mayoría de los stocks que antes proporcionaban comida y 
      empleo al hombre. Nueve mil días de travesía han reafirmado la importancia 
      de los océanos: la vida marina suministra la mitad del oxígeno de la 
      Tierra y regula el clima, entre otras funciones.  | 
    
  
  El lecho marino no es tan solitario
  
  Entre las 
  nuevas especies encontradas destaca el
  
  Dinochelus ausubeli,
  
  un cangrejo ciego con una larga pinza, localizado a 300 metros de 
  profundidad en el Pacífico y las
  
  arañas gigantes -como un plato de grandes- descubiertas en el 
  Antártico.
  
  El fondo 
  marino, considerado hasta ahora un desierto debido a sus condiciones de 
  temperatura -frío-, luminosidad -oscuridad total- y presión -enorme a 
  profundidades de casi 2 kilómetros-, ha deparado muchas sopresas a los 
  científicos. Grandes comunidades de diferentes especies pululan por él 
  filtrando los nutrientes, desplazándose gracias a los vientos termales y 
  refugiándose en las montañas.
  
  
  
  Un gusano con tentáculos -Mar de Célebes (sudeste asiático)- u otro 
  cangrejo apodado «El Yeti» -Isla de Pascua- son otros dos de los 
  hallazgos. Con respecto a este último, los investigadores han matizado que se 
  han observado diferentes miembros de la misma familia en Costa Rica.
  
  El ADN 
  confirmará si estamos ante especies originales o ya conocidas, sólo que con 
  forma, color y tamaño diferentes.
  
  Fuente: 
  abc.es, 4-10-10
  

   
  -La mosca de la fruta se expandió por el 
  mundo desde África
  Una nueva investigación realizada en la Universidad de 
  Medicina Veterinaria de Viena (Austria) muestra que, aunque la colonización 
  septentrional de la mosca de la fruta responde a un aumento de la actividad 
  agrícola y los cambios medioambientales asociados a la misma, en realidad 
  fueron factores genéticos y no en el entorno los que propiciaron la 
  colonización europea y asiática de la mosca.  
  
    
      | 
   Si alguien hubiera intentado buscar una mosca de la fruta 
  en Europa o Asia hace más de 10.000 años habría perdido el tiempo, pues hasta 
  entonces esta especie sólo se encontraba en el África subsahariana. Sin 
  embargo, hoy en día la mosca de la fruta es común en todos los continentes.
    
  El estudio, publicado en Public Library of Science (PLoS) 
  Genetics, explica las condiciones a las que se enfrentaron estos insectos en 
  su viaje desde el África subsahariana, muy distintas a las de su hábitat 
  inicial, sobre todo en lo referente a las bajas temperaturas.  Miles de 
  años de evolución han generado marcadas diferencias entre las poblaciones 
  africanas y europeas de mosca de la fruta debido a la adaptación a sus nuevos 
  entornos. Las diferencias principales se hallan en características 
  relacionadas con la temperatura, como la pigmentación, el tamaño y la 
  resistencia al frío. 
   
  En un estudio anterior llevado a cabo por uno de los autores del trabajo, 
  Christian Schlötterer, se sugería que una única proteína denominada cramped (crm) 
  podría haber influido en la adaptación y supervivencia de la mosca de la fruta 
  a los climas más fríos que ahora habita. No obstante, no existían datos que 
  respaldaran esta hipótesis.  Sobre esta base, el equipo investigó qué 
  genes podrían regular la proteína crm, en sí misma un factor de transcripción. 
  Se centraron en genes que se sabían importantes en el desarrollo de las alas 
  como el cubitus interruptus (ci), cuya regulación depende de la temperatura. 
  Los resultados demostraron que la proteína crm es necesaria para activar el 
  gen ci. 
       | 
        | 
      
       
      
         | 
    
  
  
  En este sentido, los científicos coincidieron en que si la proteína crm es 
  importante en la respuesta a la temperatura, también se podrían hallar 
  variantes (o alelos) de la proteína crm en Europa que funcionaran de forma 
  distinta a como lo hacen las variantes de las moscas residentes en el África 
  subsahariana. Para sacar a la luz estas posibles diferencias en la composición 
  genómica, silenciaron los efectos de otras zonas del genoma de la mosca. En 
  presencia de distintas variantes de crm examinaron la forma en la que los 
  cambios de temperatura afectaban a la expresión del gen ci así como otras 
  características como la pigmentación abdominal en hembras y peines sexuales en 
  machos, rasgos influidos por la temperatura. 
  
  Los resultados mostraron que la conjetura del equipo era correcta: distintas 
  variantes de crm estaban relacionadas con diferencias significativas en los 
  efectos de la temperatura sobre estas características.
  
  Al descubrir que la proteína crm limita varios procesos individuales a 
  distintas temperaturas, los cambios en crm podrían haber contrarrestado los 
  efectos del cambio de temperatura en la mosca. Christian Schlötterer explicó 
  las implicaciones de estos descubrimientos para el conocimiento que se posee 
  sobre la evolución: «Normalmente imaginamos la evolución como la adquisición 
  de nuevas funciones. Pero la adaptación de la mosca a entornos más fríos 
  parece acompañada de cambios en un regulador principal para garantizar que las 
  funciones existentes con anterioridad se mantengan a pesar del cambio de 
  circunstancias.»
  Fuente: CORDIS, 3-10-11
  

 
  -Nuevo telescopio de rayos X para 
  estudiar agujeros negros
  En el IXO, que se convertirá en el 
  mayor telescopio de rayos X que se haya construido, colaboran la Agencia 
  Espacial Europea (ESA), la Administración Nacional de la Aeronáutica y del 
  Espacio de los Estados Unidos (NASA) y la Agencia Japonesa de Exploración 
  Aeroespacial (JAXA). La misión programada para el IXO es la investigación de 
  los agujeros negros supermasivos, un tipo de agujero negro que se cree que se 
  desarrolló a principio del Universo, posiblemente con anterioridad a las 
  primeras estrellas. La información nueva que se obtenga sobre estos fenómenos 
  permitirá a la comunidad astronómica obtener conocimientos valiosos sobre el 
  pasado de nuestro planeta. IXO también estudiará al detalle estrellas de 
  neutrones y agujeros negros estelares, que están formados por supernovas de 
  estrellas con una masa considerablemente grande. 
  
    
      | 
       
      
         | 
        | 
      La cartografía de los agujeros 
      negros a estudiar procederá del experimento eROSITA («Extended Roentgen 
      survey with an imaging telescope array»), una cooperación entre Alemania y 
      Rusia encabezada por el Instituto Max Planck de Física Extraterrestre que 
      se lanzará al espacio en el plazo de tres años. eROSITA explorará el cielo 
      con la ayuda de un grupo de siete telescopios de rayos X y se espera que 
      descubra, entre otros objetos, cerca de tres millones de agujeros negros.
       
       
      IXO partirá de esta base crucial para realizar una investigación 
      sistemática que implicará la captura de radiación X procedente de agujeros 
      negros muy lejanos. Para ello precisa de un espejo gigantesco. En 
      previsión de la naturaleza de la radiación X esperada, este espejo contará 
      con varios componentes individuales dispuestos para reflejar los rayos de 
      forma lateral en un ángulo extremadamente pequeño en lugar de la más 
      tradicional orientación perpendicular.  
       
      El Instituto Nacional de Metrología de Alemania, el Physikalisch-Technische 
      Bundesanstalt (PTB), proporciona servicios científicos y técnicos y 
      actualmente comprueba las características clave de estos componentes. El 
      27 de septiembre de 2010 el PTB anunció su intervención en esta iniciativa 
      y describió las características concretas del espejo diseñado: «IXO tendrá 
      un solo espejo con una superficie de captación de cerca de tres metros 
      cuadrados, una longitud focal de veinte metros y una resolución angular de 
      menos de cinco segundos de arco. Debido a la incidencia rasante de la 
      radiación requerida, la superficie total del espejo debe ser de alrededor 
      de 1.300 metros cuadrados». | 
    
  
  
  Este espejo se construirá con obleas de silicio disponibles en el mercado con 
  un acabado extremadamente fino y diseñadas con unas nervaduras que permitirán 
  apilarlas en bloques rígidos. «Gracias a este diseño», indicaron responsables 
  del PTB, «se forman poros con una sección transversal de cerca de un milímetro 
  cuadrado en los que la radiación se refleja sobre la superficie de la oblea 
  situada inmediatamente por debajo».
  
  El instituto, que está analizando la superficie reflectante de cada uno de los 
  poros, añade que «en relación a la rugosidad y los errores tangentes, la 
  calidad de estas superficies "ocultas" no podrá investigarse desde arriba como 
  hasta ahora, sino que deberá determinarse en función de la geometría que se 
  aplicará durante su funcionamiento, con una reflexión de rayos X rasantes a 
  ángulos de aproximadamente un grado». 
  
  Para esta labor se utilizará un haz de lápiz monocromático de cincuenta 
  micrómetros de diámetro y una divergencia de menos de un segundo de arco. La 
  infraestructura necesaria ya está disponible en la recién ampliada XPBF, 
  perteneciente al laboratorio de radiación sincotrónica del Instituto en BESSY 
  II en Berlín-Adlersdorf (Alemania). 
  
  «Caracterizará los sistemas de la lente de rayos X de IXO en tres energías de 
  fotón distintas: a 1 kiloelectronvoltio, a 2,8 kiloelectronvoltios y a 7,6 
  kiloelectronvoltios», anunció el PTB. «Los sistemas de la lente pueden 
  ajustarse o girarse con un hexápodo en el vacío con reproductibilidades de dos 
  micrómetros y menos de un minuto respectivamente. El haz directo y el haz 
  reflejado se registran con un medidor de resolución espacial basado en un 
  dispositivo de cargas acopladas (CCD) a una distancia de 5 ó 20 metros del 
  sistema de la lente. Para la última distancia mencionada, que se corresponde 
  con la longitud focal de IXO que se pretende obtener, se ha dotado al detector 
  CCD de una libertad de movimiento vertical de más de 2 metros.» La ronda 
  inicial de pruebas se realizó en mayo de 2010 y las próximas se llevarán a 
  cabo en noviembre de 2010. 
 
  Fuente: CORDIS, 3-10-10
   
  

 
 
-Pseudociencia en el campus
La 
Sociedad Española de Astrología organizó ayer
un curso 
en el que se discutió la influencia de los astros en las relaciones de pareja, 
las implicaciones filosóficas y médicas de los 12 números-arquetipos zodiacales 
y se anunció el nacimiento de una nueva sociedad y un nuevo sistema para 2020. 
La jornada tuvo lugar en la Universidad de Alicante, a pesar de las protestas de 
la  
Sociedad 
Española de Astronomía y de los astrónomos y astrofísicos de la misma 
universidad, que lamentaron que se diese cobijo a esta "superchería destinada a 
explotar la ingenuidad de los incautos". El 15 de mayo de este año, en la 
Universidad de Lleida, la misma sociedad organizó unas charlas sobre 
autoconocimiento a través de la astrología, en las que se 
llegó a reivindicar una 
titulación propia para esta profesión. Y no se trata de hechos aislados ni 
anómalos.
El papel de la conciencia en la curación. Homeopatía. 
Acupuntura. Astrología. Grafología. Numerología. Feng-Shui. Reiki. Aunque 
podrían ser materias anunciadas en tablones de anuncios de establecimientos 
esotéricos, o entre las páginas de revistas dedicadas al mundo de lo 
paranormal, en realidad son temas que se han promovido y se promueven en las 
universidades españolas, ya sea en cursos de verano, posgrado o máster, o bien 
cediendo sus instalaciones para la realización de conferencias y otras 
actividades.
Poco a poco, este tipo de supercherías ha ido haciéndose un 
hueco dentro del mundo académico, consiguiendo, de esta manera, cubrirse con un 
manto de credibilidad otorgado por unas universidades, tanto públicas como 
privadas, que dan pábulo a un amplio abanico de pseudociencias.
La lista de la vergüenza'
El blog 
La lista 
de la vergüenza lleva denunciando estas prácticas desde mayo de 2010, 
después de que la Universidad de Valencia presentara un máster en 
medicina naturista, acupuntura y homeopatía . La iniciativa partió de 
Fernando Frías, abogado y socio de 
Círculo Escéptico 
y de  
ARP-Sociedad para el Avance 
del Pensamiento Crítico, quien tuvo la idea de lanzar esta página, donde se 
recopilan los cursos que promocionan la pseudociencia, para "exponer 
públicamente esa actitud de muchas universidades, y hacerlo, además, de una 
manera centralizada para conseguir la máxima repercusión". El motivo es "el auge 
de cursos y titulaciones de este tipo", añade Frías.
A día de hoy, esta lista aglutina
una treintena de cursos diferentes en 
universidades de toda España. Aunque en un principio era Frías el que iba 
añadiendo entradas en solitario, ahora cuenta con la colaboración de los propios 
alumnos de las universidades, que le envían información sobre nuevos cursos.
Un breve vistazo sirve para comprobar que las estrellas de 
este espectáculo son los cursos de máster sobre homeopatía, acupuntura o, en 
general, las mal llamadas "medicinas alternativas". Ahí están, por ejemplo, los 
cursos en 
Medicina Homeopática y
Acupuntura (ya por su octava promoción) de la Universidad de Barcelona, o el 
de Medicina Biológico-Naturista otorgado por la Universidad de León, que va más 
allá e incluye en el temario las llamadas "flores de Bach" y otros tratamientos 
cuya eficacia no ha sido probada.  
Sin comprobar
Todo ello ocurre a pesar de que
estas disciplinas han fallado en demostrar sus 
supuestos efectos beneficiosos estudio tras estudio, en los que se 
prueba, si están correctamente realizados, que la mejora atribuida a estas 
terapias por parte de los pacientes viene producida por el efecto placebo. Como 
dice Frías, la profusión de este tipo de cursos es lógica porque "se trata de 
campos en los que la subjetividad juega un gran papel. Una ingeniería 
alternativa", prosigue, "sería bastante difícil: o haces los cálculos para 
un puente conforme a los conocimientos científicos reales o el puente acabará 
cayéndose".
Más difíciles de detectar son aquellas carreras que incluyen 
horas lectivas sobre alguno de estos asuntos dentro de sus temarios, pero no 
dedican cursos o asignaturas completas. No obstante, algunas han conseguido 
entrar en la lista, como la asignatura "Tecnología farmacéutica especial", 
troncal en la 
licenciatura en Farmacia de la Universidad de Granada, que cuenta con tres 
horas teóricas de formación en homeopatía.  
"Resulta bastante perturbador pensar que ese tipo de 
asignaturas forman parte de carreras con base científica", comenta Frías. "El 
hecho de que el profesorado y el alumnado no aprecien esa incompatibilidad hace 
temer por la calidad de la formación científica que se imparte en esas 
carreras", añade.
Las universidades utilizan diferentes argumentos para
defender la inclusión de estos cursos dentro de 
sus programas. Fernando Fernández Lanza, gestor cultural del 
Vicerrectorado de Extensión Universitario de la Universidad de Alcalá de 
Henares, justifica la presencia en su oferta docente de dos cursos de verano,
Acupuntura y Homeopatía (que no llegó a impartirse por falta de 
alumnos) y Grafología para selección de personal, en que este tipo de 
actividades son "cursos de acercamiento entre profesores y alumnos". "Pueden 
montarse cursos sobre el infierno, ¿por qué no?", añade. La convocatoria de 
estos cursos es pública y son los directores de los mismos los que presentan un 
temario, organizan los horarios y se encargan de las tareas administrativas. 
"Los contenidos los aprueba una comisión en el vicerrectorado. En este caso no 
pareció conveniente echarlos atrás", añade.
El argumento de que se trata de cursos de extensión 
universitaria es compartido por la directora del curso Grafología para 
selección de personal, Laura Rayón, quien también incide en que apoyó el 
curso porque le pareció que "el conocimiento de que en un test de selección de 
personal pueden encontrarse con esta prueba es útil para alumnos universitarios 
a cualquier nivel". Carlos Santamaría, profesor de Psicología Cognitiva de la 
Universidad de La Laguna, aclara que, si nos atenemos al conocimiento científico 
existente sobre la materia, la grafología tiene 
"la misma fiabilidad que a la astrología, es decir, cero".
El discurso de la posible utilidad de la materia impartida 
como herramienta profesional de los alumnos, independientemente de su validez, 
también sirve para excusar el máster en Acupuntura que la Universidad de Lleida 
comenzará a impartir en octubre. La directora del Instituto de Ciencias de la 
Educación de la Universidad de Lleida, Conxita Vendrell, afirma que "en este 
momento ya nadie duda de la eficacia de la acupuntura", aunque posteriormente 
matiza que "es un debate que no está cerrado".  
Vendrell defiende la oferta de este curso porque
"la acupuntura existe como profesión; no es una 
profesión científica pero podría llegar a serlo". También añade que hay 
que ser respetuoso "con quien está aliviando el dolor de los pacientes". Isabel 
Giralt, directora del curso, sentencia que "a la larga, estaría bien que la 
acupuntura fuese una especialidad".
Fernando Frías asegura que cada vez hay más cursos 
pseudocientíficos en la universidad. Según explica, ha influido la aparición de 
un número cada vez mayor de títulos propios de las universidades, lo que "ha 
permitido que aparezcan titulaciones específicas que antes no existían. También 
la popularización de los cursos de verano, que permite que muchas universidades 
impartan cursillos o talleres de introducción a materias tan palmariamente 
anticientíficas como la astrología", añade el experto. Y, en última instancia, 
la supuesta utilidad profesional: "Muchas de 
esas materias están de moda, así que algunas universidades, que en lugar 
de atender a los principios de una correcta formación científica prefieren hacer 
caso del juego de la oferta y la demanda, las incluyen en sus titulaciones o 
como asignaturas de sus carreras oficiales".  
Fuente: publico.es, 2-10-10

 
  
    -La muerte de un planeta
    
    WASP-12b, un exoplaneta que orbita la estrella WASP-12, situada a 
    unos 867 años luz de la Tierra, está siendo destruido por ella. Este gigante 
    gaseoso, que posee una masa mayor a la de Júpiter, gira tan rápido alrededor 
    de su sol que su año dura solo 26 horas. Esto se debe a que está muy cerca 
    de la estrella, y esto lo está aniquilando. En efecto,
    la gravedad y el calor 
    lo deforman tanto que parece un balón de rugby, y pierde unos 189 
    millones de millones de toneladas de su recalentada atmósfera cada año. 
    ¿Cuánto tiempo resistirá el planeta antes de ser destruido?
    
      
        | 
         
        
           | 
          | 
        
        
          Hemos sido afortunados. A pesar de lo breve -a 
          escala cósmica- de nuestra existencia como raza, hemos encontrado un 
          sistema estelar en el que un gigantesco planeta similar a Júpiter está 
          siendo destruido por su estrella. El planeta en cuestión es WASP-12b,
          uno de los mas 
          enigmáticos de los casi 400 que los astrónomos han descubierto fuera 
          de nuestro sistema solar. El descubrimiento, tal como explican 
          los autores del mismo en la revista
          Nature, 
          explicaría la extraña forma que posee este globo de gas en su parte 
          superior. El hallazgo posee un gran valor científico, ya que permitirá 
          a los especialistas supervisar
          el proceso de 
          la muerte del planeta. 
          
        
          El estudio fue dirigido por Shu-Li, del
          National 
          Astronomical Observatories de China, y contó con la 
          colaboración de investigadores de los Estados Unidos. Descubierto en 
          2008, WASP-12b es el planeta más caliente que se conoce.
          Su superficie 
          tiene una temperatura cercana a los 2500 ° C. Una de las 
          razones de que el planeta sea un infierno es que describe su órbita a 
          una distancia muy pequeña -menos del 2% de la que separa la Tierra del 
          Sol- alrededor de la estrella WASP-12. El planeta tiene un 50% más 
          masa y un tamaño un 80% mayor que nuestro Júpiter, y según Shu-Li, 
          “las fuerzas de marea causadas por la atracción de la estrella son la 
          causa del enorme tamaño del planeta.” En efecto, así como en la Tierra 
          la interacción entre nuestro planeta y la luna causa las mareas que 
          alteran el nivel del mar, en WASP-12b la proximidad entre el planeta y 
          la estrella originan enormes fuerzas que distorsionan su forma y le 
          proporcionan una forma similar a un balón de rugby. Esta deformación 
          genera fricciones en su interior, las fricciones generan calor y este, 
          finalmente, produce la expansión del planeta. Tanto se ha dilatado, 
          dice Shu-Li, que “ya no es capaz de contener su propia masa en contra 
          de la atracción estrella.”  
         | 
      
    
   
  
    Cada segundo que pasa, WASP-12b pierde seis millones de 
    toneladas de su masa. Si el proceso continua a este ritmo,
    toda la masa del 
    planeta habrá desaparecido en unos diez millones de años. Casi todo 
    el material que se desprende del planeta acaba en la estrella rápidamente, 
    pero una pequeña parte de la masa va creando un disco que se precipita hacia 
    WASP-12 describiendo una lenta trayectoria en espiral. Si bien 10 millones 
    de años puede parecer mucho tiempo, cuando pensamos que la Tierra se formó 
    hace unos 4550 millones, nos damos cuenta que este exoplaneta está en los 
    últimos instantes de su existencia. Y nosotros -la raza humana- estamos aquí 
    para verlo.
    Fuente: abc.es, 2-10-10
    

 
 
 
 
  -Los dinosaurios que surgían de la tierra
  Cuando la criatura ya estaba a punto, rompía el huevo y, a ciegas, se abría 
  paso bajo la tierra, con sus patas recién formadas, hasta salir a la 
  superficie. Junto a ella, si había suerte, se empeñaban por llegar a la luz 
  una veintena de hermanos y, posiblemente muy cerca, otras camadas hacían lo 
  mismo. Escenas como ésta se repetían con asiduidad hace 70 millones de años en 
  Coll de Nargó, en pleno corazón del Pirineo leridano, donde se encuentra
  
  el mayor nido con huevos de dinosaurio de toda Europa. Científicos del
  
  
  Instituto Catalán de Paleontología (ICP) han descubierto datos inéditos 
  del comportamiento reproductivo de estos animales 
  
  saurópados,
  
  sorprendentemente similar al de las tortugas actuales. Los «pollitos» 
  de dinosauro, ya de 
  unos veinte centímetros, rompían sus huevos y excavaban con toda la 
  fuerza y el empuje de la vida, igual que lo hacen ahora las fragilísimas crías 
  de tortuga. Rápidamente, se convertían en jóvenes adultos que podían llegar a 
  alcanzar
  
  los quince metros de cabeza a cola y seis desde los pies hasta la 
  cadera. La investigación aparece publicada en la revista científica 
  
  PLOs ONE.  
  
  
  
  
  Puesta de huevos
   
  
    
    Hasta ahora, se creía que las hembras de dinosaurio saurópodo, un gigantesco 
    animal herbívoro del Cretácico, ocultaban sus huevos entre la hierba de la 
    marisma, pero no era así como sucedía. En realidad,
    
    los enterraban en una zona cercana a los ríos para que se incubaran con el 
    calor, y la eclosión se producía dentro del sustrato. Por los huevos 
    encontrados, esta práctica era muy común y se repetía en el tiempo, incluso 
    se han encontrado restos de un comportamiento similar en lugares remotos del 
    mundo, como Argentina. La zona catalana estaba entones cerca de la costa, y 
    «el
    
    clima húmedo y cálido y la abundante vegetación la convertían en un 
    lugar idóneo para anidar», explica a ABC Ángel Galobart, jefe del grupo de 
    investigación del Mesozoico del ICP.
    
    En el yacimiento de Coll de Nargó se han encontrado nueve puntos de 
    anidación, con una media de entre diez y quince huevos cada uno, aunque uno 
    de los nidos tiene 20 huevos y otro, el más grande, nada menos que 28. En 
    total,
    
    140 huevos de saurópodo de hasta 20 centímetros de diámetro que han 
    sido analizados con sumo cuidado por los investigadores durante cinco años.
    En busca de embriones
    
    Extraer los huevos para su análisis no fue fácil y los científicos tuvieron 
    que utilizar un cemento expansivo. Después,
    
    una tomografía computerizada (TAC) permitió ver su interior. «Es muy 
    difícil saber cuánto tiempo pasaba el dinosaurio dentro del huevo, pero sí 
    sabemos que cuando nacían se desarrollaban muy rápido», apunta Galobart. 
    También es un misterio cuál era el éxito de los nacimientos, aunque sí se 
    sabe por algunos huevos hallados intactos que 
    no todos eran fértiles. 
    
    Hasta ahora, todos los huevos se han encontrado vacíos, pero los 
    investigadores tienen la esperanza de descubrir algún día un embrión en los 
    que aún no han sido analizados. «Sería algo extraordinario, porque hay muy 
    pocos en el mundo», explica Galobart. Como no existe un escáner en el mundo 
    en el que se pueda analizar un nido de 28 huevos en una sola pieza -mide dos 
    metros por uno-, los cietíficos trabajan en el desarrollo de un
    
    macroescáner de estas medidas para analizar los fósiles.
    
    
    Fuente: abc.es, 1-10-11
 
 
 

 
