30 de septiembre de 2011

COHETES REUTILIZABLES

Falcon 9 en la rampa de lanzamiento.
La compañía norteamericana SpaceX dice que los cohetes reutilizables puede ayudar a alcanzar Marte con una tripulación humana. La empresa está desarrollando el primer cohete reutilizable para misiones espaciales, con el objetivo último de llegar a colonizar Marte algún día. El vehículo definitivo podría ser una versión reutilizable del cohete Falcon9, que se utilizó para transportar la cápsula Dragón a una órbita espacial baja en el último test de año pasado. El primer viaje para transportar carga a la Estación Espacial Internacional (ISS) se producirá en enero de 2012.

Tener la posibilidad de reutilizar los cohetes puede ahorrar decenas de millones de dólares y podría ser la solución para llegar a alcanzar algún día planetas tan lejanos como Marte. “Un sistema rápido y reutilizable es necesario para colonizar el espacio, si los cohetes no son reutilizables, muy poca gente puede realizar viajes espaciales”, dijo Musk al Club de Prensa Internacional.

Las cifras le dan la razón. Actualmente construir y lanzar al espacio un cohete Falcon cuesta entre 50 y 60 millones de dólares. Mientras que el coste del combustible apenas supone 200.000 dolares. Entonces, si se pierde el cohete a su reentrada en la atmósfera, el coste por lanzamiento se dispara. De ahí la necesidad de que los ingenieros puedan recuperar el cohete para volverlo a poner operativo. En ese caso, “el coste de los lanzamiento sería 100 veces menor”, comenta Musk.

Musk, es un empresario emprendedor de Internet que fundó PayPal, y ha utilizado sus grandes ganancias para fundar otras empresas como la compañía de automóviles eléctricos Tesla Motors y la compañía aeroespacial SpaceX. Según aclara, otras compañías han intentado anteriormente la construcción de cohetes reutilizables, pero han fracasado en su intento. Sin embargo, Musk ha llegado a la conclusión en los pasados doce meses, de que el problema de la reutilización es resoluble. “Nosotros lo vamos a intentar. Tenemos un diseño que sobre el papel, según los cálculos y las simulaciones, funciona”.

La idea no deja de resultar curiosa: el cohete despega de forma convencional, después se separa en dos etapas, una superior y otra inferior. La parte inferior del cohete, retorna a la Tierra del mismo modo y en la misma posición con la que despegó. “Eso elimina la necesidad de utilizar alas para devolverlo de vuelta a la plataforma de lanzamiento”, dijo.
Si finalmente lo logran, podría servir en un principio para transportar carga y nuevas tripulaciones a la ISS, con lo que se dejaría de depender exclusivamente de las naves rusas. Sería un primer paso para impulsar una nueva economía basada en el acceso al espacio.

29 de septiembre de 2011

CRECE EL NÚMERO DE EXOPLANETAS HABITABLES


Trascurridos los primeros 136 días de la misión de exploración del telescopio Kepler, ya disponemos de los primeros datos reveladores, según el Dr. Wesley Traub, jefe del Programa científico de Exploración Exoplanetaria de la NASA.

En un artículo publicado en la revista Astrophysical Journal, Traub ha desvelado que podrían existir muchos más planetas terrestres habitables de lo previamente estimado. Traub basa sus estimaciones en los datos aportados por Kepler tras la exploración de 1235 planetas candidatos, entre los que se encontró un total de 959 que presentaban la posibilidad de albergar vida; 159 orbitando estrellas de la clase F, 475 orbitando las de clase G y 235 orbitando las de clase K. En el esquema general de clasificación estelar, esas estrellas son similares a nuestro Sol (estrella de clase G). Las de clase F tienen mayor temperatura y brillo, mientras que las de clase K son más frías y su luz es de menor intensidad. Dependiendo del tipo de estrella la zona de habitabilidad, aquella zona en la que es posible la presencia de agua líquida, varía. Algunos planetas habitables pueden orbitar sus estrellas al doble de la distancia que supera a la Tierra del Sol o, en el caso de estrellas de pequeño tamaño, las orbitas pueden ser inferiores a la órbita de Mercurio.

Sonda KEPLER en la NASA
 Para considerar que un exoplaneta cumple con las condiciones para ser habitable, este debe ser un planeta terrestre (no gaseoso) con un radio comprendido entre la mitad y dos veces el de la Tierra, en el que su intervalo de masas no sea inferior a la decima parte, ni superior a diez veces, la de la Tierra. Esto supone considerar planetas desde el tamaño de Marte hasta los llamados supertierras.

 En el artículo también especifica el rango de las zonas habitables de sus sistemas planetarios. Un amplio intervalo que va desde una Zona de Habitabilidad (HZ) de 0,72 a 2 Unidades Astronómicas (UA), pasando por una más restrictiva que considera los intervalos de 0,8 a 1,8 UA, y la más precisa que considera rangos de 0,95 a 1,67 UA.

Tomando todos estos intervalos en consideración, la probabilidad de encontrar planetas terrestres en las zonas habitables de estrellas semejantes al Sol (F,G y K) es del 34%. Aunque este dato hay que matizarlo todavía pues la precisión es de +/-14%. Un rango de error tan abultado es debido al peculiar metodo de detección del observador Kepler, que le impide ofrecer en este momento datos totalmente fidedignos en aquellos planetas cuyas orbitas se encuentren en el entorno de los 1000 días. Confiemos en que en los próximos meses los datos de la sonda Kepler confirmen las buenas noticias.
Tamaño comparado de algunos exoplanetas descubiertos por Kepler.
Observar el tamaño de la Tierra "Earth" en inglés.
Área de rastreo de la sonda Kepler. ¡3000 años luz del Sol!

A VUELTAS CON LOS EXTRATERRESTRES

Extraterrestres malévolos
En la actualidad proliferan con cierto éxito las películas y series sobre extraterrestres malévolos que vienen a la Tierra a robarnos nuestros recursos. Sin duda resulta curioso como se refleja la psique social en las películas. Ahora que entramos en un era de madurez para la humanidad en la que somos plenamente conscientes de las limitaciones de los recursos naturales, ideamos una amenaza exterior que viene a robarnos lo poco que tenemos en la Tierra.

 Lo que resulta lamentable, es la escasa cultura científica de los productores, guionistas y directores estadounidenses. Los extraterrestres que nos proponen en las pantallas parecen salidos de la imaginación de un niño de 3 años, o quizá, de sus pesadillas. Lo cual no supondría ningún problema, si no fuera porque el público al que van dirigidos los productos cinematográficos es de un rango de edades bastante superior. Parece que nadie en Hollywood se preguntó, ¿cómo es posible que un alienígena capaz de construir naves espaciales ultratecnológicas, que permiten los viajes interestelares a años luz de distancia, no tienen ropa para tapar sus vergüenzas? En otras palabras, vienen a la Tierra como dios los trajo al mundo, ¡desnudos! Y ya no es solo que resulte culturalmente poco creíble, es que su avanzada civilización estaría incurriendo en riesgos descomunales. Sus avanzados ciudadanos se estarían exponiendo a los microbios patógenos terrestres y quizá, a la nociva composición de una atmósfera no totalmente compatible con sus vías respiratorias.

Solo tenemos que ver lo que ha ocurrido a lo largo de nuestra historia para comprobar lo que ocurre cuando una civilización, con sus propios microbios, invade otra. Y no se me ocurre mejor ejemplo para demostrarlo que lo que ocurrió con la invasión del Nuevo Mundo a partir de 1492 por parte de los españoles. Para los indígenas del nuevo mundo, las Carabelas españolas no debían diferir mucho de lo que nos parecería a nosotros una nave espacial interestelar. No es que ellos desconocieran las embarcaciones, pero naves capaces de cruzar todo un océano eran impensables. Para construirlas era necesario conocer tecnologías que ellos desconocían completamente, a lo que hay que añadir nuevas tecnologías que permitían la navegación, como la brújula, el astrolabio o el catalejo. Las civilizaciones americanas poseían un lenguaje verbal y uno matemático, pero aún no habían dado el paso a la indagación racional del universo (la filosofía) y mucho menos, habian dado el gran paso de probar las teorías basándose en datos experimentales (la ciencia). Pero lo que sin duda no esperaban los indígenas es que los dioses extranjeros portaran enfermedades terribles con ellos, como la viruela, el sarampión, la varicela, la peste negra, el paludismo, la difteria, la tosferina, el tifus, o la rabia canina. Enfermedades para las que sus sistemas inmunes no estaban preparados. Debido a las enfermedades llevadas por los europeos al nuevo continente, murieron entre un 30 y un 95% de la población nativa americana. Aunque los españoles también trajeron del nuevo mundo algunas enfermedades desconocidas hasta la fecha en Europa (malaria, fiebre amarilla y sífilis), estas fueron mejor controladas y tuvieron escasa repercusión en una sociedad acostumbrada a lidiar con grandes epidemias.

 Pero, ¿por qué fueron los españoles los que tenían las enfermedades más terribles y no fue al revés? Sin duda una excelente pregunta que merecería una larga respuesta. Pero aquí no disponemos de espacio para ello, por lo que solamente comentaré que los españoles venían de un mundo Europa, con una densidad de población mucho mayor que la del continente americano. Donde el comercio y los movimientos de población habían permitido la aparición y extensión de terribles epidemias que provenían del lejano oriente, África o de los países escandinavos. Epidemias que la mayor parte de las ocasiones se originaron en las granjas, por la domesticación del ganado. Los microbios suelen mutar con cierta facilidad, y tienen tendencia a saltar del ganado doméstico a los humanos. Los Aztecas, Mayas e Incas carecían de una cultura ganadera tan extensa y variada como la europea. Creo que con esto queda claro que los supuestos alienígenas tomarían medidas extremas para no contagiarse con patógenos humanos. De hecho, ¡a ellos les bastaría con estornudarnos en la cara para exterminar a la raza humana!

Pero volviendo al mundo del cine y las teleseries, más patético resulta comprobar que esos “bichos” extraterrestres no tienen siquiera unas manos útiles con las que manipular el mundo. Lo que ya consiguieran nuestro lejanos antepasados los Homo habilis, los extraterrestres ¡aún no lo han logrado! En lugar de eso, en las series podemos comprobar cómo portan extraños tentáculos en sus extremidades, garras o solo tres largos dedos de medio metro de longitud. Una vez más, caen en el espectáculo por encima de cualquier consideración y con ello insultan la inteligencia del público. ¿Cómo es posible manipular herramientas si no se tiene una mano de reducidas dimensiones con al menos 4 dedos, y con dos de ellos capaces de realizar la pinza de precisión? Si se fijan en sus propias manos comprobarán que el dedo índice y el pulgar pueden oponerse, algo que no pueden realizar con el índice y el anular, o con cualquier otro dedo. Ese pequeño milagro, permite manipular objetos con delicadeza y precisión. Aunque pueda parecernos un logro muy simple, todavía no lo ha conseguido ningún otro animal, ni siquiera nuestros parientes más cercanos, los chimpancés. Los primates no logran realizar la pinza de precisión, en lugar de ello, toman los objetos con cuatro dedos presionándolos con cierta fuerza contra la palma de sus manos.
Alien
 Finalmente y siendo precisos, también hay que descartar estructuras de locomoción absurdas como tener ocho patas para moverse por el mundo, estructuras craneales en las que predominan grandes osificaciones, etc, etc. La razón en este caso quizás les resulten más lejanas, pero no por ello dejan de estar presentes. Los humanos tenemos un cuerpo muy grácil y estilizado debido a que nuestros huesos han adelgazado hasta la mínima expresión, y nuestros intestinos se han reducido al máximo. Y todo ello ha ocurrido con el fin de dejar energía libre disponible para nuestro cerebro. El cerebro es un órgano de pequeñas dimensiones pero que consume una gran cantidad de energía, equivalente a una bombilla de 60 W. El 20% de nuestro gasto energético en reposo proviene del cerebro. Eso significa que nuestro organismo tiene que aumentar la eficiencia del resto de los órganos del cuerpo para lograr tener más energía disponible para el cerebro. Si no fuera así tendríamos que pasarnos la mayor parte de nuestra vida diaria ingiriendo comida, con lo cual, tener un cerebro inteligente no nos supondría una gran ventaja. También nuestro sistema locomotor provisto de solo dos piernas en lugar de cuatro patas, resulta energéticamente ahorrador a la hora de recorrer grandes distancias.

Me dejo en el tintero montones de rasgos menos evidentes, pero igualmente importantes. Creo que con lo ya expuesto queda claro que la fisiología de un alienígena, sea cual sea su procedencia, tiene que tener una gran cantidad de rasgos en común con nosotros. 

¡Esperemos que estos conocimientos lleguen algún día a los despachos de Hollywood!

21 de septiembre de 2011

¿POR QUÉ NOS GUSTA TANTO TOMAR EL SOL?

Se han preguntado alguna vez por qué nos gusta tanto tumbarnos en la playa a tomar el Sol, ¡vuelta y vuelta! No, ciertamente no somos organismo fotosintéticos como las plantas, nuestra energía la obtenemos de los alimentos que ingerimos. Sin embargo, sí que existe un nutriente que se obtiene principalmente de nuestra exposición al Sol, la vitamina D. Los últimos estudios sobre la vitamina D han demostrado que es crucial en la prevención del cáncer y de enfermedades infecciosas, así como en los trastornos inmunitarios y los procesos de osificación.

La presencia de vitamina D en el organismo es esencial para evitar la aparición de raquitismo, debido a que interviene en la regulación genética del proceso de osificación. Aunque para ser exactos la forma biológicamente activa de la vitamina D, denominada 1,25 D, regula más de 1000 genes de nuestro organismo repartidos por una docena de tejidos, entre los que encontamos: hueso, cerebro, mama, riñón, hígado, páncreas, próstata, sistema inmunitario, sistema nervioso, glándula paratiroidea, grasa e intestino.

De ahí que su papel sea fundamental en la prevención del cáncer de colon, mama y próstata. El cáncer de ovarios tiene un riesgo hasta cinco veces mayor en las mujeres que viven a latitudes elevadas (Rusia, Suecia, Finlandia, Canadá) que en las mujeres del ecuador debido a la falta de luz solar en los meses de invierno. Lo mismo ocurre para el caso de la esclerosis múltiple, donde unos adecuados niveles de vitamina D en el organismo disminuyen en un 62% el riesgo de padecerla.

Las fuentes de obtención de una vitamina tan crucial son escasas. Las vitaminas D2 y D3 se encuentran de forma natural en algunos nutrientes, pero en muy escasa proporción, por lo que nuestra principal fuente de obtención es la síntesis en la piel (queratinocitos) bajo el influjo de los rayos ultravioletas B procedentes del Sol. Entre los nutrientes naturales en los que podemos encontrar la vitamina D se encuentran:
  • Yema de huevo, 20 UI D3 o D2. 
  • Productos lácteos enriquecidos, zumo de naranja o cereales (una ración) 60-100 UI D3 o D2.
  • Atún cocido, sardinas, arenques y salmón (85 – 100 gr) 200 – 360 UI D3.
  • Aceite de hígado de bacalao 1 cucharada 1360 UI D3.
  • Algunos tipos de setas secas 100 g 1600 UI D2.
La obtención por la exposición corporal a los rayos UVB del Sol (20 minutos al mediodía, en verano, para una persona de piel clara) 10.000 UI D3. En este punto hay que tener en cuenta que la raza determina profundamente la velocidad de síntesis de la vitamina D. Cuanto más oscura es la piel, más melanina encontramos en sus células, y mejor se bloquea la entrada de la radiación UVB al interior de la piel. Por este factor las personas de piel clara producen vitamina D seis veces más rápido que las de piel oscura. Eso lleva a que las personas de color que emigran a latitudes elevadas tienen que tener más cuidado que las demás para obtener una dosis adecuada de Sol. Muchos niños de color suelen desarrollar raquitismo en países como Noruega, Suecia o Finlandia, de ahí la necesidad de prestar especial cuidado a este factor.

Con esto queda claro los beneficios de tomar el Sol, aunque siempre con moderación, unos minutos todos los días es suficiente.

19 de septiembre de 2011

EL DESAFÍO DE LA MOVILIDAD ELÉCTRICA

Mercedes-Benz F125
El número de vehículos eléctricos matriculados en España no llega ni al 5% de lo previsto, a pesar de la fuerte apuesta por este tipo de vehículos que ha impulsado el gobierno de José Luis Rodríguez Zapatero. Según su plan de movilidad sostenible de 600 millones de euros, en el año 2011 se esperaba unas matriculaciones de 20.000 vehículos eléctricos, por más de 50.000 para el año 2012. Las cifras reales distan mucho de tales metas. En los ocho primeros meses del 2011 solo se han vendido 213 coches y 344 motos eléctricas.

¿Qué es lo que está fallando? La sociedad está plenamente concienciada, y el deseo de tener un automóvil silencioso y respetuoso con el medio ambiente es elevado, pero no están dispuestos a obtenerlos a cualquier precio. Mientras el precio de las baterías de Litio-ion supere el precio de un utilitario normal (30.000 euros) y las autonomías de los vehículos eléctricos ronden los 150 km, es poco probable que los ciudadanos se animen a dar el gran salto.

Tal y como vaticinaba en otras entradas, la opción eléctrica pura (con baterías) no es viable a corto plazo, y quizá, tampoco llegue a serlo a largo plazo. Tenemos que llegar a desarrollar una tecnología verdaderamente rompedora y comercialmente competitiva, lo cual no esta resultando una tarea demasiado fácil. En 1899, Henry Ford se acercó al ya entonces famoso Thomas Edison cuando estaba realizando una exposición sobre “Las baterías para hacer funcionar vehículos eléctricos”. Ford, interrumpió a Edison y le mostró un prototipo de coche con motor de combustión interna que estaba preparando. Edison lo escuchó y al finalizar la exposición le dijo: “Joven, está usted bien encaminado. Este coche tiene una ventaja sobre el eléctrico, pues se suministra su propia energía”.

Thomas Parker construyó el primer coche eléctrico en 1844.
No le faltaba razón a Edison como hoy sabemos, la asociación de (gasolina-motor de explosión) se impuso a la de (baterías-motor eléctrico). Y la razón de la victoria no hay que buscarla en las mecánicas; el motor eléctrico es muy superior al de combustión en todos los aspectos en los que se enfrentan (ecología, rendimiento, fiabilidad, densidad de potencia, par motor, coste, rumorosidad, vibraciones…). No, el problema reside en el almacenamiento de energía, como ya comenté en otras ocasiones. En ese caso, el desempeño de la gasolina es muy superior al de cualquier batería ideada hasta el momento. Un solo litro de gasolina almacena unos 10 kWh de energía. Las baterías más capaces montadas hasta la fecha en un automóvil portan 50 kWh de energía eléctrica, lo que equivale a un depósito con solo 5 litros de gasolina.  Por momentos pareciera que la propia leyes de la física se aliaran para impedir que consigamos un dispositivo de almacenamiento de electricidad que sea pequeño, ligero, barato y de rápida recarga, junto con una capacidad de almacenar energía lo suficientemente alta.

Según mi modo de ver el asunto, el problema se resolvería si utilizamos el hidrógeno como vector (almacén de energía) y la célula de combustible para transformar el H2 en electricidad. De este modo se evita el problema del peso, el de la autonomía y el de la recarga rápida. Y aunque el precio del conjunto sigue siendo algo elevado, se han hecho enormes progresos en los últimos 10 años y se espera que sean comercialmente competitivos en unos 5 años. Para ver cómo será esa tecnología en el 2025, lo mejor es fijarnos en la estrella de los automóviles. Mercedes siempre ha ido por delante en lo que a incorporación de nuevas tecnologías al mundo del motor se refiere. Ya lo hizo con el ABS, con el Air Bag, y un largo etcétera. 

En el reciente Salón de Fráncfort, Mercedes ha presentado su prototipo F125, un vehículo híbrido de autonomía extendida que utiliza una pequeña batería de nueva generación junto con una célula de combustible alimentada por hidrógeno. El prototipo cuenta con cuatro motores eléctricos, uno por cada rueda, que rinden en conjunto 231 CV, aunque puntualmente pueden alcanzar los 313 CV. Los motores reciben energía de una batería de litio y azufre que está desarrollando la marca. Esta batería tiene una densidad energética (capacidad de almacenar energía) de 350 Wh/kg (el doble que las actuales) y su capacidad será de 10 kWh, lo que dota al vehículo con una autonomía para recorridos cortos de 50 km. Cuando la batería se agota entra en funcionamiento la pila de combustible que utiliza hidrógeno para suministrar electricidad a los motores. 

Las prestaciones que señala la marca son casi irreales: Acelera de 0 a 100 Km/h en 4,9 segundos (¡como un Ferrari!), alcanza una velocidad máxima de 220 km/h, consumiendo tan solo 0,79 kg de hidrógeno a los cien. Esto supone que su consumo medio es de 2,7 litros de gasoil equivalentes a los 100. Con este sistema la autonomía del F 125 es de unos nada despreciables 1.000 km. Y esas prestaciones las consigue con una berlina de representación que mide casi 5 metros de largo, 1,98 metros de anchura y 1,43 de altura.

Para lograr semejantes cifras, incorpora una serie de tecnologías que pronto trataran de imitar otras marcas. Entre las principales cabe destacar, el depósito de almacenamiento de hidrógeno fabricado con tecnología MOFs que almacena 7,5 kg del gas a solo 30 bares de presión. Cifra muy inferior a los 700 bares que utilizan los depósitos actuales. Eso ahorra peso y volumen, pues el depósito no necesita tener forma cilíndrica, lo que posibilita su instalación aprovechando los huecos que deja los bajos del coche. La tecnología MOFs (del inglés Metal Organic Frameworks) se trata de una estructura porosa realizada con un compuesto de elevada superficie (hasta 10.000 m2/g). Al estar almacenado a menor presión no se pierde energía comprimiendo el hidrógeno hasta las 700 atmósferas, lo que redunda en una mejora del rendimiento global de la producción del hidrógeno hasta su utilización para mover las ruedas del automóvil.

Sin duda, la Estrella del Norte marca el rumbo, ¡sigámosla!

14 de septiembre de 2011

BIOCOMBUSTIBLES: ¿UNA SOLUCIÓN?

Comprobarán que a pesar de hablar en numerosas entradas sobre las alternativas energéticas de futuro, aún no había planteado la opción de los biocombustibles. La razón es sencilla, a día de hoy, siguen siendo más una promesa que una realidad, la sustitución del petróleo por un combustible derivado de los vegetales entraña mayores retos de lo previamente estimado.

 Hoy por hoy los biocombustibles siguen sin ser económicamente rentables y cada vez parece más probable que nunca lo serán. Una de los principales inconvenientes que se presentan es que los recursos agrícolas destinados a los biocombustibles se retraen de los dedicados a la alimentación humana. Eso es un gran dilema ético, en un mundo donde todavía hay millones de personas que pasan hambre, ¿podemos dedicar recursos agrícolas a producir etanol para nuestros automóviles? El cultivo de maíz requiere grandes cantidades de terreno y agua, que son consumidos fuera de la cadena alimentaria humana. Además el propio proceso de obtención del bioetanol presenta problemas, diversos contaminantes pueden detener la producción, y el proceso final de destilación necesita a su vez del consumo de grandes cantidades de energía:

 En los Estados Unidos el etanol se obtiene de los granos de maíz por fermentación. En primer lugar se descomponen los azúcares de la molécula de almidón, para luego pasar a fermentar los azúcares con levadura, con lo que se obtiene una mezcla de etanol y agua, que posteriormente se destila (liberándose dióxido de carbono en el proceso), y el etanol queda listo para su utilización en los automóviles.

 Se podría evitar el dilema ético si nos atenemos a obtener biocombustibles de las partes no comestibles de las plantas. Una opción muy investigada es la de los biocombustibles con base de celulosa. En este caso se aprovechan las partes menos útiles de las plantas (hojas, mazorca) para la obtención del biocombustible. Pero descomponer la celulosa es aún más caro y difícil, que descomponer el almidón del grano de maíz, e igualmente se presentan los mismos problemas de detención de la producción por contaminantes y necesidad de grandes cantidades de energía para el destilado final.

El proceso de obtención de etanol procedente de celulosa, comienza cuando se utilizan enzimas y otros agentes extra para descomponer las hojas y tallos de las mazorcas en sus azucares constituyentes. Este proceso de descomposición es extremadamente lento, lo que dificulta la producción industrial. Una vez obtenidos los azúcares se procede a la fermentación de los mismos con levadura para producir etanol y agua. Tras el proceso final de destilación se obtiene etanol y se libera dióxido de carbono a la atmósfera.

Otra opción muy noticiada últimamente es recurrir a las algas criadas en estanques artificiales, que actuarían como sumideros de CO2. De las algas se puede obtener los aceites que almacenan en el interior de sus células. Un simple disolvente químico mata las células y libera los aceites. Dichos aceites se refinan posteriormente para la obtención de biodiesel. El problema es que en el proceso de cría se necesita, además de CO2 y la energía del Sol, una serie de nutrientes que resultan caros. Además, en los estanques es fácil que se produzcan plagas de cepas competidoras que presentan un menor rendimiento. Por otra parte, cuando las algas producen aceites en sus células ralentizan su ritmo de crecimiento. Finalmente, la obtención del aceite puede llegar a consumir tanta energía como la que se obtiene del biodiesel. Sin contar con que el proceso final de refinado de los aceites requiere la utilización de equipos costosos.

En cualquier caso, de lograrse una tecnología rompedora en el futuro vendría por esta última vía. Numerosos equipos de investigación por todo el mundo se afanan en la búsqueda de la especie de alga idónea para el proceso. De entre las más de 4000 especies conocidas se han aislado unas 20 que presentan potencial de mejora mediante ingeniería genética. Otro de los puntos clave a lograr, es utilizar las células muertas desechadas como nutrientes (nitrógeno y fósforo) para los nuevos cultivos, lo que reduciría la necesidad de añadirlos externamente. Esto aún no se ha logrado y se duda que algún día llegue a lograrse. Las pocas compañías que actualmente se atreven a comercializar biodiesel a partir de aceite de algas lo consiguen rentabilizar solo gracias a la venta de un producto secundario del proceso, el acido graso Omega-3 (muy demandado en la industria láctea), que venden a precios rentables. El resto de empresa solo logran mantenerse en el mercado gracias a fuertes subvenciones estatales.

Finalmente cabe citar el mayor de todos los impedimentos, las magnitudes. Una vez más y como ya he citado en otras alternativas renovables, con buena prensa pero escasas perspectivas de éxito, el logro reside en conseguir magnitudes de producción adecuadas para sustituir al petróleo. Ahí surgen las voces de alerta, como la del experto Jefrry Jacobs, vicepresidente del sector del hidrógeno y biocombustibles en Chevron Technology Ventures. Según Jacobs, para no dejar inutilizadas las tierras de labranza en los Estados Unidos no se debería de extraer más de 80 millones de toneladas de material rico en celulosa. Pero una vez convertidos en etanol, esos 80 millones de toneladas tan solo darían para sustituir el 3% de la demanda de gasolina en Estados Unidos. Los biocombustibles, ¡una tarea peligrosa para un logro pírrico!

Si hablamos en términos mundiales, toda la energía que podemos obtener de los cultivos mundiales (incluido el alimento para el ganado, los arboles madereros y la celulosa del papel), se estima en unos 180 exajulios, que representa un tercio del consumo mundial de energía. Es decir, podemos prescindir de editar libros en papel y de comer, lo cual será bueno para bajar nuestro colesterol, pero ni así podremos acercarnos a las magnitudes energéticas que maneja la industria del petróleo.

11 de septiembre de 2011

LA CAPA DE HIELO ÁRTICO ALCANZA NIVELES MÍNIMOS

Christian Houge
El área cubierta en el océano ártico alcanza su menor superficie esta semana. El deshielo nunca había sido tan pronunciado desde que comenzaron las observaciones en 1972. “Es un mínimo histórico”, dijo Georg Heygster, jefe de unidad de Física Medioambiental y Detección de Imágenes de la Universidad de Bremen. El nuevo resultado es un 0,5 por ciento inferior al record anterior, que data de Septiembre del 2007. Según informó, "el 8 de septiembre, la extensión del hielo ártico era de 4.240 millones de kilómetros cuadrados". Aunque existe cierta discrepancia con los datos tomados por el Centro Nacional de Medida del Hielo y la Nieve de Estados Unidos (NSIDC), que establece que se alcanzaron los 4.100 millones de kilómetros cuadrados. En cualquier caso, cifras muy próximas y preocupantes, pues la cobertura de los hielos árticos tiene una función crítica en los ciclos climáticos al reflejar gran parte de la luz solar incidente.

La retirada de hielo en verano es un 50% mayor que hace cuatro décadas, lo cual es signo del calentamiento global, y tendrá repercusiones negativas a escala local y planetaria. Es también un signo evidente del papel humano en la alteración del clima, según los científicos. “El retroceso de hielo marino ya no puede ser explicada por la variabilidad natural de un año a otro debido a efectos del clima”, dijo Heygster en un comunicado emitido por su universidad. “Los modelos climáticos muestran, más bien, que la reducción se relaciona con la acción del hombre en el calentamiento global, debido a que el efecto albedo es particularmente pronunciado en el Ártico”.

La ausencia de efecto albedo en verano está acelerando el calentamiento en el polo norte. El efecto albedo se debe a que el color blanco de la nieve y el hielo, permite reflejar de vuelta al espacio un 80 por ciento de la radiación solar incidente. Si no hay hielo, las aguas oscuras del océano absorben la luz solar aumentado su temperatura más rápidamente. Eso convierte al océano ártico en una alerta temprana del cambio de temperaturas. Las temperaturas en la región han aumentado el doble de rápido que la media global en los últimos cincuenta años. Pero no solo la superficie helada a disminuido, el grosor del hielo también ha ido menguando en las últimas décadas. Aunque la medida precisas de su disminución son más difíciles de cuantificar que las referentes a la superficie cubierta. Las medidas de satélite que se toman desde 1972 muestran que la extensión del océano Ártico está disminuyendo a razón del 11 por ciento cada década.

El director del NSIDC Mark Serreze, ha advertido que la cobertura de hielo en verano podría desaparecer hacia el año 2030, dejando un mar completamente transitable. En la actualidad ya es completamente navegable en el canal del Norooeste. La ruta del sur también conocida como (Ruta de Amunden) está también libre de hielo, junto con la ruta del Mar del Norte que bordea la costa Siberiana. Aunque el tiempo que permanece libre de hielo es muy breve. La última vez que la Antártida estuvo libre de hielo en verano fue hace 125.000 años, en el apogeo del último periodo interglaciar. Las temperaturas de la atmósfera en el ártico eran más cálidas que en la actualidad, y el nivel del mar era también de 4 a 6 metros más elevado, debido a que los hielos de Groenlandia y la Antártida estaban parcialmente derretidos.

Tenemos que considerar que los calentamientos globales rápidos como el que está llevando a cabo la era geológica que inauguró el ser humano “ANTROPOCENO”, implican peores consecuencias sobre los seres vivos que los calentamientos lentos que han tenido lugar en épocas pretéritas. El registro fósil demuestra que el calentamiento global que tuvo lugar hace 120 millones de años y duró unos 30 millones de años resultó inocuo, comparado con el PEMT (56 millones de años). Ese último periodo fue comparativamente 1000 veces más rápido que el anterior. Comparar el registro fósil de ambos sirve para sacar importantes conclusiones de cara a vaticinar las consecuencias del vertiginoso calentamiento actual. Y es que el verdadero problema del calentamiento debido a la acción del hombre es su velocidad (de 1 a 4ºC por siglo) frente a 0,000025ºC por siglo (Cretácico) o 0,025ºC por siglo en el PETM.

Los cambios medioambientales que esperan los científicos son: acidificación de los océanos (lo que elimina gran parte de la fauna marina), fenómenos meteorológicos extremos (ya comenzamos a padecerlos), deshielo glaciar y elevación del nivel del mar. Eso afectará en mayor medida a las especies animales que se verán forzadas a realizar migraciones en masa hacia las regiones polares, perdidas de hábitats, blanqueo del coral y extinciones. Los animales no pueden adaptarse a las nuevas condiciones en tan breve periodo de tiempo.

Expedición rusa para explorar el fondo marino en el Ártico.

Sin embargo, para los gobiernos de numerosas regiones del mundo, el calentamiento global es una bendición, aunque jamás lo reconocerían ante un foro internacional sobre el cambio climático. La posibilidad de acceder y explotar los vastos recursos gasistas y de petróleo del Polo Norte es algo a lo que no van a renunciar. La propia apertura de líneas comercialmente transitables que eliminan miles de kilómetros en los trayectos entre China, Taiwan, Corea del Sur y Japón por un lado y Canadá, Estados Unidos y Europa por otro, ya es de por si motivo de alegría. La apertura de las nuevas rutas comerciales supondrán una importante reducción de costes (no tienen que pagar por atravesar el canal de Suez, los barcos se ahorran más de una semana de viaje). Otro asunto será, observar la pugna de las principales potencias por controlar los recursos que quedarán accesibles en breve.


NANOMATERIALES: BIOCERÁMICAS

La manipulación de la materia a escalas nanométricas no solo se utiliza para la construcción de nuevos materiales en el sector industrial, el sector de la salud se podría beneficiar de los nanomateriales de manera especial.

Reconstruir un tejido óseo es ahora posible gracias a los biomateriales. Al principio se utilizaban para sustituir al tejido dañado; ahora se ha cambiado el enfoque y se buscan materiales bioactivos y biodegradables que ayuden a la regeneración de los propios tejidos dentro del organismo. Las biocerámicas están contribuyendo a ese nuevo enfoque del tratamiento.

Conforme la esperanza de vida de la población aumenta, se hace cada vez más necesario hallar un modo de reemplazar tejidos dañados de nuestro cuerpo tales como dientes, huesos, piel, riñones, hígado, etc. El problema que presenta cualquier material artificial que utilicemos en implantes es que, tiene que ser biológicamente compatible con el cuerpo humano, además debe de ser duradero y no permitir las infecciones. Uno de los campos con mayor demanda de las biocerámicas es el de las prótesis para sustituir huesos dañados. Las biocerámicas están resultando un éxito en este campo por tres factores:

Los implantes artificiales comunes suelen traer problemas secundarios. En los implantes de prótesis articulares de cadera comunes, existe hasta un 4% de infecciones óseas, y hasta un 45% en el caso de los clavos que se utilizan en fijadores externos. Las infecciones óseas resultan especialmente difíciles de tratar cuando se presentan, pues hay que encontrar el modo de acceder a la zona de hueso infectado para suministrar el antibiótico adecuado. Si el propio implante lo llevará agregado sería una ventaja añadida. La posibilidad de incorporar fármacos a los biomateriales del implante supondrían una gran ayuda en cirugía. Las biocerámicas permiten ese pequeño milagro al incorporar estructuras porosas y de elevada superficie. Esto permite la incorporación de antibióticos, antiinflamatorios, anticancerígenos, directamente en la zona a tratar. El siguiente paso es adecuar el tamaño de los poros para que la liberación del fármaco se gradual y controlada. En general las moléculas activas de los fármacos presentan un tamaño del orden del nanómetro, por lo que cualquier poro de mayores dimensiones resultará adecuado para su liberación. Pero para la adsorción y posterior liberación de los fármacos no basta con diseñar la porosidad, también hay que controlar factores como la solubilidad del fármaco, con el fin de ajustar la cinética en la liberación del fármaco.

La segunda gran ventaja de los nuevos compuestos biocerámicos es que se pueden cargar con sustancias que tengan efectos regenerativos, de tal modo que ayuden a regenerar los tejidos in situ, sin la necesidad de intervenciones quirúrgicas invasivas. En ese sentido los biomateriales porosos fabricados con fosfato de calcio, vidrios o vitrocerámicas, actuarían a modo de vectores para la inyección de hormonas, factores de crecimiento, péptidos o ácidos nucleícos sobre las zonas dañadas.

Las biocerámicas también pueden resultar muy útiles para la nanomedicina del tratamiento del cáncer. La liberación de fármacos de forma inteligente (pequeñas dosis en los tejidos objetivo) puede eliminar muchos de los efectos secundarios en los actuales tratamientos del cáncer. Se trataría de inocular biocerámicas cargadas de fármacos que los liberarían solo en la zona deseada tras aplicar un estímulo externo, como un cambio de calor, pH, luz o tras la aplicación de un campo magnético.

8 de septiembre de 2011

CIENCIA y ARTE: FRACTALES

Pavo Fractal... perdón... "Real"
Los fractales (figuras quebradas o fracturadas) son objetos geométricos que se repiten hasta el infinito. Sin duda ofrecen una de las representaciones más artísticas de las, por otra parte, siempre frías matemáticas. Pueden observar un fractal en la figura que se muestra a continuación. Esta estructura no solo es una bella representación, también resulta muy útil pues ha permitido eliminar las molestas antenas que sobresalían en los teléfonos móviles antiguos. Los nuevos teléfonos móviles tienen antenas planas y compactas gracias a los fractales.

Observese la antena fractal de los teléfonos móviles modernos.

Este fractal 3D no tiene nada que envidiarle a la obra de Gaudi.
 Pero en el fantástico mundo de los fractales no todo son objetos geométricos. Uno de los fractales más famosos fue descubierto por Benoît Mandelbrot en 1978, desarrollando el conjunto que hoy lleva su nombre. Según una definición estricta, el conjunto de Mandelbrot no es ningún fractal, ya que carece de la propiedad de la autosemejanza. Si estudiamos su superficie con un detalle cada vez mayor comprobaremos que no se repite siempre la misma estructura, por lo que aparecen geometrías nuevas.

 En principio el conjunto de Mandelbrot se creó a partir de una familia matemática de funciones complejas que lo confinaban a la vida en dos dimensiones. Durante años se intentó generalizar la geometría a las tres dimensiones, pero el espacio tridimensional no permite sumar y multiplicar puntos. Recientemente se ha logrado solucionar parcialmente el problema, el bulbo de Mandelbrot constituye la primera prueba de ello (ver figura a continuación):

Bulbo de Mandelbrot

En la naturaleza podemos encontrar multitud de ejemplos de fractales:






7 de septiembre de 2011

¿QUÉ ES REAL?

Fotografía original del artista Christian Houge
Parece una pregunta simple, pero si se la hacemos a los pocos filósofos de la ciencia que pueden contestarla, les pondremos en un brete. Ciertamente la física teórica actual se encuentra en uno de esos momentos agridulces de la historia en los que se huele a cambio, a revolución, aunque aún no se atisba la solución en el horizonte.

Algo así se vivió otras veces en el pasado. En ciencia se avanza así, a saltos, con la llegada de nuevos paradigmas que nos dan una nueva e inédita visión de la realidad. Uno de los más señalados fue a principios del siglo XX con el salto que supuso la teoría de la relatividad de Albert Einstein. Después llegó la mecánica cuántica con sus paradojas inexplicables y ahí se lío todo de nuevo. En los años 1920s y 1930s del siglo XX los fundadores de la mecánica cuántica se dividían en realistas, con Einstein a la cabeza, y antirrealistas, liderados por Niels Bhor. La corriente realista afirma que el cometido de la física es proporcionar una imagen mental (paradigma), por imperfecta que esta sea, de una realidad externa y objetiva. Los antirrealistas afirman que esas imágenes mentales están repletas de atolladeros que las alejan de cualquier comprensión racional, los científicos deberían conformarse con realizar predicciones empíricas y confirmarlas. Según esta última corriente cada vez más numerosa de físicos como Leonard Susskind (Universidad de Standford, uno de los padres de la Teoría de Cuerdas, desarrolló el principio de complementaridad de los agujeros negros y el principio holográfico), las contradicciones y paradojas de la física moderna ratifican los límites del conocimiento que mencionaba Bohr.

En la actualidad la teoría de cuerdas es la posibilidad más prometedora de crear un nuevo paradigma que nos explique cómo se unen todas las fuerzas de la naturaleza. El problema es que al hacerlo surgen nuevos interrogantes. Es como si la teoría de cuerdas abriera la puerta a un inmenso páramo de nueva física por explorar. Precisamente fue Sussking quién dedujo de la teoría de cuerdas la posibilidad de que existiera un gran número de universos a parte del nuestro. Ahora la realidad que perciben y estudian nuestros científicos desde hace 400 años, sería solo una de muchas: un universo de entre 10500  posibles. Pero, ¿por qué no percibimos todos esos universos? ¿Podemos decir que existen otros universos si no lo podemos demostrar empíricamente? Eso es lo que lleva a Susskind a concluir que quizá jamás lleguemos a comprender la realidad, el conocimiento tiene sus límites. El universo y sus leyes pueden escapar a las posibilidades racionales del ser humano o quizá admitan muchas descripciones diferentes. Entonces, el sentido de lo real, tan arraigado en nuestra mente de primate, se va diluyendo en un sueño de una noche de verano. Conforme más sabemos sobre el universo meno entendemos la realidad.

 ¿Tienen ustedes sensación de vértigo, de que no hay nada sólido bajos sus píes en dónde poder construir? Pues esa, justamente, es la sensación que tenía Albert Einstein antes de dar con su genial teoría de la relatividad. De ahí mi opinión de que estamos nuevamente a las puertas de un evento revolucionario, un nuevo cambio de paradigma que nos responderá de forma más clara a la pregunta ¿qué es real? Y bajo mi siempre modesta opinión, la Teoría Matriz de la Percepción (el proceso de percepción genera el universo observacional) es junto con la Teoría de Cuerdas las dos columnas sobre las que deberá de edificarse la nueva física.

Volviendo a Susskind puedo poner un ejemplo del cambio de perspectiva que promuevo. Susskind creó el principio de complementariedad de los agujeros negros, según el cual existe una ambigüedad inherente en el destino de los objetos que caen al interior de un agujero negro. Desde el punto de vista del propio cuerpo que cae, este atraviesa sin mayores incidencias la frontera del agujero negro (el horizonte de sucesos) y solo se destruye al alcanzar la singularidad central. Sin embargo, para un observador externo, el objeto que cae desaparece en el mismo instante que atraviesa el horizonte de sucesos. ¿Qué ocurre en realidad? Según el principio de complementaridad, la pregunta carece de sentido: ambas interpretaciones son igualmente válidas. Para Susskind eso no hace sino confirmar el antirrealismo de Bhor con otra paradoja más. Yo disiento profundamente de esa opinión. 

 Lo que deduzco con el evento de la caída de un cuerpo al interior de agujero negro, es lo mismo que deduzco de la teoría de la relatividad de Einstein, los eventos físicos que percibimos dependen siempre de un observador. La teoría de la relatividad nos dice a fin de cuentas, que no existe un espacio y un tiempo absolutos, ambos dependen siempre de la perspectiva física del observador. Lo que nos dice el principio de complementaridad de los agujeros negros, es que la descripción física de lo que ocurre depende una vez más del observador. No percibe lo mismo un observador situado fuera del horizonte de sucesos que uno que se encuentre en su interior. Lo que hace Susskind con su teoría es describir lo que experimentaría un hipotético observador que se situara en una posición u en otra. Pensar que existe una realidad objetiva e independiente del proceso de percepción es errar el tiro. La realidad es siempre subjetiva e interdependiente con el observador. Por ello tenemos que crear unas leyes físicas que no solo expliquen lo qué está ocurriendo, sino que expliquen también, cómo lo estamos percibiendo.

Otro ejemplo según Sussking de antirrealismo es el principio holográfico, también creado por él al estudiar los agujeros negros. Según dicho principio, lo que ocurre en cualquier volumen de espaciotiempo puede explicarse en términos de lo que sucede en el contorno (frontera) de ese volumen. Aunque nuestras vidas se desenvuelven en un espacio tridimensional, podríamos plasmar toda esa información sobre una superficie bidimensional. ¿Qué es la realidad? ¿El contorno o su interior? Una vez más la realidad depende de la perspectiva. Según la Teoría Matriz de la Percepción, el principio holográfico explica parte del mecanismo del proceso de percepción, que tendría su base en la teoría M (teoría de cuerdas). Para más señas les remito a mi libro ORIGEN.

La propia mecánica cuántica que originó las primeras preguntas sobre ¿qué es real? Ya presenta dos fenómenos que nos debería de haber llevado a la conclusión de que todo lo que marcamos con la palabra "real" son meros datos percibidos por un sujeto. Tratar de separar la realidad del sujeto observacional, no solo es un error, es imposible. Cuando no tenemos datos sobre lo que pasa a nivel cuántico, las “partículas” por llamarlas de alguna manera, se comportan como si el espacio y el tiempo del observador fueran secundarios. Solo cuando obtenemos datos mediante una observación experimental, la partícula se puede localizar según parámetros de espacio y tiempo. Eso lleva a paradojas como el experimento de la doble rendija, donde el electrón recorre todos los caminos al mismo tiempo, o mejor dicho, no recorre ninguno hasta que es detectada observacionalmente. El principio del entrelazamiento ahonda sobre esa idea de partículas para las que no existe el espacio y el tiempo. De hecho, el entrelazamiento, parece el modo en que interaccionan las partículas al nivel cuántico. ¿Dónde ponemos la línea divisoria entre el mundo cuántico y el mundo clásico? La información que aporta el objeto de estudio es lo que marca el límite y dicha información está muy condicionada por la masa (energía) del objeto. Si queremos describir un sistema con gran precisión, necesitamos siempre una gran cantidad de energía. Dicho de otro modo, cuanta más información tenemos de un sistema más energía tiene. Información y energía parecen tener una relación directa.

Perdonen una entrada tan sesuda, pero es que con las palabras de Susskind ¡llueve sobre mojado...!


2 de septiembre de 2011

RETORNO ENERGÉTICO y PICO DE PETRÓLEO:



Observarán que gran parte de las entradas de este blog versan sobre las diversas alternativas energéticas que tenemos a nuestra disposición. Los motivos son evidentes, en las primeras décadas del siglo XXI asistiremos a una revolución energética forzada. El caudal diario que somos capaces de alcanzar en la producción de petróleo está llegando a su límite y, sin embargo, la sed de más petróleo por parte del mundo en vías de desarrollo se incrementa por momentos. Dada la escasez de datos plenamente fiables, no podemos asegurar una fecha concreta en la que el consumo supere a la oferta, pero lo que si comenzamos a observar es signos preocupantes por todo el orbe.

El consumo diario de petróleo llega a los 89 millones de barriles al día y, a estos niveles, ya comienza a existir problemas de suministro debido a los azares de la existencia, léase: revolución Libia, sabotajes en los oleoductos iraquíes, descenso de producción en los pozos de Arabia Saudí. Cualquier evento que elimine una pequeña parte de la producción, repercute rápidamente en los mercados de petróleo con inmediatas subidas de precios. ¿Es eso un indicio de que estamos próximos al pico de la producción?

Según la última estimación sobre el EROEI (la relación existente entre la energía que invertimos y la energía que obtenemos de una fuente energética), el petróleo extraído en los Estados Unidos se ha igualado a la energía neta que obtenemos con la energía eólica. Es decir, el petróleo americano ha pasado de tener un EROEI de 100:1 en los 1930s, a 30:1 en los 1970s, y a 18:1 en la actualidad. De 100 barriles extraídos, ahora se gastan 6 barriles de petróleo para obtener 94 barriles netos. Pero eso es solo la media pues podemos encontrar pozos que llegan a 11:1 (9 barriles gastados para obtener 91). Eso es debido a que los nuevos pozos de petróleo se perforan a mayor profundidad, en lugares cada vez más inaccesibles. Y lo peor es lo que nos espera, los petróleos denominados “no convencionales”, de los que cada vez hacemos más uso, tienen un EROEI de (1,5:1 – 5,6:1) para los petróleos de esquisto y de (5,2:1-5,8:1) para el petróleo extraído de arenas bituminosas. De cada 100 barriles extraídos gastamos 20 en búsqueda y extracción, obteniendo solo 80 para la venta. Otras fuentes de energía fósil como el gas natural 10:1 tampoco salen bien paradas, y solo el carbón 50:1 sigue siendo sumamente rentable de extraer en los Estados Unidos, que posee las mayores reservas de carbón del mundo. Eso indudablemente repercutirá en el futuro en el calentamiento global y en el precio que pagamos por la energía.

En esas condiciones hay que invertir en nuevas fuentes energéticas, que presente un superior margen de energía neta y nos permita paliar la sed de energía de nuestra sociedad. La energía hidráulica consigue un EROEI record que va desde 11:1 (minihidráulica, regiones con sequias) a 267:1 (grandes embalses en regiones húmedas). Pero el número de localizaciones para los embalses es limitado, por lo que una vez copadas las principales cuencas hidrológicas se termina su margen de crecimiento. La energía eólica se puede distribuir por muchas más regiones y tiene un EROEI nada despreciable de 18:1. La energía nuclear tampoco es una mala solución pues los reactores actualmente en funcionamiento logran un EROEI de 15:1. La única energía que sigue sin ser competitiva a corto plazo es la solar que tiene retornos energéticos muy pobres (3,75:1 - 10:1).

2015, ¡REVOLUCIÓN DEL HIDRÓGENO!

Mercedes-Benz Clase B F-CELL de Seattel a Vancouver.

Siguen sucediéndose las noticias empresariales que marcan el 2015 como la fecha elegida por los principales fabricantes de automóviles del mundo para iniciar la comercialización de sus vehículos de célula de combustible.

Mercedes-Benz ha decidido abrir una nueva planta de producción de células de combustible en Vancouver, Columbia Británica, Canadá. Vancouver es el lugar elegido para la denominada Carretera del Hidrógeno de la British Columbia. En el futuro, se unirá con las Carretera del Hidrógeno de la Costa Oeste de los Estados Unidos. Una carretera en la que se podrá encontrar hidrogeneras de forma regular desde Canadá hasta San Diego, situada al sur de California en la frontera con México.

Daimler esta testando actualmente un cierto número de sus automóviles Clase B F-CELL en California. Para 2012, Daimler espera alquilar en régimen de leasing 70 de sus vehículos de serie a consumidores de California. La pila de combustible de los Mercedes Clase B, junto con la que utilizan los autobuses urbanos Citaro Fuel Cell Hybrid, fueron desarrolladas en Vancouver.

De acuerdo con Daimler, “La construcción de la fabrica diseñada para la producción en serie de pilas de combustible comenzará inmediatamente en los 2000 metros cuadrados destinados para la construcción de la nueva planta de Burnaby. Se espera que la planta esté terminada para principios del 2012. Tras las primeros test de pruebas, la producción en serie a pequeña escala comenzará en 2013. A parte de lograr una gran potencia y eficiencia, las pilas de combustible que se fabricarán en Burnabay tienen dimensiones especialmente compactas. Se espera que las nuevas pilas de combustible se utilicen también en automóviles de mayor tamaño como los Mercedes-Benz Clase C y Clase E.”
Esto es una nueva muestra de que la apuesta de los fabricantes de automóviles por la opción del hidrógeno es muy seria, a pesar de la falta de respaldo de numerosas regiones que no promueven la construcción de infraestructuras de apoyo. Solo Los Ángeles y algunas ciudades de Alemania presentan las infraestructuras mínimas para que los consumidores puedan decantarse por la adquisición de este tipo de vehículos.

En Estados Unidos, la General Motors también está apostando fuerte por el futuro de los vehículos de hidrógeno. Para el año 2015 ha desvelado su plan de lanzar varios miles de vehículos de pila de combustible que distribuirá por los concesionarios de varios países. Para ello está trabajando actualmente en la nueva generación de pila de combustible mediante el modelo de pruebas Hydrogen Gen4. GM confía en producir la pila de combustible con menos de 30 g de platino (combinándolo con nanopartículas de níquel), disminuyendo el precio de producción del caro componente en un 75 por ciento y triplicando su vida útil. El precio del platino en los mercados supera los 85 dólares el gramo, de ahí la necesidad de reducir su utilización en las pilas de combustible. Numerosos equipos de investigación tratan actualmente de sustituirlo por otros compuestos de nanotecnología.

GM GEN4 Vehículo de pila de combustible.
GM cuenta actualmente con un programa de préstamo de 100 vehículos FCV para testar las pilas de combustible en condiciones de la vida real. Otro aspecto que está estudiando GM es la autonomía de sus vehículos de hidrógeno, que se encuentra actualmente en 320 km, mientras que competidores como Toyota y Hyundai consiguen ya los 640 – 800 km. General Motors tendrá que mejorar la autonomía para que sus vehículos sean competitivos en los mercados.

Tendremos que esperar hasta 2015 para comprobar si la revolución que prometen los vehículos de hidrógeno es una realidad, o sigue siendo tema de laboratorio.

1 de septiembre de 2011

ALMACENAJE DE HIDRÓJENO (INVESTIGACIÓN del NIST)



El hidrógeno ha sido promovido como una alternativa limpia y eficiente a la gasolina, pero tiene un gran inconveniente: la inexistencia de una forma rápida y segura de almacenarlo a bordo de un vehículo. De acuerdo con el científico de materiales del NIST, Leo Bendersky, el magnesio dopado con hierro (Mg-4Fe) puede superar este obstáculo. La combinación de la ligereza del magnesio junto con la conductividad para el hidrógeno que ofrece el hierro podría ser la solución. El hidrógeno es capaz de atravesar fácilmente el hierro, por lo que no sirve para almacenar el hidrógeno, pero actúa a modo de capilar o baso conductor del hidrógeno en combinación con el magnesio. Ambos metales juntos permiten una rápida absorción del hidrógeno, así como la liberación del hidrógeno a velocidades adecuadas. Los diminutos gránulos formados a partir de los dos metales podrían constituir una buena alternativa para los depósitos de combustible de vehículos impulsados ​​por hidrógeno.

"Los gránulos de polvo de hierro dopado con magnesio de 1- 2 micras pueden saturarse de hidrógeno en tan solo 60 segundos y lo pueden hacer, a una temperatura de 150 grados Centígrados y una presión bastante baja, que son factores clave para la seguridad en los vehículos”, comenta Bendersky.

Hasta el momento se había comprobado que los gránulos de magnesio puro eran razonablemente eficaces en la absorción de gas hidrógeno, pero sólo a presiones y temperaturas excesivamente altas para los volúmenes que demanda un automóvil de célula de combustible. Un material práctico tendría que alcanzar como mínimo un 6 por ciento de su propio peso en hidrógeno. Además debería ser capaz de repostar de manera segura con hidrógeno en el mismo tiempo que se necesita para repostar un coche con gasolina.

El equipo del NIST utilizó una nueva técnica de medición mediante luz infrarroja para explorar lo que ocurriría si el magnesio se evapora y se mezcla con pequeñas cantidades de otros metales para formar mezclas de grano fino. El equipo encontró que el hierro forma capilares y actúa a modo de canales dentro de los granos de magnesio. La creación de corredores para el transporte de hidrógeno dentro de los granos de metal permite que el hidrógeno muestre una cinética apropiada para este tipo de depósitos. Según Bendersky, los granos de Mn-4Fe podrían llegar a almacenar hasta un 7 por ciento de hidrógeno en peso a presiones y temperaturas moderadas.

Ampliar información aquí. (en inglés)

GENERADORES NUCLEARES PARA BASES ESPACIALES

Proyecto de reactor nuclear espacial.
Se está diseñando la primera planta nuclear para proporcionar electricidad en bases autónomas o con astronautas en la Luna, Marte y otros planetas del sistema solar, de acuerdo con James E. Warner que expuso en la 242 Exposición y Simposio Nacional de la Sociedad Americana de Química (ACS).

James E. Werner dijo que la innovadora tecnología de fisión para aplicaciones de superficie es muy diferente de las conocidas plantas nucleares terrestres, que requieren enormes extensiones de tierra y necesita grandes estructuras de ingeniería, como las torres de refrigeración. “La gente nunca reconocería a los nuevos sistemas de generación eléctrica como un reactor nuclear”, dijo Werner. “El reactor, por si mismo, tiene unas dimensiones de 45 cm de ancho y 75 cm de altura, el tamaño aproximado de un maleta. Sin torres de refrigeración, el sistema generador de fisión, es compacto, fiable y seguro. Lo que puede ser esencial para el mantenimiento de bases en el espacio”.

Las nuevas estaciones de generación eléctrica pueden resultar muy útiles en la Luna, Marte o en cualquier otro lugar del espacio al que quiera acceder la NASA. “El equipo tiene programado construir una unidad de prueba en 2012”. Este es un proyecto de cooperación entre la NASA y el Departamento de Energía (DOE) de Estados Unidos. Werner es el director del Laboratorio Nacional Idaho perteneciente al Departamento de Energía. El laboratorio actualmente participa tanto en el equipo de diseño del reactor, como en el desarrollo del combustible y la fabricación de pequeñas bombas eléctricas para el sistema de refrigeración mediante metal líquido.

La utilización de generadores electricos nucleares en bases lunares
 no es algo nuevo, en las misión Apolo 16 (1972) ya se hicieron las
primeras purebas.

Los nuevos sistemas de generación supondrán un gran paso adelante en la progresiva colonización del espacio. Hasta el momento, las células solares junto con las células de combustible eran los sistemas de elección para generar la electricidad necesaria para las misiones espaciales, pero estos sistemas presentan grandes limitaciones de uso. Los paneles solares hacen un gran papel en orbitas próximas a la Tierra, pero no resultan tan prácticas para misiones alejadas del Sol, bajo atmósferas turbias que impiden el libre paso de la radiación solar, o en regiones donde el acceso al Sol se presenta de forma intermitente o nula (interior de cráteres lunares, cañones y cavernas Marcianos o en la noche Lunar).

Las futuras estaciones espaciales, especialmente si están habitadas, no pueden depender del acceso a la luz solar para conseguir la energía eléctrica. “La principal diferencia entre las células solares y los reactores nucleares, es que los reactores pueden producir electricidad de forma constante y en cualquier ambiente”. La energía nuclear no depende del Sol, lo que le permite ofrecer suministros estables de energía en los periodos nocturnos o en ambientes hostiles, como los que encontramos en la Luna o Marte. Un único sistema de fisión nuclear en la Luna puede generar 40 kilovatios o más de electricidad, aproximadamente la misma cantidad de energía que necesitan 8 hogares en la Tierra.

Obsevar el generador nuclear en el brazo izquierdo de la
sonda Voyager.
No es la primera vez que se utiliza la energía nuclear para suministrar electricidad en misiones espaciales de larga duración. Las sondas espaciales que visitaron planetas más allá de Júpiter, como las misiones Pioneer (1973) y Voyager (1977) ya utilizaban pilas nucleares que a día de hoy, 35 años después de sus lanzamientos, siguen suministrando electricidad a los sistemas de las naves. Los RTG (Generadores Termoeléctricos de Radioisótopos) son cuatro pilas de dióxido de plutonio con una masa de 15 kg cada una, que suministran 132 w de potencia constante a la Pioneer 10. Tambien durante las misiones Apolo se realizaron las primeras pruebas de generadores nucleares portátiles sobre la Luna.