30 de julio de 2011

¿LA MÚSICA PESA?



Hay preguntas que producen perplejidad a cualquiera; bueno, a cualquiera que no sea un “profe”, por que nosotros estamos acostumbrados a este tipo de cosas. Digamos que forman parte de los gajes del oficio. Lo que resulta original es que sea un profe jubilado el blanco de las preguntas, como es mi caso. Y es que con el invento del Internet los profes podemos seguir ejerciendo el oficio, incluso cuando hemos dejado de pisar las aulas; lo que resulta maravilloso, al menos para los que hemos considerado a nuestros alumnos como la sal de la vida y ahora, por aquello de la tensión, no gozamos de la sal ni en el puchero.

Pues sí, un venturoso día, al leer mi correo, mi e-mail, ¡ojo!, me encontré con un gratísimo regalo; un antiguo alumno me preguntaba:

Profe, tengo una duda existencial: Cuando lleno mi MP3 de música… ¿pesa más que cuando estaba vacío?

Ni que decir tiene que me quedé pasmado del entusiasmo o quizá entusiasmado con el embeleso que me produjo la preguntita. Ni tampoco que comencé en seguida con mi proceso automático de traducción: quizá haya querido preguntarme ¿La información pesa? Claro que, bien pensado, seguramente el chico no estará picando tan alto. Dudo mucho que sepa que hoy la información se considera como entropía, ya que, según la teoría de la información de Shannon, la entropía es la medida de la incertidumbre y la información reduce la incertidumbre y por tanto la entropía; y que, en este sentido, puede asemejarse con la energía (ya que la entropía se mide en unidades de energía/temperatura, Julios/Kelvin) y puesto que la masa de un sistema material no es mas que la cantidad total de energía que contiene m = E/c2 (según la relatividad, E = mc2) si ahora sabemos que la información es energía, entonces la información tiene masa, pesa.


Jean Michel Jarre tocando un arpa laser
Pero no debemos confundir aquello de lo que a mí me gustaría hablar con aquello que me están preguntando realmente. El chaval me habla de su MP3 y no de “la información”, así, en abstracto. Por consiguiente me está preguntando sobre el proceso de memorizar información y, concretamente, sobre el funcionamiento de la memoria “flash” de que está dotado su diabólico aparatito musical.

En efecto, hoy la práctica totalidad de los aparatitos de almacenamiento de información, de las “memorias” de que están dotados los grabadores-reproductores musicales, como los llamados MP3, los lápices de memoria o pendrives, las tarjetas de memoria de las cámaras fotográficas, etc., están dotados de este tipo de memorias flash. Estas memorias tienen enormes ventajas sobre todos los demás ingenios de almacenamiento que había hasta ahora: son diminutas, de muy escaso peso, no tienen partes móviles y se encapsulan de forma que son casi, casi, insensibles a los golpes y al agua, incluso funcionan dentro de un rango de temperaturas muy amplio. Y por si les faltara algo, son baratas, ¿hay quien dé más?

Una memoria flash es en esencia una enorme red de miles de millones de transistores microscópicos capaces de almacenar cargas eléctricas (electrones). Podemos hacernos un modelo mental muy sencillo si imaginamos una cuadrícula como un tablero de ajedrez (Fig. 1) con millones de casillas que pueden contener fichas, o no tenerlas. La que contiene una ficha podemos considerarla, bajo un punto de vista lógico, como un uno y las que están vacías como ceros. Así, traduciendo cualquier información a ceros y unos, mediante un código adecuado, podemos grabar en él cualquier información. Si usamos el código de compresión de audio denominado MP3 (de Moving Picture Experts Group, MPEG) lograríamos almacenar música. Así, en una matriz como la Fig. 1, podrían estar grabadas las primeras notas musicales de una melodía. Creo que conviene explicar que, aunque el nombre de “MP3” se refiere al código de encriptación, resultó tan exitoso que se generalizó para denominar a los grabadores-reproductores que lo utilizan.


Figura 1. -Modelo teórico de memoria
 No obstante, para acercarnos a la respuesta que buscamos será necesario que construyamos en nuestra mente un modelo ligeramente más complejo, porque los electrones son unos individuos muy nerviosos y no se comportan en absoluto como las fichas, que una vez colocadas en una casilla se quedan allí, obedientes, todo el tiempo que se les pida. Los electrones no se pueden encasillar, se mueven constantemente con rapidez inimaginable hasta el punto que pueden saltar de los átomos que los tienen atrapados, visitar otros átomos alejados y volver, mil millones de veces mientras yo os lo cuento. Para confinarlos en un lugar es necesario atraparlos con poderosos campos eléctricos.

Un modelo más aproximado seria imaginar que cada casilla de nuestro anterior tablero es en realidad una cajita completamente cerrada, como una caja de zapatos minúscula con su tapa. Cada cajita puede contener, o no, una bola, que en la realidad sería un electrón encarcelado. Cuando las memorias flash vienen del fabricante todas las cajitas tienen su bola, esto es, la memoria está completamente llena de electrones y, por tanto, no contiene información, está toda ella escrita con unos, así: 11111111… Para guardar en ella alguna información solo tenemos que sacar las bolitas de las cajas que se encuentran en el lugar de los ceros. Así, para guardar la letra “M” en esta memoria habría que eliminar cuatro bolas y escribir: 01011001 (si usamos el código ASCII de 8 bits). Para “borrar” la información bastaría volver a llenar todas las cajas de bolas.
Con esto la respuesta a la preguntita está resuelta. La memoria flash viene llena de electrones, pera grabar la música hay que eliminar electrones, por tanto la memoria “llena” de información musical pesa menos que cuando estaba “virgen”.

Este resultado puede comprobarse experimentalmente de forma muy sencilla, como manda la santa madre ciencia: Compre una memoria nueva y pésela en una balanza. Cárguela con música, fotos, textos o lo que se le ocurra, y pésela de nuevo. Si pesa menos, tengo razón, en caso contrario les habré tomado el pelo.


Figura 3.- Pendrive con memoria flash.
1. Conector USB
2. Microprocesador
3. Puntos de prueba
4. Memoria falsh
5. Relo de Crsital
6. Lamparita LED
7. Interruptor de seguridad
8. Espacio para otra memoria
(Un dispositivo MP3 tiene una estructura muy semejante a esta)
Eso sí, no les recomiendo que usen la balanza del cuarto de baño. Porque, ¿cómo cuánto menos pesaría el MP3 “lleno” de música? Tomemos como referencia una memoria de 1 GB (1 Giga Byte), esto es, que puede almacenar unos mil millones de palabras informáticas o Bytes (1 Byte está formado por 8 bits). Aunque hoy no lo parezca, 1 GB es una cantidad nada despreciable de memoria, téngase en cuenta que en 1 MB (1 Mega Byte) puede almacenarse una novela y en 1 GB se podría almacenar el contenido de una furgoneta cargada con mil novelas. 1 GB contiene 8·109 bits, o electrones, si hablamos de su contenido físico real. Como un electrón tiene una masa de 1,783·10-30 Kg, suponiendo que al grabar la memoria se eliminan aproximadamente la mitad de sus electrones, tendríamos que, 4·109 electrones · 1,783·10-30 kg/electrón = 7,132·10-21 Kg o lo que es lo mismo 7,783·10-15 mg, es decir, pesaría aproximadamente unos 0,000 000 000 000 008 miligramos menos. Por decirlo en román paladino, una memoria grabada pesaría unas 8 milésimas de una billonésima de miligramo menos que “vacía”. Por esto les recomendaba no utilizar la balanza del baño que tiene un error de ± 200 gramos. Tampoco les recomiendo tocar el aparatito con los dedos durante el experimento porque la grasa que estos dejarían sobre él pesaría miles de millones de veces más que aquello que queremos medir, y es que las moléculas de grasa son inmensas y pesadísimas.

Pero no decíamos que la información, como energía que es, pesa, tiene masa? Entonces al añadirle información a cualquier cacharrito, independientemente de su forma de funcionamiento, aumentaríamos su masa, ¿no? En efecto, esto es tan cierto como lo explicado, solo que el incremento de masa correspondiente a 1 GB de información no llegaría a la cien millonésima parte de la masa de un solo electrón, así que, aunque a fuer de rigor científico nos empeñásemos en tenerla en cuenta, ni se notaría el incremento.

ARTÍCULO ORIGINAL DE: MANUEL REYES

29 de julio de 2011

LUCIÉRNAGAS



Las luciérnagas o bichos de luz (coleópteros polífagos) son escarabajos que se caracterizan por emitir luminosidad en sus cuerpos. Existen más de dos mil especies de luciérnagas en el mundo y se las puede encontrar en todos los continentes, a excepción de la Antártida. Su hábitat principal son los pantanos, las áreas húmedas y boscosas, donde sus larvas tienen una fuente de alimento abundante. Los nidos suelen estar situados en las cortezas de los árboles.



Las luciérnagas no presentan ningún peligro para los humanos, no pueden morder y carecen de pinzas, por lo que se pueden coger sin peligro. La mayor parte de la vida de una luciérnaga la pasa en estado de larva, en su forma adulta sólo vive breve tiempo. Cuando una larva de luciérnaga llega al estado adulto, lo usual es que pare de comer y sobreviva con sólo los nutrientes que acumuló en su etapa larvaria. En caso de tomar alimento, principalmente néctar o rocío, es para mantener estable su humedad. El fin principal de una luciérnaga adulta es encontrar pareja y fertilizar sus huevecillos antes de morir, para ello los machos utilizan un vuelo característico con secuencias de destellos lumínicos. Del mismo modo, las luciérnagas hembras utilizan su luz para estar localizables para los machos y para avisar a otras luciérnagas de un peligro.


Tanto la hembra como el macho de las luciérnagas emiten luz. Las luciérnagas producen una luz fría, apenas aumenta su temperatura corporal, que se encuentra en el rango de frecuencias del espectro visible, por lo que carece totalmente de calor (infrarrojos) así como de luz ultravioletas. La luz se produce por la acción de la enzima lucíferasas sobre los pigmentos luciferinas. La luciferasas producen la descarboxilación oxidativa de la luciferina usando oxígeno en el proceso.

27 de julio de 2011

LOS PELIGROS del GAS de ESQUISTO

Gas de Esquisto (fracking)
El año pasado la Agencia de Previsión Ambiental de los EE.UU. inició una investigación sobre el fracking, el proceso mediante el cual se obtiene el gas de esquisto. No podremos contar con los resultados del informe hasta 2014, pero las noticias y reportajes que alertan del peligro medioambiental de esta técnica no paran de sucederse. Uno de los documentales más interesantes es GASLAND (http://gaslandthemovie.com).

Pero antes aclaremos qué es el gas de esquisto y el proceso de fracking:

El gas de esquisto no es más que gas metano (gas natural) obtenido mediante técnicas no convencionales. Eso lo convierte en un recurso caro de explotar, con un coeficiente de retorno energético bajo. Lo que implica que hay que invertir mucha energía para su explotación, obteniendo poca energía extra. Posiblemente sea el combustible fósil con menor EROEI de todos. Eso es debido a que el fracking (fracturamiento hidráulico) consiste en inyectar una combinación de agua (que previamente hay que calentar), arena y diversos productos químicos a varios km bajo tierra, en las rocas sedimentarias (esquistos) que contienen materia orgánica. Con el aumento de presión se consigue romper el núcleo de roca, inundando sus poros con el agua y liberando pequeñas burbujas de gas que suben a la superficie.

El proceso de fracturamiento hidráulico tan aclamado ahora, no es nada nuevo. Se inventó en los EE.UU. a principios del siglo XX. Pero no ha sido utilizado con éxito hasta ahora, porque los costes económicos de perforar pozos horizontales e inyectar agua caliente a presión son extremadamente altos. Solo con las recientes subidas del precio del gas convencional se ha tomado en consideración la extracción no convencional del metano.



Proceso fraccionamiento hidáulico

Los inconvenientes de esta técnica, excluyendo los económicos ya citados (ver entrada Gas de Esquisto), se encuentran en la contaminación medioambiental:
1.       Los daños medioambientales y a la salud humana pueden llegar a ser fenomenales. Entre los más de 600 productos químicos que se inyectan al pozo, se encuentran sustancias terriblemente cancerígenas como bencenos y el tolueno. Estos productos terminan llegando a los acuíferos y manantiales que dejan contaminados sin remisión.
2.       El consumo de agua potable por pozo es otro factor muy a tener en cuenta. Puede llegar a consumirse 3,8 millones de litros en cada perforación.
3.       En un hospital del estado de Texas, situado en las proximidades de importantes yacimientos en explotación, hay una proporción de asma infantil que llega al 25%, frente al 7% de media nacional.
4.       El gas liberado puede migrar a la superficie de forma incontrolada y acumularse donde menos se le espera. En al menos 5 estados de EE.UU. han sucedido explosiones de casas, y calles enteras, bajo las que se habían formado bolsas del gas migrado desde explotaciones cercanas.
5.       Por último, aunque, no menos importante, las peligrosas consecuencias de su liberación a la atmósfera. El gas metano contribuye 21 veces más que el dióxido de carbono al efecto invernadero. De ahí la necesidad de controlar cualquier posible escape a la atmósfera. Con los métodos de fraccionamiento hidráulico eso no está asegurado.

24 de julio de 2011

TODOS los CAMINOS CONDUCEN al HIDRÓGENO

El hidrógeno está de moda, aparece en multitud de publicaciones y eventos a escala internacional. Aunque, realmente, el planteamiento del uso del hidrógeno no es nuevo. El principio que rige el funcionamiento de la pila de combustible fue descubierto en 1839. Posteriormente, uno de los personajes de la novela de Julio Verne La isla misteriosa (1874), sugiere que en el futuro el hidrógeno y el oxigeno, proporcionaran una fuete inagotable de luz y de calor. Pero tuvimos que esperar a las primeras  del siglo XX para ver las primeras aplicaciones industriales del hidrógeno, mientras que en el periodo comprendido entre 1950 y 1970 surgieron los primeros usos como fuente energética. La necesidad de contar con electricidad en las naves espaciales que visitaron la Luna dio un fuerte impulso a su desarrollo. La crisis energética de 1973 evidenció la necesidad de contar con un sistema energético independiente del petróleo.
El hidrógeno es sin duda el medio ideal de almacenar electricidad. La reacción entre el hidrógeno y el oxígeno se produce de en un proceso sencillo, fuertemente exotérmico que conduce a la producción de agua como único subproducto. A todos nos encantaría ver los tubos de escape de los automóviles desprendiendo inocuas nubecillas de vapor de agua. Esa es la revolución ecológica que promete el hidrógeno.  La energía liberada en la formación de agua se puede emplear mediante una pila de combustible en generar electricidad.

El uso del hidrógeno presenta, además, las siguientes ventajas: puede transportarse (en forma de gas, liquido o en adsorción con otros compuestos), existe una amplia variedad de proceso que permiten su transformación en otras formas de energía (electricidad, calor), la conversión hidrógeno-electricidad se produce en ambas direcciones con altos rendimientos, y entre todas las  ventajas, el hidrógeno se puede almacenar. Esto último puede parecer obvio, pero conseguir un método de almacenar energía eléctrica no resulta nada sencillo. Los acumuladores y baterías actuales no tienen capacidad de almacenar grandes cantidades de energía eléctrica en estructuras con volúmenes y pesos reducidos, y a costes económicos.  Esa dificultad para almacenar la energía eléctrica no es algo reciente, desde su descubrimiento se han intentado toda clase de procedimientos para almacenarla, pero los inventos siempre chocan con dificultades físicas aparentemente insalvables.


De ahí que el binomio hidrógeno-célula de combustible se esté investigando tanto en las últimas décadas, pues el hidrógeno proporciona el método eficaz de almacenar grandes cantidades de energía eléctrica. Aunque el cuento realmente no termina aquí. El hidrógeno presenta sus propias dificultades de almacenamiento y su consumo será tan respetuoso con el medio ambiente como lo sea su producción.

 De cualquier modo, una amplia implantación de la economía del hidrógeno permitiría la deslocalización de los recursos energéticos, ya que cada país podría adaptar sus sistemas de producción  de hidrógeno a las fuentes de energía propias. Si se es rico en gas natural se puede priorizar esta fuente (Rusia, Irán), la energía nuclear sería la preferida para Francia, mientras que en países pobres en recursos naturales como España, podríamos elegir la energía térmica solar y la eólica como las fuentes de elección para generar hidrógeno. La multiplicidad de fuentes a nuestra disposición crearía tal competitividad a escala internacional, que el precio del kg de hidrógeno de venta al público podría llegar a ser verdaderamente económico y alejado de la especulación, a diferencia de lo que ocurre con el oligopolio del petróleo.

El uso masivo del hidrógeno también podría acarrera consecuencias medioambientales, aunque estas son de menor entidad comparadas con otras energías. Al ser un gas extremadamente ligero, puede escapar facilmente a la atmósfera desde las conducciones y depósitos. Si se escapa en grandes cantidades podría dañar la capa de ozono estratosférico. Este tipo de escapes se podría ir limitando con el tiempo conforme la legislación fuera más estricta con la manipulación y almacenaje. Como ven, no existe ningún tipo de energía que pueda considerarse beneficiosa al cien por cien.

22 de julio de 2011

NANOTUBOS de CARBONO

"Nanobosque"
Demostración de las técnicas de manipulación nanométrica.

Desde el descubrimiento de la molécula C60 por Kroto en 1985, muchas han sido las esperanzas puestas en este nuevo material. En ocasiones las expectativas y proyecciones de futuro sobre potenciales aplicaciones sobrepasaban lo científico y rayaban en la ciencia ficción.

Entre los estudios que siguieron al descubrimiento, el de Iijima en 1991, supuso un importante avance pues descubrió que estos materiales podían tener una estructura en forma de tubo, y que podían tener una sola pared o varias.

Desde entonces se ha desarrollado toda clase de tecnologías para producir y aprovechar las sorprendentes cualidades de este tipo de materiales. Los nanotubos se pueden obtener siguiendo un gran número de técnicas diferentes: ablación laser, descarga de arco eléctrico, descomposición gaseosa, pirolisis, descomposición en horno solar, crecimiento en substratos (cerámicos y zeolitas), CVD, etc.

Los nanotubos y nanofibras de carbono poseen unas sorprendentes propiedades derivadas de su peculiar estructura. Alta conductividad térmica, alta conductividad eléctrica, alta resistencia a la tracción, alta elasticidad, baja densidad, bajo coeficiente de expansión térmica, elevada capacidad de adsorción y lubricación, son reciclables y poseen propiedades anticorrosivas. Sus numerosas bondades las convierten en idóneas para multitud de aplicaciones en todo tipo de sectores industriales. Paso a citar solo los más importantes pues el número crece cada día: Automóvil, aeronáutica, defensa, marina, médico, deportivo, eléctrico y en el campo de las telecomunicaciones.

Su papel será fundamental para componentes clave dentro de la próxima revolución energética. Se emplean en las palas de los aerogeneradores, baterías de litio, pilas de combustible y la física de las altas energías. En 2007 apareció una nueva patente del premio Nobel de Química Alan Heeger de una célula solar orgánica de mayor rendimiento. Las células solares orgánicas son el último intento de convertir la energía fotovoltaica en un método económicamente viable de producir electricidad.

El enorme campo de posibilidades que se abre con los nuevos nanomateriales solo se encuentra limitado por nuestra imaginación.

21 de julio de 2011

CONTAMINACIÓN con MERCURIO en BEBÉS



Un estudio en España realizado entre 2004-2008 y publicado en la revista médica Environment International destaca la exposición a altas dosis de metales pesados en recién nacidos debido al consumo de pescado graso.

El estudio se centró en analizar el nivel de mercurio en el cordón umbilical de 1883 partos realizados en España, encontrando que en un 64% de los casos había niveles de mercurio por encima de lo que la Agencia de Protección Ambiental de EEUU considera seguro (5,8 microgramos de metilmercurio por litro de sangre). El dato no es relevante pues hay otras agencias que consideran distintos niveles críticos. Pero el estudio alerta sobre el consumo de determinado pescado graso durante el embarazo, como el pez emperador, pez espada, o el atún rojo. Aunque el estudio no implica que comer otros tipos de pescado durante el embarazo sea perjudicial, sino todo lo contrario. "Comer pescado durante el embarazo es sano. Tiene omega 3, yodo, fósforo, y proteínas. Basta con evitar grandes peces que acumulan mercurio, como el pez espada o el atún rojo. Pero aún así, si se come algo no pasa nada. Hay factores mucho más graves, como fumar".


 La materia grasa de los organismos tiene múltiples funciones, proporcionar una reserva de energía para situaciones de carencia alimenticia (grasa blanca), proporcionar calor a los organismos en climas gélidos (grasa parda), y la función menos conocida, ser aislantes de sustancias químicas potencialmente dañinas. En ese sentido la grasa actúa en cierto modo como los antivirus de un ordenador, cuando aparece una sustancia potencialmente dañina es aislada y puesta en cuarentena dentro de la grasa.

Existen multitud de sustancias que actúan como venenos si se encuentran circulando libremente por el organismo. El mercurio es un neurotóxico que aparece en la comida debido a la contaminación de los océanos. La explotación y quema del carbón es uno de los procesos que lanzan más mercurio a la atmósfera y recala en los océanos (ver entrada sobre el pico del carbón y China). También la producción industrial de cloro puede lanzar importantes cantidades de mercurio a los océanos si se hace mediante métodos obsoletos. En España hay ocho plantas que utilizan este tipo de tecnología, según la ONG ecologista OCEANA.

Más información  sobre la intoxicación por mercurio aquí: MERCURIO: ENVENENAMIENTO SILENCIOSO

19 de julio de 2011

EL CARBÓN y la LOCOMOTORA CHINA

Mina de carbón a cielo abierto en China
La política energética China afectará a lo largo del siglo XXI al resto del mundo, y lo hará a todos los niveles.

China es ya el mayor consumidor de energía del mundo, su economía da cuenta del 20% del consumo energético global y es la responsable del 25% de las emisiones contaminantes a la atmósfera. La política energética China afectará a lo largo del siglo XXI al resto del mundo, y lo hará a todos los niveles; económico, político, social, ecológico y militar. Hay que tener en cuenta que hay 1.340 millones de chinos luchando por tener un nivel de vida equiparable al occidental. Esa cifra es solo ligeramente inferior a la suma de la población del continente americano (938 millones) y el europeo (732 millones). ¡Casi dos continentes en un solo país! Entre los años 2000 y 2010 su economía creció a un ratio del 10,4% y su producción de carbón le siguió con una media anual del 8,9%.

Esto ha convertido al gigante amarillo en el dominador de esta barata fuente energética. De las 7.273 millones de toneladas de carbón que se produjeron en el mundo en 2010, China es el responsable del 45% de la producción (por volumen) y del 48% del consumo (por contenido energético). Es muy importante diferenciar entre volumen de extracción y contenido energético del mineral, porque hay una gran diferencia en contenido energético entre el carbón de buena calidad y el de baja (puede llegar a ser del 38%). En el gráfico siguiente puede observarse la proporción de carbón de buena y el de baja calidad por naciones.


Al tener en cuenta las reservas de carbón en función de la energía neta contenida en ellas y el fuerte crecimiento en el consumo chino han aparecido informes que sitúan el pico de la producción de carbón en fechas tan cercanas como el 2027. Con una producción tope de 5.100 millones de toneladas para China y de 4.100 millones en el resto del mundo. De ahí se deduce que el precio del carbón va a seguir subiendo en los próximos años. Lejos quedan ahora las estadísticas optimistas de principios del S.XX en Estados Unidos  que preveían suministros abundantes de carbón para ¡5000 años!

Estudios recientes muestran que el carbón recuperable puede ser menos abundante de lo previamente estimado. A los ritmos de consumo actual, en el mundo solo queda carbón para poco más de 100 años. En el caso de China, más del 90% del carbón se encuentra en minas a más de 1000 metros de profundidad. Por lo que las figuras actuales de reservas recuperables podrían ser demasiado optimistas, dados los desafíos técnicos que supone la explotación a más de mil metros.

Y eso en un momento en el que la demanda mundial no para de incrementarse. En los años noventa la demanda crecía a un modesto 0,45% anual, pero desde el año 2000 ha crecido al 3,8%, y si miran el gráfico de las cinco principales productores, a partir del 2004 la producción china creció en línea casi vertical.

Aplicando técnicas estadísticas similares a las que utilizó King Hubbert en la década de los cincuenta para predecir el pico de la producción de petróleo en los Estados Unidos, los académicos chinos Tao y Li predijeron en 2007 (utilizando datos estadísticos del 2002) que la producción china llegaría a su cenit entre los años 2025 y 2032 con un pico situado entre 3300 y 4500 Mt. Otras estimaciones más recientes, como las citadas más arriba, lo sitúan en torno al 2027 con 5.100 Mt. Y los hay más pesimistas como las del Energy Watch Group (Berlín) que en 2007 situaban el pico en el 2015, con una caída en la producción a partir del 2020. En cualquier caso, para entonces el precio del carbón se habrá multiplicado en varios órdenes de magnitud y la calidad del carbón extraído habrá menguado considerablemente. Por lo que aunque aumente el volumen de producción, su contenido energético neto se mantendrá o decaerá.

¿Qué opciones quedan? Desde el punto de vista de China pocas. Es la nación más dependiente de este mineral del mundo, el 70% de su energía proviene del carbón. Lo utilizan en muchas más industrias que los estadounidenses (donde fundamentalmente se utiliza para generar electricidad). El 50% del carbón chino se utiliza para generar electricidad, el 16% supone el coque que se utiliza en la industria metalúrgica (la mayor del mundo). Cientos de millones de chinos pobres utilizan otro 6% como combustible de calefacción y cocina. El restante 28% es utilizado en industrias clave como el cemento, metales no ferrosos y la industria química.

Aunque china está expandiendo su suministro de gas natural, solo para reemplazar el carbón utilizado para calefacción necesitaría duplicar su consumo actual de gas. Estados Unidos tiene las mayores reservas de carbón del mundo (es la Arabia Saudita del carbón), pero se consumen casi en su totalidad para uso interno. En el futuro China va a depender cada vez más del carbón importado vía marítima desde Australia, Indonesia y Sudáfrica, o mediante la construcción de costosas vías férreas desde la región siberiana de Rusia. Solo China puede absorver todas las exportaciones de la región Asia-Pacífico, si su consumo sigue creciendo a los ritmos actuales. Hay que tener en cuenta que china está viviendo un imparable proceso de urbanización. El número de ciudadanos que migra a las ciudades en busca de niveles de vida semejantes a los occidentales crece cada día. La proporción de ciudadano que vive en ciudades aún dista del 80% de la media en Estados Unidos o la Unión Europea. Para lograr acercase a nosotros, el gobierno chino prevé que la población urbana crezca en 350 millones de personas en los próximos 15 años. Para ello necesita construir ciudades enteras partiendo de la nada. Millones de casas, autovías, transportes, agua y suministros. Y todo ello necesita materiales de construcción que, dada la peculiar dependencia industrial china, necesitan del continuo suministro de abundante y barato carbón. Una vez que la energía barata que le proporciona el carbón llegue a su pico de producción, los efectos en la economía china pueden ser dramáticos y las consecuencias para el resto del mundo impredecibles. El llamado “milagro chino” podría pararse en seco, aunque la salud del clima mundial podría comenzar a mejorar.

17 de julio de 2011

EL ARTE de lo IMPOSIBLE en CIENCIA

"La piscina" (1998), David McDonald

Existen multitud de obras artísticas que exploran las paradojas geométricas derivadas del avance de las matemáticas en el siglo XX. El objetivo principal de estas obras, aparte de volvernos bizcos, es demostrar como figuras geométricas posibles en dos dimensiones serían totalmente impracticables en 3D.

Una figura imposible se define como una imagen de dos dimensiones que se realiza para dar la impresión de un objeto tridimensional que no puede existir en la práctica. El primero en explorar este tipo de paradojas visuales fue el artista sueco Oscar Reutersvard en 1934, con su obra “el triángulo imposible”, y cuyo derivados fueron plasmados posteriormente en la obra del danés Hermann Paulsen. En la actualidad también se le denomina el “triángulo Penrose”, debido al eminente físico teórico Roger Penrose que lo redescubrió también de forma independiente en 1950.





Uno de los más aclamados artistas de las geometrías imposibles es M.C. Escher (1898-1972). Un artista gráfico holandés que creo hilarantes situaciones imposibles en 3D. Escher estaba fascinado por las investigaciones de la percepción visual, y en concreto, sobre el problema de la construcción de la figura y el fondo. Muchas de sus figuras se tranforman en fondo y viceversa. Comenzó la carrera de arquitectura pero pronto la abandonó para dedicarse al arte del dibujo y a viajar. En unos de sus vijaes a España visitó la Alhambra de Granada, que le dejo tan impresionado que se muestra parcialmente representada en muchas de sus figuras.




Con el uso de los ordenadores y los programas informáticos, este tipo de obras se ha convertido en algo corriente, por lo que hay un gran número de autores modernos que exploran las posibilidades de lo imposible.
Sí, ¡ellos tambien admiran a Escher!

14 de julio de 2011

CANCER INFANTIL y REACTORES NUCLEARES


Central nuclear (Suiza)
 Estudios sobre cáncer infantil en relación a la proximidad de plantas nucleares han dado resultados conflictivos en el pasado. Por ejemplo, un caso de estudio en Alemania publicado en Diciembre 2007 mostró que el peligro de leucemia en niños pequeños que vivían a menos de 5 Km de las plantas nucleares era más del doble que el de niños que vivían a distancias seguras, pero no se pudo ligar estadísticamente la incidencia de cancer con la presencia de las plantas. A pesar de todo, el estudio devino en una inmediata alarma en la población alemana y una respuesta visceral en contra de la energía nuclear. A este le siguieron nuevos estudios realizados de forma más exhaustiva, como el que se publicó en Mayo 2011 por el Comité de Consecuencias Medicas de la Radiación Medioambiental (COMARE), que no encontraron evidencias significativas del incremento de leucemia infantil en niños que vivían en las proximidades de las plantas nucleares de Reino Unido. O el más amplio estudio hasta la fecha  realizado en Suiza y que se muestra a continuación:

¡Un estudio nacional sobre 1,3 millones de niños suizos ha concluido que no existen evidencias de incremento del riesgo de cáncer para niños nacidos cerca de plantas nucleares!

La Oficina Federa de Salud Pública (FOPH por sus siglas en inglés) y la Liga del Cáncer Suiza informaron que el Instituto Social de Medicina Preventiva (ISPM) de la Universidad de Bern, ha realizado un exhaustivo estudio relacionando el cáncer infantil con las plantas de energía nuclear en Suiza. El estudio se realizó entre Septiembre 2008 y diciembre 2010. Los resultados están publicados en el International Journal of Epidemiology.

Claudia kuehni, directora del Registro Suizo de Cáncer Infantil, comentó: “El estudio en supervivientes de la bomba atómica de Hiroshima y Nagasaki demostraron que los niños son más sensibles a la radiación que los adultos. Por esta razón, nosotros nos consideramos las distancias y los lugares exactos de nacimiento y residencia. De ahí el enfoque del estudio de CANUPIS.”Los investigadores reunieron datos anuales de personas potencialmente en riesgo desde los 0-15 años que nacieron en Suiza entre 1985 y 2009. En total 1,3 millones de personas basándose en los censos de 1990 y 2000. En el estudio también se recopilaron casos de cáncer del registro Suizo de cáncer infantil. El ISPM entonces comparó la proporción de leucemias y canceres en niños nacidos a menos de 5-10 km, y a 10-15 km de las centrales nucleares, con el riesgo para niños nacidos a mayor distancia de las mismas.

Los investigadores concluyeron que el riesgo en las zonas a menos de 5 km de una central nuclear eran similares a los riesgos del grupo de control (situados a más de 15 km) con 8 casos frente a 6.8 casos esperados. En el área de 5-10 km desde la central aparecieron 12 casos frente a los 20.3 casos esperados. Y en la zona de 10-15 km fueron 31 casos en comparación a 28.3 esperados. La conclusión es que “no hay, en ninguno de los análisis practicados, un incremento o reducción estadísticamente significativo en el riesgo de padecer cáncer infantil”.

El estudio concluye: “Tras un exhaustivo análisis a nivel nacional, ajustado para factores de distorsión y con medidas de las distancias exactas desde la residencia de nacimiento y la planta de energía nuclear más cercana, no se encontró evidencia de una asociación entre el riesgo de leucemia o cáncer en la infancia y el vivir en la proximidad de una central nuclear”.

Hay cinco plantas nucleares en Suiza, donde aproximadamente el 1% de la población vive a menos de 5 km de alguna planta y el 10% vive a menos de 15 km. Las medidas de radioactividad son tomadas regularmente en las inmediaciones de las centrales nucleares suizas por la División para la Protección Radiológica del FOPH.

Según la Universidad de Bern, “la radiación medida en la proximidad de las centrales nucleares está por debajo del 0.01 millisieverts al año”. “Esto corresponde a 1/500 de la media total de radiación que los suizos reciben por causas naturales, gas radón del subsuelo, rayos cósmicos, radiación terrestre, radiación médica y terapéutica.”

13 de julio de 2011

RECORD TERMOSOLAR

Gemasolar, Sevilla (España)


A principios de Julio la planta Gemasolar, situada en la provincia de Sevilla (España), se convirtió en la primera planta termosolar de uso comercial en conseguir producir electricidad durante las 24 horas, de acuerdo con la empresa constructora Torresol Energy.

A diferencia de las plantas fotovoltaicas que utilizan la luz solar para generar electricidad directamente. Las plantas solares térmicas, concentran el calor del Sol para accionar turbinas de vapor. Mediante ese sistema se puede almacenar la energía en forma de calor para su uso durante las horas nocturnas. Gracias a eso mejora la competitividad de la planta, bajando los costes de generación.

La planta Gemasolar es de tipo torre central y tiene 20 MW de potencia instalada. Consiste en un complejo con 2650 heliostatos (espejos que giran siguiendo la trayectoria del Sol) que concentran la radiación en una torre central, en un punto situado a 140 metros de altura. La intensa radiación calienta sales hasta fundirlas y volverlas líquidas a 500ºC. Las sales se mueven por el circuito para producir vapor de agua que mueve las turbinas. Pero las sales fundidas también pueden ser almacenadas en depósitos isotermos para su uso en las horas en las que no hay Sol.

El demostrar comercialmente esta tecnología es un importante paso para su implantación a mayor escala. La flexibilidad para adaptarse a la demanda eléctrica nacional, es un hito fundamental que tienen que alcanzar las energías renovables antes de ser verdaderamente una opción comercial. Según Diego Ramírez, Director de producción de Torresol Energy. “La mayor capacidad de producción a coincidido con los excelentes días de radiación solar del mes de Junio, con lo que se ha alcanzado una media de operatividad de 20 horas al día para dicho mes.”

Pero no siempre se consigue el máximo de producción en Junio. La energía renovable es tan voluble que en ocasiones ocurre en Julio y otras en Mayo, todo depende del tiempo. En España, las plantas solares (fotovoltaicas y térmicas) solo contribuyen significativamente a la red eléctrica en las temporadas de primavera-verano (menos de 6 meses al año). Según REE (Red Eléctrica de España), en el pasado mes de Mayo su producción alcanzó un record del 4,5% de cobertura de la demanda. Pero la media Enero-Abril fue de solo un 2,6% de la demanda. Si sumamos el buen dato de Mayo, la media en lo que ha transcurrido del 2011 queda en el 2,9%.

De la variabilidad en el suministro del conjunto de energías renovables da cuenta la cifras comparativas de contribución entre los ejercicios 2010 y 2011. Tenemos un 40,4% en mayo 2010 frente al 34,4% del mismo mes de 2011. ¡La producción ha disminuido considerablemente a pesar de aumentar la potencia instalada!

Podemos hacer una última reflexión para hacernos una idea cabal de las magnitudes con las que estamos tratando. Una planta nuclear moderna tiene una potencia eléctrica de 1200 a 1600 MW, harían falta 70 de estas pequeñas plantas solares para igualar la potencia instalada. Pero como las horas de operatividad de las centrales nucleares se acercan al 90% y las solares son inferiores al 20%, se necesitarían realmente más de 300 plantas solares tipo Gemasolar para aproximarse a la producción de una sola central nuclear. Y a pesar de tan elevada inversión, nadie podría asegurar que durante un temporal que nuble los cielos de España 10 o 15 días podamos contar con suministro eléctrico.

9 de julio de 2011

ARTE y NATURALEZA


¿Especies transparentes?, ¿ingeniería genética? No, son puro arte, animales tratados con colorantes que parecen esculpidos en piedras preciosas. El autor de estas obras de arte natural es el japonés Ioti Tomita (¡les ahorro el nombre en japonés!). Graduado en ciencias de la pesca, fue durante sus prácticas pesqueras cuando ideó un método para volver transparentes a los especímenes. De este modo lanzó su proyecto “New World Tranparent Specimens”, haciendo su presentación oficial en la feria de arte de Shanghai del 2010.




Los que estén interesados en las fotografías, podrán adquirir sus publicaciones (ver enlace de referencia). Contemplemos la belleza de sus creaciones.



8 de julio de 2011

COMBUSTIBLE BÚNKER

Los motores de las grandes embarcaciones queman
un combustible de pésima calidad.

Los grandes buques de carga que transportan a diario millones de toneladas de mercancías de uno a otro lado de los océanos, emplean uno de los combustibles más dañinos que existen, el combustible búnker. Uno de los productos derivados del petróleo más baratos y de peor calidad.

El ínfimo nivel de refinado de este combustible, garantiza unos altísimos niveles de azufre. Un elemento extremadamente nocivo que acaba generando dióxido de azufre, causante de la lluvia ácida y de numerosas enfermedades respiratorias entre la población.

Es por este motivo, que la Unión Europea impone estrictos límites al contenido de azufre en los combustibles para automoción. En el caso del diesel ordinario el contenido de azufre no puede superar las 50 ppm (partes por millón). Pero en el caso de los barcos de alta mar, todavía no existe ningún tipo de regulación para sus humeantes chimeneas. La variedad de combustibles búnker contiene ¡un 4,5 % en peso de azufre!

Debido a la contaminación que provocan los grandes buques, se estima que se produce la muerte prematura de 90.000 personas al año. No quiero ser malicioso, pero comparen esa cifra con las muertes producidas por los tres accidentes nucleares de la historia (para más referencias ver entrada sobre Fukushima).

Algunos barcos contaminan en regiones de alto valor
ecológico.
Ahora comienza a tomarse consciencia de esta tremenda contaminación y de la total falta de medidas de regulación medioambiental. En el año 2010 la Organización Marítima Internacional comenzó a aplicar controles a este tipo de combustible.

En una primera fase, el actual máximo legal de 1,5 por ciento de azufre en el combustible quemado cerca de la costa se reducirá hasta el 1%. En 2020 se requerirá que la totalidad del combustible para barcos no presente cantidades de azufre superiores al 0,5%, un cambio que reduciría a la mitad el número de muertes derivadas de su uso.

Esto es una buena noticia, pero no es suficiente. Si sumamos las emisiones de dióxido de carbono de todos los buques tendríamos unas cifras de contaminación semejantes al sexto país más contaminante del mundo, lo cual es demasiado para no tomar las medidas oportunas.

7 de julio de 2011

TORIO: EL FUTURO DE LA ENERGÍA

Central nuclear en Brasil.

El pasado año fue record en la emisión de gases de efecto invernadero y el 2011 va camino de superarlo. Tras el repentino apagón nuclear alemán y japonés, se ha incrementado la combustión del gas natural a nivel mundial (un 13%).

 Mineral de Monacita

La energía nuclear es una de las pocas soluciones a nuestro alcance para reducir la dependencia de los combustibles fósiles, aunque no está exenta de problemas. El elemento 90 de la tabla periódica, el torio, podría suponer una solución para muchos de esos problemas.

 El torio es un elemento radiactivo que se extrae de la monacita y es tres veces más abundante que el uranio. Las reservas reales de torio son poco conocidas ya que al no tener hasta ahora una gran demanda comercial, apenas se ha invertido en búsqueda y explotación. La última estimación realizada en septiembre de 2009 se muestra en el siguiente gráfico. Cómo ven, todos ellos son países relativamente estables y amistosos.



Reservas probadas de Torio por países, a 80 US$/ kg
   El oxido de torio tiene mayor conductividad térmica que el oxido de uranio y su temperatura de fusión es de 3.300 ºC frente a 2.800ºC, lo que lo hace ideal para el uso en un reactor nuclear. Un reactor de combustible MOX (mezcla de plutonio y torio o de uranio enriquecido y torio) tiene un rendimiento mucho mayor que un reactor convencional de uranio. En concreto un LFTR (Reactor de Fluoruro de Torio), puede llegar a producir un gigavatio de electricidad con solo una tonelada de torio, mientras que en un reactor de agua presurizada convencional (PWR) se requieren 250 toneladas de uranio para conseguir el mismo resultado. La relación energética general entre uranio y torio es de 1 a 40. ¡Del torio podemos obtener hasta 40 veces más energía que del uranio! Y a eso hay que añadir que, todo el torio que se obtienen en la minería es apto para su uso comercial, frente al 0.71 % del uranio, con lo que la relación final pasa a ser de 1 a 250. De ahí que previsiblemente, con el torio podamos mantener todas las necesidades energéticas mundiales durante siglos, frente a los 100 años del uranio. Hay que tener en cuenta que para conseguir la misma energía que obtenemos de una tonelada de torio necesitaríamos quemar ¡3.500.000 toneladas de carbón!


Torio metálico
 Entre los reactores en proyecto, los más interesantes son los LFTR, cuyo modo de funcionamiento es inherentemente seguro. Su combustible es líquido en el modo normal de operación, por lo que ante una situación de emergencia puede ser fácilmente redireccionado a un lugar más seguro, lejos del núcleo del reactor. Eso permite que pueda ser apagado sin la necesidad de energía extra (fue un problema en Fukushima) o la intervención humana. El combustible de fluoruro no reacciona con el aire o el agua y lo que es más importante, atrapa en sales estables el estroncio y el cesio. Gracias a esto los LFTR soportan altas temperatura a presión ambiente, en contraposición a los reactores de uranio refrigerados por agua a presión.

Pero su principal baza, sin lugar a dudas, es que el torio no es adecuado para fabricar armas nucleares. De las 70.000 cabezas nucleares que existen en el mundo ninguna lleva torio. De hecho su funcionamiento ayuda a disminuir la proliferación nuclear pues los reactores de torio no pueden arrancar por sí mismos, necesitan de la ayuda de plutonio o uranio enriquecido para ello, eliminándolos en el proceso. La reacción es:

Th + U-235 -> U-233 (que se quema en el reactor)

Th + Pu -239 -> U-233 (que se quema en el reactor)


Por ello los podemos considerar consumidores netos de plutonio, con lo que ayudan a reducir el stock de residuos nucleares de doble uso. Los reactores que funcionan con torio producen un 50% menos de residuos nucleares, si lo medimos por volumen o un 70% menos si es por peso. Además se pueden construir reactores de muy pequeño tamaño, algo imposible con el uranio (ver gráfico). Por todo ello se piensa en ellos como la opción ideal para extender el uso de la energía nuclear por todas las naciones.



Política global entorno al torio:

India lleva décadas promoviendo esa opción, aunque todavía no han construido reactores comerciales de gran capacidad. La India con grandes reservas de torio, necesita un método fiable y eficaz para abastecer la economía del segundo país más poblado de la Tierra. De ahí que necesiten al menos 270 GW de electricidad nuclear de aquí al 2050. El único reactor actualmente en funcionamiento es el Kakrapar-1.

China, Rusia, Francia y Estados Unidos están desarrollando la tecnología, mientras que el departamento de energía atómica Indio junto con el británico, han acordado realizar un programa conjunto para desarrollar cinco proyectos diferentes en torno al potencial energético del torio.

A pesar de todos estos parabienes, los reactores con torio aún no han sido probados a escala comercial. Tan solo existen prototipos a pequeña escala para testarlos. Un reactor LFTR experimental de 10 Mw funcionó durante la década de los sesenta en USA pero con (uranio + plutonio). China también ha anunciado este mismo año, su intención de crear un reactor de torio tipo MSR, pero se desconocen los plazos de ejecución. El motivo de que haya tecnologías maduras para la explotación comercial del uranio y apenas ninguna para el torio, se debe simplemente al origen militar de la investigación nuclear. Pero no existe ningún impedimento técnico que pueda dificultar su desarrollo en el futuro.

5 de julio de 2011

SINGULARIDADES DESNUDAS

La teoría de la relatividad general predice los
agujeros negros, pero Einstein dudaba que
puedieran formarse realmetne.

Las estrellas de gran masa suelen tener un final de lo más oscuro. Cuando el combustible nuclear se termina, la energía que emiten deja de ser suficiente para contrarrestar la fuerza de la gravedad, por lo que se desploman sobre sí mismas contrayéndose hasta solo una minúscula fracción de su tamaño original. Los agujeros negros y las singularidades desnudas son dos resultados posibles del colapso de una estrella agonizante de masa muy grande. En principio los físicos se mostraban reacios a considerar el caso de las singularidades desnudas, sin embargo su presencia en el universo podría ser incluso superior a la de los agujeros negros.


El núcleo de la galaxia elíptica gigante M87, donde hay evidencia
 de un agujero negro supermasivo. También se observa un potente
 chorro de materia eyectada por los poderosos campos magnéticos
generados por éste. Foto del Telescopio espacial Hubble

En ambos acontecimientos de colapso hay una singularidad, una concentración de materia tan densa, que se necesita un nuevo modelo físico para describirla. Los modelos actuales fallan a la hora de explicar lo que ocurre en su interior.

Los agujeros negros se forman cuando una estrella con una distribución de masas "ideal" colapsa sobre sí misma. En un agujero negro la singularidad está vestida, es decir, rodeada por una frontera, un horizonte de sucesos, que la esconde. Nada que atraviese el horizonte de sucesos puede escapar, ni siquiera la luz, de ahí que el agujero negro aporte tan poca información física de lo que ocurre en su interior. No existe un límite inferior de masa para crear un abujero negro. Si nuestro Sol concentrara su masa desdes el radio original de 720.000 km hasta solo 3 km se convertiría en agujero negro. Pero en condiciones normales eso nunca ocurre.

En el caso de la singularidad desnuda, no encontramos un horizonte de sucesos, lo que la convierte en visible para un observador externo, proporcionando información de los acontecimientos. Las singularidades desnudas surgen porque el colapso de una estrella nunca es perfecto, su densidad suele ser inhomogénea, por lo que al estudiar los posibles modelos de colapso mediante simulaciones informáticas aparece que, en la vida real, la mayor parte de los colapsos deben ser irregulares. Una singularidad desnuda se parece a un diminuto huso afilado, y extremadamente denso en los extremos. Se puede observar y seguir la materia que se dirige hasta su impacto final con la singularidad. La intensa gravedad genera importantes ondas de choque. Aunque la gravedad es intensísima nunca es suficiente para impedir que la luz escape.

Este tipo de singularidades serían una prometedora fuente de información para la física, pues puede que expliquen algunas de las radiaciones de alta energía que observan los astrónomos y además, aportarían información valiosísima sobre la estructura del espacio-tiempo a escalas ultrafinas.

¿Cómo podremos detectar las singularidades desnudas?

1. Las explosiones de alta energía que producen tendrían un patrón característico y reconocible.

2. Algunas explosiones de rayos gamma carecen de explicación, las singularidades desnudas podrían ser su causa.

3. Doblan los rayos de luz de las galaxias del fondo de forma diferente a un agujero negro.

4. Si la velocidad de rotación del agujero negro es superior a cierto valor límite, dependiente de la masa, se trataría de una singularidad desnuda.

3 de julio de 2011

HORMIGAS de la NASA


Los formícidos, conocidos también como hormigas, son criaturas interesantes. Con dos estómagos y tres ojos, se ríen de cualquier atleta humano, pues son capaces de transportar 20 veces su propio peso. La agencia espacial de la NASA realizó un experimento con gel transparente que simultáneamente les sirve de alimento y de sustrato en el que escavar sus túneles. Gracias a este sistema se puede observar como fabrican la intrincada red de túneles en sus colonias.


Estas complejas estructuras solo son posibles gracias a que las hormigas son insectos sociales como las (avispas y abejas) y son capaces de comunicarse e ir en pos de un objetivo común. De hecho las hormigas evolucionaron a partir de un antepasado similar a una avispa hace unos 110-130 millones de años. Desde entonces han conseguido colonizar casi todos los ambientes terrestres, (solo les queda la Antártida y algunas pequeñas islas). Su número es tan elevado (unos 10 mil billones de individuos) que representan del 15 al 25% de la biomasa de los animales terrestres.




1 de julio de 2011

PANORAMA ENERGÉTICO 2010

Delta del Nilo en Egipto. Las antiguas civilizaciones dependían tanto del
agua como las actuales dependen de la energía.

Gracias a las estadísticas que publica anualmente la empresa petrolera BP y que podemos consultar en el Statistical Review of World Energy, comprobamos que en el años 2010 se produjo un espectacular incremento en el consumo mundial de energía. En 20 años, desde 1990 hasta el año 2010 se ha incrementado en un tercio el consumo mundial de energía primaria. Pero lo dramático no es ese 33%, sino el brusco cambio de pendiente que observamos en la curva. Si nos fijamos en el gráfico, en 14 años (1990 -2004) se produjo un incremento del 16%, pero a partir del 2004 y en menos de la mitad de tiempo, se incrementó otro 16%.

También es destacable la disminución de consumo del año 2009 (la primera desde 1982) como consecuencia de la crisis económica mundial. Si no fuera por ese bache habríamos alcanzado las 12.000 Mtpe (millones de toneladas de petroleo equivalente) incluso antes. Pero como tras cada caída, siempre hay un rebote, y el del 2010 ha sido espectacular, con un incremento global del 5.6%. Tenemos que remontarnos a 1973 para ver algo similar.


Especialmente significativo resulta que ese incremento se debe a los países en vías de desarrollo (7,5%), mientras que los países OCDE “solo” contribuyeron con un 3,5%. En 2010 China alcanzó una proporción del 20,3% del consumo energético global, superando a Estados Unidos como mayor consumidor del mundo.

Si atendemos al mix energético, comprobamos que la política energética de los gobiernos sigue siendo, crecer como se pueda y con el combustible más barato. El consumo de carbón (principal emisor de gases de efecto invernadero) ha crecido un 7,6% en solo un año, empujado sobre todo por los países no OCDE (8,7%), pero también por los industrializados (5,2%) que siguen incrementando su participación. La proporción del carbón en el mix energético se ha incrementado hasta másximos no vistos desde 1970, en parte debido a que China se ha convertido en el mayor deborador de carbón del mundo, con un 48,2% del total.

El consumo de petróleo tampoco sorprende. Pese a los altos precios derivados de haber alcanzado el pico en la producción de petróleo convencional (se alcanzó en el 2006 según la Agencia Internacional de la Energía), China aumentó su consumo en un apabullante ¡10,4%! Aunque en el conjunto de países no industrializados se incrementó un 5,5% y entre los países OCDE se contentaron con un modesto 0,9%, lo que deja el cómputo global con el 3,1% de incremento. Aunque resulta alarmante que en 2010 se consumiera más petróleo del que se produjo. La diferencia de 5 millones de barriles diarios se compensó solo gracias a las reservas almacenadas.

Finalmente, quiero hacer notar que, cerca del 90% de la energía que consumimos en la actualidad proviene de combustibles fósiles (carbón, gas natural y petróleo). ¿Cómo podemos compensar esta dependencia casi absoluta de unas fuentes cada vez más escasas, contaminantes y caras? Vean en el gráfico la línea naranja oscuro, para comprobar la contribución de las energías renovables en los últimos 25 años. Sí, efectivamente, a mí me ha sucedido algo parecido, - ¿dónde esta la línea? -

Pero siempre nos quedará la energía hidráulica, la única entre las renovables que permite su regulación. Solo tenemos que comprobar en el gráfico el aumento de su contribución al mix energético. -¡Ah, pues no!, permanece casi igual.-

Entonces, ¿qué nos queda? - ¡santiguarnos! - Sí, y después permitir crecer a la industria nuclear que ha permanecido practicamente paralizada durante los últimos 28 años. Teniendo en cuenta las magnitudes energéticas de las que estamos hablando, la energía atómica (con todos sus inconvenientes) es la única alternativa viable.