29 de junio de 2011

MAR de PLÁSTICOS



El problema de los residuos de larga duración no es exclusivo de la energía nuclear también se produce con los derivados del petróleo. Una botella de plástico puede perdurar más de 200 años en el medio ambiente. Los plásticos suelen acabar en el sistema digestivo de muchos animales y especialmente en los filtradores, desde los que pasan al resto de la cadena alimenticia. En los océanos siguen las corrientes marinas hasta quedar atrapados en los remansos donde pueden acumularse millones de toneladas, creando una capa artificial sobre extensas superficies que dificulta el libre tránsito de gases y luz entre la atmósfera y la superficie oceánica.



De ahí la importancia del reciclaje. Según datos facilitados en el congreso Identiplast 2010, la tasa de recuperación y reciclaje de residuos plásticos se situó en el año 2009 en un 35% en España, con un total de 815.000 toneladas (332.000 recuperadas energéticamente y 482.000 recicladas). Esto indica que en España aún estamos muy por debajo de la media de la Unión Europea que se sitúa en el 54%( 13,1 millones de toneladas), con un incremento del 2.7% con respecto al año 2008.


Dentro de la Unión Europea los que más reciclan son Suiza, Alemania y Dinamarca, con tasas próximas al 100 por ciento. Otros nueve países tienen tasas superiores al 80%, mientras que en el furgón de cola se sitúa Reino Unido y España. En el caso español hay que comenzar por la educación y la concienciación, pues solo un 44% utiliza los contenedores para el reciclaje de plásticos, según el Instituto Internacional de Estudios Sociológicos y de Mercado. Lo sorprendente del estudio es que las nuevas generaciones (14-24 años) son las menos concienciadas con el reciclaje.

Identiplast, es el mayor congreso centrado en el reciclaje y recuperación de los residuos plásticos que se celebra en Europa. Reúne anualmente a más de 160 expertos. La próxima cita se celebrará en Madrid en el otoño del 2011.

24 de junio de 2011

PANORAMA NUCLEAR 2010



La cantidad total de electricidad generada por centrales nucleares se incrementó en 2010, tras tres años consecutivos de lento declive. Sin embargo una caída brusca de la producción es esperable para el ejercicio 2011, como consecuencia del accidente de Fukushima.

La producción global del 2010 totalizó 2630 TWh de acuerdo a los datos facilitados por la Agencia Internacional de la Energía Atómica (AIEA). Lo que representa un incremente del 2.8% con respecto a los 2558 TWh generados en 2009. La media de disponibilidad de los reactores se situó en el 81%, frente al 79.4% de un año antes.

En 2010 se consiguió la puesta en marcha de 5 nuevos reactores ( Rostov 2 en Rusia, Rajasthan 6 en India, Ling Ao 3 y Qinshan II-3 en China, y Shin Kori 1 en Corea del Sur), con una potencia acumulada de 3722 MWe. Si continúa la progresión actual se espera alcanzar los 12 nuevos reactores por año hacia 2015.

En el lado de las bajas solo cabe citar un pequeño reactor experimental francés, el Phenix, con 130 MWe de potencia.

La construcción de nueva capacidad continúa a buen ritmo con un total de 16 proyectos iniciados en 2010, que totalizan 15.846 MWe de potencia. De estos, 10 corresponden a China, 2 a Rusia, 2 a India y 1 a Brasil. Finalmente hay otro en Japón que se inició en 2010 y que ahora necesitará de mejoras en la protección contra terremotos antes de continuar su construcción.


Un Tsunami llamado Fukushima:El impacto de la crisis de Fukushima sin duda se hará notar este año y en los siguientes. Solo en 2011 la generación de electricidad de origen nuclear caerá fuertemente en Japón, pues en el mes de Mayo solo 17 de los 54 reactores del país se encontraban en funcionamiento; 22 de ellos están parados a la espera de revisión y nuevos certificados de seguridad contra Tsunamis. Las unidades 1 a 4 de Fukushima están muy dañadas, y también se ha apagado de forma definitiva la 5 y la 6. Las unidades 4 y 5 de la planta de Hamaoka también han sido desconectadas y es improbable su reactivación. Los 9 reactores restantes se encuentran en parada fría a la espera de una decisión política.

Paralelamente han sido desconectados de forma permanente 7 reactores en Alemania.

Las consecuencias energéticas no se han hecho esperar. Ya se ha producido un fuerte incremento en la demanda de GNL (Gas Natural Licuado). Japón era el mayor consumidor de gas del mundo, con 287 regasificadoras en su territorio. Pero la necesidad japonesa de paliar la pérdida de potencia nuclear, junto con el repentino apagón nuclear alemán, ha supuesto un incremento del 13% en el consumo mundial de gas, lo cual se está dejando ver en los precios y en lo que no se comenta, ¡el incremento de gases de efecto invernadero!

PLÁSTICOS FABRICADOS con CO2


La empresa alemana Bayer, junto con RWE y científicos alemanes, han puesto en marcha un proyecto de colaboración (Dream Production) en la localidad de Chempark de Leverkusen, donde se provará un nuevo método de fabricación de plásticos con dióxido de carbono a escala técnica (preindustrial).

En esta planta se fabricará un producto químico al que se le añade CO2 y que posteriormente transforman en poliuretano, en forma de expumas flexibles y rígidas. De esta manera se retira CO2 de la atmósfera, utilizándolo como materia prima en sustitución del cada vez más escaso petróleo.

Con el nuevo método pretenden demostrar que el dioxido de carbono podría ser una fuente de carbono alternativa al petróleo. Además el poliuretano tiene por su propia naturaleza un positivo efecto sobre el cambio climático, ya que se utiliza habitualmente en el aislamiento térmico de edificios y otras estructuras. Solo en el aislamiento térmico de los edificios ya consigue ahorrar ¡70 veces! la energía utilizada para su fabricación.

Deseemos suerte a este original proyecto.

22 de junio de 2011

EL FRAUDE MINIEÓLICO

Ejemplo de integración de energía minieólica. ¡Más bello que práctico!

Sin duda hay algunas grandes verdades que son tan incómodas que a nadie gusta oír. Que los pequeños aerogeneradores diseñados para su uso domestico son un fraude desde el punto de vista medioambiental, es ese tipo de verdades que duele a los ecologistas, molesta a los fabricantes y enrojece a los propios consumidores. Los test realizados en Reino Unido y Holanda sobre estos aerogeneradores “de bolsillo” desaconsejan su compra.

Muchos pequeños aerogeneradores, a pesar de mostrar una bella y simbólica estampa en los tejados de las casas de los ecologistas, tienen un EROEI (energy returns on energy invested) negativo. Dicho en otras palabras, el tiempo necesario para amortizarlos supera con creces la vida media del aparato. Lo que significa que cuesta mucho más energía fabricarlo, transportarlo e instalarlo que la que se obtiene en toda su vida útil. ¡Son consumidores netos de energía!

Muchos ecologistas pregonan la necesidad de que cada hogar produzca su propia electricidad, en una imagen tan poética como poco práctica. El experto alemán en energía eólica Jaap Langenbach concluye tras los test, que un solo generador eólico de grandes dimensiones, con un diámetro de palas de 18 metros, puede abastecer a 42 hogares alemanes, y eso con un coste que sería solo un 17% superior al de juntar los costes individuales de adquisición de los pequeños aparatos. La diferencia viene ahora, pues el único aerogenerador es capaz de entregar ¡20 veces más electricidad!, lo que disminuye realmente el coste final del vatio en ocho veces.

Y esto me sirve para hacer hincapié en el tipo de pamplinas ecologistas que muchas veces nos llevan a pensar que las energías renovables son la solución ideal para todos los problemas energéticos. La energía renovable (excepto la hidroeléctrica) tiene una intensidad energética muy baja e inconstante, por lo que hace extraordinariamente difícil lograr un EROEI positivo y lo suficientemente amplio como para ser una tecnología energéticamente competitiva.

La propia industria del petróleo y del gas comienza a sufrir el problema que supone tener un EROEI bajo. Si nos fijamos en el petróleo lo veremos más claro. En la década de los sesenta se conseguían extraer más de cien barriles de petróleo por cada barril invertido en su extracción. En la actualidad la media se encuentra en torno a los 30 barriles por cada barril invertido en exploración, extracción y transporte. Con el gas natural pasa algo parecido, cada vez es más costoso conseguir nuevos pozos de gas y esto reportan menos energía neta (ver entrada sobre el gas de esquisto).

Pero si queremos observar un EROEI verdaderamente ruinoso solo tenemos que fijarnos en algunas tecnologías solares, como la fotovoltaica. Y eso contrasta abiertamente con los principios que llevan a vender la energía solar como la panacea. En cualquier folleto ecologista (bien informado) podríamos leer que la energía solar es la más abundante de todas las energías exentas de residuos de carbono. Una hora de sol sobre la Tierra contiene más energía (4,3 x 1.020 J) que la que consume la humanidad durante todo un año (4,1 x 1.020 J). A través de la fotosíntesis, ha abastecido a la Tierra durante millones de años, es responsable de nuestra atmósfera y de casi toda forma de vida (exceptuando algunas arqueobacterias). La captura energética que tiene lugar por las bacterias fotosintéticas y plantas corresponde a diez veces la cantidad de energía que usa la humanidad.

Todas esas son verdades incontestables pero, el rendimiento de la fotosíntesis (6-8%) es inferior al rendimiento de conversión en electricidad de la mayoría de células fotovoltaicas en uso. Las bacterias y plantas consiguen multiplicar por diez la cifra energética que utiliza la humanidad solo a base de tapizar literalmente todas las superficies del globo terráqueo. Por decirlo de manera gráfica, ¡hay bacterias hasta en la sopa! Pero con las células fotovoltaicas no podemos utilizar tanta superficie. Otro problema siempre presente es el del EROEI. Existen técnicas como los concentradores solares stirling que presumen de excelentes rendimientos que alcanzan el 28%, pero que en la práctica representan otro timo energético, pues estan construidos con multitud de tubos de acero y espejos curvos de difícil fabricación. Si queremos conseguir el acero para el armazón y el vidrio para los espejos, tenemos que irnos a una fundición, donde son necesarias altísimas temperaturas , y eso solo se consigue mediante la quema de toneladas de carbón, que emiten una considerable cantidad de dióxido de carbono a la atmósfera. Para conseguir la “limpia” energía solar, primero tenemos que emitir toneladas de dióxido carbono a la atmósfera, y quemar los combustibles fósiles que ironicamente pretendemos sustituir.


Concentrador solar stirling.

Insisto, muchas veces la energía invertida en su fabricación, transporte e instalación, apenas llega a ser sustituida por la producción a lo largo de toda la vida útil del aparato, lo que se muestra en el coste final del vatio. Para que la energía fotovoltaica llegara a ser competitiva en el futuro, aún tendría que reducir el coste de producción entre un 300 y un 1000 por ciento. Teniendo en cuenta que la energía fotovoltaica lleva más de 50 años desarrollándose, desde la primera célula desarrollada en 1954 por los laboratorios Bell, parece que el final del túnel nunca llega.

20 de junio de 2011

El CENIT del PETRÓLEO



Mucho se ha hablado desde el 2004 sobre la escasez de petróleo y las dificultades futuras de suplir la creciente demanda mundial. Lo cierto es que desde esa fecha los precios del petróleo iniciaron una escalada alcista que rompieron la línea lateral de los últimos 20 años. Hasta llegar, coincidiendo con la crisis económica global del 2008, a alcanzar su precio máximo rozando los 150$ por barril.

Y es que las reservas de petróleo llevan décadas sin crecer (el pico de nuevos descubrimientos se alcanzó en 1965), mientras que los pozos más prósperos se encuentran ya en franco declive o entrando en él. Los que defendían hace un quinquenio que el mercado se encargaría de regularizar la situación, ahora callan. Los altos precios del petróleo han aumentado la exploración y perforación de nuevos pozos incluso en aguas profundas y regiones siberianas. Pero esto no ha supuesto un incremento significativo de las reservas, por lo que la situación se agrava a cada año que pasa.

A principios del siglo XXI solo había un puñado de personas entendidas, aunque desligadas del mundo petrolero, que alertaban de un futuro pico en la producción de petróleo. Ahora ya podemos encontrar informes incluso de gobiernos respetables (Reino Unido), asociaciones empresariales del Reino Unido y ministerios de defensa (USA), que alertan de la inminencia de una crisis energética global debido a la desaparición del cochón existente entre la oferta y la demanda. Muchas son las reuniones de la OPEP en la que se habla de aumentar la producción para bajar los altos precios del petróleo, pero el acuerdo nunca llega, por la sencilla razón de que ya no cuentan con la baza del excedente de producción. ¡Produce al máximo todo el tiempo!

Quien está al tanto de lo que está ocurriendo puede atender a las pequeñas noticias que van apareciendo en los periódicos. Esas que se colocan en las páginas interiores con una pequeña reseña y después se olvidan, pero que realmente tienen un significado crucial. Recuerdo una de esas noticias recientes, en las que Arabia Saudita hacía un llamamiento a las principales compañías petrolíferas mundiales para que incrementaran la búsqueda y perforación de nuevos pozos en su país. En concreto clamaban por la necesidad de incrementar su producción ¡un 30% antes de 2014! Eso significa que los grandes pozos de Arabia Saudita que surten a medio mundo y que llevan más de 60 años produciendo, se encuentran en peores condiciones de lo  estimado.

Los informes del gobierno británico concluyen que es imposible determinar con certeza cuándo sucederá el pico de la producción de petróleo (cuándo la demanda superara a la oferta sin remisión), debido al gran secretismo que rodean a las reservas de petróleo que posee cada país. Nadie quiere reconocer que tiene menos petróleo del que anuncian, porque eso supondría perder cuotas de poder dentro de la OPEP y ante el mundo. Sin embargo, comienza a existir un cierto consenso sobre la proximidad de un déficit temporal de suministros antes del año 2015, lo que acarrearía negativas consecuencia económicas, según el citado informe.

Finalmente concluye que las nuevas técnicas de explotación tardarán aún décadas en ser plenamente operativas, mientras que el número de pozos que entran en fase de declive crece cada vez más rápido. Mientras, las voces que reclaman mayor transparencia informativa comienzan a ser legión. Algunos personajes especialmente carismáticos como Richard Branson (Virgin) han liderado a un grupo de empresarios para elaborar un informe independiente sobre la futura crisis del petróleo (más información aquí: http://peakoiltaskforce.net/).

19 de junio de 2011

GAS de ESQUISTO

Los esquistos presentan minerales laminares
Desde su descubrimiento en 2008 el gas de esquisto es noticia en USA. A pesar de que se conocen sus posibilidades de explotación desde los años setenta, no ha sido hasta la reciente aparición de exitosas técnicas de extracción que se ha comenzado a explotar masivamente. Algunos optimistas, incluso hablaban de ¡100 años de reservas de gas de esquisto! Y eso ocurría en un momento crucial en el que las reservas de gas norteamericanas se encontraban en sus niveles más bajos en décadas.

Con el aumento de reservas que supone el gas de esquisto, se llegó a pensar incluso que sería la fuente energética dominante del siglo XXI. El gas natural tiene una combustión relativamente limpia, con la menor generación de gases de efecto invernadero de todos los combustibles fósiles, y con precios más económicos que el petróleo. Pero, pese al bombo y platillo que se le ha dado al espectacular incremente de reservas, ahora parece que el gas de esquisto no va a ser tan determinante en la política energética nacional como se pensaba. Ya no se cree que este gas vaya a ser la solución para todos los problemas, desde la dependencia del petróleo hasta el cambio climático.

Los geólogos pertenecientes al Geológical Survey de Canadá han elaborado un informe para el Post Carbon Institute respondiendo a la pregunta incial: “Will Natural Gas Fuel American in the 21st Century?” En el informe se limitan a estudiar la situación de las reservas de gas en los Estados Unidos, pero siendo este país el que presenta técnicas más avanzadas de extracción, sus resultados pueden extrapolarse para definir el futuro del gas natural en el resto del mundo.


Diferentes métodos de extracción del gas.
 El problema central reside en los altos costes de extracción de este gas (no convencional). Los múltiples pozos laterales que hay que perforar para su extracción son muy costosos, y por regla general solo se obtiene una cantidad apreciable de gas durante los primeros meses de explotación, para después pasar a unas tasas de extracción mínimas. La tasa de producción cae en picado del 65 al 80% al cabo de un año, y aún más, tras el segundo año de explotación, aunque luego continua estable durante años (a tasas mínimas). Tan escasa producción sostenible por pozo lleva a imponer los costes económicos sobre cualquier otra consideración técnica o geológica. A menos que los precios del gas natural se mantengan sostenidamente altos, los pozos son abandonados tras el primer año de extracción. De ahí que las reservas reales de gas de esquisto varíen tanto en función del precio de mercado que se considere. Según las estimaciones, con el gas de esquisto se comienza a tener beneficios a partir de $4 mcf (mil pies cúbicos), pero los pozos más complicados solo son rentables por encima de $7 o incluso $11.50 mcf. Eso significa que acceder a las grandes reservas de gas de esquisto con las que cuenta Estados Unidos no es nada barato. El gas se convertiría en un recurso extremadamente caro, como ocurre en la actualidad con el petróleo.



Reservas mundiales de gas de esquisto.
 Previsiones del (EIA) Energy Information Administration (que suelen ser bastante optimistas), sugieren que la producción de gas de esquisto solo contribuirá modestamente a la producción total de gas en los USA hasta el año 2035. Especialmente porque las fuentes convencionales de gas, presentaran un grave declive en ese mismo periodo, un 29% para el gas natural, y un 4% para el metano ligado a capas de carbón. Esto implica que el gas natural, junto con la apreciable contribución del gas de esquisto, seguirá manteniendo su proporción actual dentro del mix energético norteamericano.

En conclusión, el informe desestima un futuro incremento en los usos del gas natural, desmintiendo a su vez, que sea capaz de sustituir otras fuentes energéticas más contaminantes o escasas, como el carbón en la generación eléctrica, o el petróleo en el transporte.
Más información aquí.

18 de junio de 2011

BATERÍAS DE LITIO



La empresa Toshiba ha anunciado que sus baterías SCiB han sido seleccionadas por la empresa de automóviles Mitsubishi para su utilización en los modelos i-MiEV. Estas novedosas baterías recargables son un importante avance sobre las baterías convencionales de litio-ión al aunar, mayor seguridad y durabilidad, junto con una recarga más rápida.

Para conseguir todas estas mejoras las baterías SCiB recurren a un ánodo especial compuesto por una aleación de oxido de titanio y litio. Esto reduce la posibilidad de que se perfore el separador del ánodo y el cátodo. En consecuencia se reduce el riesgo de que entren en contacto y creen un cortocircuito.

De momento no contamos con mediciones de una entidad independiente, por lo que nos atendremos a los datos que facilita la empresa Toshiba. Las nuevas baterías soportan hasta 2.5 veces más ciclos de carga-descarga que una batería de litio convencional. Además lo consigue con un tiempo de recarga considerablemente mejorado. En mediciones realizadas en estaciones de recarga rápida (de alta potencia), consigue alcanzar el 80% de carga en 15 minutos, el 50% en 10 minutos y el 25% en tan solo 5 minutos, lo que implica disminuir a la mitad los tiempos que se manejan con los productos actualmente en el mercado. Y eso lo logran generando mucho menor calor que las baterías de litio-ión convencionales, lo que elimina la necesidad de incorporar un módulo extra de refrigeración. Tampoco el frio extremo supone una merma significativa en su rendimiento, consiguiendo buenas prestaciones incluso a 30 grados bajo cero.


Hay que tener en cuenta que la temperatura ambiente y la temperatura de funcionamiento de las baterías es un importante factor a tener en cuenta, pues merma de manera importante las cualidades de cualquier batería. Eso implica que la autonomía que se anuncia para los vehículos eléctricos es bastante irregular y varía enormemente en función de la temperatura ambiente. En condiciones calurosas puede llegar a reducirse en un 15% si hay más de 40ºC (20% para más de 45ºC), o incluso llegar a un merma del ¡60%! si la baterías alcanzan los 50ºC. Con los fríos invernales pasa algo similar, a 10 grados bajo cero la autonomía se reduce en un 25%, pero la entrega de potencia lo hace en un espectacular ¡60%! Lo que significa que el motor no puede extraer toda la electricidad que demanda cuando circula a media potencia.

Volviendo al producto de Toshiba, las nuevas baterías SCiB consiguen aumentar hasta en 1.7 veces la autonomía del vehículo eléctrico, lo que facilita la instalación de menos baterías, con menos peso y precios más bajos, para los automóviles de uso urbano. Quizá eso no sea suficiente para llegar a hacer competitivos los precios de este tipo de vehículos, aunque Toshiba está muy esperanzada en el potencial de utilización en vehículos híbridos y eléctricos.

Finalmente quiero alertar de un detalle que por ahora no se entra a debatir. La cantidad de litio en la Tierra es muy limitado, y en ningún caso será suficiente para hacer un cambio masivo de vehículos de gasolina a vehículos eléctricos. La única solución viable a largo plazo siguen siendo los automóviles de hidrógeno.

15 de junio de 2011

RESIDUOS NUCLEARES

Transporte de residuos por tren en alemania. Observese el calor que emiten.

Hasta el momento he defendido la necesidad de utilizar la energía nuclear como única salida viable a la inminente crisis del petróleo. Para conseguir la independencia del petróleo hay que electrificar el transporte y eso supone recurrir al automóvil de hidrógeno, pues es el único que cuenta con la suficiente autonomía. Para alimentar las pilas de combustible, se necesita producir el hidrógeno a precios competitivos, y eso, como comente en el post correspondiente, solo se logra mediante la energía nuclear. Aunque existen métodos alternativos, los demás cuentan con diversos inconvenientes, precio excesivo (energías renovables), producción de gases de efecto invernadero (gas natural, carbón), pocos lugares aptos para su construcción (termosolar de torre central), etc.

Sin embargo, la energía nuclear no está exenta de problemas, y entre ellos el que está resultando más difícil de resolver es el de los residuos radiactivos. ¿Qué hacer con residuos que mantendrán su letalidad durante cientos de miles de años? Esa es sin duda, la gran pregunta por resolver. A continuación expongo brevemente las alternativas que se están investigando.

Las centrales nucleares están preparadas para retener de forma segura los residuos generados a lo largo de toda la vida del reactor. Los residuos radiactivos son controlados sistemáticamente y acumulados en instalaciones apropiadas. Pero tras el desastre de Fukushima cabe preguntarse si no hubiera sido más fácil controlar una central nuclear que no guarde sus residuos en el mismo lugar en el que se encuentra el reactor. Esto supondría la necesidad de revisar la estructura de las nuevas centrales que se construyan.

En la explotación de la energía nuclear se generan distintos tipos de residuos, en función del tipo de radiaciones emitidas y su intensidad. Como ejemplo, en España se generan cada año 160 toneladas de combustible gastado (de alta actividad) y unas 2000 toneladas de residuos de baja y media actividad (RMBA). Aunque parezcan cantidades importantes estos residuos suponen el 1 por mil de los residuos peligrosos generados por la industria española. Además los residuos de alta peligrosidad tienen una densidad muy alta, por lo que 160 toneladas son en realidad un volumen tan pequeño que cabría en el salón de cualquier casa.

Para los residuos RMBA de baja actividad, que son la mayor parte de los residuos nucleares, ya se cuenta en España con una solución completa y definitiva. Los RMBA son enviados para ser tratados por la compañía (ENRESA) y depositadas de forma definitiva en el almacén de El Cabril. Los residuos son analizados previamente, compactados y llevados a un almacén bajo control. El periodo de peligrosidad en estos casos es relativamente manejable, al ser la vida media inferior a 30 años.

Mención aparte merecen los residuos de alta actividad (RRAA), los derivados directamente de los combustibles quemados en las centrales nucleares. Estos materiales tienen una alta radiactividad, tiempo de almacenamientos extremadamente altos para algunos de sus componentes (pueden llegar a los cientos de miles de años para el caso de los actínidos), y la peligrosa presencia de materiales que como el plutonio pueden ser utilizado en el ámbito militar. Por último desarrollan el suficiente calor por si mismos como para dañar su propia naturaleza o al medio ambiente.

¿Qué se hace en la actualidad con los RRAA? En la actualidad son almacenados en las propias piscinas de la central, donde el agua se encarga de refrigerarlos y mantener su radiación bajo control. En una segunda etapa los residuos RRAA serán enviados a un almacén temporal centralizado (ATC), en donde permanecerán durante 60 años refrigerados por aire. En ese tiempo se debe haber llegado a un consenso en la comunidad científica sobre el mejor método para el tratamiento de los residuos. Una vez tratados se almacenaran a más de 500 metros de profundidad en el (AGP). Almacén geológico profundo situado sobre formaciones geológicas que han permanecido estables durante miles de años.


Por lo tanto lo que queda por dilucidar es cómo serán tratados los RRAA tras el periodo de 60 años en el ATC. En la actualidad se están evaluando una amplia gama de técnicas que conducen al final a unos mismos procesos de “separación” y “transmutación”. Correctamente tratados se podría disminuir la cantidad de residuos a la centésima parte del original y además aumentar la generación de electricidad que se obtiene de ellos. Los RRAA contienen varios grupos de isotopos de distinta naturaleza. Tras realizar los procesos químicos de separación-transmutación se consiguen agrupar los isotopos similares para tratamientos individuales y específicos.


1. Uranio: puede ser reutilizado para obtener más energía.

2. Materiales estructurales activados: Tienen un gran volumen y masa. No generan calor y se les considera de baja actividad, por lo que no presentan problemas para su manipulación y almacenaje.

3. Fragmentos de fisión de vida media y corta: Terriblemente radiactivos y emisores de calor, deben ser tratados con especial cuidado. Como factor a nuestro favor cuenta la vida media baja de tan solo 30 años, por lo que tras un periodo de entre 100 y 200 años se enfrían lo suficiente para ser tratados como residuos normales.

4. El último grupo lo componen los actínidos transuránicos: plutonio, neptunio, americio, curio, etc. Esto son los más peligrosos de todos, tanto por el riesgo de proliferación armamentística, como por su alta radiactividad (pude provocar una explosión nuclear si no son almacenados correctamente). Para colmo de males, tienen una duración enorme en comparación a toda la historia de la humanidad, ¡centenares de miles de años! Por ello, la solución propuesta pasa por la trasmutación, que consiste en convertirlos en un nuevo combustible nuclear transformándolos en residuos de los tipos anteriores y simultaneamente, generamos grandes cantidades de energía extra. De este modo se consigue tres grandes logros, disminuir el tiempo de vida de los residuos, anular la proliferación, y conseguir un extra de energía para nuestra sociedad. Para este proceso se tendrían que utilizar un nuevo tipo de reactores, los reactores rápidos o los ADS (mezcla de aceleradores y reactores rápidos). Si los cálculos no fallan estos procesos podrían reducir la cantidad y radiotoxicidad de los elementos RRAA hasta llegar a una centésima, e incluso una milésima parte de la cantidad original.

13 de junio de 2011

TELESCOPIO Keck I

Los nuevos lasers instalados en los telescopios Keck I son verdaderamente espectaculares, lo que ha inspirado la toma de fotografías o los vídeos como el que traigo a continuación. ¡Contemplemos la ciencia en acción!



Los telescopios Keck I y II se encuentran en el observatoria Mauna Kea en la cima de un volcán inactivo de las Islas Hawai, a 4200 metros de altitud. Dentro del ranking de los grandes telescopios ópticos se encuentra situado en el tercer puesto, por detras del Gran Telescopio Sudafricano y del Gran Telescopio de Canarias, al tener 10 metros de diametro.

10 de junio de 2011

ROBOT ESFERA JAPONES

El ministerio de autodefensa japonés ha mostrado un nuevo prototipo de robot. Se trata de una esfera voladora del tamaño aproximado de un balón de futbol que porta una cámara y deversos sistemas de orientación. Eso le permite espiar lo que ocurre en el interior de un edificio entrando por las ventanas, o subiendo por el hueco de las escaleras.

Está propulsado por una sola hélice pero cuenta con 8 alas que le dotan de su gran maniobrabilidad. El ingenio es capaz de alcanzar los 64 km por hora o permanecer estático dentro de un espacio cerrado como un pasillo. Cuando el robot es atacado por un individuo o se golpea contra algún objeto es capaz de caer y rodar por el suelo para disipar la energía del impacto, para posteriormente volver a ponerse en vuelo. El precio de cada aparato es realmente económico solo ¡1000 euros! En el siguiente video pueden comprobar cómo su inventor reconoce que lo creó para ligarse a la presentadora, porque la seguridad nacional se la trae floja…¡Que raritos son estos japos!


TRES IMÁGENES PARA LA REFLEXIÓN

EL ORGULLO DE SER HUMANO: Ya podemos contemplar al completo una obra de ingeniería colosal realizada mediante el esfuerzo y la cooperación internacional de numeroso países, gracias al conocimiento científico acumulado por generaciones. ¿Cuántos murieron sin saber lo que llegaría a lograr el ser humano, cuántos morirán sin haberse percatado de lo logrado?


ESTACIÓN ESPACIAL INTERNACIONAL - ISS

EL MIEDO AL SER HUMANO: ¿Qué ocurre cuando los seres humanos situados en la cima de la cadena ecológica siguen multiplicando su población de manera viral, consumiendo recursos como una plaga de langostas descontrolada y destruyendo el frágil equilibrio ecológico de su planeta madre? ¿Conseguiremos alcanzar la consciencia global antes de que sea demasiado tarde?

ATASCO EN CHINA

EL MISTERIO DE SER HUMANO: ¿Qué parte de nuestro ser nos impulsa a apreciar belleza en la imagen de un agujero negro? Como primates parlanchines que somos, es normal que nos resulte bello un determinado paisaje, un colorido animal, la cara de un congénere, una puesta de sol, pero ¿por qué apreciamos belleza en imágenes tan ajenas a nuestra evolución biológica, imágenes que ve el ser humano por primera vez en su historia?


En el centro de la galáxia se puede apreciar dos grandes chorros
de partículas que delantan la presencia de un agujero negro.
Para mejorar su detección se han coloreados artificialmente en
azul claro y naranja.


REINVENCIÓN DEL AUTOMÓVIL SEGÚN MERCEDES


Carl Benz el 29 de enero de 1886 solicitó la patente de su triciclo motorizado. Esta fecha es la que se considera como la del nacimiento oficial del automóvil. De eso han pasado 125 años y para conmemorarlo el fabricante alemán decidió emprender una vuelta al mundo de 125 días de duración. Para ello ha usado 3 Clase B F-CELL, uno de los primeros vehículos con pila de combustible fabricado en serie (el HONDA FCX data del 2008), con los que ha demostrado la fiabilidad y ecología de este tipo de vehículos.

La salida tuvo lugar el pasado 31 de Enero en Stutggart y terminó en la misma localidad el 2 de Junio tras 125 días y más de 30.000 kilómetros recorridos. Por el camino han visitado ciudades tan emblemáticas como Madrid, Barcelona, Lisboa, Londres, Moscú, Miami, Vancouver, Los Ángeles y París. La razón de probar este coche en una prueba de tan larga duración era la de demostrar la gran capacidad de rendimiento de esta tecnología de pila de combustible y su idoneidad para el uso diario.

La idea de realizar vehículos con célula de combustible viene desde los años noventa en los que Mercedes experimentaba con diversas alternativas para conseguir un automóvil eléctrico con la autonomía necesaria para el uso diario. Entonces la técnica resultaba aún muy costosa, pesada y voluminosas. Los primeros sistemas pesaban 3.5 Tn y ocupaban casi todo el espacio de una furgoneta Vito. Actualmente, el hidrógeno se almacena en tres depósitos de alta presión (700 atmósferas) bajo el doble suelo del coche. Este Clase B F-CELL mezcla una gran autonomía (400 km) con un tiempo de repostaje corto.

Podemos observar un ejemplo alternativo de reducción de los componentes en el ejercicio de ingeniería que nos presenta General Motors para sus Chevrolet Equinox. Pueden comprobar como el ultracompacto motor eléctrico se encuentra en la parte inferior, mientras que la célula de combustible ocupa el espacio que habitualmente ocuparían los cilindros en un motor de explosión. A su lado aparecen los distintos sistemas de humidificación y refrigeración de las células de combustible.

Pero volviendo a la marca de Stutggart, los vehículos eléctricos es una de las estrategias comerciales que más va a impulsar próximamente. El Clase A E-CELL, el CLase B F-CELL y la furgoneta Vito E-CELL son vehículos eléctricos que ya se producen en serie. EL objetivo de Mercedes es fabricar coches eléctricos más eficientes y limpios, sin limitaciones de seguridad ni de confort. Para ello se ha aliado con el grupo gasista Linde Group para implantar más de 50 puntos de repostaje de hidrógeno (hidrogeneras) en Alemania antes de 2014.

7 de junio de 2011

VENTAJAS DEL MOTOR ELÉCTRICO



El motor eléctrico, ese gran desconocido. A pesar de ser ubicuos, y utilizarlos con fruición en todas las facetas de nuestras vidas, apenas sabemos nada de ellos. A continuación resalto alguna de las grandes ventajas para la automoción de este tipo de mecánicas.

A parte de lo que ya conocen, son silenciosos, limpios y apenas vibran; los motores eléctricos utilizan un intervalo de velocidades de rotación mucho mayor que los motores de combustión, logrando sin esfuerzo más de 12.000 rpm. Con ello también varía la forma de alcanzar la velocidad máxima. Gracias a su motor, un coche eléctrico no solo acelera más rápido que un vehículo de combustión de potencia similar, sino que su gran número de revoluciones por minuto permite también la transmisión ininterrumpida del par en toda la gama de regímenes. La potencia del motor se transmite con una sola marcha directamente a las ruedas, haciendo innecesaria la transmisión de varias velocidades, y aumentando el rendimiento en más del 8% al evitar la perdida por rozamientos. La velocidad máxima se alcanza desde la parada con una sola marcha, lo que se traduce en una aceleración ininterrumpida, continua y sin esfuerzo. Y toda esta potencia está disponible desde el arranque, no dependiendo de la potencia acumulada del giro del motor como ocurre en un motor de combustión.

El motor eléctrico posee también una densidad de potencia mayor que un motor de combustión, lo que permite la producción e implantación de la misma potencia del motor en un espacio más reducido. Por ejemplo, un sistema de propulsión con 145 CV, ocupa solo el volumen de dos cajas de bebidas. Las dimensiones más reducidas del motor eléctrico junto con un peso muy inferior, permite un ahorro de espacio de hasta un 50%, comparado con un motor de combustión tradicional. Con ello aumenta la autonomía del vehículo y mejora la sostenibilidad, y los pasajeros se benefician del espacio extra creado.

Algunos de los motores eléctricos son reversibles, pueden transformar energía mecánica en energía eléctrica funcionando como generadores. Los motores eléctricos de tracción usados en los automóviles híbridos, tranvías y en algunas locomotoras realizan a menudo ambas tareas. El acelerador sirve como freno y acelerador: cuando se quita el pie del pedal, se frena con la misma fuerza que en el proceso de aceleración. Y aunque se necesita un periodo de adaptación a la conducción de un vehículo eléctrico (frena mucho más rápido de lo que se imagina), este par desacelerador se utiliza para recuperar energía en un proceso conocido como recuperación. El motor eléctrico se convierte en un generador, produciendo energía y cargando la batería. Este uso intensivo de la recuperación de energía aumenta la autonomía de un automóvil eléctrico hasta en un 20%. Por todo ello, un motor eléctrico puede llegar a tener rendimientos próximos al 95-98%, frente al 18-22% de los motores de combustión interna.

Existen muchos tipos de motores eléctricos pero se pueden destacar cuatro grandes grupos dependiendo del tipo de corriente que utiliza y su aplicación:

Corriente continua: Son fáciles de controlar, tanto el arranque/paro, como su posición y velocidad, lo que los ha extendido profusamente para multitud de aplicaciones industriales. Aunque con la llegada de la electrónica, los motores de corriente alterna (asíncronos) han llegado a ser tan controlables como estos y con unos precios más bajos, pues el principal inconveniente de este tipo de motores es un mantenimiento muy caro y laborioso. A pesar de eso aún lo podemos encontrar haciendo funcionar trenes y tranvías.


Corriente alterna:

Motor universal: Se utiliza en multitud de pequeños aparatos domésticos como batidoras, taladros, ventiladores o utensilios de cocina y baño. Pueden ser de corriente continua o alterna, pero en todos los casos se requieren altas velocidades y escasa fuerza. Estos motores cuentan con un par de arranque excelente, pero no funcionan bien si se le da un uso continuado e intensivo ya que tienden a recalentarse. Otra pega es que suelen producir interferencias electromagnéticas debido al chisporroteo de las escobillas.

Automóvil de juguete
Síncrono: Son motores de velocidad constante. El rotor gira a las mismas revoluciones que lo hace el campo magnético del estator, lo que garantiza un par motor constante. La velocidad a la que rota también es constante y depende de la frecuencia de la corriente alterna. Para una frecuencia de 60 Hz el motor rotará de forma constante a 3.600 rpm, o 3000 rpm si la frecuencia de la corriente es de 50 Hz. Eso lo hace idóneo para mover las manecillas de los relojes pues siempre marcan el tiempo exacto. Aunque cuando se para, hay que arrancarlo a mano, porque este tipo de motor no es capaz de arrancar por si mismo.

Asíncrono o de inducción: Los motores asíncronos o de inducción son aquellos motores eléctricos en los que el rotor nunca llega a girar en la misma frecuencia con la que lo hace el campo magnético del estator. Cuanto mayor es el par motor mayor es esta diferencia de frecuencias. Hay multitud de variaciones sobre este tipo de motores con aplicaciones específicas.


 

4 de junio de 2011

ENERGÍA GEOTÉRMICA

Central geotérmica en Islándia.
 Entre las energías renovables la geotérmica destaca por ser predecible y estable, a diferencia de la energía eólica o solar, la geotérmica está disponible bajo demanda. El calor del interior de la Tierra está siempre ahí, una planta geotérmica suele operar las 24 horas del día. Eso convierte su suministro eléctrico en lo bastante fiable como para servir de base, al contrario que las restantes renovables.

Pero como todas las fuentes energéticas tiene sus propios problemas. En este caso se trata de la escasez de lugares idóneos para su implantación. No todas las localidades disponen de rocas calientes a poca profundidad y a la suficiente temperatura. De hecho el número de localizaciones donde se puede implantar este tipo de tecnología es muy limitado. En los Estados Unidos se utiliza mucho en estados como California, donde un 6% de su energía eléctrica proviene de la cálida madre Tierra o en islas como Hawái, donde la proporción alcanza el 25%. En el territorio de los Estados Unidos aún quedan áreas por explotar con "roca seca caliente", que exigen meramente la inyección de agua a través de un pozo profundo. Tambien se utilizan en Islandia, como se puede ver en la imagen superior.

Existen distintos tipos de centrales geotérmicas dependiendo de la temperatura que alcanza el vapor. Las únicas aptas para generar electricidad a escala industrial son las que alcanzan temperaturas próximas a los 400ºC, existen también otras con temperaturas inferiores a los 150ºC que se utilizan para obtener agua caliente doméstica y para las explotaciones ganaderas. Se requieren varios condiciones para que se pueda explotar un campo geotérmico: una corteza superior compuesta por una cobertura de rocas impermeables; un acuífero de permeabilidad elevada entre 0,3 y 2 km de profundidad; suelo fracturado que permita una circulación de fluidos por convección, y por lo tanto la trasferencia de calor de la fuente a la superficie, y una fuente de calor magmático, entre 3 y 15 km de profundidad, a 500-600 ºC. Si se dan esas condiciones la electricidad generada por este sistema se encuentra en un rango de precios de entre (0,49 - 0,67 euros/kWh), que es similar al de la energía eólica.

Pero la energía geotérmica no es completamente limpia. En su caso, si se produce una cierta contaminación del aire, pues el vapor de agua que asciende con fuerza hacia la superficie porta elementos disueltos del subsuelo, que una vez liberados a la atmósfera contaminan el aire. La composición exacta depende de la naturaleza del subsuelo en el lugar de instalación, pero suele tener cantidades apreciables de venenos para la vida como el (arsénico, amoniaco,…) o el ácido sulfhidríco, que envuelve a este tipo de centrales con el característico olor a huevos podridos. Esto último es lo que las convierte en poco aptas para su construcción en las proximidades de poblaciones humanas o en territorios con un alto valor biológico. Otro de sus puntos débiles es que emiten CO2 a la atmósfera, aunque en menor proporción que una central convencional.

3 de junio de 2011

AUSTRALIA TUMBADA POR EL CAMBIO CLIMÁTICO


¡Canguro indignado por la política energética mundial!


El producto interior bruto (PIB) de Australia experimentó en los tres primeros meses del año 2011 un retroceso del 1,2% respecto al trimestre precedente, lo que supone la mayor caída de la actividad en el país desde 1991, según ha informado la Oficina de Estadística de Australia (ABS, por sus siglas en inglés).

"Las inundaciones que comenzaron a finales de diciembre de 2010, junto a los ciclones que afectaron las regiones de Queensland y Australia Occidental han tenido un impacto significativo sobre la actividad del trimestre que finalizó en marzo", ha explicado el organismo. En concreto, el sector minero retrocedió un 6,1%, lo que restó seis décimas al PIB, mientras las manufacturas bajaron un 2,4% y el sector agrícola un 8,9%, rebajando en un 0,2% el dato de actividad de la economía.


Por desgracia este tipo de noticias se hará cada vez más frecuente conforme los desastres climatológicos aumentan en intensidad y frecuencia. Si no se actúa a tiempo para frenar el veloz incremento de las temperaturas atmosféricas las pérdidas económicas derivadas de los desastres naturales serán mayores que el dinero necesario para evitarlo.