20 de abril de 2011

BIOFOTONES



¡Apagón en el laboratorio! Se ha descubierto que muchos organismos unicelulares pueden comunicarse mediante señales lumínicas. Daniel Fels, del Instituto Tropical Suizo de Basilea, mantuvo poblaciones de Paramecium caudatum dentro de tubos transparentes que impedían la comunicación mediante mensajeros químicas. Cuando los tubos se encontraban en completa oscuridad descubrió que los microorganismos podían influir en el comportamiento alimentario y las tasas de crecimientos de sus vecinos de otros tubos, lo cual era indicio de señales electromagnéticas entre las poblaciones. Estudios posteriores demostraron que los microorganismos utilizan al menos dos frecuencias para comunicarse, una de las cuales se corresponde con la radiación ultravioleta. Cuando las poblaciones se encuentran dentro de tubos con cristales que bloquean la radiación ultravioleta crecen más deprisa que cuando existe comunicación. Las estructuras celulares relacionadas con la emisión y recepción de estos mensajes aún no han sido identificadas.

Aunque los recientes descubrimientos en neurociencia pueden seguir esa misma línea de investigación. Nuestras neuronas, aparte de utilizar señales químicas y eléctricas, utilizan también la emisión de fotones. Los estudios concluyen que la comunicación fotónica se realiza mediante los microtúbulos, que actúan a modo de redes de fibra óptica dentro de las células. La producción de aminoácidos es crucial en el proceso de comunicación y coordinación de las funciones cerebrales y motrices. Pero lo verdaderamente sorprendente ha sido comprobar que la mayoría de las células producen luz cuando realizan sus funciones normales dentro del organismo. El estudio fue publicado por la Universidad de Cornell en diciembre del 2010, autores (Majid Rahnama, istvan Bokkon y Jack Tszynki).

19 de abril de 2011

LOS LÍMITES RENOVABLES II



La labor de gestión de REE (Red Eléctrica de España) la pueden comprobar en los gráficos en tiempo real que aparece en su web. Pero incluso con un gran número de megavatios eólicos instalados dispersos por tada la geografía de un país, puede aparecer en un momento dado una baja (¡o nula!) producción eólica. En tales casos se hace necesario contar con centrales de gas natural o de carbón que sean capaces de cubrir toda la demanda. Imagínense el despilfarro económico que supone tener multiplicada por varias veces la capacidad de generación eléctrica. Tenemos que tener centrales de gas y de carbón que adapten su generación eléctrica en función de la producción de energía eólica. Para este fin no podemos contar con las poco flexibles centrales nucleares, porque su funcionamiento es mucho más constante y estable. Las nucleares producen prácticamente la misma electricidad de día o de noche los 365 días del año.

Por eso las centrales nucleares son utilizadas para crear un suelo, una base de producción eléctrica siempre estable. A partir de ahí, las restantes fuentes variables se utilizan para cubrir la diferencia. Lo ideal en la producción eléctrica de un país es que esa base fuese lo más cercana posible al mínimo de su consumo, pues así las restantes fuentes energéticas solo tendrían que cubrir las variaciones naturales que se producen entre los consumos diurnos y nocturnos, días laborables - días festivos, invierno-verano, etc. Si nos fijamos en el modelo francés, ellos producen el 85% de su electricidad mediante centrales nucleares y el resto mediante otras fuentes. Así podemos comprender que en Francia  la energía eólica apenas tenga espacio donde crecer.

 Una vez solventado el primer obstáculo del azar, el que la electricidad de origen eólico sea cero en un momento dado, surge un segundo obstáculo del mismo calibre pero de orden contario. Si cada vez contamos con un mayor número de megavatios instalados nos encontramos con la tesitura de que en épocas fuertemente ciclónicas la producción de origen eólico supera a la oferta, y como no podemos apagar todas las centrales de generación, la única opción es desconectar de la red a los aerogeneradores sobrantes. Una vez más incurrimos en un disparate económico pues, si un aerogenerador tiene una factor de carga (el tiempo medio de generación) que rara vez alcanza el 28% (funciona solo una de cada cuatro horas), cuanto más aerogeneradores instalemos más probabilidad hay de que sobrepasemos los límites de generación y le toque permanecer apagado, disminuyendo su factor de carga teórico.

Es un problema verdaderamente peliagudo, pues las empresas que instalan los aerogeneradores hacen sus cálculos de rentabilidad basados en el factor de carga relativo a la zona donde se ha instalado, pero no pueden tener en cuenta factores azarosos como el número de días al año que permanecerán desconectados de la red por exceso de capacidad. Sin duda hay que buscar una solución a ese problema si queremos seguir aumentando nuestra capacidad de generación eólica. La única solución pasa por el almacenamiento de electricidad. Pero si recuerdan lo que comente en el post sobre los vehículos eléctricos, el gran reto tecnológico de nuestros días es conseguir un método eficaz de almacenera electricidad. Los métodos actuales son tremendamente caros e ineficaces, lo cual aumentaría considerablemente el precio de la electricidad generada mediante energía eólica.

Entre los métodos de almacenamiento que se utilizan actualmente se encuentra la subida de agua mediante bombas a las presas hidroeléctricas. De este modo la energía queda almacenada para su futura utilización por la presa. Esto método se ha demostrado rentable económicamente, pero hay muy pocas localizaciones donde se pueda implantar. El otro método son las baterías amóviles, como las baterías de flujo de la compañía Vancouver (VBR). Consisten en dos depósitos con miles de litros de electrolitos (uno positivo y otro negativo) cuando se ponen en contacto a través de una membrana se produce la corriente eléctrica. Su rendimiento aproximado es del 65%, lo  que quiere decir que se pierde un 35% de la energía de origen eólico. Su gran ventaja es que puede almacenar energía del orden del megavatio-hora, pero el precio de almacenar cada Kwh ronda 400-500 euros. Eso elevaría el precio de la electricidad de origen eólico (actualmente situada entre 0,48 y 0,67 euros el kWh) en un 50%. Las células de combustible de hidrógeno, ya comentadas en otro post, también podrían ser útiles pero su rendimiento total sería inferior al 50%. La única alternativa viable, por el momento, es exportar electricidad de origen no contaminante a otros países conectados a nuestra red. Aunque eso también tiene sus propias limitaciones.

17 de abril de 2011

LOS LÍMITES RENOVABLES I


La energías renovables son limpias, no contaminan, son seguras, no producen accidentes mortales (aunque esto hay que matizarlo como expuse con un ejemplo en el post de Fukushima) y sobre todas las ventajas, son renovables (mientras haya Sol podremos contar con ellas). Entonces, ante tantas ventajas, ¿por qué no se implantan de forma masiva? ¿dónde está el pero? Muchos aducen causas conspiratorias de megacompañías energéticas o lo achacan a oscuros intereses políticos y económicos. Pero la realidad es más simple, no se implantan de forma masiva porque adolecen de enormes limitaciones.

Su fuente en todos los casos (menos la geotérmica), procede de la energía que nos llega del Sol. El astro rey calienta la atmósfera terrestre creando los ciclones que nosotros aprovechamos mediante los generadores eólicos. A su vez, los ciclones, mueven las olas que aprovechamos mediante los generadores mareomotrices. O bien el sol calienta el agua del mar, que se evapora y crea nubes que descargan sobre nuestros embalses hidroeléctricos. También podemos utilizar la radiación solar directamente mediante espejos, o células fotovoltaicas.  Incluso las energías no renovables como el gas natural, el carbón y el petróleo, provienen de la captación de la energía solar que hizo la vegetación en el pasado. Podríamos considerarlas como energía solar fosilizada.

Si exceptuamos la energía hidráulica, todas las restantes son de una intensidad energética muy baja. Eso quiere decir que tenemos que construir grandes dispositivos, muy complejos y caros para beneficiarnos de esas fuentes energéticas. Podemos definir la tasa de retorno energético o (E.R.O.E.I) como la cantidad de energía neta que obtenemos en relación a la energía invertida en su explotación. Este principio es muy importante y volveré a mencionarlo en futuros post. El problema de la mayoría de energías renovables es que necesitamos invertir mucha energía para obtener muy poca energía neta. Por ello su calidad de explotación es muy baja y la producción de electricidad resulta sumamente cara. Y, por esa misma razón, los ciudadanos que nos negamos a pagar por la electricidad tres o cuatro veces más de lo que ya pagamos, impedimos indirectamente su implantación.

Fijémonos en el ejemplo de la energía eólica. En su caso la energía no se encuentra disponible cuando uno lo desea, sino cuando las condiciones meteorológicas son propicias. Puede darse el caso de que cuando más electricidad demanda el país no hagan ninguna aportación, o que cuando la demanda de electricidad es baja nos encontremos con un exceso de energía en la red. El primer problema se resuelve extendiendo geográficamente la red, e instalando muchos más megavatios de los necesarios. De este modo nos aseguramos un suministro de energía de origen eólico más o menos estable. Pero con ello también hemos incurrido en un considerable incremento del coste económico de explotación, pues necesitamos tener muchos más generadores de los inicialmente necesarios y una red eléctrica compleja e inteligente.


La red eléctrica nos la podemos imaginar como una red de tuberías de agua. La red debe mantener en todo momento la presión del agua en su interior, o de lo contrario, cuando alguien abra el grifo se encontrará sin agua. El único modo de que eso no ocurra es comprobar constantemente cual es la demanda de grifos abiertos y ajustar en consecuencia el caudal de agua que inyectamos en la red. Si nos quedamos escasos habrá problemas de suministro, y si nos pasamos provocaremos la rotura de la red y un gran apagón. Se pueden imaginar el rompecabezas que supone para Red Eléctrica de España conjugar la demanda energética nacional con un suministro volátil de energía que sopla más o menos, unas veces por aquí y otras por allá. España, junto con Dinamarca son dos de los pocos países que han logrado solventar ese problema mediante una red eléctrica inteligente.

Continuara…

14 de abril de 2011

ELECTRIFICACIÓN DEL TRANSPORTE



CAPACIDAD DE ALMACENAJE DE ELECTRICIDAD POR PESO
 
Mucho se habla ahora de la electrificación del transporte como principal medida para detener la mortal contaminación atmosférica de las ciudades y los efectos del cambio climático. Pero conseguir un vehículo eléctrico no es tan fácil como pudiera parecer en un principio. Y eso a pesar de que los primeros automóviles que se fabricaron en la historia fueron eléctricos y no de gasolina. El primer automóvil eléctrico data de 1835, cincuenta años antes de la aparición del primer coche con motor de explosión de Daimler-Benz, que apareció en 1886. Pero muy pronto el superior desempeño de los vehículos de gasolina relegó a los coches eléctricos al olvido. Más de un siglo después de aquellos primeros intentos, se vuelve a pensar en la acuciante necesidad de los vehículos no contaminantes. Necesidad incrementada por la imparable escalada del precio del petróleo, un recurso cada vez más escaso.

El problema de los automóviles eléctricos no se encuentra en desarrollar motores potentes o eficientes. Hace años me reprocharon que los motores eléctricos ¡solo sirvan para mover coches de Scalextric! Nada más lejos de la realidad. Los motores eléctricos ofrecen lo que ningún motor a explosión se atreve a ofrecer: fuerza constante desde el primer giro, optima relación potencia/tamaño, menor peso, un rendimiento energético sobresaliente (95-98%) frente al (22-28%) de los motores diesel más modernos, precio muy bajo, mantenimiento casi nulo, nivel sonoro mínimo, ausencia de vibraciones y sobre todas las virtudes, ¡no contaminantes!

Si los motores eléctricos tienen capacidades tan sobresalientes, ¿por qué no se han implantado todavía? El gran reto de la electrificación se encuentra en el aún no resuelto almacenaje de electricidad. Actualmente conocemos multitud de formas de producir electricidad, muchas de ellas no contaminantes, pero apenas hay tecnologías validas para almacenarla de forma adecuada. Examinemos brevemente las existentes:

  • Baterías Amóviles:
Son tan grandes y pesadas que no sirven para el transporte pero permiten almacenar energía del orden del megavatio-hora. Eso las hace útiles para almacenar el exceso de electricidad de las energías renovables. Aunque les sorprenda, ese es el gran problema de las energías renovables, como expondré en un próximo post.

  • Baterías de Automoción:
Baterías de plomo-acido: Las que podemos ver bajo el capó de la mayoría de vehículos a motor actuales. Su peso es tan elevado y su capacidad de almacenaje tan ridícula, que solo sirven para el arranque del motor de explosión y para algunos accesorios eléctricos del automóvil.

Baterías de NIMH (Nickel- hidruro metlálico): En el mundo de la electrónica representan la generación anterior. Su elevado peso y escasa capacidad las han llevado al desuso para los productos electrónicos actuales, aunque se utilizan con profusión en los vehículos hibridos (ej. Toyota Prius) debido a su bajo precio.

Baterías de Litio–Ion: Son la principal apuesta actual para los coches eléctricos. Los fabricantes de automóviles fijan como objetivo a largo plazo una batería de litio-ion (semejante a las de los teléfonos móviles actuales) que dure 15 años y soporte al menos 5000 ciclos de carga, con un coste objetivo de 250 euros por kWh almacenado. Por supuesto, eso está lejos de conseguirse en la actualidad: 5 a 7 años de duración máxima, 4000 ciclos de carga, 600 euros KWh (20.000 euros para una batería media). Además su peso las sigue penalizando para su uso en el transporte. Se necesita una batería de 400-550 kg, para conseguir autonomías de entre 150-250 km. Se imaginan un típico camión de 20 Tn  ¡Eléctrico! ¡Necesitaría 6,6 toneladas de baterías!

Supercapacitadores: Se utilizan para algunas aplicaciones específicas (Formula 1) por su capacidad para cargarse y suministrar toda su carga en un instante. Su problema reside en la escasa capacidad de almacenaje, que es incluso inferior a las baterías de plomo tradicionales.

Células de combustible: Se trata de un sistema que se desarrolló en principio para obtener electricidad en el espacio. Se llaman células de combustible porque utilizan una serie paralela de membranas (células) que permiten el paso de protones (carga +) desde la molécula de H2 a la de O2. El resultado no puede ser más óptimo pues a partir del combustible (hidrógeno gaseoso) se genera electricidad expulsando como subproducto vapor de agua. Las células de combustible han evolucionado mucho desde sus primeros usos espaciales. Algunas firmas de automóviles como General Motors, Mercedes, Honda o Toyota han invertido miles de millones en su optimización. Pero aún les queda un largo recorrido para abaratar su costo. Además el hidrógeno no lo podemos considerar como almacén de energía eléctrica, sino como un vector de transporte, pues el almacenamiento de hidrógeno presenta su propia problemática de difícil solución. En cualquier caso este sistema presenta grandes ventajas:  bajo peso, facilidad de repostajes rápidos en hidrogeneras y amplias autonomías de hasta 570 km. Eso las convierte en la mejor alternativa de almacenamiento a largo plazo.

Los únicos vehículos eléctricos que son competitivos y con un gran futuro, son los trenes de alta velocidad, los trenes de cercanías y el metro. Es previsible que un futuro todos los trenes utilicen líenas de alta tensión para su funcionamiento, pero hasta que no se encuentre un método eficaz de almacenar electricidad, seguiremos sin contar con una alternativa real al automóvil con motor de explosión.

9 de abril de 2011

REACTORES NUCLEARES DEL FUTURO


EVOLUCION HISTORICA DE LA ENERGÍA NUCLEAR



En la actualidad se están construyendo reactores nucleares de tercera generación y de tercera generación plus, con algunas mejoras de seguridad. Todos los reactores construidos hasta la fecha estan diseñados para producir electricidad, o para la obtención de raioisótopos con fines médicos. Desde el año 2000 existe una iniciativa multinacional comandada por (Estados Unidos, Francia, China, Sudáfrica, Japón) para el desarrollo de nuevas tecnologías que permita desarrollar una nueva generación de reactores que tenga la capacidad de producir hidrógeno.

¿Por qué es importante la producción de hidrógeno de forma industrial? Eso lo trataré más extensamente en un próximo post. Pero adelantaré que si queremos liberar a nuestros vehículos particulares de la tiranía del petróleo, no parece existir otra alternativa que el desarrollar las pilas de combustible de hidrógeno. Los actuales intentos de utilizar baterías de móviles (baterías de litio) agrupadas en ingentes cantidades para almacenar la energía eléctrica en los automóviles está resultando muy decepcionante. Las baterías más modernas apenas si tienen la capacidad de almacenar la suficiente energía a precios económicos (la batería medía cuesta 20.000 €, pesa unos 400 kg y su autonomía ronda los 150 Km. por cada carga de 8 horas). De ahí que, en principio, se estén usando para crear una generación de automóviles urbanos, relativamente pequeños, aunque muy pesados y caros, que adolecen de un escaso radio de circulación. Además, hoy por hoy, resulta totalmente inviable utilizar las vaterías de lítio en el transporte pesado de mercancías a largas distancias, como camiones, o autobuses interurbanos.

Para producir hidrógeno de forma comercial y económica, los reactores nucleares de IV Generación tienen que alcanzar temperaturas de funcionamiento muy superiores a los actuales. Se estudian varios proyectos, pero el de lecho granulado alcanzaría temperaturas de 900 grados centígrados, frente a los 350 grados de las centrales actuales. A parte de la producción de hidrógeno a precios competitivos, otra ventaja adicional es que se pueden encadenar varios ciclos industriales: producción de hidrógeno a altas temperaturas, utilización del calor residual para la industria química, generación de electricidad y finalmente procesos de desalinización. El solo hecho de aumentar la temperatura de funcionamiento hasta los 900 grados ya implica un aumento del rendimiento en un 25%, lo que permite a su vez, un mayor aprovechamiento de cada carga de combustible.

A pesar de funcionar a mayor temperatura los reactores futuros serán más seguros porque prescinden del agua para su refrigeración, en su lugar utilizan helio. El He es un gas noble, y por tanto no reacciona con otros materiales, impidiendo la salida de materiales radiactivos durante un hipotético accidente nuclear. Además los reactores están pensados para soportar temperaturas de hasta 1600 °C, sin fundirse. A diferencia de los actuales que a esas temperaturas comienzan la fusión de las barras de combustible. El reactor está diseñado para tener una seguridad marcada por las propias leyes físicas de su funcionamiento, a diferencia de los actuales que dependen de sistemas de seguridad activa para no llegar a situaciones críticas. Eso supone un gran paso adelante en seguridad pues ante un eventual desastre, el reactor tenderá por su propia física a ser estable, incluso sin la presencia de operarios o sistemas activos de seguridad.

Finalmente una de las grandes ventajas de estos nuevos reactores es su reducido tamaño y simplicidad de construcción. Pueden llegar a ser hasta ocho veces menos complejos que un reactor actual, lo que facilita su producción en serie, bajando el precio y aumentando la seguridad de cada unidad.

7 de abril de 2011

MERKEL O LA DEMAGOGIA ECOLOGISTA

 
CENTRALES TÉRMICAS DE CARBÓN JUNTO A LAS CIUDADES CHINAS
  En estos primeros post pretendo abrir el debate sobre la gran cantidad de falacias y engaños del ecologismo fácil, aquel que parece diseñado para engatusar a los ciudadanos. Que los vendedores de placas fotovoltaicas traten de llevarnos al "huerto" solar en una especie de mercadillo marroquí de alfombras no es nada criticable, al fin y al cabo, ellos también tienen que comer. Pero que los presidentes de los gobiernos más poderosos de la tierra como Angela Merkel se engañen, a sí mismos y a los ciudadanos, en un intento de conseguir el voto fácil, me parece lamentable.

Los partidos verdes alemanes son actualmente los más poderosos del mundo, tanto por el nivel de respaldo ciudadano, como por sus capacidad económica. Sabedora de esto, Merkel ha caído en la trampa de utilizar el desastre de Fukushima para volver a detener el tímido resurgir de la energía nuclear en su país. De poco le ha servido en términos electorales. Sin embargo, las consecuencias energéticas ya las están sufriendo todos los alemanes. Tras el cierre temporal de 7 de los 17 reactores nucleares con los que cuenta Alemania, ahora necesita importar electricidad a razón de 50 gigavatios/hora. Además esto ha influido en los precios de la cesta energética en su país que ha subido nada menos que un 12% en un abrir y cerrar de ojos. Por primera vez, la poderosa industria alemana deja de ser exportadora de electricidad y necesita importarla de fuera. ¿Y de dónde la importan? No se lo van a creer: ¡de Francia, la mayor operadora de energía nuclear de Europa! A este tipo de ironías del destino es a las que nos conducen las demagogias ecologistas.

Mientras los políticos no se atrevan a enseñar a la sociedad los verdaderos pros y contras de cada alternativa energética, seguiremos viviendo en el mundo de Alicia en el país de las maravillas, un mundo de mentiras en el que los ecologistas tratan de vendernos una utopía técnica y económicamente irrealizable. Claro que también cabe dentro de lo posible que los propios políticos no sepan ni jota de energía, lo que no sería de extrañar pues ya han demostrado sobradamente que tampoco saben ni jota de economía.

Como contrapartida a Merkel, cabe citar la opción americana de un Obama que parece muy bien asesorado en política energética y sobre la crisis que se nos avecina en los próximos 20 años. Inteligentemente, pues no cabe otro adjetivo para este “zorro viejo”, ha compartido públicamente las estadísticas de muertes por polución ambiental derivadas del uso de centrales térmicas de carbón (las más contaminantes de todas). Según la Agencia de Protección Medioambiental (EPA, por sus siglas en inglés), la instalación de nuevas chimeneas con tecnologías limpias para las 400 centrales térmicas de carbón que hay en USA, reduciría en un 91% la emisión de mercurio (un veneno para el sistema nervioso) y otros contaminantes (como los que causan la lluvia ácida), lo cual salvará 17.000 vidas americanas cada año. Añada a continuación el coste derivado de implantar esta nueva tecnología en las viejas centrales (7.000 millones de euros) y lo relaciona con el ahorro en las empresas aseguradoras y en la sanidad estatal. Para terminar finalmente diciéndoles a los americanos que la factura de la electricidad les subirá de tres a cuatro dólares mensuales.

Que les está diciendo subliminalmente a sus ciudadanos. La energía eléctrica actual se produce con tecnologías anticuadas que causan miles de muertes silenciosas entre la población (aunque los medios de comunicación no se hagan eco). El actualizar estas centrales les va a costar mucho dinero, pero a cambio habrá beneficios para la salud pública y el medio ambiente. A renglón seguido, defiende una política de instalación de nueva capacidad eléctrica basada en fuentes limpias para la atmósfera entre las que incluye la energía nuclear, la eólica, solar, geotérmica, hidráulica, etc.

¡Merkel y Obama, dos formas opuestas de hacer política!

6 de abril de 2011

FUKUSHIMA Y EL TERROR NUCLEAR




 Como sucede cada vez que aparece un incidente, la sociedad vuelve a plantearse si vale la pena correr el riesgo de utilizar esa fuente energética o sería mejor prescindir de ella. Ocurrió en el 2010 con el vertido de petróleo de BP en el gólfo de México (el mayor de la historia) y esta ocurriendo ahora tras el acidente nuclear de Fukshima. Este debate no es nuevo, ya sucedió otros similares tras los desastres de Three Mile Island en Estados Unidos (1979) y, sobre todo, el de Chernóbil en Ucrania (1986). Sin duda el accidente nuclear de Chernóbil es el más grave de los tres acaecidos hasta el momento, pues alcanzó el nivel 7 de la escala INES. La ciudad de Chernóbil con 14.000 habitantes está situada a tan solo 14 km de la central, por lo que sufrió inmediatamente la nube radiactiva.

El diseño de los cuatro reactores con los que contaba la central de Chernóbil data de finales de la década de los 70, y no cumplían los requisitos mínimos de seguridad que en esas fechas ya se imponía a los reactores nucleares de uso civil. Por ejemplo, carecía de un edificio de contención y el núcleo del reactor no estaba dentro de una vasija de seguridad. Eso fue lo que provocó que con una sola explosión de hidrógeno, muy semejante a la de Fukushima, todo el material radiactivo quedara expuesto al exterior. (Nótese que Fukushima data también de aquella época, pero en su construcción si se cumplieron los requisitos mínimos de seguridad). Aparte de aparecer en ambos eventos explosiones de hidrógeno, los dos accidentes son por causas completamente diferentes. En el caso de Chernóbil los operarios de la central estaban “experimentando” para comprobar cuáles eran los límites de la central. En principio la intención era buena,  solo pretendían idear nuevos procedimientos de seguridad para la central. Lo que no fue correcto fue la absoluta negligencia con la que se "experimentó". Los operarios desconectaron los sistemas automáticos de detención del reactor, el sistema regulador de la potencia, el sistema refrigerante de emergencia del núcleo. Estas operaciones, junto con la decisión de desconectar el ordenador de la central que velaba por su seguridad, condujeron efectivamente hasta una situación límite, tal y como pretendían los operarios.

El resultado del desastre en cuanto a víctimas mortales es muy controvertido. Los análisis y contraanálisis se suceden con cifras totalmente diferentes. Parece que las muertes en las que no cabe duda alguna son 31, entre operarios de la central que sufrieron la explosión directamente y bomberos que apagaron los incendios subsiguientes. Todos los demás son datos estimativos sobre estadísticas poco concluyentes. El problema es que no había estadísticas adecuadas sobre los niveles de cáncer previos al accidente. Ni siquiera en países occidentales que se vieron afectados como Alemania o Inglaterra. Por ello, los que desean demonizar a la energía nuclear abogan porque todas las muertes de cáncer que se han producido desde entonces son debidas a Chernóbil, mientras que los estudios más conservadores apenas si hablan de victimas derivadas de la radiación, aunque si mencionan un considerable aumento de cáncer de tiroides en niños de Bielorrusia y Ucrania, donde han llegado a 4057 casos trascurridos 14 años. O un claro aumento de los niños nacidos con malformaciones en casos de mujeres embarazadas de las áreas circundantes. También se ha constatado al menos 500 personas que tuvieron que ser hospitalizadas por excesiva exposición a la radiación, o de más de 4000 que perecieron de forma poco clara. Por los distintos informes se deduce que entre 50.000 y 150.000 personas sufren problemas de salud deribados del accidente, pero ningún estudio estadístico se atreve a indicar un número de víctimas mortales debido a efectos radiactivos, ni siquiera se ha logrado detectar un aumento en el riesgo de contraer leucemia.

Si en el accidente nuclear más grave que ha padecido la humanidad el número de víctimas es "relativamente" reducido, ¿por qué tanto temor a las nucleares? La explicación hay que buscarla en el miedo a lo desconocido, a lo que ni se ve ni se huele, a la muerte silenciosa. Ese miedo parece superior a las cifras reales de victimas. Que la energía nuclear es relativamente segura nos lo dice las estadísticas. Solo tres accidentes graves en 35 años y el número de víctimas derivadas de ellos es tan moderado como para que las estadísticas no puedan ser concluyentes. Para poner el riesgo nuclear en perspectiva, solo tenemos que compararlo con otros grandes desastres industriales:
  • El fallo de la presa de Banqiao (Henan, China, 1975) causó la muerte directa de 26.000 personas debido a la inundación, y otras 145.000 sufrieron las hambrunas y epidemias subsiguientes.
  • El terrorífico desastre de Bhopal (India, 1984), en el que la BBC informó de la muerte por inhalación de gases tóxicos procedentes de una fábrica de fertilizantes de 3.000 personas y otras 15.000 murieron en los años siguientes por enfermedades derivadas de la intoxicación.
  •  También podemos comparar las cifras de las víctimas por siniestro con la cifra de muertes por accidentes de tráfico: unas 1.900 muertes en el año 2009, solo en el territorio Español o 33.000 en Estados Unidos.
  • O las cifras de muertes por cancer deribados del consumo de tabaco, 5.500.000 en el mundo en 2010.
¿Quiere esto decir que la energía nuclear no tiene peligro, que podemos dormir tranquilos con una central nuclear a 500 metros de nuestra casa? Pues no. Está claro que tras cada accidente nuclear hay un factor de seguridad que no se tuvo en cuenta. La central de Fukushima ha soportado cientos de terremotos muy fuertes en sus 34 años de vida, el último de ¡fuerza 9!, pero el primer Tsunami la ha dejado fuera de juego y en una situación peligrosísima. No es que la central de Fukushima careciera de un muro de contención contra tsunamis, el suyo era de 5 metros, sino que la ola que la destruyó tenía mucha más altura. Eso debería hacernos pensar que alargar la vida de centrales nucleares antiguas y con medidas de seguridad desfasadas, no parece la mejor solución para paliar la próxima crisis energética que se nos avecina o el problema del efecto invernadero.

Hay que forzar a los gobiernos a cerrar las centrales más antiguas, que ya han cumplido sus ciclos comerciales. Pero igualmente hay que abogar por la rápida implantación de nuevas centrales nucleares que son mucho más seguras, asi como el obligar a construirlas en localizaciones geográficas más adecuadas (a cientos de km de los núcleos de población). Hay que impedir que las centrales sean solo responsabilidad de las empresas que las gestionan. Los gobiernos tienen que tener planes de contingencia precisos y los medios para hacer frente a cualquier desastre en un tiempo record. Además se ha visto la necesidad de desarrollar nuevas tecnologías tales como robots específicos, camiones de bomberos teledirigidos, aviones sin piloto... que son los únicos que pueden acercarse sin peligro a un reactor desbocado. O incluso promover la venta de contadores Geiger con los que la población no necesita depender de las noticias para saber la radiación que hay a su alrededor. Más de uno se sorprendería al comprobar que estamos constantemente sometidos a radiación natural debido al uranio que hay en la Tierra o a la procedente del exterior.