ARTÍCULO

El calentamiento global: año 2006

 

La capa a rayas, cebra o tigre, herbívora o carnívora, la bestia del calentamiento global se divisa mientras se aproxima sin que sepamos a ciencia cierta qué manjares la apaciguarían a su llegada y, en especial, si deberíamos inmolarnos a ella para salvar al resto de la biosfera. Parece que nadie debe dudar que atravesamos una fase de calentamiento global que puede causar graves problemas a la humanidad e incluso podría llevarla hasta su prematura extinción.Todos somos conscientes del problema, aunque nuestra firme convicción esté a menudo falsamente fundada, porque confundimos los avatares del tiempo atmosférico con el verdadero concepto de clima, sin distinguir entre lo aleatorio del corto plazo y la media estadística correspondiente a largos períodos de tiempo. Conviene resaltar de entrada que la relación del cambio climático con catástrofes puntuales, tales como sequías, huracanes, olas de calor o de frío, o inundaciones, es por el momento desconocida. Sí se conoce, por el contrario, que dicho cambio depende de ciertos fenómenos azarosos –las erupciones volcánicas, las variaciones del flujo solar o las veleidades del fenómeno conocido como «El Niño»– y, por desgracia, también de la actividad humana.
Respecto a este asunto, no son expertos todos los que relucen y yo debo apresurarme a informar de que no me encuentro entre ellos, sino que escribo como posible damnificado que quiere contribuir al debate social sobre el tema. Mi preocupación surgió de modo casual hace casi dos décadas en el curso de una investigación sobre la domesticación de la cebada en el norte de ÁfricaJosé Luis Molina-Cano et al., «Morocco as a possible domestication center for barley: biochemical and agromorphological evidence», Theoretical and Applied Genetics, vol. 73 (1987), pp. 531-536.. La existencia de cebada silvestre en Marruecos, adaptada ahora al campo de cultivo como mala hierba, nos indicaba que esa zona había tenido un pasado climático mucho más benigno, y vimos que, en efecto, los especialistas postulaban una progresiva desertización de esa región a partir del tercer milenio antes de Cristo. ¿Cuándo le tocará ese cambio a nuestra península?, me preguntaba yo entonces. Poco después, con la creación del Panel Intergubernamental sobre el Cambio Climático (IPCC) en 1988, pude constatar que mi pregunta no era tan ingenua y que el problema era real.
Es tan grande el interés por este tema y tan poco lo que sabemos sobre él que no es de extrañar que la información nueva esté surgiendo en avalancha y sea difícil de asimilar. Ante esta situación, puede resultar constructiva la tarea de revisar periódicamente por escrito las aportaciones más recientes para así poder compartir esas revisiones provisionales con quien lo desee. En 2005 publiqué una primera entregaFrancisco García Olmedo, «Últimas noticias sobre el cambio climático», Revista deOccidente, n.º 290-291 (2005), pp. 150-165.y ahora me propongo ampliarla y revisarla a la vista de las numerosas novedades científicas producidas, entre las que se incluyen algunas de considerable relevancia, tales como la constatación de un posible colapso de la circulación termosalina, nuevos datos sobre la tendencia al deshielo o el descubrimiento de que las plantas pueden ser una de las más importantes fuentes de metano, uno de los principales gases con efecto invernadero. También en los últimos meses se han generado novedades de carácter político, entre las que puede destacarse la reunión de Toronto, a finales de 2005, y a escala nacional, nuestro flagrante incumplimiento del compromiso de Kioto, junto a las posturas radicalmente catastrofistas del Ministerio de Medio Ambiente.
El IPCC, puesto en marcha por la Organización Meteorológica Mundial (OMM) y por el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA), es el órgano científico de la Convención Marco sobre Cambio Climático, y un breve examen de su estructura interna, dividida en cuatro grupos o apartados y distribuida por cinco sedes, puede dar una idea de la complejidad del problema que debe atender: 1) aspectos científicos; 2) impactos económicos y sociales y vulnerabilidad de sistemas humanos y naturales; 3) opciones para limitar emisiones de gases con efecto invernadero, y 4) contabilidad e inventarios nacionales de dichas emisiones. El IPCC ha emitido ya tres informes, en 1990, 1994 y 2001, y está previsto que publique su próximo informe en 2007. Es evidente que el problema desborda el mero ámbito de la ciencia y que, incluso en términos científicos, se está más ante la insidia de lo probable que bajo el cobijo de lo probado. La del clima es una ciencia más de observación que de experimento, por lo que el contraste de teorías e hipótesis no es todo lo aseado que cabría desear. Dice el proverbio árabe que «el caballo lo concibió un dios y el camello, un comité de dioses» y en la misma línea podría decirse que para el consenso científico basta un puñado de investigadores, mientras que para la ciencia por consenso hace falta un IPCC. Cuando falta lo primero, la segunda es lo más preciado que nos queda y no tenemos más remedio que apelar a ella e incluso ir más allá, recurriendo a las intuiciones, cábalas y premoniciones de los expertos, si bien debemos escapar de la falsa sensación de certeza que estas lucubraciones puedan generar en espíritus no avisados.

ALGUNOS HECHOS PROBADOS

Existe consenso científico sobre algunas cuestiones básicas relacionadas con el calentamiento global. Se considera que el fenómeno denominado «efecto invernadero» está bien fundamentado: ciertos gases interfieren con la irradiación de calor al espacio exterior y si su concentración atmosférica aumenta por alguna razón, la temperatura ambiental también lo hará. Algunos cálculos indican que la tierra absorbe más energía del sol (un exceso en torno a 0,85 vatios por metro cuadrado) de la que emite al espacio. Los principales gases con efecto invernadero son, aparte del vapor de agua y los aerosoles (partículas en suspensión), el anhídrido carbónico o dióxido de carbono (CO 2 ) y el metano (CH 4 ), a los que hay que añadir el óxido nitroso (N 2 O), el hexafluoruro de azufre (SF 6 ) y diversos gases orgánicos halogenados. Desde el período preindustrial, la concentración de CO 2 ha aumentado en un 30% –de 280 a 380 partes por millón–, debido, al menos en buena parte, a las emisiones de origen humano, y viene observándose un aumento de la temperatura media del planeta en los últimos dos siglos, que es el período en que ésta se ha podido medir instrumentalmente. Se produce CO 2 por la combustión de productos fósiles (carbón, petróleo) y madera, así como por la respiración de los seres vivos, y se elimina de la atmósfera mediante diversos procesos, el más importante de los cuales es su incorporación a la biomasa vegetal mediante la fotosíntesis. Se conoce desde hace tiempo que el metano se produce en la combustión de biomasa y, sobre todo, por agentes biológicos tales como los microorganismos en ausencia de oxígeno (zonas húmedas; cultivo de arroz por inundación), los rumiantes (por delante) y las termitas (por detrás), mientras que la mayor parte se elimina por oxidación en la troposfera y una fracción se pierde desde la estratosfera. Respecto al metano, la sorpresa acaba de producirse con el reciente hallazgo de que las plantas podrían generar entre el 10 y el 30 % del metano que accede a la atmósferaFrank Keppler et al., «Methane emissions from terrestrial plants under aerobic conditions», Nature, vol. 439 (2006), pp. 187-191., lo que indica hasta qué punto ignoramos todavía aspectos fundamentales de los factores climáticos y, de confirmarse, podría cambiar nuestra forma de enjuiciar situaciones concretas: por ejemplo, ya no sería necesariamente ventajoso, en términos del ciclo del metano, un bosque frente a una pradera con rumiantes.
Se han realizado avances muy importantes en el conocimiento del cambio climático gracias, sobre todo, al impresionante aumento de la capacidad de computación, pero estos avances nos han hecho más conscientes de la magnitud de nuestra ignorancia.

LOS ÚLTIMOS CUATROCIENTOS MILENIOS

El pasado remoto del clima puede hoy inferirse por métodos tales como el análisis de los gases invernadero en las distintas capas del hielo antárticoJean-Robert Petit et al., «Climate and atmospheric history of the past 420.000 years from the Vostok ice core, Antarctica», Nature, vol. 399 (1999), pp. 429-436.. En los últimos cuatrocientos veinte milenios, las concentraciones de gas carbónico y metano han bailado al son marcado por las glaciaciones, o viceversa, en armonía con los cambios estimados de la temperatura. También las técnicas recientes de estimación de la temperatura en la superficie del mar tropical en función de los foraminíferos depositados en los distintos estratos han permitido concluir que esta temperatura ha ido variando en consonancia con la concentración de los gases invernadero. Lo que oscurece las relaciones de causa-efecto es que la evidencia apunta a que las glaciaciones se originaron por irregularidades orbitales de la Tierra con respecto al Sol que redujeron la insolación del hemisferio norte, en cuyo caso pudo ser el enfriamiento el que redujo la concentración de gases invernadero, vía una mayor absorción por los océanos, y no al contrario.
La actividad humana ha podido influir sobre el clima desde tiempo inmemorial, ya que en algunas de sus facetas ha podido suponer una liberación significativa de gases invernadero. En este contexto,William F. RuddimanWilliam F. Ruddiman, «The anthropogenic greenhouse era began thousands of years ago», Climatic Change, vol. 61 (2003), pp. 261-293.ha llegado a proponer recientemente la hipótesis de que, sin dicha actividad, nuestro clima actual sería poco menos que glacial. Con el invento de la agricultura se puso en marcha la mayor operación de ingeniería de la historia de nuestra especie, en términos de conversión de energía, flujo hídrico o intercambio de CO 2, y la difusión de la nueva tecnología supuso una importante deforestación progresiva que, en forma de CO 2, liberó a la atmósfera el carbono almacenado en los árboles eliminados y, según parece por los resultados antes reseñados, dejó de producir el metano correspondiente a la masa vegetal perdida 3,5. Más tarde, hace alrededor de cinco milenios, se puso paulatinamente en marcha la práctica de inundar los campos de arroz, condición de anoxia en la que la flora microbiana produce cantidades significativas de metano que se libera a la atmósfera. Ruddiman ha estimado un valor medio de 0,8 ºC para el calentamiento terrestre alcanzado hacia el año 1800, debido a la deforestación y a la práctica de la inundación. Esta cifra sería mayor, hasta 2 ºC, a latitudes más altas, lo suficiente para evitar la formación de glaciares en el norte de Canadá y hacer más habitables ciudades como Londres o Nueva York.
Por otra parte, los cambios climáticos han podido desempeñar un papel crucial en la desaparición de civilizaciones y así ha venido postulándose en diversos casos, entre los que merece mención el considerado en un reciente estudio paleoclimático que correlaciona el colapso de la civilización maya con un período seco muy prolongado. Si nos ceñimos ahora al último milenio, son numerosas las indicaciones de que el clima sufrió cambios considerables. Parece que en la Baja Edad Media, entre los años 1000 y 1200, hubo un calentamiento, mientras que entre 1400 y 1900 se produjeron varios períodos fríos, con un mínimo entre 1650 y 1850 que se ha denominado «la pequeña glaciación». En efecto, parece que en el hemisferio norte pasamos bastante frío hace menos de cuatro siglos. Las heladas destruyeron los antiguos naranjales de la China, los glaciares alpinos avanzaron sobre Europa, en la pintura flamenca de la época aparecen ríos helados que no se hielan en la actualidad y en el Támesis congelado se celebraban festivales de invierno. De los efectos de la pequeña glaciación nos habríamos liberado sólo recientemente, después de una prolongada subida de la temperatura.

NUEVO MODELO RETROSPECTIVO

Ante el calentamiento actual cabe preguntarse por la magnitud de los que lo precedieron, por lo que la reconstrucción de cómo evolucionaron las temperaturas en los últimos milenios ocupa un lugar central en la discusión sobre cambio climático. Como el registro instrumental de las temperaturas apenas alcanza a los últimos doscientos años, el conocimiento de éstas más allá de ese límite tiene que basarse en métodos indirectos, que consisten en el análisis de cómo se comportan a lo largo del tiempo ciertos parámetros cuya correlación con la temperatura puede calibrarse tomando como base el período en que ésta se ha medido instrumentalmente. Algo así como averiguar las transacciones económicas de un magnate tramposo a través del comportamiento de sus testaferros. El registro ofrecido por los testigos o testaferros de la temperatura puede ser de alta resolución (sensibilidad temporal entre el año y la década), como es el caso de la anchura de los anillos en las secciones del tronco de los árboles, o de baja resolución (entre uno o más siglos), como ocurre con la estratigrafía del hielo, la deposición de polen en los sedimentos de los lagos, la relación magnesio-calcio en las deposiciones marinas de conchas de moluscos, la abundancia isotópica en estratos de foraminíferos y diatomeas, la abundancia isotópica o el grosor de las capas en las estalagmitas y la variación de la composición química en los corales. Las medidas de la propiedad relevante de cada testigo se realiza en perforaciones de sedimentos no perturbados, en el corazón de los hielos, en los corales o en las estalagmitas de sitios concretos, y en cada punto de observación ha de calibrarse la propiedad del testigo, aprovechando los datos disponibles de temperaturas obtenidas por medida instrumental directa. Las temperaturas de los sitios en cada momento han de relacionarse luego con la media global mediante el instrumento computacional apropiado y, a partir de esa plataforma, deducir la evolución de las temperaturas en el pasado sobre la base de seguir la evolución de la propiedad relevante de cada testigo en cada sitio.
Una descripción fidedigna de cómo se elabora un modelo climático sobrepasa los límites de este artículo y de su autor, por lo que ha de bastarnos con una descripción somera. Dicho modelo es el resultado de la integración y acoplamiento de una serie de modelos parciales, cada uno de los cuales abarca, entre otros, uno de los siguientes aspectos: la atmósfera, la química de la estratosfera, la química de la troposfera, la química del océano, la vegetación, las nubes, el hielo marino, el hielo terrestre y la circulación oceánica. El manejo de tamaña complejidad mediante ordenadores implica introducir considerables simplificaciones en las ecuaciones que describen los modelos parciales, lo que no puede por menos de generar discrepancias y confusión entre los actores de los varios intentos independientes que se llevan a cabo para modelar el clima. Esto también implica que el aumento de la capacidad de computación vaya mejorando progresivamente los modelos.
En lo que se refiere al estudio retrospectivo, aparte de la mayor o menor continuidad de los datos correspondientes a cada testigo, el principal problema técnico está en los métodos de cálculo que se utilizan para conciliar las distintas escalas temporales y para «pesar» la importancia relativa de cada una de las series de datos que se integran en el cálculo.
El primer modelo retrospectivo que se obtuvo mediante un método de este tipo fue propuesto en 19981999 por Michael Mann y colaboradores de la Universidad de West VirginiaMichael Mann et al., «Northern hemisphere temperatures during the past millennium: inferences, uncertainties, and limitations», Geophysical Research Letters, vol. 26 (1999), pp. 759-762., y se basó únicamente en testigos de alta resolución. Según este modelo, la temperatura media del hemisferio norte se ha mantenido relativamente estable a lo largo del último milenio hasta la revolución industrial, a partir de la cual está experimentándose una brusca subida, a cuyo patrón gráfico suele aludirse como el «palo de hockey». Dicho modelo fue uno de los pilares del informe emitido en 2001 por el IPCC. El palo de hockey se convirtió enseguida en icono y hasta en arma arrojadiza en manos de los más radicales, olvidando que, aunque útil y muy meritorio, no se trataba más que de una primera aproximación sujeta a un amplio margen de error. El modelo de Mann, que negaba supuestas transiciones climáticas del pasado, como el calentamiento medieval o la pequeña glaciación, tuvo desde el principio algunos detractores que, con insistencia, han venido imputándole defectos técnicos.
Las críticas al palo de hockey se han visto reforzadas a principios de 2005 por un nuevo modelo, desarrollado por científicos suecos y rusos (Moberg et al.Anders Moberg et al., «Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data», Nature, vol. 433 (2005), pp. 613-617.), cuya novedad radica en el uso conjunto de testigos de alta y baja resolución temporal que se integran mediante una metodología estadística más sofisticada, obteniendo así información climática que escapaba a los modelos anteriores. El trazo de las temperaturas obtenido de esta forma para los últimos dos milenios ya no se asemeja al famoso «palo», sino que presenta unas oscilaciones a lo largo del tiempo que son mucho mayores que las contempladas en ese modelo anterior. Entre dichas oscilaciones, son perfectamente discernibles el calentamiento medieval, en torno a los siglos XI XII, y la pequeña glaciación, cuyo mínimo habría tenido lugar en el siglo XVII. La conclusión más significativa de esta interpretación del pasado es la de que sólo a partir de 1990, y no desde la revolución industrial del XIX, hemos empezado a batir el récord de temperatura del milenio. Potencialmente trascendente como es esta conclusión, debe ser tomada con la misma cautela que en su día debió aplicarse a la propuesta de Mann y colaboradores, ya que los nuevos cálculos tampoco están exentos de complicaciones. De lo que no debe caber la menor duda es de que, a partir de 1995, se han dado nueve de los diez años más calientes desde que la temperatura se ha medido con termómetro. El récord absoluto se lo disputan el año 1998 y el recién acabado 2005.
Por grande que sea la tentación de dar por buena esta visión del pasado y de imputar el aludido incremento de la temperatura a factores distintos de la actividad humana, no debemos caer en ella, tanto por las incertidumbres asociadas a cualquier modelo retrospectivo como por el hecho de que parte de la evidencia relativa al calentamiento antropogénico no se sustenta en dichos modelos. Sin embargo, tampoco puede excluirse una contribución de los factores no humanos al calentamiento, ya que sería impensable que la naturaleza hubiera hecho dejación de sus veleidades en los últimos siglos. No cabe la menor duda de que estamos sufriendo un calentamiento muy preocupante del que, en una buena parte, parece que somos responsables. Cuantificar nuestra culpa no es tarea fácil, y el nuevo modelo, aunque más verosímil que el anterior, no reduce sino que aumenta nuestras dificultades prácticas. Aun en el informe del IPCC en 2001 viene a admitirse que la probabilidad de que el calentamiento en el pasado siglo sea por entero debido a causas naturales es de una entre tres.

LOS PRÓXIMOS SIGLOS

Si difícil es ponerse de acuerdo sobre el pasado climático más o menos inmediato, mucho más lo es sobre el futuro, y no digamos sobre qué hacer hoy sobre dicho futuro. ¿Cómo evolucionará la tasa de calentamiento? ¿Cómo es de grave la amenaza del efecto invernadero? Contestar a estas preguntas es crucial para nuestra supervivencia y el modo habitual de contestarlas es en forma de predicción sobre el posible aumento de temperatura resultante de una duplicación del CO 2 atmosférico. En el verano de 1979 se reunió en Cape Cod una comisión de distinguidos meteorólogos para elaborar un informe para la Academia Nacional de Ciencias de Estados Unidos sobre el efecto invernadero. Según se cuenta, sólo dos de los participantes trabajaban realmente sobre el problema y éstos expusieron sus respectivos modelos: uno predecía un calentamiento de 2 ºC para la duplicación del carbónico atmosférico y el segundo, 4 ºC. Un poco a capón, asignaron un margen de error de 0,5 ºC y –como se ve, sin excesivo fundamento– proclamaron a los cuatro vientos el intervalo mágico de 1,5 ºC-4,5 ºC, que fue adoptado ya en el primer informe del IPCC. Para el segundo informe del IPCC en 1995, el número de modelos superaba la docena, pero no se alteró el intervalo de predicción, que sí se amplió por arriba (a 5,1 ºC) para el tercer informe, en el año 2001.Aunque el próximo informe no está previsto hasta el año 2007, según noticias oficiosas, parece que las cifras a que llegan los modelos más sofisticados empiezan a converger en torno a los 3 ºC de incremento de temperatura para la duplicación del carbono atmosférico. Sin embargo, la proliferación de modelos (se compararán resultados de quince de ellos en el próximo informe del IPCC) da una medida elocuente de lo lejos que se está de consensuar una forma de cálculo para la variación climática y, además, la concordancia entre modelos es más aparente que real, porque éstos presentan todavía divergencias importantes en los presupuestos de partida y, sobre todo, en sus predicciones a escala regional. En enero de 2006, el Instituto Max Planck para la Meteorología, en Hamburgo, ha dado la predicción oficiosa correspondiente a tres de los escenarios del IPCC: para el de 550 partes por millón de CO 2 en 2100, se predice un calentamiento en torno a 2,5 ºC. Además de los cambios de temperatura, entre las predicciones del anterior informe del IPCC se incluyen aumentos en la precipitación global –aunque en algunas regiones pueda disminuir–, en el nivel del mar y en la frecuencia de catástrofes meteorológicas.
Para fijar la composición atmosférica en sus valores actuales tendríamos que suspender bruscamente las actividades que generan gases invernadero. Aun si cumpliéramos con este objetivo imposible, no lograríamos frenar del todo el calentamiento debido a la considerable inercia del sistema climático. En dos estudios recién publicados se ha concluido que, a composición constante, la mera inercia térmica de los océanos haría que para el siglo XXIV la temperatura aumentara 1 ºC y el nivel del mar aumentaría en diez centímetros (entre uno y treinta centímetros) por deshielo y dilatación, mientras que si nos conformamos con estabilizar las emisiones al nivel actual, supuesto muy difícil de cumplir pero menos restrictivo que el anterior, el calentamiento sería de 2 ºC-6 ºC y la elevación del nivel del mar de veinticinco centímetros (entre siete y cincuenta centímetros).
La inercia térmica de los océanos da lugar a un desfase o retardo de la respuesta climática con respecto a cualquier cambio en los factores y forzamientos externos que la determinan. Debido a esta inercia y a los cambios ya producidos en la composición de la atmósfera, el sistema climático continuará cambiando durante décadas (siglos a nivel del mar) a partir del momento en que cesen los cambios en los factores causales. Esto ha recibido el nombre de calentamiento «pendiente de realizar», «comprometido» o «residual» cuando se alude al cambio de temperatura, y «cambio climático comprometido» cuando incluye también el aumento del nivel del mar.
Si descendemos de lo global a lo regional, nuestra ignorancia ya no afecta sólo a la reconstrucción del pasado o a la predicción del futuro, sino al conocimiento del propio presente. Así por ejemplo, casi al final de 2005 se han publicado los primeros indicios de un posible colapso de la circulación oceánica que transporta calor desde el trópico hasta latitudes más altas en el Atlántico Norte. El sol calienta más los trópicos que las regiones polares, pero la situación se dulcifica mediante la circulación de calor en la atmósfera y, sobre todo, en el mar. Las aguas calientes tropicales viajan hacia el norte y van enfriándose y haciéndose más densas para luego deshacer el camino a una cierta profundidad. Ciertos modelos predicen que el calentamiento global puede interrumpir esta corriente termosalina y las primeras medidas experimentales, todavía con demasiado margen de error, parecen confirmar la predicción. Desde hace un año se sigue sistemáticamente el fenómeno y pronto se tendrán unos datos más fiables. Un colapso completo de la circulación termosalina podría originar una brusca glaciación. En el registro paleoclimático parecen existir precedentes de este tipo de perturbaciones.
El 24 de marzo de 2006 vino preñado de nuevas noticias relativas a la inestabilidad de la capa de hielo en Groenlandia y la Antártida. OttoBliesner y colaboradores han presentado evidencias de que, en la última interglaciación, el hemisferio norte (el Ártico, en particular) alcanzó temperaturas superiores a las actuales y el nivel del mar estaba varios metros por encima del actual, una situación que podría repetirse, y Overpeck y colaboradores sugieren que a finales del presente siglo podrían alcanzarse las mismas temperaturas que hace ciento treinta mil años. Parece que sólo el deshielo de Groenlandia fue responsable de 2,2 a 3,4 metros de subida del nivel del mar. En la actualidad, Groenlandia gana hielo en su interior y lo pierde en la periferia, con unas pérdidas netas que acaban de estimarse en 152 ± 80 kilómetros cúbicos por año para el período 2002-2005.
Una característica común de los distintos modelos climáticos es que predicen un incremento de la severidad de los incidentes catastróficos. Sin embargo, esto es objeto de debate, especialmente en relación con los huracanes. Las últimas temporadas han sido particularmente movidas a este respecto, pero la frecuencia de huracanes y ciclones es extraordinariamente variable, tanto en una escala anual como en una de varias décadas, y aceptar la hipótesis nula de que «no hay tendencia en la incidencia de huracanes» sólo quiere decir que la muestra examinada no permite probar que exista dicha tendencia, no que dicha tendencia no exista. En el ámbito de lo no probado, los científicos se dividen entre los que intuyen que existe un aumento relacionado con el calentamiento global y los que no. Sin ir más lejos, en 2005 los dos principales especialistas del IPCC sobre este tema se tiraron los trastos a la cabeza: Chris Landsea dimitió del equipo del IPCC porque su colega Kevin Trenberth había «politizado» la labor del equipo al propugnar ante la prensa la idea no probada, aunque plausible, de que la gravedad de los huracanes estaba aumentando debido al calentamiento climático.

EFECTOS SOBRE LA BIOSFERA

El calentamiento global tiene importantes efectos directos e indirectos sobre la biosfera, de lo que nos limitaremos a ilustrar algunos de ellos. La Organización Mundial de la Salud ha estimado que el cambio climático de origen antropogénico ha ocasionado unas ciento cincuenta mil muertes anuales en los últimos treinta años, y en un reciente análisis se ha encontrado un incremento de morbidez y mortalidad asociadas al calentamiento pasado y futuro que afecta a las enfermedades cardiovasculares, respiratorias e infecciosasJonathan A. Patz et al., «Impact of regional climate change on human health», Nature, vol. 438 (2005), pp. 310-317.. También se ha postulado un efecto del calentamiento sobre la incidencia de la fiebre del heno.
 La actividad agrícola está íntimamente ligada al marco climático y tendrá que adaptarse a los cambios que éste sufra. Además, unos modelos climáticos suficientemente precisos en sus predicciones deberían permitir que los planes de política agraria y las decisiones productivas anuales se adoptaran más racionalmente. Por avanzado que esté el conocimiento agronómico actual, las conjeturas que podamos hacer sobre los posibles efectos del cambio climático sobre la producción de alimentos no pueden ser más que hipótesis basadas en hipótesis.
A pesar de las discrepancias de detalle entre los modelos de predicción climática, existen coincidencias tales como la probable menor afectación del subcontinente norteamericano o la concentración de los cambios más dramáticos en la franja comprendida entre los trópicos, precisamente allí donde se espera una mayor expansión demográfica. Si esto es cierto, una vez más, los pobres llevarían todas las de perder. Lo que resulta evidente es que un aumento de la temperatura podría llevar hacia el declive a las más prósperas regiones agrícolas actuales, mientras que áreas del globo que eran inhóspitas hasta ahora podrían convertirse en óptimas para la agricultura.
También la distribución geográfica de los espacios naturales sufriría un cambio radical, ya que los cambios en la temperatura alterarían el régimen hidrológico, y la posible mayor frecuencia de las catástrofes meteorológicas tendría un efecto adverso sobre la producción de alimentos. El aumento de la concentración atmosférica de CO 2 podría favorecer el crecimiento y la producción vegetal, al mejorar la eficiencia del proceso de fotosíntesis, pero la elevación conjunta del gas carbónico y la temperatura podría alterar profundamente el abanico de plagas, enfermedades y malas hierbas, aumentando su efecto adverso sobre las plantas cultivadas. El previsto aumento de la concentración superficial de ozono también sería adverso para la producción agrícola.
Respecto a la vida salvaje, también empiezan a detectarse efectos preocupantes. Así, por ejemplo, en un estudio de 36 especies marinas en el mar del Norte, dos tercios de ellas, incluido el bacalao, han migrado hacia el norte o hacia aguas más profundas. La fenología de plantas y animales (por ejemplo, tiempo de floración o de migración) también se ve afectada, según un estudio que ha incluido 145 especiesTerry L.Root et al., «Human-modified temperatures induce species changes: Joint attribution», Proceedings of the National Academy of Sciences of the United Statesof America, vol. 102 (2005), pp. 74657469.. Los efectos pueden ser indirectos: en América Central y del Sur, dos tercios de las 0 especies que se han descrito de la rana arlequín han desaparecido, al parecer a causa de un incremento relacionado con la temperatura de la virulencia de uno de sus patógenos fúngicos.

RETOS TECNOLÓGICOS

En términos realistas, muchos expertos proponen limitar la concentración atmosférica de CO 2 a 500 ± 50 partes por millón, por debajo del doble de la concentración preindustrial, como forma de evitar las consecuencias más extremas del cambio climático.A la luz de lo que sabemos sobre las tecnologías actuales, no parece haber ningún avance previsible que nos pudiera permitir alcanzar por sí solo una parte significativa del objetivo propuesto, por lo que hay que apelar a un amplio repertorio de posibilidades, tratando de superar las barreras y dificultades que presentan cada una de ellas en su aplicaciónStephen Pacala y Robert Socolow, «Stabilization wedges: solving the climate problem for the next 50 years with current technologies», Science, vol. 305 (2004), pp. 968-972.. El aludido repertorio puede dividirse en cuatro capítulos: a) mejora de la conservación y la eficiencia energéticas, incluyendo vehículos y edificios más eficientes; b) técnicas de captura y almacenamiento de carbónico; c) fuentes alternativas de energía, incluidas las nucleares (fusión) y el hidrógeno; d) prácticas agrícolas y forestales, tales como el laboreo mínimo, la repoblación forestal y la introducción de nuevas plantaciones arbóreas.
No cabe aquí considerar el conjunto del iceberg casuístico que se esconde bajo la anterior enumeración, pero sí urge que nos detengamos brevemente en torno a una posible alternativa cuya creciente mitificación puede llegar a oscurecer las verdaderas dimensiones del problema. Se dice con demasiada alegría que «pronto cambiaremos la cultura del petróleo por la del hidrógeno, que es mucho más limpia». La primera entre las diversas trampas que contiene dicha afirmación es la de que nos coceremos como mariscos si nos limitamos a esperar al futuro desarrollo de dicha tecnología, ya que plantea tales problemas que no parece que pueda estar disponible antes de mediados del presente siglo.
Para empezar, el hidrógeno no es una fuente primaria de energía, por lo que es tan limpio o tan sucio como el proceso que se utilice para generarlo, nunca generará más energía de la que se gaste en producirlo y su energía siempre será más cara que la de partida.A temperatura ambiente es un gas muy ligero, nervioso y escurridizo que presenta problemas de almacenamiento, transporte, licuefacción y seguridad, todos los cuales tendrán que ser resueltos antes de que pueda desempeñar su papel de intermediario en una nueva cultura energética.
En la actualidad, el 96% del hidrógeno que se produce con fines industriales utiliza gas natural, hidrocarburos o carbón gasificado como fuente primaria de energía, todos los cuales generan CO 2, con el consiguiente efecto invernadero. Sólo el 4% se produce por electrólisis, costoso proceso que consume electricidad y no genera CO 2 de modo directo, pero sí de forma indirecta si la electricidad no es de origen eólico o solar.Todavía no se ha conseguido la disociación térmica del agua a escala industrial, que de nuevo no generaría CO 2, salvo que lo produzca la fuente de energía térmica utilizada. Los sistemas microbianos que producen hidrógeno lo hacen con muy baja eficiencia energética (menos del 2%), aunque algunos pioneros de la biología sintética, tales como el famoso Craig Venter, parecen tener bien guardadas ideas sobre cómo mejorar la situación. La energía nuclear y la geotérmica permiten producir hidrógeno sin la concomitante generación de CO 2. Estados Unidos parece dirigirse sigilosamente hacia un esquema futuro de energía nuclear, como fuente primaria de energía, e hidrógeno, como forma de transporte y distribución. Islandia, con su gran capacidad geotérmica, se encuentra en las mejores condiciones para ser vanguardia de la nueva era. ¿Cómo va a organizarse en Europa?
El almacenamiento estático de hidrógeno no plantea problemas, salvo que, a presión atmosférica, el volumen que ocupa es tres mil veces mayor que el de una cantidad energéticamente equivalente de gasolina. El almacenamiento en forma comprimida durante el transporte requiere un volumen ocho veces mayor que el equivalente energético de gasolina, mientras que en forma líquida ocupa un volumen más manejable, pero requiere depósitos altamente aislados y el proceso de licuefacción consume un tercio de la energía que contiene el hidrógeno. Además, durante el transporte se producen pérdidas muy importantes, que pueden representar un 40% de la carga en un trayecto de quinientos kilómetros. Entre las barreras a salvar para implantar la cultura de hidrógeno no es la menos importante la de los costes de una infraestructura específica de distribución.
Las ya inventadas pilas de hidrógeno, que se alimentan del gas para producir electricidad, serían la pieza clave en automoción, pero tendrán que hacerse mucho más robustas que las actuales para tolerar el bronco tratamiento que caracteriza esta aplicación.Además, el hidrógeno detona con facilidad y forma mezclas combustibles con el aire en una amplia gama de concentraciones (entre 4-75% en volumen), por lo que los dispositivos de seguridad han de extremarse si no queremos que las excursiones se conviertan en sesiones de fuegos artificiales. La mayoría de las posibilidades enumeradas se sustentan en conceptos bien establecidos, pero, como en el caso del hidrógeno, una buena parte de ellas necesitan refinarse todavía, por lo que requieren incentivos apropiados y un considerable esfuerzo de investigación y desarrollo. Por esta razón, incluso el mencionado objetivo de estabilizar la concentración atmosférica de CO 2 en torno a las 500 partes por millón puede resultar inalcanzable sin un robusto consenso global.

LOS COSTES DEL CALENTAMIENTO Y DE LA PREVENCIÓN

El estudio de las consecuencias económicas de las distintas opciones de respuesta al calentamiento global supone acoplar los elusivos modelos de cambio económico a los no menos precarios que describen las consecuencias del cambio climático. No es fácil valorar el posible deshielo del Himalaya o la desaparición de especies de la rana arlequín, pero hay que intentar acotar los costes y beneficios de cada opción si queremos aspirar a un comportamiento racional. Si todo el cambio fuera antropogénico, la inversión a calcular sería la destinada a eliminar las causas y, en la medida de que no fuéramos capaces de eliminarlas, a paliar los efectos, mientras que si el calentamiento estuviera produciéndose esencialmente por otras causas, sólo cabría evaluar los costes de las medidas paliativas. Es curioso constatar que no parece que haya evaluaciones de cuánto costaría evitar que Bangladesh se sumerja o rodear mediante diques la isla de Manhattan, y que los escasos estudios se hayan centrado en evaluar los costes de limitar la emisión de gases invernadero.
Dentro del ámbito de los informes del IPCC se han propuesto posibles escenarios y a cada uno de ellos se les ha intentado asignar una etiqueta económica. Así, por ejemplo, los costes de estabilizar la concentración de CO 2 en 550 partes por millón para el año 2050 se han estimado en el 1% del PIB en los países desarrollados, una cantidad muy por debajo de la que representarían los daños por inundaciones y otras catástrofes agravadas por el cambio. Una voz tan autorizada como la del consejero científico jefe del gobierno británico considera muy asequible tal opción, ya que crearía más oportunidades económicas que las que destruye David A. King, «Climate change science: adapt, mitigate, or ignore?», Science, vol. 303 (2003), pp. 176-177., señalando que una sola violación de la exclusa del Támesis supondría treinta mil millones de libras en daños para la ciudad de Londres, un 2% del PIB británico. Sin embargo, en Estados Unidos tiende a pensarse que el IPCC subestima costes por un amplio margen y, en general, empieza a admitirse, incluso dentro del IPCC, la debilidad de su análisis económicoQuirin Schiermeier, «The costs of global warming», Nature , vol. 439 (2006), pp. 374-375.. El IPCC ha reforzado recientemente su componente económico, pero es ya tarde para que este cambio incida en el informe del año próximo y habrá que esperar al del año 2013 para que surta efecto.William NordhausWilliam Nordhaus, «Geography and macroeconomics. New data and new findings», Proceedings of the National Academyof Sciences of the United States of America , vol. 103 (2006), pp. 3510-3517., valiéndose de un modelo que liga economía y geografía, ha estimado en estos días el impacto económico de un calentamiento de 3 ºC, que ha cifrado en el 1-3% de descenso de la renta global, una magnitud muy superior a las estimadas previamente. Los ecologistas escépticos, a la Lomborg, propugnan un análisis coste-beneficio de las alternativas ante el cambio climático, incluidas las del Protocolo de Kioto, y en general proponen el establecimiento de prioridades para las distintas acciones ambientales y humanitarias, concluyendo que es mucho más rentable permitir la mayor parte de las emisiones –y pagar sus consecuencias según vayan llegando– que tratar de restringirlas en exceso. Según éstos, a Kioto no le saldrían las cuentas y los beneficios de retrasar un poco el calentamiento global serían sólo marginales. Esta tesis, ya avanzada en su libro El ecologista escéptico, ha sido desarrollada vigorosamente en el denominado «Consenso de Copenhague 2004», declaración coordinada por diez distinguidos economistas, incluidos tres premios Nobel. En esencia, este documento consensuado viene a decir que, incluso si Estados Unidos cumpliera con Kioto, sólo conseguiría retrasarse el calentamiento en seis años, a un coste no inferior a los ciento cincuenta mil millones de dólares anuales. Por la mitad de ese dinero se solucionarían los problemas sanitarios, el hambre, la falta de agua y la educación para toda la humanidad. Sin desdeñar los nobles objetivos enumerados, si la catástrofe es evitable (si el componente antropogénico no es desdeñable como sumando frente a las otras posibles causas), el argumento no sería válido, y si es inevitable, lo que proponen sería como pedir a la orquesta que siga tocando lo mejor posible mientras se hunde el barco. Algo así creo que ocurrió en el Titanic. Las tesis escépticas han sido recogidas en una novela titulada Estado de miedo, un híbrido de narración y ensayo pseudocientífico escrito por Michael Crichton que, con justicia, ha sido calificado por un miembro del IPCC como «viagra para ecólogos escépticos».

KIOTO

La política sobre el clima debe afrontar retos cuya escala de tiempos está entre las varias décadas y el siglo aunque, por supuesto, no se excluyan acciones a más corto plazo como primera línea de ataque. En un siglo debería alcanzarse una economía prácticamente «descarbonizada», es decir, exenta de emisiones de gases invernadero, y este objetivo no es alcanzable con las tecnologías de bajo coste actuales, que no lograrían contrarrestar los aumentos de emisión proyectados para las poblaciones en expansión de los países en desarrollo. Además, se ha estimado que el coste de mitigación asciende rápidamente hasta valores prohibitivos cuando las emisiones per cápita se reducen a la mitad. A las incertidumbres científicas del diagnóstico se suman, por tanto, las inherentes a las posibles soluciones tecnológicas y a su coste económico.
La política, como en cierto modo la ciencia, es el arte de gestionar la incertidumbre, pero es bien conocido que el horizonte político no suele estar más allá de unos pocos años, y es por esto por lo que las soluciones políticas al problema global son tan difíciles de encontrar. Ante un panorama de tanta complejidad y tan huero de certezas, caben tres actitudes alternativas, según la psicología y la ideología de cada uno: la de olvidar o negar que el calentamiento existe, la de ir adaptándose a él, según se produzca, y la de intentar atajarlo.
Los que adoptan la primera actitud suelen aferrarse al hecho de que los modelos climáticos actuales son obviamente imperfectos, lo que para ellos llega a equivaler a posiblemente erróneos e, incluso, falseados. Los afiliados a la segunda opción admiten que existe un calentamiento global, pero piensan que el componente antropogénico puede no ser tan importante como proponen algunos, en cuyo caso el ingente coste de la mitigación reportaría unos resultados desdeñables y sería mejor dedicar dicha inversión a adaptar nuestra vida a un planeta más caliente, que algún día entrará en una fase de enfriamiento como ya ha hecho en el pasado. Para muchos de los partidarios de enfrentarse vigorosamente al problema de frenar el calentamiento, no parece caber duda de que somos responsables casi exclusivos del fenómeno y de que estamos a tiempo de enmendarnos.
No vale taparse los ojos ante el cambio observado, tanto si representa la mera salida de la pequeña glaciación, impulsada por factores naturales, como si es consecuencia directa de la actividad humana. La copa del conocimiento estará siempre medio vacía y medio llena, y no cabe apoyarse en lo que ignoramos para justificar la inacción, algo que se hace con inusitada frecuencia en los tiempos actuales. Los modelos son, efectivamente, imperfectos ya que, como hemos señalado, la aparente convergencia de sus conclusiones numéricas esconde presupuestos de partida no siempre compatibles entre sí y divergencias notables a nivel regional, pero dicha imperfección sólo añade dificultad a un proceso decisorio que no debe por ello interrumpirse. Dentro de una década tendremos seguramente modelos más afinados, pero si esperamos hasta entonces será más difícil alcanzar el objetivo. En cualquier caso, el mejor de los modelos sólo nos ofrecerá probabilidades y no certezas.
La iniciativa plasmada en el Protocolo de Kioto, que ha entrado en vigor en 2004 tras la firma de Rusia, representa la vanguardia de los que piensan que hay que actuar sin dilaciones, apoyándose en lo que se sabe, por incompleta que sea la información disponible. Según dicho protocolo, que surgió de una reunión de ciento sesenta naciones que tuvo lugar en 1997, la mayoría de los países desarrollados se comprometerían a reducir sus emisiones en un 5-10% respecto a los niveles de emisión de 1990.
Estados Unidos ha declarado que no firmará el protocolo, porque representa una táctica errónea: a) existe una considerable incertidumbre sobre su fundamento científico, lo que, sin ser incierto, implica olvidar que la estimación del calentamiento previsto puede estar equivocada tanto por exceso como por defecto; b) el precio de cumplir su mandato sería prohibitivo para la economía estadounidense, en contra de los cálculos más optimistas del IPCC; c) no sería justa porque países grandes en desarrollo, tales como India y China, no estarían obligados a cumplir las restricciones, sin admitir que sería más injusto aún no dejar que los países en desarrollo aspiren a cotas de bienestar equivalentes a las de los desarrollados, y d) no sería efectiva porque, al no incluir a los países menos favorecidos, no se conseguiría una reducción global de las emisiones, lo que es un inconveniente cierto y grave, tanto más cierto y más grave si Estados Unidos no reduce sus emisiones, que actualmente representan un 25% del total.
En esta situación, la deslocalización de industrias contaminantes hacia India o China se vería estimulada, y no sólo ya por las ventajas salariales, lo que reforzaría el impacto que el desarrollo de estos países va a tener sobre las emisiones globales.
En la reunión sobre el clima que se celebró en Montreal en diciembre de 2005 se produjeron pocas novedades: en el último momento la delegación de Estados Unidos se avino a discutir estrategias futuras, pero hubo de aceptarse que estas discusiones avanzarían por dos caminos paralelos: la de los firmantes del acuerdo de Kioto y la de los que suscribieran la Convención Marco de las Naciones Unidas sobre Cambio Climático, que incluye a Estados Unidos. En la práctica, lo que se busca es involucrar en las limitaciones a grandes países en desarrollo, tales como China, India y Brasil, cuya exención fue argüida como motivo por Australia y Estados Unidos para autoexcluirse del acuerdo.
No todo son noticias negativas desde Estados Unidos, ya que existe un decidido movimiento de abajo arriba (grupos sociales, grandes ciudades, Estados) para controlar las emisiones. Arnold Schwarzenegger, en California, se ha dejado aconsejar por expertos como Arthur Rosenfeld, último discípulo de Fermi, y se ha propuesto reducir las emisiones al 80% de las de 1990 en cuarenta y cinco años: por debajo de las del año 2000 en 2010, por debajo de las de 1990 en 2020 y al 80% de esta última cifra para 2050. En California, el consumo de energía per cápita es ya de 6.800 kilovatios/hora, inferior al consumo de los años setenta y casi la mitad de los 12.800 kilovatios/hora que corresponden a la media de todo el país. Además, esta política lleva aparejada importantes ahorros económicos para los residentes.
California no es el único Estado que ha empezado a tomar medidas. Así, por ejemplo, ocho Estados del noreste han acordado, entre otras medidas, limitar las emisiones en sus seiscientas centrales eléctricas, y lo mismo parece que va a suceder con otros Estados y grandes municipios, hasta representar la mitad del producto interior bruto de todo el país.
La casuística de los distintos países es muy variada. Las emisiones per cápita de China, que ocupa el lugar 139 entre 142 países en cuanto a sostenibilidad, son la décima parte de las de Estados Unidos y han aumentado un 49% desde 1990, por lo que sería crucial encauzar su inevitable expansión económica por una vía limpia. Rusia, cuyas emisiones per cápita son la mitad de las de Estados Unidos y tiene una industria en extremo obsoleta y contaminante, ha disminuido sus emisiones en un 23% y cuenta incluso con la posibilidad de vender derechos de emisión. España, incumpliendo su compromiso, ha sido el país de la Unión Europea que más ha aumentado sus emisiones, después de Chipre, y aun así parece que se permitirá el lujo de gastar energía en desalar agua de mar para regar campos de golf.

ÉTICA, RELIGIÓN Y LEY

El Protocolo de Kioto se sustenta en tres pilares de distinta consistencia: un cierto consenso científico, un componente importante de ciencia por consenso y un insuficiente consenso político internacional. Tanto su formulación como la falta de un acuerdo global sobre su puesta en práctica hacen que, en el mejor de los casos, sea sólo parte de la solución. Sin embargo, desde el punto de vista ético, tendría un doble significado: como testimonio a nuestros descendientes de que al menos nos hemos sacrificado por atenuar sus problemas, y como acto de devolución a los más desafortunados de parte de los recursos de nuestro planeta de los que nos hemos apropiado en el proceso de desarrollo.
Las instituciones religiosas se han mantenido esencialmente al margen del problema. Por esto ha causado cierta sorpresa que, a principios de 2006, nada menos que los evangélicos, base electoral de George Bush, uno de sus conversos tardíos, hayan propugnado pasar a la acción respecto a dicho problema, buscando excepcionalmente en la ciencia lo que no les proporciona la verdad revelada.
A pesar de que las relaciones de causa-efecto en el cambio climático se han establecido con bastante imprecisión hasta el momento, se ha abierto un nuevo frente en la lucha contra dicho cambio que pudiera ser más eficaz con el tiempo –cuando se refinen los modelos– que la meramente política: la vía legal. ¿Son las empresas emisoras de gases con efecto invernadero retrospectivamente responsables de la ola de calor del verano de 2003, que según algunos llevó a la muerte a miles de personas? De momento no, porque no es evidente que exista dicha relación de causa-efecto. Sin embargo, ya es posible litigar respecto a daños futuros. Así, en 2004, ocho Estados y la ciudad de Nueva York han demandado judicialmente a cinco compañías eléctricas norteamericanas para que reduzcan sus emisiones de carbónico, y más recientemente, el grupo ambientalista Friends of the Earth ha entablado una batalla legal con el gobierno de Estados Unidos respecto a las subvenciones para proyectos energéticos fuera del territorio. El Departamento de Justicia ha reclutado como experto de la defensa a David Legates, director del Centro de Investigación Climática de la Universidad de Delaware, quien en un detallado informe ha argumentado que está por ver si el calentamiento climático tiene origen antropogénico. Por parte de los demandantes, Michael MacCracken, antiguo jefe de la Oficina del Programa de Investigación sobre Cambio Global, ha defendido con no menos vigor las opiniones propugnadas por el IPCC. Es seguro que los futuros avances en el conocimiento del clima y en la legislación ambiental tenderán a exacerbar este tipo de confrontaciones legales.
En España hemos de cumplir con lo estipulado en el Protocolo de Kioto, puesto que es más reprobable un país que firma pero no cumple que uno que no firma pero cumple en parte. Las virtudes de dicha decisión deberían ser explicadas sin demagogia, no omitiendo la modestia de los resultados esperables y las considerables consecuencias económicas de dicha decisión.

01/08/2006

 
ENVÍA UN COMENTARIO
Nombre *
Correo electrónico *
Su comentario *
 
 
 
 

Normas de uso
Los comentarios en esta página pueden estar moderados. En este caso no aparecerán inmediatamente en la página al ser enviados. Evita las descalificaciones personales, los insultos y los comentarios que no tengan que ver con el tema que se trata. Los comentarios que incumplan estas normas básicas serán eliminados.

 
Deseo mostrar mi email públicamente
 
He leído y acepto la cláusula de privacidad.
 
 
 
Por favor, para evitar el spam necesitamos que resuelvas la siguiente operación matemática:
9 - 6  =  
ENVIAR
 
 
OTROS ENSAYOS DE FRANCISCO GARCÍA OLMEDO
RESEÑAS

 

BÚSQUEDA AVANZADA

Te animamos a bucear en el archivo de Revista de Libros. Puedes realizar tus búsquedas utilizando los siguientes criterios.

Todas las palabras
Cualquiera
Coincidencia
ENVIAR


Apúntate al boletín de Revista de Libros
ENSAYOS ANTERIORES
RDL en papel 187
RESEÑAS
 
  Apúntate a RdL
BLOGS
 
  Archivo RdL
 
Patrocinadores RDL