El análisis de los puntos focales climáticos actualmente en vigor, +2 ºC como límite de incremento de la temperatura media de la Tierra, y 350 ppm de concentración máxima de CO2, debe incluir necesariamente una comprensión de su origen. En este terreno, de tan importantes implicaciones políticas, económicas y sociales, es muy importante conocer la historia de la gestación de los criterios capaces de acabar constituyendo un objetivo global. En ella reside su eventual credibilidad, condición necesaria para su aceptación general. Con este mismo fin es preciso examinar previamente cómo se miden estos valores.
¿Cuál es la temperatura media de la Tierra?
Si tuviéramos que establecer el objetivo climático en términos de incremento máximo de la temperatura media de la Tierra, lo primero a tener en cuenta es la referencia de base: respecto a cuándo se establece este incremento. No son lo mismo, pongamos por caso, 2 ºC más respecto al promedio de la era preindustrial (<1850) que respecto al promedio de los períodos 1880-1920 o 1951-1980 con los que suele presentar los datos la NASA. A veces se considera también la temperatura de 1990, año del protocolo de Kioto, o la del año 2000. En este sentido, es importante que los comunicadores tengan siempre presente la referencia de base de las informaciones relativas a la temperatura media del planeta que suministran al público.
Sin embargo, la empresa no es nada fácil.
La cuestión de la referencia de base es muy relevante porque, a menudo, al no partir de una referencia común se corre el riego de comparar situaciones distintas creyendo que son la misma. En el terreno climático las décimas de grado importan, y mucho[12]. La propia comunidad científica, que trabaja en grupos independientes, toma referencias muy distintas en sus trabajos, y establecer conclusiones en relación a una misma referencia de base integrando resultados de equipos distintos resulta complicado incluso para los propios investigadores.
Como muestra tenemos un estudio de Rachel Warren, del Tyndall Centre for Climate Change Research británico, quien comparó los impactos del cambio climático de 108 trabajos e intentó llevarlos a una referencia común: la preindustrial, entendida como la más representativa (53). El texto fue presentado a la revista Climatic Change en el otoño de 2008, pero no fue aceptado y publicado hasta el verano de 2010, debido sin duda a las exhaustivas revisiones de que debió ser objeto por parte de los autores de los trabajos referenciados (54).
Solventar este inconveniente sería más sencillo si, en lugar de una referencia ‘preindustrial’ sobre la que basar el incremento producido por el cambio climático en curso, pudiéramos hablar en términos de valores absolutos en lugar de incrementos relativos. Es decir, si fuéramos capaces de afirmar que la temperatura media de la Tierra no debe superar, por ejemplo, 17,0 ºC.

Red de estaciones de medida de la temperatura de la Tierra (Fuente: National Climatic Data Center, NOAA)
Pero esto es menos fácil de lo que parece. El problema reside en que, desde el punto de vista práctico, resulta más preciso hablar de la variación de la temperatura (la denominada anomalía térmica) que de temperatura propiamente dicha. Ello es debido a que, al calcular los promedios de temperatura, elementos tales como la ubicación de los elementos de medición en las estaciones meteorológicas resultan relevantes de cara al resultado. Por ejemplo, los termómetros situados a mayor altura respecto al suelo tienden a entregar una medida levemente menor. Además, las ubicaciones cercanas a las áreas urbanas tienden a presentar valores más cálidos.
Existen además los problemas de calibración. Si bien es posible demostrar que se compensan mutuamente, siempre queda un pequeño margen de error que impide entregar un valor preciso, lo que daría lugar a discusiones inacabables. Por otra parte, la complejidad de las mediciones de temperatura por satélite presentan conjuntos de valores que son distintos a los que ofrece el promediado de las estaciones meteorológicas. Finalmente, cada equipo emplea métodos estadísticos distintos tanto de promediado como de estimación de los valores de temperatura de las ubicaciones donde no hay estaciones meteorológicas.
Todo ello hace que no haya un acuerdo definitivo sobre cuál es exactamente la temperatura media de la Tierra. Por ejemplo, la National Oceanic and Atmospheric Administration de los Estados Unidos declara que la temperatura media de la Tierra, promedio 1880-2000, era de 13,9 ºC (8,5 ºC en tierra y 16,1 ºC en el mar); la NASA, en cambio, parte de un valor de 14,0 ºC en el promedio 1951-1980, tras considerarla más confiable que los 13,74 ºC del promedio 1880-1920 con los que trabajaba hasta el año pasado (55). Por su parte, el Hadley Center británico, al que se le había criticado el hecho de ofrecer valores inferiores al no tener en cuenta las temperaturas a las mayores latitudes del Ártico, ha corregido recientemente esta situación, y se ha alineado ya, en términos de anomalía térmica (variación), con los resultados de los otros dos institutos (56,57). Sin embargo, no ofrece en estos trabajos un valor de temperatura media en términos absolutos, si bien en 1999, mucho antes de la corrección de 2012, la había establecido en 14,0 ºC (58).
En todo caso al final, para ser confiables, los resultados de los distintos equipos, partiendo de los cinco conjuntos de datos con los que se trabaja[13], deben ser consistentes – y lo son – lo que no significa que sean idénticos.
En cambio, cualquiera que sea el método elegido para las mediciones y los promedios, las situaciones descritas no afectan a las variaciones de temperatura, con la condición inexcusable de que el método empleado sea siempre el mismo dentro de un mismo grupo. Medir un incremento de un grado en un termómetro mal calibrado es mucho más preciso que tomar nota del valor concreto de una temperatura que no se corresponde con la realidad.
Criterios para la medición del objetivo
En el otro extremo, además de la referencia importa también cómo medimos el incremento de temperatura, pues el movimiento de décimas se produce también a la hora de la medición, de año en año. Luego es preciso acordar un método de medición, si no de la temperatura, por lo menos del incremento de temperatura.
Esto es así porque el forzamiento antrópico del sistema climático, principalmente en forma de gases de efecto invernadero y de aerosoles reflectantes, se superpone a la denominada ‘variabilidad natural’, propia del sistema climático sin forzamiento. Esta variabilidad tiene dos componentes principales: 1) el ciclo solar, de 11 años, y 2) las variaciones de la corriente oceánica del Pacífico sur, en un ciclo denominado ‘El Niño / Neutro / La Niña’ de periodicidad irregular, pero raramente superior a los 10 años. Algunas erupciones volcánicas de especial intensidad, como la del volcán filipino Pinatubo en 1991, entran también en la categoría de la variabilidad natural.
En estas condiciones, ocurre a menudo que hay años en que la temperatura es inferior a la del año anterior. Es típico, por ejemplo, del año siguiente a la ocurrencia de El Niño, o de los que han sufrido erupciones volcánicas significativas. Sería pues una locura basarse en la temperatura de un año concreto para decir si ya hemos alcanzado los dos grados de más cuando, al año siguiente, la temperatura podría ser hasta un cuarto de grado inferior. El conflicto estaría servido.

Superposición de los incrementos de temperatura de los cinco grupos que la calculan. Referencia 0 en 1990 (Fuente: Skeptical Science)
La mejor manera de resolver esta cuestión es establecer, para cada año, no tanto la temperatura media del año en cuestión sino el promedio de ése año y los 10 anteriores (59). Es lo que se denomina ‘media móvil’, y tiene la virtud de filtrar matemáticamente (eliminar) el efecto de la influencia de los ciclos naturales de periodicidad inferior a 11 años. Es lo que muestra la figura adjunta, que a su vez compara los resultados de los tres distintos institutos que miden la temperatura de la Tierra sobre la superficie y los dos que lo miden por satélite (mucho más reciente). En la figura se toma como referencia ’0′ la media móvil de 1951-1980 pero, en todo caso, la referencia estándar es el promedio de la era preindustrial.

Anomalía térmica global en la superficie relativa al período de base 1951-1989 para (a) media móvil de 12 meses y (b) medias móviles de 5 años y 11 años (Fuente: NASA, ref. 59)
Adoptaremos aquí la convención de la NASA. Mediremos la temperatura en términos de medias móviles de 11 años, y asumiremos el valor de incremento de temperatura en 2000 en +0,7 ºC en relación al promedio preindustrial. Esta media móvil ha aumentado en 0,2 ºC en la primera década del siglo, con lo que, en 2010, el incremento total de temperatura era ya de 0,9 ºC. Así promediada, y bajo los criterios estándares de la NASA, la temperatura media de la Tierra en 2010 era de 14,52 ºC (el valor concreto del año fue de 14,62 ºC, el más cálido de la historia, que superó a 2005 por una centésima) (60).
Cuidado con el sesgo de correlación
Así pues, si la temperatura ha aumentado ya cerca de un grado desde la era preindustrial… si el límite fueran 2 grados más, sólo quedaría poco más de otro[14].

Para períodos más cortos y recientes la pendiente es creciente, lo que indica calentamiento acelerado (Fuente: IPCC TAR, 2007)
En este punto se puede producir un error de percepción muy habitual. El hecho de que estemos a mitad de camino de un (supuesto) límite puede darnos a entender que el grado que falta para alcanzarlo va a requerir el mismo tiempo que el empleado para recorrer la primera mitad, es decir, que los +2 ºC se alcanzarían dentro de unos 100-150 años. Error. La respuesta del sistema climático a la perturbación no es proporcional – si así fuera, a doble tiempo correspondería doble temperatura. Por el contrario, según puede verse en la figura correspondiente al 4º informe del IPCC, para períodos más cortos y recientes la pendiente es creciente, lo que indica calentamiento acelerado (61).
Esta creencia en la proporcionalidad de la respuesta climática se produce debido al denominado ‘sesgo de correlación’ (62). Tendemos a creer que el efecto sigue una ley parecida a la causa que lo produce, cuando de hecho, en la mayoría de las circunstancias, y desde luego la climática, no es así.
¿Autogol del negacionismo?
Mencionemos finalmente que, en 2011, el negacionismo organizado, siempre descreído, elaboró y presentó por su cuenta un método de cálculo de la temperatura, partiendo de lecturas de 39.000 estaciones meteorológicas (63). El método no era estrictamente nuevo desde el punto de vista estadístico, pero ellos decían que si (64), sin que se sintieran obligados a citar el texto que describía el fundamento teórico, que databa de 1999 (65). Se trata del proyecto bautizado como BEST (Berkeley Earth Surface Temperature), nombre redondo para dar a entender que esta iniciativa privada, que ellos calificaban de independiente, era mejor que las demás, financiadas con fondos públicos. Esta calificación era presentada sin rubor aparente, a pesar de que el proyecto estaba financiado, entre otros, por bien conocidos próceres del negacionismo climático-económico tales como los hermanos Koch y el mil millonario William K. Bowes, generoso financiador de la promoción de la ideología ultraliberal (66). Decían que el método era transparente con la sola intención de sugerir que los demás no lo eran, cuando en realidad los datos de partida fueron los de las instituciones oficiales, que son públicos. El equipo de investigación se organizó alrededor del Novim Group que, bajo el eslógan Just Science, incluye a ingenieros mecánicos y a expertos en marketing (67).
Como no podía ser de otra manera salvo que se pretendiera incurrir en un nuevo fraude, el proyecto BEST llegó básicamente a las mismas conclusiones que los institutos oficiales. Por lo menos sirvió para que Richard Muller, el científico que lideró el proyecto, cambiara su posición y declarara a BBC News(66), y en algún foro tradicionalmente cercano al negacionismo (69) que si, que la Tierra se estaba calentando, y que ya llevamos alrededor de un grado más. Lo cual nos lleva a preguntarnos cuál era la verdadera intención de los promotores del montaje: siguieron afirmando, contra toda evidencia, que no había sido demostrado que el problema fuera el dióxido de carbono de los combustibles fósiles (70)[15].
En las entradas siguientes examinaremos cómo esta cifra alcanzó rango político y se convirtió en punto focal, examinando su historia y demostrando que su fundamento científico es débil. Es más: es totalmente inexistente.
Examinar referencias
Sumario tentativo de la serie
Notas
[12] La cantidad de calor que los océanos del mundo están absorbiendo debido al desequilibrio energético al que están sometidos equivale a dos bombas Littel Boy (la de Hiroshima) cada segundo (71, basado en 72)
[13] La NASA, la NOAA estadounidenses, y el Hadley Center británico a partir de mediciones en la superficie, y RSS (Remote Sensing Systems) y UAH (University of Alabama in Huntsville)
[14] Siempre que acordáramos que los impactos asociados al este incremento totémico de +2 ºC fueran realmente tolerables. Cosa que, como veremos, acordaremos difícilmente
[15] El proyecto no tenia relación con la atribución del cambio climático, sino solo con las medidas de temperatura. Los negacionistas podían afirmar que no habían demostrado la atribución, por el simple motivo de que ni siquiera lo habían intentado. Sin embargo, este aspecto está fuera de toda duda desde hace muchos años (73,74,75), y sigue siendo corroborado en distintos trabajos mediante nuevos métodos (76).
El límite de los 2ºC como punto focal me parece que lleva a muchos malentendidos. Da la impresión, cuando llega a algún artículo periodístico (muy muy pocos en estas latitudes del sur), que pudiéramos fijar el termostato a nuestro gusto: hoy en 2 , y si mañana nos resulta demasiado, lo bajamos a 1,5. ¡Cómo si fuera una discusión con el compañero del escritorio de enfrente por la temperatura óptima de la oficina! Así se leyeron aquí en los diarios las declaraciones de Cristiana Figueres (¿por primera vez en Durban o fue algo anterior?)
Me gustaMe gusta
Hola Nube,
Los 1,5 ºC debieron plantearse en Cancún. Están mencionados en un texto borrador del que dispongo, pero tengo que confirmar si fue el finalmente aprobado, porque en la web de UNFCCC no queda claro. Sin embargo la redacción es muy suave y no compromete más que a seguir pendientes de lo que dice la ciencia. Cuando lo sepa seguro te contesto.
En todo caso la idea general es que cuando se decida actuar, el sistema climático responderá enseguida. No es así en absoluto. De hecho los 2 ºC ya los tenemos prácticamente asegurados.
Me gustaMe gusta
Nube, te confirmo que los acuerdos de Cancún lo mencionan. Como los de Durban, pero no más que esto.
Me gustaMe gusta
Preocupante que duda cabe.
Me gustaMe gusta