Entrada anterior: 5. Umbral de estabilidad del sistema climático y el problema de control
Dado pues que no parece existir un análisis del margen de estabilidad del sistema climático de la Tierra efectuado desde la teoría de sistemas tendremos que ir a examinar los procesos concretos que se producirían, y tratar de conocer, a partir de los mismos, en qué momento se inician fenómenos que llevan a la desestabilización.
Es muy interesante, antes de proseguir, examinar cómo la comunidad científica ha ido avanzando en la determinación de un límite peligroso. El interés principal reside en observar cómo, a medida que pasa el tiempo, las cosas se ponen peor. Bueno, hasta cierto punto, porque ya en 1989 el mencionado AGGG (Advisory Group on Greenhouse Gases[40], que agrupaba el conocimiento científico del momento de forma similar a cómo que lo recoge ahora el IPCC, pero sin la intervención de todos los gobiernos del mundo, decía taxativamente:
“Un incremento mayor de 1 ºC por encima de los niveles preindustriales puede iniciar respuestas rápidas, impredecibles y no lineales que podrían suponer daños ecológicos intensos.” (102)
Sabemos que el empleo del verbo ‘poder’ conjugado en condicional forma parte de la cauta jerga científica. Pero a efectos prácticos, digamos populares, sabemos también que debemos interpretar estas expresiones como auténticas predicciones.
El AGGG, un organismo en la órbita del Programa de Naciones Unidas para el Medio Ambiente, perdió operatividad una vez que, en diciembre de 1988, le sucedió el IPCC, de dependencia directa de la ONU.
A partir de entonces, el verbo se tornó más suave, más políticamente correcto. No iba a ser ya un pronunciamiento científico sin límites. Las conclusiones de los respectivos informes iban a ser aprobadas, línea a línea, palabra a palabra, por la unanimidad de los delegados políticos de todas las naciones del mundo. Y este hecho genera una presión sobre el proceso científico que no ocurre sin daño. Como muestra, la comparación de los textos presentados por los científicos en el apartado relativo a los impactos, y el resultado final tras la negociación política. Todas las expresiones relativas a que tal cosa ocurrirá probablemente, muy probablemente, o con muy alta confianza fueron, o bien eliminadas, o bien sustituidas por el término ‘se proyecta que’, mucho más ecléctico (103). También la imagen sobre los ‘motivos de preocupación’ que publiqué en una entrada anterior de esta misma serie fue eliminada del informe-resumen debido al veto de los Estados Unidos, Rusia y Arabia Saudita. Era demasiado fuerte.
Presión institucional en favor de la moderación
Para todo científico, la continuación de sus trabajos depende de la aportación del estado a su departamento universitario. Es el estado, en función de la ideología del partido gobernante, quien fija las prioridades de investigación, y quien tiene en su mano desactivar económicamente a quien presenta resultados inconvenientes. Todo ello sin necesidad de que el interfecto haya cometido error científico alguno. Nos señala James Hansen que, de forma general, existe una presión institucional hacia la moderación de los resultados de la investigación.
Es así como Hansen se refiere a la reticencia científica:
“Creo que existe presión sobre los científicos para ser conservadores. Los papers son aceptados para su publicación siempre que no vayan demasiado lejos y están henchidos de salvedades. Las salvedades son esenciales en la ciencia, nacida del escepticismo. Esencial para el proceso de investigación y verificación. Pero hay un problema de grado. La tendencia al ‘gradualismo’ cuando nos encontramos con una nueva evidencia puede ser dañina para la comunicación en el caso de un problema con perspectiva temporal breve .” (104)
Ciertamente, los científicos que han hecho aportaciones al conocimiento del tipo ‘sorprendente’ han pasado por serias dificultades. Son muchos los ejemplos, desde el movimiento tectónico y movilidad pasada de los continentes hasta las revelaciones de la mecánica cuántica, como muy bien documentó Bernard Barber en un artículo en Science de 1961 (105). Hansen también conoció estas sevicias, y sus colegas lo saben: tras su declaración en 1988 al Congreso de los Estados Unidos previendo el aumento de la temperatura de la Tierra (que después se ha cumplido[41]), le fue retirada su asignación en la NASA cuando estaba a mitad de su carrera (106).
El efecto Mercer
Ya le había ocurrido a John Mercer, un glaciólogo de campo que fue el primero en darse cuenta, a principios de los 70, de la posible fragilidad de la Antártida Occidental. Fue severamente desactivado y vapuleado, aunque tengo la impresión de que su pecado principal fue relacionar en el mismísimo abstract la amplificación polar del sistema climático [ver: La amplificación polar: el elemento clave] con el crecimiento del consumo de combustibles fósiles:
“Si el consumo global de combustibles fósiles continúa creciendo al ritmo actual, el contenido de CO2 en la atmósfera se doblará en unos 50 años. Los modelos climáticos sugieren que el efecto invernadero resultante será magnificado en las latitudes altas. El crecimiento de la temperatura que predecimos a 80º de latitud sur puede iniciar una rápida desglaciación de la Antártida Occidental que produciría un incremento del nivel del mar de 5 metros.” (107)
Nótese que Mercer no dice cuándo se produciría esa elevación del nivel del mar. Pero desde entonces, y a lo largo de unos 25 años, los esfuerzos se dirigieron principalmente a desmentir su hipótesis o a mostrar que, de ser cierta, ese nivel disruptivo del nivel del mar ocurriría, si acaso, dentro de decenas de miles de años. Sin embargo, en la última década ha sido reivindicado (108), hasta el punto de que la Antártida Occidental haya sido establecida como uno de los puntos de ruptura del sistema climático. De hecho el primero[42], aquél que supondría la interferencia antropogénica peligrosa en el sistema climático provocando un (previsiblemente brusco) aumento del nivel del mar inasumible.
El efecto Mercer parece haber prendido en la comunidad científica relacionada con el clima. Es muy difícil atribuir sesgo a cualquier trabajo tomado individualmente. Al fin y al cabo estamos hablando de ciencia, el invento humano que maximiza la objetividad, y minimiza la subjetividad. Pensar que esto ocurre así sería realmente inquietante, y yo lo descarto con convicción, por lo menos en las ciencias duras. Pero si parece existir una señal, epistemológicamente hablando, que nos induce a sospechar de un sesgo hacia la moderación, que comparto con la historiadora de la ciencia y especialista en cambio climático Naomi Oreskes. De ser así, cuidémonos de no responsabilizar a la ciencia stricto sensu, sino a sus estructuras administrativas.
En cualquier caso, el proceso de avance científico es inherentemente trazable[43], lo que supone disponer de un mecanismo de auto-corrección que favorece que, más pronto que tarde, los posibles errores sean corregidos. Desde luego esto ha ocurrido con la ciencia del clima, dada además la intensidad de los ataques a los que ha sido y sigue siendo sometida.
Para los incrédulos al respecto de las presiones a las que se somete al proceso científico, recomiendo la lectura de los libros Undermining Science – Suppression and Distortion in the Bush Administration (157), The Republicar War on Science (158) y el muy reciente Fool Me Twice: Fighting the Assault on Science in America (159). Pero especialmente el titulado Censoring Science, centrado en las dificultades que pasó James Hansen durante la época Bush (160). El Congreso de los Estados Unidos realizó a finales de 2007 un informe al respecto, titulado Committee Report: White House Engaged in Systematic Effort to Manipulate Climate Change Science (161). A mí, todo esto me parecía imposible que ocurriera. Pero ocurre, y mucho más de lo que creen quienes piensan que es posible.
La literatura científica de 2000 en adelante
La evolución del avance científico en la década de 2000 puede resumirse, en mi opinión, y en base a la literatura académica que concentra ese conocimiento, de la siguiente forma.
El grupo mayoritario sigue aferrado a sus modelos, estableciendo límites y efectuando predicciones mediante cálculos de elevadísima complejidad. Sus trabajos constituyen el núcleo de la integración de conocimiento que recoge el IPCC pero, como hemos visto, esta forma de análisis del sistema climático impide, de forma inherente, el análisis de la estabilidad del sistema[45]. De forma general, este grupo asumió el límite de los +2 ºC como un dato procedente de la sociedad, y su investigación se orientó a encontrar qué condiciones, en términos de emisiones y de concentración de GEI, habría que cumplir para no superar este valor, extendiendo esta línea hacia las soluciones energéticas. El análisis detallado de los distintos gases, partículas y sus interacciones formaría parte también de este grupo.
[Nota: Para no hacer demasiado larga esta entrada he separado parte del texto que tenía escrito y lo he convertido en anexo, que puede encontrar aquí. Se trata de una descripción cronológica de cómo los modelistas han ido refinando sus cifras en base a qué significaría, en términos de concentración y emisiones, ajustarse a los 2 ºC como límite.]
Otro grupo, más reducido, se dedica a las mediciones reales. Cómo evolucionan las emisiones, la concentración, y la radiación medida a través del satélite ERBE[45] el cual, lanzado en 1984, tuvo una vida de más de 20 años (109). Pero no sólo. El satélite GRACE[46] permite gran exactitud en la medición de la pérdida de masa de las grandes concentraciones de hielo del planeta (110). La red de sensores marinos ARGO ofrece medidas de la cantidad de calor almacenada en el mar de una resolución y fiabilidad nunca antes alcanzada (111).
Otras mediciones que avanzan mucho a lo largo de esta década son las relacionadas con la paleoclimatología, a saber, la medición de los climas del pasado a través de indicadores intermedios tales como, entro otros, isótopos, el análisis de los hielos acumulados y las bacterias foraminíferas de los fondos oceánicos. Para los tiempos más recientes, los últimos 2000 años, se emplean también los anillos de los árboles como una de las medidas más confiables (112). Resulta sorprendente la precisión que se puede llegar a alcanzar con el análisis de estos proxies (113, 114). Son de alto interés para ajustar los modelos matemáticos, pues es preciso que éstos sean capaces de reproducir los climas del pasado[47].
Un grupo más reducido parece comenzar a asumir que los cambios climáticos no son graduales, sino súbitos, abruptos, lo que está en consonancia con el comportamiento exponencial del que nos informa la dinámica de sistemas y que ya fue señalado por Stephen Schneider en 1996 y en 2000 (115,116), destacando las sorpresas que el sistema climático nos tiene reservadas, junto a su irreversibilidad. Darse cuenta de que, hace exactamente 12.679 años, el clima cambió bruscamente de un año para otro (114), deriva a muchos climatólogos a examinar esta posibilidad para el presente. En la literatura académica esta línea fue señalada (casi) por primera vez en 2001 por J.G. Lockwood:
“Es preciso enfatizar que el sistema climático es no lineal, a menudo lejos de su equilibrio y que, por tanto, hay que esperar que muestre patrones complejos de comportamiento con saltos bruscos desde un patrón al siguiente.” (117).
Más de cara al público, uno de los detonadores fue un informe secreto del Pentágono, bautizado con la rúbrica ‘imaginar lo impensable’ (118). La leyenda dice que resultó olvidado en un disquete para que fuera recogido por personal afecto a los medios de comunicación (119). La existencia del informe fue mencionada en la elitista revista Forbes, cosa que no le ha impedido mantener, todavía hoy, una línea negacionista dura. La película El día de mañana está basada en las tesis de dicho informe. Sin embargo, la Academia Nacional de Ciencias de los Estados Unidos había emitido ya un sesudo trabajo sobre Abrupt Climate Change, en cuyo título se destacaba que las sorpresas de que hablaba Schneider son inevitables (120). Por aquél entonces se estimaba que el punto de ruptura principal era la corriente termohalina del Atlántico, cuyo caudal podría reducirse bruscamente, enfriando bruscamente toda Europa y Norteamérica. Sin embargo, este elemento de peligro ha decaído en los últimos años, quién sabe si en una manifestación actual del efecto Mercer.
Pero no fue hasta 2008 cuando Timothy Lenton, de la Universidad de East Anglia en Inglaterra, describió formalmente los tipping elements y sus correspondientes tipping points, en una (casi) primera aplicación de la teoría de sistemas aplicada al sistema climático (68) [ver: ¿Qué son los ‘tipping points’ del sistema climático?].
Entretanto, las cosas se iban poniendo peor. La contribución de los aerosoles de azufre al apantallamiento solar, mostrando que la reducción de la combustión de carbón, emisora de estos azufres, supondría un aumento de la temperatura en lugar de una disminución [ver: El oscurecimiento global: 1. No apto para menores], significó un eslabón importante en el camino hacia el empeoramiento de las perspectivas (121). A este respecto, Veerabhadran Ramanathan encontró que, si estos aerosoles no existieran, el forzamiento climático actual resultante supondría el incremento inevitable de 2,4 ºC adicionales a los 0,8 ya realizados[48] (122). Asimismo se iba advirtiendo que la eficacia[49] de algunos gases GEI antropogénicos distintos al CO2 era superior a lo esperado. Por ejemplo, en el caso de los CFC y sus sustitutos, los HFC, si la concentración de CO2 fuera estabilizada a 450 ppm, en 2050 el forzamiento radiativo de estos gases podría significar nada menos que el 45% del total (123). A este respecto conviene saber que una sola fábrica de CFC/HFC es capaz de producir un forzamiento climático equivalente al que recibió el planeta para abandonar la edad de hielo (124).
Otro elemento perturbador fue la publicación de dos trabajos que sugerían la posibilidad de anticipar los cambios abruptos, a modo de una señal de advertencia que consistiría, precisamente, en un enlentecimiento de la dinámica del sistema (125, 126) justo antes de la transición de estado. Esta situación podría estar dándose hoy según cuál fuera el parámetro considerado. Sin embargo, estos métodos han sido acusados de deficiencias en la aplicación de la teoría de sistemas no lineales (127) o de que la todavía escasa resolución suficiente de las técnicas paleoclimatológicas de cara a este objetivo convierten a estos métodos de detección en impracticables (128). Un reciente trabajo de recopilación niega que estos avisos sean perceptibles en el caso de que el forzamiento sea muy rápido con respecto a las constantes de tiempo inherentes al sistema, lo que es el caso actual del sistema climático y la velocidad de crecimiento de los GEI (129). Sin embargo, el esfuerzo para encontrar señales de aproximación a algún tipping point concreto no desfallece (130).
A todo esto es interesante darse cuenta de cómo el segundo informe del IPCC (1995), aún sin contener, estatutariamente impedido como está, recomendación de ningún tipo de objetivo, centraba sus análisis en una duplicación de la concentración de CO2, establecida en 550 ppmv. Los informes tercero (2001) y cuarto (2007) se centraron en 450 ppm. Sin embargo, su presidente, Rajendra Pachauri, declaraba en 2009:
“Como presidente del Grupo Intergubernamental sobre el Cambio Climático (IPCC) no quedo tomar partido puesto que nosotros no elaboramos recomendaciones… pero como ser humano apoyo totalmente este objetivo. Lo que está ocurriendo, y lo que probablemente va a ocurrir, me ha convencido de que el mundo debe ser realmente ambicioso y moverse con determinación hacia el objetivo de 350.” (131)
El objetivo de las 350 ppmv (como máximo) surgió a finales de 2007, en la ponencia que pronunció James Hansen en la conferencia anual de la American Geophysical Union (132), aunque no adquirió categoría académica formal hasta febrero de 2008, en un paper firmado por 10 autores (133). Algo enterrado en el texto puede leerse que serían mejor 325 ppmv, o incluso 300 ppmv si se desearan restablecer los hielos marinos a la superficie que tenían hace 30 años (134).
Es muy importante destacar que este objetivo se refiere a sólo CO2, y supone que las emisiones de los demás gases GEI han sufrido a su vez una reducción muy significativa, próxima a cero, con el fin de compensar la reducción del efecto de apantallamiento solar de los aerosoles de azufre que, al reducirse, harían aumentar la temperatura de la Tierra en vez de disminuirla. Estos aerosoles se originan principalmente en la combustión del carbón en las centrales de generación de electricidad. En rigor, estas factorías deberían ser clausuradas por ser su contribución a las emisiones de CO2 la más elevada de todas[50] [ver: El oscurecimiento global: 1. No apto para menores].
Más todavía. Hans Joachim Schellnhuber, director del instituto alemán Potsdam Institute for Climate Impact Research, había señalado en septiembre de 2008 a un columnista de The Guardian que cualquier aumento de la concentración de GEI respecto a la era preindustrial supone un serio riesgo:
“Es un argumento muy radical, pero nadie puede afirmar con seguridad que una concentración de 330 ppm es segura.” (137)
Recordemos que Hansen, estadounidense, y Schellnhuber, alemán, son los dos climatólogos más respetados del mundo.
De modo que la ventana que antes teníamos se nos ha cerrado. Dado que estamos a 490 ppmv, no hay margen. Habrá que extraer dióxido de carbono de la atmósfera. Pero ¿son estos 450, 350, o 330, el límite que buscamos? ¿Lo intolerable?
La solución, en el próximo capítulo de esta serie.
Próximas entradas
6. Determinación el umbral de estabilidad “desde abajo” (2)
7. Elección de la cifra objetivo
8. Viabilidad de la consecución del objetivo
9. Herramientas a disposición
10. Conclusiones
Examinar referencias
Notas
[40] Grupo Asesor sobre Gases de Efecto Invernadero
[41] Se ha cumplido su ‘mejor estimación’ a pesar de las malas artes de Michael Crichton, pues previó una erupción volcánica con influencia global, que se produjo con el Pinatubo
[43] Cuando algo no cuadra, es siempre posible seguir el proceso hacia atrás y detectar donde radicaba el fallo. Esta situación que ocurre raramente en la literatura científica, es aprovechada por el negacionismo para insistir en la existencia de defectos en el proceso, por mucho que haya sido demostrado inequívocamente que sus observaciones son incorrectas
[44] Puede decirse que esta línea de investigación supone adentrarse en el caos, pues un sistema (eventualmente) desestabilizado pierde el determinismo, con lo que no es posible predecir su comportamiento y sólo se pueden delimitar algunas características comunes a las respuestas posibles.
[45] Earth Radiation Budget Experiment
[46] Gravity Recovery and Climate Experiment, proyecto conjunto de EE.UU. y Alemania
[47] Sin embargo, no consiguen reproducir los extremos, por ejemplo el máximo térmico del paleoceno-eoceno
[48] En particular, demostró que la probabilidad de que el incremento sea mucho mayor del esperado es mucho mayor que la posibilidad contraria
[49] Intensidad de su contribución al calentamiento global
[50] En su defecto, el CO2 debería ser ‘secuestrado’, aunque la tecnología para ello no está todavía madura y existen razonables dudas sobre su viabilidad futura (130,131)
Una vez más, buenísimo. Me mantienes en vilo ante las mayores revelaciones que nunca jamás he leído, y voy descubriendo paso a paso. Eskerrik asko y un abrazo.
Me gustaMe gusta
Gràcies a tu per seguir-me.
Me gustaMe gusta
Felicidades Ferrán por este post, apasionante como tantos otros del blog. Sólo te apunto un par de correcciones menores:
– El documento «Political interference with climate change science under the Bush administration» ya no se puede descargar en la dirección que proporcionas aunque, afortunadamente, está disponible en esta otra:. http://democrats.oversight.house.gov/images/stories/documents/20071210101633.pdf
– El trabajo de Timothy Lenton y sus colegas de East Anglia sobre los tipping elements vió la luz en 2008, no en 2009.
Reitero mi enhorabuena y agradecimiento por las muchas y valiosas «pistas» que nos proporcionas para seguir profundizando en el tema del cambio climático. Un abrazo fuerte,
Paco Heras
Me gustaMe gusta
Muchas gracias por tus precisiones , Paco.
Un fuerte abrazo también para ti.
Ferran
Me gustaMe gusta