Par le Vincent Courtillot, Professeur de géophysique à l’université Denis-Diderot (Paris VII)
Jean-Paul Guitton : La plupart d’entre vous ne connaissaient sans doute pas le professeur Courtillot avant le 20 décembre 2007. Ils auront en effet découvert ce jour-là dans leur quotidien national préféré que Vincent Courtillot était au cœur d’une querelle scientifique concernant le réchauffement climatique et que sa réputation scientifique était directement mise en cause.
Sans m’appesantir sur les avatars du « droit de réponse » qu’a découverts à cette occasion notre hôte, je voudrais tout de même citer quelques lignes d’un grand quotidien du soir : « Il est peu courant de voir un quotidien généraliste au cœur d’une polémique scientifique pointue. C’est pourtant le cas du Monde, après la publication, dans son édition du 20 décembre 2007, d’un article intitulé « Une étude « climato-sceptique » soulève des soupçons de fraude ».
Lire l'article complet
De ces soupçons calomnieux, Vincent Courtillot a fort heureusement pu s’expliquer il a une quinzaine de jours devant ses confrères de l’Académie des sciences qui ne lui ont pas, je crois, ménagé leurs applaudissements.
Si j’ai cru devoir faire ce petit rappel, c’est parce qu’il nous place au cœur de notre sujet du jour. Dans son cycle de réflexions sur les relations de l’homme et de la nature l’Académie d’éducation et d’études sociales devait en effet chercher à mieux comprendre si le réchauffement climatique a des causes humaines et si un comportement plus vertueux à l’égard du fameux CO2 avait des chances d’inverser la tendance. Nous aurions pu faire appel à Al Gore ou à quelque climatologue du GIEC (Groupe international d’experts sur le changement climatique), tout auréolé du prestige qui s’attache au prix Nobel, fût-il de la paix, qui nous aurait vraisemblablement expliqué que oui.
L’AES a préféré faire appel à l’un des meilleurs géophysiciens français que je veux maintenant vous présenter.
Ancien élève de l’École des mines de Paris, docteur ès-sciences, diplômé de l’Université de Stanford, où il a également enseigné, Vincent Courtillot est professeur de géophysique à l’université Denis-Diderot (Paris VII). Géophysicien, il est un spécialiste du paléomagnétisme : il a apporté de nombreux résultats sur les déformations continentales, les épanchements basaltiques ainsi que leurs conséquences.
Je ne m’étendrais pas sur les travaux scientifiques auxquels a participé Vincent Courtillot. Je voudrais plutôt insister sur l’originalité des résultats auxquels il est parvenu, s’agissant notamment de l’extinction en masse des espèces qui définit la limite entre les ères secondaire et tertiaire.
Contrairement à ce que l’on croyait auparavant, la disparition des dinosaures ne serait pas due à la chute de météorites, mais au volcanisme. Cette importante découverte a justifié son élection en 2003 à l’Académie des sciences, dans la section des sciences de l’univers.
S’il enseigne à l’université Denis-Diderot, Vincent Courtillot poursuit ses recherches au sein de l’Institut de Physique du Globe de Paris , à la tête du laboratoire de paléomagnétisme qu’il y a créé dès 1980 ; il est directeur de l’IPG depuis 2004.
Parallèlement à ses activités d’enseignant-chercheur, Vincent Courtillot a été appelé à exercer à plusieurs reprises de hautes fonctions dans l’administration, comme directeur scientifique pour les sciences de la terre et de l’univers à la direction de la recherche du ministère (1988-89), directeur de la recherche et des études doctorales au ministère de l’éducation nationale (1989-1993), conseiller spécial au cabinet de Claude Allègre en 1997-98, puis directeur de la recherche au ministère de l’éducation nationale, de la recherche et de la technologie de 1998 à 2001.
Les recherches actuelles de Vincent Courtillot et de son groupe s’orientent vers la modélisation des conséquences climatiques des grands « traps » (plateaux basaltiques). C’est pourquoi un spécialiste de paléomagnétisme peut nous parler ce soir du réchauffement climatique : nous l’écoutons.
Pour rendre compte de la communication qu’il a prononcée devant l’AES, le professeur Vincent Courtillot a bien voulu nous autoriser à reproduire un texte publié dans les Annales des Mines (série « Responsabilité & Environnement », numéro 50, avril 2008), dont nous remercions très vivement la rédaction.
Quelques éléments de débat scientifique dans la question des changements climatiques
Le cœur du débat n’est-il pas de savoir :
1) s’il y a réchauffement climatique ;
2) quelle est la part du CO2 dans le phénomène.
Il faut essayer de bien distinguer ces deux questions et tenter d’y répondre séparément. Une partie des désaccords possibles vient justement du fait que l’on ne les sépare pas suffisamment. Pour ce qui est du réchauffement climatique global accepté, chacun le sait, comme une vérité bien établie par le plus grand nombre actuellement, nous sommes quelques-uns à découvrir avec étonnement (et peut être naïveté, certains le penseront à coup sûr) que les données d’observation des stations météorologiques ne sont pas si simples à traiter et à comprendre. En revanche, pour ce qui est du gaz carbonique, l’augmentation de sa concentration depuis 150 ans dans l’atmosphère est indubitable : elle est liée à l’exploitation par l’homme des réserves de carbone fossiles.
Le compte rendu des travaux du GIEC (Groupe international d’experts sur le changement climatique), dans sa partie rédigée pour les décideurs politiques, se conclut par une phrase qui dit en gros qu’en 5 ans (entre le précédent rapport et celui-ci) les auteurs du rapport considèrent que la probabilité que le réchauffement climatique soit dû à l’élévation de la teneur de l’atmosphère en gaz carbonique d’origine anthropique est passée de 60 à 90 % : « Le réchauffement du système climatique est sans équivoque… Il est très probable (> 90 %) que l’accroissement des gaz à effet de serre d’origine humaine est la cause de l’augmentation observée des températures moyennes globales depuis le milieu du 20e siècle. »
Cette conclusion pose la question de ce que signifie un consensus et de ce que peuvent en déduire les gens qui lisent le rapport. Est-ce une estimation quantitative (une incertitude au sens scientifique du terme) ou est-ce plutôt le vote de scientifiques, fondé sur leur opinion du moment ? Il est très important de ne pas confondre les deux.
Une remarque liminaire
Avant de tenter de répondre aux deux questions, je voudrais évoquer une remarque liminaire. Ce n’est naturellement que mon interprétation, laquelle n’est sans doute pas partagée par tout le monde, des différentes étapes par lesquelles doit passer la démarche scientifique dans nos domaines des sciences de la Nature. La première chose par laquelle on commence, c’est l’observation. C’est pour cela qu’il paraît souhaitable que l’on discute d’abord et surtout les observations : leur qualité, leur multiplicité et la confiance qu’on peut leur accorder. Ensuite vient la modélisation, la tentative de comprendre les phénomènes physiques et chimiques responsables des observations. Enfin, mais seulement en bout de chaîne vient, à notre ère des ordinateurs, la modélisation numérique. La démarche doit respecter cette progression : d’abord les observations, puis les mécanismes, ensuite la mise en équations, enfin la tentative de reproduire les observations avec un ordinateur.
Or je suis frappé par l’impression, dans le domaine du réchauffement global, que le nombre de groupes qui par le monde se préoccupent d’acquérir et de traiter de manière critique les observations, principalement de température, est très inférieur à celui de ceux qui travaillent sur la modélisation numérique. En France, plusieurs groupes construisent des modèles numériques, dont celui du Laboratoire de météorologie dynamique (LMD du CNRS). Il y a moins d’équipes qui s’occupent (à travers le monde ou en France) des processus physico-chimiques, pour déterminer les rôles respectifs que jouent le gaz carbonique, les rayons cosmiques, la physique des nuages, les poussières, les éruptions volcaniques, le soleil. Il y a encore moins de gens (et c’est une chose qui nous a beaucoup surpris dans notre communauté de géophysiciens spécialisés dans l’étude de la Terre solide) qui contribuent à l’élaboration des observations, notamment de température.
Une excellente équipe, dont Anny Cazenave est l’animatrice, se préoccupe des évolutions du niveau de la mer, beaucoup moins sujettes à discussion. La donnée de base, que tout le monde connaît, c’est la fameuse courbe « en crosse de hockey » qui est censée illustrer l’évolution depuis 150 ans de la température moyenne du globe (figure 1). En fait, définir la température moyenne de la basse atmosphère du globe est une question très difficile et il y a très peu de laboratoires dans le monde qui s’y intéressent ! La principale équipe est en Grande-Bretagne. S’il y a des stations météorologiques dans le monde entier qui mettent en commun des bases de données, il nous semble qu’en fait assez peu de gens regardent ces observations de manière critique. Avec mon collègue Jean-Louis Le Mouël qui est à l’origine de ces réflexions, et des collègues russes, Elena Blanter et Mikhaïl Schnirman, nous avons regardé ces données d’observations de température ; nous avons alors découvert des signaux bien différents de ceux que l’on nous avait appris.
C’est ainsi que des équipes de grande qualité font de la modélisation physique et chimique, des équipes encore plus nombreuses font de l’excellente modélisation numérique, mais en s’appuyant sur des données qu’ils n’ont pas acquises et critiquées eux-mêmes et qui ne sont produites que par un tout petit nombre d’équipes. Il est surprenant qu’il n’y ait pas, depuis 20 ans, plus d’ équipes dans le monde qui soient en train de vérifier l’une l’autre la validité de leurs données.
La contribution de l’IPG (Institut de physique du globe) de Paris va, depuis quelques mois, dans ce sens. Notre objectif, dans les années qui viennent, est essentiellement de regarder les données. Nous souhaitons simplement être sûrs que la précision et la signification des données n’ont pas été surévaluées.
Quelle est la légitimité de notre laboratoire à entreprendre ce type de recherches ?
En géophysique, nous sommes entraînés très tôt à regarder les longues séries de données et habitués à « traiter le signal ». Beaucoup de gens ont oublié combien de techniques mathématiques de traitement du signal ont été découvertes par des géophysiciens (ce n’est parfois que quelques années après que les mathématiciens se les sont appropriées, en ont fait la théorie et les ont ensuite diffusées). Il en va ainsi de la transformée de Fourier rapide, due à deux géophysiciens qui regardaient des données sismiques, et de la transformée en ondelettes, due à un géophysicien de la Compagnie générale de géophysique, notre collègue Morellet (technique dont le mathématicien Yves Meyer a fait ensuite la théorie). La méthode de transformée spectrale à entropie maximum a été développée dans les années 1970 par John Burg, un autre géophysicien spécialiste du traitement des données sismiques. Les géophysiciens ont donc l’habitude et les outils qui leur permettent de regarder avec soin de très longues séries de données temporelles, très denses, dans lesquelles on est souvent face à la grande difficulté de devoir analyser en même temps les très hautes fréquences et les très longues périodes, sans perdre de précision.
Jean-Louis Le Mouël et moi-même avons depuis des décennies l’habitude d’analyser des séries longues d’observations magnétiques. Nos collègues russes nous ont apporté des méthodes nouvelles d’analyse non linéaire des signaux. Nous les appliquons maintenant à des séries d’observations de température et de pression. Ce n’est pas vraiment « sorcier » ni pour nous inhabituel, mais nous y faisons depuis quelques mois, pensons-nous, de « petites découvertes » déconcertantes et dont nous croyons qu’elles n’avaient pas été faites auparavant. Enfin, pour cette question de légitimité, je rappellerai combien un regard nouveau, à la frontière entre deux champs disciplinaires, apporte souvent à la recherche scientifique.
La question du réchauffement climatique
Que valent et que disent les observations qui sont dans le rapport du GIEC ? Ce sont essentiellement celles du Hadley Research Centre en Grande-Bretagne, compilées depuis des décennies par le professeur Jones et ses collègues. La température moyenne de la basse atmosphère est construite en moyennant des valeurs de la température, elles-mêmes moyennées dans des carrés de 500 km de côté sur une durée d’un mois. Ces données remontent à 1850. Les courbes publiées dans le rapport du GIEC montrent une augmentation de la température au cours des 30 dernières années et des fluctuations qui remontent jusqu’aux années 1850. À nos yeux, une grande question est de savoir ce que signifie cette courbe globale et si les incertitudes sur ces valeurs ont été bien estimées ou non. Je suis en discussion avec le professeur Jones, à travers un échange amical et régulier pour essayer de voir si nous pouvons reprendre et comparer nos données aux leurs. Pour l’instant cela semble difficile, ce laboratoire ayant signé un accord de confidentialité avec les fournisseurs de données brutes ! Reconstituer cette base de données avec un accès aux données de l’ensemble des stations météorologiques du monde est un travail considérable, puisque le professeur Jones a dans sa base de données 3,7 millions de températures mensuelles depuis 1850. Or nous avons des doutes croissants sur la validité d’un calcul, alors que, pour l’instant, nous n’avons pas tous les éléments pour le reprendre.
Nous avons d’abord compilé les observations de 48 stations météorologiques couvrant l’Europe entière, de la Grande-Bretagne à l’Oural. Pour ce faire nous avons utilisé des données journalières et non pas des données moyennées mensuelles ; en effet ces dernières perdent une partie essentielle de l’information. Dans ces données journalières, nous avons remarqué que d’une station à l’autre les corrélations étaient remarquables, et que, sur toute l’Europe, les périodes de fluctuation d’un à dix ans sont les mêmes. Lorsqu’on calcule la valeur moyenne de toutes ces observations, on ne voit pas la moindre tendance à l’augmentation de 1900 à 1980 : la courbe est parfaitement plate, et ce sur toute l’Europe. On observe en revanche une année exceptionnellement froide en 1940 et un saut important (environ un demi-degré) et rapide en 1985-1987, dont nous n’avons pour l’instant pas compris l’origine. Et depuis ce saut, depuis 30 ans, la tendance est à nouveau plate (figure 2).
La réponse, en ce qui concerne l’Europe, est de dire « Oui, il y a un réchauffement climatique, mais il n’a pas du tout la forme supposée jusqu’à maintenant : il s’est produit après une période sans augmentation de température de quelques 80 ans, il s’est produit en quelques années, ce n’est donc pas un phénomène lent ». Qu’est-ce qui peut produire un phénomène aussi rapide ? Depuis 30 ans, la valeur de la température est de nouveau constante et cela explique bien le fait qu’au cours de ces trente dernières années, les records de température de ces 100 dernières années aient fréquemment été battus, tout simplement parce qu’autour d’une température très largement fluctuante on a une valeur moyenne qui a « sauté ». Mais depuis 1980, il n’y a aucune tendance à l’accélération, ni à l’augmentation de la fréquence de ces records.
Depuis, nous avons repris le même exercice sur quelques autres zones de la planète, principalement aux États-Unis. Les données sont remarquablement organisées dans des zones de quelques milliers de kilomètres de dimensions latérales. Les variations de « haute fréquence » (2 à 15 ans) ressemblent beaucoup à des fluctuations qui pourraient être excitées par le soleil, mais sont peut-être aussi une réponse naturelle du système climatique. L’observation majeure est que la variation à long terme change énormément d’une région climatique à l’autre. En Californie, la température n’a pas cessé de croître en accélérant : on observe donc là une courbe qui ressemble furieusement à la courbe d’accroissement du gaz carbonique, la fameuse courbe exponentielle. En revanche, toute la partie centrale des États-Unis connaît, entre 1935 et 1975, 40 années d’une chute de température tout à fait considérable, alors que le gaz carbonique augmentait (mais que le soleil diminuait en activité). Et dans plusieurs provinces des États-Unis, la température actuelle est plus faible que dans les années 30. Donc, ce traitement des données fait apparaître des observations très intéressantes. Les questions que nous nous posons aujourd’hui, avec des données qu’il faudrait étendre au monde entier (et nous avons vu l’ampleur de la tâche), sont : « Que signifie donc la courbe mondiale des températures ? Est-ce que sa barre d’erreur n’est pas sous-estimée ? » Oui, en de nombreux endroits il y a un réchauffement récent, mais pas en Europe sur les vingt dernières années. Le réchauffement s’y est fait brutalement avant. Et, pour ce qui est du monde entier, nous ne sommes pas capables de répondre, en particulier parce que tout l’hémisphère Sud est très mal couvert.
La question du gaz carbonique
Pour ce qui est du rôle du gaz carbonique, quelques questions sont encore sans réponse. Celles-ci portent essentiellement sur le fait que les spécialistes semblent ne pas douter que l’augmentation de sa concentration dans l’atmosphère depuis plus d’un siècle se traduit par un effet thermique (le « bilan radiatif » est exprimé en termes de bilan de chaleur ou d’énergie par unité de surface, donc en watts par mètres carrés – W/m2) qui serait bien compris et dominerait tous les autres facteurs. Or il nous semble que d’autres facteurs potentiels pourraient introduire des contributions au bilan radiatif d’un ordre de grandeur pas si éloigné. Nous ne disons pas : « ce n’est pas le CO2 », mais nous nous étonnons du degré de sûreté avec lequel la plupart de nos collègues affirment que sa responsabilité est désormais démontrée. Et ce d’autant plus que nous commençons à douter de la solidité de la signification du réchauffement global, au moins exprimé à travers la température globale, comme on vient de le voir. Nous pensons qu’il y a encore de la marge avant d’en être certain !
Le flux de chaleur moyen qui atteint « par le haut » l’atmosphère terrestre est de l’ordre de 350 W/m2 ; l’effet additionnel dû à l’accroissement des gaz à effet de serre depuis 150 ans est estimé à 2,5 W/m2. Combien pour les autres facteurs ? Quel est le rôle des nuages ? Ils réfléchissent et renvoient environ 80 W/m2 vers le haut (figure 3). En fait, on ne comprend encore que très mal la physique des nuages : si un facteur externe était capable de changer de 3 % la couverture nuageuse, cela ferait 2,4 W/m2, autant que pour le gaz carbonique. Or certains chercheurs pensent que les variations du flux de rayons cosmiques, qui sont de plusieurs dizaines de %, sont capables de changer la couverture des nuages, principalement de basse altitude. Celle-ci n’est bien connue (par les observations satellites) que depuis 30 ans, c’est-à-dire hélas le début supposé du réchauffement global. Que ce soit pour les mesures précises de l’irradiance solaire, du niveau des mers, de l’intensité des rayons cosmiques ou de leur effet sur les nuages, on se heurte toujours au fait que les observations quantitatives de haute qualité sont récentes (l’ère des satellites) et ne permettent pas les comparaisons avec le passé !
Ainsi, depuis 1978, depuis 30 ans que l’on mesure dans le détail les variations de l’irradiance solaire (la quantité totale d’énergie dans toutes les longueurs d’onde envoyée par le soleil sur la Terre), on constate que l’amplitude de ces variations entre deux cycles de 11 ans est d’environ 0,1 W/m2 et l’amplitude au cours d’un cycle de 1 W/m2. Mais si l’on prend les variations de haute fréquence, c’est un peu plus de 4 W/m2. Pour pouvoir être comparés aux variations du bilan radiatif dû aux gaz à effet de serre, ces chiffres doivent être divisés par 4 (la chaleur incidente sur la surface de la Terre vue du soleil, _R2 est répartie en une journée sur toute la surface de la Terre en rotation sur elle-même soit 4_R2). Si les variations de haute fréquence étaient un facteur forçant significatif (à travers des processus non linéaires encore mal connus), la contribution au bilan serait néanmoins de l’ordre de la moitié de l’effet du CO2. Et si l’on prend en compte les diverses sources d’incertitude des calculs sur les modèles qui prédisent le climat des 100 prochaines années, on a des marges d’erreur du même ordre de grandeur. Donc, beaucoup de facteurs certains ou potentiels et de marges d’incertitude se situent entre 1 et 3 watts/m2. Dire que l’un des phénomènes dépasse l’autre de façon écrasante et démontrable aujourd’hui ne se justifie pas du strict point de vue de la rigueur scientifique. Comme on pense avoir bien compris aujourd’hui l’action du gaz carbonique, on le fait entrer dans les modèles, également pour les éruptions volcaniques ; en revanche les nuages, les rayons cosmiques et le soleil sont associés à des processus encore mal connus donc peu ou pas modélisés. En exagérant le trait, cela fait un peu penser à l’histoire de l’homme qui cherche sa clef sous le lampadaire.
Quelles leçons apporte la connaissance des climats du passé ?
Les échelles emboîtées du passé sont susceptibles d’apporter des informations complémentaires. Elles nous donnent accès au temps profond de Braudel et au-delà. Elles sont indispensables, mais naturellement de plus en plus incertaines quand on s’éloigne. Je viens de parler du passé récent de 1850 à nos jours. Le premier recul nécessaire dans le passé, ce sont les derniers 1 000 ou 2 000 ans. Le second pas, c’est d’aller jusqu’aux ères glaciaires et à l’échelle de plusieurs centaines de milliers d’années. Les réponses ne sont pas les mêmes. Chacune de ces échelles de temps fournit des données intéressantes mais très différentes.
A l’échelle du dernier millénaire, il y a la fameuse courbe « en crosse de hockey » (figure 1) qui montre l’explosion des températures au cours du dernier siècle. Comme il n’y a pas assez de mesures directes de la température avant 1850, il faut rechercher un indicateur indirect : on utilise en général l’épaisseur des anneaux d’accroissement annuel des arbres. Mais un article important de Moberg et coauteurs paru en février 2005 dans le journal Nature montre que les arbres enregistrent mal les variations de longue période qui sont en revanche mieux enregistrées dans les sédiments. En combinant les résultats des arbres et ceux des sédiments, les auteurs reconstituent une courbe de température qui est assez différente de celle que tout le monde connaît. On y voit très bien l’importance du réchauffement de l’an 1000, mis en évidence par l’historien Emmanuel Leroy-Ladurie, cet « optimum climatique médiéval », l’époque du Groenland « vert ». On y voit ensuite le « petit âge glaciaire », qui commence au 16ème siècle et se prolonge jusqu’en 1870 environ. Dans la courbe de Moberg et al., le réchauffement climatique récent ressemble un peu à celui de l’an 1 000 ; s’il est un peu supérieur, rien ne permet d’un point de vue statistique de dire que l’on ne va pas se retrouver dans la même situation. On a peut-être un peu trop oublié l’effet d’un cycle millénaire du soleil, un réchauffement qui serait significatif mais réversible, un élément important de la variabilité naturelle du climat (figure 4).
On recule ensuite à la période de 400 000 ans qui couvre les quatre derniers grands cycles glaciaires, ces cycles de Milankovitch dus aux fluctuations de l’orbite terrestre autour du soleil sous l’effet des planètes géantes lointaines. Notre confrère Jacques Laskar a montré comment modéliser ces fluctuations et l’analyse de carottes de glace provenant de l’Antarctique puis de l’Arctique, effectuée notamment à Grenoble par Jean Jouzel et ses collègues, a mis en évidence des variations en dents de scie de la température et du gaz carbonique. Nous sommes maintenant dans un de ces « optimums climatiques » interglaciaires qui se produisent tous les 100 000 ans. Les résultats les plus récents montrent que les variations du gaz carbonique mesurées dans les bulles d’air trouvées dans les carottes de glace se produisent quelques siècles après les variations de température, et traduisent donc tout simplement le réchauffement (ou le refroidissement) des océans par le soleil qui provoque un dégazage (ou une redissolution) du gaz carbonique. Pour ces périodes, c’est principalement la température qui contrôle le gaz carbonique, et non l’inverse comme il est proposé aujourd’hui pour les rejets gazeux anthropiques. Les deux sont possibles, mais alors les observations concernant les cycles de Milankovitch ne peuvent être prises comme un argument d’évidence en faveur de l’interprétation de la situation nouvelle créée par l’homme. Et nous voyons qu’avec cette nouvelle vision des cycles de Milankovitch, de la courbe de températures du dernier millénaire de Moberg, de l’allure de l’évolution fine de la température en Europe ou en Amérique, nombre des bases « pédagogiques » de la vision généralement acceptée du réchauffement climatique semblent plus discutables.
Conclusion
Tout ceci me conduit à oser formuler des doutes sur la phrase précise du rapport du GIEC faisant état d’un degré de confiance de 90 % dans l’hypothèse aujourd’hui dominante et très médiatisée. Ce qui ne veut pas dire pour conclure qu’il faille se comporter de façon écologiquement irresponsable. Il est vrai que le gaz carbonique a augmenté de façon considérable depuis quelques décennies. Et si je ne suis pas persuadé que l’effet sur la température du globe soit démontré, rien n’interdit que ces effets apparaissent dans le futur (et l’un des principaux risques est l’acidification des océans). Et il y a maintes raisons de consommer de manière plus parcimonieuse nos réserves en combustibles fossiles, dont on saura sans doute tirer dans quelques décennies ou quelques siècles des molécules nouvelles et des applications plus intéressantes que de casser ces molécules dans des moteurs. Enfin, il ne faut pas que cette affaire du réchauffement climatique masque des enjeux dont on peut penser qu’ils sont peut-être encore plus urgents : l’accès à l’eau au 21ème siècle, le traitement des déchets dans des civilisations de plus en plus urbaines, sans parler des grandes pandémies, de l’accès à l’éducation et à la parité des femmes, ou tout simplement des 800 millions d’habitants de notre planète qui survivent (aujourd’hui, pas dans 100 ans) en dessous du seuil de pauvreté et souffrent de la faim. La science, la communication et l’action politique ne font pas toujours aussi bon ménage qu’elles le devraient.
ÉCHANGE DE VUES
L’échange de vue qui a suivi la communication de Vincent Courtillot a fait ressortir quelques questions sur l’organisation de la recherche en France, la dérive de la recherche scientifique vers le numérique et l’emploi des mathématiques comme outil d’évaluation.
Comme il était souligné que le marché de la peur était très rentable, Vincent Courtillot a répondu que ce marché se développait en effet dans les domaines de l’atome, du gène et du réchauffement climatique.
Pour terminer Vincent Courtillot en appelait au bon sens, en faisant deux citations, l’une selon laquelle « dans tout problème complexe, quand il y a consensus, c’est qu’il n’y a pas de pensée », l’autre de Fontenelle : « Assurez-vous bien du fait avant de vous inquiéter de la cause. Il est vrai que cette méthode semble bien longue à la plupart des gens qui courent naturellement à la cause et passent par dessus la vérité des faits, mais, au moins, vous éviterez le ridicule d’avoir trouvé la cause de ce qui n’est point. »
Séance du 6 février 2008