logo entretiens Energies de la mer bandeau entretiens Science et Ethique
M E N U

Année :



Veilles internationales
Informations du 19/04/2024

Energies de la mer
www.energiesdelamer.eu

energiesdelamer.eu vous souhaite un bon week-end de 15 août


1997 : L’industrie nucléaire civile, les OGM > TR 5 : Ethique et risque >  Discours de Geneviève Decrop : Evaluation du risque et principe de précaution

Discours de Geneviève Decrop : Evaluation du risque et principe de précaution

Docteur en Sociologie politique de l'EHESS, chercheur sur le risque collectif naturel et technologique

Compte rendu :

Transcription :


18 octobre 1997 TR 5 : Ethique et risque


Discours de Geneviève Decrop :



A propos de la notion de risque



Le risque est appréhendé, la plupart du temps, sous la forme du phénomène physique en jeu du fait de l'approche scientifique dominante en la matière :
- d'une part, à cause du développement de l'expertise scientifique dans le domaine de l'environnement, des risques naturels etc.
- d'autre part, parce que l'activité scientifique et technique (la techno-science) génère des risques, dont elle a, elles seules, les données.

La dimension humaine et sociale est oubliée, or, qu'est ce que le risque ?

Avant d'être un phénomène identifiable (plus ou moins calculable ou modélisable), le risque est une perception ... C'est l'anticipation d'une menace, d'un danger (encore vague et diffus) qui pèse sur une collectivité. Ce n'est que rapporté à une collectivité humaine (dans son existence physique, dans ses biens, dans ses activités) qu'un phénomène physique est un danger, un risque. Une avalanche à 5 000 mètres d'altitude n'est pas un risque, c'est un phénomène physique.

La collectivité concernée doit "travailler" cette perception menaçante - une intuition – l’"élaborer" pour la transformer en représentation - qui peut être très sophistiquée, avec l'approche scientifique, mais qui peut, et doit, aussi se traduire en bien d'autres formes, relevant des savoirs communs, des savoir-faire reposant sur l'expérience directe ou transmise, la mémoire, le sens commun, les perceptions sensibles etc.

Ce n'est qu'à partir de telles représentations sociales, collectives que pourra se mettre en oeuvre une action préventive... ou une décision sur le niveau de risque à courir (ce qu'on appelle le risque acceptable).

Ceci est le schéma quelque peu idéal de l'appréhension collective du risque, schéma qui existe de moins en moins dans les sociétés développées, mais encore opératoire dans certains types de risque (par exemple en montagne) - qui n'exclut pas l'incertitude, mais qui suppose un traitement socialement partagé de l'incertitude.

Les situations à risque qui nous préoccupent ici sont très éloignées de ce schéma idéal. C'est à la science qu'il revient presque exclusivement de dire, d'élaborer les risques, soit qu'elle les génère elle-même, soit que les savoirs scientifiques aient supplanté les savoirs communs traditionnels à propos de bon nombre de phénomènes physiques.

On est donc dans une situation où seulement un segment de la société – la communauté scientifique - est en mesure d'élaborer le risque et de le proposer, voire de l'imposer au reste de la société, au moyen de représentations très abstraites, inaccessibles au sens commun. La situation est encore pire avec les objets physiques dont nous traitons ici - les O.G.M. et les rayons ionisants - dans la mesure où ils échappent aux perceptions sensibles. L'édifice de l'appréhension collective du risque est bancal.

La chose se complique encore dans la mesure où aujourd'hui la science est en train d'inverser sa démarche : alors qu'elle affichait des connaissances fiables avec une marge d'incertitude (les probabilités), de plus en plus, elle met l'incertitude au centre de sa démarche et ne peut même plus proposer ni des probabilités ni des modélisations fiables. C'est le cas des faibles doses de radio-activité, mais on le constate même dans certains phénomènes naturels : les sciences de la terre sont capables de diagnostiquer des risques (non perçus par le public) qu'elles ne peuvent pas probabiliser, ni véritablement modéliser (le changement climatique, par exemple).

D'où une situation paradoxale :

- d'un côté, la communauté scientifique se trouve investie d'un pouvoir beaucoup plus grand que par le passé mais qui prend la forme d'une responsabilité écrasante : une hypothèse scientifique peut engendrer des conséquences très lourdes en termes d'activités économiques, d'organisation collective etc. réalisant ainsi la "prédiction" de Jérôme Ravetz : des décisions dures sont prises sur des certitudes scientifiques molles - L'affaire de la "vache folle" en donne un bon exemple.
- de l'autre côté, les incertitudes de la science mettent la collectivité et le pouvoir politique en position de reprendre la main, réhabilitent la décision, qui est l'art de tracer un chemin pour l'action dans l'incertain et dans l'aléatoire. Le schéma déterministe qui faisait découler la décision de l'instruction technique et rationnelle des problèmes - c'est-à-dire la faisait en un sens disparaître en tant que choix, qu'arbitrage, en la réduisant à un simple maillon dans un processus continu - a vécu.

D'un point de vue politique et sociologique, voilà un peu le contexte qui donne son sens au principe de précaution. Celui-ci est en quelque sorte la formulation juridique de ce paradoxe, des contraintes et des contradictions engendrées par les développements des dangers et des menaces auxquels nos sociétés sont confrontées : une philosophie de l'action qui tienne compte de l'incertitude. Mais il s'agit d'une philosophie et il peut y avoir quelqu'écart dans la pratique, d'autant plus qu'il n'y a pas actuellement une jurisprudence suffisamment fournie pour donner les repères nécessaires dans les situations concrètes.


Quelles peuvent être, compte tenu de cela, les formes possibles d'une démarche de précaution dans les situations concrètes ?

Schématiquement, plusieurs attitudes sont possibles :

1. Les acteurs, et surtout les experts, se situent sur la première branche du paradoxe, celle où la responsabilité est essentiellement concentrée sur quelques acteurs : les experts et quelques hauts fonctionnaires. Ils peuvent être tentés de comprendre le principe de précaution, comme l'incitation à une prudence extrême, à ne prendre aucun risque et à se caler sur le scénario le pire, sachant que si le risque venait à se réaliser, ils seront mis en cause socialement et même judiciairement. Le principe de précaution peut signifier le retour à une démarche de risque zéro, dont tout le monde s'accorde à dire aujourd'hui qu'elle n'est pas possible : on se trouve dans la perspective de "geler" le risque et non pas de le gérer, avec les préjudices économiques et sociaux que cela peut entraîner. Du point de vue de notre approche en termes de représentations, cela conduira à une dramatisation du risque, représenté sous la forme du scénario extrême, sur lequel la société n'aura que peu de prise.

2. Mais, l'expert peut faire un tout autre raisonnement, en anticipant justement le risque de mise en cause ("le risque pénal") et se dire : si je fais état de mes doutes, si j'use de mon droit d'alerte et que pour autant je ne suis pas suivi par les décideurs, qu'aucune action correctrice n'intervient, on viendra me reprocher de ne pas avoir tout mis en oeuvre pour infléchir l'action dans le sens de la sécurité. Ce n'est pas tout à fait un scénario de fiction comme l'affaire du sang contaminé l'a montré (les juristes diront qu'il ne s'agit que de mise en examen, et non pas de condamnation, mais pour les justiciables, la mise en examen est une stigmatisation sociale très lourde, presqu'une mort sociale). L'expert peut alors être tenté de taire ses doutes, de se réfugier dans le silence, et de laisser la situation de risque se développer.

Le problème ici c'est que les experts agissent aujourd'hui dans un contexte où des notions peu précises du point de vue du droit, mais à forte valeur sociale et culturelle, vont intervenir, et parfois en se contredisant les unes les autres : principe de précaution, droit ou devoir d'alerte (ce qui n'est pas la même chose) : avec quelle obligation ? une obligation de résultat et jusqu'à quel point ? etc. le tout dans une atmosphère très imprégnée par la responsabilité pénale.

Ici, le principe de précaution va laisser la place au principe de parapluie.

3. On peut avoir une autre configuration, qui combine certains traits des deux hypothèses précédentes : lorsqu'on est en présence d'organisations très fermées - un "système sociotechnique" - très intégrées et homogènes du point de vue des acteurs (on est "entre soi", comme c'était le cas dans l'organisation française de la transfusion sanguine, mais comme c'est le cas de l'industrie nucléaire). Dans ce type de configuration, la représentation du risque est soit très réduite, à ses dimensions purement techniques en soit purement et simplement évacué parce qu'il n'y a pas de débat pas de partage des savoirs et des incertitudes et que la société n'est pas posée en tiers, susceptible d'agir, de se prononcer, mais seulement en objet passif. C'est le type de configuration que l'industrie nucléaire a construit : pas de communication publique du risque, pas de débat social - socialement parlant, une négation du risque.

C'est sans doute la situation la plus défavorable : l'organisation concernée est très opaque, elle est constituée sur des savoirs exclusifs, peu partagés socialement : elle réclame alors de la part du public, des usagers, une confiance totale, avec une sorte de contrat implicite de sécurité absolue. Le retour de manivelle peut être très violent, s'il se produit une catastrophe (sang contaminé), ou si l'opinion se réveille. La remise en question portera sur tous les aspects de l'activité avec une perte de crédibilité des dirigeants, des experts impliqués et des représentants des pouvoirs publics etc. C'est ce à quoi on assiste aujourd'hui à propos du retraitement des déchets de l'usine de retraitement de la Hague ...

Dans la perspective qui nous occupe ici, la situation est celle où l'évaluation du risque est le fait d'un petit nombre d'acteurs, fonctionnant dans des organisations fermées, mais qui captent tout le poids de la responsabilité - en déresponsabilisant la société, laquelle n'ayant pas en main toutes les pièces du débat peut alors faire valoir, très légitimement, la version maximaliste du principe de précaution : arrêter l'ensemble de l'activité en cause.

Ces cas de figures nous amènent à une approche de la précaution - pour laquelle je plaide, tout en sachant qu'elle ne résout pas toutes les difficultés.

Il s'agit de l'approche où le principe de précaution est entendu comme principe d'action - rendant sa part à la décision publique, collective.

La science est ici pour alerter, mais aussi pour éclairer le débat et mettre toutes les pièces sur la table, en énonçant les incertitudes. Ce qui suppose déjà toute une pédagogie, l'objectif étant le partage des savoirs qui, seul, permettra un partage des responsabilités.

Dans ce schéma, c'est à la collectivité de décider le niveau de risque qu'elle est prête à courir.

Mais une fois cela posé, on n'a pas encore résolu grand chose. Qui va décider :

- est-ce l'administration ? (c'est le schéma actuel),
- sont-ce les instances formelles de la démocratie ? – le parlement : cela commence avec l'Office parlementaire d'évaluation des choix scientifiques et technologiques. C'est un progrès, et même une condition de base, mais est-ce suffisant ?
- va-t-on remettre le problème entre les mains d'un comité fonctionnant comme une autorité morale - type comité d'éthique - mais ce faisant, faisons-nous autre chose que changer de type d'experts ?
- va-t-on impliquer les citoyens ? et par quelles procédures ? Aujourd'hui les démarches en ce sens sont très timides : on parle d'informer, voire de consulter, fort peu d'associer aux décisions et de négocier (la France manque de savoir-faire en la matière que les pays anglo-saxons ont largement plus développés).

Ce dernier cran dans le partage du savoir et des responsabilités est probablement le plus souhaitable dans la mesure où il s'agit de retrouver un état de confiance sociale, laquelle est très ébranlée non seulement en ce qui concerne la science, mais encore et surtout en ce qui concerne la classe politique, et les dirigeants en général.

Pour le dire en une phrase : une approche maîtrisée des risques collectifs suppose un bon niveau de confiance sociale et la confiance sociale ne peut exister sans un minimum de transparence et sans une implication collective large dans les grands choix, dans les grandes décisions.

Ceci étant obtenu, tous les problèmes ne seront pas résolus. J'en vois deux qui demeurent :

- Sur la scène démocratique, on court le risque de ne voir représentés que les intérêts du court terme, or, les risques dont nous parlons sont de long terme, ils impliquent l'avenir, les générations futures et des objets, comme la nature, l'environnement, qui ne sont guère "représentables". C'était l'objection essentielle qu'Hans Jonas (père spirituel du principe de précaution) faisait au régime démocratique, qu'il pensait inapte à résoudre le type de problèmes posés par le développement de la science et de la technique.

On peut lui répondre - et cela lui fut répondu - que les régimes non démocratiques ont encore plus échoué dans la préservation de l'environnement que les démocraties. En effet, si la démocratie n'est pas une garantie absolue que l'avenir de la planète sera préservé, il n'en reste pas moins que l'expression de la pluralité des points de vue qu'elle suppose est un garde-fou minimal contre les dérives que génère tout système de pensée monolythique.

- D'autre part, notre schéma suppose une sorte de démocratie "procédurale", où les controverses d'experts et les débats publics sont minutieusement organisés. Mais il s'agit essentiellement d'organiser le débat et la confrontation - c'est possible, même si c'est peu pratiqué en France. Par contre, il est beaucoup plus difficile d'organiser la délibération et la décision, quand il s'agit de lui conserver ce caractère collectif. Sur ce point, la réflexion est peu avancée, mais c'est un point capital. Le danger ici, c'est la non-décision : gagner du temps en l'occupant par le débat, décider des moratoires, recréer une instance supplémentaire à qui on délègue le problème, mettre sur pied de multiples "comités théodules"...

En conclusion, il faut insister sur le fait qu'un risque n'est véritablement appréhendé que quand toute la collectivité est impliquée, et pas seulement un segment de celle-ci, que cette implication ne peut se faire que sur la base de représentations partagées : le risque doit être mis en scène. Dans le cas des O.G.M. et dans celui de la radioactivité, cette représentation partagée rencontre deux types d'obstacles : le premier type tient à la fermeture des organisations sociotechniques qui mettent en œuvre ces objets ; le second, plus difficile à lever, tient à l'immense difficulté à donner de ces objets des représentations accessibles au sens commun. Nous sommes face à un type de risque qui ne fait pas sens, littéralement, c'est-à-dire qui échappe à la symbolisation sociale. La porte est alors ouverte aux dérapages de la symbolisation : à l'échappée dans un imaginaire fantasmatique cristallisant les multiples peurs que la modernité provoque. Mais la solution n'est pas de combattre cet imaginaire fantasmatique par la dénégation et la stigmatisation, elle est dans un réel effort de symbolisation qui devrait mobiliser non seulement la communauté scientifique, mais également les sphères politiques et culturelles de la société.






Mis à jour le 14 février 2008 à 10:51