SPS308 Flipbook PDF


32 downloads 122 Views 4MB Size

Recommend Stories


Porque. PDF Created with deskpdf PDF Writer - Trial ::
Porque tu hogar empieza desde adentro. www.avilainteriores.com PDF Created with deskPDF PDF Writer - Trial :: http://www.docudesk.com Avila Interi

EMPRESAS HEADHUNTERS CHILE PDF
Get Instant Access to eBook Empresas Headhunters Chile PDF at Our Huge Library EMPRESAS HEADHUNTERS CHILE PDF ==> Download: EMPRESAS HEADHUNTERS CHIL

Story Transcript

La rationalité ne serait-elle pas la meilleure des « précautions » ?

Dans notre précédent numéro, nous traitions de la campagne menée contre le riz doré, un riz génétiquement modifié qui pourrait contribuer à sauver des centaines de milliers de personnes par an, principalement des enfants. Dans ce numéro, nous revenons sur l’histoire du bannissement de l’usage du DDT dans la lutte contre les moustiques vecteurs du paludisme, et des millions de victimes collatérales dans les pays les plus pauvres. Nous évoquons également la législation proposant, en France, une réduction des seuils d’exposition aux ondes électromagnétiques et nous décrivons les conséquences négatives pour les personnes qui se croient « victimes des ondes ».

É ditorial

Dans tous les cas, des risques sanitaires ou environnementaux sont invoqués, risques jamais mis en évidence sur le plan scientifique (riz doré, ondes électromagnétiques), où très largement négligeables au regard des vies sauvées (DDT).

Le « principe de précaution » qui semble s’imposer comme une évidence de bon sens ne conduirait-il pas, dans ces exemples, à des décisions irrationnelles et dangereuses pour ceux que l’on prétend protéger ? Ne faudrait-il pas revenir à un autre « bon sens » qui a fait ses preuves : l’analyse rationnelle des risques et des bénéfices, la prise en compte du « risque à ne pas faire » à égalité avec le « risque à faire » au regard de la connaissance existante ? Science et pseudo-sciences

Gourous et guérisseurs : le marché des enfants page 13 DDT et lutte contre le paludisme page 39 Irradiés d’Hiroshima : les leçons inattendues page 58 Sommaire complet en 4e page de couverture Science et pseudo-sciences n°308, avril 2014

1

Du côté de la science De l’efficacité des antidépresseurs et des psychothérapies pour la dépression Un récent article de blog [1] passe minutieusement en revue la question de l’efficacité des traitements pour la dépression, dans un contexte où une métaanalyse (Turner, [2]) a montré, il y a quelques années, que si l’on prend en compte tous les essais cliniques des antidépresseurs qui ne sont pas publiés par l’industrie pharmaceutique, leur efficacité est plus faible que ce qu’on croyait. En voici les points principaux. Contrairement à la conclusion hâtivement tirée par certains, la méta-analyse de Turner ne montre pas que les antidépresseurs sont inefficaces. Elle montre que la différence d’efficacité des antidépresseurs par rapport à une pilule placebo baisse de 0.41 à 0.31 (-25 %) quand on prend en compte les essais non publiés (0 signifiant efficacité égale au placebo). Efficacité faible, mais pas nulle. Pour faire bonne mesure, James Coyne propose dans un nouvel arti-

2

cle [3] de faire le même calcul pour les psychothérapies. Il trouve que leur différence d’efficacité par rapport à une pilule placebo est de 0.25, soit du même ordre que celle des antidépresseurs. Toutefois, l’efficacité est sans doute surestimée, car contrairement aux médicaments, il n’existe aucune base de données obligatoire dans laquelle les essais cliniques des psychothérapies seraient enregistrés, qui permettrait de prendre en compte les essais non publiés (non publiés car, en général, non concluants). Si les effets des antidépresseurs, comme des psychothérapies, paraissent bien modestes, il faut toutefois considérer le fait que, dans les essais cliniques, l’effet placebo peut être lui-même assez important du fait du suivi régulier de qualité de tous les patients, y compris dans le groupe placebo. Autrement dit, l’effet placebo inclut déjà un petit effet de type psychothérapique. Mais cela implique aussi que, dans les conditions usuelles d’administration de ces traitements (suivi de faible qualité), l’efficacité réelle est probablement inférieure à celle obtenue dans les essais cliniques.

Science et pseudo-sciences n°308, avril 2014

Autrement dit, dans la vie réelle, on pourrait sans doute améliorer significativement l’efficacité des traitements (surtout des antidépresseurs) en effectuant un suivi plus régulier et rigoureux des patients plutôt que de les renvoyer chez eux avec leur boîte de médicaments et ne plus les revoir avant 3 mois que pour renouveler l’ordonnance. Dans tous les cas, il n’y a pas lieu de conclure, ni que les antidépresseurs sont sans efficacité, ni que les psychothérapies sont plus efficaces. J’ajouterai un commentaire utile dans le contexte français, c’est que les psychothérapies dont on parle ici sont des psychothérapies fondées sur des preuves, en particulier des thérapies cognitives et comportementales. Les autres formes de psychothérapies (et notamment la psychanalyse) n’ont, elles, même pas une efficacité supérieure au placebo.

Quelques enseignements du séisme de Tohoku oki Le séisme de magnitude 9 qui s’est produit au large de Fukushima le 11 mars 2011 est le plus violent dans cette région depuis celui1 du 9 juillet 869. Il a montré l’insuffisance de la notion de « lacune sismique » pour une plaque insulaire à structure complexe. Un couplage entre la lithosphère et l’ionosphère1, via des anomalies thermiques observées dans l’atmosphère au-dessus de la zone épicentrale, a été invoqué pour expliquer divers phénomènes électrodynamiques observés avant le séisme. On a peut-être là une nouvelle approche pour la prévision de ce type de séismes. Aspérités et lacunes sismiques

[2] Turner, E. H., Matthews, A. M., Linardatos, E., Tell, R. A., & Rosenthal, R. (2008). “Selective Publication of Antidepressant Trials and Its Influence on Apparent Efficacy”. New England Journal of Medicine, 358(3), 252-260. doi : doi :10.1056/NEJMsa065779

Dans une zone de subduction, alors que l’ensemble d’une plaque continue à s’enfoncer sous une autre, les deux peuvent rester soudées dans une région limitée. Il ne s’y produit pas de séisme pendant une certaine période et l’on parle alors de « lacune sismique2 » (seismic gap). Ce blocage peut être causé par une sorte d’aspérité (en jaune sur la figure) sur la surface de la plaque qui plonge (par exemple un volcan sous-marin). Les contraintes s’y accumulent et finissent par dépasser le seuil de résistance de l’aspérité, produisant un séisme d’autant plus violent que la durée de la lacune a été plus longue.

[3] Cuijpers, P., Turner, E. H., Mohr, D. C., Hofmann, S. G., Andersson, G., Berking, M., & Coyne, J. (2013). Comparison of psychotherapies for adult depression to pill placebo control groups : a meta-analysis. Psychological Medicine, FirstView, 1-11. doi : doi :10.1017/S0033291713000457

Il est peu étonnant que les sismologues japonais aient sous-estimé la dangerosité de la zone de Tohokuoki. Cette zone a en effet [1] été frappée par une dizaine de séismes de magnitude supérieure à 7.4

Franck Ramus Directeur de recherches au CNRS, Institut d’Étude de la Cognition, École Normale Supérieure. [1] James Coyne, “Is psychotherapy for depression any better than a sugar pill ?”, 25/06/2013. Plos. http://blogs.plos.org/mindthebrain/2013/06/25/is-psychotherapy-fordepression-any-better-than-a-sugar-pill/

Science et pseudo-sciences n°308, avril 2014

3

Représentation schématique de la zone de subduction (étoile = foyer) depuis moins de 75 ans. Au sud de cette région, dans la fosse de Nankai, on observe des lacunes sismiques, objets d’une intense surveillance. Les résultats obtenus lors de nombreuses campagnes3 sur d’autres zones de subduction (sud-ouest de la Grèce, Antilles) peuvent éclairer ce qui s’est passé au Japon. Ils montrent en particulier que l’histoire géologique de la plaque insulaire peut influer sur le comportement du manteau sous-jacent qui pourrait être moins ductile au-dessus de la plaque plongeante (en orange sur la figure) que ce que l’on suppose généralement, et contribuer à la sismicité régionale. Dans certains cas, la plaque supérieure peut être en fait composée de plusieurs plaques superposées. Séismes et ionosphère Ce sujet, brièvement mentionné dans SPS n° 298, a été relancé par 4

des études conduites sur les conditions observées dans la région sur une période englobant le séisme. Au voisinage de la zone épicentrale, grâce à des mesures en satellites effectuées par des radiomètres à très haute résolution de la NOAA (Administration Nationale Océanographique et Atmosphérique des USA), on a observé des anomalies de la radiation thermique diurne (OLR : infra-rouge 10-13 µm). D’autres anomalies apparaissent en dehors de la région épicentrale, mais elles sont notablement plus faibles. On a également étudié les variations temporelles et spatiales du contenu total en électrons (GPS/TEC), de la structure de l’ionosphère déduite d’orbites basses de satellites, des sondages ionosphériques de stations japonaises. Les auteurs [3] russes et japonais de ces études ont présenté leur théorie du couplage Lithosphère-

Science et pseudo-sciences n°308, avril 2014

Atmosphère-Ionosphère (LAIC) : le radon, émis lors de la rupture de nombreuses fissures pendant la préparation du séisme, modifierait la conductivité de l’air ; la vapeur d’eau se condenserait alors sur les ions produits, et la chaleur latente dégagée échaufferait l’air. L’ionosphère réagirait aussitôt à ce phénomène. Si l’on observe à nouveau de telles anomalies thermiques, il sera indispensable, pour étayer cette théorie, de montrer la présence abondante d’éléments ionisants dans l’air. Deux points semblent en effet poser un problème : (1) le radon, de demivie 3,8 j, est soluble dans l’eau de mer. On ne connaît pas le temps nécessaire à sa libération dans l’atmosphère ; (2) Les roches basaltiques de la lithosphère océanique contiennent peu d’éléments radioactifs. Par ailleurs, l’ionosphère est soumise à de nombreuses perturbations qu’il faut distinguer des précurseurs éventuels. Georges Jobert

Le grizzly et l’obésité Selon l’OMS, de nos jours, plus de 10 % de la population mondiale est obèse, ce taux ayant doublé durant les trente dernières années. Parallèlement, le taux des diabétiques est également en croissance, ces deux maladies étant corrélées. Malgré d’importantes recherches, il n’existe actuellement contre l’obésité que quelques médicaments peu efficaces, produisant de surcroît des effets secondaires indésirables. Le grizzly est un animal intéressant qui retient l’attention des chercheurs, car il est capable de s’accommoder d’une « obésité » particulièrement aiguë sans que son organisme en souffre. En effet, pour préparer sa longue hibernation qui dure sept mois, le grizzly mange abondamment, pouvant gagner plusieurs kilogrammes par jour. Il peut ainsi démarrer son hibernation avec un « excès » de 200 kg, correspondant à quasiment un doublement de poids. Durant l’hibernation, il ne mange, ne boit, n’urine, ni

Ancien directeur de l’Institut de Physique du Globe de Paris. 1

[1] J. Koyama et al., Earth Planets Space, 64,2012. www.terrapub.co.jp/journals/EPS/p df/2012/6412/64121189.pdf [2] C. Satriano et al., soumis à Earth Planetary Science Let.,2014 [3] D. Ouzounov, S. Pulinets, et al. arxiv.org/ftp/arxiv/papers/1105/1105.2841.pdf

Shellie Raney (Wikimedia)

L’étude des dépôts laissés par le tsunami qui l’a accompagné, montre qu’il fut d’une magnitude voisine de celle de 2011. 2 Voir « Où en est la prédiction sismique », G. Jobert, SPS n° 298, octobre 2011. 3 Campagnes menées par A. Hirn (Institut de Physique du Globe de Paris, M. Laigle (Geoazur, Nice), M. Sachpazi (Observatoire National d’Athènes).

Science et pseudo-sciences n°308, avril 2014

5

ne défèque et ses reins cessent de fonctionner. Ce changement radical de physiologie conduit à une accumulation de toxines, à des taux très élevés de cholestérol, etc. De plus, ses cellules ne réagissant plus à l’insuline, le grizzly devient diabétique, comme beaucoup d’obèses, mais, lui… se porte bien. Par ailleurs, contrairement aux personnes souffrant d’obésité, le grizzly n’accumule pas de graisse dans le foie, ni dans les muscles, mais uniquement dans les tissus adipeux. L’étude de la physiologie des grizzlys permettra sans doute de mieux comprendre les mécanismes de l’obésité chez l’homme et ses liens avec le diabète. Kamil Fadel Directeur du département Physique, Palais de la découverte Source : www.nytimes.com/2014/02/12/opinion/a-grizzly-answer-for-obesity.html

Les maths des cravates Ceux et celles qui s’intéressent aux nœuds de cravate se souviennent sans doute qu’en 1999, des mathématiciens de l’université de Cambridge en Grande-Bretagne avaient montré qu’il existe 85 nœuds de cravate différents. Récemment, une équipe de l’Institut royal de technologie de Stockholm a montré qu’il en existe en fait 177 062 autres, soit un total de 177 147 ! Comment expliquer une divergence entre deux démonstrations mathématiques ? Par le fait que l’équipe de Cambridge s’était imposée des contraintes pratiques, se restreignant aux nœuds « raisonnables », réalisables, esthétiquement acceptables… L’équipe suédoise, elle, ne

6

s’est pas embarrassée de telles exigences, et s’est fixée beaucoup moins de contraintes. L’idée de se lancer dans cette étude, si l’on en croit le responsable Mikael Vejdemo-Johansson, a une histoire amusante. Cela démarre lorsqu’il remarque dans le film The Matrix Reloaded un nœud de cravate non comptabilisé dans la liste des 85 établie par les Britanniques ! Et pour cause… le petit pan, censé être situé derrière le grand pan (caché par ce dernier), passait au contraire par-dessus. Vejdemo-Johansson prend alors conscience qu’en réalité, tous les nœuds n’ont pas été envisagés par les Britanniques. Il fallait donc se mettre au travail pour dénouer la question. Gageons que malgré cette variété, les puristes s’en tiendront au seul nœud véritable… le Windsor, bien entendu. Kamil Fadel Source. http://phys.org/news/2014-02-mathematicians-ways.html

Science et pseudo-sciences n°308, avril 2014

L’allaitement maternel favorise les filles Une étude, quelque peu surprenante et qui a été publiée en 2007, a montré que chez les macaques nouveau-nés, les mâles se développent plus vite que les femelles pendant 3-4 mois. Cela provient du fait que le lait maternel est plus riche en éléments nutritifs lorsque le nouveau-né est un mâle. Cet avantage s’inverse ensuite : les mâles sont plus vulnérables et meurent plus fréquemment que les femelles. C’est dû au fait que la mère sécrète du lait plus longtemps lorsque le nouveau-né est une femelle. L’interprétation de l’auteur de l’article est que la lactation est un lourd fardeau énergétique pour la mère. Il est donc préférable pour l’espèce, qui en l’occurrence est polygame, de favoriser les femelles car les géniteurs mâles ne sont pas en nombre limitant [1]. Un phénomène semblable a été observé chez les vaches : la composition du lait est la même, quel que soit le sexe du nouveau-né, mais la mère sécrète plus longtemps et donc davantage de lait lorsque les nouveau-nés sont des femelles, ce qui augmente leurs chances de participer à la reproduction. Un point important est qu’une plus abondante sécrétion de lait est observée,

que le veau soit nourri par sa mère ou non. L’influence du nouveau-né s’exerce donc avant sa naissance. Une hypothèse raisonnable est que le fœtus femelle prépare les glandes mammaires maternelles à produire plus ou moins de lait. On sait depuis longtemps que la production de lait est fonction du nombre de cellules mammaires sécrétrices. Il est probable que le placenta, qui est un organe fœtal, sécrète plus d’hormones de croissance agissant sur la glande mammaire en développement pendant la gestation, lorsque le fœtus est une femelle. Cela expliquerait que l’influence du fœtus puisse se manifester après la parturition indépendamment de la présence du nouveau-né [2,3]. Des études semblables chez l’homme sont en cours. Elles sont difficiles, voire biaisées d’avance, car les conditions d’allaitement sont très variées chez cette espèce. Des applications agronomiques pourraient découler de cette découverte en favorisant la naissance de femelles pour optimiser la production laitière. Il se pourrait également que ces études permettent de mieux préparer des aliments pour bébé. Le plus surprenant dans cette affaire est que ces observations n’aient pas été faites plus tôt, étant donné le grand nombre d’études portant sur la lactation.

Jacques Blanchard (1600 - 1638)

Louis-Marie Houdebine Biologiste – Directeur de recherche honoraire INRA [1] Hinde K. (2007) First-time macaque mothers bias milk composition in favor of sons. Current Biology Vol 17 No 22, R958 [2] http://phys.org/news/2014-01-momsfavor-daughters-dairy.html [3] Le lait maternel est différent pour les garçons et les filles (AFP).

Science et pseudo-sciences n°308, avril 2014

7

Regards sur la science Le Naïf et le Cosmologiste Le Cosmologiste : as-tu entendu parler du rayonnement fossile ? Le Naïf : euh … Le Cosmologiste : … et du fond diffus cosmologique ? Le Naïf : ah ! oui. Il y a eu beaucoup d’articles dans les journaux, il y a un an. Il y avait une photo prise par un satellite, une photo en forme d’ellipse. D’ailleurs, on en a parlé dans le dernier numéro de Science & pseudosciences... Le Cosmologiste : il s’agit du rayonnement consécutif au gigantesque flash qui a embrasé l’univers 380 000 ans après le Big Bang et que nous percevons actuellement. Le Naïf : le Big Bang, ça je connais : c’est cette explosion gigantesque qui s’est produite quand tout l’Univers était condensé en un point, il y a 13,7 milliards d’années. Depuis, l’univers est en pleine expansion, comme un ballon qui gonfle.

est sans commune mesure avec celle du gonflement de notre « cosmos-bulle ». J’ai lu que la vitesse d’expansion était beaucoup plus petite que 300 000 km/s et qu’elle ne pourrait de toute façon pas dépasser cette limite. Ce rayonnement, s’il provenait de notre Univers, de n’importe quel point même le plus éloigné, aurait dû nous parvenir depuis longtemps. Votre histoire ne tient pas ! Le Cosmologiste : ah ! Voilà bien les méfaits de cette image du Big Bang comme un ballon de baudruche en train de gonfler ! Elle est très mauvaise et déforme totalement celle avancée par les cosmologistes. En fait, il faut avoir en tête qu’à son commencement, l’espace était déjà complètement rempli par la matière, la matière n’était pas condensée en un point de l’espace comme la représentation commune nous conduit à le croire. Les cosmo-

8

Science et pseudo-sciences n°308, avril 2014

© Cs333 | Dreamstime.com

Ah ! mais dis donc, j’y pense, il y a quelque chose qui ne va pas dans votre histoire de rayonnement provenant du flash : s’il a vraiment été émis il y a 13 milliards d’années (13,7 milliards – 380 000 plus précisément) et si on le reçoit uniquement à présent, il provient forcément d’un endroit situé hors de notre univers ! En effet, la distance parcourue par lui pendant ce temps-là, à la vitesse de la lumière,

Quant à savoir si l’univers est infini ou pas, c’est une autre histoire ! Jacques Bolard Directeur de recherche honoraire au CNRS

Recherche scientifique sans connaissance de soi n’est que ruine de la science L’étude récemment publiée par Gilles-Éric Seralini dans Food and Chemical Toxicology, avant d’en être retirée, a défrayé la chronique, alimenté le buzz sur Internet, dans la presse papier grand public et spécialisée. Elle a aussi pu susciter des incompréhensions sur les motivations des chercheurs à l’origine de cette publication : comment une équipe de haut niveau peut-elle monter un protocole aussi contesté dans sa capacité à répondre à la question posée, comment une revue aussi reconnue peutelle accepter de publier une étude aussi décriée par les pairs, avant de la retirer ? L’histoire récente de la recherche scientifique nous apprend que d’au-

tres études ont subi le même sort : celle du Dr Benveniste (1988) dans Nature sur la mémoire de l’eau, l’étude du Dr Wakefield sur le lien entre vaccination ROR et autisme dans Lancet (1988), l’étude sur le clonage d’un embryon humain du Dr Hwang Woo-suk dans Science (2004). Ces études sont révélatrices de biais affectant la recherche scientifique et l’empêchant de produire des connaissances stables et fiables. Doit-on simplement se contenter d’invoquer la malhonnêteté de certains, l’incompétence des autres, la science en train de se faire, avec ses incertitudes temporaires ? Ne serait-il pas envisageable d’apporter un éclairage complémentaire sur ces questions, qui tiendrait compte des découvertes récentes dans le domaine de la psychologie scientifique, des neurosciences et de la biologie évolutive ?

Jean Raoux (1677–1734)

logistes considèrent que l’Univers n’avait pas et n’a pas de bord. C’est donc l’ensemble de l’espace qui est en expansion continue depuis le Big Bang mais nous ne pouvons en voir qu’une partie, jusqu’à la distance parcourue par la lumière en (13,7 milliards – 380 000) années ; c’est notre « horizon cosmologique ». Mais ce n’est pas pour autant qu’il n’y a rien au-delà. D’ailleurs, une autre galaxie de notre univers peut ne pas voir la même chose que nous, en particulier elle peut voir des galaxies invisibles pour nous.

Science et pseudo-sciences n°308, avril 2014

9

Les biais cognitifs La liste est longue. Biais de raisonnement, de jugement, mnésique, de personnalité…[1] sont susceptibles d’induire des biais dans le travail de recherche scientifique. Les biais révélés par la psychologie évolutionniste Des travaux récents ont regroupé tous ces biais cognitifs en une théorie unificatrice, « la théorie argumentative du raisonnement », publiée par Hugo Mercier et Dan Sperber [2]. Cette théorie fait l’hypothèse que les décisions sont le plus souvent prises intuitivement, le raisonnement ne servant qu’à justifier a posteriori pourquoi telle décision a été prise. Le raisonnement n’aurait pas comme fonction première d’améliorer les connaissances, chercher la vérité ou prendre de meilleures décisions, mais à convaincre vos interlocuteurs dans un débat et à débusquer ceux qui tenteraient de vous tromper. L’utilisation du raisonnement dans le domaine scientifique peut être vue sous cet angle comme une exaptation (l’utilisation d’une fonction initialement sélectionnée par l’évolution pour de tout autres motifs). La psychologie évolutionniste a aussi son mot à dire dans les 10

Jean Raoux (1677–1734)

Prendre en compte les biais qui affectent nécessairement l’humain dans son raisonnement ne serait finalement qu’un juste retour des choses : le principal facteur d’erreur dans la production de connaissances scientifiques, c’est le chercheur lui-même… par le fait même de son appartenance à l’espèce homo-sapiens. Citons quelquesuns de ces biais :

conflits d’intérêts : népotisme, recherche de bénéfices financiers, de position honorifique. Tous ces puissants facteurs d’erreurs dans la recherche scientifique sont très largement abordés et théorisés par la psychologie évolutionniste [3]. Les biais révélés par les neurosciences La place des émotions. Les travaux d’Antonio Damasio [4] sur la place des émotions dans la prise de décisions, en particulier dans les choix complexes, montrent qu’un certain niveau d’émotion est indispensable pour prendre des décisions adaptées, y compris pour les raisonnements en apparence les plus rationnels. En absence d’émotions, le sujet fait des choix erratiques et irrationnels ; si elles sont trop intenses le sujet fait des choix automatiques, réflexes. La nature de la conscience et du libre arbitre. Depuis les travaux de Benjamin Libet [5] en 1979, il n’est plus possible de considérer la question du libre arbitre, de la conscience et de la prise de décision sous l’angle classique que l’on pourrait résumer de la façon suivante : « je pense et décide consciemment et mon corps exécute. Ou la conscience vue comme conducteur principal de notre comportement moteur et réflexif ».

Science et pseudo-sciences n°308, avril 2014

Une partie de la communauté scientifique considère actuellement la conscience plus comme une instance ultime d’invalidation d’une décision élaborée de façon largement inconsciente. Autrement dit, une partie de nos décisions et comportements seraient élaborés en amont de notre réflexion consciente, celle-ci n’intervenant que pour censurer en dernier recours une action jugée inadaptée ou justifier a posteriori des comportements automatiques. Il s’agit potentiellement d’une révolution épistémologique : naturaliser les facteurs d’erreurs dans la recherche scientifique pour améliorer la qualité et la fiabilité des connaissances produites. L’utilisation pratique de ces théories très récentes pour améliorer les capacités à produire des connaissances scientifiques n’est actuellement pas validée. Mais le simple fait d’inclure des modules de formation à ces théories dans le cursus des futurs scientifiques pourrait contribuer à l’amélioration de la qualité de la recherche scientifique.

Les marchands de peur ont peur de la vérité Révisons la litanie. Nous avons peur des Chinois dont la concurrence de la main d’œuvre est redoutable, des Allemands qui sont plus organisés et prétendument meilleurs techniciens, des Anglais supérieurs en finance, des riches Américains qui investissent plus, etc. L’étranger est objet de notre inquiétude. Parallèlement, nous craignons l’exploration par fracturation des schistes, les dangers éventuels des OGM, les nanoparticules, le nucléaire, le tabac, les produits alimentaires, les aliments gras ou sucrés, les changements du climat, etc. Certaines de ces anxiétés ne sont pas déraisonnables, d’autres sont exagérées. Comment pouvons-nous les départager ? Par notre expérience historique ? La grande peur de l’an mille était absurde, la peur

Après avoir invoqué Rabelais pour introduire ce billet, je laisserais à Socrate le mot de la fin : connais-toi toi-même ! Guillaume de Lamérie [1] Voir le chapitre 4 de la thèse de Richard Monvoisin « Pour une didactique de l’esprit critique » (2007). [2] « Why do humans reason ? Arguments for an argumentative theory », Behavioral and Brain Sciences (2011) 34, 57-111. [3] À quoi jouent les primates ? Dario Maestripieri. Éditions de l’Évolution, 2013 www.pseudo-sciences.org/spip.php?article2166 [4] L’erreur de Descartes : La raison des émotions. Antonio R. Damasio. Ed Odile Jacob [5] Libet B. et al. (1979), “Subjective referral of the timing for a conscious sensory experience”, Brain, 102, 193-224.

Edvard Munch (1893)

Psychiatre hospitalier

Science et pseudo-sciences n°308, avril 2014

11

de la peste justifiée. Hélas, nous refusons la culture historique par crainte d’élitisme. Écoutez les discours politiques : sur l’économie, aucune allusion à des théories anciennes, sur l’enseignement, tabula rasa, guère de références aux Rousseau, Pestalozzi, et autres Freinet, sur la morale, foin des moralistes et autres théologiens de toutes religions qui ont réfléchi à la question. Les discours politiques sont insipides et acculturés : les gouvernants auraient-ils peur de s’inspirer des penseurs du passé ? N’auraientils aucune pertinence ici et maintenant ? Toute vérité ne serait-elle pas bonne à dire ? Une vérité peutelle exister si elle n’est jamais transmise à personne ? La recherche de la vérité n’est pas la quête politique et « le politique » a peur de l’interprétation de la vérité. Esquissez un raisonnement scientifique sur une nouvelle théorie et vous serez mis au pilori comme un doux rêveur, avancez les percées industrielles et vous serez jugé comme un suppôt du grand capital. Toute autocensure impose de dire autre chose que ce qui semble vrai ou soumet la vérité à autre chose qu’à sa pertinence. Par essence, l’idéologie, fondement de la politique, est destructrice de vérité.

Dans ces conditions, la vérité estelle transmissible ? L’approche de la vérité passe par l’amélioration de ce qui est connu et par la démonstration d’une insuffisance révélée par l’expérience ou la théorie. Elle n’est pas abordable en l’absence de ce contexte. Les moyens d’information comme la télévision (ou le discours politique) qui imposent une information immédiatement digeste ne peuvent exposer les nouvelles vérités. Pierre Bourdieu insistait sur son impossibilité de répondre à des questions délicates dans le temps qui lui était imparti pour la réponse. « La vérité, dit-on, consiste dans l’accord de la connaissance avec l’objet » écrivait Kant. La connaissance étaye évidemment le jugement et sans connaissances communes, pas de vérité. Tout se passe, en politique, comme si la vérité n’existait pas et pourtant nous discernons l’erreur de précaution : la peur amène l’inaction qui, on le sait, n’élimine pas le danger. Philippe Boulanger Physicien – Fondateur de la revue Pour la Science

Abonnez-vous en ligne sur notre site Internet

www.pseudo-sciences.org La meilleure solution pour être certain de retrouver votre magazine chaque trimestre. Et un bon moyen pour nous aider dans notre action.

12

Science et pseudo-sciences n°308, avril 2014

© Roberto A Sanchez; Istockphoto

Gourous et guérisseurs : du Québec à la France

En 2012, le Québec a découvert avec stupéfaction qu’une jeune mère de famille était morte « cuite », enveloppée de pellicule plastique et de terre, en suivant les prétendues thérapies d’une gourou de l’épanouissement personnel. Comment la quête de bonheur de cette femme a-t-elle pu mener à une telle tragédie ? Pour répondre à cette question, La Presse (l’un des plus importants quotidiens et sites d’information francophone en Amérique) a lancé un ambitieux projet d’enquête. Pendant trois mois, une équipe de la rédaction a écumé l’Internet et visité – souvent incognito – des pseudo-guérisseurs et des gourous en tout genre.

La situation telle que décrite dans le reportage n’est pas spécifique au Canada. Nul doute qu’une enquête menée dans l’hexagone révèlerait les mêmes dessous sombres du monde des guérisseurs et du paranormal. Reste juste à trouver, de ce côté de l’Atlantique, le grand organe de presse qui, pour une fois, déciderait de ne pas sombrer dans le sensationnalisme et la complaisance et se donnerait les moyens d’une enquête honnête et objective. Au Canada, comme en France, les marchands de miracles savent exploiter la détresse des personnes, se parent souvent de pouvoirs extraordinaires, ou se réclament indûment d’une approche psychologique spécifique. La valeur de l’enquête menée par Marie-Claude Malboeuf tient, non seulement dans son implication et son investigation, mais dans le recul qu’elle prend face aux réalités qu’elle découvre. « Rencontrer les différents acteurs s’est révélé facile. Les maîtres à penser sont partout. Dans des officines discrètes, mais aussi dans des hôpitaux, des écoles et des bureaux de psychologues. Ils nous ont reçus en robe ou en blouse blanche, armés d’aimants, de diapasons ou de “fréquences invisibles”. Tous débordants de confiance. Parfois louches et avides, parfois sympathiques et sincères, mais pas inoffensifs pour autant.

Leur promesse : éliminer le mal de vivre, l’hyperactivité, le cancer, grâce à des méthodes bizarres, ou carrément choquantes. Et ces soins, très onéreux, sont souvent remboursés à tort par les compagnies d’assurances. On suit leurs conseils à ses risques et périls. Certains clients ont simplement dépensé beaucoup d’argent, et disent avoir été aidés. Mais d’autres en sont morts ou se sont suicidés. Certains ont abouti à l’hôpital psychiatrique ou dans des sectes.

On y découvre un Québec dangereusement obsédé par la quête du bonheur et de la santé. Une terre où l’on a largué la religion, mais qui demeure fertile pour les prêcheurs de la bonne parole ésotérique. » Nous reproduisons, dans ce numéro de Science et pseudo-sciences et dans les suivants, l’intégralité du reportage réalisé par nos collègues canadiens, avec l’aimable autorisation de la rédaction de La Presse, et en particulier celle de l’auteure principale, Marie-Claude Malboeuf.

Titre original : « Gourous Inc. ». www.lapresse.ca/actualites/201209/28/01-4578585-gourous-inc-notre-grande-enquete.php Tous droits de reproduction réservés (LaPresse.ca).

Science et pseudo-sciences n°308, avril 2014

13

Gourous et guérisseurs : du Québec à la France (1)

Le marché des enfants Marie-Claude Malboeuf Avec la collaboration d’Hugo Meunier

Les pédiatres imaginaires Nicole Ouellet a commencé sa carrière comme infirmière. Aux soins intensifs et en néonatalogie. Difficile à croire lorsqu’au téléphone, elle nous déclare traiter les tout petits bébés en se fiant aux « vibrations » de leur couche pleine d’urine. « Avant de nous la poster, les parents la font sécher », prend soin de préciser la résidante de Sherbrooke. Interrogée en avril au sujet d’une fillette de trois ans aux intestins infestés de polypes, la sexagénaire est catégorique : quoi qu’en disent les médecins – et malgré les risques de cancer –, la chirurgie est inutile. Avec quelques traitements de « médecine vibratoire », dit-elle, toutes les excroissances vont sûrement disparaître. La petite n’a qu’à gribouiller sur une feuille de papier. Encore une fois, l’ex-infirmière se fiera aux « vibrations » qui en émanent pour la guérir... en pondant une liste de mots. Nicole Ouellet énumère ses clients passés : une petite de deux ans et demi couverte d’eczéma et de psoriasis, une enfant brûlée au troisième degré... Son site web affiche même les photos douteuses avant/après d’une fillette de 11 ans, qui lui serait arrivée très fiévreuse, peinant à respirer et vomissant. Depuis 1994, Nicole Ouellet a été condamnée à quatre reprises pour exercice illégal de la médecine. Mais le Collège des médecins du Québec ne savait pas qu’elle avait aussitôt repris du service. Encore moins qu’elle s’en prenait aussi aux enfants. Vérification faite auprès de l’organisme, aucun guérisseur autoproclamé n’a encore été poursuivi pour avoir traité un jeune. Un seul a reçu un avertissement à cet égard, après avoir forcé les jambes d’un bébé, qui s’est retrouvé à l’hôpital. Pourtant, Nicole Ouellet a une immense concurrence. Au fil d’une enquête de trois mois sur l’industrie des pseudo-guérisseurs, nous avons constaté que la plupart d’entre eux jouent les pédiatres. Énergie, vibrations, aimants, fréquences : chacun prétend avoir trouvé LA méthode miracle pour tout guérir, des otites à l’autisme. Leurs actions sont très souvent illégales, mais payantes. Les consulter coûte souvent au moins 100 $ par visite. « Mais le plus inquiétant, c’est qu’on risque de priver l’enfant de soins reconnus », dit le Dr François Gauthier, directeur des enquêtes au Collège. Difficile de les épingler, car les parents viennent rarement se vanter d’avoir exposé leur enfant à des pratiques occultes.

14

Science et pseudo-sciences n°308, avril 2014

Guérir au téléphone Lorsque nous avons libéré la table d’une magnétiseuse du quartier Côtedes-Neiges (à Montréal), une écolière s’y est aussitôt allongée pour subir à son tour un traitement. Sur son site web, un autre pseudo-guérisseur, Sylvain Champagne, cible carrément les jeunes, qu’il dit « beaucoup plus réceptifs que nous, les adultes ». L’ex-ingénieur électrique prétend régler leurs problèmes par téléphone. Endormez votre fille et appelez-moi, nous dit-il. « On va l’observer 30 minutes. Ses yeux et ses doigts vont avoir des sursauts, son ventre va peut-être faire du bruit. C’est le signe que les fréquences travaillent. » Le naturothérapeute reçoit aussi les jeunes à Boisbriand (à une quinzaine de kilomètres de Montréal), dans le sous-sol rouge de son bungalow encombré de matériel promotionnel. Devant le garçonnet de 4 ans qui nous accompagnait en mars dernier, il agitait distraitement les mains en parlant sans cesse. L’homme ne voulait surtout pas savoir de quoi souffrait l’enfant, « pour ne pas contraindre l’univers », justifie-t-il. Parce qu’on ne choisit pas sa guérison, même lorsqu’elle coûte 111 $. Champagne n’offre aucune garantie, mais raconte qu’à son contact, un enfant autiste « est sorti de sa bulle ». Un jour, une cliente de 8 ans, hyperactive, « a même vu trois anges pendant le traitement », ajoute-t-il. Une amie lui aurait enfin demandé de guérir son fils par téléphone, tandis que le petit – atteint du cancer du cerveau – était à l’hôpital pour recevoir une greffe de moelle. « Ça pourrait avoir inspiré le médecin », assure le pseudoguérisseur. Rien n’a toutefois changé pour l’enfant de 4 ans que nous avons ramené chez lui. De retour dans son duplex de Rosemont, le petit s’est mis à agiter les mains autour de son chat en expliquant imiter « le magicien » pour que l’animal cesse de griffer. Le chat griffe toujours... Méthodes extrêmes Pour certains parents, tout semble préférable aux médicaments et à la résignation. « Des gens leur disent que leur enfant autiste ou hyperactif est plus avancé que son prof, que c’est un être supérieur, venu faire avancer la société, rapporte la psychoéducatrice Natacha CondoDinucci. Le filtre affectif laisse passer ça. C’est plus facile à avaler qu’un diagnostic douloureux. » Les tenants de cette théorie parlent d’enfants « nouveaux », « indigo », « arc-en-ciel » ou « de cristal ». Et prétendent, bien sûr,

Science et pseudo-sciences n°308, avril 2014

15

pouvoir guider leurs familles. Certains vont jusqu’à affirmer que, sans leur aide, l’enfant risque un jour le suicide. Désespérées et avides de solutions, bien des familles lisent tout ce qu’elles trouvent sur Internet, où il est facile de les embrigader, constate avec inquiétude l’orthopédagogue Karine Martel, spécialiste des troubles envahissants du développement. « Les gens en moyens sont prêts à toutes les dépenses », observe-t-elle. D’après nos recherches, sur un premier forum, les parents d’un enfant autiste écrivent par exemple qu’un praticien du reiki (forme d’imposition des mains très en vogue) visite leur domicile chaque week-end. Sur un deuxième, d’autres racontent avoir soumis leur enfant à des prises de sang « vivant » pour chercher des champignons et des parasites supposément responsables de l’hyperactivité. Ces tests sont pourtant « insensés » et les diagnostics qui en découlent sont « inventés », indique le site internet américain Science-Based Medecine. Dans les Laurentides, la mère d’un enfant autiste se présente pour sa part comme « un ange à la rescousse ». Auteure d’un livre très controversé, elle recommande entre autres la chélation, une approche « non seulement inefficace, mais dangereuse », peut-on lire sur le site internet de l’Association des médecins psychiatres du Québec. Ses adeptes administrent un cocktail de substances – parfois illégalement, par intraveineuse – pour forcer le corps à évacuer les métaux lourds. « Un de mes clients est malade comme un chien après. Il vomit, il a la diarrhée, il ne peut pas aller à l’école pendant trois jours », s’inquiète une intervenante, qui préfère garder l’anonymat pour ne pas insulter les parents. La naturopathe d’un autre petit autiste lui prescrit une crème à mettre derrière les genoux. D’autres ne jurent que par une diète sans gluten – même si l’Ordre des naturothérapeutes (qui n’est pas un véritable ordre professionnel, mais une simple association) nous a déclaré que cette diète n’est pas une panacée. « Pourtant, à en entendre certains, c’est toujours les parents qui ne suivent pas leurs règles assez religieusement », dénonce Karine Martel. « Les parents sont démunis et tristes, dit-elle. Lorsqu’ils nous arrivent, ils sont prêts à faire n’importe quoi. C’est choquant de voir des gens profiter de leur vulnérabilité. » 16

Science et pseudo-sciences n°308, avril 2014

Chélation et autisme : dangereuses purifications

La chélation consiste à administrer à un individu des substances chimiques visant à lier et éliminer certains métaux (mercure, plomb) du corps. Selon plusieurs enquêtes auprès de familles de différents pays [1,2,3], 6 à 8 % des personnes autistes subiraient ces interventions, pourtant inefficaces et dangereuses. Plusieurs interventions visant l’autisme (méthodes d’éducation, de réadaptation, de psychothérapie, de traitements médicamenteux) font l’objet de recherches scientifiques concernant leur efficacité et leur innocuité [4]. D’autres en revanche sont présentées et promues auprès du public sans fondement empirique suffisant. Malheureusement, les enquêtes [1,2] montrent bien que, dans un contexte d’offre limitée, la validité d’une méthode d’intervention entre peu en considération dans le choix des familles.

L’autisme serait-il causé par l’intoxication au mercure ? L’imposture scientifique de Wakefield, qui a répandu cette croyance, a été largement prouvée depuis. Mais ses effets restent toujours présents [5]. Et c’est ainsi que la chélation se présente, selon ses promoteurs (DAN !, Autisme Montréal, le fil d’Ariane…), comme permettant d’éliminer du corps les métaux lourds provenant de l’environnement et qui seraient responsables des symptômes autistiques. En pratique, une astuce méthodologique permet de convaincre les hésitants de la réalité de l’intoxication : une cure initiale « de mobilisation » fait sortir les métaux présents dans les cellules et les concentre dans les urines, où leur taux, comparé à celui d’urines non « chélatées », apparaît ainsi immanquablement élevé [6] – un peu comme si on secouait un tapis dans une pièce pour s’alarmer ensuite de la poussière présente dans l’air.

Les études disponibles sont médiocres, leurs résultats mitigés et, pris ensemble, ils ne sont pas en faveur de la chélation [7]. Les effets secondaires sont parfois sévères : l’utilisation de chélateurs a causé plusieurs décès. En effet, les produits administrés fixent et éliminent les métaux lourds, mais emportent avec eux d’autres composés, vitaux, pouvant entraîner de graves déséquilibres. Des études chez l’animal [8] montrent aussi que les produits chélateurs entraînent des anomalies comportementales et neurologiques. Plusieurs agences sanitaires1 se sont prononcées fermement contre la chélation en dehors des cas avérés d’intoxication aux métaux.

Dans l’autisme, les meilleures pratiques sont insuffisamment disponibles et ne permettent souvent que des progrès lents et incomplets. Personne ne peut blâmer les familles d’explorer par elles-mêmes les possibilités, mais le cas des chélateurs, alliant discours pseudo-scientifique, coûts importants et effets secondaires graves, doit inciter à la vigilance.

Baudouin Forgeot d’Arc, MD, PhD, professeur adjoint, Université de Montréal.

1 Food and Drug Administration aux USA (2010), la Haute Autorité en Santé (2012), l’American Academy of Child and Adolescent

Psychiatry (2014) ou le National INstitute for Clinical Excellence (UK) par exemple.

[1] Bilgiç A, Congologluz A, Herguner S, Turkoglu S, Bahali K, Gurkan K, Durukan I, Turkbay T. “Use of Complementary and Alternative Medicine in Children with Autism Spectrum Disorders : A Multicenter Study”, Archives of Neuropsychiatry 2013 ; 50 :237-243. [2] Green VA, Pituch KA, Itchon J, Choi A, O’Reilly M, Sigafoos J. “Internet survey of treatments used by parents of children with autism”. Res Dev Disabil. 2006 Jan-Feb ;27(1) :70-84. PubMed PMID : 15919178. [3] Harrington JW, Rosen L, Garnecho A, Patrick PA. “Parental perceptions and use of complementary and alternative medicine practices for children with autistic spectrum disorders in private practice”. J Dev Behav Pediatr. 2006 Apr ;27(2 Suppl) :S156-61. PubMed PMID : 16685182. [4] Haute autorité de Santé, Autisme et autres troubles envahissants du développement : interventions éducatives et thérapeutiques coordonnées chez l’enfant et l’adolescent (2012). URL : http://www.has-sante.fr/portail/jcms/c_953959/fr/autisme-et-autres-troubles-envahissants-du-developpement-interventions-educatives-et-therapeutiques-coordonnees-chez-lenfant-et-ladolescent [5] Cunningham, “The facts in the case of Dr. Wakefield”, 2010 (http://darryl-cunningham.blogspot.ca/2010/05/facts-in-case-of-drandrew-wakefield.html). En français : Fables scientifiques, ed. Çà et Là, 2012. Voir aussi Science et pseudosciences : www.pseudosciences.org/spip.php?article2039 [6] Adams JB, Baral M, Geis E, Mitchell J, Ingram J, Hensley A, Zappia I, Newmark S, Gehn E, Rubin RA, Mitchell K, Bradstreet J, El-Dahr J. Safety and efficacy of oral DMSA therapy for children with autism spectrum disorders : Part A—medicalresults. BMC Clin Pharmacol. 2009 Oct 23 ;9 :16. doi : 10.1186/1472-6904-9-16.PubMed PMID : 19852789 ; PubMed Central PMCID : PMC2774660. [7] Davis TN, O’Reilly M, Kang S, Lang R, Rispoli M, Sigafoos J, Lancioni G, Copeland D, Attai S, Mulloy A. Chelation treatment for autism spectrum disorders : A systematic review. Research in Autism Spectrum Disorders 7 (2013) 49–55. [8] Smith D, Strupp BJ. The scientific basis for chelation : animal studies and lead chelation. J Med Toxicol. 2013 Dec ;9(4) :32638. doi : 10.1007/s13181-013-0339-2. PubMed PMID : 24113857 ; PubMed Central PMCID : PMC3846979.

Science et pseudo-sciences n°308, avril 2014

17

Les gourous s’expliquent Lorsque La Presse l’a mise au courant de son enquête, Nicole Ouellet a d’abord ricané au bout du fil. Dans un courriel, elle nous a ensuite remercié de lui faire de la publicité et a affirmé qu’elle quittait le Canada pour se marier. Jadis, l’ex-infirmière vendait des fioles à ses clients. Cette fois, elle a plutôt exigé 260 $ pour nous remettre un diapason et une liste de mots. Pourquoi agir ainsi alors que le Collège des médecins l’a déjà punie quatre fois ? « J’ai trouvé une méthode où je ne rencontre pas les gens. Ce sont eux qui se donnent les soins », répond-elle. La sexagénaire de Sherbrooke soutient que ses anciens clients l’inondaient d’appels et qu’on ne peut lui interdire de travailler. « Moi, mes preuves sont faites, je suis au-dessus de ça, dit-elle. [...] Mozart s’est mis au piano à quatre ans pour écrire une sonate. Moi, à quatre ans, je soignais mes voisins. » Ouellet a bien admis qu’un enfant atteint de polypose risque le cancer, mais maintient qu’elle peut l’éviter. Devant notre scepticisme, elle a conclu la conversation en disant : « Vous allez en subir les conséquences ». À Boisbriand, le vendeur de « guérison reconnective », Sylvain Champagne était très inquiet. L’ex-ingénieur dit qu’il ne propose pas aux gens de les guérir, mais plutôt, de retrouver l’harmonie (ou encore, qu’il « les inspire à aller voir un médecin particulier »). Il ajoute pourtant : « Guérir une coupure au doigt n’est pas vraiment plus difficile que de guérir le cancer. Peu importe la maladie, je connais des gens qui s’en sont sortis totalement. » Pour nous convaincre, il brandit un livre plein de tableaux, en disant qu’ils prouvent scientifiquement ses dires. Le mot guérison n’est « vraiment pas approprié par rapport à ce qu’on fait », dit-il malgré tout. Mais il ajoute : « c’est plate [ennuyant] qu’ici et ailleurs on ne soit pas libres de l’utiliser. » Pour lui, c’est dû au fait que « la médecine alternative ne fait pas l’affaire du gouvernement et du Collège des médecins ». Fraîchement rentré d’un salon à Lévis, Champagne s’est montré convaincu que le simple fait d’être en sa présence avait des vertus. « Une personne avait un problème de surdité, semble-t-il, maintenant qu’elle n’a plus besoin de son appareil », dit-il.

18

Science et pseudo-sciences n°308, avril 2014

En France aussi : la « guérison reconnective »

En France, la « guérison reconnective » a également ses adeptes. Une association a même été constituée regroupant les « praticiens » de cette méthode supposée utiliser « un ensemble de nouvelles fréquences de guérison constituées d’énergie, de lumière et d’information et qui agit aux niveaux physique, mental, émotionnel, spirituel ». Le terme « reconnexion » vient de la nécessité de rétablir des liens que « l’humanité toute entière a rompu depuis longtemps », la reprise de contact « avec les réseaux énergétiques nous permettant de rester en synchronie avec nos propres corps ».

La légende de la discipline décrit ainsi son origine : « en 1993, dans son cabinet de chiropraxie, [Eric Pearl] a été mis en contact de façon soudaine et inattendue avec ces nouvelles fréquences énergétiques de soins. Ses patients, alors qu’il tenait simplement ses mains audessus de leur corps, commencèrent à expérimenter différentes formes de guérison dont certaines, c’est le moins qu’on puisse dire, furent considérées comme spectaculaires ». Nul besoin d’établir un diagnostic ou d’identifier des symptômes, est-il affirmé, la seule présence du guérisseur suffit : « son intention [permet] à ces fréquences d’énergie, de lumière et d’information d’agir en intelligence avec les besoins de la personne ». Et même la présence n’est pas obligatoire, car les séances peuvent aussi se pratiquer « à distance ». Très pratique, un seul téléphone suffit. Bien entendu, la science ignorée (ou malmenée) dans le jargon de présentation, est invoquée pour convaincre de la valeur des résultats obtenus, certifiée par « des études scientifiques poussées » (jamais aucune référence n’est donnée) révélant des « résultats fascinants » avec « notamment un effet positif sur la restructuration de notre ADN ».

Chaque « reconnexion » est facturée 333 € (pour une à trois séances en général, pouvant se faire par téléphone). Du moins, c’est ce que préconise la « charte » de l’association, chacun étant libre de ses tarifs, sous réserve de ne pas « pratiquer de marketing déloyal qui pourrait desservir ses confrères ». Une petite centaine d’adresses en France sont proposées pour trouver « la reconnexion près de chez soi ». Pourquoi 333 € ? Le prix a été fixé par Eric Pearl (le fondateur) et correspond à la « vibration 333 » associée avec la « Reconnexion Personnelle ». Il est ainsi recommandé de le « laisser intact », exprimé dans la monnaie du pays (dollars américains, dollars canadiens, euros...) pour garder les propriétés du traitement. Miraculeusement, cette « fréquence magique » est de 333, et non pas 9000... ou 4. Et qu’en est-il au Japon, où 333 yens font moins de 3 € ? Au fait, une fréquence de 333 quoi ? Quelle unité ?

Un système pyramidal est mis en place : un « praticien » ne sera reconnu par l’association que s’il a suivi différentes formations (payantes). Ces formations ne peuvent être délivrées que par une personne ayant atteint un niveau plus élevé... Au sommet de cet édifice, Eric Pearl, le fondateur. L’inscription sur le site est elle-même objet d’une cotisation. Bref, un business bien rôdé.

Et si la guérison n’est pas au rendez-vous ? C’est la faute à l’Univers... ou au patient : « la guérison est une décision qui est prise entre le patient et l'univers ». J.-P.K.

Source : le site de l’Association Française des Praticiens de la Reconnexion et divers sites de pratiquants.

Science et pseudo-sciences n°308, avril 2014

19

Des juges s’en mêlent Pour maintenir le suivi psychiatrique de son fils de 7 ans, très violent, un Lavallois s’est adressé au tribunal. La mère voulait abandonner ce suivi au profit des traitements énergétiques prodigués au Centre du soi rayonnant par une ancienne enseignante de mathématiques prétendant voir à travers le corps humain. « Le Tribunal estime que l’enfant a suffisamment de problèmes encore sans qu’on lui parle de la présence d’êtres subtils à l’intérieur de son corps et de dissociation de son être », a écrit la juge Ginette Piché en 2006. Les parents sont libres de croire ce qu’ils veulent, reconnaît la magistrate, mais l’intérêt de l’enfant prime, et leur droit de prendre des décisions à son sujet n’est donc pas absolu. La naturopathe Myriam Villiard a par ailleurs été qualifiée d’ignoble par un juge des petites créances qui l’accuse d’avoir sciemment profité des parents d’un enfant atteint d’une maladie rare alors qu’elle était déjà sous le coup d’une injonction. Sur son site, la commission des praticiens en médecine douce du Québec la présente quand même comme « l’un des grands noms qui ont contribué à l’avancement des médecines douces dans notre province ». Merci à PEZ pour ses illustrations. Retrouvez d’autres dessins de l’auteur sur son site « PEZ croque l’actu ».

http://pezcroquelactu.blogs.nouvelobs.com/

Afis

Samedi 17 mai à 15 heures Conférence de l’AFIS

École Normale Supérieure, amphithéâtre Jules Ferry 29 rue d’Ulm, 75005 Paris

Science et décision politique : former et informer ceux qui ont mandat de décider ? avec Yves Bréchet

Ondes électromagnétiques, alimentation, médicaments, nucléaire, OGM : l’expertise scientifique serait-elle disqualifiée ? Faudrait-il s’en méfier ? Faudrait-il lui préférer une expertise autoproclamée « indépendante » ? Les décideurs sont-ils bien informés ? Ne risque-t-on pas de voir se multiplier des lois et réglementations sans fondement scientifique, au gré des peurs et des controverses médiatiques ?

Yves Bréchet est Professeur à l’Université de Grenoble, Membre de l’Académie des Sciences. Conférence et débat ouverts à tous. Entrée libre. Le matin, à 9 heures 30 se tiendra l’Assemblée Générale de l’AFIS, réservée aux adhérents de l’association (même adresse).

20

Science et pseudo-sciences n°308, avril 2014

Point de vue

Comprendre le système de publication scientifique Franck Ramus Franck Ramus est directeur de recherches au CNRS au Laboratoire de Sciences Cognitives et Psycholinguistique, École Normale Supérieure, CNRS, EHESS.

Il est également membre du comité de parrainage scientifique de l’AFIS et de la revue Science et pseudo-sciences.

et article traite de deux sujets distincts mais intimement liés. D’une part, les caractéristiques particulières de la publication scientifique et les conséquences qu’il faut en tirer sur la manière d’apprécier l’activité d’un chercheur. D’autre part, l’expertise scientifique, et, en particulier, les critères selon lesquels les pouvoirs publics et les médias peuvent identifier les experts d’un sujet donné.

C

Pour véritablement contribuer à la science1, les textes relatant les idées et les résultats des chercheurs doivent impérativement répondre à des critères qui ne sont pas nécessairement bien connus du public, des journalistes (même scientifiques) et des décideurs. Cette méconnaissance a parfois des effets pervers que nous illustrerons dans le cas particulier de l’expertise. En premier lieu, nous allons expliciter et justifier ces critères. Ils sont essentiellement au nombre de deux :

l l

Les textes doivent être publiés dans des revues scientifiques expertisées par les pairs. Ils doivent être publiés dans des revues internationales en anglais.

Les supports de publication Les livres de librairie Premièrement, pourquoi la publication scientifique devrait-elle se distinguer des autres modes de publication, comme les livres et les magazines ? Outre l’intérêt évident d’éditer des supports spécifiques pour des publics 1 Dans cet article, le mot « science » est à prendre dans son acception la plus large possible,

c’est-à-dire à la fois l’ensemble des connaissances objectives que nous pouvons avoir sur le monde, l’ensemble des disciplines qui visent à acquérir de telles connaissances (dont les sciences humaines et sociales au sens large, y compris par exemple l’histoire et la philosophie), et la démarche scientifique qui est utilisée pour acquérir de telles connaissances (et qui consiste à formuler des hypothèses et à les tester en confrontant leurs prédictions avec des données factuelles). A contrario, cela exclut les approches purement narratives ou artistiques qui ne s’imposent pas de critère d’adéquation objective avec le monde.

Science et pseudo-sciences n°308, avril 2014

21

spécifiques, un petit tour dans une grande librairie permet de cerner immédiatement le problème du monde de l’édition généraliste : on y trouve tout et n’importe quoi, sans aucun critère de validité scientifique. Parcourons par exemple le rayon « santé », on y trouvera des livres de grande qualité fondés sur des données scientifiques irréprochables, tout comme des livres écrits par des charlatans sans aucune compétence, conseillant parfois des traitements inefficaces et dangereux pour la santé. Au rayon « psychologie », on trouvera essentiellement des livres de « développement personnel » promettant monts et merveilles, des livres de psychanalyse ayant réponse à tout, des livres-appâts pour des sectes, et très peu de livres fondés sur des données scientifiques sur la psychologie humaine. Si l’on regarde les journaux et magazines généralistes, on y trouve un fatras similaire. Le problème de l’édition généraliste, c’est que le seul critère de publication d’un texte, c’est qu’il puisse se vendre. Les critères de méthodologie, de validité scientifique n’entrent pas en ligne de compte. Ce type d’édition ne peut pas répondre aux exigences de la publication scientifique. Les journaux scientifiques « évalués par les pairs » On voit bien que les critères de L’évaluation par les pairs publication scientifique doivent (peer-review) être différents, et c’est pour cela qu’il existe un secteur de l’édition Voici les principales questions auxquelles le relecà part, pour les revues scienti- teur d’un journal évalué par les pairs doit répondre : fiques expertisées par les pairs (1) La question scientifique et les hypothèses qui (peer-reviewed). Ces revues dispo- sont faites sont-elles claires et bien posées ? sent d’un comité éditorial formé (2) La méthode utilisée est-elle appropriée pour de chercheurs jugés comme étant répondre à la question posée ? des experts internationaux dans le domaine couvert par la revue. (3) Les analyses des données sont-elles approLe travail du comité éditorial est priées ? complété par celui d’experts (4) Les conclusions tirées sont-elles conformes aux recrutés de manière ponctuelle résultats obtenus ? pour les besoins spécifiques de (5) L’article, sous sa forme actuelle, est-il suffisamcertains articles. En pratique, ment clair et détaillé pour permettre à d’autres cherchaque chercheur ayant écrit un cheurs de reproduire ces travaux ? article exposant ses idées ou ses (6) Dans les revues les plus prestigieuses, une résultats peut le soumettre à la question subsidiaire est celle de l’importance perrevue de son choix. Cet article est çue du travail : les résultats représentent-ils une envoyé à plusieurs experts du avancée de la connaissance suffisamment imporsujet désignés par l’un des édi- tante pour mériter publication dans cette revue ? Ou teurs2. Les questions qui sont s’agit-il d’une avancée plus mineure, incrémentale, de la connaissance, bonne à publier mais dans une posées aux experts sont multiples revue à diffusion plus restreinte et spécialisée ? (voir encadré). 2 Dans le monde de l’édition scientifique, le terme « éditeurs » désigne en fait les directeurs de la publication (responsables du contenu scientifique), et non la maison d’édition qui s’occupe de l’impression et de la distribution.

22

Science et pseudo-sciences n°308, avril 2014

© Maryna Kriuchenko | Dreamstime.com

Afin de répondre à ces questions, les experts vont éplucher l’article à fond, critiquer tout ce qu’ils jugent critiquable, émettre des avis et des recommandations sur la méthodologie, sur l’analyse des données, y compris des suggestions d’améliorations, et renvoyer leur rapport d’expertise à l’éditeur, qui en fera la synthèse. La décision de l’éditeur, transmise à l’auteur, indique si l’article peut être publié dans la revue, et si oui, sous quelles conditions (de révision de parties du texte, de refonte des analyses, voire parfois de collecte de données supplémentaires). Du point de vue de l’auteur, il est rare qu’un article soit accepté d’emblée par la première revue à laquelle il est soumis. Parfois, il est accepté sous réserve de révisions mineures. Très souvent, des révisions majeures sont demandées avant que l’article ne puisse être resoumis (et donc renvoyé aux experts), sans pour autant garantie de publication après révisions. Ce processus peut s’itérer deux, trois fois ou plus... Bien souvent aussi, l’article est simplement rejeté par la revue et l’auteur peut éventuellement décider de le soumettre ailleurs. Eh oui, c’est dur d’être chercheur, il ne suffit pas de faire la recherche, encore faut-il parvenir à la publier... Mais le résultat de ce long processus « d’expertise par les pairs », c’est que les articles finalement publiés dans les revues offrent un niveau de qualité scientifique minimal, niveau qui varie selon les standards de la discipline et les exigences propres à chaque revue. Comme tout chercheur a pu en faire l’expérience, le seul processus d’expertise par les pairs et de révisions multiples qu’il entraîne permet d’augmenter significativement la qualité des articles publiés. Bien entendu, il ne s’agit pas de suggérer que toutes les études publiées dans les revues scientifiques sont parfaites et que leurs résultats sont incontestables et définitifs. La notion même de résultat incontestable est incompatible avec la démarche scientifique. Il existe bien sûr toute une hiérarchie de revues scientifiques, certaines beaucoup moins exigeantes que d’autres et publiant des études de moindre qualité. Et même les revues les plus prestigieuses ne sont pas à l’abri de publier des études mal conçues ou mal conduites dont les résultats ne seront pas confirmés ultérieurement, de nombreux exemples en attestent. De fait, le modèle actuel d’expertise par les pairs n’est pas exempt de défauts et de nombreux débats animent la communauté scientifique sur l’opportunité et la manière de le faire évoluer. Néanmoins, le niveau de qualité et de rigueur des travaux publiés dans la plupart des revues scientifiques est sans commune mesure avec la bouillie disponible dans l’édition généraliste. Science et pseudo-sciences n°308, avril 2014

23

Les maisons d’édition spécialisées On pourrait toutefois objecter qu’il existe des maisons d’éditions spécialisées dans les livres scientifiques, publiant des monographies et/ou des ouvrages collectifs, qui appliquent peut-être des critères de sélection tout aussi rigoureux que les revues internationales. Sans prétendre pouvoir être généralisé, un rapide examen du catalogue de deux des éditeurs scientifiques les plus reconnus (Odile Jacob et CNRS éditions) montre que leurs critères de publication ne sont, de toute évidence, pas ceux des revues scientifiques3. Ma propre expérience de publication de chapitres dans des livres scientifiques collectifs (en français ou en anglais) m’a révélé qu’aucun de mes chapitres ainsi soumis, n’a subi un processus d’expertise par les pairs équivalent à celui d’une revue scientifique internationale, même très mineure. Chez les éditeurs français (Solal, PUF, Éditions de l’Institut des Sciences de l’Homme, Odile Jacob), mes chapitres n’ont visiblement subi aucune expertise, et chez les éditeurs internationaux (Sage, MIT Press, Mouton de Gruyter, Psychology Press, Lawrence Erlbaum, Harvard University Press), lorsqu’il y a eu expertise, ses exigences ont été extrêmement légères. Néanmoins, rien n’interdit en principe que certaines collections de livres chez certains éditeurs appliquent une expertise par les pairs aussi sévère que les meilleures revues scientifiques. Si de telles collections existent, elles échappent à mes critiques, mais force est de constater qu’elles doivent être très minoritaires.

© Maryna Kriuchenko | Dreamstime.com

La première conclusion que l’on peut tirer, c’est que tout chercheur, et même toute personne qui prétend avoir des idées ou des résultats de portée générale, sans pour autant les avoir publiés dans des revues scientifiques expertisées par les pairs, doit inspirer une certaine méfiance. Car cela signifie que ces idées ou résultats n’ont probablement subi aucun contrôle de qualité, et n’ont pas été examinés de manière critique par d’autres spécialistes du domaine.

Les idées publiées dans l’édition classique ont le même statut que celles émises par-dessus le comptoir : de simples opinions. 3 Il est admis que dans un livre, on peut se laisser aller à donner son avis et à spéculer bien

au-delà des données, ce qui n’est généralement pas le cas dans les revues.

24

Science et pseudo-sciences n°308, avril 2014

La langue de publication

© Maryna Kriuchenko | Dreamstime.com

La science ne connaît pas de frontières : c’est un ensemble de connaissances à vocation universelle. Une discipline scientifique qui se développerait dans un seul pays, sans tenir compte des connaissances produites ailleurs, sans diffuser ses résultats à l’extérieur de ses frontières, et sans s’exposer au regard critique des autres, aurait de sérieux problèmes de crédibilité, et aurait peu d’influence sur le cours global de la science. C’est pour cela que dans la recherche, plus que dans tout autre secteur, le développement d’Internet a été mis à profit pour diffuser tous azimuts les publications scientifiques. La lenteur de l’édition papier et de l’acheminement postal n’est donc plus un frein à la communication scientifique. Un autre frein potentiel est bien sûr la langue. Au XVIIIe et au XIXe siècles, les quelques centaines de scientifiques répartis dans une dizaine de pays publiaient dans leur langue maternelle et devaient déployer des trésors d’érudition pour prendre connaissance des travaux des autres. Pour pallier cet inconvénient, plusieurs langues se sont successivement imposées comme des lingua franca : le latin, le français, l’allemand, et depuis la seconde guerre mondiale, l’anglais. Aujourd’hui, à l’ère où le nombre de publications scientifiques sur un sujet donné se compte en centaines ou en milliers d’articles par an et où les auteurs sont issus de 180 pays et ont encore plus de langues maternelles, l’idée même d’essayer de lire la science dans la langue maternelle des autres n’a plus la moindre plausibilité. L’utilisation d’une langue commune, déjà utile au XVIIIe siècle, est aujourd’hui devenue une nécessité vitale pour la recherche. On peut déplorer la perte d’influence du français et la domination écrasante de l’anglais, et ce pour des raisons qui n’ont rien de scientifique (tout simplement : le poids économique des États-Unis et leur investissement massif dans la recherche, qui a entraîné une prédominance quantitative de fait des travaux publiés en anglais). Mais aujourd’hui c’est un fait incontournable : la recherche a besoin d’une langue commune. L’anglais s’est imposé, et cette situation sera bien difficile à modifier. Le simple réalisme impose donc à tous les chercheurs du monde, s’ils veulent faire connaître leurs travaux, de les publier en anglais. Publier ses travaux dans une autre langue que l’anglais, c’est les condamner à n’être Science et pseudo-sciences n°308, avril 2014

25

© Belka10 | Dreamstime.com

connus que par la petite fraction des scientifiques du domaine qui sont capables de lire cette langue (environ 2 % en ce qui concerne le français4), et à être ignorés par tous les autres. C’est donc les condamner à n’avoir probablement aucune influence sur le cours de la science. C’est aussi les priver du regard critique des meilleurs spécialistes internationaux du sujet, ce qui peut être rassurant pour certains chercheurs, mais qui est aussi une perte de chance pour la qualité de leurs travaux. En effet, les critiques des autres chercheurs sont essentielles pour identifier les failles dans ses propres résultats et arguments. Tout chercheur qui a publié dans les revues scientifiques internationales en anglais peut témoigner à quel point la qualité de chaque article soumis et de ses travaux ultérieurs a été améliorée par les critiques (parfois sévères) reçues de la part des experts mondiaux du domaine. Certes, certaines revues scientifiques francophones possèdent aussi des comités éditoriaux qui font de l’expertise par les pairs. Même si les chercheurs francophones expertisant les articles en français peuvent être aussi compétents que leurs collègues étrangers, l’échantillon au sein duquel on peut puiser des experts francophones est nécessairement beaucoup plus restreint, et ne peut pas avoir le même éventail de compétences qu’en puisant dans l’ensemble des experts au niveau mondial. Accessoirement, nombre de chercheurs français compétents ne voient pas l’intérêt d’expertiser des articles de recherche écrits en français, si le fruit de leur expertise ne doit bénéficier qu’à 2 % des chercheurs du domaine ; il est plus rationnel d’expertiser uniquement pour les revues internationales, sachant que les chercheurs reconnus dans leur domaine reçoivent déjà bien plus de sollicitations d’expertises de revues internationales qu’ils ne peuvent en assumer.

Résultats de la recherche et vulgarisation Bien entendu, il ne s’agit pas de dire qu’aucun résultat de la recherche ne doit être diffusé en français. Seuls les comptes-rendus originaux des recherches, ceux qui sont lus par les chercheurs, doivent être publiés en anglais. À côté de cela, de nombreuses autres personnes doivent être informées des dernières avancées scientifiques : les professionnels (médicaux, paramédicaux, de l’éducation, etc.), les politiques et les décideurs, et 4 Ce chiffre de 2 % est simplement une estimation du nombre de locuteurs du français dans

le monde. Même en prenant les chiffres délibérément exagérés du Haut Conseil de la Francophonie, on atteint à peine 300 millions de personnes ayant une maîtrise minimale du français, soit moins de 5 % de la population mondiale (article wikipedia « Distribution du français »). D’autres estimations sont plus conservatrices (http://verite-nombre-de-francophones-dans-le-monde.skynetblogs.be/). Bien évidemment, 5 % convient aussi bien que 2 % à mon propos.

26

Science et pseudo-sciences n°308, avril 2014

tous les citoyens. Ces personnes n’ont ni le temps, ni l’intérêt, ni la compétence nécessaires pour parcourir les travaux originaux. Elles ont besoin de transfert des connaissances (ou vulgarisation scientifique), sous une forme différente, adaptée à leurs besoins et à leur niveau de connaissances. C’est l’objet des articles scientifiques dans les médias généralistes et spécialisés, et des livres dans de nombreuses collections. Tous ces textes scientifiques en français, publiés sur divers supports, sont donc parfaitement légitimes et nécessaires. Mais il ne faut pas les faire passer pour ce qu’ils ne sont pas : ce ne sont pas des comptes-rendus originaux des travaux scientifiques. Ce sont des textes qui traduisent, synthétisent, résument, et simplifient les comptes-rendus originaux pour les rendre accessibles à un plus large public demandeur d’informations scientifiques en français. Ces textes, eux aussi, devraient être évalués, et le sont insuffisamment. Mais ils devraient l’être selon des critères différents des vraies publications scientifiques : le critère devrait être de refléter fidèlement l’état des connaissances (ou les résultats d’une étude) publiées dans les revues scientifiques internationales. Lorsque des revues et des maisons d’édition francophones prétendent qu’elles publient des travaux scientifiques originaux, elles rendent un mauvais service à la science, aux chercheurs et aux lecteurs. À la science, car ces travaux étant invisibles de la plupart des chercheurs du monde, ils ne contribuent de fait pas à l’avancement de la science, quand bien même ils auraient quelque chose d’important à apporter. Aux chercheurs, car même si pour eux la publication en français est une solution de facilité (à la fois d’un point de vue linguistique et du point de vue du niveau d’exigence), leurs travaux ne sont pas évalués, critiqués (et donc améliorés), diffusés et valorisés au niveau où ils devraient l’être. Et aux lecteurs, en leur faisant croire que les travaux ainsi publiés ont la même validité que des travaux publiés dans des revues scientifiques internationales.

Les traditions de publication selon les disciplines

© Maya Bunschoten | Dreamstime.com

Pour tout chercheur en physique, en biologie, ou en médecine, tout ce qui est écrit ci-dessus est d’une grande banalité et mérite à peine discussion. Aucun biologiste n’aurait l’idée de publier les résultats de sa dernière expérience dans une revue ou un livre en français. En revanche, les sciences humaines et sociales (SHS) sont beaucoup plus partagées sur le sujet. Ces disciplines entretiennent beaucoup de revues spécialisées en français, et valorisent énormément la publication de livres en français par les cherScience et pseudo-sciences n°308, avril 2014

27

cheurs5. Les pratiques de publication y sont très hétérogènes : certains chercheurs ne publient leurs travaux originaux que dans les revues internationales en anglais (notamment en psychologie et en économie), d’autres ne les publient qu’en français, et d’autres encore ont une stratégie de publication mixte. Et pourtant, si l’on y réfléchit bien, les arguments exposés ci-dessus s’appliquent tout autant aux SHS qu’aux autres disciplines. Si l’on considère la question de la langue de publication, peut-on décemment soutenir que les travaux français en sociologie n’intéressent que les sociologues francophones ? L’histoire de France ne concerne-t-elle que les historiens francophones ? Et l’économie française les économistes francophones ? Sans compter que les chercheurs français en SHS ne se restreignent évidemment pas à des recherches portant sur la France. Les dernières théories des chercheurs français en sciences de l’éducation ne gagneraient-elles pas à être évaluées par des experts internationaux en sciences de l’éducation, et à être confrontées aux théories et aux données produites dans d’autres pays ? Et les pratiques thérapeutiques proposées par les psychanalystes français pour l’autisme ne mériteraient-elles pas d’être évaluées et publiées dans des revues médicales internationales ? Comment tous ces chercheurs français peuvent-ils assurer la validité de leurs travaux s’ils ne les ont soumis qu’au regard de 2 % des spécialistes de leur sujet (et ceux qui leur sont le plus proche) ? Plus généralement, on peut se poser des questions sur le statut de ce que font des communautés entières de chercheurs français qui ne publient qu’en français et n’évaluent et ne diffusent leurs travaux qu’entre eux, sans jamais les exposer au regard des experts du reste du monde (par exemple, en sciences de l’éducation ou en psychanalyse). Quelle est la validité de ces travaux ? En quoi contribuent-ils à l’avancement global des connaissances ?

Des problèmes spécifiquement français ? Bien sûr, outre la production de connaissances générales, les SHS ont aussi une vocation importante à guider la société et les décideurs dans de nombreux choix de société, et les textes qui visent à guider ces choix sont nécessairement écrits en français. Mais ces textes ne peuvent être les travaux originaux de recherche eux-mêmes. Ce ne peut être que des synthèses en français de connaissances validées et publiées par ailleurs dans des revues scientifiques internationales, ou bien des hypothèses et des opinions éclairées par de telles connaissances. Sinon, quelle validité scienti5 Un rapport récent sur le sujet souligne la profusion et l’émiettement considérable de l’édition française en SHS, ce qui ne favorise évidemment pas la qualité et la diffusion nationale et internationale. Pour citer quelques chiffres, il existe en France 2010 revues en SHS (soit 1,34 par laboratoire de SHS !), comptant chacune un nombre médian de 300 abonnés payants. Les livres français en SHS publiés par des éditeurs privés sont quant à eux vendus à un nombre médian de 450 exemplaires. Ceux publiés par des presses universitaires sont tirés à 440 exemplaires en moyenne. Source : Groupement Français de l’Industrie de l’Information. (2009). L’édition scientifique française en sciences sociales et humaines – Rapport de synthèse. Paris : GFII.http://www.gfii.fr/fr/document/l-edition-scientifique-francaise-en-sciencessociales-et-humaines.

28

Science et pseudo-sciences n°308, avril 2014

fique peuvent-ils revendiquer ? Il se peut aussi que dans certains cas des travaux de recherche portent sur des problématiques très spécifiques au contexte français : par exemple, des problèmes organisationnels spécifiques à l’Éducation Nationale. Admettons donc que certains travaux en sciences de l’éducation (par exemple) soient de portée suffisamment locale et ne nécessitent pas d’expertise internationale pour qu’il ne soit pas indispensable de les publier en anglais. Tant pis pour les Ougandais qui pourraient en apprendre quelque chose pour l’organisation de leur système éducatif, on admettra aussi que ce n’est pas le rôle premier des sciences de l’éducation françaises d’aider l’Ouganda. Néanmoins, toutes les questions en sciences de l’éducation ne sont pas de portée purement locale. Si par exemple les chercheurs français ont des idées novatrices sur les pratiques pédagogiques favorisant l’apprentissage de la lecture ou du calcul, nul doute que cela devrait intéresser d’autres pays (quand bien même ils enseignent dans une autre langue que le français). Nul doute aussi qu’il existe déjà de nombreux travaux de recherche sur ces sujets dans de nombreux pays, et que les idées de nos chercheurs français en sciences de l’éducation ne pourraient que gagner à s’y confronter, et à être évaluées par les spécialistes internationaux du sujet. Pourquoi ne publient-ils donc pas dans les revues internationales en sciences de l’éducation ? Plus généralement, pour tout chercheur et a fortiori pour toute communauté de chercheurs dont l’es-

Un mauvais argument pour défendre les publications en français

L’un des arguments souvent avancés pour défendre la publication en français est que, l’anglais n’étant pas la langue maternelle des chercheurs français, l’utilisation obligatoire de l’anglais leur rendrait plus difficile l’expression de toute la subtilité de leur pensée et de leur argumentation scientifique (et ce peut-être plus en sciences humaines et sociales que dans des disciplines reposant davantage sur des langages formels), conduisant de facto à un appauvrissement de leurs textes. En outre, cette utilisation de l’anglais les désavantagerait injustement dans la compétition scientifique internationale (pour l’espace dans les revues prestigieuses, pour les financements) par rapport aux anglophones natifs.

Ces points sont bien sûr réels, mais les énoncer ne suffit pas à justifier de ne publier que pour 2 % des chercheurs du domaine. Encore faut-il trouver une solution pour diffuser les publications à 100 % d’entre eux. À moins d’inverser l’ordre géopolitique des choses, les solutions semblent plus être de l’ordre de l’amélioration des compétences en langue anglaise, et peut-être de l’utilisation de services de traduction, que de celui de la publication en français.

Concernant le premier point, on peut aussi se demander à quel point la difficulté éprouvée par des chercheurs de certaines disciplines pour s’exprimer en anglais ne proviendrait pas d’une confusion entre œuvre littéraire et texte scientifique (qui expliquerait aussi la préférence manifestée pour la publication de livres plutôt que d’articles). Les œuvres littéraires sont, certes, difficiles à traduire, mais ce n’est pas le rôle des chercheurs d’en produire. Les textes scientifiques, eux, s’accommodent mieux d’un langage technique, précis, concis, voire standardisé (même en SHS), qui est beaucoup plus aisé à traduire (et même à penser directement en anglais). Il me semble que les figures de style auraient plutôt tendance à nuire à la clarté des textes scientifiques. Peut-être certains chercheurs devraient se concentrer sur le contenu strictement scientifique de leurs textes et abandonner toute ambition d’en faire également des œuvres littéraires. Ils auraient alors plus de chances de trouver que l’anglais est une langue tout à fait adéquate pour cet objectif.

Science et pseudo-sciences n°308, avril 2014

29

Sur quelle expertise fonder le choix de méthodes de lecture dans les écoles ? Lorsqu’en 2005, Gilles de Robien, alors C’est dans ce contexte étonnant qu’avec ministre de l’Éducation Nationale, décida de quelques collègues, je suis entré de plainréformer l’enseignement de la lecture et pied dans le débat en rappelant les conclud’imposer la méthode syllabique, certaines sions du National Reading Panel1. Ce qui associations de parents (qui avaient inspiré m’a le plus frappé lors du débat qui a suivi, le ministre) applaudirent, alors que les syndi- c’est que les chercheurs français en cats d’enseignants, appuyés unanimement sciences de l’éducation (enseignants-cherpar les chercheurs français en sciences de cheurs dans les IUFM, dans les départel’éducation, s’y opposèrent frontalement. ments de sciences de l’éducation des uniCurieusement, aucun des deux camps ne se versités, ou à l’Institut national de recherche référait initialement à la moindre étude scien- pédagogique, devenu l’Institut Français de tifique sur le sujet. Pourtant, les revues l’Éducation) réputés experts de l’apprentisscientifiques internationales regorgeaient sage de la lecture ne semblaient pas d’études expérimentales rigoureuses com- connaître les études internationales sur le parant les mérites respectifs des différentes sujet. Lorsque j’ai sorti le rapport du NRP, ils méthodes. Le Sénat américain, en 1997, semblaient découvrir la Lune ! À part s’était posé exactement la même question, quelques-uns (notamment Roland Goigoux d’une manière plus rationnelle que le minis- qui avait fait une étude similaire, la seule qui tre français (c’est-à-dire sans préjuger de la ait jamais été conduite en France), l’idée réponse et en s’en remettant aux données même que l’on puisse tester expérimentaleobjectives), et avait formé le National ment l’efficacité de différentes méthodes, et Reading Panel (NRP) afin de faire la syn- que l’on puisse argumenter dans le domaine thèse de toutes les études scientifiques sur de l’éducation sur la base de données facle sujet. Le NRP remplit parfaitement sa mis- tuelles, plutôt qu’en confrontant des opision, faisant une méta-analyse de plusieurs nions, leur était étrangère (et plutôt antipadizaines d’études, et concluant en 2000 à la thique). Ils m’ont donné l’image d’une comsupériorité de certaines méthodes (dites munauté d’enseignants-chercheurs travailphoniques) sur d’autres (non phoniques), lant en totale autarcie, ne publiant leurs tratout en précisant que les données disponi- vaux qu’en français sans jamais les confronbles ne permettaient pas de départager diffé- ter à des regards extérieurs, et ne prenant rents types de méthodes phoniques (synthé- même pas connaissance des recherches tiques vs. analytiques). De manière intéres- publiées dans les revues scientifiques intersante, cette conclusion n’était compatible ni nationales de leur domaine. Autant que l’on avec l’idée de Gilles de Robien qu’il faille puisse en juger, la situation ne semble pas imposer une unique méthode (syllabique, avoir beaucoup évolué depuis (à quelques alias phonique synthétique), ni avec l’idée exceptions près, par exemple le Laboratoire des chercheurs en sciences de l’éducation des Sciences de l’Éducation de Grenoble). selon laquelle il n’y avait aucun problème, et Précisons que ces observations ne valent il était préférable de laisser les enseignants que pour le domaine relatif à l’apprentissage travailler sans faire plus de recommanda- de la lecture, n’ayant pas été personnelletions (laissant la porte ouverte aux méthodes ment confronté à d’autres secteurs des non phoniques utilisées par certains ensei- sciences de l’éducation françaises. gnants, et compatibles avec les programmes 1 www.lscp.net/persons/ramus/lecture/lecture.html alors en vigueur). 30

Science et pseudo-sciences n°308, avril 2014

sentiel de la production scientifique est en français, il est légitime de se demander pourquoi. Leurs travaux ne sont-ils pas susceptibles d’intéresser les 98 % de chercheurs du monde qui travaillent dans la même discipline, sur le même sujet, et d’intégrer le corpus international de la connaissance ? Il me semble que cette question se pose avec la même acuité dans les sciences humaines et sociales qu’en physique ou en biologie.

Conséquences pour l’expertise scientifique Ainsi, les critères de la publication scientifique sont nécessairement très différents de ceux de l’édition classique, et la manière d’apprécier les publications d’un chercheur est nécessairement très différente de celle d’apprécier l’œuvre d’un écrivain. Mais qui en est conscient, à part les chercheurs eux-mêmes (en tous cas ceux qui publient dans les revues internationales) ? Malheureusement, pas grand-monde. En particulier, pas les principaux intéressés, qui sont régulièrement amenés à solliciter l’avis de chercheurs experts de tel ou tel domaine : les journalistes et les politiques. Il suffit d’ouvrir n’importe quel magazine (spécialisé ou généraliste) pour s’en rendre compte, et ce particulièrement dans les disciplines qui valorisent encore excessivement la publication francophone. Par exemple, sur un sujet de psychologie, qui est interrogé ? Dans 90 % des cas, un psychanalyste qui a publié des livres en français, mais qui n’a jamais publié le moindre article scientifique en anglais (et qui bien souvent n’a même aucune activité de recherche au-delà de l’observation informelle de ses patients). Sur un sujet d’économie, les débats sont souvent accaparés, soit par des Une autre illustration à propos des troubles du langage

Autre anecdote, venant cette fois d’une collègue étrangère, spécialiste mondiale des troubles du langage (reproduite avec sa permission... et traduite en français) :

« Il y a quelques années, j’ai reçu un livre de Danon-Boileau, L. (2007). Silent Child : Exploring the World of Children Who Do Not Speak. [traduction de L’enfant qui ne disait rien, publié chez CalmannLévy, puis 2e édition chez Odile Jacob] Ma stupeur alla croissante au fil de la lecture. L’auteur décrivait comment des enfants avec troubles du langage et dyslexie étaient traités par des méthodes psychanalytiques. Aucun résultat issu des neurosciences ou de la génétique n’était exposé. À la place, beaucoup de discours autour de conflits parentaux etc. Je fus étonnée d’apprendre que l’auteur était une figure majeure des troubles du langage en France. Je n’avais jamais entendu parler de lui. »

Cet exemple illustre à quel point les livres (même publiés chez Odile Jacob et traduits en anglais) peuvent contenir n’importe quoi sans aucun critère de compatibilité minimale avec les connaissances scientifiques actuelles. Il illustre également que les soi-disant « experts » et « éminents spécialistes » ainsi désignés sur la base des livres qu’ils ont publiés en français, peuvent être d’obscurs inconnus dans leur discipline au niveau international. Dans un autre article, j’ai fait une analyse similaire de l’« expertise » de Bernard Golse (lui aussi auteur chez Odile Jacob) dans le domaine de l’autisme. Bien évidemment, le fait que ces auteurs soient d’obscurs inconnus au niveau international ne dit rien directement sur la qualité de leurs idées et de leurs travaux, qui pourraient malgré tout être géniaux. Mais si leurs idées étaient si brillantes et leurs résultats si probants, pourquoi les soustraire à toute évaluation internationale, et brider délibérément leur diffusion et la probabilité d’avoir un impact sur l’évolution des connaissances et des pratiques ?

1 http://franck-ramus.blogspot.fr/2013/09/reponse-leditorial-de-bernard-golse.html

Science et pseudo-sciences n°308, avril 2014

31

économistes autoproclamés (entrepreneurs et écrivains comme Alain Minc, ou journalistes économiques), soit par des universitaires qui n’ont pas toujours une production scientifique internationale à la hauteur de leur notoriété franco-française. Cette tendance est renforcée par l’alliance entre le monde de l’édition et celui du journalisme, et la frontière ténue qui sépare le journalisme (y compris scientifique) et l’industrie du divertissement. Ainsi, les articles de magazine, les émissions de radio et de télévision portant sur des sujets scientifiques sont au moins autant guidés par les sorties de livres à promouvoir que par les résultats scientifiques nouveaux. Il n’est donc pas étonnant que les auteurs de ces livres soient rappelés en priorité par les journalistes lorsqu’une expertise sur un sujet scientifique est demandée. Quant aux pouvoirs publics, il y a fort à parier qu’ils se contentent de suivre les médias, piochant les noms de leurs experts dans les journaux (et parmi les représentants de divers lobbies) plus souvent que dans les bases de données bibliographiques scientifiques. L’ignorance généralisée des caractéristiques particulières de la publication scientifique, et la confusion qui en résulte entre édition classique et publication scientifique, concourent donc à déformer considérablement la perception de la compétence scientifique et l’usage de l’expertise scientifique par les médias, les décideurs et le grand public. Sur la question particulière de l’expertise, on pourrait objecter qu’il n’est pas nécessaire d’être un chercheur publiant dans les revues scientifiques internationales pour avoir un avis éclairé sur un sujet scientifique. C’est parfaitement vrai. Les chercheurs n’ont pas d’exclusivité sur la connaissance. Certains enseignants, médecins, ingénieurs, ou citoyens ayant une formation scientifique et tenant à jour leurs connaissances dans un domaine sont parfois tout à fait compétents sur certains sujets scientifiques. Mais comment les identifier ? Parmi tous les gens qui prétendent tout savoir et avoir tout compris, et qui ont parfois écrit un livre pour partager leurs révélations, comment distinguer ceux qui ont de véritables connaissances à jour sur un sujet donné, de ceux qui croient savoir tout en étant ignorants, sans parler des manipulateurs et des charlatans ? À moins de posséder soi-même plus de connaissances qu’eux sur le sujet, la tâche s’avèrera bien difficile. L’intérêt de s’adresser à des chercheurs, c’est que ceux-ci se situent par définition aux frontières de la connaissance : pour produire des connaissances nouvelles, il leur est déjà nécessaire de dominer les connaissances actuelles. Encore faut-il prendre soin d’interroger les chercheurs dans leur domaine d’expertise (en dehors, leur avis n’a pas de raison d’être plus pertinent que celui de n’importe quel autre citoyen), et s’assurer que les chercheurs que l’on interroge produisent effectivement des connaissances nouvelles nécessitant de se situer à la frontière de la connaissance. Pour le savoir, un seul critère possible : les articles dans les revues scientifiques internationales. On peut pour cela consulter les bases de données bibliographiques scientifiques (Web of Science, Scopus, qui nécessitent des abonnements payants, mais aussi Pubmed pour les sciences de la vie et Google Scholar, et qui sont en 32

Science et pseudo-sciences n°308, avril 2014

libre accès), de même que les sites institutionnels hébergeant les pages web des chercheurs, sur lesquelles figurent normalement leurs publications. Les services de presse des universités et des organismes de recherche sont en principe également en mesure d’orienter vers des chercheurs compétents sur un sujet donné (mais ils gagneraient sans doute eux aussi à se fier plus aux publications scientifiques qu’aux livres et aux interventions dans les médias pour identifier les experts). Entendons-nous bien : aucun critère simple n’offrira jamais une garantie à 100 % de la compétence d’une personne sur un sujet donné. Simplement, solliciter des chercheurs publiant régulièrement sur le sujet concerné dans des revues scientifiques internationales est la manière la plus fiable de minimiser les risques de recueillir un avis ignorant et non pertinent. S’il

L’évaluation par les pairs : imparfaite, mais c’est ce qui se fait de mieux

L’évaluation par les pairs n’est pas infaillible. Ainsi, une revue aussi prestigieuse que Nature a publié les travaux de Jacques Benveniste prétendant l’existence d’une « mémoire de l’eau » (cette « mémoire » aurait permis de donner une possible base théorique aux traitements homéopathiques). L’acceptation de l’article était cependant assortie d’une condition portant sur la possibilité pour des observateurs désignés par la revue de venir observer la répétition des expériences décrites. Les résultats n’ont pas pu être reproduits.

On se souvient également du fameux « canular » d’Alan Sokal. Dans ce cas, ce qui était démontré, c’est qu’une revue en sciences humaines pouvait publier un texte qu’elle ne comprenait manifestement pas, mais qui, parce qu’il allait dans le sens des présupposés éditoriaux et qu’il émanait d’un physicien reprenant le jargon de la revue, était accueilli avec enthousiasme.

Nous avons également décrit dans nos colonnes l’acceptation par la revue médicale The Lancet d’une étude affirmant l’existence d’un lien entre autisme et vaccination ROR (rougeole, oreillons, rubéole). Cette étude s’est révélée fausse et construite sur des données absentes, sur fond de conflits d’intérêt. Bien que retirée par l’éditeur, elle a engendré une peur infondée de la vaccination ROR, avec des conséquences désastreuses en termes de santé publique.

Enfin, plus récemment, une étude portant sur des rats ayant ingéré un maïs OGM avait défrayé la chronique et servi de base à une campagne politique. L’article du Pr. Gilles-Éric Séralini, publié initialement par la revue Food and Chemical Toxicology, a finalement été retiré par les éditeurs au vu de résultats jugés « non concluants ». Que retenir de ces exemples ?

Que le processus d’évaluation par les pairs n’est pas infaillible. La revue Food and Chemical Toxicology le reconnaît d’ailleurs. Mais c’est probablement ce qui se fait de mieux dans le processus de validation de la connaissance scientifique. Quelle autre méthode que celle de l’évaluation par les pairs pourrait-on imaginer ?

Par ailleurs, un article publié dans une revue, et ayant subi la meilleure analyse, ne signifie pas qu’il énonce une vérité définitive. La science se construit par reproduction d’expériences. Une publication vise à rendre accessible à toute la communauté scientifique un résultat donné à un moment donné. Charge à elle de le confirmer ou de l’infirmer. C’est pourquoi, quand il s’agit de passer de la science à l’expertise, d’établir un état de la connaissance nécessaire à une décision d’ordre réglementaire, des agences sanitaires et environnementales analysent l’ensemble de la « littérature » disponible. Elles ne se fondent pas sur un article, mais sur un ensemble de travaux. Elles examinent la reproductibilité des résultats, procèdent à des méta-analyses... J.-P.K.

Science et pseudo-sciences n°308, avril 2014

33

est vrai que certains journalistes scientifiques et certaines institutions (comme le service des expertises collectives de l’Inserm, ou la Haute Autorité de Santé) connaissent bien la spécificité de la publication scientifique et sont capables d’identifier correctement les experts d’un sujet, on peut regretter qu’ils soient très minoritaires, et que les livres en français et les apparitions médiatiques comptent bien plus dans l’esprit de la plupart des gens. Cette situation a nécessairement un impact sur la qualité de l’information et de l’expertise scientifiques disponibles en France.

En résumé Publier ses travaux originaux de recherche dans un livre sans les avoir préalablement publiés dans des revues scientifiques internationales, c’est court-circuiter le processus normal d’évaluation des travaux de recherche, et essayer d’influencer la société avec des idées qui n’ont pas été évaluées par les experts internationaux du sujet. Publier ses travaux originaux de recherche uniquement en français, cela revient à les enterrer bien profond dans un trou pour être sûr que la plupart des chercheurs du domaine n’en auront jamais connaissance. Si des politiques ou des journalistes souhaitent avoir un avis expert sur un certain sujet, ils feraient bien de savoir identifier les experts correctement : ce ne sont pas les livres, ni les revues en français, ni les apparitions médiatiques qui comptent, ce sont les articles dans les revues scientifiques internationales en anglais.

Afis

Les rencontres du comité francilien de l’AFIS

C’est devant une assemblée de plus de 80 personnes que, le 11 février Île de France 2014, Faouzia Farida Charfi et Hubert Krivine ont exposé leurs points de vue sur les ennemis de la Science que sont le relativisme et la pensée dogmatique. Cette séance a donné lieu à une série de dédicaces de leurs ouvrages, occasion pour les participants d’un échange passionné avec les auteurs. Nous tenons à transmettre des remerciements particuliers à Bernard Graber, responsable de la section francilienne de l’Union Rationaliste : grâce à son implication, de nombreux membres de l’UR furent présents lors de cet événement. La vidéo de cette rencontre est disponible sur le site dédié : http://goo.gl/yg26o8 Réservez dès à présent votre soirée, pour une rencontre exceptionnelle sur thème :

Les rumeurs et les légendes urbaines mardi 8 avril de 19h à 22h30 AgroParisTech 16 rue Claude Bernard - Paris 5e

Pour en parler, à l’occasion de la sortie de leur nouvel ouvrage, nous aurons parmi nous deux spécialistes français de ce domaine que sont Véronique Campion-Vincent et Jean-Bruno Renard. Ils nous présenteront ce que sont les rumeurs et légendes urbaines et comment elles sont étudiées en sociologie. Nouveauté pour cette 9e rencontre, « Autopsie de la rumeur », un documentaire audiovisuel de 52 minutes sera projeté, en présence de Bertrand Delais, son réalisateur. Pour plus d’information, voir le site dédié à l’événement : http://goo.gl/r8pCEA

Contactez-nous et partagez vos idées ici : [email protected]

34

Science et pseudo-sciences n°308, avril 2014

La rocambolesque aventure de la « chip » mystérieuse © Michael Foran (Lil’ Mike) flickr.com 239262070/

Jérôme Quirant e 911 Truth Movement, qui milite depuis des années à travers le monde pour la réouverture des enquêtes sur les attentats du 11 septembre 2001, a toujours essayé de justifier ses demandes au travers d’arguments prétendus scientifiques. Pour les membres de ce mouvement, les tours jumelles du World Trade Center (WTC) ne seraient pas tombées suite aux crashs d’avion et aux incendies qui ont suivi, mais comme le résultat d’une démolition contrôlée, c’est-à-dire à l’aide d’explosifs ou de puissants matériaux incendiaires [1].

L

Or, les enquêtes techniques et scientifiques qui ont été faites, durant de longs mois, ont parfaitement expliqué les raisons de ces effondrements. À ce jour, aucun scientifique spécialiste en calcul de structure n’a jamais remis en cause les grandes lignes de ces conclusions et, depuis, elles sont considérées comme une référence en la matière. Ne pouvant obtenir le crédit nécessaire sur le plan de la mécanique des structures, les partisans d’une nouvelle enquête se sont alors orientés vers d’autres pans de la science pour tenter de valider leur théorie. En 2007, Steven E. Jones, un physicien américain considéré comme un des leaders du mouvement, s’est tourné vers la chimie pour obtenir des preuves du piégeage des tours du WTC. Depuis, il parcourt le monde en exhibant ce qu’il a appelé des « chips », de petites écailles comportant deux couches, une grise, l’autre rougeâtre, trouvées dans les poussières après les effondrements. Selon ses dires, la couche rouge serait un matériau incendiaire très puissant n’ayant pas réagi, que seuls les militaires américains seraient capables de produire et appelé nanothermite. Afin de donner du crédit à ses allégations, il a entrepris de les faire publier dans une revue scientifique, ce qui a abouti à un article ayant défrayé la chronique de 2009 à 2012.

Un choix de revue… subtil En 2008, avec huit autres coauteurs, Jones a proposé le résultat de ses travaux à la revue « The Open Chemical Physics Journal » de l’éditeur Bentham. Ce choix était loin d’être téméraire puisque cet éditeur était connu pour avoir eu des problèmes de relecture de ses publications, ce qui a poussé de petits plaisantins à présenter un article gag totalement incohérent… qui a été effectivement publié [2] ! Après donc un – supposé – processus de relecture, l’article sur la nanothermite du WTC a finalement été accepté en février 2009.

Science et pseudo-sciences n°308, avril 2014

35

Sauf que, quelques jours seulement après sa parution, la rédactrice en chef de la revue a démissionné de ses fonctions en donnant une interview fracassante où elle expliquait n’avoir jamais été informée, avant publication, de l’existence de cet article, dont elle dénonçait par ailleurs les faiblesses sur le plan scientifique [3]. Par la suite, son successeur a lui-même remis sa démission car il n’obtenait pas d’information satisfaisante sur le processus de relecture dudit article [4]. La revue n’a alors plus rien publié pendant… 18 mois !

Indigence sur le plan scientifique Car indépendamment de la forme surprenante prise par cette publication, il est vite apparu, à la seule lecture des données des auteurs, que le choix des essais pour la démonstration, les interprétations avancées et les conclusions tirées avaient été faits en dépit du bon sens scientifique [5]. En effet, les résultats fournis laissaient clairement supposer, pour les personnes ayant un minimum de recul dans le domaine, que ce que les auteurs interprétaient comme étant un explosif ou un matériau incendiaire surpuissant et hyper secret, n’étaient en fait que de simples écailles de peinture, aux composés parfaitement connus et communs. Mais si l’interprétation était aussi évidente pour des spécialistes, comment un tel article a-t-il pu passer le processus de relecture ?

Un processus de relecture (très) douteux

© NIST

En 2010, lassé que l’article soit voué aux gémonies, le Professeur David Griscom s’est fait connaître comme étant l’un des deux relecteurs ayant validé l’article. Il a même indiqué avoir délivré une critique de plus de douze pages, ce qui est tout à fait exceptionnel dans ce genre de travaux. En fait, loin de rassurer sur la procédure de relecture, cette révélation de l’identité d’un des reviewers n’a fait que renforcer la suspicion, et ce pour deux raisons.

Structure en acier des tours jumelles du World Trade Center

36

D’abord, Griscom n’est absolument pas spécialiste de nanothermite ou d’explosifs (les deux thèmes centraux de l’article), mais de silice, de matériaux non cristallins et de verres, ce qui interroge grandement sur le sérieux avec lequel ont pu être désignés les reviewers. Des dizaines d’autres scientifiques auraient pu exercer pleinement leurs compétences sans qu’on ait à faire appel à un néophyte en la matière. Ensuite, Griscom est surtout connu pour avoir, bien avant la relecture incriminée, écrit un article sur le 11 septembre pour le site Internet conspirationniste de Jones [6] et donné du crédit aux théories les plus farfelues sur le sujet sur son blog [7].

Science et pseudo-sciences n°308, avril 2014

Comme il est par ailleurs la première personne à être remerciée à la fin de l’article (bizarre !…), on peut se demander si le supposé hasard qui sied habituellement au choix du reviewer n’a pas été aidé par les auteurs. En effet, la suggestion de relecteurs est de plus en plus en vogue chez les éditeurs, et notamment chez Bentham au moment de la publication de cet article [8]. C’est en tout cas la seule explication rationnelle à sa désignation aussi inadéquate et improbable qu’incroyablement bien venue.

Des dénégations spécieuses Alors que leur article était d’une faiblesse scientifique avérée, les auteurs se sont obstinés à nier l’évidence, biaisant systématiquement dans leurs réponses aux objections formulées. Jones, par exemple, avait pu réaliser en 2010 l’étude d’une peinture du WTC prélevée sur un mémorial. Lors de ses conférences, au lieu de comparer les résultats donnant une correspondance confondante entre certaines chips et cette peinture, il occultait les graphes concluants et présentait ceux qui ne correspondaient pas du tout [9]. Autre tentative pour essayer de sauver le fond de l’article, celle de Niels Harrit, chimiste de son état et premier auteur de l’article. Il a diffusé sur le net un document [10] affirmant avec force que :

l

l

les auteurs n’avaient jamais trouvé de magnésium au cours de leurs différents tests, ce qui disqualifierait un certain type de peinture (de marque Tnemec) appliquée sur les poteaux … la présence de traces infimes de chrome et de strontium dans les écailles analysées écarterait tout autant la possibilité qu’ils aient été en présence d’une simple peinture.

Or, les deux arguments sont aussi erronés l’un que l’autre. La figure 14 de l’article publié chez Bentham atteste en effet formellement la présence de magnésium dans une des chips, ce qui laisse à penser que Harrit n’a même pas relu son propre article ! Quant à la présence prétendument inexpliquée de chrome et de strontium, c’est tout aussi faux puisque l’une des deux peintures utilisées en grande quantité dans les tours jumelles (donnée en référence dans les rapports techniques sous la marque Laclede) contenait, même si c’était en faible proportion justement, du chromate de strontium [11]…

La réfutation ultime Le coup de grâce sur le fond proprement dit de l’article est intervenu en février 2012. Alors que tous les indices laissaient supposer que ces écailles étaient bien des résidus de peinture issus des poutres et poteaux des immeubles du WTC, il manquait néanmoins des tests permettant de lever définitivement l’ambiguïté. Ceux-là même que les neuf auteurs de l’article auraient dû pratiquer plus tôt, au lieu de fournir des résultats ambigus et non conclusifs. Science et pseudo-sciences n°308, avril 2014

37

© NIST

C’est Jim Millette, un scientifique américain spécialisé dans l’analyse d’éléments microscopiques et de poussières, qui a entrepris de pousser plus loin les études sur ces chips. Il a réalisé pour cela des tests additionnels permettant de comparer les composés présents dans les écailles à une banque de données (avec une analyse par spectroscopie infrarouge à transformée de Fourier – FTIR). Comme cela avait été fortement pressenti, il a confirmé que les chips contenaient Peinture écaillée (acier du WTC) principalement de la kaolinite, de l’oxyde ferrique et une matrice époxy. Une composition correspondant exactement à la peinture Laclede appliquée sur les éléments en acier soutenant les planchers des tours jumelles [11]. Ces résultats ont été présentés au congrès annuel de Forensic Science aux ÉtatsUnis [12].

Un article vidé de sa substance… Finalement, les deux types différents de chips mis en exergue par Jones et Harrit dans leur article ont donc été confirmés comme correspondant impeccablement avec les deux types de peinture utilisés massivement dans les tours jumelles (Tnemec et Laclede). La première concordance a été démontrée par Jones lui-même en 2010 au travers du prélèvement sur le mémorial [9], la deuxième par l’étude de Millette en 2012 [11]. Cela lève donc définitivement l’énigme de la chip mystérieuse et enfonce irrémédiablement cet article sur la découverte de nanothermite au WTC dans l’abîme des articles scientifiques à oublier. Ceux dont les auteurs (… et la revue les ayant publiés !) n’ont pas particulièrement brillé, ni par leur esprit d’analyse, ni par leur propension à l’autocritique.

[1] Cf. numéro Hors Série 296 de SPS : « Dix ans après [8] www.bastison.net/RESSOURCES/Critique_Article_H les attentats du 11 septembre – La rumeur confrontée à arrit.pdf pages 26 et 27. la science ». [9] www.bastison.net/RESSOURCES/Critique_Article_H [2] http://www.newscientist.com/article/dn17288-spoof- arrit.pdf pages 30 et 31. paper-accepted-by-peerreviewed-journal.htmlc [10] www.reopen911.info/News/2010/02/23/niels-harrit-

Références

[3] http://screwloosechange.blogspot.fr/2009/04/ben- pourquoi-les-chips-rougegris-ne-sont-pas-des-composants-de-peinture/ tham-editor-resigns-over-steven.html [4] http://activistteacher.blogspot.fr/2010/11/editor-in- [11] www.pseudo-sciences.org/spip.php?article1810 chief-resigned-over-harrit-et.html [12] On peut traduire forensic science par « investigation [5] La chimie à la rescousse par Emeric Steng – SPS scientifique ». Les actes du congrès sont disponibles à n° 296, www.pseudo-sciences.org/spip.php?article1698 l’adresse suivante : [6] www.journalof911studies.com/letters/DavidGriscomL http://www.aafs.org/sites/default/files/pdf/ProceedingsAtl anta2012.pdf etter.pdf et le rapport détaillé de ces études est téléchargeable : [7] http://ae911truth.info/wordpress/2010/ae911truth/atm- http://dl.dropbox.com/u/64959841/9119ProgressReport0 paper-reviewer-perhaps-victims-on-planes-alive-in-tahiti/ 22912_rev1_030112webHiRes.pdf

38

Science et pseudo-sciences n°308, avril 2014

DDT et lutte contre le paludisme : la réécriture de l’histoire Jean-Paul Krivine e paludisme est encore responsable, selon l’OMS, d’environ 600 000 décès chaque année. Plus de trois milliards de personnes continuent à être exposées au risque, principalement en Afrique et en Asie du Sud-est. La lutte contre ce fléau avait donné des résultats probants au lendemain de la première guerre mondiale, principalement grâce à l’application de DDT dans les habitations. Les succès ont été impressionnants1 : en une dizaine d’années, le nombre de cas au Sri Lanka est passé de 2,8 millions et 7 300 décès à 17 cas et aucun décès. Des résultats similaires sont obtenus en Inde, en Amérique du Sud, et certains pays ont entièrement éradiqué la maladie [1].

© MShep2 ; Istochphoto.com

L

Utilisé à titre préventif en agriculture de façon extensive et sans contrôle, cet insecticide allait être victime de son succès et de son coût de production très faible. En 1972, le DDT est interdit aux États-Unis par l’Agence de l’environnement. Si sa persistance dans l’environnement est confirmée, son degré de toxicité est, quant à lui, bien plus controversé. De nombreuses associations environnementalistes vont alors mener campagne pour son interdiction généralisée dans le monde. Et elles vont de facto obtenir gain de cause avec, pour effet collatéral, une reprise de l’épidémie de paludisme touchant des millions de personnes dans des pays qui pouvaient espérer une éradication. En 2006, l’Organisation Mondiale de la Santé va de nouveau recommander l’usage du DDT [2], constatant que « de nombreux tests et travaux de recherche ont montré que la pulvérisation de DDT à l’intérieur des habitations dans le cadre de programmes bien gérés n’est dangereuse ni pour l’homme ni pour la faune et la flore »2. Depuis, l’Afrique du Sud estime être en passe d’éradiquer le paludisme d’ici 2018 grâce à la réintroduction du DDT3. 1 Voir également l’article « Désinformation, paludisme et DDT, selon que vous serez puis-

sants ou misérables », Jean Brissonnet, SPS n° 260 décembre 2003, http://www.pseudosciences.org/spip.php?article497 2 Les textes en anglais ont été traduits par nos soins. 3 Dépêche AFP du 9 octobre 2013.

Science et pseudo-sciences n°308, avril 2014

39

Une « légende de néoconservateurs » et une « fable sans fondement » ? Cette histoire est contestée par certaines associations écologistes, et à leur suite, par le journaliste du Monde Stéphane Foucart4 qui parle à ce propos d’une « légende forgée et diffusée par les milieux néoconservateurs américains » et d’une « fable dépourvue de tout fondement ». Pour lui, la réalité est que « le DDT a progressivement perdu du terrain dans la lutte anti-vectorielle depuis les années 1970 pour la principale raison de l’apparition, dans certaines régions, de résistances des anophèles à cet insecticide »5 reprenant ainsi à son compte les affirmations de Greenpeace [3]. Le DDT aurait-il donc disparu de l’arsenal de lutte contre le paludisme, uniquement victime de son inefficacité croissante due à l’apparition de générations de moustiques résistantes à l’insecticide ?

Les succès du DDT Mais avant, il importe de revenir sur l’efficacité de l’usage du DDT dans les campagnes anti-paludisme. En 1979, un rapport du Comité d’experts de l’OMS sur le paludisme fait le bilan de la lutte contre l’épidémie [4]. Il rappelle les succès rencontrés jusqu’au début des années 1970 : la campagne d’éradication a permis à 727 millions de personnes de ne plus être dans des zones à risque (53 % de l’ensemble de la population exposée). Les éléments qui ont contribué à ces avancées sont, certes, multiples : amélioration des conditions sanitaires, prise en charge de la maladie, amélioration de conditions socio-économiques. Mais le traitement des vecteurs de propagation (moustiques anophèles), et principalement par le DDT, est en bonne place. En 1979, le DDT représentait encore 77 % du tonnage des insecticides utilisés contre les vecteurs de la maladie. Il était aussi reconnu comme le moins dangereux à manipuler, le plus persistant dans les maisons où il était pulvérisé, limitant ainsi le nombre d’épandages, et surtout, de loin, le moins onéreux à fabriquer, permettant un large accès aux pays les plus démunis [5].

Les difficultés de la campagne d’éradication Lancée par l’OMS en 1955, le « Global Malaria Eradication Program » rencontre, à la fin des années 1970, un certain nombre de difficultés. Les progrès de la lutte contre le paludisme stagnent dans certains pays et des résurgences de la maladie sont observées dans d’autres, parfois à des niveaux endémiques. Sur les 143 pays ou régions où le paludisme était originellement endémique, l’agence internationale constate que, pour 37 d’entre eux, l’éradication complète est effective, pour 16 autres, le risque est minimum, et dans d’importantes régions des 90 restants, le risque varie de modéré à élevé. 4 Stéphane Foucart s’appuie largement sur le livre de Noami Oreskes et Erik Conway, Les marchands de doute (2010 pour la version originale en anglais, 2012 pour la traduction française). Voir encadré. 5 Stéphane Foucart, « Haro sur les écolos ». http://mediateur.blog.lemonde.fr/2011/11/18/harosur-les-ecolos-le-debat-14/

40

Science et pseudo-sciences n°308, avril 2014

En 1969, l’objectif d’arriver à une éradication complète est remis en cause par l’agence internationale. Dressant le constat de ce qui ne fonctionne pas, les experts de l’OMS identifient douze causes principales (voir encadré).

Les résistances aux insecticides et leurs conséquences Les résistances aux insecticides sont une cause parmi d’autres des difficultés rencontrées. Mais examinons la question de façon plus précise. En 1976, le comité d’experts de l’OMS sur les insecticides fait le point sur la question [6]. Il estime la proportion des populations vivant en zone impaludée et impactée par un problème de résistance à 29 % pour les régions Amérique, Europe, bassin méditerranéen et Sud-est asiatique (256 millions). Dit autrement, pour 71 % des populations exposées, les résistances ne posent pas encore de problème. Le comité estime ne pas disposer d’assez de données pour l’Afrique. Si la réalité des résistances est bien confirmée pour certaines espèces et dans certaines régions, le rapport souligne que les données recueillies ne peuvent pas être directement transposées en termes d’impact sur le contrôle des vecteurs des maladies (page 26). Mais des moustiques résistants ne signifient pas une inefficacité de l’insecticide. Dès 1970, l’OMS a reconnu un effet répulsif au DDT qui permet de conserver une réelle efficacité, même vis-à-vis de moustiques résistants [7]. Cette propriété a depuis largement été confirmée (voir par exemple [8]). Rappelons que l’usage

Douze contraintes dans la lutte contre le paludisme selon l’OMS (1979)

1. Une augmentation des coûts des matériels et équipements.

2. Une mauvaise organisation des services administratifs pour mettre en œuvre les campagnes anti-paludisme. 3. Un manque de personnels qualifiés et la difficulté à attirer et garder les personnes expérimentées. 4. Le caractère rudimentaire des infrastructures sanitaires dans les pays en voie de développement et la trop faible implication sur le sujet des structures de santé des zones rurales.

5. Des facteurs de comportement humain tels que le nomadisme, le refus d’utilisation de spray dans les logements, l’accroissement de certains contacts humains qui favorisent la maladie, etc.

6. La difficulté à accéder à certaines régions infestées, pour des raisons naturelles ou pour des raisons de sécurité.

7. Le développement incontrôlé de l’irrigation, de la déforestation, l’installation dans des zones infestées, l’accroissement de la fécondité de vecteurs anophèles liés aux nouvelles constructions.

8. La mauvaise connaissance des rapports coûts/efficacité des différentes mesures disponibles selon les conditions locales. 9. La résistance de nombreux vecteurs aux insecticides qui peuvent être utilisés sans danger dans les habitations.

10. Le comportement de vecteurs qui les conduisent à éviter le contact avec les insecticides déposés sur les murs.

11. La résistance de certains parasites aux traitements antipaludéens.

12. Un support d’étude insuffisant.

Science et pseudo-sciences n°308, avril 2014

41

du DDT dans la lutte contre le paludisme ne consiste pas en un épandage massif, mais au contraire en une pulvérisation ciblée à l’intérieur des logements, pour protéger les lieux d’habitation, particulièrement pendant la nuit6. Cet effet répulsif s’applique bien dans ces conditions. Le mode d’action du DDT n’est pas que son effet toxique. Le rapport de l’OMS de 1976 procède alors à l’analyse région par région, et, en conclusion (page 32), indique que, bien que le succès des programmes dépende largement de la susceptibilité ou de la résistance des moustiques, dans les régions où les programmes d’éradication sont toujours en cours, il importe de maintenir un « haut niveau de pression en insecticide », ajoutant que « les plans anti-paludisme qui visent à une large et significative suppression de la transmission, dépendent aujourd’hui lourdement de l’usage des insecticides, d’une façon ou d’une autre ».

Les différents niveaux d’objectifs de l’OMS

L’Organisation Mondiale de la Santé distingue quatre niveaux d’objectifs dans la lutte contre le paludisme.

l Contrôle : réduction de la charge de la

maladie à un niveau tel qu’il ne représente plus un problème de santé publique.

l Élimination : réduction à zéro de l’inci-

dence de l’infection causée par les parasites humains du paludisme, dans une région géographique définie, et comme résultats d’efforts délibérés. Ceci implique des mesures en continu pour prévenir une réapparition de la transmission.

l Certification « malaria-free » : statut

accordé par l’OMS après confirmation que la chaîne de transmission via les moustiques anophèles est bien rompue sur l’ensemble du pays, et ce depuis au moins trois années consécutives.

l Éradication : disparition permanente à

l’échelle de la planète de l’incidence de l’infection causée par une espèce donnée de parasite.

Source : « The World malaria report », 2012. http://www.who.int/iris/bitstream/10665/78945/1/9789241564 533_eng.pdf

La résistance aux insecticides est donc bien identifiée par les experts de l’OMS comme une cause, parmi d’autres, des difficultés rencontrées dans la lutte contre le paludisme. C’est même l’une des menaces principales mises en avant par l’OMS pour l’avenir du programme d’éradication (page 63). Mais le programme d’éradication n’est qu’un des objectifs possibles dans la lutte contre la maladie, l’objectif ultime (voir encadré) Peut-on ainsi affirmer, comme le fait Stéphane Foucart, que les résistances de moustiques anophèles sont la raison qui aurait conduit à l’abandon progressif du DTT ? Reportonsnous de nouveau aux documents. Le rapport de l’OMS de 1979, déjà cité, ne recommande pas l’abandon des insecticides. Il appelle au contraire à essayer d’optimiser leur usage, à renforcer la recherche pour de nouvelles molécules et à surveiller de façon précise les zones où les résistances se développent. Pour autant, si des résistances sont identifiées, si leur développement fait courir, à terme, un risque au programme d’éradication du paludisme,

6 En effet, le paludisme est exclusivement transmis par les piqûres de moustiques anophèles qui piquent principalement la nuit pour les espèces importantes (il existe une vingtaine d’espèces différentes de moustiques anophèles).

42

Science et pseudo-sciences n°308, avril 2014

Les résistances observées viennent des pratiques agricoles

Les résistances observées proviennent d’un usage intensif des insecticides en agriculture, principalement dans les plantations de coton, à des fins préventives et sans réel contrôle. Elles ne viennent pas de l’utilisation de ces mêmes molécules dans la lutte contre le paludisme.

© Valio84sl | Dreamstime.com

D’ailleurs, en 2006, lors de la réintroduction du DDT dans l’arsenal de lutte contre la transmission de la maladie, l’OMS précisera cette interaction avec les pratiques agricoles1 : « la résistance aux insecticides développée par les vecteurs du paludisme ont généralement résulté de l’utilisation des mêmes produits pour la protection des cultures. Dans certains endroits, les produits pulvérisés sur les cultures ont contaminé des sites de reproduction des vecteurs du paludisme. Cette exposition directe a conduit au développement de résistances dans différentes parties du monde ». À titre d’illustration, aux États-Unis, 1100 kg de DDT permettaient de traiter 100 hectares de plantation de coton en quatre semaines. Avec cette même quantité, il serait possible de traiter pendant un an toutes les habitations du nord de l’Ouganda2.

Ainsi, l’interdiction du DDT en agriculture aura paradoxalement été une bonne nouvelle pour le maintien de son efficacité dans la lutte contre le paludisme. 1 « The use of DDT in malaria vector control », Document de positionnement de l’OMS, 2011 http://whqlibdoc.who.int/hq/2011/WHO_HTM_GMP_2011_eng.pdf

2 “Uganda without DDT spraying malaria will kill more”, Robert Leitch, International Health Care, mai 2008, cité par Leo Battino, Paludisme et DDT, chronique d’une tragédie occultée. L’Harmattan 2010.

nous n’en sommes pas encore à une situation d’inefficacité qui justifierait un arrêt du recours au DDT7. L’OMS, dans le même document de 2006, le confirme a posteriori : « malgré des décennies d’application intensive et généralisée, des niveaux significatifs de résistance ont été limités à certaines espèces de vecteurs et à certaines régions géographiques. Mais depuis que l’utilisation du DDT est réservé à des actions sanitaires, les populations de vecteurs ne sont plus exposées au DDT pour des raisons autres, ce qui réduit encore les candidats à une sélection et au développement de résistances ». La distinction entre éradication et contrôle de la maladie est importante. Si les résistances des moustiques anophèles ont, un temps, compromis l’objectif d’éradication, celui du contrôle de la maladie est toujours resté. Ainsi, au moment des grandes campagnes écologistes, les résistances sont loin d’être généralisées. Elles ne peuvent donc pas être la cause de l’abandon du DDT dans la lutte contre la propagation de la maladie. D’autant plus, nous l’avons vu, que le mode d’action du DDT n’est pas lié qu’à ses propriétés toxiques envers les moustiques, action toxique, mais également à son action répulsive. Une étude publiée dans The Lancet [10] en 2000 confirme que les résistances « ne sont pas une barrière à la poursuite de l’utilisation du DDT pour le contrôle du paludisme [...] Les résistances sont 7 Les résistances aux insecticides restent encore aujourd’hui un problème réel justifiant la mise en place d’un plan d’action spécifique par l’OMS [9].

Science et pseudo-sciences n°308, avril 2014

43

lentement apparues dans les années 1960 comme conséquence de l’usage intensif du DDT en agriculture, principalement dans les plantations de coton. La répartition actuelle des résistances au DDT couvre des régions limitées à l’ouest de l’Afrique (anophèle Gambia), en Asie du Sud-ouest (Iran, Pakistan, Inde et Sri Lanka pour l’anophèle culicifacies), la Grèce (anophèle sacharovi), Égypte (anophèle pharoensis), Amérique centrale (anophèle albimanus), et une petite zone en Colombie, en Amérique du sud (anophèle darlingi) ». D’ailleurs, dans ces périodes, l’OMS et les agences en charge de la lutte contre le paludisme interviendront régulièrement pour faire en sorte que le DDT bénéficie d’une clause d’exception dans le cadre des accords de limitation d’utilisation de polluants organiques persistants pour un usage sanitaire. Ainsi, en 1998, le protocole de Stockholm accorda une dérogation à l’usage du DDT dans la lutte contre le paludisme [11], dérogation confirmée dans la déclaration de Johannesburg en 2000 [12], et ce, malgré l’opposition des associations écologistes [13]. Pourquoi les agences sanitaires se seraientelles mobilisées pour défendre un produit qui aurait perdu son efficacité ? Ainsi, si le DDT a progressivement disparu de facto de l’arsenal de la lutte anti-paludisme, ce n’est pas principalement, comme l’affirment Stéphane Foucart et Greenpeace, du fait de son inefficacité liée à l’apparition de résistances. Cette thèse ne correspond pas à la réalité. Alors, pour quelle autre raison ?

« Les marchands de doute »

Stéphane Foucart s’appuie largement sur le livre de Noami Oreskes et Erik Conway, Les marchands de doute (2010 pour la version originale en anglais, 2012 pour la traduction française). Mais cet ouvrage, malheureusement, n’apporte que peu de références pertinentes, se contentant d’affirmations, d’opinions, et de la reproduction de propos de protagonistes. Et lorsqu’il cite le rapport de l’OMS de 1976, il le fait de façon partielle avec cet extrait (page 379) : « Il est maintenant admis que le développement de résistances constitue probablement le plus gros obstacle dans la lutte contre les maladies à transmission vectorielle, et aussi la raison principale de l’échec de l’éradication de la malaria dans de nombreux pays ».

Notons tout d’abord une erreur du traducteur français qui renforce cette présentation biaisée : le rapport parle, non pas d’« échec de l’éradication », mais d’une raison qui « empêche une éradication réussie » (« responsible for preventing successful malaria eradication »). La première formulation semble signifier une inefficacité constatée du DDT, alors que la seconde fait référence à la distinction établie par l’OMS entre l’objectif d’éradication (disparition totale) et celui de contrôle de la maladie. L’objectif d’éradication a été abandonné par l’OMS en 1969, et la résistance aux insecticides est une des causes avancées qui « empêche » (to prevent) cette éradication. Mais le contrôle de la maladie, avec l’usage du DDT, est, lui, bien réaffirmé. C’est d’ailleurs implicitement précisé dans la phrase suivante du rapport de l’OMS qui évoque, à propos du DDT, un « matériel, bon marché et efficace dans de nombreuses régions » et mentionne également le rôle joué par « une certaine anxiété en ce qui concerne une contamination environnementale » dans sa moindre utilisation.

44

Science et pseudo-sciences n°308, avril 2014

Les campagnes pour le bannissement du DDT Quel rôle ont donc joué les campagnes écologistes dans le bannissement du DDT dans la lutte contre le paludisme ? Aucun, comme l’assure Stéphane Foucart, évoquant « une accumulation d’affirmations vagues et sans fondement, qui circulent sur Internet sans jamais être appuyées par une documentation sérieuse » ? N’auraient-elles visé que les utilisations agricoles de l’insecticide, comme l’affirme a posteriori Greenpeace [3] ? Certes, le DDT n’a jamais été formellement proscrit dans la lutte contre le paludisme. La décision de 1972 de l’agence américaine de protection environnementale (EPA) ne concerne que le territoire des États-Unis [14]. Pour autant, les campagnes des écologistes ont pesé de façon décisive. Les craintes pour la santé et l’environnement véhiculées par celles-ci ont été une des principales raisons de la disparition progressive du DDT dans la lutte contre le paludisme, jusqu’à ce que l’OMS révise sa position en 2006. C’est d’ailleurs l’OMS elle-même qui confirme ce rôle. Elle le fait dans l’exposé des motifs qui l’ont conduit à sa décision de réintroduction de l’usage du DDT dans la lutte contre le paludisme [2] : « L’OMS a activement encouragé le recours à cette méthode prophylactique jusqu’au début des années 80 quand, ayant de plus en plus de raisons de s’inquiéter des effets du DDT sur la santé et l’environnement, elle lui a préféré d’autres moyens de prévention ». De façon encore plus explicite, l’agence détaille les raisons du déclin du DDT dans un dossier spécifique consacré à la réintroduction de la pulvérisation de l’insecticide comme moyen de lutte contre la transmission de la maladie [15] : « Malgré son utilisation initialement très répandue et sa contribution aux succès des efforts d’éradication du paludisme, l’utilisation de la pulvérisation à l’intérieur des maisons a décliné. Ceci est en partie dû à un manque d’engagement et de financement des gouvernements pour assurer les efforts sur le long terme, à des soucis quant au développement de résistances et aux conditions d’acceptation des communautés. Cependant, un autre facteur important a été la réprobation générale envers l’utilisation du DDT, due à des peurs quant à ses effets nocifs sur l’environnement et la santé, peurs qui sont injustifiées si le DDT est utilisé correctement lors des pulvérisations ». Cette « réprobation générale due à des peurs quant aux effets nocifs » de l’insecticide, mise en avant par l’OMS, n’aurait eu aucun lien avec les campagnes des écologistes ? Par ailleurs, aucune des actions militantes contre le DDT n’a fait de distinction entre ce qui serait un bon usage (la lutte contre le paludisme) et ce qui en serait un mauvais (l’agriculture) [16]. La campagne de Greenpeace en Inde, au début des années 2000, par exemple, visant à obtenir la fermeture de la principale usine du pays produisant du DDT [17], ne s’intéressait pas à la finalité du produit. En 1995, c’est bien une campagne des mouvements environnementalistes d’Afrique du Sud qui a convaincu le gouvernement de proscrire le DDT (alors qu’en Afrique du Sud, aucun signe de résistance au DDT n’avait été détecté). En environ quatre ans, la morbidité du paludisme a été multiplié par quatre [18]. Science et pseudo-sciences n°308, avril 2014

45

Malaria, Giulio Aristide Sartorio (1860–1932)

L’usage du DDT contre les moustiques anophèles était même souvent explicitement condamné par les militants écologistes. Ainsi Michael McCloskey, le directeur du Sierra Club (la plus ancienne organisation environnementaliste américaine) déclare en 1971 : « le Sierra Club souhaite le bannissement des pesticides, même dans les pays où le DDT a permis de maîtriser le paludisme »8. Au début des années 2000, ceci est toujours la position du WWF [19]. Ni Greenpeace ni Stéphane Foucart ne produisent le moindre document d’époque d’une quelconque association environnementaliste qui ferait cette distinction. Le DDT devait être systématiquement proscrit. Ainsi, alors que plus de 120 organisations gouvernementales, intergouvernementales et non gouvernementales sont réunies du 4 au 9 décembre 2000 à Johannesburg pour mettre la dernière main au traité international visant à limiter la production et l’utilisation des polluants organiques persistants, dont le DDT fait partie, c’est contre la résistance des associations environnementalistes qui plaidaient pour une interdiction totale à partir de 2007 que la décision finale contient une exception sanitaire [13]. C’est pour obtenir cette décision qu’une très large campagne sera initiée, mobilisant à travers une lettre ouverte intitulée « Kill Malarial Mosquitos Now » des scientifiques et des personnalités de renom, preuve que les choses n’allaient pas de soi9. Par ailleurs, les sources de financements vont se détourner des programmes d’aide aux pays du tiers-monde qui incluent un usage du DDT. L’Agence américaine d’aide au développement international (US-AID, l’une des principales sources de financement de campagnes antipaludéennes dans les pays pauvres) se justifie en prétendant que le DDT est 8 Cité par J. Gordon Edwards, ancien membre de l’association Sierra Club. www.mitosyfraudes.org/Ingles/Killer.html 9 http://www.fightingmalaria.org/pdfs/KMMN_Decl_Nov06.pdf

46

Science et pseudo-sciences n°308, avril 2014

moins efficace et moins économique que des solutions alternatives10, une affirmation en contradiction avec tous les diagnostics d’experts (voir par exemple [20]). Et elle met comme condition à une éventuelle utilisation du DDT, si malgré tout il était proposé, la réalisation d’une étude d’impact environnemental. Étude impossible à mettre en œuvre en pratique. Une aide de la Banque mondiale à l’Inde d’un montant de 165 millions de dollars pour la lutte contre le paludisme est assortie d’une clause spécifique bannissant l’usage du DDT [21]. Au Mozambique, le DDT cesse d’être utilisé car 80 % des fonds dédiés à la santé proviennent de donneurs étrangers qui ont exigé le bannissement de l’insecticide (rapporté par le British Medical Journal [22]). De facto, les programmes d’aide bannissent le DDT, quoi qu’en disent Stéphane Foucart et Greenpeace. Et les conséquences ne se font pas attendre : la corrélation entre arrêt du DDT et recrudescence du paludisme est partout vérifiée [23]. En Amérique du Sud, seul l’Équateur qui a maintenu la pulvérisation du DDT voit sa courbe d’infection baisser [24]. Et si l’Afrique du Sud peut aujourd’hui envisager une éradication pour 2018, c’est bien, comme l’annoncent les autorités sanitaires du pays, grâce à la réintroduction de la pulvérisation du DDT à l’intérieur des maisons.

En conclusion Certaines associations écologistes ne veulent pas le reconnaître. Certains journalistes comme Stéphane Foucart voudraient le nier. Mais la réalité est là : les campagnes anti-DDT ont conduit à la disparition progressive du DDT dans la lutte contre le paludisme, avec des conséquences sanitaires majeures (des millions de victimes). Même si le DDT n’était pas la solution universelle et définitive, en se privant des pulvérisations dans les maisons des zones impaludées, on s’est privé d’un moyen réel et efficace. © Christian Bellec / IRD

Ce n’est ni une fable, ni une légende, mais une triste vérité. Et toujours présente : plusieurs associations écologistes continuent en effet de militer pour le bannissement du DDT dans la lutte contre les moustiques anophèles (par exemple Biovision11,12), alors qu’il permet aux pays qui ont réintroduit son usage d’espérer réduire ou éradiquer le fléau. 10 http://pdf.usaid.gov/pdf_docs/PDACH948.pdf 11 www.biovision.ch/fileadmin/pdf/f/services/medien/FondationBiovision_JourneeMondialeC

ontreLePaludisme.pdf 12 http://www.biovision.ch/fileadmin/pdf/f/services/downloads/newsletter/nl18_f_web.pdf

Science et pseudo-sciences n°308, avril 2014

47

Références

[1] Balancing risks on the backs of the poor. Amir Attaran and al. Nature Medicine – July 2000 – Volume 6 Number 7 – pp 729 – 731 [2] Communiqué de presse de l’OMS, 2006. « Lutte antipaludique : l’OMS estime que l’utilisation de DDT à l’intérieur des habitations est sans danger pour la santé ». www.who.int/mediacentre/news/releases/2006/pr50/fr/ [3] « Greenpeace, DDT and malaria ». http://www.greenpeace.org.uk/about/greenpeace-ddtand-malaria [4] 17e rapport du comité d’experts de l’OMS sur la malaria (1979). http://apps.who.int/iris/bitstream/10665/41359/1/WHO_ TRS_640.pdf [5] “Should DDT continue to be recommended for malaria vector control ?”. C. F. CURTIS. Medical and Veterinary Entomology, April 1994 [6] 22e rapport du comité d’experts de l’OMS sur les insecticides, 1976. whqlibdoc.who.int/trs/WHO_TRS_585.pdf [7] “Insecticide resistance and vector control”, 17e rapport du comité d’experts de l’OMS, 1970. http://whqlibdoc.who.int/trs/WHO_TRS_443_(part1).pdf [8] “Insecticide resistance issues in vector-borne disease control”, Roberts DR, Andre RG. Am J Trop Med Hyg. 1994 ;50(6 Suppl) :21-34. [10] D R Roberts ; S Manguin ; J Mouchet, “DDT house spraying and re-emerging malaria”. Lancet 2000 Vol : 356 :330-332. DOI : 10.1016/S0140-6736(00)02516-2 [11] « Convention de Stockholm sur les polluants organiques persistants » (1998). http://www.pops.int/documents/convtext/convtext_fr.pdf [12] « L’utilisation du DDT dans la lutte contre le paludisme », (OMS 2000). http://www.who.int/inf-pr2000/fr/note2000-15.htm [13] « Le succès de notre campagne contre le bannissement du DDT dans la lutte contre le paludisme », Malaria Foundation International, 2000. http://www.malaria.org/DDTpage.html [14] « DDT - A Brief History and Status », Environmental Protection Agency, United States. http://www.epa.gov/pesticides/factsheets/chemicals/ddt -brief-history-status.htm [15] « Indoor residual spraying », Global Malaria Program. OMS 2006.

http://whqlibdoc.who.int/hq/2006/WHO_HTM_MAL_20 06.1112_eng.pdf

[16] “A Case of the DDTs: The war against the war against malaria, Roger Bate, Center for International Development, Harvard University”, 2001 http://www.cid.harvard.edu/cidinthenews/articles/nr_05 1401.html [17] “Greenpeace calls on Indian Authorities to Phase Out and Substitute DDT Immediately” Communiqué de presse, 2003. www.greenpeace.org/india/en/news/newfindings-reaffirm-presence/ [18] “Should the use of DDT be revived for malaria vector control ?», Chris F. Curtis. Biomédica 2002 ;22 :455-61

[19] « Resolving the DDT dilemma. Protecting Biodiversity and Human Health ». WWF. http://awsassets.panda.org/downloads/resolving_ddt_summ_englis h.pdf

[20] Sadasivaiah S, Tozan Y, Breman JG. « Dichlorodiphenyltrichloroethane (DDT) for Indoor Residual Spraying in Africa : How Can It Be Used for Malaria Control ?” In : Breman JG, Alilio MS, White NJ, editors. « Defining and Defeating the Intolerable Burden of Malaria III : Progress and Perspectives”, Supplement to Volume 77(6) of American Journal of Tropical Medicine and Hygiene. Northbrook (IL) : American Society of Tropical Medicine and Hygiene ; 2007 Dec. http://www.ncbi.nlm.nih.gov/books/NBK1724/# [21] Cité par J. Gordon Edwards. “DDT : A Case Study in Scientific Fraud”, Journal of American Physicians and Surgeons, Volume 9 Number 3 2004.

[22] “Malaria Epidemic Expected in Mozambique” British Medical Journal, 2000 March 11; 320(7236): 669. , www.ncbi.nlm.nih.gov/pmc/articles/PMC1117705/

[23] [24] “Malaria resurgence: a systematic review and assessment of its causes”, Justin M Cohen, David L Smith, Chris Cotter, Abigail Ward, Gavin Yamey, Oliver J Sabot and Bruno Moonen. Malaria Journal 2012, 11:122 doi:10.1186/1475-2875-11-122 [24] Roberts DR, Laughlin LL, Hsheih P, Legters LJ., “DDT, global strategies, and a malaria control crisis in South America”. Emerg Infect Dis. 1997 JulSep ;3(3) :295-302.

The excellent powder. DDT’s political and scientific history Donald Roberts et Richard Tren Le livre de référence, malheureusement non traduit en français, qui expose en 400 pages une analyse détaillée de l’histoire du DDT et de son utilisation dans la lutte contre le paludisme. Il décrit, références à l’appui, les impacts de la campagne pour le bannissement de l’insecticide, les positions, parfois très complaisantes, des agences sanitaires, en particulier celles de l’OMS.

48

Science et pseudo-sciences n°308, avril 2014

Exposition aux ondes électromagnétiques

La santé publique ne doit pas être un enjeu politique André Aurengo Nous reproduisons ici un communiqué publié le 28 janvier 2014 par l’Académie nationale de médecine et rédigé par le Professeur André Aurengo. Les intertitres sont de la rédaction de SPS.

André Aurengo est ancien élève de l’École Polytechnique, ancien Interne des Hôpitaux de Paris, Docteur en médecine, Docteur es sciences physiques, chef du service de médecine nucléaire du Groupe Hospitalier PitiéSalpêtrière (Paris), professeur de Biophysique (Faculté de Médecine Pierre & Marie Curie), ancien président de la Société Française de Radioprotection, ancien membre bénévole du conseil scientifique de Bouygues Télécom, ancien administrateur d’EDF, président du Conseil médical d’EDF.

a proposition de loi relative à « la sobriété, à la transparence et à la concertation en matière d’exposition aux ondes électromagnétiques » remet encore une fois en cause les données scientifiques sur la dangerosité des ondes et, sous prétexte de précaution et de « modération », risque d’entretenir chez nos concitoyens une inquiétude sans fondement avéré. Une telle loi n’apporterait aucun bénéfice sanitaire, mais aurait au contraire, par son effet anxiogène, des effets indésirables préjudiciables à la santé publique en accréditant l’idée, réfutée par des dizaines d’expertises collectives, que les ondes radiofréquences des wifi ou antennes de téléphonie mobile seraient dangereuses, notamment pour les enfants.

L

Aucun risque avéré en dessous des limites réglementaires L’Académie nationale de médecine tient à rappeler qu’aucun risque des radiofréquences n’est avéré en dessous des limites réglementaires et qu’il n’a pas été mis en évidence de mécanisme pouvant entraîner l’apparition d’une maladie : c’est la conclusion de l’ensemble des rapports d’expertises collectives internationaux, dont plus d’une trentaine depuis 2009, fondés sur des milliers d’études1 expérimentales sur des cultures cellulaires, des animaux et des humains volontaires ainsi que sur des études épidémiologiques. Les radiofréquences ont pour seul effet connu l’échauffement, par absorption d’une partie de la puissance émise. Si la puissance absorbée par unité de masse (DAS ou « Débit d’Absorption Spécifique » exprimé en watt/kilogramme) est négligeable, l’échauffement l’est également, et l’absence de 1 Environ 3000 publications scientifiques dans les gammes de fréquences de la téléphonie et du Wifi référencées dans la base de données emf-portal.

Science et pseudo-sciences n°308, avril 2014

49

lésion ne peut pas conduire à leur accumulation. La réglementation limite la puissance autorisée avec une marge de sécurité importante et aucun « effet thermique » (échauffement) n’est susceptible d’apparaître au-dessous de ces valeurs. Les antennes relais émettent des radiofréquences qui conduisent à un très faible niveau d’exposition des personnes. Au niveau de la tête, la puissance absorbée est 10 000 à 100 000 fois moins élevée que celle engendrée par le téléphone portable lui-même pendant une conversation. C’est donc essentiellement l’usage du téléphone mobile (émetteur-récepteur) qui a été à l’origine des recherches sur les radiofréquences. La recherche d’éventuels effets « non thermiques », qui surviendraient en l’absence d’échauffement significatif, a fait l’objet de centaines de publications. Les expériences conduites sont délicates et trois conditions sont nécessaires pour valider les résultats d’une étude : la maîtrise des conditions d’exposition aux radiofréquences, la maîtrise des effets biologiques recherchés, la réplication de l’expérience par une autre équipe avec obtention des mêmes résultats. Aucun effet biologique non thermique répondant à ces trois conditions n’a été observé. Aucun mécanisme par lequel les radiofréquences pourraient avoir un effet nocif en dessous des seuils réglementaires n’a été identifié.

L’électrohypersensibilité : aucune étude ne l’attribue aux ondes électromagnétiques En ce qui concerne l’électrohypersensibilité (EHS), aucun système sensoriel humain permettant de percevoir les champs émis par les antennes n’a été identifié. La quasi-totalité des études sur l’EHS a montré que les sujets concernés, bien que manifestant des troubles variés en présence de dispositifs émetteurs de champs électromagnétiques, sont incapables de reconnaître si ces dispositifs émettent des ondes ou non. Le rapport 2009 de l’AFSSET concluait sur l’EHS : « aucune étude ne montre que l’électrohypersensibilité est due aux ondes électromagnétiques. Les études suggèrent un effet nocebo (inverse de l’effet placebo : troubles relatés résultant d’un mécanisme psychologique) et des facteurs neuropsychiques individuels ». Toutefois, la somatisation en présence d’émetteurs de champs électromagnétiques peut se traduire par des troubles bien réels pouvant aller en s’aggravant jusqu’à constituer un handicap familial, professionnel et social sévère, nécessitant une prise en charge adaptée. On ne peut que déplorer que ces troubles soient utilisés à des fins contestables, notamment idéologiques ou lucratives, souvent au détriment des intéressés. Il faut ici rappeler les campagnes appelant à boycotter les centres de prise en charge et d’étude de l’EHS dans les hôpitaux publics. En Suède, une prise en charge adaptée est proposée dans les cas extrêmes, mais l’EHS n’est pas pour autant considérée comme résultant d’une perception réelle des ondes. Au contraire, dans une déclaration commune de 2009 [1], effectuée avec les autorités sanitaires danoises, finlandaises, nor50

Science et pseudo-sciences n°308, avril 2014

végiennes et islandaises, les autorités suédoises reprennent les conclusions de l’OMS, selon lesquelles il n’y a pas de fondement scientifique permettant de relier les symptômes de l’EHS à un champ électromagnétique.

La baisse des seuils ne correspond à aucune recommandation d’expertise Enfin, contrairement aux déclarations des directions de l’AFSSET en 2009 puis de l’ANSES en 2013, reprises en préambule de la proposition de loi, les rapports des experts réunis par ces organismes n’ont nulle part dans leur rapport recommandé « d’abaisser les expositions aux ondes électromagnétiques ». Les Académies des sciences, de médecine et des technologies n’ont pas manqué, en 2009 et en 2013 [2,3], de dénoncer cette attitude. L’Académie nationale de médecine considère donc que, dans ce débat plus idéologique et politique que sanitaire, le vrai danger pour la santé publique consiste justement à accréditer des risques purement hypothétiques qu’aucune étude validée n’a confirmés. C’est pourquoi, elle doit mettre en garde contre les effets indésirables de mesures restrictives régulièrement réclamées depuis des années, mais dont l’effet anxiogène risque de générer des inquiétudes susceptibles de provoquer des effets néfastes bien réels chez certaines personnes.

Une proposition qui pourrait aggraver les troubles De telles mesures ne manqueraient pas d’être interprétées comme une confirmation de la dangerosité des radiofréquences, au risque de justifier sans raison la demande de mesures encore plus restrictives et contre-productives pour notre pays dans la compétition internationale à tous les niveaux, notamment sur le plan scolaire. Loin d’aider les personnes électrohypersensibles, cette proposition de précaution ou de « modération » ne pourrait qu’aggraver leurs troubles. Il est en effet bien établi que ce ne sont pas les ondes ellesmêmes, mais l’information sur les ondes, que l’on retrouve à l’origine des symptômes attribués aux émetteurs (effet nocebo). On détourne ainsi les électrohypersensibles des circuits de prise en charge adaptés en favorisant leur isolement et leur détresse, et on laisse se développer impunément le charlatanisme des dispositifs « anti-ondes » et certaines théra-

Références

[1] Nordic Statement EMF 161109 [2] Aurengo A. « Réduire l’exposition aux ondes des antennes-relais n’est pas justifié scientifiquement ». Bulletin de l’Académie Nationale de Médecine. 2009, 193, no 9, 2127-2130. www.academie-medecine.fr/publication100036100/ [3] Communiqué de presse, radiofréquence et santé, les utilisateurs de portable ont besoin de messages clairs. http://www.academiemedecine.fr/communique-de-presse-radiofrequence-et-sante-2/ [4] Witthöft M & Rubin GJ, Are media warnings about the adverse health effects of modern life selffulfilling ? An experimental study on idiopathic environmental intolerance attributed to electromagnetic fields (IEI-EMF). J Psychosom Res 2013 ; 74 : 206

Science et pseudo-sciences n°308, avril 2014

51

pies infondées. De plus, on provoque l’apparition de nouveaux cas [4] en entretenant contre toute justification sanitaire un débat artificiel et nuisible à la santé publique. Ces mesures, enfin, peuvent générer une anxiété infondée chez les parents d’enfants exposés au wifi à l’école ou à la maison. Est-ce bien conforme au code de déontologie ?

Le Professeur Belpomme, l’un des principaux porte-parole du mouvement « anti-ondes », a ouvert une consultation privée dans une clinique parisienne. Le traitement proposé [1] est à base d’« antagonistes des récepteurs à l’histamine » pour « fermer la barrière électro-encéphalique », une stimulation de la « régénération des astrocytes (des cellules cérébrales) qui ont été détruites par les champs électromagnétiques » et des« tonifiants du système nerveux ». Un jargon scientifique, qui peut impressionner, pour une sorte de « démagnétisation des temps modernes ». Dans un document remis aux patients (voir ci-contre) les troubles sont « certifiés » comme résultant d’une « hypersensibilité aux champs électromagnétiques » et recommandant « la mise à l’abri d’un maximum de sources [...] sous peine d’atteinte à [la] santé sous forme de détérioration cérébrale sévère ». Ce certificat est-il bien conforme au code de déontologie de l’Ordre national des médecins ? En effet, ce dernier recommande que soient prodigués des soins « fondés sur les données acquises de la science » (article 32), que le diagnostic soit élaboré « en s’aidant dans toute la mesure du possible des méthodes scientifiques les mieux adaptées » (article 33) et que ne peuvent être proposés « comme salutaire ou sans danger un remède ou un procédé illusoire ou insuffisamment éprouvé ».

Rappelons que l’OMS recommande, à l’intention des médecins, que « le traitement des individus touchés doit se concentrer sur les symptômes sanitaires et sur le tableau clinique et non sur le ressenti de la personne quant à la nécessité de réduire ou d’éliminer les CEM à son poste de travail ou à son domicile ». L’Agence rappelle par ailleurs qu’« à ce jour, il n’a jamais été établi que le téléphone portable puisse être à l’origine d’un effet nocif pour la santé » [2,3]. À cela s’ajoute « un parcours médical » qui va coûter très cher à ceux qui le suivent, si l’on en croit les témoignages de patients du Professeur Belpomme [4] : une batterie d’examens est proposée (encéphaloscan, échographie doppler pulsé cervico-encéphalique et échographie carotidienne) pour laquelle il est suggéré de « prévoir 199 euros en supplément de la carte vitale » suivi d’un prélèvement sanguin pour lequel il faut « prévoir entre 300 et 500 € non remboursés ». Sans compter la consultation elle-même et le traitement qui va suivre... Très cher pour les patients, mais aussi pour la collectivité (la sécurité sociale et les mutuelles).

SPS

[1] Interview du Professeur Belpomme, Metro, 10 septembre 2010. [2] http://www.who.int/peh-emf/publications/facts/fs296/fr/ [3] http://www.who.int/mediacentre/factsheets/fs193/fr/ [4] Ces témoignages étaient initialement présents sur la page « Consultation du Pr Belpomme – mode d’emploi » du site ehs-action.org. Nous les mentionnions dans notre éditorial, SPS n°305, juillet 2013. La page entière a, depuis, été retirée. Mais peut être communiquée par nos soins sur demande.

52

Science et pseudo-sciences n°308, avril 2014

L’idéologie n’a pas sa place dans l’expertise publique

L’ANSES, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail, couvre les champs d’expertise relatifs à l’évaluation des risques dans le domaine de l’alimentation, de l’environnement et du travail. En tant qu’agence du service public, sa mission est d’éclairer les pouvoirs publics dans leur politique sanitaire. Sa mission officielle stipule qu’elle doit mettre en œuvre une « expertise scientifique indépendante et pluraliste ». La crédibilité même de cette expertise doit en effet reposer sur une rigoureuse indépendance par rapport à tout intérêt, qu’il soit financier ou idéologique.

C’est en ce sens que l’AFIS a toujours défendu une claire séparation entre la science et la décision. La première est affaire d’expertise, la seconde est affaire de choix, de valeurs et d’intérêts. Mais force est de constater que grande est la tentation de « mélanger les genres » et de faire reposer des choix idéologiques sur un prétendu « impératif scientifique ». Au risque d’une expertise instrumentalisée et discréditée. Nous avons ainsi régulièrement dénoncé des institutions hybrides telles que le Haut Comité aux Biotechnologies (HCB) abritant, à côté d’une authentique structure d’expertise, un « Comité économique, éthique et social » (CEES) comprenant des militants associatifs et des représentants de syndicats et d’organisations professionnelles1. Nous l’avons également fait à propos du GIEC2, où, l’expertise sur l’évolution du climat et ses causes possibles se trouve mélangée à des visions idéologiques sur ce qu’il serait bon de faire ou ne pas faire, en termes d’énergie ou d’organisation du travail, par exemple. Il en résulte bien souvent une paralysie totale (c’est le cas du HCB) ou une mise en cause de l’expertise scientifique au nom des conséquences politiques et sociales qui lui sont attribuées (c’est souvent le cas à propos du GIEC). La même tendance se dessinerait-elle à l’ANSES ? C’est ainsi que l’on peut voir siéger au sein du conseil d’administration de l’Agence des représentants es-qualité de diverses associations telles que France Nature Environnement, Robin des Bois.

C’est dans ce contexte que nous avons eu la surprise de découvrir un rapport3 portant le logo de l’ANSES, et prenant directement l’AFIS à partie, véhiculant des rumeurs, s’appuyant sur des citations inventées et affichant une hostilité envers notre association (avec des expressions telles que « activiste de l’AFIS », « galaxie formée par l’AFIS », « mettent particulièrement en colère les amis de l’AFIS », « semble s’être donné pour mission d’organiser le contrefeu rationaliste de l’intérieur des sciences sociales », « ce discours rationaliste qui gère assez mal, dans ses expressions publiques, la frontière entre argumentation et rhétorique », « la dimension polémique des textes de l’AFIS [...] se lit à chaque phrase, faute visiblement d’une capacité réflexive sur le rapport entre énonciateur et énoncé », « il y a un véritable réseau à l’œuvre et il s’agit de promouvoir, sous couvert de discussion critique »...). Nos lecteurs trouveront sur notre site la lettre qui a été adressée au Directeur Général de l’Agence, M. Marc Mortureux.

Par la voix de la directrice de la communication, l’agence nous a précisé que « le logo de l’ANSES n’aurait pas dû se trouver sur le rapport. L’ANSES ne s’estime pas engagée par des travaux qu’elle ne fait que financer. Elle nous remercie d’avoir attiré son attention et indique qu’elle sera plus vigilante à l’avenir sur l’usage de son logo. Elle ajoute enfin que l’ANSES ne sera pas influencée par le contenu de ces travaux qui s’inscrivent dans un cadre général de suivi sociétal. ainsi que la réponse faite, par téléphone, par la directrice de la communication de l’Agence ».

1 « Haut Conseil des biotechnologies : l’expertise instrumentalisée ». SPS n°300, avril 2012. http://www.pseudo-

sciences.org/spip.php?article1868

2 « Climat, science, expertise et décision », SPS n° 307, janvier 2014. www.pseudo-sciences.org/spip.php?article2238

3 « Une pragmatique des alertes et des controverses en appui à l’évaluation publique des risques ». septembre 2013. http://gspr-

ehess.com/documents/rapports/RAP-2013-GSPR-ANSES-Octobre.pdf

Science et pseudo-sciences n°308, avril 2014

53

Gaz de schiste

Fracturation hydraulique : enjeux et solutions alternatives François Kalaydjian François Kalaydjian est directeur adjoint du Centre de Résultat Ressources à IFPEN (IFP Énergies nouvelles).

a production des hydrocarbures des roches mères, roches compactes, exige de fissurer la roche pour drainer le gaz ou le pétrole de schiste. La technique la plus couramment employée, la fracturation hydraulique, consiste à injecter de l’eau sous pression, à laquelle sont ajoutés quatre types de produits chimiques1 – représentant moins de 0,5 % de la composition totale – et du sable pour fissurer la roche en évitant que les fissures ne se referment et faciliter la mise en production des puits. La fracturation hydraulique pose des problèmes liés à l’utilisation de l’eau et de ces produits chimiques. Bien qu’aujourd’hui des progrès technologiques réels aient été apportés à cette technologie, des alternatives utilisant un autre fluide que l’eau ont été recherchées. Où en sommes-nous maintenant ?

L

La fracturation hydraulique Les principaux défis posés par la fracturation hydraulique sont de réduire, voire éliminer :

l

l

l

la consommation d’eau : 10 à 20 000 m3 d’eau sont nécessaires pour créer les zones de drainage nécessaire à l’exploitation d’un puits (cette eau pouvant provenir d’un aquifère salin profond et être en partie recyclée, sans grever ainsi la ressource en eau potable) ; la pollution en surface : le début de l’exploitation consiste à purger le puits de l’eau injectée. L’eau remontée avec les produits chimiques qu’elle contient et ceux hérités des minéraux lessivés ainsi qu’une proportion des hydrocarbures à produire est stockée dans des bassins de décantation à l’air libre, avant traitement et réutilisation ; en cas de fuite de ces bassins, il peut y avoir une pollution en surface. D’autres pollutions de surface sont provoquées par le bruit généré par les compresseurs (amoindri par utilisation d’isolants phoniques), par l’impact du transport (résolu par la mise place de gazoducs) ; les risques opératoires en surface, liés à la manipulation de lignes d’injection sous forte pression et aux risques de déflagration qui en découlent ;

1 viscosifiant, antimicrobien, inhibiteur de dépôt et acide dilué (produits utilisés dans la vie courante).

54

Science et pseudo-sciences n°308, avril 2014

l

l

l

l’impact climatique : les hydrocarbures produits avec l’eau d’injection et stockés à l’air libre s’évaporent (notamment le méthane) émettant ainsi des gaz à effet de serre (l’utilisation de systèmes de séparation confinée élimine ce problème) ; la pollution en subsurface : en cas de contact d’une nappe phréatique par des fissures créées au niveau de la roche mère ou induites à partir des puits. L’utilisation des bonnes pratiques de complétion des puits évite les risques de fuites aux puits, de même ; la prise en compte des contraintes mécaniques s’exerçant sur les roches du sous-sol permet de contrôler l’extension des zones de fissuration ; l’emprise au sol : de 1 à 2 hectares par plateforme pendant la phase de forage, l’occupation du sol peut être réduite par la minimisation des installations de surface durant les différentes phases d’exploitation et la miniaturisation des techniques de forage.

Enfin, un dernier défi concerne l’accroissement des performances techniques, notamment par l’optimisation du nombre de drains à forer et des stimulations à effectuer, de l’extension des zones de drainage créées et de l’amélioration de la productivité des puits, impactée notamment par le piégeage d’une partie de l’eau injectée dans le réseau de fissures.

Les alternatives à la fracturation hydraulique

Ruhrfisch; Wikimedia common

Le propane gélifié La stimulation au propane gélifié, déjà utilisée sur près de 2000 puits, consiste à remplacer l’eau par du propane dont la viscosité a été augmentée pour permettre le transport du sable. Cette technique améliore certains des critères énoncés plus haut. Ainsi, le problème de consommation d’eau est résolu car il n’y a plus recours à l’eau. Les risques de pollution en subsurface sont limités car la quantité d’additifs chimiques est réduite du fait de la miscibilité du propane avec les hydrocarbures en place et de la non réactivité du propane avec les minéraux de la roche. La séparation en surface effectuée en séparateur confiné n’émet pas de méthane dans l’atmosphère, répondant ainsi au problème climatique. Les performances techniques sont améliorées par absence du blocage de la production par de l’eau résiduelle. Enfin, la compressibilité du propane réduit les volumes de stockage et donc l’empreinte au sol des installations. Le principal inconvénient en surface est celui de l’inflammabilité du propane (risques opératoires en surface). L’autoScience et pseudo-sciences n°308, avril 2014

55

inflammation du propane (qui ne survient qu’à température élevée, de l’ordre de 500°C) entraîne une classification Seveso des installations de surface et nécessite un rayon de sécurité pour pallier le risque de déflagration des tankers de stockage en surface et de leur inflammation. Le propane pur Pour réduire les risques de pollution en surface et en subsurface, il s’agit d’éliminer tout additif chimique. C’est le cas lorsqu’on injecte du propane pur, technique testée avec succès en décembre 2012 au Texas. La viscosité du propane pur étant trop faible pour transporter du sable standard, il faut recourir à des matériaux spécifiques (céramique poreuse ou alliage de polymères) légers mais résistants, aujourd’hui encore peu répandus dans l’industrie. Les autres critères ne sont pas dégradés par rapport à l’utilisation d’un propane gélifié. Si les risques opératoires en surface sont diminués par rapport au cas précédent du fait que la vaporisation rapide du propane pur réduit les risques opérationnels sur le site de forage, ils demeurent néanmoins problématiques. Substituer le propane par un dérivé non inflammable : le HFP Pour pallier ces risques opératoires, un dérivé du propane rendu non inflammable est utilisé. Plusieurs produits commercialisés peuvent jouer ce rôle, dont l’heptafluoropropane (HFP), molécule dérivée de celle du propane (C3H8) dans laquelle 7 des 8 atomes d’hydrogène (H) présents sont remplacés (d’où « hepta ») chacun par un atome de fluor (F). Reconnu par la directive REACH (le règlement sur l’enregistrement, l’évaluation, l’autorisation et les restrictions des substances chimiques est entré en vigueur au niveau de l’Union Européenne le 1er juin 2007), ce produit est commercialisé comme fluide extincteur d’incendie et fluide pousseur dans l’industrie pharmaceutique. Il ne se décompose qu’à haute temGaz de shiste : et si on écoutait les scientifiques ? Science et pseudo-sciences n°301, juillet 2012.

Présenté par ses détracteurs comme synonyme de désastre environnemental inévitable, le gaz de schiste représente, de façon indéniable, un bouleversement majeur dans le paysage énergétique mondial. En Europe, alors qu’on en est encore à essayer d’évaluer les gisements et le potentiel existant, la controverse s’est développée, souvent de façon passionnée, sans qu’il soit aisé de sortir d’une présentation qui se résumerait à des industriels sans scrupules dévastant le paysage et polluant les nappes phréatiques. La réalité semble être bien plus nuancée. Ce dossier entend donner les éléments d’une réflexion sereine sur un sujet aux enjeux majeurs, contribuant ainsi à des décisions appuyées sur des arguments scientifiques. Qu’est-ce que le gaz de schiste ? Existe-t-il des moyens propres de l’exploiter ? En se substituant au charbon, pourrait-il contribuer à diminuer les émissions de CO2 ? Que disent les scientifiques ? Et ne faudrait-il pas les écouter davantage ?

Sommaire. Les gaz non conventionnels : qu’est-ce que c’est ? Les impacts environnementaux. Des États-Unis vers la France : la controverse. Et si on écoutait les scientifiques ? Les gaz de schiste : une réalité aux États-Unis, une éventualité ailleurs. À propos du documentaire Gasland.

56

Science et pseudo-sciences n°308, avril 2014

pérature (640°C). Non ionisable, il ne se dissocie pas dans l’eau, sa solubilité est faible (0,23g/l). Stable en milieu aqueux, il l’est aussi vis-à-vis des métaux et des élastomères en conditions ambiantes. Peu réactif, il n’entraîne pas d’effet toxique sur l’environnement ou la santé humaine, hormis à haute concentration (risque d’asphyxie). C’est un produit non classé dangereux pour la santé humaine. Par ailleurs, le HFP ne détruit pas la couche d’ozone. C’est un gaz à effet de serre (pouvoir réchauffant de 3220 mais durée de vie de 34,2 ans), son émission dans l’atmosphère ne peut être qu’accidentelle. Si sa forte densité en phase vapeur (7,15 fois celle de l’air) impose des précautions de manipulation en surface, sa forte densité en phase liquide (1,4 fois celle de l’eau) devrait faciliter l’identification d’agents de soutènement allégés. La mise en production nécessite un protocole approprié tirant parti de la revaporisation du HFP lors de la baisse de pression exercée sur les puits.

Conclusion L’injection de propane (gélifié ou pur) réduit les impacts de la fracturation hydraulique vis-à-vis de l’environnement et du climat, peut améliorer les performances d’extraction, mais entraîne une classification Seveso des sites d’exploitation, du fait de l’inflammabilité du produit. Des produits non inflammables, dont l’HFP, devraient réduire les impacts environnementaux, tant en surface qu’en subsurface. Ces produits et procédés demandent toutefois à être testés et optimisés au laboratoire puis validés par la mise en œuvre de pilotes d’expérimentations à fins scientifiques, deux volets constituant un programme de recherche cohérent, en ligne avec les recommandations de l’ANCRE2. 2 Alliance Nationale de Coordination de la Recherche pour l’Énergie, Rapport « Programme de recherche sur l’exploitation des hydrocarbures de roches mères » (2012). L’ANCRE, audelà de ses membres fondateurs (CEA, CNRS, CPU, IFPEN), réunit en tant que membres associés l’ensemble des organismes de recherche publics français concernés par les problématiques de l’énergie.

www.pseudo-sciences.org

Science et pseudo-sciences n°308, avril 2014

57

Les leçons inattendues d’Hiroshima Bertrand Jordan Bertrand Jordan est biologiste moléculaire, directeur de recherche émérite au CNRS. Auteur de nombreux articles et d’une dizaine de livres sur la génétique et ses applications, il a obtenu le prix Roberval en 2000 pour Les Imposteurs de la génétique, le prix Jean Rostand en 2007 pour Thérapie génique : espoir ou illusion ? et le prix « La Science se Livre » en 2009 pour L’humanité au pluriel, la génétique et la question des races. Bertrand Jordan fait partie du Comité de parrainage de l’AFIS. Cet article est une adaptation d’un texte paru dans Médecine/Sciences, février 2014, www.medecinesciences.org. Avec les aimables autorisations de l’auteur et de l’éditeur.

uel rapport entre Hiroshima et la génomique ? La relation est plus étroite qu’on ne l’imagine a priori, car en fait, l’étude des survivants des deux villes martyres a été une des motivations du programme « Génome humain » à ses tout débuts, alors que ce dernier se préparait au sein du Department of Energy (DOE) nord-américain, l’équivalent de notre CEA (Commissariat à l’Énergie Atomique). Comme le raconte Robert Cook-Deegan dans son livre sur la genèse du projet [1], le DOE suivait de près les travaux menés sur les survivants de ces deux explosions atomiques et sur leur descendance. Ces études, portant sur plus de deux cent mille personnes, avaient montré une augmentation notable des cancers (notamment des leucémies) chez les survivants mais, contrairement à ce qui était attendu, aucun effet sur leur descendance, que ce soit au niveau de malformations visibles ou d’altération de l’ADN.

Q

Charles DeLisi, responsable de l’Office of Health and Environmental Research au sein du DOE, pensait que les mutations attendues ne pourraient être détectées que par une analyse globale et détaillée de l’ADN. Cela le motiva pour proposer, dès 1985, une initiative sur le génome humain et obtenir les premiers financements pour la mettre en place. Cette initiative, par ailleurs, cadrait bien avec les possibilités techniques et organisationnelles du DOE, organisme assez bureaucratique mais doté, dans la foulée du projet Manhattan (le projet qui conduisit à la mise au point des bombes atomiques qui seront larguées sur Hiroshima et Nagasaki), de moyens techniques et financiers considérables. On sait ce qu’il advint de ce projet « Génome humain » qui devait réellement débuter quelques années plus tard et qui, malgré le scepticisme ambiant et des débuts difficiles, aboutit à réellement révolutionner la biologie (en établissant en 2003 le séquençage complet de l’ADN du génome humain). 58

Science et pseudo-sciences n°308, avril 2014

Mais l’objet de cette chronique est de rappeler les résultats obtenus en plus de soixante années d’étude des hibakusha (les survivants) et de leur descendance – résultats surprenants que semblent ignorer bien des intervenants dans les débats actuels sur l’énergie nucléaire.

Le cadre des études Après l’explosion des deux bombes qui tuèrent au total plus de 200 000 personnes, des études épidémiologiques furent lancées dès 1947 par l’ABCC1, puis poursuivies, à partir de 1975, par la RERF2, fondation américano-japonaise. Une cohorte de plus de 120 000 personnes exposées (ainsi que des individus témoins non irradiés) a été suivie sur toute la période, de même que 70 000 descendants. Les résultats ont fait l’objet de nombreuses publications dans des revues spécialisées (la grande majorité des auteurs étant Japonais) et de quelques articles dans des revues à plus fort facteur d’impact.

Les mesures d’irradiation Avant d’aller plus loin, il est nécessaire de préciser la manière dont est quantifiée l’irradiation reçue par ces personnes et ce que sont les unités utilisées (voir encadré). La limite admise en France pour l’exposition annuelle du public due à la radioactivité artificielle est de 1 milli-Sievert (mSv)3 qui correspond à peu près à 1 milli-Gray (mGy), la valeur exacte dépendant des facteurs énumérés dans l’encadré. Selon les calculs – forcément approximatifs, mais affinés au cours des années – les hibakusha ont reçu une exposition approximativement homogène de 0,1 à 2 ou 3 Gy, en fonction de leur localisation au moment de l’explosion et la présence ou non d’éléments protecteurs. Il s’agit donc d’irradiations très importantes, de l’ordre de mille fois ce qui est admis comme limite chez nous, et, qui plus est, délivrées quasi-instantanément, ce qui renforce considérablement leurs effets biologiques.

Les effets sur les survivants Deux à trois ans après les bombardements, on a noté une nette augmentation des leucémies chez les hibakusha ; l’apparition de cancers « solides » en excès a été plus tardive, au delà de dix ans. Au fil du temps et des études épidémiologiques conduites sur les 120 000 personnes de la cohorte, les effets sur différentes pathologies ont pu être quantifiés. Dans la suite, ils sont rapportés pour une dose absor-

Jardin à Hiroshima, Standish Backus (1910-1989). Wikimedia

1 Atomic Bomb Casualty Commission, créée par la National Academy of Sciences (USA). 2 Radiation Effects Research Foundation. 3 L’exposition naturelle (roches granitiques, rayons cosmiques) est de 2 à 3 mSv en France.

Science et pseudo-sciences n°308, avril 2014

59

Le Becquerel (Bq)

Quantifier l’irradiation

La radioactivité d’un échantillon se caractérise par le nombre de désintégrations de noyaux radioactifs par seconde qui s’y produisent. L’unité de mesure de la radioactivité est le Becquerel (Bq). Un Becquerel correspond à une désintégration par seconde. Cette mesure rend compte du nombre de désintégrations, mais pas de leur énergie, ni de leur effet sur l’homme. Le Gray (Gy)

L’unité de mesure de la dose absorbée est le Gray (Gy) qui correspond à l’énergie cédée par unité de masse. Cette unité permet donc de mesurer la quantité de rayonnements absorbés par un organisme ou un objet exposé aux rayonnements. Le Gray a remplacé le rad en 1986 : 1 gray = 100 rads = 1 joule par kilo de matière irradiée. Le Sievert (Sv)

Les effets dus à la radioactivité sur les organismes vivants, ou sur la matière inerte, ne sont pas directement liés au Becquerel pour plusieurs raisons : la désintégration d’un atome de césium ou d’iode ne libère pas la même énergie ; les rayonnements émis sont de natures très différentes ; tous n’atteignent pas obligatoirement l’organisme de la même manière. De plus, suivant les parties de l’organisme touchées par les rayonnements, les effets sont différents. Pour en tenir compte, la dose absorbée est multipliée par un facteur qui permet d’aboutir à la dose équivalente, exprimée en Sievert (Sv). Certains tissus et organes sont donc plus sensibles au rayonnement que d’autres. Pour en tenir compte, la dose équivalente a été pondérée par un facteur de risque spécifique pour chaque tissu ou organe de manière à obtenir la dose effective (ou dose efficace). Ce système présente l’avantage de pouvoir placer tous les types d’exposition humaine au rayonnement ionisant sur une même échelle des risques. La valeur de la dose effective étant généralement très petite, elle est le plus souvent exprimée en milliSievert (mSv).

Source : http://www.mesure-radioactivite.fr/public/spip.php?rubrique62, portail d’information développé par l’Autorité de sûreté nucléaire (ASN) et l’Institut de radioprotection et de sûreté nucléaire (IRSN).

bée de 1 Gray (la plupart des effets d’induction de cancer variant linéairement avec la dose à partir d’environ 100 à 200 mGy). Une revue récente fait le point sur les données après plus de 50 ans de suivi [2]. La mortalité globale (toutes causes confondues) augmente de 22 % par rapport à la population témoin (Japonais de ces villes, non irradiés car absents au moment de l’explosion), la mortalité par cancer (tous types sauf leucémies) augmente de 42 % et celle due aux leucémies de 310 %. Une irradiation de 1 Gray a donc bien eu des conséquences négatives importantes sur cette population, qui paye un lourd tribut au fil des années. Notons néanmoins que, même pour les leucémies, le taux mesuré correspond à environ dix cas par an et pour 10 000 personnes – en d’autres termes, la très grande majorité des survivants irradiés n’a pas développé cette maladie. 60

Science et pseudo-sciences n°308, avril 2014

Et la descendance ? Il s’agit là bien sûr du point le plus important, et pour lequel les résultats constituent une surprise. Compte tenu des connaissances de l’époque, on s’attendait généralement à observer des effets notables chez les descendants des irradiés. Les hibakusha ont d’ailleurs subi une sévère discrimination au sein de la société japonaise, et il leur était fort difficile de se marier en raison de la crainte que leur descendance soit affectée. Beaucoup de scientifiques étaient du même avis, notamment Hermann Muller, prix Nobel de médecine en 1946 pour la découverte de l’effet mutagène des rayons X, ou Alfred Sturtevant, constructeur de la première carte génétique chez la Drosophile – tous deux pratiquants assidus de la mutagenèse sur des organismes modèles. Mais il devait s’avérer impossible de mettre en évidence de tels effets sur les survivants d’Hiroshima ou Nagasaki. La fréquence des malformations néonatales visibles, de l’ordre de 1 %, n’est pas significativement plus élevée chez les enfants issus de parents tous deux fortement irradiés que chez les témoins [3] ; l’incidence des cancers chez ces descendants ne dépend pas de la dose d’irradiation reçue par les parents [4] ; et une analyse de régions minisatellites hypervariables4 chez eux ne montre pas un taux de mutation augmenté [5]. Enfin, une étude longitudinale (suivi d’une population dans le temps, à partir d’un événement donné) sur près de 12 000 descendants de survivants [6] ne montre pas d’augmentation pour l’incidence de dix-huit affections multifactorielles5. Il est important de noter que de tels effets ne peuvent résulter que d’anomalies radio-induites touchant les cellules reproductrices, ovules ou spermatozoïdes, éventualité beaucoup moins fréquente que des lésions d’autres cellules de l’organisme en cas d’irradiation homogène de tout le corps. Toutes ces données convergent pour indiquer que les effets génétiques chez l’homme, pour une irradiation importante de 1 Gy, sont très faibles6 [7,8,9] ou inexistants. Une évaluation récente [10] donne comme limite supérieure une mutation par génome dans les séquences codantes pour une irradiation de 1 Gy. Ce résultat est étonnant compte tenu de la radiosensibilité mesurée sur des souris lors de multiples expériences et qui, extrapolée à l’homme, prévoyait une augmentation significative des anomalies génétiques. Les scientifiques travaillant sur cette question en concluent que l’homme est nettement moins radiosensible que la souris [7,8,10], ce qui n’est finalement pas étonnant, compte tenu de la différence de longévité entre nos deux espèces, laquelle implique notamment une meilleure efficacité des mécanismes de réparation de l’ADN chez nous. 4 Zones connues pour être particulièrement variables dans notre ADN et qui devraient logi-

quement être les premières à montrer un effet mutagène des radiations. 5 L’âge moyen de ces descendants étant de 48 ans, ces résultats sont provisoires. 6 À part pour les fœtus irradiés in utero qui, eux, présentent une mortalité et un taux d’ano-

malies élevés.

Science et pseudo-sciences n°308, avril 2014

61

Un projet utile ? Il n’y a pas, à notre connaissance, d’article récent exploitant les nouvelles possibilités de séquençage rapide pour quantifier le nombre de mutations nouvellement apparues chez les enfants des hibakusha. Pourtant, de telles études sont possibles aujourd’hui [11] et elles seraient sans doute suffisamment sensibles pour détecter, si elle existe, une (faible) augmentation du taux de mutations – réalisant ainsi l’objectif de Charles DeLisi en 1985 ! Les travaux en cours sont centrés sur la détection de délétions grâce à des puces à ADN (CGH-array), et il existe un projet de séquençage à grande échelle dont les résultats seraient fort intéressants7. Il me semble en tout cas utile de rappeler ces données tout à fait contraires à l’image médiatique des radiations, qui associe souvent centrales nucléaires et « mutants » à deux têtes. Il ne s’agit pas, bien sûr, d’affirmer que la radioactivité est inoffensive et qu’il est inutile de s’en protéger – mais le voisinage d’une centrale nucléaire8 est probablement moins dangereux pour la santé que la fréquentation de nos villes polluées par la circulation automobile… 7 Nori Nakamura, communication personnelle (décembre 2013) 8 Induisant une exposition inférieure à 0,002 mSv par an, à comparer à la radioactivité naturelle en France estimée à 2,4 mSv (cf. http://www.laradioactivite.com).

Références

[1] Robert Cook-Deegan. The Gene Wars. Science, Politics and the Human Genome. W. W. Norton & C°, New York, 1994

[2] Sakata R Grant RJ Ozasa K. “Long-term follow-up of atomic bomb survivors”. Maturitas 2012 ; 72 : 99-103 [3] Otake M, Schull WJ, Neel JV. “Congenital malformations, stillbirths, and early mortality among the children of atomic bomb survivors : a reanalysis”. Radiat Res. 1990 ; 122 : 1-11.

[4] Izumi S, Koyama K, Soda M, Suyama A. “Cancer incidence in children and young adults did not increase relative to parental exposure to atomic bombs”. Br J Cancer. 2003 ; 89 : 1709-13. [5] Kodaira M, Izumi S, Takahashi N, Nakamura N. “No evidence of radiation effect on mutation rates at hypervariable minisatellite loci in the germ cells of atomic bomb survivors”. Radiat Res. 2004 ; 162 : 350-6. [6] Tatsukawa Y, Cologne JB, Hsu WL, Yamada M, et al. “Radiation risk of individual multifactorial diseases in offspring of the atomic-bomb survivors : a clinical health study”. J Radiol Prot. 2013 ; 33 : 281-93.

[7] Schull WJ, Otake M, Neel JV. “Genetic effects of the atomic bombs : a reappraisal”. Science. 1981 ; 213 : 1220-7. [8] Neel JV, Schull WJ, Awa AA, Satoh C, Kato H, Otake M, Yoshimoto Y. “The children of parents exposed to atomic bombs : estimates of the genetic doubling dose of radiation for humans”. Am J Hum Genet. 1990 ; 46 : 1053-72. [9] Nakamura N. “Genetic effects of radiation in atomic-bomb survivors and their children : past, present and future”. J Radiat Res. 2006 ; 47 Suppl B : B67-73.

[10] Nakamura N, Suyama A, Noda A, Kodama Y. “Radiation effects on human heredity”. Annu Rev Genet. 2013 ; 47 : 33-50.

[11] Michaelson JJ, Shi Y, Gujral M, Zheng H, Malhotra D et al. “Genome sequencing in autism identifies hot spots for de novo germline mutation”. Cell. 2012 ; 151 : 1431-42.

D’autres articles de Bertrand Jordan publiés dans Science et pseudo-sciences

« Et maintenant, le “gène de l’impulsivité”... », SPS n° 297, juillet 2011. « Autisme et génétique, une relation avérée mais complexe… », SPS n°300, avril 2012. « “Médecine personnalisée”, la part du bluff et celle de la réalité », SPS n° 292, octobre 2010. « Myriad Genetics : l’arme du secret », SPS n° 305, juillet 2013. « ADN, ascendance génétique et “race” sociale : l’apport des Snips », SPS n° 290, avril 2010. À retrouver sur notre site Internet : http://www.pseudo-sciences.org

62

Science et pseudo-sciences n°308, avril 2014

Psychologie scientifique

Les thérapies cognitivo-comportementales Jacques Van Rillaer Jacques Van Rillaer est professeur émérite de psychologie à l'Université de Louvain.

« Dans une large mesure, la personne apparaît comme l’artisan de sa propre destinée. Elle est souvent capable de modifier les variables qui l’affectent. » B.F. Skinner [1]

es psychothérapies sont des pratiques psychologiques destinées à traiter des troubles mentaux et des troubles somatiques générés ou maintenus par des comportements. Elles ont un long passé : les guérisseurs primitifs, les prêtres de l’Égypte ancienne et des temples d’Esculape obtenaient déjà des guérisons par ce genre de pratiques. Henri Ellenberger a retracé ce cheminement qui a abouti, au XXe siècle, à des dizaines de formes de psychothérapies1.

L

Les psychothérapeutes de tout bord ont obtenu des améliorations et des guérisons, à côté d’échecs et d’effets de détérioration. Il en va là comme en médecine somatique, les rhumes, des céphalées et d’autres maux disparaissent quel que soit le traitement : des piqûres d’aiguilles, des doses infinitésimales d’une substance, un placebo, etc. Des processus d’auto-guérison, des croyances du malade, l’assurance du médecin et sa bienveillance jouent un rôle plus ou moins important. Ainsi, quelle que soit la psychothérapie, les troubles psychiques mineurs (petites phobies, dépressions modérées, états de stress et d’anxiété, etc.) disparaissent avec le temps, surtout quand les conditions de vie s’améliorent. Freud écrivait, dans un moment de grande lucidité [2] : « En règle générale, notre thérapie est forcée de se contenter d’amener plus vite, plus sûrement, avec moins de dépense, la bonne issue qui, dans des circonstances favorables, se serait produite spontanément ». L’évolution est généralement facilitée quand la personne bénéficie de ce qu’on appelle les « facteurs thérapeutiques communs » : un contact chaleureux, une écoute empathique, la relativisation des difficultés, la déculpabilisation, la foi dans la possibilité de changer. Un non-professionnel de la thérapie peut fort bien en faire bénéficier une personne perturbée. Certaines maladies, comme des infections graves, ne guérissent pas spontanément et ne sont guère influencées par la suggestion. La médecine a trouvé des remèdes efficaces pour un grand nombre de ces troubles grâce à la méthode scientifique. En un siècle et demi, elle a réalisé beaucoup plus de progrès qu’au cours des millénaires passés. 1 Concernant Ellenberger et sa monumentale histoire des psychothérapies : SPS n°293,

2010 : pages 137-139 ou

Science et pseudo-sciences n°308, avril 2014

63

Il en va de même pour les problèmes psychologiques sérieux : dépression sévère, trouble panique avec agoraphobie, obsessions et compulsions envahissantes, addiction bien établie, etc. Là aussi, les traitements réellement efficaces résultent de recherches scientifiques méthodiques. Ils se sont développés seulement depuis la fin des années 1950. Il s’agit de la psychiatrie biologique – seule efficace pour traiter certains troubles psychotiques – et des thérapies cognitivo-comportementales (TCC).

Deux définitions des « thérapies cognitivo-comportementales » Le titre de thérapeute comportementaliste ou TCC n’est légalisé dans aucun pays, pas plus que celui de psychanalyste, de philosophe ou de graphologue. N’importe qui peut se dire comportementaliste quand bien même il n’a pas suivi la formation ad hoc. On peut définir les TCC comme des procédures destinées à résoudre des problèmes psychologiques par l’adoption de comportements déterminés. Selon cette définition, une des premières illustrations remonte à environ 3000 ans. Dans L’Odyssée (ch. XII), Homère a décrit trois procédures comportementales, que Circé a conseillées à Ulysse pour naviguer là où régnaient les sirènes, sans succomber à leurs chants ensorcelants. Ulysse a bouché les oreilles de ses marins avec de la cire (« contrôle du stimulus ») ; il s’est fait ligoter au mât du navire (« auto-empêchement d’une action impulsive ») ; il a ordonné à ses compagnons de resserrer ses liens s’il venait à les supplier de le libérer (« anticipation d’une procédure d’alerte »). Les psychiatres et psychologues qui organisent des formations en TCC définissent leurs pratiques comme des procédures psychothérapeutiques qui s’appuient sur la démarche scientifique. L’expression « Behavior therapy » a été utilisée pour la première fois en 1953 dans un article cosigné par Skinner [3] et pour la première fois dans le titre d’un livre en 1960 [4]. Dès le départ, les auteurs ont souligné que la spécificité de la thérapie comportementale réside dans l’utilisation de la science du comportement pour traiter des troubles psychologiques. Selon cette définition, un des premiers traitements avait été réalisé à l’Université Columbia en 1924 : l’élimination de phobies chez un garçon de 3 ans appelé Peter, par Mary Cover Jones, suivant une méthodologie mise au point de Watson [5]. © Onur Ersin et © Viorel Dudau | Dreamstime.com

64

L’enfant avait très peur des lapins. Se basant

Science et pseudo-sciences n°308, avril 2014

sur des lois de l’apprentissage, Jones a expérimenté deux méthodes. Elle a installé Peter sur une chaise haute. Pendant que l’enfant recevait ses aliments préférés ou jouait agréablement, un lapin était amené dans une cage grillagée à l’autre bout de la pièce. Au début le garçon présentait des signes typiques de peur, mais il s’est habitué progressivement au stimulus anxiogène. Après quelques séances, la cage pouvait être rapprochée sans déclencher de vives réactions. D’autre part, Jones a exploité le pouvoir thérapeutique de l’imitation : elle a invité trois garçons de l’âge de Peter, qui n’avaient pas peur des lapins, à jouer devant lui avec l’animal phobogène. Jones a établi 17 degrés de tolérance à la présence d’un lapin, allant de « Le lapin suscite la peur où qu’il soit dans la pièce » jusqu’à « Peter, dans son parc avec le lapin, lui laisse grignoter les doigts ». La tolérance de Peter a augmenté selon une progression en dents de scie. Au bout de 45 séances, la réaction de peur déclenchée à la vue d’un lapin avait disparu au profit de nouvelles conduites : Peter acceptait l’animal dans son parc, jouait avec lui et le caressait affectueusement. Aucun « symptôme de substitution » – pour parler comme les freudiens – n’est apparu dans les semaines qui ont suivi. Il a fallu attendre la fin des années 1950 pour que se développe l’idée de fonder la psychothérapie sur la psychologie scientifique – principalement des lois de l’apprentissage établies expérimentalement. L’idée apparaît au cours de la même décennie en différents endroits de la planète, notamment à Harvard avec Skinner – un psychologue expérimentaliste –, en Afrique du Sud avec Joseph Wolpe – un psychiatre formé au freudisme, mais qui essayait de travailler scientifiquement –, à Londres avec Hans Eysenck – un psychologue clinicien, qui menait des recherches sur l’efficacité des différentes psychothérapies. Les premiers troubles traités ont été les phobies. Les succès ont été manifestes. Parallèlement, s’est développé à partir de 1956 un courant de thérapie cognitive, dont le principal promoteur a été Albert Ellis [6]. Docteur en psychologie de l’université Columbia, formé à l’analyse freudienne, il a modifié sa façon de faire de la psychothérapie après quelques années de pratique décevante. Une de ses idées centrales réside dans la conception stoïcienne des émotions, que résume la maxime d’Épictète : « Ce qui trouble les hommes, ce ne sont pas les choses, mais les jugements qu’ils s’en font ». Pour Ellis, la thérapie consiste surtout à aider le patient à analyser les présupposés de ses jugements et à les modifier activement. Aaron Beck, un psychiatre de l’université de Pennsylvanie, a suivi le même chemin : il a délaissé le freudisme au profit de la « thérapie cognitive2 », qui vise à analyser systématiquement la façon de penser et à la modifier activement. Ces pionniers de la thérapie cognitive ont pu assez rapidement constater que l’action est essentielle pour changer « en profondeur » la façon de penser. Ellis dénommera sa méthode, quelques années plus tard, la « thérapie comportementale, rationnelle, émotive » [7] et Beck insistera sur l’impor2 Beck a été le premier à utiliser cette expression. Ellis parlait, à la fin des années 50, de

« thérapie rationnelle », puis de « thérapie rationnelle-émotive ».

Science et pseudo-sciences n°308, avril 2014

65

Les deux usages du mot « comportement »

Le terme « comportement » est utilisé par les psychologues de deux façons. Au sens étroit, il désigne une action manifeste, directement observable, qui se distingue des phénomènes psychiques « internes » (les cognitions et les affects). Au sens large, il désigne toute activité signifiante, directement ou indirectement observable, et présente trois dimensions : une composante cognitive (perception, souvenir, réflexion, etc.), affective (plaisir, souffrance, indifférence) et motrice (action, expression corporelle). Mis à part les réflexes élémentaires, tout comportement présente ces trois éléments. Ainsi, cher lecteur, en ce moment vous percevez et traitez des informations, vous produisez des cognitions (pensées, souvenirs) ; vous avez une disposition affective (intérêt, curiosité, satisfaction) ; vous adoptez une attitude corporelle, vous bougez les yeux et peut-être la tête... On peut parler de « comportement cognitif » ou de « cognition » quand la première composante s’avère prédominante (par exemple quand on lit), de « comportement affectif », de « comportement émotionnel » ou d’« émotion » si la deuxième dimension est la plus frappante (par exemple lorsqu’on se met en colère), de « comportement moteur » ou d’« action » si la troisième apparaît à l’avant-plan (par exemple quand on fait du sport).

Un comportement est toujours en situation. Pour l’analyser, il faut examiner les événements qui précèdent son apparition et ceux qui le suivent, mais également l’état de l’organisme. En définitive, toute observation et analyse méthodiques d’un comportement implique six variables : ses trois dimensions (cognition, affect, action), le ou les stimuli antécédents, le ou les effets anticipés, l’état de l’organisme. tance des « expérimentations comportementales » pour modifier durablement des façons automatisées de penser. Les pionniers des thérapies comportementales n’avaient pas ignoré les émotions (leurs premiers traitements visaient à éliminer des peurs excessives), ni les cognitions (dès 1954, Wolpe utilisait la visualisation mentale pour se préparer à affronter des situations anxiogènes). Toutefois, leur attention était centrée sur les stimuli externes et les actions. Dans les années 1970, les courants cognitif et comportemental ont fusionné. Bon nombre de thérapeutes ont alors adopté l’expression « thérapies cognitivocomportementales » (TCC). C’est le cas en France. Au pays de Descartes et de Lacan, l’être humain se définit essentiellement par la pensée [8]. Dans d’autres pays – comme la Hollande – beaucoup de thérapeutes se contentent de l’expression « thérapie comportementale », car ils comprennent le mot « comportement » au sens large. Ils utilisent le pluriel lorsqu’ils mettent l’accent sur la diversité des procédures et le singulier quand ils mettent en avant les dénominateurs communs des procédures.

La base commune des associations de TCC L’ancrage des TCC dans la psychologie scientifique implique une évolution continue, tant pour les procédures que pour les références théoriques. Ainsi, des progrès substantiels ont été réalisés dans les années 1980 par l’École d’Oxford pour le traitement des attaques de panique et des troubles obsessionnels compulsifs3. Une avancée décisive s’est produite dans les 66

Science et pseudo-sciences n°308, avril 2014

années 90 avec l’équipe de Steven Hayes (université du Nevada, Reno), pour traiter les émotions, les impulsions et les addictions4. Dans quasi tous les pays occidentaux, on trouve à présent une association professionnelle5. Il y a des différences de formation, de critères d’admission et d’exigences pour l’obtention du titre. On peut cependant dégager des principes enseignés dans toutes les associations concernant les objectifs, la scientificité et un style d’interaction avec le patient, style qu’on peut qualifier de « pédagogie démocratique ». Les objectifs essentiels Les comportementalistes ont pour principal objectif d’apprendre à ceux qui consultent comment modifier concrètement, de façon observable et mesurable, des comportements que ceux-ci souhaitent changer. Les objectifs de changement sont définis au terme d’un dialogue. Dans certains cas, le thérapeute limite son aide à un type de comportement (par exemple, voyager en métro sans angoisse). Dans d’autres, le traitement implique d’élargir le ou les objectifs. La personne qui veut se libérer de la dépendance à l’alcool ne peut se contenter d’une technique de contrôle des impulsions à boire : elle doit également développer son répertoire d’activités agréables « alternatives », apprendre des stratégies pour mieux réguler les émotions pénibles et affronter des situations stressantes, etc. Idéalement, les apprentissages vont au-delà de problèmes bien circonscrits : ils visent à améliorer l’habileté à se gérer soi-même6. Le souci de scientificité Les TCC se caractérisent moins par une théorie ou des techniques – dont certaines sont empruntées à d’autres courants – que par un souci de scientificité qui, comme en médecine, vient de la volonté d’être le plus efficace possible.

l

l

Les comportementalistes se basent sur un corpus de recherches solides, principalement des expériences sur l’apprentissage, mais aussi des études sur les processus cognitifs, affectifs, psychophysiologiques et sociaux. Au cours de leurs interventions, ils adoptent une attitude qui s’apparente à celle d’un chercheur scientifique : ils rassemblent des observations avec soin, ils considèrent leurs analyses et interprétations comme des hypothèses de travail, ils proposent aux patients d’effectuer des observations systématiques pour confirmer ou réfuter les hypothèses, ils changent les hypothèses quand les faits les contredisent.

3 Cf. SPS, n° 292, octobre 2010, p. 7-14. http://www.pseudo-sciences.org/spip.php?article1491 4 Pour un ouvrage en français sur ce courant, voir SPS : http://www.pseudo-

sciences.org/spip.php?article1760 5 Dans quasi tous les pays, il n’y a qu’une association. Les comportementalistes ont certes des désaccords, mais ceux-ci tendent à se résoudre par des discussions, de nouvelles observations et expérimentations. Les psychanalystes, depuis Freud, se divisent, excommunient et créent de nouvelles Écoles. (Il y a en France plusieurs dizaines d’associations psychanalytiques, qui sont plus ou moins en conflit ou se méprisent). 6 Le thème de la gestion de soi est devenu central en TCC dès les années 1970. Un ouvrage récent en français : Van Rillaer, J. (2012) La nouvelle gestion de soi. Bruxelles : Mardaga, 332 p.

Science et pseudo-sciences n°308, avril 2014

67

l

l

Sachant que leurs propres comportements sont fonction de plusieurs variables, ils s’efforcent de les observer et de les modifier quand c’est souhaitable. Ils analysent notamment les interactions subtiles qui orientent le déroulement des psychothérapies (Voir p. ex. [9,10]). Ils vérifient méthodiquement les effets de leurs pratiques. Ils comparent l’évolution de patients de même type traités par des méthodes différentes, pour découvrir les ingrédients thérapeutiques les plus efficaces et ceux qui sont inutiles. Ils essaient de préciser non seulement les procédures efficaces pour la moyenne des patients, mais encore celles qui fonctionnent le mieux pour tel type de personnes (par exemple les techniques basées sur la visualisation mentale ne conviennent pas à tous). Les études méthodiques sur les effets sont le travail d’équipes universitaires. Le praticien doit se tenir au courant de publications qui en font état.

Le style du thérapeute Le thérapeute comportementaliste n’est pas un gourou. En principe, il agit comme un pédagogue respectueux de l’élève, soucieux de faire accéder rapidement à davantage d’autonomie. Il se doit d’instaurer une ambiance de travail, sereine et sympathique, et d’empêcher que la relation se caractérise par la soumission ou l’amour. Il explicite en toute clarté les principes, les objectifs, les méthodes, les contrats, les critères d’évaluation, les résultats. Il propose éventuellement des lectures qui permettent de mieux comprendre les processus en jeu et la logique du traitement. Il s’abstient d’utiliser un jargon visant à impressionner ou à masquer le manque d’efficacité. La personne qui veut se libérer de réactions bien ancrées ne peut se contenter de parler et de recevoir des interprétations pendant une ou deux heures par semaine. Elle doit effectuer, dans sa vie quotidienne, des « tâches thérapeutiques », c’est-à-dire des observations méthodiques et des essais de nouveaux comportements (dialogue intérieur, actions). Les TCC ne sont pas de la magie, mais des procédures d’apprentissages qui, comme beaucoup d’apprentissages, demandent des efforts ciblés.

Des résultats observables Dès le départ des TCC, les principaux artisans de cette approche se sont beaucoup souciés d’étudier objectivement les effets de la pratique. En un demi-siècle, des centaines d’études bien contrôlées ont été réalisées sur l’efficacité des procédures en fonction des problèmes à traiter. Beaucoup d’entre elles sont publiées dans des revues de thérapie comportementale (la principale restant Behaviour Research and Therapy), mais aussi dans les revues les plus prestigieuses de psychiatrie et de psychologie scientifiques (American Journal of Psychiatry, Archives of General Psychiatry, British Journal of Psychiatry, Journal of Consulting and Clinical Psychology, L’Encéphale, Psychological Bulletin, etc.). Le fameux rapport de l’Inserm de 2004 sur l’évaluation de trois approches thérapeutiques s’est appuyé sur un bon nombre de ces publications [11]. Il en est ressorti que les TCC sont les 68

Science et pseudo-sciences n°308, avril 2014

Références

[1] B.F. Skinner. Science and human behavior. Macmillan, 1953, p. 228. Trad., Science et comportement humain. Paris : In Press, 2005, p. 214.

[2] Sigmund Freud. Inhibition, symptôme et angoisse (1926). Trad., Œuvres complètes, PUF, XVII, p. 269.

[3] Lindsley, O. R., Skinner, B. F. & Solomon, H. C. (1953) Study of psychotic behavior, studies in behavior therapy. Status Report 1. Waltham, MA : Metropolitan State Hospital.

[4] Eysenck, H. (1960) Behaviour Therapy and the Neuroses. Pergamon, 467 p. Trad. de l’édition abrégée : Conditionnement et Névroses. Gauthier-Villars, 1962, 414 p. [5] Jones, Mary Cover (1924) A laboratory study of fear : The case of Peter. Pedagogical Seminary, 31 : 308-315. Trad. in Eysenck, H., éd., Conditionnement et névroses. Op. cit., p. 48-56. [6] Ellis, A. (1956) Rational Psychotherapy. Paper presented at the session of the American Psychological Association, 13-8-1956. Journal of General Psychology, 1958, 59 : 35-49.

[7] Ellis, A. (1993) Changing rational-emotive therapy (RET) to rational emotive behavior therapy (REBT). The Behavior Therapist, 16 : 257-258.

[8] Cottraux, J. (1990) “Cogito ergo sum” : Cognitive-behavior therapy in France. The Behavior Therapist, sept., p. 189-90. [9] Rosenfarb I. (1992) A behavior analytic interpretation of the therapeutic relationship. The Psychological Record, 42 : p. 341-354.

[10] Cungi, C. (2006) L’alliance thérapeutique (+ DVD) Retz, 286 p. [11] Inserm (2004) Psychothérapie. Trois approches évaluées. Paris : Éditions de l’Inserm, 568 p. Voir aussi : http://www.pseudosciences.org/spip.php?article2068

thérapies qui enregistrent le plus de résultats positifs. Comme en médecine, certains troubles se traitent aujourd’hui bien et facilement, d’autres pas encore ou peut-être jamais. Le traitement d’une phobie d’animaux inoffensifs se fait généralement en quelques heures, sans rechute ; celui d’un trouble obsessionnel se fait en quelques mois et s’accompagne souvent de rechutes ; celui d’une toxicomanie bien ancrée est long, difficile et s’accompagne quasi toujours de rechutes. Les personnalités antisociales et paranoïaques ne changent quasi pas. Dans certains cas, la procédure est simple. Il suffit d’informations ou d’un changement dans l’environnement. Dans d’autres, il est nécessaire d’agir de façon méthodique sur plusieurs « variables » : des schémas cognitifs, le répertoire des actions, la gestion du temps, etc. Les TCC prenant appui sur une discipline qui évolue – la science du comportement –, elles ont déjà beaucoup changé au cours de leur courte histoire. Les théories et les procédures du futur sont imprévisibles, mais il semble évident que l’utilisation de la psychologie scientifique restera féconde pour résoudre, dans la clarté et avec efficience, une large variété de problèmes psychologiques.

La psychologie scientifique dans Science et pseudo-sciences

« Psychologie des attributions causales », SPS n° 305, juillet 2013. « Utilité et dangers des catégorisations psychopathologiques », SPS n° 303, janvier 2013. « Le trouble obsessionnel-compulsif », SPS n° 292, octobre 2010. « Les colères : réprimer, extérioriser ou faire autre chose ? », SPS n° 290, avril 2010. Des articles de Jacques Van Rillaer à retrouver sur notre site Internet http://www.pseudo-sciences.org Science et pseudo-sciences n°308, avril 2014

69

Petites nouvelles...

Un monde fou, fou, fou... Le verdict de l’oiseau Dodo

Roland Savery (1626); Wikimedia

Le dodo est un grand oiseau de l’île Maurice. Découvert en 1598, il était décrit comme grand (1m), gros (10kg) et lent. Son plumage bleu gris était pourvu d’ailes atrophiées jaunes et blanches. Son bec crochu avait une tache rouge caractéristique à son extrémité. Sa tête noire ou grise possédait deux plis importants à la base du bec. Le dodo s’est éteint moins d’un siècle après sa découverte, à la fin du XVIIe siècle, avec l’arrivée des Européens. Au début du XIXe siècle, on pensait que l’espèce était un mythe. Mais, en 2007, on a trouvé un squelette de dodo, le plus complet et le mieux préservé jamais découvert. Depuis lors, des scientifiques anglais espèrent en extraire l’ADN afin de redonner vie à un spécimen de cette espèce ou à un cousin très proche. Malgré les progrès en génétique, le pari reste difficile à réaliser. L’« effet dodo » En attendant sa résurrection, le dodo a inspiré un effet bien connu dans le domaine des psychothérapies, l’« effet dodo ». Dans 70

plusieurs

langues,

le

mot « dodo » est l’équivalent d’idiot, stupide, crétin. L’image populaire de l’oiseau stupide vient de la peinture de Roelandt Savery (15891654), exposée au musée de l’Université d’Oxford. Lewis Carroll s’en inspira dans Alice au pays des merveilles. Alice avait organisé une course autour d’un lac. Lorsqu’elle demanda à l’oiseau dodo de désigner le vainqueur, celui-ci répondit : « Tout le monde a gagné et tous doivent recevoir des prix ». C’est dans un article de 1936 consacré à l’efficacité comparée des psychothérapies que le psychologue Saul Rosenzweig avança pour la première fois l’idée du dodo verdict. Rosenzweig soutenait en effet que les facteurs communs aux psychothérapies (comme les relations avec le psychologue ou la motivation des patients) comptaient plus que la démarche elle-même. En somme, il n’existait pas, selon lui, de différences majeures entre les thérapies, et l’on pouvait conclure au dodo verdict : toutes les thérapies se valent, toutes les thérapies marchent ! Cette affirmation a hérissé les plumes de beaucoup de monde dans la profession !

Science et pseudo-sciences n°308, avril 2014

Daniel Freeman, professeur de psychologie clinique et Senior Fellow auprès du Conseil de la recherche médicale clinique du département de psychiatrie de l’Université d’Oxford, a publié, le 23 janvier 2014, un article dans The Guardian [1] intitulé : « Are all psychological therapies equally effective ? Don’t ask the dodo ». Il écrit notamment : « Le « Verdict de l’oiseau Dodo » […] prétend que les nombreuses et diverses formes de thérapies psychologiques sont toutes aussi efficaces. Il ne fait aucune différence entre, par exemple, une personne traitée avec des techniques tirées de la psychanalyse ou de la programmation neurolinguistique ou des thérapies cognitivo-comportementales (TCC). Ce qui aide vraiment un patient à guérir, ce sont des facteurs simples, comme la possibilité de discuter de ses préoccupations avec un thérapeute expérimenté et sympathique ou le degré selon lequel il est prêt à s’engager dans le traitement ». Une fois de plus, cette affirmation vient d’être sérieusement remise en question par une étude de Stig Poulsen et Susanne Lunn, psychanalystes chevronnés d’une clinique consacrée à la psychanalyse à Copenhague, publiée ce mois-ci dans l’American Journal of Psychiatry [2]. Les chercheurs ont comparé les résultats obtenus par la psychanalyse et par les thérapies cognitivo-comportementales (TCC). Ce sont les TCC qui se sont avérées les plus efficaces et de très loin.

Dans l’étude, 70 patients atteints de boulimie ont été répartis en deux groupes et soumis aléatoirement soit à deux ans de thérapie psychanalytique hebdomadaire, soit à vingt séances de thérapie cognitivo-comportementale (TCC), réparties sur cinq mois. Après cinq mois, 42 % du groupe TCC avaient cessé de se gaver et de se purger et 6 % du groupe psychanalyse. Après deux ans, la proportion du groupe psychanalyse qui s’était libérée de la boulimie est montée à 15 %. Mais c’était encore loin derrière la réussite du groupe TCC. En effet, après deux ans, 44 % du groupe TCC étaient guéris, bien qu’il se soit écoulé 19 mois depuis la fin de leur traitement. Fait encore plus remarquable, les thérapeutes des TCC n’avaient reçu que deux jours de formation spéciale et la supervision régulière d’un spécialiste des TCC pour les troubles alimentaires. Ils étaient moins expérimentés que ceux qui étaient responsables du traitement psychanalytique. Et enfin, les chercheurs étaient, rappelons-le, psychanalystes. L’American Journal of Psychiatry conclut : « Nous nous félicitons de l’honnêteté des principaux investigateurs et de leur franchise dans la présentation de leurs résultats. Cela n’est peut-être pas ce qu’ils espéraient trouver ni même ce dont ils avaient émis l’hypothèse ». Certaines thérapies peuvent donc être meilleures que d’autres. Il faut continuer à les départager sans a priori pour sélectionner les plus efficaces.

© Dizzy ; Istockphoto

Mais ne demandons plus son verdict à l’oiseau Dodo ! [1] www.theguardian.com/science/blog/2014/ jan/23/psychological-therapies-mental-illness-dodo-bird-verdict [2] http://journals.psychiatryonline.org/article.aspx?volume=171&page=13

Science et pseudo-sciences n°308, avril 2014

71

Uri Alon est chercheur et professeur de biologie des systèmes à l’Institut Weizmann (Israël). Il a aussi en charge l’encadrement de thésards. Son laboratoire étudie les circuits de protéines dans les cellules et particulièrement les interactions dans les réseaux biologiques [1,2]. Lorsqu’il était étudiant en physique, il suivait les cours, le jour, et jouait dans un théâtre d’improvisation, le soir. Lorsqu’Uri Alon devint professeur, il décida de donner à ses étudiants un aperçu de ce qu’apporte l’improvisation théâtrale dans la démarche de la recherche scientifique. La méthode scientifique et les différentes étapes du processus de la recherche ne sont pas vraiment enseignées lors du cursus scolaire. L’étudiant aura donc généralement en tête un processus de recherche complètement rationnel avec des étapes menant de la question à la réponse. Le chercheur construit une prédiction, un schéma de ce qui devrait se produire. Mais, s’il reste bloqué, c’est que la réalité est différente de son schéma. Or, il est important que le schéma colle avec la réalité, il lui faut alors faire preuve de créativité. Uri Alon propose donc de lui permettre d’améliorer sa créativité à partir d’un domaine complètement différent : le théâtre d’improvisation : « Comme la science, l’improvisation va vers l’inconnu. Vous n’avez pas de script, pas de directeur, au théâtre vous pouvez aussi être embourbés, mais vous êtes entraînés à en sortir ». 72

Crédit. Ronald. Ellen and Gilles Soubeyrand

Ce que la science peut apprendre du théâtre d’improvisation

Le nuage Le problème est que le travail expérimental apporte au chercheur un stress supplémentaire, appelé la « dissonance cognitive ». En effet, il y a un moment où les hypothèses de base sont démenties. Il existe un mot pour désigner cela, c’est « cloud » (le nuage). Cet état produit chez le chercheur des émotions négatives. Il est possible d’être perdu dans le nuage pendant une heure, un jour, une semaine, un mois ou toute sa carrière. Mais il trouvera souvent une nouvelle réponse possible, il décidera d’avancer et d’expérimenter cette voie. Si l’expérience est réussie, la découverte est faite et peut être publiée, mais l’important reste le processus ou le cheminement qui l’y a conduit. Pour découvrir quelque chose de vraiment nouveau, l’une des hypothèses de base doit changer, sinon ce n’est pas nouveau. Le nuage est inhérent à la recherche, c’est une étape qui se

Science et pseudo-sciences n°308, avril 2014

situe précisément à la frontière du connu et de l’inconnu. La magie de la recherche consiste donc justement à sortir de ce nuage pour repousser cette frontière toujours plus loin. Le oui et… (Yes and…) Mais que vient alors faire le théâtre dans ce processus de recherche ? C’est par son expérience de l’improvisation qu’Uri Alon a adopté des techniques de théâtre à la scène scientifique, en adaptant le fameux jeu appelé : « oui et… » (« yes and… »), qui ouvre à de nouvelles idées. Ce jeu est basé sur le principe central de l’improvisation quand on va vers l’inconnu. Dans l’improvisation, il est effectivement essentiel de ne jamais dire non à une proposition. Par exemple, quelqu’un dit : « ceci est une piscine », l’autre dit : « non, c’est juste la scène du théâtre ». Alors l’improvisation est finie, tout le monde est frustré, c’est ce qu’on appelle le blocage. C’est comme dire « non » à l’idée de l’autre personne. Si, au lieu de cela, on lui dit : « oui et… », des réactions en chaine se produisent, absurdes ou non, mais toujours créatives. Le dialogue devient : – « voilà une piscine… » ; – « oui, allons plonger » ; « t’as vu la baleine… ? » ; « mais elle s’envole ! » ; « monte dessus, on part sur la Lune… ». L’idée consiste donc à débloquer la créativité cachée en construisant sur les idées des autres. Dans le théâtre d’improvisation, on dit souvent que les acteurs s’autocensurent, ce qui les empêche de dire certaines choses de crainte d’être jugés stupides ou fous ou sans origi-

nalité. En disant « oui et… », la censure intérieure est court-circuitée. Les blocages dans la culture scientifique En science, il y a beaucoup de freins pour pratiquer cette façon de communiquer. Libérer l’esprit de ces freins peut nous conduire à découvrir de nouvelles solutions. On parle rarement en science des aspects émotionnels et subjectifs de la recherche, dans les conférences comme dans les réunions. Uri Alon a pensé que s’il rendait son groupe aussi créatif et ludique que possible et si chacun en faisait autant, la science avancerait mieux. Il l’avait vraiment compris en écoutant un exposé d’Evelyn Fox Keller [3]. Elle disait : « Pourquoi ne parle-t-on pas en science des aspects émotionnels et subjectifs de la recherche ? C’est une question de valeurs, cela a à voir avec la culture de la science. En science, on recherche des connaissances qui sont objectives et rationnelles […] ». Quand vous étiquetez quelque chose comme objectif et rationnel, automatiquement le côté subjectif et émotionnel est étiqueté comme non scientifique ou anti-scientifique ou même menaçant pour la science. La science a une culture, mais cette culture peut être changée et le chercheur peut être un agent de ce changement. Uri Alon raconte que lors d’un exposé dans une conférence, il a commencé à parler des aspects émotionnels et subjectifs de la science et combien il est important d’en discuter. Les auditeurs étaient distants, troublés, ils ne pouvaient pas comprendre ce qu’il disait dans le contexte d’une conférence objective et rationnelle avec ses

Science et pseudo-sciences n°308, avril 2014

73

dix diapositives Powerpoint. Il a essayé diverses façons de communiquer les idées sur les aspects subjectifs et émotionnels et il n’a pas trouvé d’issue. Par la suite, il a commencé son exposé par un blues accompagné à la guitare qui parlait d’une des plus grandes craintes éprouvées par les scientifiques. En effet, certains travaillent dur, découvrent quelque chose de nouveau et quelqu’un le publie avant eux. Cela s’appelle se faire doubler (being scooped). C’est terrible de se faire doubler, dit-il ! Cela engendre la crainte de parler à d’autres. Pourtant parler à d’autres, c’est partager de la connaissance. Alors il a sorti sa guitare, annoncé son chant « scooped again », demandé à l’audience de chanter avec lui « scoop scoop » [4]. Les gens ont commencé à rire, soulagés de voir qu’il y avait d’autres scientifiques qu’eux qui partageaient ce problème. Ils se sont mis à parler de ces choses subjectives et émotionnelles qui leur arrivent pendant qu’ils font de la recherche. Un grand tabou a été levé. On a alors créé de petites équipes, qui se réunissent régulièrement tous les mardis, pour parler des émotions et de tout ce qui peut être subjectif quand les chercheurs font de la recherche ou quand ils encadrent des étudiants. Puis, des dizaines de groupes se sont créés dans le monde entier. Alors, dit-il, quand il rencontre ces groupes, il ne voit pas de scientifiques isolés ou sur la défensive. Ce sont des leaders, ils se sentent à même de faire des changements dans la culture de leurs institutions, comme par exemple démarrer des séminaires et des 74

cours sur les aspects émotionnels et subjectifs rencontrés dans leur travail scientifique. La culture de la science est en train de changer, les scientifiques deviennent des agents du changement, ils apportent ce qu’ils peuvent au sein de leur sphère d’influence. Alors, un blues chanté et accompagné à la guitare, ne serait-ce pas une façon d’améliorer aussi la perception de la science par le public ? Précisons bien toutefois que la « méthode » défendue ici par Uri Alon pour surmonter certains blocages n’est qu’une méthode parmi d’autres possibles, qui n’a pas été évaluée scientifiquement. [1] Uri Alon a reçu de The Human Frontier Science Program Organization (HFSPO) le prix Nakasone 2014 pour ses travaux sur les motifs (building blocks) dans les réseaux biologiques. http://siliconwadi.fr/12787/le-chercheur-israelien-qui-veut-revolutionner-lessciences-par-lart# [2] TED Talk : We have to change the culture of science to do better research : https ://www.youtube.com/watch ?v=RVoz_p EeV8I [3] http://www.diffusion.ens.fr/index.php?res =cycles&idcycle=341 [4] Scooped again by Uri Alon – at the 1st International SystemsX :https ://www.youtube.com/watch ?v=6Pf8a1a6Ak0

Science et pseudo-sciences n°308, avril 2014

Rubrique réalisée par Brigitte Axelrad

Livres et revues Enquête sur un aventurier de l’esprit Le véritable Alfred R. Wallace

Charles H. Smith Préface de Jean Gayon Éditions de l’Évolution, 2013, 301 pages, 22 € Curieux, ce soudain engouement pour Wallace, l’alter ego (pas tant que ça, peut-être) de Darwin. Les retombées de l’année Darwin ont laissé place à une multiplicité d’ouvrages sur Alfred R. Wallace (1823-1913). Celui-ci qui s’ajoute, dans une collection nommée Bibliothèque Wallace, à la biographie de P. Raby1, est l’œuvre d’un auteur qui semble attacher beaucoup d’importance au Wallace des tables tournantes et du spiritisme (qu’il nomme spiritualisme, selon le terme anglais, dont il nous dit qu’il ne se réduit pas au spiritisme), et qui explique le double sens du titre français. Il est lui-même biogéographe, comme Wallace le fut, et, en sa qualité de conservateur de la bibliothèque du Western Kentucky, il a énormément complété la liste des travaux de Wallace, dont il est à ce titre sans doute le meilleur connaisseur. La pensée complexe du personnage, comme aussi celles de Spinoza et de Teilhard, ont retenu son attention. Jean Gayon, préfacier et directeur de la collection, n’hésite pas à souligner que Wallace a une « pensée et une vie plus riche et plus intéressante » que celle de Darwin. Pour comprendre Wallace, il faut savoir que, du moins selon Smith, spirit(ual)isme et évolutionnisme sont liés chez le naturaliste-voyageur. En effet « après avoir montré comment la même force qui a modifié les animaux a agi sur l’homme », Wallace ajoute « et je crois avoir prouvé qu’aussitôt que son intelligence (…) eut dépassé un certain niveau inférieur (…) celui-ci a dû cesser d’être matériellement affecté par la sélection naturelle ». Car « nous pouvons reconnaître l’action d’une loi plus élevée, indépendante des autres lois à nous connues, et les dépassant de beaucoup ». En effet, enchaîne-t-il, « la conclusion que je crois pouvoir tirer de ces phénomènes c’est qu’une intelligence supérieure a guidé la marche de l’espèce humaine dans une direction définie et pour un but spécial » (p. 102). Une intelligence supérieure qui horrifie Darwin (p. 136). La sélection explique les adaptations mais pas le processus général de l’évolution, ce qui était aussi la conception de Lamarck avec sa gradation.

Science et pseudo-sciences n°308, avril 2014

75

Mais il y ajoute son but, ce qui nous rapproche de l’Intelligent design. Wallace s’en distingue par le fait que le but n’est pas une cause première mais, au contraire, une cause finale, laquelle est une loi de la nature, que, simplement, nous ne connaissons pas encore. C’est pourquoi Charles Smith n’hésite pas à en faire un scientiste, adepte du même positivisme que celui des matérialistes, dont la cause finale « dit simplement l’existence de limites naturelles au développement des systèmes complexes ». Sans nier l’existence de Dieu, Wallace pense, comme Spencer, qu’on ne peut ni le connaître ni le concevoir. C’est pourquoi il se démarque de la conception divine habituelle en parlant, par exemple d’Intelligence Directrice Suprême ou d’Intelligence Ordonnatrice (p. 186). Il semble toutefois que sa critique de l’action unique de la sélection soit antérieure à son adhésion au « spiritualisme » et qu’il n’y ait pas, comme certains l’on écrit, « un tournant dans (sa) pensée ». Un homonyme de l’auteur, Roger Smith, affirme même que sa critique de la sélection totale est la conséquence de son socialisme qui l’éloigne de la lutte pour la vie (p. 194). Mais n’est-ce pas la vision que Patrick Tort (dont il n’est pas question dans ce livre) prête à Darwin dans son effet réversif ? Et pourtant Darwin semble offusqué par les thèses de Wallace. Car il est vrai que son adhésion au socialisme (amorcée dès sa jeunesse en écoutant Robert Owen) constitue un autre aspect de la pensée de Wallace, que Darwin ne partage sans doute pas. On y ajoutera, pour faire bonne mesure, son refus des vaccinations obligatoires, autre composante de ses thèses, qui semble satisfaire son biographe, lequel prétend qu’à la fin du XIXe siècle, la vaccination « fait très probablement plus de morts qu’elle ne sauve de vies ». Ou divers autres intérêts en matière d’astronomie, d’économie ou de conservation des environnements. Avec des bizarreries, quand il prétend que les scientifiques doivent acheter leur matériel s’il n’est destiné à instruire et distraire le public des musées. De quoi s’extasier sur la « richesse » de sa pensée ? Du moins quantitativement. Au total, les analyses de l’auteur ne satisferont pas toujours l’adversaire des sciences occultes et des tables tournantes. Mais c’est une raison supplémentaire pour les découvrir dans le livre plutôt que dans ce court résumé. Gabriel Gohau 1 Peter Raby, Alfred R. Wallace, L’explorateur de l’évolution 1823-1913, avec une préface de Jean Gayon (Éditions de l’Évolution, 2013, 443 pages, 24 €).

A lire également sur notre site Internet

Alfred R. Wallace. L’explorateur de l’évolution 1823-1913 Peter Raby, Préface de Jean Gayon Éditions de l’Évolution, 2013, 443 pages, 24 € Une note de lecture de Gabriel Gohau

76

Science et pseudo-sciences n°308, avril 2014

Le cerveau mélomane Sous la direction de Emmanuel Bigand Belin, 2013, 200 pages, 21 € Après avoir lu et recensé ici plusieurs livres sur la musique, et notamment certains plus spécifiquement sur le cerveau et la musique1, la découverte de cet ouvrage est un vrai soulagement : il est donc possible d’étudier l’influence de la musique sans sombrer dans une forme d’ésotérisme ou de « fascination » déplacée (au moins en partie). Ici, pas d’effet Mozart2 (au contraire, il est dénoncé, arguments à l’appui), pas de musicothérapie ou autres errements : nous sommes dans les études les plus sérieuses et les effets démontrés, étudiés, prouvés ! Sans prétendre, bien sûr, avoir vérifié tout ce qui est expliqué ici, ma confiance s’appuie d’abord sur les références indiquées, sur la plausibilité des éléments donnés et sur la démarche adoptée : pas « d’étude de cas », mais des études le plus souvent par groupes, selon des protocoles scientifiques. Cet ouvrage choral (c’est bien le moins, pour parler de musique !) réunit des auteurs et des compétences variées, ce qui permet d’aborder en une douzaine de chapitres des questions différentes et passionnantes. Citons par exemple quelques titres de chapitres : – La perception des sons et de la musique – La musique est-elle un langage universel ? – Les émotions musicales – La musique rend-elle intelligent ? – Pratique musicale et plasticité cérébrale – La musique qui soigne, etc. Je souligne que ce dernier exemple ne consiste pas, comme évoqué plus haut, en l’apologie de la musicothérapie (qui n’a pas encore apporté la preuve d’effets spécifiques), mais à donner des exemples concrets de l’aide potentielle que peut apporter la musique, notamment pour les personnes âgées, études scientifiques à l’appui. Rythme, qui permet aux Parkinsoniens de mieux marcher, chansons et mélodies qui aident la mémoire des malades d’Alzheimer, etc. À noter que ces textes sont d’abord parus dans la revue L’essentiel, cerveau & psycho (n° 4 novembre 2010 – janvier 2011). En faire un livre, dont certains passages ont été actualisés pour l’occasion, est une excellente idée ! Cela constitue ainsi une somme des connaissances actuelles sur la question, absolument indispensable à toute personne intéressée par le sujet et très enrichissante pour tous ! Martin Brunschwig 1 Comme Portrait du cerveau en artiste de Pierre Lemarquis (http://www.pseudosciences.org/spip.php?article2175). 2 L’effet Mozart, prétendant que dix minutes d’écoute d’une sonate de Mozart pouvaient augmenter le QI, fait maintenant partie des mythes et légendes d’aujourd’hui… Voir l’article de Brigitte Axelrad paru dans SPS n° 294 de janvier 2011 (www.pseudosciences.org/spip.php?article1590).

Science et pseudo-sciences n°308, avril 2014

77

Jung et les archétypes Un mythe contemporain

Jean-Loïc Le Quellec Éditions Sciences Humaines, 2013, 454 pages, 19 € Dans les introductions à la psychologie, il est de tradition d’évoquer l’« inconscient collectif » de Carl Gustav Jung après l’« inconscient individuel » de Freud. Jung est également cité dans tout historique des dissensions de l’histoire du freudisme, car il est le plus célèbre des « renégats » et il est devenu le chef d’une École rivale de psychanalyse, qui compte aujourd’hui encore de nombreux adeptes Selon Jung, l’inconscient est le siège de structures psychiques primordiales qu’il appelle archétypes. Ce sont des symboles qui se retrouvent, sous différentes apparences, « toujours, partout et par tous ». Ils représentent les dépôts d’expériences constamment répétées par les hommes et se transmettent génétiquement. Ils apparaissent dans les rêves, les visions, les mythes, les contes, les enseignements ésotériques. Jung soutient que cette conception n’a pas seulement un intérêt théorique : sa thérapie se spécifie par le souci de faire émerger des archétypes (principalement par l’analyse des rêves) en évitant qu’ils ne submergent le patient1. Jean-Loïc Le Quellec est anthropologue, directeur de recherches au CNRS. Il a publié des livres sur l’art rupestre du Sahara et deux ouvrages dénonçant des pratiques pseudo-scientifiques en archéologie2. Son intérêt pour les archétypes procède du fait que de nombreuses publications sur la préhistoire, l’art et la critique littéraire font usage de cette notion. Il analyse les arguments de Jung pour affirmer qu’une série de symboles sont des archétypes. Le résultat est désastreux. En définitive, aucun des archétypes jungiens ne se retrouve partout et à toutes les époques. J.-L. Le Quellec traite en détail et avec nuance la question très controversée de l’attitude de Jung à l’égard des Juifs et des nazis. En 1933, lorsqu’Ernst Kretschmer a démissionné de la présidence de la « Société médicale internationale générale de psychothérapie » pour protester contre la mainmise des nazis sur cette société, Jung a accepté de le remplacer. Jung a tenu des propos ambigus sur les Juifs. Toutefois, il a aidé des Juifs à émigrer aux États-Unis. À partir de 1938, il a été de plus en plus scandalisé par le comportement des nazis. L’année suivante, il démissionne de la présidence de société de psychothérapie. Il écrit : « Hitler est sur le point d’atteindre son apogée, et avec lui la psychose allemande ». L’intérêt de l’ouvrage est loin de se limiter à la réfutation de la théorie jungienne des archétypes. Son intérêt réside tout autant dans de nombreux développements sur l’histoire du concept d’archétype, les contes, le folklore, les différentes conceptions de la mentalité « primitive », la querelle 78

Science et pseudo-sciences n°308, avril 2014

des universaux, l’ésotérisme, le romantisme, les romans de mondes perdus, la cryptomnésie3, les rêves des découvreurs, des notions bibliques, etc. Tous ces thèmes sont abordés avec une précision exemplaire. Les citations sont parfaitement référencées. La bibliographie comporte soixante-cinq pages et l’index des auteurs et des matières, trente et une. Admirablement écrit, ce livre constitue un ouvrage marquant dans l’histoire de la déconstruction des pseudosciences. Jacques Van Rillaer Une version plus longue de cette note est disponible sur notre site. 1 Pour un exposé d’ensemble de la théorie et de la pratique jungiennes, voir H. Ellenberger, À la découverte de l’inconscient. Histoire de la psychiatrie dynamique, chapitre 9 (Éditions Simep, 1974), réédité sous le titre Histoire de la découverte de l’inconscient (Fayard, 1994). 2 Voir dans SPS n° 294 (janvier 2011), le compte rendu de ces deux ouvrages par Yann Kindo (www.pseudo-sciences.org/spip.php?article1601 et www.pseudo-sciences.org/spip.php?article1602) et une interview de J.-L. Le Quellec, « L’archéologie romantique, une pseudo-archéologie » (www.pseudo-sciences.org/spip.php?article1600). 3 Plagiat non conscient d’informations lues ou entendues.

L’énergie sous toutes ses formes Tome 1 – Comment se transforme-t-elle ? Tome 2 – Ses différentes sources

Jo Hermans Traduit et adapté par Pierre Manil EDP Sciences, 2014, 160 pages et 178 pages, 16 € chaque volume Pierre Manil a traduit et adapté, en deux tomes, l’ouvrage de Jo Herman, Energy Survival Guide. En se basant sur des éléments scientifiques et factuels, ces deux ouvrages permettent de faire un tour d’horizon pédagogique et instructif sur la consommation anthropique d’énergie et les différentes sources à disposition. Vu les informations fragmentées et parcellaires diffusées par les médias sur un sujet d’actualité de plus en plus brûlant, un tel livre s’avère donc essentiel ! Le tome 1 est tourné vers la définition de l’énergie, indispensable à la vie : d’abord au travers de la consommation de notre propre corps, puis en recensant nos besoins pour l’habitat ou les transports. Des comparaisons souvent pertinentes, parfois étonnantes, aident le lecteur à apprécier les ordres de grandeur. Par exemple, la consommation énergétique d’un être humain au repos (100 Watts) sur une journée est l’équivalent d’un verre de pétrole, soit la même énergie qu’une bougie flambant en continu. Le rendement énergétique de différents systèmes consommateurs (chauffage, véhicules…), ou encore la place de la France dans le monde (production et consommation) y sont également détaillés.

Science et pseudo-sciences n°308, avril 2014

79

Le tome 2 permet ensuite de faire le point sur les différentes sources d’énergie à disposition. De manière assez exhaustive, les auteurs passent en revue chacune des sources potentielles d’énergie pour apprécier leur disponibilité, le rendement à attendre et les réserves connues. Énergie solaire ou éolienne, géothermie ou énergie hydraulique, nucléaire et difficultés de stockage sont évalués de façon précise en proposant, là aussi, des analogies frappantes. L’énergie solaire arrivant par exemple sur un mètre carré de terre, est équivalente sur une année à 100 litres de pétrole. Comme pour l’éolien, toute la difficulté consiste bien sûr à réussir à capter cette énergie de manière efficace, tout en lissant les pics et creux liés aux conditions climatiques changeantes. Chaque chapitre des deux tomes est agrémenté d’encadrés détaillant des points importants (Comment fonctionne une cellule photovoltaïque ? Résistance au roulement et résistance à l’air pour les véhicules...) et il est conclu par une synthèse des principaux points à retenir. Cela fait de ces ouvrages des outils pédagogiques très accessibles et adaptés. On regrettera juste quelques coquilles orthographiques qui auraient mérité une relecture un peu plus approfondie. Jérôme Quirant

Les révolutions agricoles, en perspective Sous la direction de Henri Regnault, Xavier Arnault de Sartre, Catherine Regnault-Roger France agricole, 2012, 180 pages, 32 € Les révolutions agricoles en perspective est un ouvrage collectif d’une grande richesse, rédigé par quinze auteurs, tous d’une compétence reconnue dans leur domaine. L’ouvrage met d’abord en lumière les évènements qui ont bouleversé l’agriculture au XVIIIe siècle, à savoir l’abandon, dans une bonne partie de l’Europe, des techniques ancestrales impliquant une jachère biennale ou triennale où le bétail pouvait pâturer et son remplacement par un assolement où alternent céréales et plantes fourragères destinées au bétail. Les conséquences ne se limitent pas aux cultures mais concernent l’élevage (accroissement du cheptel) et donc l’alimentation humaine (viande, lait), la manufacture de produits dérivés (cuir par exemple), le foncier (les enclosures suppriment le droit de pâture) et le paysage (avec le remplacement des champs ouverts par le bocage). Une vraie révolution !

80

Science et pseudo-sciences n°308, avril 2014

Le second bouleversement majeur décrit dans l’ouvrage, quelquefois appelé « révolution verte », est caractérisé par deux évènements majeurs : d’une part, le développement (grâce à la chimie) et l’usage (amplifié par la motorisation de l’agriculture) des produits phytosanitaires de synthèse et, d’autre part, l’essor de la sélection variétale des plantes (encouragée par l’avènement des variétés hybrides). Le paysan achète ainsi intrants, machines et, chaque année, ses semences… La troisième révolution, en cours, est celle d’une agriculture en « mosaïque », avec l’émergence de nouvelles missions dévolues, sociales et écologiques, inséparable, comme la révolution précédente, d’innovations technologiques (biotechnologies, mais aussi informatique et communication). Un ouvrage impossible à résumer en peu de mots, indispensable pour comprendre les agricultures d’aujourd’hui sur la base de l’histoire et non pas d’un passé idéalisé. Marcel Kuntz

Les pyramides de Bosnie Faut-il réécrire l’histoire des civilisations ?

IRNA Book-e-book, 2014, 76 pages, 11 € « La plus haute, la plus ancienne pyramide de la planète se trouve en Europe, au cœur des Balkans, près de la petite ville de Visoko en Bosnie-Herzégovine ». En fait, dans cette région, ce sont plusieurs pyramides, associées à un réseau de tunnels et de chambres souterraines, que prétend fouiller un homme d’affaires américano-bosnien, Semir Osmanagich, dans le cadre de sa fondation Pyramide du Soleil de Bosnie1. Ces traces archéologiques témoigneraient d’une très ancienne civilisation, d’une grande maîtrise technique, et dégageraient des vibrations, des énergies guérisseuses, des ions négatifs… Bien entendu, l’absence de publications académiques sur ce site montre la frilosité et la sclérose intellectuelle des archéologues, alors qu’émerge une nouvelle histoire des civilisations. Tel est le sujet démythifié par Irna – dont on pourra regretter l’anonymat –, présentée comme géomorphologue de formation, agrégée de géographie et blogueuse (http://irna.lautre.net/) qui traite de mythes et pseudosciences archéologiques. Avec une démarche rigoureuse, Irna reprend les différentes affirmations de Semir Osmanagich et propose, pour les diverses observations et découvertes réalisées lors des fouilles, les interprétations parcimonieuses qui s’inscrivent parfaitement dans le cadre des connaissances déjà validées, tant dans le domaine de la nature géologique des terrains que de l’histoire et la préhistoire des peuples qui occupèrent la région.

Science et pseudo-sciences n°308, avril 2014

81

Ce nouveau volume de la collection Une chandelle dans les ténèbres intéressera, en particulier, les nostalgiques de l’archéologie fantastique de la grande époque des Robert Charroux, Denis Saurat ou Louis Pauwels. Philippe Le Vigouroux 1 http://pyramidesbosnie.com/

De l’atome imaginé à l’atome découvert Contre le relativisme scientifique

Hubert Krivine et Annie Grosman Cassini, 2013, 154 pages, 16 € Le physicien Richard Feynman pensait que la phrase qui contenait le plus d’information en un minimum de mots était l’hypothèse atomique ou le fait atomique : que toutes les choses sont faites de petites particules qui se déplacent en mouvement perpétuel. C’est l’histoire de la découverte de ce fait que raconte de façon agréable et pédagogique le livre de H. Krivine et A. Grosman. La théorie atomique est à la base de toute la chimie (et par là de la biologie), de la physique atomique et moléculaire, de la physique de l’état solide et de notre compréhension du deuxième principe de la thermodynamique (l’augmentation de l’entropie). C’est en cherchant à mieux comprendre l’atome qu’on est arrivé à la mécanique quantique. En montrant que le monde est essentiellement fait de vide, la conception atomique est aussi une des idées les plus contre-intuitives introduites dans les sciences. On peut donc légitimement considérer la découverte de la structure atomique de la matière comme étant la découverte la plus fondamentale de l’histoire des sciences. Si la découverte de la relativité ou même de la mécanique quantique se fait sur quelques années, l’histoire de l’atomisme s’étend sur plusieurs siècles, depuis les spéculations des philosophes antiques jusqu’aux preuves accumulées par les physiciens et les chimistes au 19e siècle et surtout à l’utilisation du mouvement brownien par Einstein au début du 20e siècle pour calculer le nombre d’Avogadro, le nombre d’atomes contenu dans une quantité donnée de matière. Ce nombre a été ensuite mesuré expérimentalement par Jean Perrin, qui devait donner treize façons différentes de mesurer ce même nombre. Le fait d’arriver au même résultat par tant de voies distinctes allait établir définitivement « l’hypothèse atomique ». Mais cela après de nombreuses objections et débats auxquels contribuèrent, dans les deux camps, de grands savants. L’ouvrage de H. Krivine et A. Grosman ne se contente pas de raconter l’histoire de l’atomisme, mais parle aussi de son importance dans la réfutation de l’homéopathie, y compris la fumeuse « mémoire de l’eau » de Jacques Benveniste, des problèmes qu’elle posait à l’Église catholique à cause de la

82

Science et pseudo-sciences n°308, avril 2014

doctrine de la transsubstantiation et de l’usage qui en est fait aujourd’hui pour définir un étalon de masse ou calculer l’âge de la Terre. Le dernier chapitre est consacré aux approches sociologiques de la science, particulièrement celle de Bruno Latour, qui est passée au crible de la critique du point de vue de gens qui comprennent la science, compréhension que Latour juge manifestement inutile pour en analyser l’évolution et la dynamique. L’histoire de l’atomisme, c’est aussi le triomphe de la vision matérialiste et réductionniste du monde, un monde composé seulement d’atomes et de rayonnement, contre toutes les conceptions animistes, holistes, dialectiques, spiritualistes ou vitalistes. Ce livre permet d’apprécier ce triomphe en peu de temps et sans gros effort. Jean Bricmont

OGM La question politique

Marcel Kuntz Édition PUG, Collection Rien d’impossible, 2014, 144 pages, 17 € Le livre publié par Marcel Kuntz n’est pas qu’un ouvrage de plus sur les OGM. L’auteur y aborde en effet le sujet par son côté politique, ce qui n’a pas été fait auparavant avec autant de détails et de faits. Les chercheurs sont en effet peu enclins à s’engager dans les domaines politiques touchant la science et ses applications. L’auteur montre que les décisions prises sur les OGM en France ne relèvent désormais plus de la science. Les controverses sur les OGM ne sont plus, dès lors, que des rapports de force entre des groupes politiques qui s’affrontent en mettant en œuvre tous les rouages juridiques disponibles. L’auteur montre que cette situation, qui n’est pas propre aux OGM et plus largement aux biotechnologies végétales, place la France dans une position de perdant vis-à-vis du reste du monde. Tout au long du livre, l’auteur analyse les mécanismes qui visent à bloquer certains secteurs de l’activité économique du pays en répandant le doute, la peur et le relativisme de la méthode scientifique. Il montre à quel point les arguments des opposants aux OGM n’ont pas pour objet une amélioration de la sécurité environnementale et alimentaire mais visent seulement à bloquer l’innovation dans ce domaine au détriment des agriculteurs et à plus long terme des consommateurs. Le cas des arrachages d’OGM est traité en détail montrant la contradiction entre la demande d’études sur les OGM et le sabotage systématique des outils nécessaires pour y parvenir. L’auteur note que les opposants, faute d’arguments nouveaux et d’OGM à arracher, s’en prennent maintenant à ce qu’ils appellent les OGM cachés

Science et pseudo-sciences n°308, avril 2014

83

qui ne sont que des variétés obtenues classiquement par mutagénèse et ne sont donc, par définition réglementaire, pas des OGM. Il remarque également que pour les mêmes raisons les opposants s’emploient à discréditer par tous les moyens les agences chargées de la biosécurité des OGM. Dans le livre, l’attitude des élus n’a pas la faveur de l’auteur qui constate leur incompétence en matière scientifique, leur absence de vision à long terme et leur manque de fermeté en face de situations qu’il considère comme des atteintes à la démocratie. L’auteur fait le constat que la situation n’a pas changé avec l’arrivée d’une nouvelle majorité. Il distingue trois phases dans l’histoire des OGM en France : la période « enthousiaste » qui a pris fin brutalement au milieu des années 1990, la période « précautionniste » qui a vu les crédits de recherche ne plus concerner que l’évaluation des risques, et la période « cynique » qui a commencé avec le Grenelle en 2007 et qui fait une exploitation essentiellement politicienne du débat sur les OGM. Les médias ne sont pas mieux traités. Leur recherche du sensationnalisme est bien connue et non spécifique des OGM. Leur partialité depuis quinze ans est considérée par l’auteur comme coupable. Le livre est peu réjouissant, parfois accablant et pour tout dire pessimiste. L’auteur invite même les jeunes chercheurs à s’expatrier pour pouvoir vivre la carrière scientifique à laquelle ils rêvent. L’auteur a soigneusement évité de tomber dans la polémique considérant que les faits parlent d’eux-mêmes. La lecture du livre est un peu éprouvante mais il faut le lire, pour être plus éclairé et pouvoir mieux préparer notre avenir. Louis-Marie Houdebine

Pourrons-nous vivre sans OGM ? Nous signalons bien volontiers...

60 clés pour comprendre les biotechnologies végétales

Yvette Dattée et Georges Pelletier (coord.) Éditions Quae, 2014, 144 pages, 19,50 € Face à l’augmentation de la population mondiale, l’agriculture devra accroître sa productivité, tout en préservant l’environnement, tandis que les effets du changement climatique ajouteront des contraintes. Présentes dans notre vie quotidienne depuis plus de 40 ans, les biotechnologies végétales peuvent être mobilisées pour produire plus et mieux. Comment créer rapidement de nouvelles variétés ? Les plantes génétiquement modifiées (PGM) résisteront-elles aux virus ? Pourra-t-on rendre les plantes plus tolérantes aux excès de sel ou de froid ? Certaines biotechnologies végétales, comme la transgénèse, sont décriées. Pourquoi et comment les PGM ont-elles été interdites en Europe ? Les auteurs abordent ici un sujet d'actualité sensible pour répondre au souhait des citoyens d'être mieux informés. Présentation de l’éditeur

84

Science et pseudo-sciences n°308, avril 2014

Antifragile Nassim Nicholas Taleb Les Belles Lettres, 2013, 649 pages, 24,22 € Une note de lecture de Nadine de Vos

Retrouvez sur notre site Internet des notes de lecture inédites

La raison des sortilèges. Entretiens sur la musique Michel Onfray, avec jean-Yves Clément Autrement, collection « Universités populaires &Cie, 2013, 190 pages, 16 € Une note de lecture de Martin Brunschwig Quelle transition énergétique ? Henri Safa EDP Sciences, 2013, 106 pages, 12 € Une note de lecture de Martin Brunschwig La brève histoire de ma vie Stephen Hawking Flammarion, 2013, 176 pages, 16,90 € Une note de lecture de Christine Brunschwig La physique surprise Jean-Michel Courty et Édouard Kierlik Belin, Pour la Science, 2013, 182 pages, 24 € Une note de lecture de Martin Brunschwig Doper son cerveau Réalité ou intox ? Alain Lieury Dunod, 2010, 248 pages, 18,50 € Une note de lecture de Jacques Van Rillaer

Nous signalons bien volontiers...

Ils ont perdu la raison Pourquoi les gouvernants prennent les mauvaises décisions Jean de Kervasdoué Robert Laffont, 2014, 230 pages, 19,50 €

Les Mille et une nuits de la science Philippe Boulanger Belin, 2014, 157 pages, 15 €

Rubrique coordonnée par Philippe Le Vigouroux

Science et pseudo-sciences n°308, avril 2014

85

Dialogue avec nos lecteurs Tabac : les diverses mesures Dans le SPS n° 307, de janvier 2014, nous publiions p. 91 des extraits d’une lettre du Professeur Martinet, Président du comité national contre le tabagisme, qui soulignait la ratification de la Convention Cadre de l’Organisation Mondiale de la Santé pour la Lutte Anti-Tabac (CCLAT), premier traité international de santé publique et d’ailleurs seul traité de santé publique à ce jour. Gilbert Lagrue, apporte des compléments. Yves Martinet est un acteur très actif dans la lutte contre le tabagisme. Il rappelle les éléments de la convention cadre de l’OMS. Toutes ces mesures sont proches de celles du rapport de la Cour des Comptes, dont j’ai décrit l’essentiel dans mon article (« Le tabac : un risque majeur de santé publique », SPS n° 306, octobre 2013, pages 36 et 37). Elles doivent bien entendu être appliquées et la France est en retard sur certains points, comme je l’ai indiqué. En particulier pour l’aide à l’arrêt du tabac, nous avons un excellent réseau de tabacologues, mais l’implication des médecins généralistes reste encore insuffisante, notre modèle d’organisation ne permettant pas de suivre le programme de « smoking cessation du National Health Service ». Ainsi, ces actions risquent de rester insuffisantes à elles seules, pour les raisons que j’ai largement développées. 86

Bien évidemment, l’objectif final idéal est la disparition du tabac. Mais en attendant, il est nécessaire de revenir aux bases médicales. Pour ceux qui ne peuvent pas ou qui ne veulent pas réellement interrompre la cigarette, notre rôle de médecin est de les aider à réduire les risques courus. Cela est maintenant possible avec l’utilisation de la nicotine médicamenteuse et de la cigarette électronique. Dans une conférence récente à la Société de Tabacologie, Yves Martinet déclare que la diminution du nombre de cigarettes fumées est une illusion, car le sujet compense en inhalant la fumée plus profondément. Cela est vrai en l’absence d’apport de nicotine ; mais, par contre, si celui-ci est réalisé en quantité suffisante, l’inhalation est réduite, comme le montre la baisse importante du taux de monoxyde de carbone dans l’air expiré ; tous les tabacologues de terrain l’ont régulièrement constaté au cours des traitements nicotiniques. C’est également ce que fait la cigarette électronique, contre laquelle il est navrant de voir tant de résistance. Elle réduit immédiatement les risques de plus de 95 % et c’est là l’essentiel à court terme. Les nombreux articles médicaux, répertoriés sur « Pubmed » en moins d’un an, confirment largement cette notion.

Science et pseudo-sciences n°308, avril 2014

Gilbert Lagrue

Les OGM sont-ils « nécessaires » ? […] vous aurez compris que je ne suis pas convaincu de la nécessité des OGM. Le projet d’agriculture écologiquement intensive – pour ce que j’ai pu en comprendre à partir de l’association qui le promeut (http://www.aei-asso.org/) – me semble plus prometteur pour le futur. Il constitue une évolution progressive et collective des comportements des acteurs de l’agroalimentaire (ce n’est pas de l’agriculture biologique pour autant ; il n’en partage pas toutes les valeurs). En tant qu’espèce, nous devons notre survie à notre capacité à faire évoluer nos principes et comportements. Cultiver des OGM implique selon moi d’en rester aux principes d’agriculture développés en 19451960 (labour profond, forte mécanisation, utilisation d’engrais et pesticides de synthèse, ainsi que le modèle diffusionniste des connaissances, où l’agriculteur ne peut pas déployer sa créativité technique et variétale). Personnellement, lorsque je constate chaque hiver le lessivage de l’argile des terres laissées à nu (afin d’économiser du temps de travail et l’achat de semences) et vois les rivières se charger de ces particules fines, je pense que cette forme d’agriculture comporte des principes erronés, et donc qu’elle doit évoluer. Et, selon moi, la logique de cultiver des OGM n’est valide que dans cette forme (ce système sociotechnique) d’agriculture. D’où la pensée finale que les OGM peuvent constituer un frein contre de futurs développements possibles de l’agriculture. Benoit R. Sorel

La raison de votre opposition aux OGM a le mérite d’être originale ! Mais elle n’est pas justifiée : utiliser les OGM, c’est tout simplement continuer à faire de la sélection génétique avec une technique supplémentaire. L’utilisation de variétés OGM est parfaitement compatible avec les différents modes de culture. Les OGM ne sont pas plus au service d’une agriculture intensive que les plantes classiques. Ils sont une prolongation et une extension de la sélection et non un renforcement du productivisme. L’exclusion des OGM de l’agriculture bio relève de l’idéologie, non de la science. La culture des OGM Bt résistants à des insectes est un des procédés de lutte biologique. La révolution des techniques de culture (culture sans labour, utilisation de drones, etc.) est indépendante de l’utilisation d’OGM qui bénéficieront de cette révolution, comme les plantes classiques. Les OGM sont utilisables dans n’importe quel système de culture. L’agriculture écologiquement intensive, aussi qualifiée d’agro-écologique, ne se fera pas sans une contribution majeure des agriculteurs. Cela implique qu’ils fassent preuve de créativité et ils ne s’en privent pas. Les agriculteurs ne sont donc pas dépossédés de leur créativité technique, bien au contraire. Pour relever le défi, les agriculteurs doivent être aidés car l’expérimentation comporte inévitablement des essais et des erreurs. Vous trouverez plus de renseignements dans le récent rapport sur les PGM (plantes génétiquement modifiées) de l’Académie d’agriculture, disponible à l’adresse suivante http://goo.gl/wTJdzd. L-M. Houdebine

Science et pseudo-sciences n°308, avril 2014

87

Encore les OGM… C’est toujours avec plaisir que je lis votre revue Science et PseudoSciences. Le moins qu’on puisse dire est que les articles poussent à la réflexion... Et c’est un bien. À propos d’OGM, dans le n° 306, dans votre réponse au lecteur, page 94 et 95, on peut lire « ... dont la dangerosité de ceux proposés à la commercialisation n’a jamais été établie ». C’est évidemment un point essentiel car les opposants aux OGM prétendent systématiquement qu’il y a danger pour la santé. [Suit un exemple trouvé dans Wikipédia indiqué par notre lecteur, qui s’inquiète…] Roger Grandjean, Grand-duché de Luxembourg Aucune technique n’est sans risque bien entendu. La technique OGM ne comporte en soi pas plus de risques que la sélection génétique classique en soi. Il est largement confirmé que les OGM actuellement commercialisés ne présentent pas plus de risques que leurs homologues classiques. Ceci n’est pas une surprise. Il serait étonnant que du maïs consommé depuis plus de 5000 ans par l’homme sans problème devienne néfaste pour les consommateurs par la simple addition de toxines Bt, couramment utilisées, et qui ne sont toxiques que chez quelques insectes. Les OGM de deuxième génération (type riz doré) comportent plus a priori d’inconnues car la plante a été délibérément modifiée dans ses propriétés biologiques, ce qui n’est pas le cas pour les OGM de première génération de type maïs Bt. Ainsi a-t-on récemment rejeté trois variétés de pommes de terre car elles contenaient trop de 88

toxines naturelles (les solanines). Les OGM sont infiniment plus contrôlés que les variétés classiques, ce qui laisse peu de chance pour des risques sérieux. Les OGM sont les aliments les mieux connus et les plus contrôlés de l’histoire de l’humanité. Il faut enfin ne pas oublier de se poser la question : que se passerait-il si on n’utilisait pas d’OGM ? Et non pas seulement : quels sont les risques des OGM ? Les succès des OGM actuels (en particulier dans les pays pauvres) vont bien au-delà de ce qui était espéré et incitent à ne pas négliger l’utilisation des OGM. L-M.H.

Pourquoi la psychanalyse ? J’ai découvert votre site et me suis félicitée de cette initiative, essentielle pour éclairer et recadrer d’un point de vue scientifique un certain nombre de débats de société que le brouhaha médiatique vient trop souvent brouiller par des considérations idéologiques, passionnelles, racoleuses. Je suis médecin psychanalyste et me suis donc dirigée, aussi, vers vos rubriques « psychologie » et « psychanalyse », et là, je déchante ! ! ! Il me semble que pour ces deux disciplines, le site de pseudosciences.org se comporte très exactement comme ce qu’il souhaite combattre et qui a justifié, je pense, sa création, c’est-à-dire lutter contre des prises de positions partisanes, idéologiques, fantasmatiques qui flattent et favorisent la réaction émotionnelle du grand public, au mépris des données scientifiques validées et en l’absence de tout débat contradictoire argumenté.

Science et pseudo-sciences n°308, avril 2014

Les prises de position de vos articles s’avèrent très massivement orientées au bénéfice notamment des thérapies cognitivo-comportementales, massacrant au passage les théories et dispositifs analytiques d’une façon primaire, arbitraire avec des arguments souvent fallacieux. Votre démarche devrait s’assurer qu’un véritable débat contradictoire reste présent dans des disciplines où la validation des résultats et des effets ne peut s’objectiver de la même manière [que pour les] sciences physiques ou mathématiques (ceci ne signifie pas pour autant qu’aucune évaluation des méthodes thérapeutiques ne soit possible).

plus d’un siècle de clinique analytique ? La vraie question est comment l’environnement psychologique, affectif, relationnel, social interagit avec le potentiel génétique de chacun. Je veux dire par là que tout ce qui touche le cerveau humain et ses modes d’approches et de traitements ne peut souffrir la simplification, la réduction et finalement la stérilisation de la découverte du sujet humain.

La psychiatrie française est malade de ces guerres de religion. Les TCC et les thérapies analytiques ne théorisent pas de la même façon le sujet humain, son fonctionnement, son développement, ses défenses, ses modalités d’aide et de soutien, ses objectifs, n’utilisent pas les mêmes outils et ne possèdent pas, selon moi, les mêmes indications. Mais l’une n’exclut pas l’autre, elles appartiennent à des champs différents d’aides au patient en souffrance psychique.

Isabelle Moley-Massol

Qui peut raisonnablement aujourd’hui penser le psychisme humain, son organisation, ses désorganisations, en dehors d’un ensemble infiniment complexe d’interactions encore à explorer entre le génétique, le psychologique et l’environnemental au sens le plus large ? Comment parler encore des maladies mentales en terme de « tout génétique » ou de « tout psychologique », dans la totale cécité de l’apport des neurosciences et de

Je souhaite longue vie à votre site et à l’association qui le soutient et appelle de mes vœux un débat nuancé et pluriel, véritablement vivant, qui reste à repenser dans vos rubriques psychologie et psychanalyse. Voici quelques éléments de réponse, forcément partiels. Vous nous reprochez d’écrire des articles massivement orientés au bénéfice des TCC, ce qui est vrai. Mais cela n’est en aucun cas le reflet de nos a priori ou d’une « religion ». Au contraire, c’est justement bien le résultat d’une recherche bibliographique et scientifique, que nous avons menée en suivant les principes de la science. Comme l’ont été aussi les différentes études de quelques agences, comme l’Inserm et son « fameux » rapport de 2005 [1]. De la même manière, nous défendons massivement la médecine basée sur les preuves, contre l’homéopathie ou la naturopathie, non parce que nous avons un a priori contre les médecines alternatives, mais parce qu’elles ne sont pas scientifiquement validées. La possibilité que psychanalyse et TCC puissent cohabiter, avec des indications différentes, est prise en

Science et pseudo-sciences n°308, avril 2014

89

compte dans les recherches. C’est pour cela que les études cliniques portent généralement sur une pathologie précise. Tout récemment, par exemple, une étude en double aveugle randomisée a démontré la supériorité de la thérapie comportementale sur la psychanalyse pour le traitement de la boulimie [2]. Dans certains cas, les thérapies comportementales ne sont pas efficaces, comme par exemple pour les troubles de la personnalité, et le fait est connu. D’ailleurs, certains résultats suggèrent que la psychanalyse pourrait être plus efficace que les thérapies comportementales ou une « thérapie placebo » pour ces troubles de la personnalité, mais les publications restent rares et l’effet, s’il était confirmé, serait relativement faible. À part ce cas, aucune pathologie n’est mieux soignée par la psychanalyse que par toute autre thérapie, selon l’état actuel des données scientifiques.

contraire à la démarche scientifique. Ce que vous dites ici du psychisme est tout à fait transposable à la physique par exemple (mais aussi à la biologie) : la manière dont les objets se déplacent dépend d’un nombre incalculable et quasiment infini de causes et de facteurs (magnétiques, gravitationnels etc.). Tout est soumis, par exemple, à l’attraction de toutes les étoiles existantes ! Pour autant, cela ne nous empêche pas de savoir avec une précision impressionnante quel déplacement peut avoir un objet lorsqu’il tombe, même si nous ne prenons pas en compte l’attraction des étoiles ni de la lune ou du soleil. La science passe nécessairement par une simplification, et on ne peut avancer qu’en négligeant les causes les moins importantes. Si on refuse de simplifier, afin de pouvoir modéliser, on ne peut plus rien dire de scientifique.

À ma connaissance, aucun chercheur en psychologie scientifique n’aborde les maladies mentales sous l’angle du tout génétique ou du tout environnemental. Si l’on prend l’exemple de l’autisme, le fait d’avoir découvert une influence génétique n’implique pas que l’autisme soit uniquement génétique, et personne n’avance cette théorie. Les thérapies comportementales et cognitives abordent également les troubles en prenant en compte divers aspects, cognitifs, comportementaux et génétiques, mais aussi sociaux. Nous sommes donc bien d’accord sur la complexité des étiologies, et je ne pense pas que nous n’ayons jamais avancé une autre hypothèse.

Nicolas Gauvrit

En revanche, cette idée, que j’ai souvent entendue, selon laquelle on ne peut pas simplifier la réalité est

90

[1] Inserm (2004) Psychothérapie. Trois approches évaluées. Paris : Éditions de l’Inserm. [2] Poulsen S; Lunn S; Daniel SIF; Folke S; Mathiesen BB; Katznelson H; Fairburn CG: A randomized controlled trial of psychoanalytic psychotherapy or cognitivebehavioral therapy for bulimia nervosa. Am J Psychiatry 2014; 171:109–116 Nos échanges avec Mme Moley-Massol se sont poursuivis ; vous pouvez les retrouver sur notre site.

Rubrique coordonnée par Martin Brunschwig

Notre nouvelle adresse postale :

s ène r a S I AF ue des ris 4, r 05 Pa 750

Science et pseudo-sciences n°308, avril 2014

Débat

Comment se repérer entre fiction et réalité ? Martin Brunschwig

La naissance de Vénus, Sandro Botticelli (1445–1510)

« Lorsque la légende est plus belle que la réalité, imprimez la légende. » (L’homme qui tua Liberty Valance, film de John Ford)

a vérité s’énonce d’abord comme un récit. Si l’on dit : il neige, c’est la vérité s’il neige. L’adéquation entre l’énoncé et le réel est donc primordiale. Mais comment se repérer dans un monde où les récits de toutes natures saturent littéralement l’espace commun ? Les « grands récits », premières mythologies, sont même à la base de nos civilisations. Personne ne croit plus qu’il existe une Vénus, déesse de l’amour, mais il reste préférable de la connaître pour profiter pleinement de Botticelli, par exemple, ou mieux comprendre nombre d’œuvres d’art ou de récits1. Et pas une émission culturelle sur telle ou telle région du monde, qui ne souligne les légendes locales, en illustration des belles images diffusées...

L

Ces récits merveilleux figurent donc en bonne place parmi ce qui nous constitue, mais ils font la part belle au surnaturel (c’est là qu’est l’os…), et sont censés être des piliers de notre passé, ou au moins le représenter, le symboliser. Notre présent lui-même est bombardé à feu plus que nourri d’innombrables fictions. Littérature, radio, télévision ou cinéma nous ont habitués à vivre au milieu des héros, voire super-héros, aux nombreux « superpouvoirs »... L’imagination humaine est sans limite et c’est peutêtre un de nos plus grands accomplissements. Il apparaît même que la liberté de création artistique ou la faculté à développer l’imaginaire pourrait bien être « le propre de l’homme ». Simplement, il importe de remarquer que de Hamlet à Harry Potter, en passant par presque toutes les expressions de la culture ou du divertissement, le surnaturel y est aussi commun qu’un bourgeon au printemps, ce qui peut conduire à nous interroger sur le rapport fiction/réalité. 1 Et les astrologues, ensuite, peuvent surfer sur toute la « symbolique » de cette Vénus qui fait encore partie de notre culture commune... (Pourtant, bien sûr, quel rapport peut-on bien trouver avec l’astre du même nom, aux 450° de température à sa surface, et aux pluies d’acide sulfurique ? – à moins de considérer une Vénus vraiment « hot » !)

Science et pseudo-sciences n°308, avril 2014

91

Il s’agirait donc de pouvoir évaluer un peu l’influence de cet « irrationnel des histoires » sur nos modes de pensée. Il est probable que, pour l’essentiel, nous savons où s’arrête la fiction et où commence le réel. Mais d’abord, le fait que certains films provoquent des vagues d’engouement exceptionnel peut être tenu pour un signe tangible de l’influence de la fiction. Pardon de ces exemples qui datent un peu, mais ils avaient vraiment marqué en leur temps : Le grand bleu et la plongée en apnée, Tous les matins du monde et le « boom » de la viole de gambe, Le bonheur est dans le pré, et le tourisme dans le Gers, ou bien sûr, une région entière « ressuscitée » par un simple petit film (Bienvenue chez les Ch’tis), si charmant soit-il2. Un autre exemple, plus récent, celui-là, mais encore plus frappant : j’apprends qu’une petite vague commence à déferler aux États-Unis, celle des « real life super hero » ! Des gens masqués, en justaucorps (souvent étoilés), qui cherchent à aider leur prochain. Sans grands pouvoirs, mais plein de bonnes intentions, ils passeraient leurs nuits à distribuer du café, des sandwichs… Superman n’a plus qu’à bien se tenir ! Le problème, c’est que nos cerveaux prennent sans doute dans la fiction un certain nombre de plis déformants3. Certes, l’influence de la fiction n’est pas seule à causer cette distorsion ; la psychologie scientifique, notamment la psychologie sociale, montre que notre perception du hasard et des coïncidences est déformée4. Soulignons au passage, pour revenir au domaine de la fiction, que dans la littérature, l’opéra, le théâtre ou le cinéma, presque tous les présages se vérifient au cours de l’action. Cette constatation m’incline à craindre un cercle vicieux, aggravant nos perceptions, par un « biais de la fiction » en quelque sorte... Les avocats et les juges, d’ailleurs, soulignent régulièrement l’apparition de ces nouveaux justiciables, friands de séries américaines, sans doute, qui y vont de leur « objection votre honneur », hors de tout propos dans le droit français. Et un « maître Yoda » qui sort un vaisseau spatial du marigot par la seule force de sa pensée n’est-il pas un bien mauvais exemple ? De tout cela, se méfier ne fautil pas ?! Côté obscur ou pas, la « force » n’existe que sur l’écran… Mais, surtout, nous ne mesurons pas à quel point le monde qui nous entoure est lui-même un récit, même en-dehors de la fiction. Hume soulignait, pour évoquer l’attitude possible face aux miracles, que l’on était confronté à des récits de miracles plutôt qu’aux miracles eux-mêmes. Et c’est ainsi qu’il a développé l’idée bien connue qui consiste à dire : devant de tels récits, est-il plus rationnel de penser qu’on me dit la vérité, ou bien qu’on se trompe, ou qu’on me trompe ? Cette interrogation est un véritable phare, que beaucoup connaissent bien, mais il faut poursuivre le raisonnement, et constater que nous ne sommes informés que par « récit ». Comme il est plutôt rare de vivre un événement 2 Que Dany Boon me pardonne, mais si son film sympathique est amusant, cela reste un « petit film », dont le succès – à ce point – est pour moi une énigme... 3 D’autant que tout cela se construit dans notre enfance, période où nous sommes – encore plus – influençables ! 4 Lire sur ce sujet « Comme par hasard ; coïncidences et loi des séries » de Nicolas Gauvrit et Jean-Paul Delahaye, Book-e-book, Une chandelle dans les ténèbres, 2012.

92

Science et pseudo-sciences n°308, avril 2014

« Le rêve de Dickens », Robert W. Buss (1804-1875) (inachevé)

en direct, nous nous trouvons devoir admettre ce qu’on nous raconte... ou pas ! Le journal télévisé, par exemple, fait tous les jours la preuve de sa nature quasi-fictionnelle en multipliant les témoignages (encore des récits...), en dramatisant l’événement (il faut du scoop, du sensationnel !), en faisant en sorte que le « feuilleton » doive être suivi tous les jours. Le système médiatique étant ce qu’il est, et l’audimat étant désormais la mesure de toutes choses (y compris hors du monde de la télévision où cela prend d’autres formes), il faut capter l’attention. Comment ? En rendant le spectateur/lecteur « accro » à un récit. Comme des enfants qui réclament tous les soirs leur histoire... Les informations, lieu par excellence où l’on espère en apprendre sur le monde, sont donc entachées de telles déformations qu’il devient difficile de déterminer si, en les regardant, on en apprend plus sur le monde ou sur le système médiatique, les mœurs journalistiques ou leurs « fixettes ». Ajoutons le domaine politique, où l’opinion règne en maître, et où l’on est donc fondé à mettre systématiquement en doute ce qui nous est dit puisque le parti pris règne ; le domaine publicitaire, où le bombardement des messages reçus donne le tournis, nous permettant d’ailleurs de résister en partie : on reconnaît bien, dans ce domaine au moins, qu’il y a tromperie ou exagération, mais l’influence en est-elle annulée pour autant ? Certainement pas, puisque l’on continue à dépenser des fortunes en matraquage publicitaire. Bref, on voit bien que nos cerveaux ne peuvent sans doute supporter tout cela sans être complètement déboussolés ! Science et pseudo-sciences n°308, avril 2014

93

Nous pouvons certes nous consoler en constatant qu’un certain type de fiction est lui-même source de nombreuses vérités, humaines entre autres, et nous en apprennent sur le réel5. Un livre comme Les misérables a sans doute aidé à comprendre l’injustice de la pauvreté beaucoup mieux que toute « réalité », pour prendre un exemple entre cent mille. Et les auteurs eux-mêmes (Hugo comme tant d’autres) bâtissent leur imaginaire à partir de la réalité... Mais c’est un peu à double tranchant : Jon Ronson, auteur du livre, Les chèvres du pentagone6, expliquait que, pour lui, la fiction fait aussi croire aux gens qu’ils savent des choses qu’ils ne savent pas. Et il est vrai que nombre de fictions, prétendant dénoncer tel ou tel complot, peuvent nous faire croire abusivement que des secrets ont été enfin divulgués.

Saint-Georges luttant avec le Dragon, Raphaël (1503-1505)

La difficulté est qu’il serait bien évidemment absurde ou nuisible de préconiser un abandon ou une quelconque limitation de la fiction ! Il n’y a pas de solution au problème ici évoqué, si ce n’est par l’éducation. Et comme l’écrivent Chapoutier et Kaplan dans L’Homme, l’Animal et la Machine7, « [L’accès] considérable à un imaginaire très développé constitue sans doute l’un des sommets de l’activité humaine. Plus encore qu’un savant (même si ce trait est, bien sûr, très important pour notre espèce) l’Homo sapiens est un rêveur, un artiste, qui peut rêver l’infini des possibles, le virtuel, l’irrationnel, le fantastique, la fiction, l’impossible, voire l’absurde ». Certains auteurs ont même pu affirmer que l’imaginaire et la fiction auraient joué un rôle primordial dans l’évolution, en favorisant et en développant l’empathie. Notre espèce semble en effet la seule capable de se dire devant une victime « ça pourrait être moi », ce qui est aussi typiquement notre réaction d’identification à un héros. Il faudrait donc, pour ce sujet comme pour bien d’autres qui nous occupent souvent ici, développer une vraie réflexion sur un enseignement de l’expérimentation et de la vérification8. Développer un esprit critique, à l’instar de celui de la science, mais dans tous les domaines. J’emprunte ici à Jacques Poustis la conclusion de son livre, Jusqu’à preuve du contraire9, où il dit fort justement : « un des rôles majeurs de l’éducation et de la médiatisation des informations serait de développer à la fois l’imagination et le raisonnement... mais aussi, et dès le plus jeune âge, l’esprit critique, indispensa-

5 6 7 8 9

Les fictions sont des « mensonges qui disent la vérité ». (Cocteau) Presses de la cité, 2010, note de lecture dans SPS n° 291, p121. CNRS éd., 2011, note de lecture : http://www.pseudo-sciences.org/spip.php?article1724 Comme l’a également suggéré Hervé This dans le n° 294 de SPS (p 100). Jusqu’à preuve du contraire, Mes premiers pas dans la démarche scientifique, Jacques Poustis, Éd. Book-e-book, 2008, collection « une chandelle dans les ténèbres ».

94

Science et pseudo-sciences n°308, avril 2014

ble outil intellectuel pour faire la part des choses entre le rêve et la réalité ». (C’est moi qui souligne) Cependant, en attendant ces jours meilleurs, la question de la fiction et des déformations qu’elle peut provoquer dans le public n’est pas assez prise en compte, ce qui, en revanche, pourrait être fait. Car c’est sans doute ce phénomène qui explique en partie la virulence de certaines peurs actuelles : la science inquiéterait-elle autant, aujourd’hui, sans la science-fiction ? Pourquoi une pratique comme celle du clonage, par exemple, c’est-à-dire la possibilité d’enfanter ni plus ni moins que des jumeaux sans accouplement, devrait-elle inquiéter à ce point10 ? Il semblerait que les récits d’armées de clones-robots imaginés par les auteurs de science-fiction aient grossi de toutes pièces ces inquiétudes. Ou les nanotechnologies, soupçonnées notamment de conduire un jour à la « gelée grise »… L’on pourrait prendre mille exemples11, tant les situations de « fin du monde » occupent encore fréquemment nos écrans, comme on l’a vu avec le film « 2012 ». Et enfin, si l’on ajoute Internet, source de rumeurs planétaires, si difficiles à vérifier, on admettra que distinguer le vrai du faux n’a sans doute jamais été aussi délicat. Cette page étant elle-même un récit, il vous appartient donc de vérifier par vous-même si elle reflète la réalité ou non, pour savoir… « s’il neige ». 10 Poser ces questions n’enlève rien à la nécessité d’encadrer rigoureusement ces pratiques, et les conditions dans lesquelles on les accepte ! 11 Au hasard, notre perception du nucléaire, du climat...

Abonnement et adhésion Adhésion à l’Association Française pour l’Information Scientifique Cotisation pour l’année . . . . . . . . . . . . . . . . . . . . . . . . .21 € Abonnement à la revue Science et pseudo-sciences (SPS) France. 5 numéros . . . . . . . . . . . . . . . . . . . . . . . . . . . .25 France. 10 numéros . . . . . . . . . . . . . . . . . . . . . . . . . . .50 Étranger. 5 numéros . . . . . . . . . . . . . . . . . . . . . . . . . .30 Étranger. 10 numéros . . . . . . . . . . . . . . . . . . . . . . . . . .60

€ € € €

Nom : .................................................. Prénom : .......................... Adresse complète : ……………………………………………………… ............................................................................................................ Mail : .................................................... Profession : ...................... Abonnement et adhésion en ligne :

http://www.pseudo-sciences.org/boutique.html

Chèque à l’ordre de l’AFIS (uniquement en France) ou virement IBAN : FR 65 2004 100001 2100000P020 50. BIC : PSSTFRPPPAR. N° de compte : 20041 / 00001 / 2100000P020 AFIS, 4 rue des Arènes, 75005 PARIS [email protected]

Science et pseudo-sciences n°308, avril 2014

95

Sommaires des derniers numéros

297. Peurs alimentaires : faut-il arrêter de manger ? - Évaluer l’acupuncture De l’hygiène au tabagisme, la naissance de la médecine scientifique - La connaissance de soi - Addictions aux jeux - Impulsivité et génétique.

303. La santé mentale est-elle évaluable ? - Les croyances voguent sur Internet - Lithothérapies : ces pierres qui nous roulent - OGM : « l’étude choc » et ses effets collatéraux.

298. Dossier. Après Fukushima : est-il possible de parler sereinement du nucléaire ?

304. Science et raison : où est l’héritage des Lumières ?

299. Antennes-relais : la spirale de la rumeur - Cellules souches : l’idéologie contre la science - La science se faitelle au tribunal ? - Agriculture, de la subsistance à la productivité Extraterrestres : leurs secrets révélés.

305. Île de Pâques : un « suicide écologique » ? - Médecines alternatives, douces, parallèles, mais sans fondement... (dossier) - Matières premières minérales : y a-t-il vraiment un risque d’épuisement des ressources ?

300. Autisme : le jour se lève pour les approches scientifiques - Les vaches s’aligneraient-elles sur les champs magnétiques ? - Mesmer et le magnétisme animal - Mensonges lacaniens.

301. Gaz de schiste : ce qu’en disent les scientifiques - Nanotechnologies : entre promesses et appréhension Énergie : du muscle à l’atome. 302. Vaccination : des peurs infondées engendrent de vrais dangers Cholestérol et infarctus : le grand mensonge ? - Traînées dans le ciel : condensation ou conspiration ? Hommage à José.

306. Santé et environnement : vrais risques et fausses peurs (tabac, OGM, huile de palme) - La dose ne ferait-elle plus le poison ? - Y a-t-il augmentation des cancers environnementaux ?

307. Riz doré : et si un OGM aidait à sauver des vies ? - Climat : science, expertise et décision - Cosmologie : le principe anthropique est-il utile ? Affaires criminelles : ces voyants qui ne voient rien !

Hors-série thématiques

287. L’astrologie, ça ne marche pas, ça n’a jamais marché… L’astrologie à travers l’histoire - L’astrologie face aux connaissances scientifiques L’astrologie dans la société - Farce à l’Université, la thèse d’Élizabeth Teissier 293. Psychanalyse : les dessous du divan. Des prétentions scientifiques infondées - Les prétentions thérapeutiques : une imposture entre occultisme et suggestion - Une place injustifiée dans la société.

96

296. Dix ans après les attentats du 11 septembre : la rumeur confrontée à la science - Génie civil, aéronautique, chimie, mécanique, métallurgie : la science invalide les théories conspirationnistes.

Commandez nos anciens numéros en ligne sur notre site Internet :

www.pseudo-sciences.org/boutique.html

Science et pseudo-sciences n°308, avril 2014

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.