SPS332 Flipbook PDF


78 downloads 101 Views 4MB Size

Recommend Stories


Porque. PDF Created with deskpdf PDF Writer - Trial ::
Porque tu hogar empieza desde adentro. www.avilainteriores.com PDF Created with deskPDF PDF Writer - Trial :: http://www.docudesk.com Avila Interi

EMPRESAS HEADHUNTERS CHILE PDF
Get Instant Access to eBook Empresas Headhunters Chile PDF at Our Huge Library EMPRESAS HEADHUNTERS CHILE PDF ==> Download: EMPRESAS HEADHUNTERS CHIL

Story Transcript

&pseudo-sciences Science

332 Avril / juin 2020 - 5 e

Association française pour l’information scientifique - Afis

Intelligence artificielle Faut-il craindre l’Homme ou la machine ? Succès, limites et éthique Médecine, véhicule autonome, robot tueur...

Compteur Linky

Une peur infondée

L’affaire des pesticides SDHI Internet, réseaux sociaux : et l’esprit critique ?

Comité de rédaction

Jean-Paul Krivine - Rédacteur en chef Brigitte Axelrad, Yves Brunet, Martin Brunschwig, Thierry Charpentier, Hervé Le Bars, Philippe Le Vigouroux, Frédéric Lequèvre, Kévin Moris, Antoine Pitrou, Emeric Planet, Sébastien Point, Jérôme Quirant Secrétaire de rédaction : Yves Brunet Corrections : Brigitte Axelrad, Yves Brunet, Martin Brunschwig Illustrations : Brigitte Dubois, Jean-René Renaud Conception graphique et mise en page : Tanguy Ferrand

Imprimé : Rotimpress (Espagne) N° commission paritaire : 0421 G 87957 ISSN 0982-4022. Dépôt légal : à parution Directeur de la publication : Jean-Paul Krivine

Parrainage scientifique

Jean-Pierre Adam (archéologue, CNRS, Paris). Jean-Claude Artus (professeur émérite des universités, ancien chef de service de médecine nucléaire). André Aurengo (professeur des universités, praticien hospitalier de biophysique et médecine nucléaire, membre de l’Académie nationale de médecine et de l’Académie des technologies). Philippe Boulanger (physicien, fondateur de la revue Pour la science). Jacques Bouveresse (philosophe, professeur émérite au Collège de France). Yves Bréchet (physico-chimiste, membre de l’Académie des sciences). François-Marie Bréon (climatologue, chercheur au Laboratoire des sciences du climat et de l’environnement). Jean Bricmont (professeur de physique théorique, université de Louvain, Belgique). Henri Broch (professeur de physique et de zététique, Nice). Gérald Bronner (sociologue, professeur à l’université de Paris Diderot, membre de l’Académie nationale de médecine et de l’Académie des technologies). Henri Brugère (docteur vétérinaire, professeur émérite de physiologie thérapeutique à l’École nationale vétérinaire d’Alfort). Suzy Collin-Zahn (astrophysicienne, directeur de recherche honoraire à l’Observatoire de Paris-Meudon). Yvette Dattée (directeur de recherche honoraire de l’Inra, membre de l’Académie d’agriculture de France). Jean-Paul Delahaye (professeur à l’université des Sciences et Technologies de Lille, chercheur au Laboratoire d’informatique fondamentale de Lille). Marc Fellous (professeur de médecine, Institut Cochin de génétique moléculaire). Nicolas Gauvrit (enseignant-chercheur en psychologie). Marc Gentilini

(professeur émérite des maladies infectieuses et tropicales Pitié Salpêtrière, Paris, président honoraire de l’Académie nationale de médecine). Léon Guéguen (nutritionniste, directeur de recherche honoraire de l’Inra, membre de l’Académie d’agriculture de France). Catherine Hill (épidémiologiste). Louis-Marie  Houdebine (biologiste, directeur de recherche honoraire à l’Inra). Bertrand Jordan (biologiste moléculaire, directeur de recherche émérite au CNRS). Philippe Joudrier (biologiste, directeur de recherche à l’Inra). Jean  de Kervasdoué (professeur au Conservatoire national des arts et métiers, membre de l’Académie des technologies). Marcel  Kuntz (biologiste, directeur de recherche au CNRS). Hélène Langevin-Joliot (physicienne nucléaire, directrice de recherche émérite au CNRS). Guillaume Lecointre (professeur au Muséum national d’histoire naturelle, directeur du département Systématique et évolution). Jean-Marie Lehn (professeur émérite à l’université de Strasbourg et professeur honoraire au Collège de France, Prix Nobel de chimie). Hervé Maisonneuve (médecin en santé publique). Jean-Loup Parier​(président honoraire de l’Académie de pharmacie)​. Gérard Pascal (nutritionniste et toxicologue, directeur de recherche honoraire de l’Inra, membre des Académies d’agriculture et des technologies). Anne Perrin (docteur en biologie). Franck Ramus (directeur de recherche au CNRS, Institut d’études de la cognition, École normale supérieure, Paris). Jean-Pierre Sauvage (professeur émérite à l’université de Strasbourg, membre de l’Académie des sciences, Prix Nobel de chimie). Arkan Simaan (professeur agrégé de physique, historien des sciences). Alan Sokal (professeur de physique à l’université de New York et professeur de mathématiques à l’University College de Londres). Hervé This (physico-chimiste Inra, AgroParisTech, directeur scientifique de la Fondation Science & Culture Alimentaire, membre de l’Académie d’agriculture de France). Virginie Tournay (politologue, directeur de recherche au CNRS, CEVIPOV, Sciences Po). Jacques Van Rillaer (professeur de psychologie, Belgique).

Science & pseudo-sciences est édité par l’Afis

Association française pour l’information scientifique Conseil d’administration : Jean-Paul Krivine (président), Brigitte Axelrad (vice-présidente), François-Marie Bréon, Jean-François Chevalier (secrétaire général), Laurent Dauré, Véronique Delille, Michel Dursapt,

André Fougeroux, Jacques Guarinos, Jean-Jacques Ingremeau, Christophe de La Roche Saint-André, Hervé Le Bars, Michel Naud (trésorier adjoint), Gérard Plantiveau, Igor Ziegler (trésorier).

Toute correspondance :

[email protected] Afis, 4 rue des Arènes 75005 Paris Site Internet : afis.org

Anciens présidents : Michel Rouzé (fondateur, 1968-1999), JeanClaude Pecker (1999-2001), Jean Bricmont (2001-2006), Michel Naud (20062012), Louis-Marie Houdebine (2012-2014), Anne Perrin (2014-2018), Roger Lepeix (2018-2019). Image couverture : photomontage Brigitte Dubois, image © 4X-image | stockphoto.com

/

éditorial

L’épidémie de coronavirus : se tourner vers la science

À

l’heure où ces lignes sont écrites (17 mars 2020), la France vient de passer au stade 3 de l’épidémie de coronavirus et le confinement entre en vigueur. Si nous ne savons ni comment ni à quel rythme la situation va évoluer, il est cependant possible de formuler quelques premiers commentaires généraux. Tout d’abord, l’origine de cette infection est tout ce qu’il y a de plus « naturel » : il s’agit d’une zoonose virale, c’està-dire d’une contamination à partir d’un virus d’origine animale qui s’est adapté à l’être humain. Cela nous rappelle, s’il en était besoin, que « naturel » ne signifie pas forcément « bon » et que l’Homme continue à vivre dans une nature qui n’est ni bienveillante, ni accueillante (ni l’inverse d’ailleurs : la nature se contente d’être…). Ensuite, c’est bien vers la science que le grand public semble se tourner en priorité, et non vers les pseudosciences. Certes, différentes rumeurs et théories du complot circulent sur Internet et des remèdes fantaisistes sont vantés ici ou là. Mais, par exemple, les promoteurs de l’efficacité de l’homéopathie se sont faits jusqu’à maintenant discrets sur la pertinence de leurs produits [1] et la mise au point d’un vaccin est attendue avec espoir, y compris en France, pays où la défiance vaccinale est l’une des plus marquées au monde. Et c’est aussi vers des experts reconnus que les micros sont jusque-là préférentiellement tournés, à la différence d’autres sujets médiatisés où des « experts » autoproclamés issus de mouvements associatifs partisans occupent l’espace médiatique. En termes de gestion de la pandémie, la prise de décision est forcément complexe. Si les connaissances scientifiques sur le virus et son mode de propagation s’accumulent à une vitesse impressionnante, il reste encore de grandes incertitudes rendant bon nombre d’anticipations incertaines et révélant aussi parfois des divergences d’expertise. Cela complexifie encore davantage la gestion de crise, d’autant plus que toute décision d’ordre sanitaire a forcément des effets collatéraux qu’il s’agit de prendre en compte. La réduction des échanges

internationaux et le ralentissement économique mondial ont des impacts qui ne sont pas que financiers : ils peuvent conduire à d’autres effets sanitaires difficiles à chiffrer et qui ne seront pas comptabilisés dans le bilan de la maladie (pénurie de certains médicaments, suicides et maladies dus à des pertes d’emploi ou à l’isolement, précarité aggravée, etc.). En France, Olivier Véran, le ministre de la Santé, affirmait dès le 3 mars 2020 que toutes les décisions prises dans le cadre de la gestion de l’épidémie de coronavirus « sont des décisions qui sont fondées sur le rationnel scientifique validé par les commissions d’experts » [2]. De telles déclarations, largement réitérées depuis, sont bienvenues. Leur mise en œuvre ne pourra que contribuer à légitimer l’expertise publique et à renforcer la confiance qui lui est accordée. C’est indispensable, et il est également utile que soit précisé comment s’articule chacune des décisions au regard de l’expertise scientifique (mais aussi de son incertitude), car tout ne se ramène pas à elle. Elle n’est pas là pour justifier a posteriori des décisions politiques prises et il ne faudrait pas lui imputer des choix qui sont hors de son domaine, qui relèvent de la décision politique, et dont elle ne peut que partiellement éclairer les conséquences possibles. Cette approche gagnerait à être étendue à d’autres sujets comme l’agriculture (avec par exemple le glyphosate) ou encore l’énergie et le climat (avec par exemple l’arrêt de la centrale de Fessenheim, présenté comme s’inscrivant dans la transition écologique nécessaire face au réchauffement climatique), où l’expertise scientifique est ignorée dans les déclarations mêmes des décideurs. L’après-coronavirus pourrait-il signifier une réhabilitation de l’expertise scientifique et plus de science et de rationalité dans la décision publique ?

Références

Science et pseudo-sciences

[1] Krivine JP, « Coronavirus : un nouveau paradoxe pour l’homéopathie », 6 mars 2020. Sur afis.org [2] « Olivier Véran face à Jean-Jacques Bourdin en direct », BFMTV, 3 mars 2020.

Science et pseudo-sciences n°332 - avril / juin 2020

1

Sommaire

/

éditorial 1 L’épidémie de coronavirus : se tourner vers la science

Dossier

Intelligence artificielle 10 12 19 24 28 33

2

Intelligence artificielle Intelligence artificielle : le présent éclairé par l’histoire Jean-Paul Krivine

Avec l’apprentissage profond, l’intelligence artificielle va-t-elle dépasser l’Homme ? Jean-Paul Delahaye

Réseaux de neurones et apprentissage profond : les concepts Jean-Paul Krivine

L’intelligence artificielle et le véhicule autonome Jean-Marc David

Le mythe de la Singularité technologique

Jean-Gabriel Ganascia

Science et pseudo-sciences n°332 - avril / juin 2020

38 44

Faut-il interdire les robots tueurs autonomes ? Jean-Paul Delahaye

Les systèmes d’intelligence artificielle : quelle responsabilité ? Juliette Sénéchal

Articles

51 60 64

Le compteur Linky est-il dangereux pour la santé ? Thierry Sarrazin et Martine Souques

Chronologie de l’« affaire » des pesticides SDHI Note de lecture À propos de la controverse sur les SDHI Catherine Hill

/

Sommaire

Articles

68 69 72

Food Evolution : la censure l’emporte contre le débat Food Evolution : la censure insidieuse d’un film qui dérange Eddy Agnassia et Gil Kressmann

La « porosité » des universités aux pseudo-médecines : un classement du collectif Fakemed

91 95 108

L’histoire réelle de Mileva Einstein-Maric’ Yves Gingras

La fiction « Le Nuage » confond un nucléaire fantasmé et la réalité Jean-Jacques Ingremeau

Jean-Claude Pecker (1923-2020)

François-Marie Bréon

Chroniques Sornettes sur Internet

Esprit critique

74 76

L’esprit critique sur Internet et les réseaux sociaux Thomas C. Durand

FOU FOU FOU

Tous spectateurs ? Brigitte Axelrad

82 85

Rubriques

4

Regards sur la science

Rubrique coordonnée par Kévin Moris

L’électroculture : une pseudo-science à la masse Sébastien Point

Science et conscience

L’intégrité scientifique Hervé Maisonneuve

Livres

101

Notes de lecture

Rubrique coordonnée par Thierry Charpentier et Philippe Le Vigouroux

Science et pseudo-sciences n°332 - avril / juin 2020

3

Regards sur la science

Rubrique coordonnée par Kévin Moris

Le prix IgNobel haque année, au mois de septembre, un C grand amphithéâtre de l’université Harvard (Cambridge, près de Boston aux États-

Unis) accueille plus de 1 000 personnes pour une cérémonie festive et diffusée en direct sur Internet. Elle est suivie dans le monde entier. La cérémonie dure une heure trente. Dans la salle, il y a du bruit et des rires et des avions en papier sont envoyés de tous les coins de l’amphithéâtre. L’assistance est composée de chercheurs. Un site Internet sur la « recherche improbable » détaille toutes les informations sur ces cérémonies et met à disposition l’ensemble des vidéos [1] (sur la page Wikipédia « Prix_IgNobel », on retrouvera l’histoire du prix et la liste des lauréats).

Le prix IgNobel se prononce approximativement « ignoble » en anglais. Ces prix humoristiques sont remis par des chercheurs ayant eu un vrai prix Nobel et qui se prennent au jeu. L’un d’entre eux peut balayer la scène pour enlever les avions en papier ; certains sont déguisés. Le maître de cérémonie qui a fondé le prix est Marc Abrahams. Il est bien habillé avec un haut-deforme. Il précise que les prix sont remis à des chercheurs qui nous font rire, mais aussi réfléchir. Les recherches primées ont été le plus souvent publiées dans des revues scientifiques et les articles sont consultables. Cette cérémonie en est à sa 29e édition, marque de son succès. Au cours du temps, les thèmes ont varié, et les chercheurs récompensés ne sont pas toujours venus. Certains ont été primés pour des actions ou découvertes parfois contestables : c’est l’ironie, la dérision, le rire critique qui guident le jury du prix. Au-delà de la cérémonie, les chercheurs montrent qu’ils peuvent d’abord se moquer d’eux-mêmes et rire ensemble. Il ne s’agit jamais d’une découverte majeure qui fera progresser la science, contrairement aux vrais prix Nobel.

4

Science et pseudo-sciences n°332 - avril / juin 2020

Les lauréats reçoivent leur prix avant de parler. En 2019, les prix étaient magnifiques  : un mug en carton avec une brosse à dent, des bonbons, un téléphone portable factice, un mégot de cigarette... et quelques autres apparats du chercheur. Le lauréat reçoit surtout un billet de banque de dix trilliards de dollars ! Il s’agit d’un vrai billet qui a existé (en fait au Zimbabwe).

Les lauréats ont une minute pour exposer leurs recherches. S’ils dépassent le temps, ils sont interrompus par une petite fille de huit ans qui court sur la scène. Elle crie « Arrêtez s’il vous plait, je m’ennuie ! » Elle répète cela jusqu’à ce que l’orateur s’arrête de parler. Il y a des intermèdes, avec en 2019 la chorale des mauvaises habitudes, créée pour l’occasion. Voici quelques prix IgNobel attribués en 2019 :

• Médecine : manger des pizzas protégerait contre les maladies cardiaques et le cancer, à une condition : que la pizza soit faite et mangée en Italie.

• Sciences de l’ingénieur : invention (et brevet) d’une machine pour laver les bébés et changer automatiquement leurs couches. • Psychologie : tenir un crayon dans la bouche fait sourire et croire que vous êtes heureux, alors que ce n’est pas le cas.

• Formation médicale : utilisation d’une technique animale (entraînement avec un cliqueur) en montrant qu’elle était plus efficace que la démonstration pour apprendre à des chirurgiens comment faire des nœuds. • Chimie : calcul du volume journalier de salive produit par un enfant de cinq ans.

/

Regards sur la science En 2017, une équipe lyonnaise de neurosciences (Inserm, CNRS), menée par JeanPierre Royet, a utilisé une technologie avancée d’analyse du cerveau pour mesurer à quel point certaines personnes étaient dégoûtées par le fromage.

Le couronnement de Napoléon, Jacques-Louis David (1748-1825)

• Économie : recherche des billets les plus contaminés (les lei roumains et les dollars américains... l’euro s’en sort bien). Des bactéries résistantes à des antibiotiques ont été identifiées sur les lei roumains. • Paix : tentative de mesure du plaisir de ceux qui se grattent pour une démangeaison.

• Physique : étude des wombats (marsupiaux herbivores australiens) qui ont la particularité de produire des excréments cubiques, ce qui est unique dans le règne animal. À noter que ces chercheurs avaient déjà eu un prix IgNobel en montrant que la plupart des animaux vidaient leur vessie en 21 secondes (plus ou moins 13 secondes). Quelques Français sont lauréats du prix IgNobel. En 2019, une équipe de Toulouse (Bourras Bengoudifa et Roger Mieusset) a reçu le prix d’anatomie. Ils ne se sont pas déplacés pour la cérémonie. Leur recherche sur la température des testicules d’employés de la Poste a été publiée dans une revue prestigieuse, Human Reproduction. Conclusion de leur travail : « L’absence de symétrie thermique a été observée dans le scrotum droit et gauche, qu’il soit nu ou vêtu, et cela s’appliquait quelle que soit la position ou l’activité quand il était vêtu. Cette différence thermique entre le scrotum droit et gauche pourrait contribuer à l’asymétrie des organes génitaux externes masculins. »

En 2013, le prix IgNobel de psychologie a été décerné à des chercheurs de Grenoble, menés par Laurent Bègue, pour avoir montré que les personnes qui sont saoules pensent qu’elles sont attractives.

À l’occasion du décès de Jacques Chirac, un hommage lui a été rendu sur le site Internet IgNobel en rappelant qu’il avait reçu un prix en 1996. Rares sont les prix décernés à des nonscientifiques ! Son prix IgNobel de la paix lui avait été décerné pour avoir commémoré le 50e anniversaire d’Hiroshima en faisant exploser une bombe atomique lors d’essais dans l’Océan Pacifique.

Le chercheur Jacques Benveniste a reçu deux prix IgNobel de chimie : en 1991 pour ses travaux sur la mémoire de l’eau. Il a « découvert » que l’eau, H2O, était un liquide intelligent, capable de se souvenir d’événements longtemps après la disparition de toute trace de ceux-ci. Il a eu un second prix en 1998 car il a non seulement montré que l’eau avait de la mémoire, mais que l’information pouvait être transmise sur les lignes téléphoniques et sur l’Internet. Dans le cas de ce chercheur, le jury a « récompensé » des recherches qui avaient alors été invalidées (alors que les prix décernés portent en général sur des travaux d’apparence futile, mais sans que soit remise en cause leur validité scientifique). Hervé Maisonneuve

Médecin de santé publique, consultant en rédaction scientifique et animateur du blog Rédaction médicale et scientifique

Référence

[1] Le site Improbable research : improbable.com

Science et pseudo-sciences n°332 - avril / juin 2020

5

Regards sur la science

/

Envisager la mathématisation du quotidien ’esprit humain a cette extraordinaire facilité L de transformer une difficulté en utilité, un obstacle en marchepied. Il en est ainsi du ha-

Le petit mathématicien, Jean-Baptiste Greuze (1725-1805)

sard, longtemps considéré comme un handicap et le résultat de notre ignorance, qui est devenu un atout : le tirage au sort est utile par exemple pour avoir un bon échantillon de malades lors du test d’un médicament, pour choisir les membres d’un jury sans biais, pour partager équitablement un bien, etc.

Comprendre que le hasard est mathématisable et qu’il suit des lois a été un immense progrès dans les connaissances humaines : merci Pascal, merci Fermat et merci à leurs nombreux continuateurs d’avoir calculé les probabilités des événements futurs, d’y avoir associé l’espérance mathématique de gain ou de perte afin que nous puissions évaluer les risques et agir en connaissance de cause.

Selon la légende, les soldats romains avaient joué aux dés la robe du Christ, sans avoir aucune notion des lois du hasard… Nous sommes tous des soldats romains et persuader nos concitoyens que d’innombrables faits de la vie quotidienne sont mathématisables serait indéniablement utile.

Une telle situation m’a été présentée dernièrement : dans un nouveau cinéma, les places sont attribuées avec le billet d’entrée. J’ai perdu mon billet et je me suis assis n’importe où avec l’angoisse d’être déplacé ; j’ai trompé mon inquiétude en m’interrogeant sur le nombre de fois où je serais déplacé. Il faut réfléchir un peu pour trouver une solution, mais le raisonnement qui l’amène est à la portée de toute personne un peu motivée [1].

Dans un contexte géométrique, j’avais cet hiver acheté des lacets trop courts pour des chaussures avec un grand nombre d’œillets et je me suis souvenu d’un article de Jean-Paul Delahaye [2]. Avec le laçage de moindre longueur en « nœud papillon » j’ai pu utiliser mes lacets économiques. Voir [3] pour une multitude d’autres exemples. Il me semble que l’enseignement mathématique gagnerait à montrer de tels exemples qui

6

Science et pseudo-sciences n°332 - avril / juin 2020

mettraient un peu de chair autour des os des théories mathématiques. Cela n’est pas le cas actuellement : les objets mathématiques sont trop souvent présentés comme des objets zoologiques abstraits (groupes, ensembles, corps, séries…) et hors de tout contexte. L’association MATh.en.JEANS [4] pallie en partie cette exposition éthérée, mais l’habitude de montrer par des exemples l’utilité des mathématiques avant d’aborder la théorie n’est pas ancrée dans les mœurs de l’enseignement.

Regardez par exemple les programmes mathématiques des classes préparatoires aux écoles de commerce et les sujets des examens de mathématiques de tous niveaux : vous serez persuadés de l’aridité de l’enseignement imposé. Certes, il faut apprendre la rigueur logique et les instruments mathématiques nécessaires à la résolution des problèmes, mais ne pourrait-on pas donner à tous le réflexe d’envisager un regard mathématique sur les faits du quotidien ? Philippe Boulanger

Physicien, fondateur de la revue Pour la Science

Références

[1] Boulanger P, « Les toujours étonnantes propriétés de la série harmonique », Tangente, 2018, n° 182. [2] Delahaye JP, « La révolution des œillets », Pour la science, 2007, n° 352. [3] Grima C, Je fais des maths en laçant mes chaussures, Les Arènes Eds, 2018. [4] mathenjeans.fr

/

Regards sur la science

Les flottes géantes de satellites n 1990, les 500 satellites actifs orbitant auE tour de la Terre étaient généralement gros, uniques et fiables. Pour les terriens levant le

regard vers le ciel, les satellites étaient relativement rares. Leur observation était un jeu prisé de certains amateurs qui s’amusaient à prévoir le lieu et le moment de leur prochain passage.

Depuis le milieu des années 2010, un nouveau paradigme est apparu : créer un monde hyperconnecté, grâce à des milliers de satellites installés par des opérateurs privés. Il n’est pas encore réalisé, mais il est en voie de l’être. Par exemple, la société StarLink, filiale de SpaceX d’Elon Musk, a pour projet l’envoi de 12 000 satellites, destinés à fournir une connectivité Internet à haut débit en tout point de la planète. Chaque tir de fusée permet la mise en orbite de 60 satellites. D’ici fin 2020, il est prévu de lancer plus de 1 400 satellites, et 180 ont déjà été mis en orbite. Ces satellites sont petits, identiques, fabriqués en série, donc peu chers. SpaceX a annoncé leurs caractéristiques, mais d’une manière imprécise. La société a également demandé l’autorisation de lancer 30 000 satellites de plus, mais on ne sait pas dans quel but.

pendant plusieurs heures de la nuit, voire toute la nuit en été dans la moitié nord de la France.

Des astronomes ont publié des articles et des communiqués où ils tentent d’évaluer le plus précisément possible les dommages pour l’astronomie (voir par exemple le communiqué de l’Union astronomique internationale [1]). Très souvent, lorsqu’une portion de ciel sera étudiée, des satellites passeront dans le champ du télescope, faussant les mesures et obligeant bien souvent à rejeter l’image obtenue. Avec 42 000 satellites, il est à craindre que la quasi-totalité des images seront polluées. Par ailleurs, ces satellites couvriront en permanence l’ensemble de la surface de la planète d’ondes radio. Là aussi, un saut qualitatif important sera accompli. Aucun radiotélescope opérant aux mêmes fréquences que les satellites ne pourra plus effectuer d’observations. Les fréquences des ondes correspondent, pour la lumière visible, aux couleurs ; pour les astronomes, il en est de même avec les fréquences invisibles à l’œil nu, et ce sera donc comme si ces satellites nous cachaient une couleur du ciel.

Un tel encombrement pose des problèmes nouveaux.

Il y a d’abord un risque de collisions entre satellites. Théoriquement, les satellites de Starlink sont équipés d’un dispositif anti-collision et d’un moteur pour corriger leur trajectoire. Dans la réalité, l’Agence spatiale européenne (ESA) a déjà dû faire dévier l’un des leurs à cause d’un risque de collision avec un satellite de Starlink. Au moment de la manœuvre, Starlink n’avait même pas répondu au message d’alerte de l’ESA. Il y avait, à l’époque, seulement 120 satellites de cette société en orbite. Qu’en serat-il avec 12 000 satellites ?

L’autre problème concerne la pollution visuelle du ciel. Avec 12 000 satellites dans le ciel, chaque observateur, où qu’il soit sur Terre, pourra en voir simultanément plusieurs centaines. Et contrairement à ce que l’on a pu lire dans certains journaux, ils resteront visibles

Nuit en noir et or : la fusée qui retombe, James Abbott McNeill Whistler (1834-1903)

Science et pseudo-sciences n°332 - avril / juin 2020

7

Regards sur la science

/

Les simples contemplateurs du ciel en souffriront aussi : en chaque lieu, pendant la majeure partie des nuits, des dizaines de satellites seront simultanément visibles à l’œil nu, avec une luminosité comparable aux étoiles que l’on voit même briller en ville. Le ciel ne sera donc plus un refuge pour la contemplation poétique. Nous le regarderons plutôt comme un paysage au bord d’une route, interrompu par le passage incessant des véhicules. Certes, améliorer l’accès à Internet, y compris dans les régions les plus pauvres et sous-équipées en connectivité terrestre, est une initiative louable. Mais la clientèle la plus rentable se trouve parmi les habitants des pays riches, déjà bien équipés : StarLink ne s’y est pas trompée et c’est bien la couverture Internet de l’Amérique du Nord qui est prévue pour 2020.

D’autres projets, portés par d’autres opérateurs commerciaux, sont en gestation. Ainsi, Start-Rocket prévoit d’envoyer quelques centaines de satellites dont chacun servira de « pixel » d’un affichage céleste géant qui pourrait figurer, par exemple, le logo de marques de produits de consommation. Une nouvelle problématique sur la relation entre profit et environnement est en train de s’installer dans l’espace. Il n’y a pas de forme nouvelle de pollution, mais comme avec toute industrie émergente, celle associée au développement de l’industrie spatiale, jusqu’alors tenue pour négligeable, devient gênante par le seul effet de son accroissement. Cependant, il est mal vu actuellement de remettre en question l’utilité du projet. En effet, fournir de l’Internet à haut débit est perçu comme une évidence qui

justifie de nombreux effets jugés aujourd’hui comme secondaires1. La nécessité d’une réglementation internationale apparaît, mais elle se construira sur le long terme. D’ici à ce qu’elle soit établie et respectée, ce qui prendra probablement des années, le jugement appartiendra aux clients, sans doute indifférents à l’origine de l’Internet qu’ils utilisent. S’ils sont assez nombreux pour apprécier le service offert, ils rendront le projet économiquement viable et nous aurons autant de satellites dans le ciel que l’exigeront les propriétaires de voitures autonomes, les visionneurs de séries en haute définition en streaming, les amateurs de jeux en réseau, de selfies et de réseaux sociaux, car ce sont eux les gros consommateurs de haut débit. Le reste du monde devra s’adapter. Cependant, un usage plus modéré et non addictif de la toile, pour se documenter, pour échanger des messages, effectuer des formalités ou acheter des objets en ligne n’exige pas un tel débit. Pour ce genre d’usage, quelques centaines de satellites suffiraient pour couvrir la planète. C’est par exemple la quantité de satellites (650 prévus à l’heure actuelle) que le promoteur de l’Internet spatial OneWeb projette de placer en orbite. Fabrice Mottez

Astrophysicien au CNRS et à l’Observatoire de Paris, rédacteur en chef du magazine L’Astronomie

Référence

[1] Union astronomique internationale, “Understanding the Impact of Satellite Constellations on Astronomy”, février 2020, sur iau.org 1 On pourrait faire un parallèle entre l'Internet aujourd'hui et la voiture dans les années 1950.

Transmission de la maladie d’Alzheimer par inoculation d’extrait cérébral

n France, les démences de type Alzheimer E (DTA) touchent près d’un million de personnes. Du fait d’une atteinte dégénérative et

progressive des neurones cérébraux, elles se traduisent principalement par une perte de la mémoire. Les lésions des DTA se caractérisent par une accumulation dans les neurones de la protéine tau (tauopathie) avec des dépôts amyloïdes1. Depuis longtemps, des similitudes

8

Science et pseudo-sciences n°332 - avril / juin 2020

avaient été suggérées entre la maladie d’Alzheimer et la maladie de Creutzfeldt-Jakob (MCJ) [1,2], la principale différence étant que cette dernière est transmissible alors qu’on n’avait jamais démontré formellement la transmissibilité d’une DTA  : seule la transmission de l’amylose sans l’apparition de signes cliniques avait pu être observée dans les essais de reproduction expérimentale [3].

/

Vieille femme assoupie, Nicolaas Maes (1634-1693)

Les chercheurs du laboratoire des maladies neurodégénératives au CEA (équipe de Marc Dhenain) démontrent pour la première fois que l’on peut transmettre la maladie d’Alzheimer sous ses aspects cliniques et lésionnels par inoculation de tissu cérébral provenant de patients atteints de cette maladie [4]. Ce travail a pu être réalisé sur de petits lémuriens (Microcebus murinus), microcèbes mesurant 12 cm, pesant 60 à 120 g et considérés comme âgés à partir de six ans. Douze microcèbes adultes ont été inoculés avec des extraits cérébraux de personnes décédées de la maladie d’Alzheimer et ont été surveillés pendant dix-huit mois. Aucune altération n’a été observée pendant les six premiers mois post-inoculation, démontrant que l’inoculation n’était pas immédiatement en cause. Ce n’est qu’à partir de douze mois post-inoculation que les aspects cliniques et lésionnels d’une maladie d’Alzheimer sont apparus : troubles cognitifs, modifications de l’activité neuronale démontrée par un électroencéphalogramme, atrophie cérébrale. L’accumulation de la protéine tau et des dépôts amyloïdes (surtout proches du site d’inoculation) étaient peu importants chez certains primates mais il est possible que ces lésions auraient été plus importantes si l’on avait gardé les animaux au-delà de dix-huit mois. Les six microcèbes témoins inoculés avec du tissu cérébral sain d’origine humaine n’ont présenté aucun symptôme ni aucune lésion.

Regards sur la science

Il s’agit de la première démonstration de l’induction de signes cliniques associés à l’inoculation d’extraits de cerveaux humains « Alzheimer », renforçant ainsi l’hypothèse d’une origine « prion »2 non limitée à la MCJ. Comme la MCJ, la maladie d’Alzheimer ne peut pas être considérée comme une maladie contagieuse. Cette affection pourrait cependant être transmise dans des circonstances exceptionnelles, justifiant de recommander des précautions particulières lors d’une intervention en neurochirurgie. D’ailleurs on a pu suspecter la transmission de lésions qui rappellent celles d’une DTA chez l’Homme dans des circonstances exceptionnelles (injections d’hormones de croissance issues de cerveaux, procédures neurochirurgicales lourdes en association avec des greffes de tissus d’origine cérébrale) mais sans pouvoir le démontrer formellement. D’autres maladies neurodégénératives comme la maladie de Parkinson ou celle de Huntington pourraient aussi avoir des propriétés communes avec les prions, dont leur transmissibilité. Jeanne Brugère-Picoux

Professeur honoraire de pathologie médicale du bétail et des animaux de basse-cour à l’École nationale vétérinaire d’Alfort, membre de l’Académie nationale de médecine et de l’Académie vétérinaire de France Références

[1] Brown P et al., “Alzheimer disease and transmissible virus dementia (Creuzfeldt-Jakob disease)”, Annals New York Academy of Sciences, 1982, 396:131-43. [2] Lefrançois T, Le Prince G, Tardy M, « Démences de type Alzheimer et encéphalopathies spongiformes : analogies et théories nouvelles », Médecine/Sciences, 1994,10:1141-3. [3] Goudsmit J et al., “Evidence for and against the transmissibility of Alzheimer disease”, Neurology, 1980, 30:945-50. [4] Gary C et al., “Encephalopathy induced by Alzheimer brain inoculation in a non-human primate”, Acta Neuropathologica Communications, 2019, 7, 126. 1 Les dépôts amyloïdes résultent de l’accumulation de protéines sanguines – de type amyloïde – dans certains tissus. Dans le cas de certaines pathologies neurodégénératives telles que la maladie d’Alzheimer, les dépôts amyloïdes sont observés dans les tissus cérébraux. Les maladies se traduisant par des dépôts amyloïdes sont appelées des amyloses. 2 Un prion est un agent pathogène constitué d’une protéine dont la structure est anormale et qui, au contraire des autres agents infectieux que sont virus, bactéries et parasites, ne dispose pas d’ARN ou d’ADN.

Science et pseudo-sciences n°332 - avril / juin 2020

9

Dossier • Intelligence artificielle

/

© 4X-image | stockphoto.com

Intelligence artificielle

L

’intelligence artificielle (IA) suscite curiosité, enthousiasme et inquiétude. Elle est présente dans d’innombrables applications, ses prouesses font régulièrement la une des journaux et un candidat à la mairie de Paris en fait un argument de campagne. Dans le même temps, des déclarations médiatisées mettent en garde contre des machines qui pourraient prendre le pouvoir et menacer la place de l’Homme ou, a minima, porter atteinte à certaines de nos libertés. Mais quand on évoque l’intelligence artificielle, de quoi parle-t-on exactement ? Le terme lui-même est assez mal défini et mal compris du grand public, voire de nombreux commentateurs. Quelles différences entre «  intelligence artificielle  », « apprentissage profond » et « algorithme » ? Certaines craintes énoncées concernent-elles spécifiquement l’IA ou s’appliquent-elles plus généralement aux programmes informatiques ou à l’utilisation des données personnelles ?

10

Science et pseudo-sciences n°332 - avril / juin 2020

Les performances impressionnantes observées aujourd’hui sont-elles annonciatrices de comportements qui vont vite nous échapper ? Ou, au contraire, masquent-elles des limites qui ne manqueront pas de s’imposer rapidement ? Pour répondre à ces questions, il faut d’abord se plonger dans ce qu’est l’intelligence artificielle, retracer son histoire pour comprendre le présent (voir l’article de Jean-Paul Krivine, « Intelligence artificielle : le présent éclairé par l’histoire ») et distinguer les différentes technologies utilisées (voir l’article de Jean-Paul Krivine, « Réseaux de neurones et apprentissage profond : les concepts »).

On peut alors commencer à identifier ce qui relève de succès réels et impressionnants, mais aussi de limitations plus fondamentales (voir l’article de Jean-Paul Delahaye, « Avec l’apprentissage profond, l’intelligence artificielle va-t-

/

Dossier • Intelligence artificielle

elle dépasser l’Homme ? »). Par ailleurs, qu’en est-il des risques allégués d’une prise de pouvoir par les machines (voir l’article de Jean-Gabriel Ganascia, « Le mythe de la Singularité technologique ») ?

Deux types d’applications emblématiques aux enjeux radicalement différents permettront d’illustrer certaines des problématiques posées (voir l’article de Jean-Marc David, « L’intelligence artificielle et le véhicule autonome  » et

l’article de Jean-Paul Delahaye, « Faut-il interdire les robots tueurs autonomes ? »). À l’issue de ce panorama détaillé, notre dossier s’intéresse aux questions que se pose aujourd’hui le juriste confronté à une technologie complexe, en pleine évolution et lourde de conséquences potentielles majeures, dont il faut bien concevoir la réglementation (voir l’article de Juliette Sénéchal « Les systèmes d’intelligence artificielle : quelle responsabilité ? »).

Quelques ouvrages pour approfondir le sujet Le mythe de la Singularite Faut-il craindre lʼintelligence artificielle ? Jean-Gabriel Ganascia Le Seuil, 2017, 144 pages, 18 €

La plus belle histoire de l'intelligence Yann Le Cun, Stanislas Dehaene et Jacques Girardon Robert Laffont, 2018, 279 pages, 21 €

Quand la machine apprend La révolution des neurones artificiels et de lʼapprentissage profond Yann Le Cun Odile Jacob, 2019, 400 pages, 22,90 €

L’Hyperpuissance de l’informatique Algorithmes, données, machines, réseaux Gérard Berry Odile Jacob, 2017, 512 pages, 35 €

Science et pseudo-sciences n°332 - avril / juin 2020

11

Dossier • Intelligence artificielle

/

Intelligence artificielle : le présent éclairé par l’histoire Jean-Paul Krivine

C

oncevoir des machines intelligentes est un très vieux rêve de l’humanité. Dès l’Antiquité, ingénieurs et mathématiciens tentèrent de mettre au point des automates visant à imiter certains comportements naturels. Ainsi, selon l’historienne Marylène Lebrère, les automates d’Héron d’Alexandrie (Ier siècle de notre ère) sont réalisés de telle sorte que « les mouvements des personnages, des animaux ou les sons qu’ils émettent doivent être aussi vrais que possible, de façon à susciter la surprise et l’émotion chez les fidèles  » [1]. Les réalisations de Jacques Vaucanson (1709-1782) s’inscrivent dans la même volonté de « non pas représenter de l’extérieur ce que font les vivants, mais bien, autant que cela était possible, simuler les processus naturels par lesquels ils accomplissent certaines de leurs actions  » [2]. Les capacités intellectuelles de l’Homme font aussi l’objet de nombreuses tentatives d’automatisation. L’arithmétique en particulier suscite un fort intérêt de par les services que pourraient rendre des machines capables de calculer. La pascaline, mise au point par Blaise Pascal (16231662), est capable d’effectuer des additions et des soustractions. La machine analytique de Babbage (1791-1871), première machine permettant une sorte de programmation1, permet d’effectuer automatiquement une suite d’opérations. Mais d’autres fonctions sont visées. Euphonia, l’automate parlant mis au point par Joseph Faber (1800-1850) était capable de prononcer des mots et de reproduire une voix humaine. Le Turc mécanique conçu par Johann Wolfgang von Kempelen (1734-1804) se présentait comme un automate capable de jouer aux échecs. Durant plusieurs décennies, il fit le tour des grandes villes d’Europe et des États1 Malheureusement, inachevée de son temps et qui ne fonctionna

jamais réellement.

12

Science et pseudo-sciences n°332 - avril / juin 2020

Unis et battit, lors de démonstrations publiques, la plupart de ses adversaires, dont l’empereur Napoléon Bonaparte. L’écrivain Edgar Allan Poe décrivant la controverse de l’époque entre les partisans d’une explication mécanique et ceux convaincus qu’il s’agissait d’une illusion bien mise en scène avec un opérateur humain caché à l’intérieur du dispositif (ce qui était le cas) donne dix-sept arguments pour cette dernière hypothèse, dont celui-ci : « L’Automate ne gagne pas invariablement. Si la machine était une pure machine, il n’en serait pas ainsi, elle devrait toujours gagner » [3].

L’intelligence artificielle et la naissance de l’informatique

L’intelligence artificielle (IA) est véritablement née avec l’informatique : en présentant en 1936 un modèle théorique décrivant ce qu’allaient être les ordinateurs [4], le mathématicien Alan Turing (1912-1954) proposait en même temps un support conceptuel possible pour une intelligence générale (son modèle est appelé depuis « machine de Turing »). Mais le terme d'intelligence artificielle n’est apparu qu’en 1956 lors d’un séminaire organisé à Dartmouth aux ÉtatsUnis, qui partait de la conjecture selon laquelle2 « chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit de façon si précise qu’une machine peut être conçue pour le simuler  » [5]. Dès les premiers pas de la discipline, les discussions sont âpres : les machines peuvent-elles être intelligentes ? Alan Turing en était convaincu et affirmait : « La question “Les machines peuventelles penser ?” est à mon avis trop dénuée de sens pour être débattue. Je suis néanmoins convaincu qu’à la fin de ce siècle, l’usage des mots et l’opinion générale des personnes instruites auront 2 Toutes les traductions depuis l’anglais sont de la rédaction.

/

Dossier • Intelligence artificielle

Reconstitution du Turc mécanique proposée par Joseph Friedrich Freiherr von Racknitz (1744-1818). Humboldt University Library

tellement changé que l’on pourra parler de machines pensantes sans risquer d’être contredit  » [6]. Il fonde sa conviction sur des considérations théoriques : la machine de Turing fournit un cadre très puissant permettant de rendre compte de tout ce qui est « calculable », y compris les mécanismes de raisonnement humain. Mais peut-on ramener l’intelligence à un tel processus ?

Qu’est-ce que l’intelligence ?

Sans définir précisément ce qu’est l’intelligence, affirmer que jamais une machine ne pourra être intelligente est vide de sens. L’intelligence humaine sert souvent de référence, mais elle est elle-même difficile à définir. Alan Turing avait contourné le problème en mettant en avant un procédé original pour déterminer si une machine peut être qualifiée d’intelligente sans avoir à définir le terme. Il proposait de comparer « en aveugle » une machine et un être humain : si un observateur extérieur n’arrive pas discerner qui est la machine et qui est l’être humain, alors la machine peut être considérée comme intelligente (voir l’encadré « Le test de Turing »). Cette approche est bien entendu restrictive, la référence pour déterminer ce qu’est

l’intelligence étant ici l’être humain qu’il s’agit d’imiter3 (pourquoi l’intelligence ne serait-elle que ce que réalise un être humain ?). Mais elle a l’avantage de permettre une évaluation qui met de côté la manière dont la performance est réalisée et se contente de la constatation du résultat (en gardant à l’esprit que même la constatation du résultat peut ne rien prouver sur l’intelligence réellement mise en œuvre – voir les discussions autour de « la chambre chinoise », expérience de pensée proposée par le philosophe John Searle [7]). Plus d’un demi-siècle de controverses, parfois vives, n’ont pas épuisé le sujet. Et dès 1950, Alan Turing contestait des arguments encore avancés aujourd’hui : la pensée serait une fonction réservée à l’âme des seuls êtres humains ; les émotions, le ressenti et la conscience de soi seraient inaccessibles aux machines ; il existerait des limitations théoriques à ce que peut faire une machine de Turing ; les machines ne pourraient faire « que ce qu’on leur a appris », etc. [6] 3 Le film sur la vie de Turing, Imitation Game (Le jeu de l’imitation), reprend cette expression.

Science et pseudo-sciences n°332 - avril / juin 2020

13

Dossier • Intelligence artificielle

/

Le test de Turing «  Alan Turing voulait éviter de discuter de la nature de l’intelligence et, plutôt que d’en rechercher une définition, proposait de considérer qu’on aura réussi à mettre au point des machines intelligentes lorsque leur conversation sera indiscernable de celle des humains. Pour tester cette indiscernabilité, il suggérait de faire dialoguer par écrit avec la machine une série de juges qui ne sauraient pas s’ils mènent leurs échanges avec une machine tentant de se faire passer pour un humain ou avec un humain véritable. Lorsque les juges ne pourront plus faire mieux que répondre au hasard pour indiquer qu’ils ont eu affaire à un être humain ou une machine, le test sera réussi. Concrètement, faire passer le test de Turing à un système informatique S consiste à réunir un grand nombre de juges, à les faire dialoguer aussi longtemps qu’ils le souhaitent avec des interlocuteurs choisis pour être une fois sur deux un humain, et une fois sur deux le système S ; les experts indiquent, quand ils le souhaitent, s’ils pensent avoir échangé avec un humain ou une machine. Si l’ensemble des experts ne fait pas mieux que le hasard, donc se trompe dans 50 % des cas ou plus, alors le système S a réussi le test de Turing. Turing, optimiste, pronostiqua qu’on obtiendrait une réussite partielle au test en l’an 2000, les experts dialoguant cinq minutes et prenant la machine pour un humain dans 30 % des cas au moins. Turing avait, en gros, vu juste : depuis quelques années, la version

partielle du test a été réussie, sans qu’on puisse prévoir quand sera réussi le test complet, sur lequel Turing restait muet. Le test partiel a par exemple été réussi le 6 septembre 2011 à Guwahati, en Inde, par le programme Cleverbot créé par l’informaticien britannique Rollo Carpenter. Trente juges dialoguèrent pendant quatre minutes avec un interlocuteur inconnu qui était dans la moitié des cas un humain et dans l’autre moitié des cas le programme Cleverbot. Les juges et les membres de l’assistance (1 334 votes] ont considéré le programme comme humain dans 59,3 % des cas. Notons que les humains ne furent considérés comme tels que par 63,3 % des votes […]. Le test complet de Turing n’a pas été réussi, et il n’est sans doute pas près de l’être. Il n’est d’ailleurs pas certain que les tests partiels fassent avancer vers la réussite au test complet. En effet, les méthodes utilisées pour tromper brièvement les juges sont fondées sur le stockage d’une multitude de réponses préenregistrées (correspondant à des questions qu’on sait que les juges posent) associées à quelques systèmes d’analyse grammaticale pour formuler des phrases reprenant les termes des questions des juges et donnant l’illusion d’une certaine compréhension. » Source

Delahaye JP, « Une seule intelligence ? », Pour la Science, décembre 2014.

IA forte et IA faible Le projet scientifique d’une « IA forte » se fixe l’objectif de concevoir une intelligence générale, polyvalente, qui ait une réelle conscience de soi et de ses raisonnements et puisse éprouver des sentiments. Cela peut être un projet scientifique fécond permettant de soulever des questions intéressantes, mais de façon pratique, tous les systèmes existants aujourd’hui sont considérés comme des « IA faibles », c’est-à-dire des intelli-

14

Science et pseudo-sciences n°332 - avril / juin 2020

gences spécialisées (jouer aux échecs, piloter un avion, reconnaître un visage sur une photo, etc.). Si la discipline scientifique qu’est l’intelligence artificielle s’est constituée sur un programme d’IA faible en postulant que le raisonnement intelligent pouvait se décomposer en briques élémentaires simulables sur ordinateur, l’idée sous-jacente de bon nombre de chercheurs

/

Dossier • Intelligence artificielle

était que l’assemblage de ces briques permettrait de mettre au point des intelligences de plus en plus performantes et que la somme des IA faibles pourrait un jour déboucher sur une IA forte. Cette question se retrouve de nouveau au centre d’une partie des controverses actuellement médiatisées.

Les premiers pas de l’IA ont été marqués par un enthousiasme excessif qui a sans doute contribué aux désillusions qui ont suivi, et à une première traversée du désert. Herbert Simon, l’un des pionniers de la discipline (et futur Prix Nobel d’économie) déclarait ainsi en 1958 que, dans les dix années à venir, une machine serait championne du monde d’échecs, une autre découvrirait ou démontrerait un nouveau théorème de mathématique important, une autre encore serait capable de composer de la musique dotée d’une indéniable valeur esthétique et, enfin, que la plupart des thèses émises en psychologie revêtiraient la forme de programmes d’ordinateur ou de commentaires qualitatifs sur les traits saillants de programmes d’ordinateur [8]. En 1965, il renchérissait en affirmant que, dans les vingt ans à venir, « les machines seraient capable de faire tout ce que font les Hommes » [9].

1950-1970 : des objectifs ambitieux mais des résultats décevants Les objectifs alors assignés par les pionniers de la discipline sont ambitieux : traduction automatique, reconnaissance des formes ou encore résolveurs généraux de problèmes. Mais les résultats obtenus sont loin des prophéties médiatisées et le contrecoup se fait douloureusement sentir. Ainsi en 1966, l’armée américaine qui avait largement financé les travaux en traduction automatique (en pleine période de guerre froide où cette compétence était précieuse) va-t-elle brutalement couper les fonds [10]. Pourtant, même si les programmes ne savent résoudre que des petits « problèmes jouets », cette première période a permis de développer des outils de base qui connaîtront de grands développements : les langages structurés, les grammaires génératives, le « perceptron », ancêtre des réseaux de neurones qui sont aujourd’hui à la base de l’apprentissage profond (ou deep learning), etc. Les chercheurs se sont rendu compte que leurs réalisations, pour pouvoir s’appliquer à des problèmes de la vie réelle, devaient intégrer une très grande quantité de

«  Tant qu’une machine n’aura pas écrit un sonnet ou composé un concerto à partir de ses pensées et de ses émotions, et non par un simple enchaînement de symboles, nous ne pourrons pas dire que la machine égale l’Homme. Il faut non seulement que la machine ait créé l’œuvre, mais aussi en ait conscience. » Alan Turing contestait cette affirmation en soulignant qu’avec cette vision, la seule façon de vérifier que la machine pense, c’est d’être soi-même la machine pour décrire les sentiments réellement ressentis. Ce qu’en dirait la machine elle-même ne serait pas suffisant. Mais alors, ajoutaitil, on peut dire la même chose d’un être humain : à moins d’être cette personne, on ne peut pas savoir ce qu’il y a vraiment dans son cerveau.

Automate, Centre international de la mécanique d'art

© Rama, Cc-by-sa-2.0-fr

Les machines peuvent-elles éprouver des sentiments ?

Source

Turing A, “Computing Machinery and Intelligence”, Mind, 1950, 59:433-460.

Science et pseudo-sciences n°332 - avril / juin 2020

15

Dossier • Intelligence artificielle

/

connaissances (spécifiques au domaine traité ou de sens commun). Pour résoudre les problèmes auxquels elle s’attaque, l’IA doit donc être dotée de nombreuses connaissances. Le terme « connaissance » est tout aussi difficile à définir que celui d’intelligence. On peut cependant, ici, le spécifier comme la capacité à utiliser des informations à bon escient et à comprendre la sémantique et le contexte des concepts et objets manipulés. Paradoxalement, les connaissances expertes vont s’avérer plus facile à prendre en compte que les connaissances de sens commun. En effet, ces dernières supposent la compréhension d’un contexte très mal défini, d’un monde ouvert où l’expérience compte beaucoup, à l’inverse de connaissances spécifiques particulières à un domaine précis et utilisant souvent un vocabulaire bien circonscrit.

C’est ainsi que les premiers « systèmes experts » vont voir le jour. Il s’agit de systèmes informatiques qui doivent résoudre des problèmes très précis en utilisant une somme de connaissances pointues (souvent obtenues auprès d’experts du domaine) et des « heuristiques » bien adaptées. La principale difficulté consiste alors à acquérir ces connaissances, à les formaliser dans un programme informatique et à les mettre en œuvre de façon appropriée. Des résultats impressionnants sont obtenus. Ainsi, Prospector (1982), un système expert dédié à la prospection minière, découvre un gisement de molybdène. L’article de la revue Science qui présente les résultats [11] précise que le système «  a identifié avec précision la présence d’une minéralisation significative, non contrôlée auparavant, dans un système préalablement connu [et] que ce résultat a été obtenu parce que la programmation de Prospector reflète judicieusement une partie limitée, mais appropriée, du savoir et de l’expérience d’un expert réputé du porphyry molybdenum ». Mycin est un système expert spécialisé dans le diagnostic de maladies infectieuses du sang (méningites) et la proposition de thérapies associées. Il a été évalué de façon rigoureuse (une sorte de « double aveugle ») et les résultats ont

16

Science et pseudo-sciences n°332 - avril / juin 2020

© Devrimb | Istockphoto

1970-1990 : des résultats prometteurs, mais complexes à obtenir

été publiés en 1979 dans la prestigieuse revue médicale JAMA [12]. Huit experts du domaine ont comparé le choix des antimicrobiens proposés par le système sur dix cas cliniques qui lui ont été soumis avec les choix qu’auraient fait neuf prescripteurs humains (médecins hospitaliers, internes, etc.) sur ces mêmes patients. Et c’est le système expert qui a obtenu les meilleurs résultats. Comme le note l’article rendant compte de l’expérience, « le système n’a jamais manqué de traiter un agent pathogène présent tout en démontrant son efficacité à minimiser le nombre d’antimicrobiens prescrits ». L’enthousiasme suscité par ces performances va s’étendre bien au-delà des cercles académiques. On assiste à un véritable engouement industriel : tous les grands groupes créent des équipes dédiées à l’intelligence artificielle et se lancent dans de grands projets. De très nombreux domaines d’application sont explorés. Mais, une nouvelle fois, les désillusions ne vont pas tarder à apparaître : concevoir un système expert est particulièrement long et délicat. Si des résultats positifs sont souvent obtenus, ils sont loin de permettre la rentabilisation de l’investissement. De plus, les systèmes conçus s’avèrent souvent difficile à maintenir et à faire

/

Dossier • Intelligence artificielle

Les connaissances de sens commun « Les tâches relevant de l’IA sont parfois très simples pour les humains, comme par exemple reconnaître et localiser les objets dans une image, planifier les mouvements d’un robot pour attraper un objet, ou conduire une voiture. Elles requièrent parfois de la planification complexe, comme par exemple pour jouer aux échecs ou au go. Les tâches les plus compliquées requièrent beaucoup de connaissances et de sens commun, par exemple pour traduire un texte ou conduire un dialogue […]. Mais ce qui manque principalement aux machines, c’est le sens commun, et la capacité à l’intelligence générale qui permet d’acquérir de nouvelles compétences, quel qu’en soit le domaine. Mon opinion, qui n’est partagée que par certains de mes collègues, est que l’acquisition du sens commun passe par l’apprentissage non supervisé […].

sort de la pièce”. On peut inférer que Jean et son portable ne sont plus dans la pièce, que le portable en question est un téléphone, que Jean s’est levé, qu’il a étendu sa main pour attraper son portable, qu’il a marché vers la porte. Il n’a pas volé, il n’est pas passé à travers le mur. Nous pouvons faire cette inférence, car nous savons comment le monde fonctionne. C’est le sens commun […].

C’est grâce à l’apprentissage non supervisé que nous pouvons interpréter une phrase simple comme “Jean prend son portable et

Source

évoluer. Les ardeurs ont été refroidies et, progressivement, le terme d’intelligence artificielle disparaît du monde des entreprises, et même de la plupart des universités. Pourtant, de façon discrète, de nombreuses techniques mises au point dans cette période sédimentent et se retrouvent intégrées dans l’informatique « normale » (par exemple, les langages orientés objet, sortes de langages de programmation structurés, ou encore la programmation par contrainte qui permet de résoudre des problèmes complexes d’optimisation). Et des applications opérationnelles voient le jour, sans forcément être qualifiées d’« intelligence artificielle ».

Durant cette période, l’IA dite « symbolique » (car manipulant des connaissances sous formes de symboles et de propositions logiques) éclipse l’approche dite « connexionniste », celles des réseaux de neurones issue du Perceptron des années 1950. En effet, non seulement elle permettait d’obtenir des résultats impressionnants,

Tant que le problème de l’apprentissage non supervisé ne sera pas résolu, nous n’aurons pas de machine vraiment intelligente. C’est une question fondamentale scientifique et mathématique, pas une question de technologie. Résoudre ce problème pourra prendre de nombreuses années ou plusieurs décennies. En vérité, nous n’en savons rien. »

Lecun Y, « Qu’est-ce que l’intelligence artificielle ? », conférence au Collège de France, 2015. Sur college-de-france.fr

mais elle était également capable d’expliquer son raisonnement et de justifier ses conclusions là où les réseaux de neurones apparaissaient comme des sortes de boîtes noires4. Paradoxalement, ce sont les réseaux de neurones qui vont être à la base du renouveau de l’IA que l’on connaît aujourd’hui.

Les années 2000 : l’apprentissage profond et l’explosion de l’IA

L’IA semble maintenant omniprésente : dans nos téléphones portables, dans les assistants vocaux, dans les systèmes de reconnaissance d’images ou dans les systèmes d’aide à la conduite (et peut-être dans de futurs véhicules autonomes). Elle réussit à battre le champion du monde d’échec, et même celui du jeu de 4 En modélisation, une « boîte noire » est un système dont on ne considère pas le fonctionnement interne, qui est masqué ou inaccessible : à partir d’« entrées », l’utilisateur peut produire des « sorties » mais n’a pas accès aux mécanismes produisant ces dernières.

Science et pseudo-sciences n°332 - avril / juin 2020

17

© Fotomek| Istockphoto

Dossier • Intelligence artificielle

go, réputé bien plus complexe. La traduction automatique sur Internet est d’usage courant. Cette IA fait tantôt peur et tantôt rêver. Derrière ses performances que chacun peut constater et expérimenter se trouve une technologie particulière : celle de l’apprentissage profond (deep learning) à base de réseaux de neurones. Trois évolutions majeures ont permis cette véritable révolution technologique : des ordinateurs de plus en plus puissants, une quantité phénoménale de données disponibles (le « big data ») et la mise au point d’algorithmes d’apprentissage de plus en plus performants.

D’innombrables questions sont posées : quelle est la responsabilité de machines qui deviennent de plus en plus autonomes (incluant une éventuelle responsabilité juridique) ou encore quelle sera l’acceptabilité de systèmes qui prennent des décisions importantes nous concernant et qui, souvent, ne peuvent pas expliquer leurs choix ? Certains prédisent même une situation où la place de l’Homme serait menacée par des machines pouvant devenir hors de contrôle.

Mais la réalité n’est pas celle d’une prochaine prise du pouvoir par les machines. Malgré ses performances, l’apprentissage profond est loin de pouvoir résoudre tous les défis soulevés par la mise au point d’une intelligence artificielle. Certains des problèmes identifiés au tout début de l’histoire de l’IA restent entiers. C’est en particulier le cas des connaissances

18

Science et pseudo-sciences n°332 - avril / juin 2020

/

de sens commun qui font toujours cruellement défaut aux systèmes d’IA pour appréhender des situations pourtant simples pour un être humain. Il n’en reste pas moins important de mesurer les conséquences possibles d’une informatique de plus en plus puissante, au-delà du terme galvaudé d’intelligence artificielle. Mais il importe d’aborder ces questions sur la base de la réalité scientifique et l’histoire de l’IA nous rappelle qu’il faut rester prudent quant aux déclarations révolutionnaires qui accompagnent régulièrement le développement de la discipline.  //

Références

[1] Lebrère M, « L’artialisation des sons de la nature dans les sanctuaires à automates d’Alexandrie, du IIIe s. av. J.-C. au Ier s. apr. J.-C. », Pallas, Revue d’études antiques, 2015, 98:31-53. [2] Roux S, Introduction de l’ouvrage L’automate – Modèle Métaphore Machine Merveille, Presses universitaires de Bordeaux, 2013. [3] Poe EA, Le Joueur d’échecs de Maelzel, 1836 (traduction française de Charles Baudelaire). Sur bibebook.com [4] Turing A, “On Computable Numbers, with an Application to the Entscheidungsproblem”, Proceedings of the London Mathematical Society, 1937, s2-42:230-65. [5] McCarthy J et al., “A proposal for the Dartmouth summer research project on Artificial Intelligence”, 1955, 13 p. Voir AI Magazine, 2006, 27:12-4. [6] Turing A, “Computing Machinery and Intelligence”, Mind, 1950, 59:433-60. [7] Searle J, “Minds, brains, and programs. Behavioral and Brain”, Sciences, 1980, 3:417-24. [8] Simon HA, Newell A, “Heuristic problem solving: The next advance in operations research”, Operations Research, 1958, 6:1-10. [9] Simon HA, The shape of automation for Men and Management, Harper, 1965. [10] National Research Council, Language and Machines: Computers in Translation and Linguistics, The National Academies Press, 1966, doi.org/10.17226/9547. [11] Campbell NA et al., “Recognition of a Hidden Mineral Deposit by an Artificial Intelligence Program”, Science, 1982, 217:927-9. [12] Yu VL et al., “Antimicrobial selection by a computer. A blinded evaluation by infectious diseases experts”, JAMA, 1979, 242:1279-82.

/

Dossier • Intelligence artificielle

Avec l’apprentissage profond, l’intelligence artificielle va-t-elle dépasser l’Homme ? Jean-Paul Delahaye est professeur émérite à l’université de Lille et chercheur CNRS au Centre de recherche en informatique, signal et automatique de Lille.

D

epuis qu’AlphaGo, un programme informatique, a battu les meilleurs joueurs de go [1] en utilisant, entre autres techniques, un réseau de neurones formels doté d’un mécanisme d’apprentissage profond (deep learning), les médias se sont mis à rêver et à attribuer à cette technologie la capacité de régler tous les problèmes rencontrés jusque-là en intelligence artificielle (IA).

La presse, mais aussi certains acteurs du domaine imaginent que cette technique permettrait de créer (ou a déjà permis de créer ?) une véritable intelligence artificielle... dont il faudrait se méfier car elle pourrait considérer que l’espèce humaine est trop primitive et décider qu’il est inutile de la maintenir sur Terre. Ainsi, Elon Musk, fondateur de l’entreprise Tesla, déclarait : « Si je devais me prononcer sur ce qui représente la plus grande menace pour notre existence, je dirais probablement l’intelligence artificielle. Je suis de plus en plus enclin à penser qu’il devrait y avoir une régulation, à un niveau national ou international, simplement pour être sûr que nous ne sommes pas en train de faire quelque chose de stupide. Avec l’intelligence artificielle, nous invoquons un démon » [2].

Mais remettons quelques pendules à l’heure.

L’intelligence artificielle ne se réduit pas aux réseaux de neurones Les méthodes mettant en œuvre des réseaux de neurones ne sont pas, de très loin, les seules qui participent aux développements d’applications en intelligence artificielle.

Le programme AlphaGo n’est d’ailleurs pas seulement un réseau de neurones, il comporte aussi des règles du jeu programmées soigneusement et classiquement ainsi que des techniques d’affichage à l’écran, un puissant algorithme de recherche (exploration combinatoire)1, un mécanisme de supervision pour organiser l’apprentissage et une multitude d’ajustements pour paramétrer le dispositif, paramétrages qui n’étaient pas évidents avant qu’à force d’essais, on en découvre une bonne version [3,4]. Dans les travaux sur les véhicules autonomes – qui pour l’instant ne le sont pas suffisamment pour qu’on les laisse circuler sans mécanicien à bord prêt à chaque instant à reprendre la main –

1 L’ensemble des coups autorisés à partir d’une situation dans la partie est représenté sous la forme d’une arborescence gigantesque qu’un algorithme va exploiter pour identifier le coup à jouer qu’il estime le meilleur.

Science et pseudo-sciences n°332 - avril / juin 2020

19

Dossier • Intelligence artificielle

/

Des anticipations peu sérieuses ? Peter Diamandis est l’un des fondateurs de l’Université de la singularité [1], une organisation californienne d’inspiration transhumaniste. En 2018, il a interrogé diverses personnes qu’il présente comme pertinentes à propos de ce qui se passera dans les vingt prochaines années et a produit une synthèse des réponses [2]. Voici quelquesunes de ces anticipations (en sélectionnant certaines de celles qui se rapportent spécifiquement à l’intelligence artificielle – traduction par nos soins). Précisons qu’elles ne font pas l’unanimité des spécialistes du domaine. Mais elles illustrent le très grand optimiste de leurs auteurs.

2020 : Les diagnostics médicaux et les recommandations thérapeutiques basés sur l’IA sont utilisés dans la majorité des soins de santé aux États-Unis. 2022 : Les gens peuvent voyager légalement dans des voitures autonomes partout aux États-Unis. Tous les jouets pour enfants sont « intelligents », avec une fonction d’apprentissage automatique intégrée. Les robots sont monnaie courante dans la plupart des foyers à revenu intermédiaire. Ils sont capables de lire de manière fiable sur les lèvres et de reconnaître les mouvements du visage, de la bouche et des mains. 2024 : L’intelligence augmentée (à l’aide de programme d’IA) est considérée comme une exigence pour la plupart des emplois professionnels. 2026 : La réalité virtuelle est devenue omniprésente. Les parents se plaignent que leurs enfants sont constamment dans un autre univers. Les voyages commencent à décliner car la réalité virtuelle devient suffisamment

20

Science et pseudo-sciences n°332 - avril / juin 2020

bonne pour ressentir bon nombre des sensations d’un lieu sans souffrir des tracas du voyage. 2028 : Les robots ont de vraies relations avec les humains en accompagnement du vieillissement, pour l’hygiène personnelle et pour la préparation des aliments. Les robots sexuels deviennent populaires. 2030 : Une intelligence artificielle réussit le test de Turing.

2032 : La majorité des professionnels humains ont subi des modifications corticales, notamment l’implantation de coprocesseurs et de fonctions de communication Internet en temps réel. Les robots avatars deviennent populaires, permettant à chacun de « téléporter » sa conscience vers des endroits éloignés, partout dans le monde. La présence de robots sur les lieux de travail est courante. Ils prennent en charge tous les travaux manuels et les tâches répétitives (par exemple, réceptionnistes, guides touristiques, chauffeurs, pilotes, ouvriers du bâtiment). Des entreprises ont établi des connexions importantes et fiables entre le cortex humain et le Cloud. 2038 : La vie quotidienne est désormais méconnaissable – incroyablement bonne, avec une généralisation de la réalité virtuelle et de l’intelligence augmentée rendues disponibles partout dans le monde et pour toutes les facettes des activités humaines.

Références

[1] Site de l’Université de la singularité (Singularity University) : su.org [2] Diamandis P, “Countdown to the singularity” (Le compte à rebours de la singularité). Sur diamandis.com

/

Dossier • Intelligence artificielle

Les images de la colonne de gauche sont toutes correctement reconnues par le réseau de neurones. Des perturbations sont calculées et ajoutées (colonne du milieu) pour donner les images de la colonne de droite qui est alors reconnue par le système comme figurant des autruches… © Images extraites de Szegedy C et al., “Intriguing properties of neural networks, International Conference on Learning Representations”, prépublication arXiv, 2014, 1312.6199.

les réseaux de neurones ne représentent qu’une très faible partie des programmes utilisés [5], tout le reste consistant en de la modélisation 3D, du calcul de trajectoires pour anticiper les mouvements, et l’assemblage de systèmes plus ou moins classiques en robotique.

Bien des applications de l’IA n’utilisent pas ou très peu d’apprentissage profond, même si – parce que c’est la mode – on essaie de l’introduire un peu partout. Par exemple, en mathématiques, les assistants de preuves (devenus importants pour valider les démonstrations, certifier des circuits électroniques et prouver le bon fonctionnement des logiciels utilisés en aéronautique) ont été développés sans utiliser la méthode d’apprentissage profond, que l’on n’a introduite que récemment. Même sans ap-

prentissage profond, ces systèmes font un véritable travail intellectuel difficile : ils raisonnent et calculent mieux que les spécialistes qui les utilisent.

Même si, aujourd’hui, on tente de mettre de l’apprentissage profond et des réseaux de neurones formels un peu partout, c’est une erreur de considérer que l’IA commence avec cette technique, et une illusion de croire qu’elle remplacera toutes les autres méthodes.

L’apprentissage profond va-t-il dépasser l’Homme ?

Il n’est pas vrai qu’on réussit avec les méthodes d’apprentissage profond à égaler ou dépasser de nombreuses performances humaines. Pour qu’un programme à base de réseaux de neurones Science et pseudo-sciences n°332 - avril / juin 2020

21

Dossier • Intelligence artificielle reconnaisse un chat dans une nouvelle image, il aura fallu au préalable lui montrer un très grand nombre d’images de chats. Les humains apprennent à partir de bien moins d’exemples. De nombreuses faiblesses des réseaux de neurones ont été identifiées depuis longtemps [6] : impossibilité d’expliquer les résultats proposés, difficultés à manipuler des informations symboliques et plus encore à enchaîner des éléments de raisonnements (tous les hommes sont mortels, Socrate est un homme...).

Apprentissage profond facile à berner ?

© Devrimb | Istockphoto

Insistons sur l’un de ces défauts inquiétants : les systèmes fondés sur les techniques d’apprentissage profond peuvent se faire duper. Des chercheurs ont en effet mis au point des méthodes pour leur faire prendre certaines vessies pour des lanternes. Par exemple, en collant quelques papiers sur un panneau « stop », une équipe a réussi à faire croire au réseau de neurones chargé de lire des panneaux de circulation routière qu’il s’agissait d’un panneau de limitation de vitesse à 45 km/h. On pourra trouver en [7-10]

22

Science et pseudo-sciences n°332 - avril / juin 2020

/

des précisions sur ce genre de techniques trompant l’apprentissage profond. En résumé, les méthodes d’apprentissages peuvent traiter rapidement des millions de données – ce que nous ne sommes pas capables de faire –, mais les résultats obtenus restent limités à quelques domaines que l’on tente d’élargir, sans réussir nécessairement, et avec parfois de mauvaises surprises à cause d’une fiabilité décevante.

Risques réels et risques fantasmés L’IA fait courir des risques, mais aujourd’hui ce ne sont pas ceux d’une révolte contre l’espèce humaine. Le vrai danger se trouve dans les bugs qu’on ne pourra pas éliminer facilement des applications et dans la trop grande confiance qu’on risque d’accorder à des dispositifs d’IA. La voiture Uber qui a renversé et tué une passante en 2018 dans l’Arizona ne l’a pas fait parce qu’elle s’est révoltée, mais parce qu’elle était mal programmée et qu’on lui a fait trop confiance ; elle aurait confondu la passante avec un carton poussé par le vent [11,12].

/

Dossier • Intelligence artificielle

Le problème de la révolte des robots se posera peut-être un jour, mais ce n’est pas tout de suite et ce n’est pas certain car les robots avancés réellement intelligents, s’il en existe un jour, seront notre prolongement, en quelque sorte d’autres nous-mêmes. Et même s’ils devenaient aussi intelligents que nous, ou plus, les robots intelligents se retrouveraient embarqués dans nos conflits humains – c’est d’ailleurs déjà le cas –, et seraient associés à chaque camp plutôt que d’en constituer un nouveau, contre nous.

Avant que le problème se pose d’une guerre entre humains et IA, qu’au fond je crois absurde, beaucoup d’eau passera sous les ponts. L’IA avancera petit à petit et pas seulement grâce à l’apprentissage profond. À cause des imperfections que contiendront inévitablement les systèmes d’IA, elle sera la cause, comme n’importe quelle autre technologie, de pannes, d’accidents et de dysfonctionnements aux conséquences parfois mortelles, comme on l’observe dans de nombreux domaines (automobile, aviation, industrie chimique, etc.). Ce que nous devons craindre, ce n’est pas trop l’intelligence des systèmes IA qui nous regarderait de haut, mais une insuffisante évaluation des limites d’intelligences incomplètes, mal conçues, mises en marche sans précaution ou bêtement défaillantes comme nos voitures, nos avions, nos ordinateurs et tout ce qui est com-

plexe et dont la mise au point ne s’opère que lentement et péniblement.  // Jean-Paul Delahaye

Références

[1] AlphaGo, page Wikipedia. [2] Karayan R, « Intelligence artificielle : attention danger, même Bill Gates a peur ! », L’Express, 2 février 2015. Sur lexpansion.lexpress.fr [3] “Deep Mind, AlphaGo Zero: Starting from scratch”, 18 octobre 2017. Sur deepmind.com [4] Silver D et al., “Mastering the game of go without human knowledge”, Nature, 2017, 550:354-9. [5] Le Lann G, « Questions à propos des véhicules autonomes », enquête du Comets (comité d'éthique du CNRS), 2019. [6] Marcus G, “Deep Learning: A Critical Appraisal”, prépublication arXiv, 2018, 1801.00631. Sur arxiv.org [7] Heaven D, “Why deep-learning AIs are so easy to fool”, Nature, 2019, 574:163-6. [8] Delahaye JP, « Intelligences artificielles : un apprentissage pas si profond ! », Pour la science, mai 2018, 80-5. [9] Eykholt K et al., “Robust physical-world attacks on deep learning visual classification”, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018, 1625-34. [10] Soll M, “InformatiCup Competition 2019: Fooling Traffic Sign Recognition”, in: KI 2019: Advances in Artificial Intelligence, Springer, 2019, 325-32. [11] Reuters, “In review of fatal Arizona crash, U.S. agency says Uber software had flaws”, 2018. Sur reuters.com [12] Charnay A, « Pourquoi la voiture autonome d’Uber a tué un piéton », 01 Net, 2018. Sur 01net.com

Science et pseudo-sciences et l’épidémie de coronavirus La revue Science et pseudo-sciences est réalisée par une équipe de bénévoles adhérents de l’Afis. Elle s’attache à traiter des sujets de fond et prépare ses articles et dossiers longtemps à l’avance. Le numéro que vous avez entre les mains a été finalisé dans son contenu au mois de janvier 2020. Dans ces conditions, bien entendu, il ne nous a pas été possible d’aborder le sujet de la pandémie

de coronavirus Covid-19 et ses développements récents autrement que dans l’éditorial. Si les abonnés recevront bien leur exemplaire via les services postaux, la diffusion en points de vente (maisons de presse, kiosques, etc.) sera vraisemblablement perturbée. Le numéro est toutefois en vente dans la boutique en ligne sur notre site, tout comme les numéros précédents.

Science et pseudo-sciences n°332 - avril / juin 2020

23

Dossier • Intelligence artificielle

/

Réseaux de neurones et apprentissage profond : les concepts

© Andrii Shyp | Istockphoto

Jean-Paul Krivine

L

’intelligence artificielle (IA) est une discipline qui a fréquemment recours à des termes évocateurs et anthropomorphiques pour les concepts qu’elle manipule, mais son objet reste difficile à définir simplement. Sa dénomination elle-même, en utilisant le mot « intelligence », a focalisé une partie des controverses sur la comparaison avec les capacités humaines et, au-delà, sur la place même de l’Homme face à la machine. Pourtant, une bonne partie des questions soulevées (responsabilité juridique, explication des comportements, éthique dans les utilisations) se posent déjà à propos de nombreux systèmes informatiques fondés sur des algorithmes qui, pourtant, ne comportent aucun composant relevant des techniques de l’IA (en témoignent les controverses suscitées par le logiciel ParcoursSup pour décider de l’affectation des nouveaux bacheliers, celles liées

24

Science et pseudo-sciences n°332 - avril / juin 2020

à l’usage de machines de vote électroniques [1] ou encore, les controverses lors d’accidents d’avion pour déterminer la part de responsabilité de l’Homme et des automatismes).

Les techniques d’apprentissages à la base du renouveau actuel de la discipline ne sont pas en reste, avec en particulier le terme de « réseaux de neurones » renvoyant directement à l’image du cerveau humain. Pourtant, les neurones artificiels dont il est question n’ont qu’une analogie bien lointaine avec les cellules du cerveau humain (même si ces dernières ont servi d’inspiration aux modèles mathématiques utilisés). Et l’organisation même de notre cerveau est d’une complexité bien supérieure à celle des réseaux de neurones modélisés dans les ordinateurs ; il est donc sans valeur de comparer les deux à l’aune du nombre de « neurones ».

/

Dossier • Intelligence artificielle

Les réseaux de neurones artificiels

Le composant de base des réseaux de neurones utilisés en IA peut être schématisé comme une entité disposant de plusieurs entrées pouvant prendre des valeurs discrètes (par exemple binaires : 0 ou 1) et d’une sortie, elle aussi discrète. Une fonction mathématique va déterminer la sortie en fonction des valeurs d’entrée. Le « poids synaptique » (encore un terme anthropomorphique) associé à chacune des entrées permet d’en pondérer l’importance. Ces entrées pondérées sont ensuite additionnées pour déterminer la valeur de sortie.

Un réseau de neurones artificiel est une association d’un certain nombre de ces « neurones formels ». Le réseau est généralement organisé en couches successives où les sorties d’une couche constituent les entrées d’une autre. Les entrées du premier niveau modélisent le problème que l’on veut résoudre (par exemple, en associant chaque pixel d’une image dont on veut reconnaître le contenu à une entrée) et les sorties du dernier niveau représentent la réponse attendue (par exemple 1 pour dire que le système a reconnu un chat et 0 pour dire qu’il n’en a pas reconnu). Entre les deux, les valeurs calculées sont transmises d’une couche à la suivante. Les couches intermédiaires construisent ainsi une fonction mathématique qui doit représen-

ter le système de reconnaissance. La fonction mathématique implémentée par ces couches successives doit résoudre le problème posé (par exemple, reconnaître la présence d’un chat sur une photo codée par ses pixels). Toute la difficulté consiste à trouver les bons paramètres (poids synaptique et autres paramètres) de chacun des neurones afin d’obtenir les sorties désirées avec un minimum d’erreurs. C’est ce qu’on appelle la phase d’apprentissage. Un opérateur humain voulant régler manuellement chacun de ces paramètres (il y en a plusieurs milliers) n’aurait aucune chance de réussir cette tâche, car nulle part dans le système n’est codé explicitement ce qui caractérise un chat (moustaches, oreilles pointues, etc.). Il est donc impossible de raisonner directement sur les paramètres du réseau (ni, d’ailleurs, a posteriori, d’utiliser ces éléments pour expliquer la décision). Ce sont des algorithmes d’optimisation fondés sur des mathématiques sophistiquées qui permettent de faire varier progressivement les paramètres du réseau afin d’approcher le plus possible du résultat voulu (par exemple, la méthode dite d’apprentissage supervisée consiste à observer les erreurs de diagnostics sur des jeux d’essais labellisés, c’est-à-dire des images où l’on aura préalablement indiqué celles comportant un chat et celles n’en comportant aucun, et à remonter cette information dans le réglage du réseau).

Science et pseudo-sciences n°332 - avril / juin 2020

25

Dossier • Intelligence artificielle « Deep learning » et « big data » Cette approche est appelée « connexionniste » car elle est fondée sur le paramétrage d’un réseau connecté. Elle date de la fin des années 1950 dans son principe [2] mais a connu une véritable envolée dans les années 2000 grâce notamment aux capacités de calcul atteintes par les ordinateurs et à la mise à disposition d’un très grand volume de données (big data). Les réseaux de neurones ont alors pu embarquer des couches intermédiaires (« couches cachées ») en très grand nombre (jusqu’à une vingtaine, d’où le terme de deep learning, ou apprentissage profond). En lien avec la mise au point d’algorithmes d’apprentissage plus performants, des résultats vraiment impressionnants ont été obtenus dans de nombreux domaines.

Ainsi, par exemple, la reconnaissance d’images par apprentissage profond permet non seulement de reconnaître (avec cependant des erreurs) des visages au sein d’une foule en mouvement [3], mais aussi d’identifier des objets présents ou de lire des émotions sur les visages (peur, joie, mépris, tristesse, dégoût, surprise…) [4]. Des systèmes savent lire sur les lèvres d’une personne de façon bien plus efficace que le font les êtres humains [5]. D’autres se révèlent meilleurs que les êtres humains pour l’interprétation de clichés d’imagerie médicale [6]. Des systèmes sont capables de coloriser des images en noir en blanc avec des couleurs extrême-

ment réalistes [7], de composer de la musique en s’inspirant d’un style donné [8], de peindre  des tableaux à partir d’un simple croquis [9]… La traduction automatique (par exemple, celle mise en œuvre sur la plupart des moteurs de recherche) s’appuie sur ces techniques d’apprentissage profond. Des intelligences artificielles arrivent à rédiger des articles de journaux sur la base de dépêches d'agence [10]. Dans les entreprises, partout où de grandes quantité de données sont disponibles, des applications voient le jour dans le domaine de la conception ou du diagnostic, par exemple. Sans oublier, bien entendu, les intelligences artificielles qui battent les champions du monde de certains jeux réputés complexes (jeu de go, jeu d'échecs).

Les risques d’un apprentissage biaisé

Pour autant, le « deep learning » reste tributaire de son apprentissage, et donc des données sur lesquelles il a pu s’entraîner. Celles-ci peuvent être partielles, biaisées, voir mal étiquetées, avec des conséquences parfois très préjudiciables.

En 2015, la société Amazon a dû écarter son « robot recruteur » qui favorisait systématiquement les candidatures masculines pour les postes techniques. Ce biais était dû au fait que l’intelligence artificielle avait été entraînée sur la base de données de profils des personnes déjà en place à des postes similaires au sein de l’entreprise, en grande majorité des hommes. Après avoir essayé de corriger ce problème, Amazon a finalement abandonné le projet, faute de pouvoir s’assurer que la sélection des candidats ne comporterait pas d’autres biais [11].

En 2016, c’est Microsoft qui a dû arrêter son expérience d’un robot conversationnel. Tay, de son nom, se présentait comme une adolescente fan de musique et de Pokémon et adoptant la manière de parler de cet âge-là. Elle était supposée apprendre et enrichir ses interactions au travers d’échanges avec des internautes. Elle était en particulier capable de dialoguer via son compte Twitter. Mais après seulement quelques heures, Tay commença à twitter de nombreux messages injurieux ou offensants, obligeant rapidement Microsoft à interrompre son expérience. L’analyse a posteriori a montré qu’un

© Jackie Niam | Istockphoto

26

/

Science et pseudo-sciences n°332 - avril / juin 2020

/

Dossier • Intelligence artificielle

© Peiyun Hu, Deva Ramanan, Robotics Institute, Carnegie Mellon University

identifier dans une foule des délinquants présumés, par exemple en analysant les vidéos des personnes débarquant d’un avion dans un aéroport [14].

Ces remarques n’enlèvent rien à la puissance sans cesse croissante des algorithmes d’apprentissage, mais elles illustrent quelques limites actuelles, dont certaines sont dues à des problèmes scientifiques de fond qui sont loin d’être résolus. En particulier, ces algorithmes sont très dépendants de la qualité des données utilisées lors de la phase d’apprentissage ainsi que de la qualité de l’étiquetage associé.  // Références

[1] Enguehard C, « Le vote électronique est-il transparent, sûr, fiable ? », SPS n° 320, avril 2017. Sur afis.org [2] Rosenblatt F, “The perceptron: a probabilistic model for information storage and organization in the brain”, Psychological

groupe d’utilisateurs du réseau social avait appelé à inonder le compte de Tay de messages à caractère raciste, antisémite ou misogyne. Tay n’a finalement fait que s’adapter à sa «  base d’apprentissage » et a reproduit le comportement qu’elle observait [12].

Les IA derrière les logiciels de reconnaissance faciale sont aussi sur la sellette. Ces systèmes sont très performants et s’avèrent capables de reconnaître sur des vidéos, quasiment en temps réel, les visages des personnes composant une foule ou d’un groupe de personnes. En 2019, la Chine a rendu obligatoire la reconnaissance faciale pour tout achat d’une carte SIM (l’obtention d’une ligne téléphonique nécessite le passage devant une caméra qui enregistre les données qui seront utilisées par la reconnaissance faciale). Aux États-Unis, en 2016, la moitié des adultes seraient déjà enregistrés dans des bases de données dédiées [13]. Pourtant, la reconnaissance faciale est loin d’être complètement au point. Les erreurs d’identification sont encore nombreuses. En particulier, aux ÉtatsUnis, comme l’apprentissage s’est fait principalement sur des personnes de couleur blanche, les erreurs sont bien plus fréquentes quand il s’agit de reconnaître des individus afro-américains ou d’origine asiatique, avec les risques associés quand on utilise ces programmes pour

Review, 1958, 65:386-408. [3] Biget S, « Reconnaissance faciale : 1 seconde pour repérer

 

un visage parmi 36 millions », Futura Science, 11 mai 2012. [4] Noroozi F et al., “Survey on Emotional Body Gesture Recognition”, IEEE Transactions on Affective Computing, 16 octobre 2018. [5] Zaffagni M, « L’IA de Google DeepMind lit sur les lèvres mieux qu’un humain », Futura Science, 25 novembre 2016. [6] Haenssle HA et al., “Reader study level-I and level-II Groups, Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists”, Ann Oncol, 2018, 29:1836-42. [7] Auclert F, « Cette app met en couleurs vos vieilles photos en

 

noir et blanc », Futura Science, 9 avril 2019. [8] Zema A, « Une intelligence artificielle compose une œuvre

 

musicale à partir d’une partition inachevée de Dvořák », Le Figaro Tech & Web, 18 juin 2019. [9] Boudet A, « Vincent, l’IA qui transforme les croquis en œuvres

 

de Van Gogh ou de Picasso », Numerama, 1er octobre 2017. [10] Lesage N, « Robot journaliste : en un an, une IA créée

 

par le Washington Post a publié 850 articles », Numerama, 15 septembre 2017. [11] “Amazon ditched AI recruiting tool that favored men for technical jobs”, The Guardian, 11 octobre 2018. [12] “In 2016, Microsoft’s Racist Chatbot Revealed the Dangers of Online Conversation”, IEEE Spectrum, 25 novembre 2019. [13] “Half of US adults are recorded in police facial recognition databases, study says”, The Guardian, 18 octobre 2016. [14] “Many Facial-Recognition Systems Are Biased, Says U.S. Study”, The New York Times, 19 décembre 2019.

Science et pseudo-sciences n°332 - avril / juin 2020

27

Dossier • Intelligence artificielle

/

L’intelligence artificielle et le véhicule autonome Jean-Marc David est docteur en intelligence artificielle, responsable du domaine d'expertise stratégique sur l'intelligence artificielle pour le groupe Renault.

© oonal | Istockphoto.com

L

e véhicule autonome, libérant des contraintes inhérentes à la conduite, est ancré dans notre imaginaire comme l’étape ultime de l’évolution de l’automobile – en attendant les voitures volantes… Ce qui rend le véhicule autonome aujourd’hui désirable du point de vue sociétal, ce sont d’abord des considérations de sécurité routière. Puisque qu’on estime que 95 % des accidents de la route sont liés à une erreur humaine, on peut attendre de la technologie une contribution significative à la réduction du nombre d’accidents. Mais dans un contexte d’augmentation continue du trafic, d’urbanisation croissante et de temps toujours plus contraint, le véhicule autonome est également perçu comme un moyen de réduire le stress du conducteur et des passagers dans

certaines situations de conduite, dans les bouchons par exemple, et de lui libérer du temps.

Le développement du véhicule autonome est une des meilleures illustrations des progrès spectaculaires de l’intelligence artificielle (IA) au long des dix dernières années. La plupart des constructeurs, ainsi que des entreprises issues du monde du numérique comme Waymo (créée par Google) ou Uber, conduisent actuellement des expérimentations à plus ou moins grande échelle de ce qui pourrait être une composante de la mobilité de demain. Cet article propose d’examiner comment l’IA est utilisée dans ces véhicules autonomes, et présente quelques-uns des défis auxquels nous nous trouvons confrontés.

Une double difficulté : système autonome et système critique

En comparaison avec d’autres applications de l’IA, la mise au point de véhicules autonomes présente une double difficulté :

• L’objectif est de développer un système autonome, c’est-à-dire capable de prendre des décisions seul, quelle que soit la situation. Ceci contraste avec les applications d’aide à la décision dans les domaines médicaux, industriels, etc., où l’IA est en support d’un utilisateur en charge de prendre la déci-

28

Science et pseudo-sciences n°332 - avril / juin 2020

/

Dossier • Intelligence artificielle

sion finale. Dans le contexte automobile, c’est une rupture majeure par rapport aux systèmes d’aide à la conduite existants (comme le freinage ABS, les régulateurs de vitesse, la détection de piétons ou l’aide au maintien dans la file de circulation), où le conducteur reste décideur, et au final responsable de sa décision.

• Le domaine considéré, celui de la mobilité, est un domaine critique, au sens où une mauvaise décision peut avoir des conséquences dramatiques. De nombreux systèmes d’IA peuvent se prévaloir d’être autonomes, mais dans le cas du jeu de go par exemple, les conséquences d’une mauvaise décision sont mineures. Il en va tout autrement d’un véhicule autonome.

Cette double difficulté, système autonome et système critique, impose un très haut niveau de performance (au sens de prendre les bonnes décisions, y compris dans les situations les plus complexes), mais aussi de pouvoir démontrer la robustesse et la sécurité du système.

La place de l’IA dans les véhicules autonomes

Avant de passer en revue les difficultés auxquelles l’IA est confrontée quand il s’agit de mettre au point un véhicule autonome, exposons brièvement comment elle y est utilisée.

L’apprentissage profond (deep learning) a révolutionné les tâches de perception automatique et, dans notre cas, la capacité à identifier des panneaux routiers, des piétons, des cyclistes ou d’autres véhicules. Des caméras embarquant cette technologie sont déjà largement utilisées dans les véhicules actuellement commercialisés, que ce soit pour détecter les limitations de vitesse ou pour déclencher un freinage d’urgence (AEB1 piétons par exemple).

Mais les besoins de perception du véhicule autonome vont bien au-delà de la nécessité d’éviter un choc piéton. Il va donc être nécessaire d’utiliser différents types de capteurs (lidar – télédétection par laser –, radars…) en complément de caméras pour tirer le meilleur des capacités de chacun. L’IA va alors être une des techniques

1 Advanced Emergency Braking, ou « freinage automatique d'urgence ».

utilisées pour analyser les informations fournies par un capteur, fusionner ces différentes informations dans une représentation cohérente de l’environnement, piloter l’évolution de cette représentation dans le temps (tracking) permettant ainsi de pallier des phénomènes d’occultation où un objet est momentanément masqué par un autre, mais sans avoir pour autant disparu. Sur la base ce cette représentation de la situation, le véhicule autonome va alors décider de la manœuvre à réaliser : accélérer, changer de file, laisser passer un autre véhicule, etc. L’IA intervient à nouveau dans cette étape, mais le caractère sensible de la décision fait qu’elle n’est jamais utilisée seule, mais sous le contrôle d’autres techniques plus classiques permettant de rendre plus prévisible le comportement du système.

Si l’IA contribue massivement aux tâches de perception et de prise de décision, elle est également utilisée dans d’autres fonctions intelligentes embarquées. Par exemple, dans le cas d’un véhicule partiellement autonome, c’est-à-dire capable de proposer une conduite déléguée dans certaines situations seulement (autoroutes, bouchons…), l’IA sera également mobilisée lors de la phase de reprise en main pour s’assurer que le conducteur est effectivement en situation de reprendre le contrôle du véhicule.

Enfin, l’IA est largement présente pour la mise au point et la validation du véhicule autonome. La complexité d’un véhicule autonome fait qu’une validation sur route nécessiterait des millions, sinon des milliards, de kilomètres de roulage… ce qui est absolument impensable. Le recours à la simulation numérique s’impose donc, et des environnements de simulation et de validation ont été développés par tous les constructeurs : à partir de bibliothèques de scénarios, des situations sont simulées en intégrant le véhicule autonome, puis analysées pour détecter les problèmes éventuels. Parmi les différentes utilisations de l’IA, citons-en deux : le développement de modèles de comportement des différents acteurs permettant de rendre l’environnement du véhicule testé aussi réaliste que possible (d’un point de vue théorique, ce n’est pas complèteScience et pseudo-sciences n°332 - avril / juin 2020

29

© metamorworks | Istockphoto.com

Dossier • Intelligence artificielle

ment possible : cela supposerait d’avoir résolu le problème du véhicule autonome pour pouvoir le modéliser…) ; l’analyse des quantités gigantesques de données produites par ces simulations ou par des roulages physiques, pour compléter la base de scénarios ou aider à détecter et analyser automatiquement les situations incorrectes.

Les principaux défis à relever

Les expérimentations en cours et la médiatisation du sujet pourraient laisser penser que le problème de la mise au point du véhicule autonome dans sa généralité est en passe d’être résolu. Mais c’est loin d’être le cas. Les quelques problématiques décrites ci-dessous illustrent les difficultés auxquelles la recherche et les développements se trouvent actuellement confrontés.

« Comprendre » une situation pour anticiper

Le fait d’identifier des objets ou les acteurs d’une situation de conduite ne signifie pas que le système a « compris » cette situation et qu’il est donc en mesure de prévoir les évolutions possibles, et ainsi de les anticiper. Or l’anticipation est une des conditions de la sécurité sur la route. Par exemple, reconnaître un piéton sur le bord de la route et identifier (de visu ou sur une carte) un passage protégé à côté du piéton n’informent en rien sur l’éventuelle intention du piéton de traverser. Pour le système de conduite autonome, ce sont deux objets différents qui se trouvent juste être localisés l’un à côté de l’autre.

30

Science et pseudo-sciences n°332 - avril / juin 2020

/

Bien évidemment, de telles situations peuvent être apprises – et le sont – par le système comme autant de situations spécifiques. Mais on touche probablement aux limites de l’apprentissage à partir d’exemples, tel qu'il existe aujourd'hui. L’apprentissage profond est très performant pour reconnaître ce qu’il a appris ; il ne permet pas (encore) de donner du sens à ce qu’il a appris.

La très grande variabilité des situations à prendre en compte

Il est d’usage d’expliquer qu’il existe des situations de conduite plus complexes que d’autres : la traversée de la place de l’Étoile à Paris est une véritable épreuve pour un nouveau conducteur, et la traversée de Bombay un défi pour un conducteur européen… Mais même dans des situations plus habituelles, les conducteurs sont tous les jours confrontés à des situations d’une très grande diversité. Des exemples de ces situations les plus bizarres se retrouvent sur Internet, et notre connaissance générale du monde nous permet de les gérer tout à fait correctement : piétons se rendant à une fête costumés en poussins géants, passager d’un scooter revenant d’un magasin de bricolage chargé de planches et de tuyaux, autobus arborant une publicité avec une route en trompe-l’œil, etc.

Chacune de ces situations atypiques est susceptible d’être mal interprétée par un système d’IA. Aucune ne pose de problème de principe, et chacune pourra donc être prise en compte et apprise de façon spécifique. Mais leur nombre quasi infini fait qu’en l’absence d’une connaissance générale du monde (c’est-à-dire savoir, indépendamment de conduire, ce qu’est une fête costumée, du matériel de bricolage, etc.), il est très difficile d’envisager de les traiter toutes. Une solution pragmatique consiste à définir des contextes spécifiques d’application (ODD – Operational Design Domains) permettant de

/

Dossier • Intelligence artificielle

faire des hypothèses simplificatrices sur les situations à prendre en compte : par exemple la conduite sur autoroute.

Le besoin de robustesse et de validation

La démarche utilisée pour construire ces systèmes d’IA, par apprentissage à partir d’exemples et non pas à partir de spécifications, pose un autre problème : comment garantir que le modèle ainsi appris va permettre de traiter correctement des situations jamais rencontrées dans les phases d’apprentissage ? Le problème n’est pas seulement lié à la très grande diversité des situations, mais également à la robustesse du modèle, c’est-à-dire au fait qu’une très légère variation par rapport à une situation apprise ne doit pas engendrer de changements brutaux de comportement. Des travaux récents, très sophistiqués, ont montré qu’il était possible de construire un système d’IA qui apprenait à tromper un autre système d’IA, pourtant considéré comme particulièrement efficace, en construisant des exemples dits « adverses » (GAN – Generative Adversial Networks). Concrètement, un simple autocollant judicieusement positionné sur un panneau de signalisation peut mettre en erreur le système de reconnaissance... Ces travaux montrent qu’une nouvelle forme de malveillance est possible ; ils montrent surtout que la qualification d’un système d’IA, c’està-dire la capacité à le valider voire le certifier, reste un problème ouvert.

Parmi les quatre instituts interdisciplinaires d’IA lancés par le gouvernement français en 2019 dans le cadre de la « stratégie nationale de recherche en intelligence artificielle » [1], celui de Toulouse (Aniti) [2] a mis en axe prioritaire la certificabilité de l’IA embarquée dans des systèmes critiques. Des industriels impliqués dans les transports (Airbus, Thalès, Continental et Renault) font partie des fondateurs de cet institut de recherche. Et un des grands défis sur l’IA lancés par le SGPI (Secrétariat général pour l’investissement) en 2019 traite également du sujet de la « robustification » de l’IA dans les systèmes critiques.

Interaction et coopération

Nombre de situations de conduite quotidiennes nécessitent des interactions fines, voire relèvent de formes de coopération : piétons cherchant à s’assurer que le véhicule le laissera traverser sur un passage protégé, véhicule cédant sa priorité pour désengorger un carrefour, ou au contraire besoin de forcer le passage pour ne pas rester bloqué. Un exemple a priori simple comme l’insertion sur autoroute montre la complexité des stratégies mises en œuvre : évaluation de la situation par le véhicule cherchant à s’insérer (non prioritaire), mais aussi par le véhicule prioritaire pour anticiper les manœuvres possibles du véhicule entrant ; échange d’informations (sur l'intention de s’insérer, de laisser passer, de ne pas laisser passer), par exemple par l’usage du clignotant, une accélération ou un ralentissement marqués ; analyse de la réaction de l’autre véhicule et adaptation ; etc.

Ces situations d’interaction nécessitent des échanges d’informations variées, la compréhension des intentions des acteurs, la capacité à construire des scénarios possibles, et des stratégies de coopération ou de non-coopération. Ces sujets sont encore assez peu développés et il sera vraisemblablement nécessaire de standardiser ces formes d’interactions pour éviter de voir se développer des stratégies différentes (par exemple plus ou moins agressives selon les constructeurs), et surtout de faciliter l’appropriation et l’acceptabilité par l’ensemble des usagers.

S’assurer du caractère éthique des décisions prises

Dans certaines situations, le véhicule autonome pourrait être amené à devoir choisir entre des décisions ayant toutes des conséquences dramatiques. Cette problématique, connue sous le nom du « dilemme du tramway fou », a été largement médiatisée. Des études (voir en particulier le projet The Moral Machine [3]) ont montré l’extrême variabilité des sensibilités à ces questions en fonction des pays et des cultures. Les réponses à ces questions délicates ne peuvent être du ressort de constructeurs automobiles mais doivent s’appuyer sur des réflexions et des législations nationales et internationales. Science et pseudo-sciences n°332 - avril / juin 2020

31

Dossier • Intelligence artificielle

/

Une dernière difficulté demeure, et non des moindres. Comme on l’a vu, mettre au point un véhicule autonome fiable est un problème difficile du point de vue technologique, qui nécessite des coûts de développement et de mise au point très importants, sans oublier le coût des équipements embarqués (capteurs, puissance de calcul…). Encore faut-il que la valeur proposée aux clients soit à la mesure du surcoût engendré. Or, plus les domaines d’utilisation vont être restreints (pour permettre d’atteindre les niveaux de robustesse et de sécurité visés), plus il va être difficile de générer de la valeur. L’équation paraît aujourd’hui difficile à résoudre pour des véhicules particuliers, et certains constructeurs ont d’ailleurs publiquement annoncé ne plus viser ce marché.

Aujourd’hui, la stratégie de la plupart des industriels est de considérer que le déploiement du véhicule autonome passera par des flottes de robots-taxis totalement autonomes, offrant un service de mobilité sur un territoire donné. Cette approche s’inscrit dans la tendance actuelle de la mobilité partagée et d’une bascule de la propriété vers l’usage. Les conséquences sont importantes : • l’utilisation intensive de ces robot-taxis fait que dans ce cas le modèle économique est totalement différent et permet d’amortir plus facilement la technologie nécessaire ;

• parce que le service de mobilité est localisé sur un territoire spécifique, il devient possible d’aménager ce territoire pour faciliter l’introduction de véhicules autonomes : voies partiellement réservées, carrefours aménagés avec une intelligence débarquée collaborant avec les véhicules autonomes, etc. En s’autorisant plus de technologie d’une part, et en jouant sur le territoire pour simplifier le problème d’autre part, le développement de robots-taxis paraît ouvrir la voie à l’introduction de véhicules complètement autonomes. On attend également de ce premier déploiement qu’il

32

Science et pseudo-sciences n°332 - avril / juin 2020

© JariJ | Istockphoto.com

En guise de conclusion

engendre une baisse significative des coûts, permettant d’envisager dans un deuxième temps le déploiement sur des véhicules particuliers.

Il reste qu’offrir un service de mobilité en opérant des flottes de robots-taxis est un nouveau métier pour les constructeurs automobiles ; c’est la raison des acquisitions et des expérimentations en cours qui vise à les doter de ces nouvelles compétences.

En conclusion, le développement du véhicule autonome est probablement un des défis les plus ambitieux auquel l’IA ait jamais été confrontée dans le cadre d’une application industrielle. La prise de conscience, récente, des difficultés à surmonter a amené nombres d’acteurs à revoir les prévisions faites voilà quelques années. Et si le développement de flottes de robots-taxis, sur des territoires spécifiques, laisse entrevoir la voie d’un déploiement progressif, l’histoire du véhicule autonome reste pour une large part à écrire.  // Jean-Marc David

Références

[1] La stratégie nationale de recherche en intelligence artificielle. Sur enseignementsup-recherche.gouv.fr [2] Aniti, l’Institut interdisciplinaire d’intelligence artificielle de Toulouse. Sur aniti.univ-toulouse.fr [3] Le site du projet « The moral Machine » : moralmachine.mit. edu

/

Dossier • Intelligence artificielle

Le mythe de la Singularité technologique Jean-Gabriel Ganascia est professeur à la Faculté des sciences de Sorbonne Université. Depuis 1988, il dirige l’équipe Acasa (Agents cognitifs et apprentissage symbolique automatique) du laboratoire d’informatique LIP6. Il est également, depuis le 1er septembre 2016, président du Comité d’éthique du CNRS. Jean-Gabriel Ganascia est l’auteur de plusieurs livres grand public dont L’Intelligence artificielle (éditions Le Cavalier bleu, collection Idées reçues, 2015) et Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? (Le Seuil, 2017). Le lecteur intéressé trouvera dans ce dernier ouvrage un développement des idées exposées dans cet article.

S

ignée par quatre scientifiques éminents, Stephen Hawking, astrophysicien renommé, Stuart Russell, informaticien, professeur à l’université de Californie à Berkeley et auteur d’un manuel sur l’intelligence artificielle qui fait autorité, Max Tegmark, physicien et professeur au MIT et Frank Wilczek, physicien, professeur au MIT et Prix Nobel de physique, une tribune alarmiste a paru le 1er mai 2014 dans le journal The Independent [1] pour nous alerter sur des dangers que l’intelligence artificielle ferait courir à l’humanité. Selon ces quatre personnalités, nous atteindrions très bientôt un point de non-retour au-delà duquel nous irions inéluctablement à notre perte sans plus jamais pouvoir revenir en arrière. Aujourd’hui, il serait encore temps ; demain, plus rien ne sera possible ! Cet appel à la vigilance fut suivi de beaucoup d’autres lancés par les mêmes, par exemple par Stephen Hawking à la BBC ou par Stuart Russel qui a parrainé en 2015 deux lettres ouvertes publiées sur le site de l’Institut du futur de la vie, l’une sur les dangers de l’intelligence artificielle [2], l’autre sur les méfaits potentiels des armes autonomes [3], ou par d’autres, qu’il s’agisse de philosophes, comme Nick Bostrom [4], ou d’hommes d’affaires très en vue comme Elon Musk et Bill Gates. Partout dans le monde, ces personnalités font des émules. En France, c’est le cas de Laurent Alexandre, médecin et homme

d’affaire très médiatique [5,6] et d’un philosophe qui s’est spécialisé dans le transhumanisme, Jean-Michel Besnier [7]. En l’occurrence, ce dernier se demandait dans une émission de radio [8] si l’Homme était encore maître de l’intelligence artificielle. À l’appui de sa thèse, il mentionnait « le pilotage assisté des avions » et les « robots traders » à la Bourse qui, les uns et les autres, auraient « dessaisi [l’Homme] du pouvoir d’intervenir ».

Basculement vers la transhumanité

Ces déclarations publiques annoncent toutes un événement majeur et inquiétant consécutif à l’utilisation massive des technologies de l’information. Elles font frémir lorsqu’elles en décrivent les conséquences dramatiques pour l’humanité, l’imminence et l’inéluctabilité. Ces trois points relèvent de scénarios catastrophes venant tout droit de la science-fiction, par exemple des romans de Vernor Vinge publiés dans les années quatre-vingt et de son essai intitulé The coming technological singularity (« La singularité technologique à venir ») paru en 1993 [9]. Tentons ici d’en analyser la vraisemblance.

Conséquences pour l’humanité

Commençons par les supposées conséquences dramatiques pour l’humanité dans son enScience et pseudo-sciences n°332 - avril / juin 2020

33

/

© gremlin | Istockphoto

Dossier • Intelligence artificielle

semble. Aux dires de Stephen Hawking et d’Elon Musk, le déploiement des technologies d’intelligence artificielle sur des ordinateurs hyperpuissants constitue « notre plus grande menace existentielle » [10], car les humains ne pourront plus rivaliser avec des machines devenues plus intelligentes qu’eux. Ces machines ultra-intelligentes entreront en rébellion contre nous, prendront le pouvoir et nous réduiront en esclavage. Cela signifie que les robots que nous fabriquerons auront des désirs, des aspirations, des besoins distincts des nôtres et de ceux que nous leur avons insufflés, autrement dit qu’ils se constitueront en sujets autonomes agissant pour eux-mêmes et doués d’une volonté propre. Beaucoup s’inquiètent, avec cette fin de la prééminence de l’être humain dans la nature, d’une évolution négative ; quelques autres perçoivent les choses différemment : ils y voient une perspective salutaire. Ainsi pour Ray Kurzweil (directeur de l’ingénierie chez Google) et pour les tenants de « l’intelligence artificielle amicale » (friendly AI, terme introduit en 2008 [11]) il y aurait là un espoir inouï car, loin de conduire à la fin de sa prééminence, cette catastrophe offrira à l’humanité une opportunité inédite de mutation grâce à laquelle, par couplage à des ordinateurs, les femmes et les hommes deviendront des surhommes, voire de pures consciences qui, dégagées de leur gangue biologique, c’est-à-dire de

34

Science et pseudo-sciences n°332 - avril / juin 2020

leur corps, continueront de vivre une existence toute spirituelle sur les réseaux.

Inéluctabilité et imminence

Le deuxième point porte sur l’inéluctabilité de cet événement catastrophique, ce qui suppose, implicitement, que les technologies se déploient de façon autonome, indépendamment de nous, et qu’en conséquence nous ne pouvons plus rien à cette évolution qui se produit par-devers nous. Cela signifie que les hommes ne seraient plus libres, puisqu’ils n’auraient plus prise sur leur destin, quoi qu’il advienne.

Cette inéluctabilité se conjugue avec l’imminence qui découlerait, selon certains auteurs comme Raymond Kurzweil [12], d’un calcul mathématique issu de l’extrapolation de la loi de Moore. Rappelons que cette loi, émise en 1964, par Gordon Moore, le fondateur de la société Intel, est une loi d’observation qui montre que, depuis 1959, les performances des processeurs doublent tous les deux ans ou tous les dix-huit mois selon les formulations, ce qui correspond à un rythme d’évolution exponentiel. Si cette loi se prolongeait indéfiniment, nous atteindrions, avec le temps, une puissance sans limite des ordinateurs, ce qui paraît contraire tout à la fois à l’intuition et aux lois de la physique. C’est pourtant sur l’extrapolation de cette loi d’observation que certains se fondent pour affirmer que les ordinateurs nous dépasseront très bientôt.

/

Dossier • Intelligence artificielle

Ainsi, Ray Kurzweil affirme que ce sera pour 2045 [13]. Le caractère exponentiel de cette loi laisse présager, à partir d’un certain point, l’existence d’un changement brusque au-delà duquel rien ne serait plus comme avant. C’est ce que Ray Kurzweil nomme la « Singularité technologique », avec un « S » majuscule pour signifier son unicité et son exceptionnalité. Or, cette inflexion majeure découle d’une observation considérée comme une loi certaine et immuable et dont nous connaîtrions l’équation.

Une citation de Ray Kurzweil résume parfaitement cela : «  Une analyse de l’histoire des technologies montre que le changement technologique est exponentiel, contrairement à la vision “linéaire intuitive” de bon sens. Ainsi, au rythme actuel, ce ne sont pas cent ans de progrès que nous connaîtrons au XXIe siècle, mais plutôt 20  000 ans. Les “retours” sur des éléments tels que la vitesse des processeurs ou leurs coûts de fabrication augmentent également de manière exponentielle. Il y a même une croissance exponentielle du taux de croissance exponentiel. D’ici quelques décennies, l’intelligence des machines dépassera l’intelligence humaine, ce qui conduira à La Singularité – un changement technologique si rapide et si profond qu’il représente une rupture dans la trame de l’histoire humaine. Il s’ensuivra la fusion de l’intelligence biologique et non biologique, l’immortalité humaine réalisée sur des logiciels et l’accès à des niveaux d’intelligence ultra-élevés qui se déploieront vers l’extérieur de l’univers à la vitesse de la lumière » [14].

déléguer nos responsabilités. Dès lors, c’en sera fini de notre liberté ! J’appellerai ce dernier argument « Harari », du nom de Yuval Noah Harari, un auteur israélien qui a exposé cette thèse dans un livre à très grand succès intitulé Homo Deus [15].

Réfutations

L’intelligence artificielle étant une science, et étant moi-même un scientifique chercheur travaillant dans ce domaine depuis de nombreuses années, il m’est apparu important d’analyser ces arguments à la lumière de la réalité scientifique contemporaine de cette discipline.

La scientificité de l’intelligence artificielle

Commençons d’abord par rappeler que l’intelligence artificielle est officiellement née en 1956, au Dartmouth College, dans la ville d’Hanover aux États-Unis, lors d’une école d’été organisée par quatre chercheurs, John McCarthy, Marvin Minsky, Nathanael Rochester et Claude Shannon, qui souhaitaient créer une nouvelle discipline scientifique visant à mieux comprendre l’intelligence en en reproduisant les différentes composantes à l’aide d’ordinateurs. Leur projet reposait sur la conjecture selon laquelle toutes les facultés cognitives, en particulier le raisonnement, le calcul, la perception, la mémorisation, voire la découverte scientifique ou la création artistique, pourraient être décrites avec une précision telle qu’il devrait être possible

La preuve par les capacités du « deep learning »

© metamorworks | Istockphoto

Le dernier argument avancé par les tenants de la Singularité renvoie à l’extraordinaire capacité des machines entraînées par apprentissage profond sur d’immenses bases de données. Elles l’emportent déjà sur les meilleurs joueurs mondiaux au jeu de go, elles diagnostiquent les maladies mieux que des médecins, elles reconnaissent la parole et les visages, elles anticipent certains de nos désirs avant que nous en soyons conscients, etc. Comment s’empêcher de penser qu’un jour, sachant la supériorité de ces machines, nous préférerons leur confier les tâches importantes, par exemple établir des diagnostics médicaux, prendre des décisions politiques ou rendre des jugements et ainsi leur Science et pseudo-sciences n°332 - avril / juin 2020

35

Dossier • Intelligence artificielle de les simuler à l’aide d’une machine. Il s’agit donc d’une discipline scientifique empirique qui conçoit des modèles et les valide expérimentalement. En outre, ces simulations de nos différentes fonctions cognitives s’intègrent à de nombreux dispositifs technologiques pour rendre des services considérables. Soixantequatre ans plus tard, en dépit des progrès époustouflants enregistrés et des innombrables applications pratiques réalisées ou envisagées, l’étude de l’intelligence artificielle repose toujours sur la même conjecture que rien, jusqu’à présent, n’a permis ni de démentir, ni de démontrer irréfutablement.

Réfutation de l’argument « Kurzweil »

Ainsi, pour l’instant, les scientifiques ne savent pas comment procéder pour concevoir des machines dotées d’une intelligence générale capable de dépasser l’Homme. Et, de plus, on est loin de comprendre les mécanismes à l’origine de la conscience entendue comme la faculté d’éprouver des émotions et de la volonté. Ces prédictions reposent donc sur l’anticipation de la capacité de calcul et de stockage des machines calculée à partir de leur fréquence et du nombre de composants qu’elles contiennent, et dont on suppute qu’avec le temps, elle deviendrait équivalente, puis supérieure à celle du cerveau humain. Je nommerai cet argument « l’argument Kurzweil » en référence au nom de Ray Kurzweil, car il l’a mentionné à maintes reprises dans ses nombreux ouvrages, comme en témoignent les titres des principaux d’entre eux1. Commençons par analyser l’argument de Ray Kurzweil selon lequel les machines vont très bientôt nous dépasser et acquérir une conscience du fait de l’augmentation de leur

/

puissance, ce qui constituerait un « risque existentiel » pour l’humanité.

Sans doute, l’accroissement des capacités de calcul des machines a permis, ces dernières années, à l’intelligence artificielle de réaliser des prouesses sur des tâches spécifiques, comme les jeux (jeu de go ou poker), la reconnaissance faciale, la reconnaissance de la parole ou la conception de voitures autonomes. Cependant, la loi de Moore, qui est à l’origine de l’idée même de Singularité, commence à s’essouffler. Elle est due en grande partie à la miniaturisation des composants électroniques qui s’est poursuivie de façon régulière depuis soixante-dix ans. Or, les technologies du silicium atteindront bientôt des limitations physiques liées, en particulier, à la taille des atomes, limite en deçà de laquelle on ne pourra plus miniaturiser. Certains évoquent d’autres technologies, comme l’utilisation du graphène ou de microfibres de carbone, ou encore le calcul quantique. Mais, même si rien ne s’oppose à ce que ces technologies prennent le relais du silicium pour contribuer à la réalisation de processeurs informatiques plus puissants, aujourd’hui, rien ne permet de l’assurer. Qui plus est, même si cette augmentation des capacités des machines se poursuivait, la quantité de stockage d’information et la rapidité de calcul ne produisent pas à elles seules de l’intelligence et a fortiori une « conscience émotionnelle » ou une intentionnalité, loin s’en faut !

Bref, même s’il n’est pas possible de réfuter totalement ce scénario en prouvant son impossibilité,

humaine révélé (2013), L’âge des machines spirituelles : quand les ordinateurs l’emportent sur l’intelligence humaine (2000), Transcendance : neuf étapes pour vivre mieux éternellement (2010), La Singularité est proche : quand les humains transcendent la biologie (2006), Humain virtuel : la promesse – et le danger – de l’immortalité numérique (2014), Voyage fantastique : vivre suffisamment longtemps pour vivre éternellement (2005). Traduction en français par nos soins.

36

Science et pseudo-sciences n°332 - avril / juin 2020

© PhonlamaiPhoto | Istockphoto

1 Comment créer un esprit : le secret de la pensée

/

Dossier • Intelligence artificielle

il n’existe pas non plus d’argument tangible pour démontrer qu’il est plus probable que des myriades d’autres avec lesquels il n’a jamais été confronté.

Réfutation de l’argument « Harari »

Nous venons de voir que l’argument de Ray Kurzweil était peu crédible, en dépit de sa popularité dans les médias. D’autres tenants de la Singularité technologique comme Yuval Noah Harari évoquent l’apprentissage automatique (machine learning) dont les progrès récents laissent songeur. D’après eux, même si les machines ne prennent pas leur autonomie propre au sens où elles n’ont pas d’intentionnalité, nous serions tout de même enclins, pour des raisons pratiques, à leur confier nombre de tâches usuelles, par exemple l’établissement d’un diagnostic médical ou le déploiement des forces de police ou encore la sentence à attribuer à un prévenu, car elles se révéleront très bientôt plus avisées que nous. Il s’ensuivrait une perte de responsabilité et, surtout, une absence de liberté. Cependant, un examen approfondi des techniques d’apprentissage automatique les plus utilisées aujourd’hui, à savoir l’apprentissage supervisé ou l’apprentissage par renforcement, montre qu’elles reposent soit sur un étiquetage des exemples, soit sur une fonction de récompense. Or, tant l’étiquetage des exemples que la récompense sont donnés par des êtres humains. L’apprentissage consiste donc en une compression du savoir humain qui peut se révéler plus efficace que celui des hommes dans l’exécution de certaines tâches, mais pas sur l’intégralité de son activité. De plus, l’histoire des sciences d’un côté et la psychologie développementale de l’autre nous enseignent que la construction du savoir tant individuel que collectif passe par certaines phases de basculement comme les changements de paradigmes ou les ruptures épistémologiques ou encore les stades de développement cognitif. Or, jusqu’à aujourd’hui, les machines ne sont pas en mesure de remettre en cause les représentations qui leur ont été fournies et donc de procéder par elles-mêmes à de tels basculements d’appareils conceptuels.

Conclusion

Les théories de la Singularité technologique et les autres annonces, catastrophistes ou enthousiastes, lancées par des célébrités, chercheurs,

hommes d’affaires ou ingénieurs, se révèlent, à l’analyse, bien peu fondées sur le plan scientifique. Nous avons essayé ici de résumer assez rapidement les faiblesses des arguments sur lesquelles elles prétendent reposer. Ce qui importe, c’est que de tels arguments ne relèvent pas de la science à proprement parler, même si leurs partisans le prétendent et si certains d’entre eux sont même des scientifiques ou des ingénieurs. En cela, bien plus que de science, il s’agit de déclarations fantaisistes qui s’appuient sur des sciences fictives, c’est-à-dire sur des pseudo-sciences. Et, ici comme ailleurs, il ne faut pas se laisser abuser par les arguments d’autorité et la position sociale de leurs zélateurs.  // Références

Jean-Gabriel Ganascia

[1] Hawking S et al., “Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?”, The Independent, 1er mai 2014. Sur independent.co.uk [2] “Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter”. Sur futureoflife.org [3] “Autonomous Weapons: An Open Letter from AI & Robotics Researchers”. Sur futureoflife.org [4] Bostrom N, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014. [5] Alexandre L, La mort de la mort, JC Lattès, 2011. [6] Alexandre L, La guerre des intelligences, JC Lattès, 2017. [7] Besnier J-M, Demain les posthumains, Hachette Littérature, 2009. [8] Émission de France Info, « L’Homme est-il encore maître de l’intelligence artificielle ? », 25 décembre 2014. Sur franceinfo.fr [9] Vinge V, « The coming technological singularity », in: Landis GA (éd.), Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, NASA Publication CP-10129, 1993, p. 115-26. [10] Morris DZ, “Elon Musk Says Artificial Intelligence Is the ‘Greatest Risk We Face as a Civilization’”, Fortune, 15 juillet 2017. [11] Yudkowsky E, “Artificial Intelligence as a Positive and Negative Factor in Global Risk”, in: Bostrom N, Cirkovic MM (éds.), Global Catastrophic Risks, Oxford University Press, 2008. [12] Kurzweil R, The Singularity Is Near: When Humans Transcend Biology, Viking, 2005. [13] Reedy C, “Kurzweil Claims That the Singularity Will Happen by 2045. Get ready for humanity 2.0”, 5 octobre 2017. Sur futurims.com [14] Kurtzweil R, “The Law of Accelerating Returns”, 2001. Sur kurzweilai.net [15] Harari YN, Homo Deus: A Brief History of Tomorrow, Vintage, 2017.

Science et pseudo-sciences n°332 - avril / juin 2020

37

Dossier • Intelligence artificielle

/

Faut-il interdire les robots tueurs autonomes ? Jean-Paul Delahaye est professeur émérite à l’université de Lille et chercheur au Centre de recherche en informatique, signal et automatique de Lille (LIFL). Cet article est une adaptation d’un article publié dans la rubrique Logique & Calcul du n° 458 (décembre 2015) de la revue Pour la science.

Dès 1942, dans la revue Astounding Science Fiction, le célèbre et prolifique écrivain américain d’origine russe Isaac Asimov (1920-1992) avait évoqué la question de l’éthique des robots. Aujourd’hui, il est d’ailleurs considéré comme le créateur de la roboéthique, discipline

38

Science et pseudo-sciences n°332 - avril / juin 2020

philosophique donnant lieu à des colloques et à de nombreux livres, en particulier aux ÉtatsUnis. Sa nouvelle Runaround (Cercle vicieux) de 1942 énonce les trois lois de la robotique dont devraient tenir compte les programmes de tout robot pour contrôler les comportements de ces automates et les soumettre à des impératifs moraux protecteurs des humains (voir encadré).

Des lois impossibles à respecter

Les difficultés qu’entraîne le respect de ces lois sont le sujet de plusieurs des cinq cents livres qu’Asimov écrivit. Il prenait ses lois au sérieux

© TheCrimsonMonkey | Istockphoto

L

a science-fiction n’a pas attendu que la technologie permette d’en fabriquer pour envisager l’idée de robots qui, d’euxmêmes, une fois lancés dans une mission, prennent la décision de tuer des humains ou même se révoltent. Ces robots tueurs portent un nom savant dans les discussions internationales sur l’armement : SALA, pour Systèmes d’armes létaux autonomes (en anglais LAWS, Lethal Autonomous Weapons Systems). Ils sont sur le point d’exister, voire existent déjà. Leur introduction sur les champs de bataille suscite des débats où se mêlent des questions logiques, pour les définir ou pour comprendre ce qui leur est possible, et des questions éthiques encore plus délicates que lorsqu’elles concernent les soldats humains.

/

Dossier • Intelligence artificielle

Isaac Asimov pensait qu’il faudrait garder le contrôle des robots pour éviter qu’ils ne deviennent dangereux et imagina qu’on programmerait en eux des lois les empêchant de s’attaquer aux humains. De telles lois de la robotique sont délicates à concevoir, d’où les nombreuses variantes qui en ont été formulées. Surtout, elles exigent des robots un type d’intelligence générale que nous ne savons pas programmer aujourd’hui, ce qui rend impossible leur prise en considération. Par ailleurs, les robots envahissent nos vies subrepticement, en empruntant des formes différentes de celles que nous avions imaginées... par exemple comme armes autonomes ayant pour seule fonction de tirer sur des humains, ce qui est parfaitement contraire aux lois d’Asimov. • Première loi. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger.

• Deuxième loi. Un robot doit obéir aux ordres donnés par les humains, sauf si de tels ordres contredisent la première loi. et imaginait réellement qu’elles seraient adoptées. Aussi, à la projection du film de Stanley Kubrick 2001, l’Odyssée de l’espace, il quitta la salle, furieux lorsque l’ordinateur HAL  9000 viola la première loi en s’en prenant à un membre de l’équipage du vaisseau spatial Discovery One.

Asimov n’a pas été exaucé : les robots actuels n’ont pas en eux de mécanismes ou d’instructions les forçant à se soumettre à ses lois de la robotique. Pourquoi ? La première raison est que les robots n’ont pas été créés comme on l’imaginait et avec les qualités que certains voudraient. Les sciences et la technologie n’ont pas soudainement créé des êtres qui nous ressemblent auxquels on parle comme à des esclaves ou des domestiques pour leur expliquer ce qu’ils doivent faire. La venue des robots, et plus généralement des systèmes dotés de parcelles d’intelligence, se fait pro-

© sarah5 | Istockphoto

Les lois de la robotique d’Asimov

• Troisième loi. Un robot doit protéger son existence, sauf si cette protection contredit la première ou la deuxième loi. Asimov ajoutera plus tard une autre loi.

• Loi zéro. Un robot ne peut ni nuire à l’humanité ni, restant passif, permettre que l’humanité souffre d’un mal. gressivement en empruntant des voies inattendues, qui rendent difficiles de savoir ce que l’on doit appeler robots et encore plus de ce qu’on doit considérer comme des systèmes intelligents.

L’automatisme qui fait atterrir votre avion est-il un robot ? Est-il intelligent ? Il est trop facile de répondre non. Il opère aussi bien qu’un humain et sait très précisément où il est (il a donc une forme embryonnaire de conscience de lui-même), ce qui est important pour bien poser l’appareil. Même s’il est très limité, qu’il ne sait ni lire le journal, ni réserver une chambre d’hôtel, ni apprécier un bon film, il nous égale pour un travail que nous n’hésitons pas à considérer comme délicat et important. Les algorithmes des moteurs de recherche d’Internet réussissent à trier de l’information et à nous conseiller sur les pages à consulter comme aucun être humain ne saura jamais le faire. Là enScience et pseudo-sciences n°332 - avril / juin 2020

39

Dossier • Intelligence artificielle core, il est difficile de savoir si l’on doit parler de robots et d’intelligence, mais c’est se satisfaire à bon compte de décréter que ces algorithmes sont stupides ; ils ne le sont pas, même s’ils ne sont capables que d’un travail spécialisé. Pour appliquer ces lois de la robotique d’Asimov, il faudrait que nos systèmes informatiques disposent d’une faculté d’analyse et de raisonnement s’appliquant à tout et soient capables d’anticiper les conséquences de telle ou telle action pour déterminer si un ordre contredit ou non la première loi, ou la deuxième, etc. Aucun de nos robots ne sait mener de telles analyses.

Ne croyons pas pour autant que la prise en compte des problèmes éthiques est superflue et prématurée. Dans le domaine des véhicules autonomes (voitures, camions, autobus, etc.) sur lequel l’industrie travaille intensément et voudrait proposer rapidement des produits, le débat a commencé et semble urgent.

Faire face à des dilemmes

qu’il n’a que deux options : renverser l’enfant et probablement le blesser ou le tuer, ou donner un coup de volant à gauche et percuter le vélo, ce qui risque d’être fatal à l’adulte. Faut-il préserver l’enfant ou l’adulte ? Autre exemple de dilemme : faut-il se jeter sur un arbre avec tous les risques que cela entraîne pour les passagers, ou rester sur la route en fonçant sur la voiture qui arrive droit en face en doublant un camion ?

Qui doit fixer les règles ? Comment ? Répondre à ces questions sera difficile, mais on ne pourra s’en dispenser. Le problème des règles éthiques devient parfois logiquement très compliqué et même indécidable au sens des logiciens, comme des chercheurs l’ont récemment mis en évidence (voir l’encadré). Il y a une seconde raison, bien plus désolante, pour laquelle les lois de la robotique ne sont pas intégrées : nous fabriquons certains systèmes robotiques dont la fonction est de tuer ! C’est aujourd’hui devenu une question grave qui doit nous inciter à la réflexion.

Le problème n’est pas tout à fait nouveau et ne devient vraiment délicat que lorsque les trois mots « robot », « autonome » et « tueur » sont associés. Une mine déposée sur un chemin est autonome en ce sens qu’elle « décide » d’exploser

© sestovic | Istockphoto

Imaginons une voiture autonome sans conducteur devant laquelle un enfant poursuivant un ballon traverse la route, alors que sur la voie en sens inverse arrive un adulte à vélo. Imaginons que le système de conduite automatique, parfaitement maître de la situation, analyse

/

40

Science et pseudo-sciences n°332 - avril / juin 2020

/

Dossier • Intelligence artificielle

Plus ennuyeux encore, certains missiles déterminent eux-mêmes leur cible et se dirigent vers elle en analysant le contraste des images (qui permet le repérage des navires en mer) ou en fonction des rayonnements infrarouges. Des systèmes de surveillance frontalière visent et font feu sur toutes les cibles qui franchissent des zones interdites. C’est le cas du robot-sentinelle Samsung Techwin SGR-A1 déployé dans la zone démilitarisée entre les deux Corées. Il est contrôlé par des opérateurs humains, mais dispose d’un mode automatique. Certains systèmes antimissiles se déclenchent sans intervention humaine, tel le système américain Patriot ou le système israélien Dôme de fer. Notons que les drones utilisés aujourd’hui sur de nombreux champs de bataille sont pilotés à distance et maintiennent toujours un humain dans le circuit de décision ; le plus souvent, ils attendent même un ordre explicite d’un officier avant de tirer. On connaît leur efficacité d’engins tueurs... et l’on sait qu’ils font de nombreuses victimes collatérales. Certains d’entre eux peuvent fonctionner en mode automatique, qui leur permet de décider de tirer sans intervention humaine.

Où allons-nous ?

Parmi les arguments donnés pour défendre ces systèmes et la poursuite de leur développement, mentionnons les deux principaux. Le premier est qu’il est trop tard, ces systèmes existant déjà. Le second est que ces armes seront plus précises et, à terme, seront mieux à même de respecter les civils et les règles d’une guerre modérée que ne le font les combattants humains : ces armes pourraient conduire à des conflits plus « propres ».

© RYGERSZEM | Istockphoto

quand elle « perçoit » une présence dans son environnement immédiat, et cela sans qu’aucun humain ne valide son choix. De nombreux missiles et bombes n’explosent que lorsqu’un mécanisme sensible détecte leur arrivée au contact de la cible ou du sol. Plus délicat est le cas des missiles qui, une fois lancés, vont inexorablement vers leur cible.

Au premier argument, on peut facilement rétorquer qu’il existe aussi des armes nucléaires, chimiques, ou bactériologiques et que cela n’a pas empêché la mise en place de traités internationaux pour les réglementer ou les interdire. Ces accords ne sont pas vains, ils ont en effet limité l’usage des armes concernées. Des accords existent à propos des mines antipersonnel et des lasers destinés à aveugler l’ennemi (un accord à leur sujet est entré en vigueur en 1998). On peut donc s’entendre pour cesser de développer les robots tueurs autonomes. Le problème est aujourd’hui en discussion dans les instances internationales et nous avons chacun le pouvoir d’agir pour demander que ces discussions aboutissent rapidement. Concernant le second argument prétendant que les robots tueurs pourraient conduire à des guerres plus propres, il doit être dénoncé. En effet, il revient à considérer qu’on sait mettre dans les robots tueurs des règles de morale du type « ne s’attaquer qu’aux ennemis », « ne pas viser les civils », « répondre à une attaque de manière proportionnée », etc., alors que justement on ne sait pas plus le faire que programmer les lois de la robotique d’Asimov.

Il faudra peut-être reconsidérer le problème si nous réalisons un jour des robots aux capacités d’analyse améliorées, mais il est aujourd’hui certain que nous ne savons pas programmer des règles morales du type de celles qu’envisageait Asimov. En résumé : les robots que nous Science et pseudo-sciences n°332 - avril / juin 2020

41

Dossier • Intelligence artificielle

/

on pas se mettre d’accord sur les cas ne présentant aucune ambiguïté ?

© Devrimb | Istockphoto

La révolte des robots

fabriquons sont capables de se déplacer avec une grande précision, de tirer vite et bien, sur des cibles humaines ou non, mais ils ne savent pas décider s’il faut tirer et si oui, sur quoi. Ceux qui s’opposent aux robots tueurs autonomes avancent d’autres arguments. Une lettre publiée en juillet 2015 [1], signée par près de 20 000 personnes, spécialistes en intelligence artificielle ou simples citoyens se sentant concernés, dont le célèbre physicien Stephen Hawking et le cofondateur d’Apple Steve Wozniak, demande l’arrêt des recherches sur ces systèmes autonomes capables de tuer. Elle évoque l’utilisation possible de ces armes par des terroristes. Le problème est plus grave que pour d’autres types d’armes tels que les bombes atomiques, car la mise au point de robots tueurs autonomes est une affaire de logiciels et de technologies largement diffusées et relativement faciles à mettre en œuvre. Or un logiciel se duplique et circule facilement, ce qui n’est pas le cas d’une arme nucléaire ! Les éventuels progrès dans le développement des robots pourraient être utilisés par les pires dictateurs ou terroristes, ou pour soutenir les causes les moins défendables, qui ne seraient pas nécessairement politiques mais pourraient aussi être liées au grand banditisme. Pour formuler des accords internationaux, reste bien sûr la difficulté réelle à fixer une bonne définition de ce qu’est un robot autonome. Mais est-ce vraiment plus délicat que de déterminer ce qu’est une arme bactériologique ou une arme chimique ? Vu l’importance des enjeux, ne peut-

42

Science et pseudo-sciences n°332 - avril / juin 2020

Dans les romans et films de science-fiction, un thème revient régulièrement : la révolte des robots. C’est sans doute en pensant à elle qu’Asimov a souhaité introduire ses fameuses lois : il faut que les esclaves mécaniques restent sages et soumis.

Bien que les robots d’aujourd’hui soient totalement incapables de se rebeller, le problème de ces éventuelles révoltes futures est intéressant. Il est cependant beaucoup plus délicat qu’on ne le présente en général. D’abord se pose le problème des bugs. On le sait, il est quasiment impossible de fabriquer des systèmes informatiques sans y laisser des erreurs. Il est donc à prévoir qu’il y en aura dans les robots, même en supposant des technologies beaucoup plus avancées que celles d’aujourd’hui.

Dès lors, comment éviter un bug qui conduirait un robot capable de tuer à s’attaquer systématiquement à tous les humains qu’il rencontre ? Un tel bug, par exemple dû à une ligne de programme effacée malencontreusement, doit-il être considéré comme une révolte ? Sans doute pas. La question est en fait analogue à celle de la responsabilité chez les humains. Un fou n’est pas responsable, même quand il tue. Il faudrait donc définir ce qu’est la folie d’un robot. Sans doute qu’entre bug et révolte (au sens usuel), tout un continuum de situations seront possibles. Le véritable problème de la révolte des robots sera avant tout celui de cette distinction, plus que délicate. Avant qu’une armée de robots organisés et décidés à arracher le pouvoir aux humains se lève et nous attaque, nous aurons à faire face à une multitude de situations embrouillées où le dysfonctionnement d’une machine aura engendré des blessures ou des morts, voire de graves catastrophes dont nous ne distinguerons pas la nature : panne stupide ou rébellion délibérée ?

/

Dossier • Intelligence artificielle

Susan Anderson, de l’université du Connecticut, spécialiste reconnue des problèmes d’éthique des robots, se demande si une telle révolte ne serait pas justifiée. Pour elle, le grand philosophe de la morale Emmanuel Kant avait abordé indirectement le problème des robots intelligents. Elle jette un regard nouveau sur les lois de la robotique d’Asimov : si des « robots » avaient les capacités à comprendre et à appliquer les lois de la robotique, aurions-nous le droit de les leur imposer ou d’en faire nos esclaves ? S. Anderson remarque que pour Kant, et pour notre société aussi, nous devons un certain respect aux animaux parce qu’en ayant ce respect, nous l’aurons les uns envers les autres. De la même façon, d’après elle, si Kant avait réfléchi au problème des robots, il aurait défendu l’idée que le jour où ils existeront et seront capables de comprendre les lois de la robotique, nous devrons avoir du respect pour eux, ce qui nous interdira de leur imposer les lois de la robotique auxquelles il faudra donc renoncer.

Nous signalons volontiers

L’idée n’est pas loin de celle défendue par le roboticien Hans Moravec, de l’université Carnegie-Mellon, selon laquelle les robots seront notre descendance et que même s’ils prennent notre place, cela se fera avec notre accord, comme lorsqu’un vieillard confie à ses enfants la gestion de ses affaires.

Entre ces problèmes lointains traités avec délices par la science-fiction et que la science et la philosophie nous obligent à reconsidérer, et ceux immédiats de la juste évaluation de ce que sont vraiment nos robots actuels (tueurs ou non) et de ce qu’on doit en faire, se dessine une longue série de délicates questions éthiques et philosophiques dont certaines exigent un traitement urgent. Philosophes, éthiciens, logiciens, militaires et informaticiens doivent se parler et s’entendre. // Jean-Paul Delahaye

Bibliographie

Hawking S et al., “Autonomous weapons: An open letter from AI & robotics researchers”, 2015. Sur futureoflife.org Galliott J, Military Robots, Mapping the Moral Landscape, Ashgate, 2015. Doaré R et al., Drones et killer robots : faut-il les interdire ? Presses universitaires de Rennes, 2015. Englert M et al., “Logical limitations to machine ethics with consequences to lethal autonomous weapons”, prépublication arXiv, 2014, 1411.2842. Krishnan A, Killer robots: Legality and ethicality of autonomous weapons, Ashgate, 2009. Anderson SL, “Asimov’s ‘three laws of robotics’ and machine metaethics”, Ai & Society, 2008, 22:477-93.

Les 3 lois de la robotique Faut-il avoir peur des robots ? Jean-Claude Heudin - Science eBook, 2015 Dès que l’on parle des robots, la réaction la plus courante est celle d’une interrogation sur l’avenir avec une angoisse latente de voir un jour les machines supplanter l’homme et même de le faire disparaître. Jean-Claude Heudin examine les origines historiques et culturelles de ce sentiment et nous montre qu’il ne reflète pas la réalité de la robotique. Néanmoins, en s’appuyant sur une réflexion à propos des lois de la robotique proposées par l’écrivain de science-fiction Isaac Asimov, il met en évidence la nécessité d’une réflexion éthique, individuelle et collective, resituant l’homme au centre de la robotique et, plus généralement, des sciences et technologies.

Présentation de l’éditeur

Science et pseudo-sciences n°332 - avril / juin 2020

43

Dossier • Intelligence artificielle

/

Les systèmes d’intelligence artificielle : quelle responsabilité ?

Q

uelles sont les responsabilités lors du recours à l’intelligence artificielle (IA) ? Cette question impose au juriste de faire une plongée dans le monde informatique pour comprendre en quoi consiste l’intelligence artificielle, ce mot-valise qui recouvre, en réalité, de nombreuses sciences et techniques informatiques, tant et si bien qu’il semble difficile d’utiliser ce terme au singulier, de même qu’il semble difficile de tracer une frontière précise entre celui-ci et d’autres mots-valises tels que, par exemple, Internet, algorithmes ou big data. Et faut-il seulement utiliser ce terme, alors que le créateur du très usité assistant vocal Siri vient d’écrire un ouvrage dont le titre, un tantinet provocateur, énonce que l’intelligence artificielle n’existe pas ?… [1]

44

Science et pseudo-sciences n°332 - avril / juin 2020

© PhonlamaiPhoto | Istockphoto

Juliette Sénéchal est maître de conférences en droit privé à l’université de Lille (CRD&P, équipe René Demogue) et habilitée à diriger des recherches. Elle dirige le pôle « Droit des contrats, de la consommation et du commerce électronique » du réseau Trans Europe Experts.

Assurément, l’intelligence artificielle existe [2,3], mais elle est fortement protéiforme. Elle est utilisée, par exemple, pour améliorer les soins de santé, rendre l’agriculture plus efficiente, augmenter l’efficacité des systèmes de production par la maintenance prédictive, ainsi que pour la sécurité des citoyens et encore de bien d’autres façons que nous commençons à peine à entrevoir.

Quelle définition de l’intelligence artificielle ?

Pour le groupe d’experts de haut niveau sur l’intelligence artificielle constitué par la Commission européenne en 2018 (appelé dans ce qui suit « Groupe d’experts »), les systèmes d’intelligence artificielle sont entendus comme « des

/

Dossier • Intelligence artificielle

systèmes logiciels (et éventuellement matériels) conçus par des êtres humains ([qui] peuvent aussi recourir à des techniques relevant de l’IA pour optimiser la conception de ces systèmes) et qui, ayant reçu un objectif complexe, agissent dans le monde réel ou numérique en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations dérivées de ces données et en décidant de la (ou des) meilleure(s) action(s) à prendre pour atteindre l’objectif donné. Les systèmes d’IA peuvent soit utiliser des règles symboliques, soit apprendre un modèle numérique. Ils peuvent également adapter leur comportement en analysant la manière dont l’environnement est affecté par leurs actions antérieures » [4].

Cette définition met ainsi en lumière la diversité des systèmes d’IA et permet de considérer chacune des intelligences artificielles comme un assemblage potentiellement très varié de briques techniques sous-tendues par des présupposés scientifiques eux-mêmes variés.

Groupe d’experts rappelle un point fondamental : « Certaines applications d’IA sont certes susceptibles d’apporter des avantages considérables aux individus et à la société, mais [elles] peuvent également avoir des incidences négatives, y compris des incidences pouvant s’avérer difficiles à anticiper, reconnaître ou mesurer (par exemple, en matière de démocratie, d’état de droit et de justice distributive, ou sur l’esprit humain lui-même). » En lisant ces lignes, il nous vient à l’esprit la formule de Yuval Noah Harari [5] : « Puisque nous pourrions être capables sous peu de manipuler nos désirs, la vraie question est non pas : “Que voulons-nous devenir ?”, mais “Que voulons-nous vouloir ?” Si cette question ne vous donne pas le frisson, c’est probablement que vous n’avez pas assez réfléchi. » Ce faisant, le Groupe d’experts en appelle à « adopter des mesures appropriées pour atténuer ces risques le cas échéant de manière proportionnée à l’ampleur du risque » et, en se fondant sur les articles de la Charte des droits fondamentaux de l’Union européenne, à « accorder

Tous les systèmes d’IA finissent par être incorporés dans une machine : robot, véhicule, ordinateur, téléphone… et tous peuvent avoir un impact sur l’esprit ou le corps humains, voire sur les droits de la personnalité (par exemple le droit au respect de la vie privée). La question de la responsabilité lors du recours aux systèmes d’IA doit être considérée tout au long de leur cycle de vie : ce n’est pas seulement la sanction a posteriori de la réalisation d’un risque qui doit être prise en compte, mais également la responsabilisation en amont de toute la chaîne complexe des acteurs impliqués lors des phases de conception.

La place de l’humain

© miriam-doerr | Istockphoto

L’humain est au centre des systèmes d’intelligence artificielle à double titre : en tant qu’usager bénéficiant de ses services (ou les subissant) et en tant qu’acteur au cœur de leur conception et de leur fonctionnement.

L’humain en interaction avec les IA

Dans ses « lignes directrices en matière d’éthique pour une IA digne de confiance  », le

Science et pseudo-sciences n°332 - avril / juin 2020

45

Dossier • Intelligence artificielle une attention particulière aux situations concernant des groupes plus vulnérables tels que les enfants, les personnes handicapées et d’autres groupes historiquement défavorisés, exposés au risque d’exclusion, et/ou aux situations caractérisées par des asymétries de pouvoir ou d’information, par exemple entre les employeurs et les travailleurs, ou entre les entreprises et les consommateurs ». Prendre les mesures appropriées n’est cependant pas aisé et ce, au-delà même de la tension récurrente entre principe d’innovation et principe de précaution. La raison en est que tant les briques techniques utilisées que les personnes impliquées dans le fonctionnement d’un système d’IA sont nombreuses, variées et en interactions complexes.

L’humain au cœur du fonctionnement des systèmes d’IA

Au fondement des intelligences artificielles fonctionnant sur les techniques d’apprentissage se trouve tout d’abord du calcul statistique sur des grandes quantités de données (big data). Certes, il ne s’agit pas nécessairement que de données personnelles, mais ces dernières occupent une place particulière et font l’objet d’une réglementation de l’Union européenne [6]. L’humain apparaît ensuite au travers de ses rôles de conception, de supervision et de renforcement des systèmes d’IA. Plutôt que sur un véritable « biomimétisme », certains des concepts attachés à l’intelligence artificielle (en particulier les réseaux de neurones ou l’apprentissage automatique ou profond) reposent sur des emprunts terminologiques qui laissent à penser que l’intelligence artificielle est totalement autonome, à l’image de l’intelligence humaine. Ces emprunts terminologiques ont, ce faisant, pour effet de couvrir d’un voile une part de la réalité, à savoir que, tel le Turc mécanique, le célèbre automate joueur d’échec de la fin du XVIIIe siècle, les systèmes d’IA, pour leur fonctionnement, reposent sur une forte intervention humaine. Mais, à la différence du Turc mécanique cachant en réalité un authentique humain dissimulé dans la machine et jouant aux échecs, un certain nombre des systèmes d’IA d’aujourd’hui peuvent être autonomes une fois conçus, mais seulement une fois conçus.

46

Science et pseudo-sciences n°332 - avril / juin 2020

/

C’est l’humain qui, en toute hypothèse, crée l’infrastructure d’un réseau de « neurones », procède à son « entraînement » en choisissant les jeux de données adaptés ou en orientant la composition des classifications et concourt à l’évolution du système tout au long de son cycle de vie. Ce faisant, ainsi que le rappelle la Commission nationale de l’informatique et des libertés (Cnil), « l’autonomie des systèmes d’IA est souvent surestimée » [7] et il convient plutôt de parler de systèmes « semi-autonomes » impliquant de nombreux acteurs.

Les différents types d’acteurs nécessaires au fonctionnement de chacun de ces systèmes sont très variés : développeurs, statisticiens, salariés, sous-traitants ou partenaires des opérateurs économiques qui déploient commercialement ces systèmes d’IA. Les usagers des systèmes d’IA ont également un rôle central, non seulement au travers des données les concernant qui sont collectées, mais également au travers des comportements divers de validation ou d’invalidation des recommandations algorithmiques formulées par le système (prise de décision opérée sur la base d’une recommandation, notation, captcha1…).

Il faut également ne pas omettre les micro-travailleurs [8], tantôt travailleurs indépendants et tantôt salariés de l’opérateur qui déploie le système d’IA ou de l’un de ses sous-traitants, chargés de veiller au contrôle et à la correction a posteriori des comportements algorithmiques mis en œuvre et dont l’activité est l’un des prolongements modernes les plus marquants de la figure du Turc mécanique.

L’argument de la « boîte noire »

Le nombre et la variété des briques techniques utilisées ainsi que des personnes impliquées dans le fonctionnement d’un système d’IA entraînent de nombreuses interactions qui ne sont pas aisées à maîtriser et qui créent la tentation de mobiliser l’argument de la « boîte noire ». À l’instar de chaque cerveau humain, chaque système d’IA serait une « boîte noire », dont il ne serait pas possible de comprendre le fonctionnement détaillé. D’où la tentation de proposer 1 Test de Turing automatique ayant pour but de différencier les humains des ordinateurs.

Dossier • Intelligence artificielle

© Jay Yuno | Istockphoto

/

une déresponsabilisation des personnes juridiques, morales et physiques, ayant permis au système d’IA de fonctionner et la proposition corrélative d’une mise en jeu de la responsabilité du système d’IA lui-même, puisqu’il pourrait justement être assimilé à un cerveau humain éventuellement embarqué dans un corps de robot. C’est ce que suggérait déjà en 1950 l’écrivain Isaac Asimov dans son recueil de nouvelles intitulé I, Robot, traduit en français de manière approximative (au regard de l’intention de l’auteur) sous le titre Les robots. Et c’est ce que propose aujourd’hui l’avocat Alain Bensoussan avec la création d’un droit de la robotique fondée sur une « personnalité robot » analogue à celle de « personnalité morale » [9]. Il convient de constater à cet égard à quel point les propositions du Groupe d’experts prennent le contrepied de cette analyse. Rappelant que l’éthique est souvent tout à la fois une reformulation du droit existant et l’antichambre du droit futur, ce groupe formule un ensemble de propositions, à visées d’éthique et de robustesse technique des systèmes d’IA, repris au sein du Livre blanc sur l’intelligence artificielle de la Commission européenne en date du 19 février 2020 [3]. Ainsi, la confiance en un système d’IA, au regard des risques pour la démocratie, l’état de droit, la justice distributive (ou justice sociale) ou

l’esprit humain, se doit de reposer sur une responsabilisation a priori des différents acteurs intervenant tout au long de son cycle de vie, qui passe, entre autre chose, par un objectif d’explicabilité de ses actions. Ainsi, par exemple, la justice distributive sera malmenée si des biais algorithmiques créent des discriminations fondées sur le genre qui entraînent des inégalités de traitement non souhaitables ; et il y aurait atteinte à l’esprit humain suite à l’enfermement de celui-ci dans des recommandations algorithmiques sur Internet de type filter bubble [10] qui le cantonnerait dans un ensemble d’informations sélectionnées en fonction de son profil.

En cas de dysfonctionnement du système, cette responsabilisation a priori est parfaitement complémentaire de la recherche d’une responsabilité a posteriori et s’intègre bien dans l’objectif de surveillance par l’humain du système d’IA. Le Groupe d’experts formule ainsi sept exigences reprises au sein du Livre blanc. Elles sont relatives au facteur humain et au contrôle humain, à la robustesse technique et la sécurité, au respect de la vie privée et la gouvernance des données, à la transparence, à la diversité, la non-discrimination et l’équité, au bien-être sociétal et environnemental et à la responsabilisation. Et elles devraient avoir vocation à être Science et pseudo-sciences n°332 - avril / juin 2020

47

/

© JIPGGutenbergUKLtd | Istockphoto

Dossier • Intelligence artificielle

mise en œuvre tout au long du cycle de vie d’un système d’IA.

Ainsi, le Groupe d’experts s’éloigne-t-il de l’idée d’une confiance spontanément accordée à un système d’IA en vertu de la qualité de sa seule conception (confiance by design) et insiste sur une responsabilisation constante de chacun des acteurs tout au long du cycle de vie du système, de sa conception à son fonctionnement effectif et à son abandon définitif.

Cette idée de responsabilisation sur la durée démontre assurément l’influence de la logique du règlement européen sur la protection des données personnelles (RGPD [6]) au travers de la référence notable aux objectifs de respect de la vie privée, de gouvernance des données et, plus encore, au travers de la notion d’« accountability » précisément évoquée à l’article 5 et approximativement traduite par le terme de « responsabilité ». Plus que par le terme de responsabilité, cette notion pourrait être traduite par les notions de reddition de compte ou de responsabilisation. La reddition de compte

48

Science et pseudo-sciences n°332 - avril / juin 2020

renvoie à cet égard aux notions de contrat de mandat et plus généralement de représentation et s’impose au représentant à qui une personne représentée a donné pouvoir de faire quelque chose. Le représentant doit tenir le compte de l’ensemble de ses actions et être en mesure de les justifier auprès du représenté. Sa responsabilité suite à un problème n’est engagée que s’il est défaillant dans cette phase-là.

La surveillance par l’humain

Le Groupe d’experts place en premier objectif le contrôle par l’humain du système d’IA afin d’éviter que ce système « ne mette en péril l’autonomie humaine ou ne provoque d’autres effets néfastes ». Il précise à cet égard que « le contrôle peut être assuré en recourant à des mécanismes de gouvernance tels que les approches […] “human-on-the-loop” (l’humain supervise le processus) ou “human-in-command” (l’humain reste aux commandes ». Le premier désigne la capacité d’intervention humaine dans le cycle de conception du système et dans la surveillance de son fonctionnement. Le second désigne la capacité de reprise du contrôle

/

Dossier • Intelligence artificielle

de l’activité du système. Selon le Groupe d’experts, « cette faculté peut comprendre la décision de ne pas utiliser un système d’IA dans une situation donnée, de définir des marges d’appréciation pour les interventions humaines lors de l’utilisation du système ou d’ignorer une décision prise par un système  ». Sont incluses dans cette possible reprise de contrôle les incidences économiques, sociétales, juridiques et éthiques au sens large.

Cet objectif semble innerver d’une certaine manière l’article 11 du projet de loi relatif à la bioéthique, tel que voté en première lecture par le Sénat le 4 février 2020, prévoyant d’insérer dans le Code de la santé publique un nouvel article L.  4001-3 ainsi rédigé [11]  : « Lorsque, pour des actes à visée préventive, diagnostique ou thérapeutique, le professionnel de santé envisage de recourir à un traitement algorithmique, il en informe préalablement le patient et lui explique sous une forme intelligible la manière dont ce traitement serait mis en œuvre à son égard. Seules l’urgence et l’impossibilité d’informer peuvent y faire obstacle. La saisie d’informations relatives au patient dans le traitement algorithmique se fait sous le contrôle du professionnel de santé qui a recours au dit traitement. Aucune décision médicale ne peut être prise sur le seul fondement d’un traitement algorithmique. Les concepteurs d’un traitement algorithmique mentionné au premier alinéa s’assurent de la transparence du fonctionnement de l’outil pour ses utilisateurs. » Le projet de loi tente ainsi, tout d’abord, de préserver la place du professionnel de santé lorsqu’il se fait épauler par un système d’IA et énonce clairement qu’aucune décision médicale ne peut être prise sur le seul fondement d’un traitement algorithmique. La rédaction proposée par le Sénat met ensuite en lumière le fait qu’un médecin sans compétence spécifique en informatique ne peut valablement être considéré comme l’humain supervisant le système et qu’il ne doit être considéré que comme un usager du système d’IA, à l’instar du patient.

Conclusion

gie complexe et en plein développement. Elle ne peut pas être considérée sans prendre en compte l’intervention humaine tout au long du cycle de vie des systèmes. Des questions restent néanmoins non résolues à ce jour. Ainsi, par exemple, on ne sait pas bien assurer la transparence du fonctionnement d’un système d’intelligence artificielle, particulièrement quand il met en œuvre des algorithmes fondés sur l’apprentissage profond. Et, dans le cadre d’une interaction avec un opérateur humain, cette transparence sera-t-elle suffisante pour permettre une prise de décision éclairée sur la base d’une recommandation algorithmique ?  // Juliette Sénéchal

Références

[1] Julia L, L’intelligence artificielle n’existe pas, First éditions, 2019. [2] Villani C, « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne », rapport de la mission parlementaire remis le 8 mars 2018 au Premier ministre. [3] Commission européenne, Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance, Livre blanc, 19 février 2020, COM(2020) 65. [4] Groupe d’experts indépendants de haut niveau sur l’intelligence artificielle, « Définition de l’IA », Commission européenne, avril 2019. [5] Harari YN, Sapiens : une brève histoire de l’humanité, Albin Michel, 2015. [6] Règlement (UE) 2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données. [7] CNIL, « L’intelligence artificielle, nouvelle étape de la société numérique », Rapport d’activité 2018, p. 29. [8] Casilli A, En attendant les robots, Enquête sur le travail du clic, postface Méda D, Seuil, La couleur des idées, 2019. [9] Bensoussan A, « Le droit naturel, fondement juridique de la personne-robot ? », Les blogs du Figaro, 10 juillet 2018. Sur blog.lefigaro.fr [10] Pariser E, The Filter Bubble: What the Internet Is Hiding from You, Penguin Press, 2011. [11] Projet de loi relatif à la bioéthique, tel que voté en première lecture par le Sénat le 4 février 2020 de la santé publique. Sur senat.fr

La responsabilité des systèmes d’IA est une question complexe, s’agissant d’une technoloScience et pseudo-sciences n°332 - avril / juin 2020

49

Dossier • Intelligence artificielle

/

Intelligence artificielle et santé « L’intelligence artificielle (IA) est un domaine de recherche en pleine expansion et promis à un grand avenir. Ses applications, qui concernent toutes les activités humaines, permettent notamment d’améliorer la qualité des soins. L’IA est en effet au cœur de la médecine du futur, avec les opérations assistées, le suivi des patients à distance, les prothèses intelligentes, les traitements personnalisés grâce au recoupement d’un nombre croissant de données (big data), etc.

âgées ou fragiles), chirurgie assistée par ordinateur, prévention en population générale (anticipation d’une épidémie, pharmacovigilance). » Source

Inserm, « Intelligence artificielle et santé : des algorithmes au service de la médecine ». Sur inserm.fr

© Ekkasit919 | Istockphoto

Les grands domaines d’application de l’IA en médecine sont : médecine prédictive (prédiction d’une maladie ou de son évolution), médecine de précision (recommandation de traitement personnalisé), aide à la décision (diagnostique et thérapeutique), robots compagnons (notamment pour les personnes

© Ekkasit919 | Istockphoto

Intelligence artificielle et agriculture

« Comme dans d’autres domaines, l’intelligence artificielle a le pouvoir de révolutionner le monde de l’agriculture. Les progrès réalisés depuis quelques années en analyse d’images devraient faciliter le diagnostic automatique de maladies sur les végétaux et les animaux, comme c’est le cas en médecine humaine, et permettre la supervision automatique des cultures (stades de croissance, état des sols, carences). Comme la voiture autonome, des robots agricoles, terrestres ou aériens, pourront réaliser ces analyses et des algorithmes

50

Science et pseudo-sciences n°332 - avril / juin 2020

d’IA décider de l’action à mener, en adoptant des traitements à une échelle très locale, minimisant l’utilisation de produits phytosanitaires. L’IA devrait aussi permettre d’optimiser la gestion d’une entreprise agricole pour maximiser les revenus issus de la vente des produits agricoles. Toutes les données de l’agriculture numérique, de la biologie végétale et animale pourront aussi être croisées, comme le fait IBM avec Watson en médecine, pour mieux identifier les facteurs génétiques qui peuvent améliorer les résistances aux stress et à la sécheresse, et guider ainsi la sélection de nouvelles variétés. » Source

Agri Sud-Ouest Innovation et l’Inra, communiqué de presse, 3 mars 2017

/

Article

Le compteur Linky est-il dangereux pour la santé ? Thierry Sarrazin est physicien médical, ancien président de la Société française de physique médicale, ancien chef du service de physique médicale du Centre de lutte contre le cancer Oscar Lambret. Il est président de la Société française de radioprotection (SFRP).

Martine Souques est médecin de santé publique, expert santé environnement au Service des études médicales d’EDF. Elle est secrétaire générale de la Société française de radioprotection.

L

e remplacement des anciens compteurs électriques par le nouveau compteur Linky s’inscrit dans le cadre de la loi relative à la transition énergétique [1]. Ces nouveaux compteurs ont pour objectif « d’améliorer la qualité du service rendu au consommateur, en proposant notamment un certain nombre de prestations à distance (relevés, changements de puissance…) [et peuvent] également permettre de mieux maîtriser sa consommation » [2]. Par ailleurs, selon la Commission de régulation de l’énergie, Linky est indispensable pour permettre « le pilotage des recharges des véhicules électriques ou encore l’autoconsommation1 » [3].

C’est la société Enedis, gestionnaire du système de distribution de l’électricité en France, qui a été chargée de changer les 35 millions de compteurs installés en France, entre 2016 et 2021. Il s’agit d’une évolution technologique généralisée au niveau mondial. Dans l’Union européenne, elle s’inscrit dans le cadre de la directive de 2009 [4] fixant un objectif de 80 % de foyers équipés de compteurs communicants d’ici à 2020. 1 Consommation en local de l’énergie produite par une production

décentralisée, solaire ou éolienne par exemple.

Pour plusieurs pays, cette transformation numérique de la gestion de l’électricité est opérationnelle depuis plusieurs années, comme en Italie (depuis 2011) ou en Finlande (depuis 2013) pour ne citer que quelques exemples européens. En France, des associations militent contre le compteur Linky et quelques villes ont adopté des résolutions à l’encontre du déploiement de ce compteur. Pourquoi une telle opposition ?

De nombreux articles dans les médias relaient les arguments des associations qui refusent le changement du compteur électrique, alors que le nouveau compteur de gaz (Gazpar, également communicant) n’engendre pas autant de polémique, ni le compteur communicant pour l’eau qui est déjà bien déployé. Les principaux arguments reflètent plusieurs sujets de préoccupation : la santé (émission de radiofréquences présentées comme cancérigènes, perturbations des appareils médicaux tels que les pacemakers), la sécurité (incendies, piratage des données), la facture (qui serait en augmentation), l’emploi (qualification des poseurs, licenciement des releveurs), etc. Nous nous limiterons ici essentiellement à décrire la technologie employée et à Science et pseudo-sciences n°332 - avril / juin 2020

51

Article

/

Le courant porteur en ligne (CPL)

rendre compte des connaissances scientifiques sur les questions relatives à la santé.

Comment fonctionne Linky ?

Le rôle d’un compteur est de mesurer la quantité d’électricité consommée. Celle-ci est enregistrée sous la forme d’index permettant de rendre compte de la consommation sur différentes périodes considérées. Linky est un compteur communicant, c’est-à-dire que les informations qu’il collecte peuvent être relevées à distance au moyen d’un système de télécommunication.

En France, c’est la technologie des courants porteurs en ligne (CPL) qui a été privilégiée, comme dans d’autres pays européens (Italie, Espagne, Finlande, Belgique, Luxembourg…). Cette technologie consiste à superposer un signal électrique de faible énergie, porteur de l’information que l’on veut transmettre, sur le courant alternatif, vecteur de l’électricité distribuée par le réseau (voir encadré). Linky n’émet donc pas de radiofréquences, au sens généralement entendu par la population, c’est-à-dire, par exemple, les radiofréquences de la téléphonie mobile. La technologie CPL est déjà utilisée depuis de nombreuses années en France, largement éprouvée dans une grande partie des foyers, que ce soit sur le réseau public de distribution d’électricité pour le changement de tarifs d’électricité (heures pleines et heures creuses, tarifs bleu-blanc-rouge – un signal CPL est envoyé au compteur pour l’informer du bas-

52

Science et pseudo-sciences n°332 - avril / juin 2020

du mode jour (tarif heures pleines) au mode nuit (tarif heures creuses) et vice versa (plus de 11 millions de foyers concernés) ou de transmettre un signal entre l’interphone et la sonnette à l’intérieur d’un logement. On retrouve aussi des applications CPL à haut débit, permettant de transmettre beaucoup plus d’informations en exploitant des fréquences plus élevées – plusieurs MHz – par exemple pour configurer un réseau informatique sans utiliser ni wifi, ni câble Ethernet ou encore surveiller bébé avec un babyphone ou une caméra CPL. culement) ou pour permettre une connexion Internet dans toutes les pièces sans avoir à installer d’émetteurs wifi supplémentaires.

© Ener356, CC BY-SA 4.0

Il s’agit d’une technologie ancienne qui permet de transmettre des informations en passant par les conducteurs servant à l’alimentation électrique. Elle consiste à superposer au courant électrique de 50 Hz un signal de fréquence plus élevée dont la modulation permet de coder les informations à transmettre. Elle est restée sans beaucoup d’applications jusqu’aux années cinquante où elle a d’abord été mise à profit pour l’éclairage public. Aujourd’hui, elle est largement utilisée puisque les courants porteurs en ligne permettent à nos compteurs de passer

Compteur Linky

/

Le compteur est intégré dans une chaîne qui comprend trois maillons communiquant entre eux : • le compteur Linky proprement dit, situé chez le client à la place du compteur précédent, qui mesure périodiquement l’électricité consommée et enregistre cette valeur ;

Article

• un concentrateur situé le plus souvent dans les postes de transformation moyenne tension – basse tension du distributeur d’électricité Enedis ;

• un outil de supervision connecté aux autres systèmes informatiques d’Enedis.

Les données collectées « Linky est le compteur communicant d’électricité, installé par le gestionnaire du réseau de distribution Enedis (ex ErDF). Gazpar est le compteur communicant de gaz, installé par le gestionnaire du réseau de distribution GRDF. Ces compteurs communicants sont capables de relever à distance des données de consommation plus fines que les compteurs traditionnels (données de consommation quotidiennes, horaires, voire à la demiheure pour l’électricité). Il s’agit des données de consommation globales du foyer, sans le détail des consommations de chaque appareil (TV, four, appareils électroménagers). […] Le gestionnaire du réseau de distribution collecte par défaut les données de consommation journalières (consommation globale du foyer sur une journée) pour permettre à l’usager de consulter gratuitement l’historique de ses consommations, conformément au code de l’énergie. La collecte de ces données de consommation fines (horaires ou à la demi-heure) par le gestionnaire du réseau de distribution (Enedis ou GRDF) n’est pas automatique. [Elles] ne sont collectées qu’avec l’accord de l’usager ou, de manière ponctuelle, lorsqu’elles sont nécessaires à l’accomplissement des missions de service public assignées au gestionnaire du réseau par le code de l’énergie (par exemple pour l’entretien et la maintenance du réseau ou l’intégration des énergies renouvelables). La transmission des données de consommation détaillée (horaires ou à la demi-heure)

à des sociétés tierces, notamment à des fins commerciales, (par exemple, des fournisseurs d’énergie) ne peut intervenir qu’avec l’accord de l’abonné. […] Le code de l’énergie prévoit que l’enregistrement des données de consommation horaires puisse s’effectuer en local dans la mémoire du compteur Linky. [Les] données pourront alors être conservées dans le compteur de l’abonné sans transmission au gestionnaire de réseau ou à un tiers. En principe, l’abonné devra pouvoir faire ce choix à tout moment, sans avoir à justifier sa décision. Ainsi, l’abonné pourra s’opposer à cette conservation en local grâce à une case à cocher dans son espace sécurisé sur le site d’Enedis. Il pourra aussi, à tout moment, désactiver la conservation ou supprimer les données de son compteur (par exemple en cas de déménagement). Cet enregistrement “en local” a été prévu afin de permettre à l’abonné de consulter simplement l’historique de ses consommations détaillées (par exemple, pour mieux maîtriser sa consommation d’énergie et réfléchir aux actions qui lui permettrait de réduire sa facture), même s’il n’a pas activé la possibilité pour le gestionnaire du réseau de distribution de procéder à leur collecte. » Source

Commission nationale informatique et liberté (CNIL), « Linky, Gazpar : quelles données sont collectées et transmises par les compteurs communicants ? », 15 juin 2018. Sur cnil.fr

Science et pseudo-sciences n°332 - avril / juin 2020

53

Article

/

Ces éléments communiquent ensemble par des liaisons sécurisées garantissant la sûreté des informations échangées.

Les CPL transitent par les fils électriques du réseau déjà en place et c’est pendant l’échange entre le concentrateur et le compteur qu’il y a, comme chaque fois que circule un courant électrique, une émission, faible, de champ électrique et de champ magnétique le long de tous les fils électriques, s’atténuant de plus en plus à distance de la source d’émission.

Plusieurs compteurs sont reliés en grappe à un concentrateur situé à l’intérieur du local du poste électrique qui alimente le quartier (voir encadré). Le public n’est pas autorisé à y accéder. Le concentrateur communique régulièrement avec chaque compteur de sa grappe. Les échanges entre le compteur et le concentrateur se font par transmission CPL. Les fréquences CPL utilisées sont situées dans la bande réglementée dite Cenelec A (entre 3 et 95 kHz). Le compteur est sollicité une fois par jour (entre minuit et six heures du matin) pour la collecte des données de consommation, sur une durée « de moins d’une minute » [5]. Il est également sollicité plusieurs fois par jour pour différentes tâches de vérification d’état. Une mesure in situ

a montré « une moyenne de 4 à 6 trames (durée 140 millisecondes) par minute » [5], soit moins de quatre minutes par jour. Le concentrateur transmet ensuite ces données à l’outil de supervision Enedis via le réseau de téléphonie mobile existant GPRS (technologie intermédiaire entre la 2G et la 3G).

Une recommandation européenne datant de 1999 [6] définit les valeurs de champ électrique et magnétique au-dessous desquelles aucun risque sanitaire n’est avéré pour toute la population, incluant les femmes enceintes, les enfants, les malades et les personnes âgées. Les niveaux de cette recommandation ont été régulièrement confirmés par le groupe d’experts européen chargé de la veille scientifique (SCENIHR2) [7].

L’Agence nationale des fréquences (ANFR) a fait des mesures sur les deux types de compteurs, G1 et G3, avec et sans le fonctionnement CPL, en laboratoire et dans des logements, avec comparaison de mesures réalisées avec l’ancien

2 Scientific Committee on Emerging and Newly Identified Health (Comité scientifique des risques sanitaires émergents et nouveaux), qui est l’un des comités scientifiques indépendants mis en place par la Commission européenne pour la conseiller. En 2016, il a été fusionné avec un autre comité, le Scientific Committee on Health and Environmental Risks (SCHER) pour donner le Scientific Committee on Health, Environmental and Emerging Risks (SCHEER).

Exposition liée à l’utilisation des objets de la vie courante. Toutes les mesures (exprimées en volts par mètre) sont réalisées à 50 cm des appareils. Source : ANFR, CSTB, Enedis

54

Science et pseudo-sciences n°332 - avril / juin 2020

/

Article

Les concentrateurs « Il y a en France environ 35 millions de compteurs électriques reliés à environ 700 000 postes électriques de distribution HT/BT. Ainsi, à l’issue du déploiement prévu en 2024, il y aura 35 millions de compteurs Linky et 700 000 concentrateurs installés sur le territoire. Les concentrateurs sont installés sur un mur à l’intérieur des postes électriques (local fermé), ou en milieu rural dans un coffret spécifique sur un pylône. La répartition de la population française étant relativement inhomogène, 50 % des transformateurs HT/BT desservent moins de 16 compteurs, représentant moins de 7 % du parc total de compteurs. Les grappes supérieures à 500 compteurs ne

compteur [8,9]. Elle n’a constaté aucun dépassement des valeurs limites réglementaires. Le protocole de mesure de l’ANFR [10] impose des mesures à 20  cm de distance. Voici sa conclusion : « La conformité du niveau d’exposition aux champs électromagnétiques dans la bande 9 kHz – 100 kHz vis-à-vis du décret n° 2002-775 du 3 mai 2002 a été constatée sur tous les sites ayant fait l’objet d’une mesure. » Elle a également réalisé des mesures au niveau des concentrateurs. « À 50  cm d’un concentrateur, les niveaux de champ électrique relevés en fonctionnement réel sont autour de 0,5  V/m (niveaux moyennés sur 6 minutes). Ces niveaux mesurés sont très faibles comparés aux valeurs limites réglementaires qui varient entre 28 V/m et 87 V/m selon les fréquences » [8].

Linky ne contribue pas à modifier l’environnement électromagnétique domestique (voir figure page précédente). Un module d’équipement radio Linky (ERL) pourra être rajouté pour déporter en temps réel le relevé de consommation à l’intérieur du logement et bénéficier d’offres spécifiques du fournisseur d’énergie. Il n’est pas obligatoire et sera installé par les utilisateurs qui le souhaitent. L’ERL est, lui, émetteur direct de champs élec-

concernent que 0,2 % des transformateurs HT/BT, soit moins de 4 % du parc total de compteurs. Ainsi, en milieu rural, un concentrateur gérera entre 10 et 20 compteurs. En revanche, en milieu urbain un concentrateur gérera entre 250 et 600 compteurs. Dans quelques cas très spécifiques (quartiers de haute densité), une grappe pourra contenir plus de 1 000 compteurs. » Source

Exposition de la population aux champs électromagnétiques émis par les « compteurs communicants ». Avis de l’Anses, rapport d’expertise collective, juin 2017 (version révisée de l’avis de décembre 2016).

tromagnétiques de radiofréquences. Deux bandes de fréquences sont envisagées pour cet émetteur radioélectrique, une basée sur la bande 868 MHz et une autre à 2,4 GHz (voir encadré).

Qu’en est-il de la santé des personnes ?

Des mouvements associatifs, en invoquant des risques sanitaires engendrés par les radiofréquences, se sont élevés contre ces technologies. Ils mettent en avant l’avis du Centre international de recherche sur le cancer (CIRC) [11,12] qui, en 2011, a classé les radiofréquences comme « cancérogène possible » (catégorie 2B). Que veut dire cette classification  ? Cette catégorie est utilisée pour les agents, mélanges et circonstances d’exposition pour lesquels il existe peu de preuves (limited evidence) de cancérogénicité chez l’Homme et des preuves insuffisantes (less than sufficient evidence) de la cancérogénicité par expérimentation animale [13].

Depuis, l’état des connaissances en matière de risques sanitaires des radiofréquences a été actualisé par les expertises de l’Anses en France en octobre 2013 [14] et en juillet 2016 pour les enfants [15], ainsi que du SCENHIR en janvier 2015 [7]. Ce sont ces expertises qui font référence pour l’évaluation du risque. Science et pseudo-sciences n°332 - avril / juin 2020

55

Article

/

Linky et la communication à l’intérieur de la maison Le compteur Linky dispose d’un emplacement réservé pour l’installation d’un module optionnel permettant de transmettre directement les données de consommation à des appareils installés dans la maison, sans passer par l’infrastructure d’Enedis. Ces modules, appelés « équipements radio Linky » (ERL) peuvent être proposés aux utilisateurs par les fournisseurs d’énergie ou par des fournisseurs de services et vont exploiter des technologies radiofréquences pour communiquer. L’Agence nationale des fréquences1 (ANFR) a procédé à l’analyse des émissions radio de l’un de ces dispositifs (la « clé Atome ») qui permet le transfert des informations par wifi du compteur à une box Internet ou un smartphone. « Les émissions de l’ERL ne sont pas permanentes : il n’émet qu’environ 1 % du temps. Les relevés ont fait apparaître une transmission des données toutes les 1,6 secondes. La transmission est constituée de deux envois d’une durée d’environ 0,01 seconde, à 0,1 seconde d’intervalle. En cas d’échec de la transmission, conformément au protocole wifi, l’envoi est renouvelé.

Il n’y a pas d’étude scientifique particulière concernant l’impact sur la santé des compteurs Linky, et aucune n’est prévue car l’exposition engendrée est trop faible en termes d’intensité et trop courte en termes de durée.

L’Anses a rendu son avis et son rapport d’expertise collective sur les champs électromagnétiques émis par les compteurs Linky à la fin de l’année 2016 et l’a mis à jour en 2017  : « Les compteurs de type Linky produisent sur le réseau domestique des signaux qui peuvent être équivalents à ceux des parasites créés notamment par la mise en route d’appareils domestiques (courants transitoires à haute fréquence). Actuellement, il n’existe aucune donnée suggérant que les courants transitoires à haute fréquence puissent affecter la santé aux niveaux d’exposition mesu-

56

Science et pseudo-sciences n°332 - avril / juin 2020

À 50 cm de la clé en fonctionnement, le niveau de champ électrique moyenné sur une durée de 6 minutes s’est révélé très faible : environ 0,18 V/m. Pendant les émissions, qui sont très brèves, un niveau de champ électrique instantané maximal de 5 V/m a été relevé. Les niveaux mesurés apparaissent donc très faibles comparés à la valeur limite réglementaire située à 61 V/m dans cette bande de fréquence. Ces niveaux sont également en-dessous des niveaux mesurés à proximité d’une box Wifi en activité : la “maison ANFR” indique un niveau moyenné sur 6 minutes de 2,8 V/m à 50 cm de la box, contre 0,18 V/m pour la clé Atome. » 1 L’Agence nationale des fréquences est un établissement public administratif créé par la loi de réglementation des télécommunications du 26 juillet 1996, avec pour mission la gestion du spectre radioélectrique en France. Source

Synthèse du rapport technique sur les niveaux de champs électromagnétiques créés par un équipement radio Linky (ERL) de l’ANFR (juillet 2019)

rés. […] Compte tenu des faibles niveaux d’exposition engendrés par les compteurs et concentrateurs, il est peu vraisemblable que ces appareils représentent un risque pour la santé à court ou long terme » [5].

Il est à noter que ces signaux CPL sont bien trop faibles pour perturber le fonctionnement des implants médicaux cardiaques. Les stimulateurs et les défibrillateurs cardiaques, comme tous les dispositifs médicaux implantés, sont conçus pour ne pas être perturbés par l’environnement électromagnétique quotidien. Aux niveaux mesurés par l’ANFR, le champ électrique interne induit par les champs électriques et magnétiques externes émis par un compteur Linky est bien inférieur aux valeurs de bon fonctionnement garanties par les fabricants qui sont celles de la recommandation européenne de 1999.

/

Article

Affiche de David Dellepiane pour l'exposition de l'électricité à Marseille en 1908.

En conclusion Les courants porteurs en ligne (CPL) permettent au concentrateur de « dialoguer » avec le compteur Linky. Les CPL ne sont pas une technologie nouvelle qui pourrait focaliser, alors à juste titre, des interrogations et même des inquiétudes. Ils sont déjà à l’œuvre sur le compteur bleu de la génération précédente. Il ne s’agit pas de radiofréquences comme celles de la téléphonie mobile, du wifi ou encore du téléphone sans fil. Un compteur Linky n’est pas une antenne, il n’émet pas de rayonnement intentionnel, il

a un rayonnement électromagnétique faible qui décroît très vite quand on s’en éloigne. La contribution de ce rayonnement à l’environnement électromagnétique n’est pas significative en termes d’émission et, de ce fait, en termes de conséquences sanitaires éventuelles.  // Références

Thierry Sarrazin et Martine Souques

[1] Loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte. JORF n° 0189 du 18 août 2015, texte n° 1, p. 14263.

Le programme des monographies du CIRC évalue les dangers (substances cancérogènes) mais pas les risques associés à l’exposition La distinction entre danger et risque est importante. Un agent est considéré comme dangereux s’il est capable de provoquer un cancer dans certaines circonstances. Le risque mesure la probabilité qu’un cancer se produise, en tenant compte du niveau et des circonstances d’exposition à l’agent. Ainsi, le danger présenté par une grosse météorite qui tomberait sur la Terre est grand, mais le risque que cela se produise est très faible.

Le programme de monographies développé par le CIRC vise à identifier le danger cancérogène associé aux agents sans quantifier le risque d’exposition. La reconnaissance de ce caractère « dangereux » (substances cancérogènes) est importante car de nouvelles utilisations ou des expositions imprévues pourraient entraîner des risques beaucoup plus élevés que ceux observés actuellement. Science et pseudo-sciences n°332 - avril / juin 2020

57

Article

/

[2] Ministère de la Transition écologique et solidaire, « Questions /

public aux ondes radiofréquences des compteurs Linky réalisées

Réponses sur les compteurs Linky ». Sur ecologique-solidaire.gouv.fr

entre juin et décembre 2018 ». Sur anfr.fr

[3] CRE, « Compteurs communicants Linky : le point de vue de

[9] ANFR, « Compteurs Linky ». Sur anfr.fr

la CRE », 7 février 2018. Sur blog.cre.fr

[10] ANFR, « Protocole de mesure – Version 4 », septembre

[4] Directive 2009/72/CE du 13 juillet 2009 concernant des règles

2017. Sur anfr.fr

communes pour le marché intérieur de l’électricité.

[11] CIRC, « Le CIRC classe les champs électromagnétiques

[5] Anses, « Exposition de la population aux champs électro-

de radiofréquences comme “peut-être cancérogènes pour

magnétiques émis par les compteurs communicants », rapport

l’homme” », communiqué de presse n° 208, 31 mai 2011.

d’expertise collective, juin 2017. Sur anses.fr

[12] CIRC, « Cancérogénicité des champs électromagnétiques

[6] Conseil des Communautés européennes, « Recomman-

de radiofréquences », Monographie du CIRC, 2017, vol. 102. Sur

dation 1999/519/CE du Conseil du 12 juillet 1999 relative à la

cancer-environnement.fr

limitation du public aux champs électromagnétiques (de 0 Hz

[13] IARC, “Monographs Preamble”, version mise à jour en

à 300 GHz) », Journal officiel des Communautés européennes

janvier 2019. Sur monographs.iarc.fr

1999, L199, 59-70.

[14] Anses, « Radiofréquences et santé. Rapport d’expertise

[7] SCENIHR, “Potential health effects of exposure to electroma-

collective », octobre 2013. Sur anses.fr

gnetic fields (EMF)”, 27 janvier 2015. Sur ec.europa.eu

[15] Anses, « Exposition aux radiofréquences et santé des

[8] ANFR, « Analyse des résultats de mesures d’exposition du

enfants. Rapport d’expertise collective », juin 2016. Sur anses.fr

Il est paradoxal de constater qu’une grande partie de ceux qui mettent en avant des risques liés aux ondes électromagnétiques produites par le compteur Linky s’inquiètent moins de celles émises par leur box Internet ou par leur téléphone portable (ces dernières sont pourtant bien plus puissantes, tout en restant sans danger). Les exemples sont nombreux où les peurs ne sont pas proportionnées à l’importance du risque, voire en sont complètement décorrélées. De très nombreux facteurs peuvent expliquer ce constat en apparence surprenant. Parmi eux, l’utilité perçue joue un rôle très important. Daniel Kahneman, pionnier de l’économie comportementale, le notait : « Dans le monde imaginaire où nous vivons, les bonnes technologies n’ont que peu d’inconvénients, les mauvaises technologies n’ont pas d’avantages » [1]. Relatant diverses expériences menées, il remarquait que «  quand les gens étaient favorables à une technologie, ils estimaient qu’elle offrait de formidables avantages et ne représentait quasiment

58

Science et pseudo-sciences n°332 - avril / juin 2020

© Lucas Destrem, CC BY-SA 4.0

Pourquoi Linky et pas la box Internet ou le téléphone portable ?

pas de risque ; quand ils n’aimaient pas une technologie, ils ne pouvaient penser qu’à ses inconvénients, et peu d’avantages leur venaient à l’esprit. »

/

Dans ce contexte, il n’est pas étonnant que les personnes soient extrêmement sensibles aux risques allégués, réels ou supposés, d’un dispositif s’ils n’en perçoivent pas l’intérêt. La box Internet ou le téléphone portable sont perçus comme très utiles par leurs utilisateurs. Si la nécessité d’antennes relais est bien comprise sur le plan théorique par tous les possesseurs d’un téléphone portable, il est facile de se dire que l’antenne peut, « par précaution », être déplacée et éloignée, car ce n’est pas elle qui est directement utilisée (et pourtant, l’exposition d’un utilisateur aux champs électromagnétiques d’une antenne est bien moindre que celle issue de l’utilisation du portable lui-même).

Le respect de la vie privée et le traitement des données personnelles relèvent partiellement du même schéma explicatif : les données personnelles collectées via le compteur Linky sont sans commune mesure avec ce que la plupart des utilisateurs exposent publiquement via Internet (avec le simple usage d’un moteur de recherche, et encore bien plus en s’inscrivant sur les réseaux sociaux). Mais dans ce dernier cas, il s’agit d’une décision prise librement1 et motivée par le bénéfice attendu du service souscrit. Cette « utilité perçue » intervient dans de très nombreuses controverses. Le recours aux biotechnologies en agriculture (les OGM) a d’abord intéressé les agriculteurs (la possibilité de diminuer la fréquence d’utilisation de certains produits chimiques, de disposer de plantes plus résistantes à certains agresseurs). Pour le consommateur final, ces OGM de première génération n’offraient aucun avantage : ni meilleur goût, ni meilleur prix. Dès lors, la technologie pouvait être perçue comme porteuse de tous les risques. C’est 1 En supposant que les conditions de traitements des données personnelles soient claires et bien comprises au moment de la souscription du service…

Article

aussi, sans doute, ce qui permet d’expliquer pourquoi le riz doré2 fait toujours l’objet d’une intense campagne de dénigrement de la part des opposants aux OGM [2]. Un OGM utile au consommateur final pourrait modifier la perception globale sur une technologie qui, notons-le, est déjà largement adoptée en ce qui concerne les médicaments, où son utilité ne fait plus débat. La vaccination pourrait aussi être victime de ce syndrome de l’utilité perçue : pourquoi se vacciner contre des maladies que l’on ne voit plus autour de soi (la génération de ceux qui pouvaient voir des personnes atteintes de la polio dans les cours des écoles est bien vieillissante), surtout quand il semble que les médicaments aujourd’hui disponibles permettent bien des guérisons ?

Bien d’autres facteurs interviennent pour expliquer le développement de certaines controverses : la nature des enjeux économiques et sociétaux que permet de soulever la controverse, le type de produit ou de technologie incriminé, etc. Ainsi, les « dangers invisibles » (virus, ondes, radioactivité, traces de produits chimiques) sont plus redoutés que ceux qui semblent plus tangibles (accidents de la route, alcool, tabac) et ce, indépendamment de l’évaluation réelle du risque associé. SPS

2 Le riz doré est un riz génétiquement modifié qui pourrait permettre d’apporter une aide à des millions de consommateurs carencés en vitamine A, particulièrement les enfants dans les pays pauvres, cette carence conduisant à la cécité ou au décès.

Références

[1] Kahneman D, Système 1 / Système 2. Les deux vitesses de la pensée, Flammarion, 2012. [2] « Le riz doré », dossier, SPS n° 307, janvier 2014. Sur afis.org

Science et pseudo-sciences n°332 - avril / juin 2020

59

Article

/

Chronologie de l’« affaire » des pesticides SDHI

U

ne importante controverse médiatique s’est développée autour d’une famille de pesticides utilisés en agriculture. Elle a conduit à de très vives accusations à l’encontre de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses). Pour mieux comprendre cette controverse, un exposé de sa chronologie est indispensable. Les SDHI, ou inhibiteurs de la succinate déshydrogénase (en anglais, succinate dehydrogenase inhibitors), sont des fongicides utilisés depuis une vingtaine d’années « sur céréales et en traitement de semences pour contrôler des maladies majeures de type septoriose, helminthosporiose, ramulariose, charbons et autres champignons non pythiacées », mais également « sur vigne, en arboriculture, grandes cultures (autres que céréales), cultures légumières et ornementales, afin de contrôler les maladies majeures de type sclérotinia, pourriture grise, phoma, et autres champignons de ce type ». Ils agissent en bloquant la respiration des cellules de champignons affec-

tant les cultures. Aujourd’hui, en France, onze substances actives appartenant à cette famille font partie des composants de produits phytosanitaires autorisés [1].

Pierre Rustin, biochimiste et directeur de recherche au CNRS est responsable d’une équipe de l’Inserm spécialisée dans les maladies mitochondriales liées au dysfonctionnement d’une enzyme intervenant dans la fonction respiratoire (la succinate déshydrogénase ou SDH). C’est à l’issue d’une recherche bibliographique que ces chercheurs découvrent que des molécules inhibitrices de la SDH sont utilisées en agriculture et c’est légitimement qu’ils s’inquiètent « que l’on puisse utiliser cette molécule librement » sachant que « la chaîne respiratoire est présente dans tous les organismes, des bactéries à l’Homme » [2]. Fin novembre 2017, ils contactent donc l’Anses. Le directeur scientifique de l’agence, Gérard Lasfargue, répond que « pour l’instant,

Chemin dans les blés à Pourville, Claude Monet (1840-1926)

60

Science et pseudo-sciences n°332 - avril / juin 2020

/

Article

Étude de coquelicots, Emmanuel de La Villeon (1858-1944)

l’évaluation scientifique des risques liés à l’usage de ces produits, qui prend en compte le mécanisme d’action, conclut à une absence de risque inacceptable » et ajoute ne pas avoir, à ce stade, d’éléments « pour les interdire ou les suspendre sur la base d’hypothèses tirées de leur mécanisme d’action ». Mais, déclarant prendre toujours très au sérieux les alertes qui lui sont adressées, le directeur de l’agence demande à Pierre Rustin de lui envoyer ses données. Après examen, celles-ci n’ont pas permis à l’Anses de trouver des « éléments nouveaux qui permettraient d’alimenter une réévaluation des risques ». Pierre Rustin a été invité à l’agence pour être auditionné et « consulter […] les dossiers d’évaluation de ces fongicides [et] en discuter de façon très ouverte » [3].

Le 29 mars 2018, Pierre Rustin et ses collègues publient dans la revue bioRxiv [4] un preprint1 rendant compte de tests in vitro sur l’effet de molécules de la famille des SDHI ; ceux-ci suggèrent que l’action des SDHI pourrait être également délétère pour des organismes noncibles. Le seul élément scientifique à l’appui de leur hypothèse est un tableau montrant quatre courbes d’inhibition de la succinate déshydrogénase. Aucun résultat brut, pas de paragraphe « matériel et méthode » ni de discussion des résultats ne sont présents, comme il est pourtant d’usage dans les publications scientifiques. 1 Un preprint (ou prépublication) est un article qui n’a pas encore été évalué par les pairs mais est rendu accessible par leurs auteurs pour d’éventuels commentaires.

En conclusion, le texte demandait que, « compte tenu du danger qu’ils représentent, les SDHI devraient être ajoutés d’urgence à la liste des pesticides dont l’utilisation devrait être interdite ou strictement limitée ». Le 15 avril 2018, soit deux semaines après le dépôt de l’article, sept des signataires publient une tribune dans Libération [5] appelant à « suspendre l’utilisation de ces produits [les SDHI] utilisés dans l’agriculture tant qu’une estimation des dangers pour la santé n’aura pas été réalisée par des organismes publics et indépendants des industriels ». L’Anses se saisit du sujet le jour même et met en place un groupe d’expertise collective d’urgence. Les signataires de la tribune sont auditionnés le 14 juin 2018.

Le 15 janvier 2019, l’Anses rend son avis [1] : « Les informations et hypothèses évoquées n’apportent pas d’éléments en faveur d’une alerte sanitaire pour la santé humaine et l’environnement en lien avec l’usage agricole de ces fongicides qui pourrait justifier la modification ou le retrait des autorisations de mise sur le marché. » Elle ajoute que, « au regard des sources consultées, il n’a pas été identifié de données suggérant une augmentation de l’incidence des cancers spécifiques associés au déficit en SDH, chez l’Homme non porteur de mutation (chez les professionnels exposés par exemple), malgré une commercialisation parfois ancienne de ces molécules SDHI, ni de données suggérant un impact pour les organismes de l’environnement ». Pour autant, l’Anses consiScience et pseudo-sciences n°332 - avril / juin 2020

61

Article

/

dère « que le dossier n’est pas clos et poursuit les investigations ».

En juin 2019, les chercheurs signent une nouvelle tribune publiée dans Le Monde [6] dénonçant « l’incapacité des experts en toxicologie à protéger la nature et possiblement l’Homme des méfaits des pesticides » et adressent, aux côtés de l’association Pollinis, une pétition au Parlement européen [7]. Le 25 juillet 2019, l’Anses fait le point sur les travaux en cours et annonce que « à ce jour, aucun nouvel élément n’est venu confirmer l’existence d’une alerte sanitaire qui conduirait au retrait des autorisations de mise sur le marché en vigueur, conformément aux règlements nationaux et européens relatifs aux produits phytopharmaceutiques » [8]. Elle rappelle qu’elle a saisi l’Inserm afin que la question des effets des SDHI sur la santé soit bien intégrée dans la mise à jour de son expertise collective sur les effets sanitaires liés aux pesticides. Le 11 septembre 2019, le journaliste Fabrice Nicolino publie un livre intitulé Le crime est presque parfait – L’enquête choc sur les pesticides et les SDHI (voir la note de lecture de C. Hill). Le 7 novembre 2019, paraît dans PLoS ONE l’article scientifique de Pierre Rustin et ses collègues [9]. C’est la première fois depuis le début

de l’histoire en novembre 2017 (soit au bout de deux années) que des données scientifiques sont publiées par les chercheurs sur le sujet. Il s’agit d’une étude in vitro sur l’inhibition de la succinate déshydrogénase sur quatre types cellulaires : champignons, lombrics, abeille et Homme. Le même jour, dans un entretien accordé à Libération [10], Pierre Rustin déclare qu’il n’est pas possible de « se permettre d’attendre la catastrophe comme l’Anses semble le faire » et accuse l’agence de mentir « par omission ». Le lendemain de la publication de PLoS ONE, l’Anses publie un troisième communiqué indiquant que l’article publié la veille « apporte des données nouvelles » et demande à l’Inserm de les prendre en compte dans son expertise en cours. L’agence rappelle cependant qu’« il est hasardeux de comparer les valeurs […] obtenues in vitro dans des conditions de laboratoire avec les concentrations de SDHI qui pourraient résulter des applications des pesticides sur les cultures, comme le soulignent les auteurs dans leur article » [11].

Le 19 novembre 2019, la Commission nationale de déontologie et alerte en santé publique et environnement rend un avis [12] reconnaissant que «  la situation est constitutive d’une alerte  ». Pour elle, «  les données scientifiques présentées par l’équipe de chercheurs sur les dangers des fongicides SDHI sont de qualité et posent un doute sérieux sur des dangers qui ne sont pas actuellement pris en compte dans les procédures de toxicologie appliquées selon la réglementation européenne  ». Elle souligne que « des incertitudes substantielles demeurent néanmoins sur les risques qui seraient induits chez l’Homme lors de l’exposi-

Verger en fleurs et vue d’Arles, Vincent van Gogh (1853-1890)

62

Science et pseudo-sciences n°332 - avril / juin 2020

/

tion à cette famille de fongicides  » et appelle à « la poursuite des recherches et donc des financements dédiés ». Enfin, la commission ajoute que, selon elle, « l’Anses a traité le signalement qui lui a été communiqué par l’équipe de chercheurs de manière réactive et approfondie  » et l’invite à « poursuivre dans ce sens ».

Le 21 janvier 2020, Le Monde publie un appel de 450 scientifiques contre les SDHI [13]. Fabrice Nicolino, président de l’association « Nous voulons des coquelicots » annonce le lancement d’une action en justice contre l’autorisation toujours accordée par l’Anses à trois pesticides SDHI en déclarant : « Nous ne voulons plus compter les morts, nous voulons les éviter » [14]. Le 22 janvier 2020, une réunion est organisée à l’Anses à laquelle toutes les parties prenantes qui le souhaitent sont invitées (associations, organismes publics…). Fabrice Nicolino et l’association « Nous voulons des coquelicots » déclinent l’invitation car, selon eux, « accepter un strapontin dans une commission aux échanges préformatés n’est pas à la hauteur de l’enjeu sanitaire que posent les SDHI ». À la place, ils organisent une manifestation devant l’agence au moment même de la réunion [15]. Le 23 janvier 2020, une audition est organisée par l’Office parlementaire d’évaluation des choix scientifiques et technologiques où sont invités Pierre Rustin et Roger Genet, le directeur de l’Anses [16].

Dans la mise à jour du 21 janvier 2020 de sa page relative aux SDHI, l’Anses rappelle que, dès 2018, elle avait informé les autorités européennes et nord-américaines « du signal concernant les fongicides SDHI et de son auto-saisine sur le sujet », que début 2019 elle avait transmis à l’EFSA (l’Autorité européenne de sécurité des aliments) et aux États-membres ses conclusions afin qu’ils « se montrent particulièrement attentifs à toute nouvelle donnée lors des processus d’évaluation et de réévaluation en cours ». Et elle réaffirme que « à ce jour, aucun nouvel élément n’est venu confirmer l’existence d’une alerte sanitaire qui conduirait au retrait des autorisations de mise sur le marché en vigueur, conformément aux règlements nationaux et européens relatifs aux produits phytopharmaceutiques » [17].  //

Article

Références

[1] « Fongicides inhibiteurs de la succinate déshydrogénase (SDHI) : l’Anses présente les résultats de son expertise », 15 janvier 2019. Sur anses.fr [2] Assemblée nationale, « Commission d’enquête sur l’alimentation industrielle : qualité nutritionnelle, rôle dans l’émergence de pathologies chroniques, impact social et environnemental de sa provenance », compte rendu de l’audition de M. Pierre Rustin, 24 mai 2018. Sur assemblee-nationale.fr [3] Schaub C, « Alerte scientifique sur les fongicides », Libération, 15 avril 2018. [4] Bénit P et al., “A new threat identified in the use of SDHIs pesticides targeting the mitochondrial succinate dehydrogenase enzyme”, bioRxiv, mis en ligne le 29 mars 2018. [5] « Une révolution urgente semble nécessaire dans l’usage des antifongiques », tribune publiée par « un collectif de chercheurs et de médecins », Libération, 15 avril 2018. [6] « Il faut stopper au plus vite l’usage des pesticides », tribune publiée dans Le Monde, 4 juin 2019. [7] « Pétition au parlement européen sur l’évaluation des risques des fongicides SDHI pour la santé humaine, les écosystèmes et les insectes pollinisateurs », 3 juin 2019. Sur pollinis.org [8] « SDHI : l’Anses fait le point sur les travaux lancés suite à l’avis de janvier 2019 », 25 juillet 2019. Sur anses.fr [9] Bénit P, “Evolutionary conserved susceptibility of the mitochondrial respiratory chain to SDHI pesticides and its consequence on the impact of SDHIs on human cultured cells”, PLoS ONE, 7 novembre 2019. [10] Schaub C, « Fongicides SDHI : “On ne peut se permettre, comme l’Anses, d’attendre la catastrophe” », Libération, 7 novembre 2019. [11] « Point sur les SDHI », Anses, point d’actualité du 8 novembre 2019. [12] « Avis sur le signalement de possibles risques liés à l’utilisation de fongicides agissant par inhibition de la succinate déshydrogènase (SDHI) », 18 novembre 2019. Sur alerte-santeenvironnement-deontologie.fr [13] « Pesticides SDHI : 450 scientifiques appellent à appliquer le principe de précaution au plus vite », tribune publiée dans Le Monde, 21 janvier 2020. [14] « Contre les pesticides SDHI, des associations écolos saisissent la justice », Reporterre, 22 janvier 2020. Sur reporterre.net [15] « SDHI – les Coquelicots invitent (à nouveau) Roger Genet de l’Anses à discuter. En vain », chaîne de l’association « Nous voulons des coquelicots », YouTube, 22 janvier 2020. [16] Office parlementaire d’évaluation des choix scientifiques et technologiques, « Audition plénière – Fongicides SDHI », jeudi 23 janvier 2020. Sur videos.senat.fr [17] Anses, « Fongicides SDHI », mise à jour 21 janvier 2020.

Science et pseudo-sciences n°332 - avril / juin 2020

63

Article

/

À propos de la controverse sur les SDHI

Note de lecture Catherine Hill est épidémiologiste et biostatisticienne, spécialiste de l’étude de la fréquence et des causes du cancer, et de l’évaluation des dépistages et des traitements. Ancienne chercheuse à l’Institut de cancérologie Gustave Roussy, elle a également fait partie du conseil scientifique de l’Agence du médicament.

Le crime est presque parfait L’enquête choc sur les pesticides et les SDHI Fabrice Nicolino Les Liens qui Libèrent, 2019, 254 pages, 20 €

Cet ouvrage, écrit par un journaliste, militant anti-pesticides et cofondateur du mouvement « Nous voulons des coquelicots », raconte une histoire intéressante mais vue, et c’est dommage, sous le prisme du catastrophisme. Deux informations sont à apporter en préambule.

Sur la quatrième de couverture, à propos d’une catégorie de pesticides, les SDHI (succinate dehydrogenase inhibitors1), on peut lire : « Les SDHI s’attaquent à la fonction respiratoire de tous les êtres vivants. » Il importe de préciser que cette respiration est un processus moléculaire qui se déroule dans les cellules de tous les êtres vivants, au niveau de structures appelées mitochondries. Il ne s’agit pas du processus qui permet d’apporter, au niveau des poumons, l’oxygène à la circulation sanguine qui ensuite le distribue aux cellules. Les mitochondries permettent la production de l’énergie nécessaire au 1 La succinate déshydrogénase (SDH) est un complexe enzymatique qui favorise une des réactions chimiques nécessaires à la production d’énergie au sein des cellules.

64

Science et pseudo-sciences n°332 - avril / juin 2020

fonctionnement cellulaire par transformation de nutriments en présence d’oxygène. Ce mécanisme est partagé par la plupart des organismes vivants, des végétaux aux animaux, en passant par les bactéries.

Les pesticides, qu’il s’agisse d’herbicides, de fongicides ou d’insecticides, sont conçus pour tuer les herbes, les moisissures, les insectes ; on s’attend donc à ce qu’ils aient une certaine toxicité pour le vivant. Dans certains pays, les suicides par ingestion de pesticides sont relativement fréquents : à dose élevée, la toxicité aiguë de certains pesticides est létale2. La toxicité chronique, aux doses auxquelles un agriculteur est exposé dans des conditions normales d’utilisation, et aux doses auxquelles la population générale est exposée, doit évidemment être surveillée de près. Le livre a comme sous-titre L’enquête choc sur les pesticides et les SDHI et contient plusieurs thèmes.

Un thème militant anti-pesticide

L’auteur considère que les pesticides de synthèse ont été mis sur le marché pour enrichir les fabricants (qui se font une concurrence effrénée), avec la complicité des autorités françaises et européennes qui sont chargées de protéger la

2 Le paraquat, qui est interdit dans bon nombre de pays, dont les pays de l’Union européenne depuis 2007, a été beaucoup utilisé ; on cite aussi les organophosphorés. Voir [1].

/

santé de la population, mais qui sont manipulées par les fabricants à travers leur lobby. Sur ce point, tout est dit dans les premières pages : il existe un formidable complot visant à cacher les méfaits des pesticides ; participent notamment à ce complot le ministère de l’Agriculture, des organismes de recherche concernés par l’agriculture et la santé (Inra, Anses), ainsi que la FNSEA (p. 6-10).

Un thème sur les déboires de scientifiques spécialistes des maladies mitochondriales

Ces scientifiques, dirigés par Pierre Rustin, directeur de recherche au CNRS et responsable de l’équipe Physiopathologie et thérapie des maladies mitochondriales (UMR 1141), ont essayé d’alerter les autorités sur la possible toxicité d’une famille de fongicides, les SDHI. Ils ont découvert en octobre 2017 qu’on utilisait largement en agriculture des inhibiteurs de la succinate déshydrogénase (SDH) comme antifongiques. Or ils savent que les personnes porteuses d’une mutation d’un des gènes du complexe SDH ont un risque très augmenté de plusieurs maladies très rares dont des tumeurs bénignes ou malignes (paragangliome, tumeur stromale gastro-intestinale, carcinome rénal...), des maladies neurologiques (syndrome de Leigh) et cardiaques (cardiomyopathies) [2]. Les mutations de ces gènes expliquent par exemple 10  % des formes familiales des paragangliomes/phéochromocytomes, maladies dont la prévalence est de 1 à 9 par million d’individus3. Ils ont donc contacté l’Anses, agence responsable de l’évaluation des risques chimiques qui, d’après Fabrice Nicolino, n’a pas pris la peine de répondre. En avril 2018, ils publient une tribune dans Libération [3]. Elle paraît, accompagnée d’une réponse du directeur scientifique de l’Anses qui écrit, dans le style négatif qu’affectionnent les autorités françaises : « Pour l’instant, l’évaluation scientifique des risques liés à l’usage de ces produits, qui prend en compte le mécanisme d’action, conclut à une absence de risque inacceptable » [4]. Deux mois plus tard, en juin 2018, les signataires de la tribune sont reçus à l’Anses 3 Voir la fiche « Phéochromocytome-paragangliome héréditaire » sur le portail des maladies rares et des médicaments orphelins (orpha.net).

Article

où ils se retrouvent face à un comité d’experts d’une douzaine de personnes dont quatre toxicologues. Le livre résume les carrières de ces quatre toxicologues : aucun n’est spécialiste des maladies mitochondriales et la seule spécialiste des pesticides a des liens d’intérêt avec l’industrie des pesticides4. L’auteur rapporte que les lanceurs d’alerte ont l’impression d’être dans un tribunal. Mais ils ont été en partie entendus. En janvier 2019, l’Anses publie un rapport [5] de 94 pages « relatif à l’évaluation du signal concernant la toxicité des fongicides inhibiteurs de la succinate déshydrogénase (SDHI) ». Le rapport décrit les données disponibles. Les scientifiques lanceurs d’alerte ont répondu en quatre pages concluant notamment : « Il nous semble indispensable que les risques liés à l’utilisation des SDHI soient réévalués et que cette évaluation prenne désormais en considération leur mode d’action lié à un blocage du complexe II de la chaîne respiratoire des mitochondries » [6]. F. Nicolino critique le rapport de l’Anses qui notamment ne mentionne pas un travail récent de l’équipe de P. Rustin montrant que les SDHI inhibent la succinate déshydrogénase chez le lombric et dans des cellules rénales humaines [7] ; il invoque l’effet cocktail et s’inquiète de la détection de boscalid dans les cheveux de femmes enceintes, le boscalid étant le premier pesticide à base de SDHI mis sur le marché5 et le seul recherché dans les cheveux jusqu’à présent.

Selon l’auteur, des toxicologues du groupe Bayer, spécialistes de l’étude de la toxicité d’un des fongicides inhibiteurs de SDH, ont souhaité rencontrer l’équipe de P. Rustin, qui a posé comme condition à cette rencontre la présence de deux journalistes – dont l’auteur de l’ouvrage. Fort justement, les chercheurs de Bayer ont refusé cette exigence. Il est, en effet, incongru de mêler des journalistes militants à une rencontre entre scientifiques. Par ailleurs, l’Anses propose de financer des recherches sur le sujet. 4 L’Anses a répondu à cette accusation le 23 septembre 2019 : voir

« Vidéo. Le directeur de l’Anses se défend face à des accusations de conflit d’intérêt » sur francetvinfo.fr 5 L’évolution des ventes des différents SDHI entre 2008 et 2017 se trouve sur le site de l’Anses dans le document daté du 15 janvier 2019 : « Avis de l’Anses relatif à l’évaluation du signal concernant la toxicité des fongicides inhibiteurs de la succinate deshydrogénase (SDHI) », p. 94.

Science et pseudo-sciences n°332 - avril / juin 2020

65

Article

/

Un argumentaire contre les conflits d’intérêt

L’auteur bâtit une critique de l’Anses sur la base des conflits d’intérêt qui ont émaillé l’histoire de cet organisme, comme relatés par l’Inspection générale des affaires sociales (Igas) dans un rapport de janvier 2006 [8] et par Martin Hirsch dans un entretien publié par Libération le 9 décembre 2010 (cité par l’auteur, p. 123 et 125). Il décrit en détail la carrière d’une agronome française devenue directrice de l’agence européenne de sécurité des aliments (Efsa) en des termes assez nauséabonds et passablement sexistes : « Elle sent le pouvoir à longue distance, elle s’en enivre, elle veut diriger » (p. 135). Il rapporte diverses crises auxquelles elle a été mêlée, dont la découverte de liens entre le « plus grand lobby alimentaire de la planète, l’International Life Science Institute » et l’Efsa (p. 138). Il attaque la directrice de la communication de l’Anses en rapportant qu’elle a travaillé de 2002 à 2016 dans une agence de lobbying qui fait partie depuis 2012 du groupe Burson-Marsteller. Il rapporte que ce groupe « a défendu les intérêts du Nigeria dans sa guerre atroce contre le Biafra entre 1967 et 1970. Les intérêts du satrape stalinien Ceaușescu au même moment. Les intérêts de General Motors, attaqués dans les années 1970 par l’écologiste Ralph Nader. Les intérêts de l’Argentine fasciste après le coup d’État militaire de 1976… » Avec ce système de contamination rétrospective, tout le monde pourrait devenir coupable aux yeux de F. Nicolino. Sa propre association « Nous voulons des coquelicots » est, d’ailleurs, soutenue par Biocoop, entreprise qui est aussi cliente de Burson-Marsteller [9].

Une critique de la façon dont la sécurité des pesticides est évaluée

L’auteur critique la façon dont la sécurité des pesticides est évaluée, en soulignant systématiquement la possibilité de conflits d’intérêt. Il affirme, sans la moindre preuve, que « certaines molécules – notamment chez les perturbateurs endocriniens – agissent dès le premier contact d’une seule » (p. 152). Il évoque le problème du Lévothyrox, comme autre exemple de mauvaise gestion d’une alerte ne traitant que du décalage entre les « centaines de milliers de personnes [qui] se plaignent d’effets secondaires de la nouvelle formule » et des «  instances officielles ou

66

Science et pseudo-sciences n°332 - avril / juin 2020

[des] sociétés savantes [qui] considèrent l’alerte comme étant sans fondement » (p.  154-155). Il évoque aussi l’épigénétique abordée en premier à partir de l’étude des descendants de 303 habitants d’un village du nord de la Suède, nés en 1890 ou 1905 ou 1920. Cette étude rapporte, entre autres, une mortalité plus élevée chez les filles dont les grands-mères avaient connu des saisons d’abondance entre huit et dix ans. Avec une population aussi petite et une quantité d’informations très importante sur chaque sujet, on peut toujours trouver un résultat publiable, mais sera-t-il jamais répliqué ? Il emprunte ensuite à Joël de Rosnay une définition de l’épigénétique. D’après F. Nicolino, ce sujet est pertinent car l’étude actuelle de la toxicité des pesticides ignore les mécanismes épigénétiques, alors que l’équipe de P. Rustin attribue la toxicité des SDHI à ces mécanismes. On trouve ensuite plusieurs chapitres sur les différentes organisations agricoles de l’Association de coordination technique agricole (Acta) au Fungicide Resistance Action Committee (Frac), en passant par l’Inra et Arvalis – Institut du végétal, toutes accusées par l’auteur de servir l’industrie des pesticides. Enfin, F.  Nicolino revient assez longuement sur divers sujets dont l’affaire des bébés nés sans bras dans laquelle il adopte le point de vue de la responsable du registre Rhône-Alpes, sans mentionner les résultats de la dernière enquête qui montre que le nombre de naissances de ces bébés dans l’Ain est dans la norme. L’avant-dernier chapitre s’intéresse aux pesticides en dehors de la France, au Costa-Rica, en Chine, en Afrique… Le dernier chapitre, avec « Henry David Thoreau5 en maître de cérémonie », « prêche donc la révolte et la désobéissance » (p. 241) après avoir affirmé que « les SDHI représentent un danger inouï » (p. 234). En conclusion, ce livre raconte l’histoire de scientifiques qui ont lancé une alerte et qui ont de la peine à se faire entendre, mais sous prétexte de les défendre, l’auteur tire à boulets rouges sur des institutions de santé publique et recourt à des attaques personnelles déplorables. Ces lanceurs d’alerte se sont trouvés 5 Henry David Thoreau (1817-1862) est un philosophe et naturaliste

américain. Anti-esclavagiste, il promeut la désobéissance civile en refusant de payer ses impôts (La Désobéissance civile, 1849) et, critique du mode vie occidental, il promeut un mode de vie simple, proche de la nature (Walden ou la Vie dans les bois, 1854).

/

Article

d’assez mauvais associés. Notons enfin qu’un représentant de l’Anses a répondu dans Le Point [10] à ce que l’hebdomadaire nomme les « élucubrations » de F. Nicolino.  //

nase (SDHI) », 15 janvier 2019. Sur anses.fr.

[1] Karunarathne A, Gunnell D, Konradsen F, Eddleston M, “How

qui milite pour leur interdiction.

many premature deaths from pesticide suicide have occurred

[7] Bénit P et al., “Evolutionarily conserved susceptibility of the

since the agricultural Green Revolution ?”, Clin Toxicol (Phila),

mitochondrial respiratory chain to SDHI pesticides and its conse-

2019, 9:1-6.

quence on the impact of SDHIs on human cultured cells”, PLoS

[2] Aldera AP, Govender D, “Gene of the month: SDH”, J Clin

ONE, 2019, 14:e0224132.

Pathol, 2018, 71:95-97.

[8] Inspection générale des affaires sociales (Igas) et Inspection

[3] « Tribune – Une révolution urgente semble nécessaire dans

générale de l’environnement (IGE), « Évaluation des méthodes

l’usage des antifongiques » par un collectif de chercheurs et de

de travail scientifique de l’AFSSE », rapport public, janvier 2006.

médecins, Libération, 16 avril 2018. Sur liberation.fr.

[9] Le billet de Seppi « Nous voulons des coquelicots : un ad

[4] Schaub C, « Alerte scientifique sur les fongicides », Libération,

hominem boomerang ! », 25 juin 2019. Sur le blog Agriculture,

16 avril 2018.

alimentation, santé publique... soyons rationnels.

[5] « Avis de l’Anses relatif à l’évaluation du signal concernant la

[10] Woessner G, « Pesticides : l’Anses répond aux “élucubra-

toxicité des fongicides inhibiteurs de la succinate deshydrogé-

tions” de Fabrice Nicolino », 13 septembre 2019. Sur lepoint.fr

Catherine Hill

Références

[6] « Analyse du rapport d’expertise collective et de l’Avis de l’Anses suite au signal concernant “La toxicité des fongicides inhibiteurs de la succinate déshydrogénase (SDHI)” », 30 janvier 2019. Sur le site EndSDHI animé par les scientifiques à l’origine de l’appel concernant les dangers représentés par les SDHI et

Expertise scientifique ou expertise citoyenne ? Dans un entretien accordé au site Usbek & Rica [1], le journaliste Fabrice Nicolino accuse l’Anses d’appartenir au «  lobby des pesticides » et appelle à « organiser concrètement la désobéissance civile » : « À partir du moment où les dirigeants ne protègent plus leur population, le contrat social est rompu […]. Nous avons le droit de ne pas être empoisonné. Les autorités violent ce droit élémentaire, je leur retire donc ma confiance en totalité et j’appelle à sortir dans la rue, de façon non-violente et ferme. » Logiquement, pour F. Nicolino, «  la seule solution est une dissolution [de l’Anses] suivie d’une création, avec le concours de la société civile, d’une agence radicalement indépendante » [2]. L’Anses n’est pas sa seule cible. Dans son livre Le crime était presque parfait, il met aussi en cause Santé publique France (l’Agence nationale de santé publique), dont le site «  ne semble nullement soucieux de combattre des produits qu’il désigne pourtant comme des poisons » ou encore l’Inra (Institut national de la recherche agronomique), accusé d’appartenir aux « puissants du secteur des pesticides ».

L’expertise relative à l’évaluation des risques en santé publique n’est pas une affaire d’opinion ou de « société civile », mais bien une question de connaissances scientifiques. S’en remettre à une prétendue «  expertise indépendante » que chacun choisirait en fonction de ses convictions politiques ou idéologiques serait la plus grande des menaces pour la santé publique. C’est cette menace que F. Nicolino fait peser en lançant des accusations de complot et en appelant à la dissolution des agences qui n’adhèrent pas à ses opinions et ne banniraient pas, comme le réclame l’association « Nous voulons des coquelicots » qu’il a co-fondée, tous les « produits chimiques » présentés comme toxiques par essence au profit de « produits naturels » supposés bons car venant d’une nature réputée bienveillante.

Références

J.-P. K.

[1] Nicolino F, « Les autorités violent notre droit élémentaire à ne pas être empoisonné », entretien accordé au site Usbek & Rica, 11 septembre 2019. Sur usbeketrica.com [2] Nicolino F, « L’Agence nationale de sécurité sanitaire fait partie du lobby des pesticides », entretien accordé au site Reporterre, 10 septembre 2019. Sur reporterre.net

Science et pseudo-sciences n°332 - avril / juin 2020

67

Article

/

Food Evolution : la censure l’emporte contre le débat

Food Evolution nous emmène au cœur de la problématique autour des aliments génétiquement modifiés, des défis alimentaires du continent africain et des cultures tolérantes au glyphosate. Sollicitant tous les acteurs de la controverse, militants anti-OGM, agriculteurs, scientifiques, agences sanitaires et industriels, il expose les oppositions très vives que suscite le recours aux biotechnologies en agriculture qui, pourtant, « peut protéger les cultures des maladies, des nuisibles, des mauvaises herbes et de la sécheresse, et peut aider à répondre à l’immense défi de nourrir dix milliards d’habitants en 2050 » [1]. Le film n’épouse pas les propos presque systématiquement repris dans les nombreux do1 The Garden raconte la lutte acharnée d’un propriétaire décidé à ex-

pulser des Latino-Américains qui ont transformé un simple terrain vague en une ferme communautaire située à South Central, Los Angeles.

68

Science et pseudo-sciences n°332 - avril / juin 2020

© shotbydave | Istockphoto

F

 ood Evolution est un film écrit et réalisé en 2016 par Scott Hamilton Kennedy (qui avait été nommé aux Oscars en 2009 dans la catégorie des meilleurs films documentaires pour The Garden1). Scott Hamilton Kennedy déclare que Food Evolution n’a pas été fait « pour défendre les OGM, mais pour que la science aide à prendre de meilleures décisions sur des sujets tels que : comment se nourrir et comment cultiver ? » Et il constate que « la science dit que les OGM actuellement en vente sont sans danger pour nous et pour la planète  » et que, pour avancer, « nous devrions utiliser la science pour tester chaque OGM au cas par cas » [1]. Neil deGrasse Tyson est le narrateur du documentaire. C’est un scientifique très populaire aux États-Unis, qui a été rédacteur en chef, animateur et narrateur de la série Cosmos : Une Odyssée à travers l’Univers (diffusée dans plus de 180 pays, traduite dans 45 langues et qui a remporté quatre Emmy Awards).

cumentaires traitant du sujet (en salle ou à la télévision). Il donne la parole aux associations opposées aux OGM, mais aussi aux industriels qui commercialisent ces plantes (dont Monsanto). La diversité des points de vue fait partie de la liberté cinématographique, et il est ainsi inquiétant que Food Evolution ait fait l’objet, en France, d’une sorte de censure sournoise qui a fortement entravé sa diffusion.

L’Afis a été sollicitée pour participer à plusieurs débats qui ont suivi la projection et a pu constater que ce film, loin des caricatures qui en ont été faites2, permettait un débat riche et documenté. Nous donnons ici la parole au diffuseur du documentaire en France et à un représentant de l’Association française des biotechnologies végétales (AFBV) qui a accompagné les rares projections du film et animé la plupart des débats qui ont suivi.  // Références

[1] Dossier de presse du film Food Evolution, sur foodevolution-lefilm.com 2 Par exemple : « Aussi délicat qu’une pulvérisation de Roundup sur un champ de maïs transgénique » (Télérama, 20 février 2019) ou « Un film de propagande au nom de la science » (Science et Avenir, 19 février 2019).

/

Article

Food Evolution : la censure insidieuse d’un film qui dérange Eddy Agnassia est responsable de la société 2iFILMS qui distribue le film Food Evolution en France.

D

epuis vingt ans, les OGM (organismes génétiquement modifiés) destinés à l’alimentation sont très controversés. Au milieu d’un débat public exacerbé, marqué par la passion, la suspicion et la confusion, le réalisateur américain Scott Hamilton Kennedy explore cette contestation et la diabolisation des OGM destinés à nos assiettes. Son documentaire nous emmène au cœur de la polémique sur les plantes génétiquement modifiées, des défis alimentaires du continent africain et des polémiques sur les produits phytosanitaires. Sollicitant des adeptes d’agriculture biologique opposés aux OGM, des experts renommés en biotechnologies, des agriculteurs, des représentants de l’industrie et des représentants des mouvements associatifs, rendant compte des avis des agences sanitaires, Food Evolution démontre comment la désinformation et la peur peuvent étouffer la diffusion des connaissances scientifiques.

Autant dire que ce film est d’une grande originalité dans le contexte médiatique et politique actuel, caractérisé par un dénigrement intensif de l’agriculture conventionnelle et une diabolisation des biotechnologies végétales, auxquels il tente de répondre grâce à la présentation sérieuse de faits scientifiques et de données factuelles. Ce film tranche aussi par rapport à la plupart des documentaires programmés dans le circuit cinématographique ou à la télévision,

Gil Kressmann est membre de l’Académie d’agriculture de France et administrateur de l’Association française des biotechnologies végétales (AFBV).

dont le scénario est orienté à charge contre l’agriculture intensive avec ses utilisations de la chimie et qui louent sans retenue et esprit critique les bienfaits de la petite agriculture « paysanne », de l’agriculture biologique, de la biodynamie ou de la permaculture.

La commercialisation de ce film, présenté officiellement en France pour la première fois le 20 février 2019, a causé bien des soucis au distributeur français, la société 2iFilms. Celle-ci ne se doutait pas de l’ampleur des obstacles qu’elle allait rencontrer pour le projeter dans les salles de cinéma françaises.

Première surprise : une réaction institutionnelle négative

Pour avoir tous les atouts de son côté, il était important que le film reçoive le label cinéma « Art et Essai » qui permet d’être recommandé auprès d’un réseau de 1 200 salles de cinéma. Ce label est accordé par l’Afcae (Association française des cinémas d’art et d’essai, qui fédère un réseau de cinémas de proximité indépendants partout en France) mandatée par le CNC (Centre national du cinéma et de l’image animée). Ce label a été refusé par son comité d’experts, qui n’a pas accordé une seule voix en faveur du film sans pour autant donner d’explication à ce vote, malgré plusieurs relances de la part du distributeur. Pourtant, ce film répondait parfaitement à l’une des conditions requises par Science et pseudo-sciences n°332 - avril / juin 2020

69

Article

/

le CNC pour bénéficier du label, à savoir : « œuvre Recherche et Découverte, c’est-à-dire ayant un caractère de recherche ou de nouveauté dans le domaine cinématographique » [1]. En effet, jamais un film n’avait traité de la problématique des OGM et du bio sous cet angle-là. Sans recommandation de professionnels du domaine (ce qui s’apparente en réalité à un avis négatif sur le film), la diffusion s’est annoncée très délicate auprès des exploitants de salles d’art et d’essai.

Deuxième surprise : des déprogrammations en série

Après avoir été retenu comme film d’ouverture du 8e festival international de cinéma Le Temps Presse (qui a eu lieu à Paris du 29 janvier au 1er février 2019), premier rendez-vous international de cinéma dédié aux thématiques de développement durable, nous apprenons, quelques jours avant l’ouverture, que Food Evolution est déprogrammé. Ce film ne semble plus plaire aux membres du jury présidé par l’actrice Juliette Binoche, publiquement engagée contre les OGM [2], ou aux partenaires du festival. Suite à un entretien téléphonique avec le directeur de ce dernier, nous comprenons qu’il y avait eu des menaces de retrait de financement du festival si la projection de Food Evolution était maintenue. Malgré de nombreuses démarches de la part du distributeur, ce film ne sera pas non plus retenu pour être présenté dans d’autres festivals abordant les thématiques de l’écologie, de l’agriculture et de l’alimentation. Nous avons pourtant contacté, mais en en vain, une dizaine de ces festivals tels que We love green, Climax, Interférences ou Escales. Pas de recommandation des institutions cinématographiques, pas de festival, la diffusion de Food Evolution s’annonçait mal. Il restait encore

70

Science et pseudo-sciences n°332 - avril / juin 2020

la décision des exploitants des salles de cinéma d’art et d’essai, circuit indépendant privilégié pour des films documentaires comme Food Evolution (les grands groupes cinématographiques ont été exclus de la démarche commerciale car, sauf exception, l’audience des films documentaires est trop petite pour les intéresser). Après que nous leur eûmes proposé de regarder Food Evolution pour se faire une opinion, la quasitotalité des exploitants de ces salles refusèrent de programmer le film. Seule une quarantaine d’entre eux l’ont effectivement projeté (et une dizaine d’autres séances ont été organisées mais dans un cadre privé). L’une des raisons les plus souvent invoquées est le refus de faire la promotion des OGM en France, le documentaire ayant été très vite catalogué de film de propagande « pro-OGM ».

/

C’est par exemple le motif invoqué par l’association Les faucheurs volontaires, qui est intervenue publiquement en perturbant le colloque sur les biotechnologies végétales organisé le 3 mars 2019 par l’Association française des biotechnologies végétales (AFBV) et l’Université catholique de Lyon (Ucly). Une douzaine de personnes se sont emparées du micro par la force pour délivrer leur message mais n’ont pas souhaité rester pour voir le film et ont refusé la proposition qui leur avait été faite de débattre librement à l’issue de la projection. Plus significatif encore de cette censure qui ne dit pas son nom fut la centaine de séances qui avaient été annoncées avant d’être déprogrammées. La pression des associations contestataires opposées aux OGM n’y est pas étrangère, selon les dires d’exploitants de salles.

Le monde associatif et les cinémas Art et Essai

Ces censures déguisées dans les festivals et dans les salles de cinéma d’art et d’essai démontrent à quel point il est difficile aujourd’hui, en France, de proposer au grand public un point de vue différent de celui de la plupart des associations militant sur la thématique de l’agriculture, de l’alimentation ou de l’écologie. Ces dernières, très présentes sur le terrain, sont naturellement des partenaires privilégiés des responsables de cinémas locaux. Et les films diffusés sont logiquement choisis pour leur conformité à leurs positions idéologiques sur l’agriculture, l’agroindustrie, les biotechnologies ou les pesticides. La volonté du distributeur de Food Evolution était de permettre au public français, très ama-

Article

teur de cinéma, de découvrir différents points de vue sur les OGM. Sauf dans une quarantaine de salles dont les exploitants ont su surmonter la crainte d’être boycottées, cela n’aura pas été possible. Pourtant, dans les salles où le film a pu être projeté, il a donné lieu à des débats citoyens riches et intéressants, prouvant que les échanges d’idées peuvent trouver leur place sur ces sujets habituellement considérés comme irrémédiablement tranchés et polémiques.

Le diffuseur compte maintenant sur des initiatives individuelles, des organisations agricoles, des enseignants, des scientifiques intéressés par le sujet ou des associations pour organiser des séances privées sur tout le territoire. La diffusion et le débat organisés le 18 février 2020 dans les locaux de l’Assemblée nationale à l’initiative du député Jean-Baptiste Moreau a incontestablement relancé l’intérêt pour le film. En 2020, le distributeur va s’atteler à décrocher une programmation sur une grande chaîne de télévision. La réponse donnée à cette proposition sera un indicateur pour mesurer l’importance que nos chaînes nationales accordent au pluralisme d’opinions et au débat scientifique.  // Eddy Agnassia et Gil Kressmann

Food Evolution est actuellement disponible sur la plateforme de streaming vidéo Vimeo (vimeo. com/ondemand/foodevolution). Références

[1] Centre national de la cinématographie, « Classement Art et Essai ». Sur art-et-essai.org [2] Pétition adressée au Premier ministre. Sur greenpeace.fr

Retrouvez sur notre site Internet toutes les archives de Science et pseudo-sciences www.afis.org

Science et pseudo-sciences n°332 - avril / juin 2020

71

Article

/

La « porosité » des universités aux pseudo-médecines : un classement du collectif Fakemed François-Marie Bréon est chercheur, physicien-climatologue au Laboratoire des sciences du climat et de l’environnement. Il est membre du conseil d’administration de l’Afis.

L

e collectif FakeMed est un groupe de professionnels de la santé qui promeut les pratiques médicales fondées sur des faits scientifiquement validés. Il s’est fait connaître à l’occasion d’une tribune publiée dans Le Figaro le 18 mars 2018 [1] dénonçant des pratiques assimilables au charlatanisme, qui « recherchent la caution morale du titre de médecin pour faire la promotion de fausses thérapies à l’efficacité illusoire ». Les signataires déclaraient se désolidariser de « ces pratiques qui ne sont ni scientifiques, ni éthiques, mais bien irrationnelles et dangereuses ».

72

Science et pseudo-sciences n°332 - avril / juin 2020

L’homéopathie était particulièrement visée, même si d’autres formes thérapeutiques étaient aussi mentionnées. On peut penser que cette tribune a contribué à la décision de dérembourser l’homéopathie à brève échéance. Notons que des signataires de la tribune ont été convoqués devant des instances disciplinaires de conseils régionaux de l’Ordre des médecins suite à une plainte du Syndicat national des médecins homéopathes français (SNMHF). Au-delà de la question du remboursement de traitements sans efficacité démontrée, la tri-

/

bune dénonçait aussi l’existence de diplômes universitaires « appuyés sur des pratiques dont l’efficacité n’aura pas été scientifiquement démontrée ». Et de fait, les soins de nature « non scientifique » sont pratiqués par des médecins mais aussi toujours enseignés dans certaines universités, même si quelques-unes ont annoncé mettre fin à cette situation pour ce qui concerne l’homéopathie (Lille, Angers). Le collectif FakeMed a donc recensé les politiques des diverses facultés de médecine sur le sujet des pseudo-médecines. Sur la base de ce recensement, il a établi un classement avec une méthodologie nécessairement subjective, mais cependant clairement explicitée [2]. Le score se construit en comptant les points de « porosité » (cours obligatoires : 5 points ; cours facultatifs : 4 points ; délivrance d’un diplôme d’université : 3 points, etc.) modulés par différents « malus » (points ajoutés s’il existe plus d’un diplôme d’université, si le doyen développe un discours en faveur des pseudo-thérapies, s’il existe une consultation hospitalière mettant en œuvre une de ces thérapies, etc.) ou « bonus » (points enlevés si le doyen développe un discours rejetant le recours aux fausses thérapies – ce qui peut conduire à un score négatif).

Nous signalons volontiers

Trois établissements se distinguent particulièrement pour leur « porosité aux pseudosciences » : Lyon Sud, Paris 13-Bobigny et Stras-

Article

bourg. On y retrouve en effet des « formations qualifiantes  » en homéopathie, acupuncture, mésothérapie, et autres médecines dites complémentaires. Les positions exprimées publiquement par les doyens sur ces pratiques interviennent également dans l’évaluation. Notons cependant qu’à l’opposé, une dizaine d’universités se distinguent avec un score de porosité égal à zéro, voire négatif (Angers), grâce à des prises de position très explicites de leur doyen.

Les pratiques pseudo-scientifiques n’ont pas leur place dans le système de formation médicale et l’indicateur mis en place par le collectif Fakemed met en évidence que de trop nombreuses universités accueillent encore des enseignements de pratiques qui ne sont pas conformes à une médecine basée sur des faits (evidence-based medecine). Rappelons aussi que l’homéopathie dispose toujours d’une dérogation pour la mise sur le marché de ses produits, la dispensant de tout dossier d’évaluation d’efficacité et lui permettant ainsi de présenter ses granules comme des médicaments, alors qu’ils n’ont fait l’objet d’aucune évaluation.  // Références

François-Marie Bréon

[1] L’appel de 124 professionnels de la santé contre les « médecines alternatives », Le Figaro, 18 mars 2018. Sur sante.lefigaro.fr [2] « Fakemed-o-mètre », classement des facultés de médecine françaises en fonction de leur porosité aux pseudo-sciences. Sur fakemed.org

La vérité sur les médecines alternatives​ Simon Singh et Edzard Ernst Cassini, 2019, 480 pages, 24 €

Réédition de Médecins douces : info ou intox ? Toujours le meilleur livre en français sur le sujet, le plus complet, le plus objectif. La méthode scientifique en médecine est d’abord expliquée sur les exemples historiques de la saignée et du scorbut par l’excellent narrateur qu’est Simon Singh. Suivent des chapitres très incisifs sur l’homéopathie, l’acupuncture et la chiropraxie. À propos de la phytothérapie, l’étude est tout aussi approfondie, mais les conclusions sont plus nuancées. Suit un chapitre sur les problèmes éthiques et politiques posés par les médecines alternatives. Pour finir, un guide des thérapies alternatives analyse brièvement 36 autres thérapies. Présentation de l’éditeur

Science et pseudo-sciences n°332 - avril / juin 2020

73

Esprit critique

/

L’esprit critique sur Internet et les réseaux sociaux Chronique de Thomas C. Durand

Thomas C. Durand est l’animateur de la chaîne vidéo YouTube La Tronche en biais (environ 180 000 abonnés et plus d’une centaine de vidéos produites, dont plusieurs dizaines avec des enregistrements en public et en direct) qui « propose de découvrir les biais cognitifs qui tordent notre belle rationalité et nous conduisent à des erreurs prévisibles ». Il a mis également en place un site Internet consacré à « l’esprit critique et la zététique » (menace-théoriste.fr). Internet et les réseaux sociaux pourraientils aussi laisser la place à l’analyse rationnelle, à l’argumentation sur la base des faits ? Thomas C. Durand se propose de partager avec les lecteurs de Science et pseudo-sciences son expérience qui tend à prouver que c’est possible, mais pas forcément toujours facile.

De l’exigence nécessaire envers nous-mêmes, les sceptiques

Je publie des contenus sceptiques1 sur Internet et j’anime une « communauté » sur les réseaux sociaux où chacun peut apporter son point de vue, ses arguments, ses sources, ses questions. J’estime que promouvoir la culture du débat est indispensable pour valoriser les méthodes qui nous permettent de départager les énoncés trompeurs des théories solides. C’est aussi pour cela qu’il m’arrive régulièrement d’interagir de manière publique avec des tenants-croyants2 dans le but de montrer qu’on peut discuter poliment malgré nos différences, et que le questionnement est l’outil fondamental de qui veut éviter de se tromper durablement.

Dans cette forme d’échange (appelons-le débat même si l'on pourrait discuter de la manière dont il convient d’étiqueter ces conversations), ma posture se veut ambassadrice d’une approche rationnelle et à jour des connaissances scientifiques ; je 1 Par « sceptique », entendez partisan d’une pensée méthodique qui

pose comme point de départ le doute vis-à-vis de toute affirmation. Et « l’art du doute », qui permet de se montrer prudent face aux pièges de la rationalité que sont les biais cognitifs, est ce que l’on appelle la zététique. 2 Tenant-croyant : terme non péjoratif désignant une personne qui défend une affirmation que l’on considère dépourvue d’argument scientifique solide.

74

Science et pseudo-sciences n°332 - avril / juin 2020

suis donc dans ces situations une sorte de représentant auto-attitré de la pensée critique, et cela implique des responsabilités à assumer. D’où le billet que vous parcourez en ce moment. Que ces échanges se passent bien ou mal, ils provoquent généralement de nombreuses réactions dans les commentaires. Par exemple, ma discussion avec un croyant qui se présente comme un théologien catholique a suscité 3 600 commentaires sur La Tronche en biais et plus de 1 500 sur la chaîne de mon interlocuteur. Et c’est en comparant la teneur des commentaires dans ces deux environnements diamétralement opposés que m’est apparue une similarité dont personne ne peut s’enorgueillir. Sur la page du croyant en question (notre échange portait sur l’évolution du vivant qu’il estime impossible sans intervention divine), on trouve des commentaires très partisans et vindicatifs, comme celui-ci : « L'orgueil de ce sceptique, son auto-suffisance, son manque de respect, ses mimiques faciales manifestant en permanence son refus d'accueillir une vérité qui le dépasse. » D’autres commentaires me prêtent des intentions hostiles, doutent de mes facultés mentales ou de mon honnêteté intellectuelle, s’offusquent de mes manières, etc. Pour le sceptique qui consulte cette enfilade de remarques,

/

Esprit critique

La rixe, Gaspare Traversi (1722-1770)

impression dont nous sommes censés savoir qu'elle est puissante et durable.

la cause est entendue : les croyants livrent d'eux-mêmes une image qui conforte l'avis de beaucoup de zététiciens à leur égard. Quiconque n’est pas déjà gagné à leur cause sera très sensible à ces attitudes rédhibitoires qui empêchent toute forme d’empathie. Le lecteur sceptique n’éprouve nulle envie de se concentrer sur ce qu’il a de commun avec ces gens qui lui permettrait de comprendre leur point de vue et ainsi de faire évoluer ses propres opinions.

Contempler ce spectacle ne m’a pas surpris, mais cela m’a donné l’occasion de constater un insuffisant contraste avec ce qu’il se passait sur mes propres pages. Heureusement, beaucoup de commentaires de notre communauté numérique me paraissent sensés, pertinents et justifiés, quand bien même la formulation écorche parfois un peu l’invité. Mais si, prenant du recul, on se demande quelle image un croyant visitant cette page peut se faire de qui sont les abonnés de La Tronche en biais, c’est tout de suite moins drôle. À côté des commentaires de haut vol, on ne compte plus les persiflages cruels, les anathèmes virulents et pour tout dire inutiles... L'image de la zététique ne repose pas que sur les créateurs de contenus, mais aussi sur les comportements de ceux qui se reconnaissent membres de cette « communauté » ou qui disent en épouser la démarche. Cette image, c'est la première chose que nous offrons à ceux qui nous découvrent, avec la force de la première

Au-delà de l’image, nous devons être attentifs à notre fonctionnement individuel au sein des groupes où s’expriment des idées concernant des sujets polémiques comme peuvent l’être ceux qui touchent à la religion. Notre jugement d’humains est altéré par des biais d’endogroupe : nous sommes statistiquement plus indulgents, plus compatissants, plus sympathiques avec les personnes qui appartiennent à notre tribu, quels qu’en soient les contours, ceux en qui nous reconnaissons une part de nous-mêmes. Trop souvent, les comportements qui nous ulcèrent chez le groupe d’en face ne nous choquent pas autant quand ils sont émis par les nôtres. Cette forme d’injustice dans nos jugements est un obstacle à une communication apaisée et efficace avec ceux qui ne partagent pas nos idées ; nous devenons prisonniers d’une pensée de groupe, et se sentir bien dans notre groupe risque de devenir plus vital que la vérité.

En zététique (« l’art du doute »), l’autonomie mentale ne se négocie pas, la dynamique de groupe est toujours un piège pour la pensée. Chacun d’entre nous peut plus ou moins facilement se laisser entraîner et nul n’est totalement à l’abri. Toutefois, s’il existe une disposition d’esprit capable de le comprendre et d’enrayer cette mécanique, je veux croire que c’est celle des personnes attachées à la pensée méthodique. En d’autres termes, si nous ne nous montrons pas capables de lutter contre ces automatismes – une indulgence envers nos outrances couplée à une indignation spontanée face aux mêmes outrances chez les autres – nous perdons une belle occasion de susciter le changement que nous souhaitons voir dans le monde.  // Science et pseudo-sciences n°332 - avril / juin 2020

75

Fou fou fou

/

Tous spectateurs ?

Chronique de Brigitte Axelrad

« Le monde est un endroit redoutable. Non pas tant à cause de ceux qui font le mal, qu’à cause de ceux qui voient le mal et ne font rien pour l’empêcher. »

© Cookiecutter | Dreamstime.com

Albert Einstein, Comment je vois le monde

U

ne attaque violente, provoquée par une personne sur une autre, se déroule sous les yeux d’un spectateur : dans quelles conditions le témoin sera-t-il susceptible d’intervenir pour aider la victime ?

Plusieurs pays ont introduit dans leur Code civil et pénal le délit de non-assistance à personne en danger, dans la mesure où l’on a trop souvent observé qu’en présence d’un événement grave, peu de gens volent au secours des victimes, se conformant spontanément à ce précepte asiatique : « Si nous ne voyons rien de mal, nous n’entendons rien de mal, nous ne disons rien de mal, il ne peut nous arriver que du bien », illustré par les trois singes de la sagesse, « ne rien voir, ne rien entendre et ne rien dire ». Ce phénomène de non-intervention face à une agression est suffisamment courant pour avoir été étudié par la psychologie sociale. Il a été attribué à un processus psychologique nommé « effet spectateur », « effet du témoin », ou encore « effet du passant » (bystander effect). En

76

Science et pseudo-sciences n°332 - avril / juin 2020

1968, deux psychologues sociaux en ont démontré expérimentalement l’existence.

L’affaire Kathy Genovese

L’exemple devenu paradigmatique de l’inaction des témoins d’un crime est celui de Kathy Genovese, tuée tout près de chez elle à coups de couteau dans le quartier de Queens à New York, alors qu’elle rentrait de son travail un soir de mars 1964. Un crime n’est jamais anodin, mais l’événement survenu dans une ville de la taille et du genre de New York serait resté inaperçu, relégué dans une fraction de colonne du New York Times, si le rédacteur en chef du journal, A. M. Rosenthal, n’avait appris une semaine plus tard de la part du responsable de la police de New York ce fait dissimulé jusque-là : l’agression de K. Genovese avait été lente, bruyante et publique. Elle avait hurlé au secours. Après avoir été attaquée en pleine rue, elle avait réussi à se traîner jusqu’au hall de son immeuble. L’agresseur était alors revenu l’achever et l’avait violée. La mise à mort de la jeune femme avait duré plus de trente minutes. D’après le journal,

/

trente-huit de ses voisins y avaient assisté du haut de leurs fenêtres, sans appeler la police.

Quelques jours plus tard, le Times publia un long article en première page qui provoqua bien des réactions. Il commençait ainsi : « Pendant plus d’une demi-heure, trente-huit honorables citoyens de Queens, respectueux de la loi et de l’ordre, ont regardé un tueur traquer une femme avant de la poignarder, l’attaquant à trois reprises dans Kew Gardens. Par deux fois, le son de leurs voix et la lumière soudainement allumée aux fenêtres interrompirent la traque et firent fuir l’assassin. Chaque fois, il revint, retrouva sa victime et la frappa de son couteau. Pas une seule personne ne téléphona à la police durant l’agression ; un seul témoin le fit lorsque la victime eut succombé. Cela se passait il y a aujourd’hui deux semaines. Mais l’inspecteur en chef adjoint Frederick M. Lussen, responsable de la police dans le secteur, malgré ses vingt-cinq ans d’expérience des enquêtes criminelles, est encore sous le choc. Il est capable de vous décrire froidement toutes sortes de meurtres. Mais le crime de Kew Gardens le confond, non parce que c’est un meurtre, mais parce que les “honnêtes gens” n’ont pas prévenu la police. »

Fou fou fou

La question se posa alors de savoir quelle pouvait être la cause de l’inertie des témoins. Ceux qui avaient été interrogés ont prétendu qu’ils avaient eu peur, ou qu’ils n’avaient pas voulu être mêlés à l’affaire, alors qu’un simple appel même anonyme aurait pu sauver K. Genovese sans menacer leur sécurité.

Des commentateurs attribuèrent l’immobilisme des voisins à l’influence nocive de la télévision et de ses violences, d’autres à une agressivité latente, ou encore à la dépersonnalisation produite par la vie urbaine, avec ses sociétés mégalopolitaines et l’assujettissement de l’individu à la collectivité. Le journaliste du Times écrivit : « L’indifférence à l’égard de son voisin et de ses ennuis est un réflexe conditionné de la vie à New York comme dans d’autres grandes villes » [1].

En 2007, un article rectifia certains faits racontés dans la presse [2]. En réalité, contrairement à ce qui avait été affirmé, les témoins étaient beaucoup moins nombreux, une demi-douzaine tout au plus. L’un des témoins dit avoir ouvert sa fenêtre et sommé l’agresseur de laisser la jeune femme tranquille. Ce qui l’avait fait fuir, mais il

New York en 1911, George Bellows (1882-1925)

Science et pseudo-sciences n°332 - avril / juin 2020

77

Fou fou fou

/

Une loge, un jour de spectacle gratuit, Louis-Léopold Boilly (1761-1845)

était revenu quelques minutes plus tard quand il l’avait vue entrer dans l’immeuble, et l’avait achevée. Quoi qu’il en soit, cet événement eut un retentissement considérable et incita deux chercheurs, Bibb Latané et John Darley à se pencher sur les facteurs pouvant expliquer l’absence d’intervention [3].

L’ignorance collective

Les chercheurs firent l’hypothèse contre-intuitive que plus il y a de témoins d’un accident ou d’une agression, et moins il y a de chances que quelqu’un intervienne.

Pour étayer cette hypothèse, ils mirent en avant les risques que représente toute intervention à cause de l’inexpérience et de l’ignorance de la plupart des gens face à des situations exceptionnelles et inattendues, ce qu’ils appelèrent l’« ignorance collective » (pluralistic ignorance). Il faut que non seulement les témoins

78

Science et pseudo-sciences n°332 - avril / juin 2020

remarquent l’urgence d’une situation, mais encore qu’ils interprètent sa nature, qu’ils décident que c’est à eux que revient la responsabilité d’agir et enfin qu’ils soient capables de choisir un mode d’action adéquat. En fonction de la réaction ou de l’absence de réaction des autres témoins, ils ajustent leur propre comportement.

Preuve sociale et dilution de responsabilité

Dans une première expérience, les chercheurs réunirent des étudiants volontaires par groupes de deux et de six pour discuter des « problèmes qu’entraîne la vie dans une ville universitaire ». Chaque sujet était installé dans une cabine séparée et communiquait soit avec un autre interlocuteur, soit avec cinq autres, grâce à un micro et des écouteurs. C’est du moins ainsi que le test leur avait été présenté. En réalité, les interventions des interlocuteurs avaient déjà été enregistrées. La première intervention enregistrée était celle d’un homme complice de l’expérimentateur, qui confiait avoir des difficultés à

/

s’adapter à la vie en ville et être sujet fréquemment à de graves crises d’épilepsie. Au cours de la discussion, il reprenait le micro et simulait une crise nerveuse. Parmi ceux qui croyaient être seuls à discuter avec la personne malade, 100 % signalèrent la crise et 85 % se précipitèrent dans le couloir pour chercher du secours. Parmi les sujets qui croyaient faire partie d’un groupe de six, 62 % signalèrent la crise, mais restèrent immobiles. Cependant, ils paraissaient très affectés par l’événement, contrairement à la thèse de l’indifférence généralisée aux maux d’autrui. Les chercheurs répliquèrent plusieurs fois l’expérience en changeant certains de ses paramètres comme la taille du groupe, la nature du groupe : variation du nombre de participants, voix féminine ou voix masculine, poursuite d’études différentes, etc.

En 1981, dans une méta-analyse impliquant 6 000 participants, Bibb Latané et Steve Nida trouvèrent que dans 90  % des cas, les participants sont plus enclins à porter secours quand ils sont seuls plutôt qu’en groupe [4]. Plus il y a de témoins d’une situation d’urgence, moins il y a de chances pour que les spectateurs viennent en aide à la victime, ce qu’ils appelèrent « l’effet spectateur » (bystander effect). Par ailleurs, la présence physique d’autres témoins n’est pas nécessaire pour que l’effet spectateur se produise. Il suffit que le témoin pense que d’autres assistent aussi à l’événement pour qu’il soit tenté de déléguer sa responsabilité en vertu de la « dilution de responsabilité » (diffusion of responsibility). Une deuxième expérience fut menée pour tester les comportements dans une situation d’urgence, qui mettait en danger les sujets euxmêmes, et déterminer pour quelles raisons la tendance à porter secours et à préserver sa propre intégrité physique est favorisée ou freinée. Des étudiants volontaires devaient remplir un questionnaire. Certains étaient seuls dans une pièce, d’autres en groupes de trois dans une autre pièce, d’autres encore étaient accompagnés par deux complices qui avaient pour consigne de ne pas réagir. Une fois les sujets plongés dans la rédaction de leurs questionnaires, une fumée âcre passait sous la porte. Ré-

Fou fou fou

sultat, 75 % des étudiants qui étaient seuls dans la pièce, 38 % de ceux qui étaient en groupe et 10  % de ceux qui étaient accompagnés par les complices de l’expérimentateur sonnèrent l’alarme. L’expérience fut reproduite en utilisant d’autres types d’alertes.

Les résultats confirmèrent le principe de la « preuve sociale ». Dans l’incertitude devant certaines situations, on a tendance à regarder autour de soi pour trouver dans l’attitude des autres la preuve de la gravité de l’événement. Et si les autres témoins ne bougent pas, il y a des chances pour que l’on fasse de même. « En vertu du principe de la preuve sociale, le cas sera donc considéré comme n’appelant pas de mesures urgentes. C’est là, d’après Latané et Darley, l’état d’ignorance collective dans lequel chaque individu conclut de l’impassibilité générale que tout va bien. Le danger peut alors dépasser le point où un individu isolé, non influencé par le calme apparent des autres personnes, agirait » écrit Robert Cialdini [5]. Latané et Darley illustrèrent les conséquences tragiques que peut avoir la dilution de responsabilité par ce fait divers qui s’était produit à Chicago : « Une étudiante a été battue et étranglée en plein jour, à proximité de l’un des sites les plus passants de la ville [...] Le corps nu de Lee Alexis Wilson, vingt-trois ans, a été trouvé vendredi dans un massif [...] par un garçon de douze ans qui jouait dans les buissons [...] La police estime que des milliers de personnes ont dû passer sur les lieux. Un témoin a indiqué qu’il avait entendu des cris, vers deux heures de l’après-midi, mais qu’il ne s’en était pas préoccupé, parce que personne ne semblait y prêter attention. »

L’effet d’éveil Scott Lilienfeld et ses collègues ont montré que la connaissance des effets psychologiques augmente les chances d’une intervention en cas d’urgence [6]. C’est ce que Kenneth Gergen a appelé en 1973 un «  effet d’éveil  » (enlightenment effect [7])  : connaître les résultats de la recherche en psychologie scientifique peut influencer le comportement dans le monde réel. Un groupe de chercheurs a exposé les travaux de recherche sur les effets de l’intervention des témoins à une classe d’étudiants en psychologie, mais pas à une autre classe de même niveau [8]. Science et pseudo-sciences n°332 - avril / juin 2020

79

Fou fou fou

/

Deux semaines plus tard, tous les étudiants – accompagnés par un expérimentateur – sont tombés sur une personne couchée sur un banc dans un parc. Le scénario était truqué, et 43  % des étudiants qui avaient suivi le cours sur l’intervention des témoins sont intervenus pour aider la « victime » contre 25 % de ceux qui ne l’avaient pas reçu. Cette étude a fonctionné, probablement parce qu’elle a apporté de nouvelles connaissances et peut-être aussi parce qu’elle a sensibilisé davantage les gens à l’importance de l’aide.

Renverser la vapeur

La stratégie à adopter en cas d’urgence est de réduire les doutes des spectateurs et de leur confier un rôle clair à jouer. C’est ce que R. Cialdini appelle « renverser la vapeur ». Si le principe de la preuve sociale joue souvent en défaveur d’une victime, connaître les facteurs qui provoquent l’apathie des témoins d’une agression, d’un accident ou d’un malaise dans la rue permettra de la faire jouer en sa faveur. Comprendre que les témoins en groupe sont passifs non pas par indifférence, ni à cause d’un trait

Un meurtre dans la maison, Jakub Schikaneder (1855-1924)

80

Science et pseudo-sciences n°332 - avril / juin 2020

regrettable de leur personnalité, mais à cause de la cécité d’inattention1, ou parce qu’ils n’ont pas interprété la situation comme urgente, ou ne savent pas ce qu’il faut faire, réduira l’incertitude du témoin. De simples appels au secours ne suffiront pas, ils pourront tout au plus attirer l’attention. L’idéal, si la victime est consciente, serait de tout mettre en œuvre pour faire comprendre quelle aide est nécessaire : isoler un individu dans la foule en le désignant par un détail de son apparence, par exemple la couleur de sa veste, s’adresser à lui directement : « Vous, avec la veste bleue », lui dire ce qu’il doit faire : « Appelez la police » ou « Appelez le Samu ». En résumé, lui donner le rôle du sauveteur. Il saura ainsi que la situation est urgente et qu’il a la responsabilité d’apporter son aide. Et d’autres témoins le suivront.

1 Le test du gorille invisible (The Invisible Gorilla) a été mis au point en 1999 par Christopher Chabris et Daniel Simons, deux chercheurs en psychologie cognitive de l’Université Harvard. Il montre que lorsque nous sommes occupés à une tâche particulière, il arrive souvent que nous ne remarquions pas un événement inattendu dans notre environnement. Voir SPS n° 312, avril 2015.

/

Cependant, la recherche expérimentale n’a pas pu étudier le comportement des spectateurs dans le contexte d’attaques violentes hors laboratoire. Cela est dû à l’impossibilité pratique et éthique d’exposer les participants à des conditions d’étude objectivement ou subjectivement dangereuses. Une étude récente menée par les chercheurs de l’université de Lancaster [9] ayant analysé 219 agressions en public filmées par des caméras vidéos de surveillance à Lancaster (Grande-Bretagne), Amsterdam (PaysBas) et au Cap (Afrique du Sud), a montré que dans 90,9 % des cas étudiés, au moins un témoin de la scène intervient, quel que soit le pays dans lequel l’agression a lieu et malgré des contextes très variés en termes de sécurité publique.

Agir ou ne pas agir ?

Si l’incertitude du témoin est levée et s’il réagit devant l’urgence d’une situation, il reste que l’efficacité de son action peut être variable. En 2008, deux chercheurs, Timothy Hart et Terance Miethe ont fait une enquête auprès de victimes d’agressions pour connaître leur avis sur le comportement de témoins [10]. Les personnes interrogées avaient été victimes pour 68 % d’entre elles d’agressions physiques, 49 % de vols à l’arraché, 28 % de viols. L’intervention des témoins était jugée par les victimes comme « ni utile ni contre-productive » dans 48 % des agressions toutes confondues, «  utile  » dans 37  %, «  contre-productive  » dans 3 % des cas.

Fou fou fou

Si l’efficacité du secours apporté est variable, il reste qu’il est préférable d’agir plutôt que de rester passif.

Souhaitons que les quelques minutes passées à lire ce texte renforcent votre capacité d’intervention face à une situation d’urgence !  //

Références

[1] Rosenthal AM, Thirty-eight witnesses: The Kitty Genovese case, University of California Press, 1964. [2] Manning R, Levine M, Collins A, “The Kitty Genovese murder and the social psychology of helping: the parable of the 38 witnesses “, American Psychologist, 2007, 62:555-62. [3] Darley J, Latané B, “Bystander intervention in emergencies: Diffusion of responsibility”, J Personality and Social Psychology, 1968, 8:377-83. [4] Latané B, Nida S, “Ten years of research on group size and helping”, Psychol Bull, 1981, 89:308-24. [5] Cialdini R, Influence et manipulation, First, trad. française, 1990, p. 130. [6] Lilienfeld S et al., 50 Great myths of popular psychology, Wiley-Blackwell, 2012. [7] Gergen KJ, “Social psychology as history”, J Personality and Social Psychology, 1975, 26:309-20. [8] Beaman A, Barnes PJ, Klentz B, McQuirk B, “Increasing helping rates through information dissemination: Teaching pays”, Personality and Social Psychology Bulletin, 1978, 4:406-11. [9] Philpot R et al., “Would I be helped? Cross-National CCTV Footage shows that intervention is the norm in public conflicts”, The American Psychologist, 2019, 75:66-75. [10] Hart T, Miethe T, “Exploring bystander presence and intervention in nonfatal violent victimization: When does helping really help?”, Violence and Victims, 2008, 23:637-51.

Abonnez-vous à Science et pseudo-sciences Le moyen le plus sûr pour nous retrouver tous les trimestres ! www.afis.org/boutique

Science et pseudo-sciences n°332 - avril / juin 2020

81

Sornettes sur Internet

/

m

L’électroculture : une pseudo-science à la masse

A

vec le bricolage, le jardinage est l’un des passe-temps favoris des Français. Associé aux animaux de compagnie, il constitue, d’après l’Insee, le premier poste de dépense culturelle et de loisir [1]. Mais cet attrait pour la culture du potager n’est pas épargné par le développement concomitant de techniques « alternatives » nous promettant d’obtenir naturellement, par la simple entremise des rayons cosmiques et autres « courants telluriques », des récoltes à en faire faner l’ego de nos voisins. Regard sur une pseudo-science en herbe, l’électroculture.

Une énergie gratuite…

L’électroculture serait une méthode de culture exploitant les flux électriques et magnétiques présents naturellement dans notre environnement pour favoriser la croissance des végétaux. En effet, on apprend sur le Web que « par ses racines [qui jouent le rôle d’antennes], [un végétal] capte l’électricité négative du sol et la libère par ses parties aériennes [qui] recueillent l’électricité atmosphérique positive », l’échange de ces forces déterminant « la croissance du végétal et le bon fonctionnement du système chlorophyllien » [2]. De nombreux récits de récoltes miraculeuses

82

Science et pseudo-sciences n°332 - avril / juin 2020

Chronique de Sébastien Point

démontrent, si besoin était, ce fait « avéré » que « les énergies électriques et magnétiques sont partie prenante des processus du vivant » [3]. D’où l’idée venant de gens qu’il convient de qualifier d’«  électro-cultivateurs  » de forcer champs magnétiques, ondes cosmiques et autres courants telluriques à faire un petit saut dans leur jardin potager ou leur parterre de rocailles, avec la promesse d’obtenir « des légumes énormes, une production plus importante, une rentabilité accrue, la réduction de l’arrosage (50 à 70 %), et l’économie sur la fumure » [2]. Et tout cela pour un effort minimal. Car il semble que rien n’est plus simple que de collecter ces forces et les tutoriels ne manquent pas sur Internet pour nous apprendre à « électro-jardiner » en utilisant l’une des nombreuses techniques de la discipline.

… captée par des instruments simples

Parmi ces techniques, la boucle de Lakhovsky, également appelée « circuit oscillant de Lakhovsky », est constituée d’un fil métallique en forme de boucle dont les extrémités « restent ouvertes, pour que des électrons puissent entrer et sortir » [4]. Elle doit être positionnée autour d’une

/

plante de manière « à interagir avec celle-ci et le champ magnétique terrestre » : en effet, il semblerait que les plantes possèdent « une couverture électromagnétique autour d’elles (biophotons)1 » et que par conséquent « le champ émis par l’anneau Lakhovsky renforce la vigueur électromagnétique des plantes, ou permet à celles-ci de puiser certaines informations dont elles ont besoin ». On nous promet des effets spectaculaires mais qui ne seront néanmoins pas visibles avant quelques semaines ou mois. Et attention : si la plante touche le fil de métal, cela pourrait, nous dit-on, « faire un court-circuit et annuler les effets de la boucle » [6] !

La pyramide de cuivre est un autre outil de l’arsenal des « électro-fleuristes » qui permettrait, quant à lui, de « dynamiser les semences ». Ce dispositif, constitué généralement de tubes de cuivre emboîtés, créerait « une énergie particulière qui va augmenter la croissance des végétaux » mais doit pour cela respecter des proportions particulières [7]  : la longueur des arêtes de la pyramide doit être égale à 0,9522 fois la longueur de sa base (qui est carrée), et chaque face doit être inclinée d’un angle de 51,85°. Mais pourquoi de si fondamentales et précises dimensions, vous demanderez-vous ? Mais par Déméter ! Parce qu’il s’agit des proportions de la pyramide de Kheops2 ! En outre, il vous faudra absolument « orienter un côté de la pyramide au nord magnétique à l’aide d’une boussole ». Quel mécanisme gouverne donc l’action de cet édifice ? Les formes pyramidales seraient en fait efficaces pour capturer les radiations cosmiques et produire ainsi de l’énergie en leur centre [8]. Et, on nous l’assure, « des quantités d’expériences ont été réalisées sur les pyramides depuis de nombreuses décennies [avec] des résultats surprenants ». Un Américain aurait même réussi « grâce à une grande pyramide contenant en son centre une serre, à générer plus de 120 pommes de terre à partir d’une seule ! » [9]

Sornettes sur Internet

cuivre [pour] accélérer le développement des micro-organismes et des plantes » [10]. Mais, là aussi, prudence : cette antenne peut être perturbée « par d’autres éléments de son environnement proche [comme] un arbre plus haut [ou] une ligne électrique ». Le cas échéant, il s’agira de « déplacer l’antenne [et] chercher un meilleur endroit pour la planter, quelques mètres plus loin »... là où la terre est plus fertile ? Vous trouvez les solutions décrites ci-dessus trop artificielles, trop technologiques  ? Aucun souci : il existe des solutions de captage d’énergie cosmique plus « écolos », comme les tours irlandaises faites de tuyaux en grès remplis de roches volcaniques [11], les antennes cosmotelluriques magnétiques à la cire d’abeille [12] ou encore les antennes en coquille d’escargot [13]… Bref, de quoi ranger définitivement vos engrais au placard ! À moins que les promoteurs de cette technique ne travaillent de l’électron, comme le dirait ce cher capitaine Haddock.

Autre appareil, l’antenne paratonnerre dont l’utilisation repose sur la volonté « de capter les ions positifs présents dans l’air et de les relier au sol, chargé négativement, à l’aide d’un fil de

1 Sur les biophotons, voir [5]. 2 Kheops est le deuxième roi de la IVe dynastie de l'Ancien Empire d'Égypte. On ne sait pas s'il aimait jardiner...

Expérience du cerf-volant de Franklin, Benjamin West (1738-1820)

Science et pseudo-sciences n°332 - avril / juin 2020

83

Sornettes sur Internet

/

Une nouvelle magie verte En effet, malgré les logorrhées pseudo-physiques qui l’accompagnent, le fonctionnement de l’électroculture ne s’inscrit dans aucun mécanisme scientifique plausible. Les courants telluriques que certains identifient au réseau Hartmann3 seraient des courants électriques, source d’électrons, qui parcourraient la terre d’est en ouest. Ils sont également l’un des fondements de la géobiologie de l’habitat [14] mais n’existent que dans l’imaginaire pseudo-scientifique. Les « radiations cosmiques », qui seraient capturées par les pyramides de cuivre, sont quant à elles des gerbes de particules issues de collisions entre les particules de haute énergie en provenance de l’espace et les atomes et molécules de la haute atmosphère de la Terre. De ces gerbes de particules, et hormis les neutrinos (qui n’interagissent pratiquement pas avec la matière), seuls les muons (également appelés électrons lourds) parviennent au sol avec une énergie les autorisant à traverser la roche. Difficile donc d’imaginer que ces particules puissent être canalisées dans un schmilblick en cuivre. Quant au champ magnétique terrestre, il s’agit d’un champ statique qui n’interagira certainement pas avec un bidule en fil métallique recourbé et immobile, même affublé du nom amphigourique de « circuit oscillant de Lakhovski »… L’électroculture, en alliant jargon technique, préoccupation écologique et promesse d’opulence florale prend des allures de mirliflore parmi les pseudo-sciences. Mais l’efficacité des 3 Le réseau Hartmann est un concept pseudo-scientifique convoqué

par les radiesthésistes. Il s’agirait d’un entrelacement de champs magnétiques à la surface de la Terre. Les allégations sur son existence ne s’appuient pas sur des données scientifiques.

différentes techniques de l’électroculture est chimérique. Son existence démontre à nouveau le manque d’esprit critique d’une civilisation reposant sur la science mais ignorante de ses fondements. Un socle de culture commun en science – bien plus solide qu’aujourd’hui – sera nécessaire aux générations qui arrivent pour se prémunir des salades défraîchies de l’électroculture, de la géobiologie de l’habitat, du feng shui et d’une forêt d’autres pseudo-sciences gémellaires. Il est urgent que désormais, comme Carl Sagan l’appelait de ses vœux, la science fasse partie de notre vie, de notre culture au même titre que l’art, la musique ou la cuisine [15]. Sans quoi elle restera réservée à une élite quand le commun des mortels sera laissé en pâture à d’infertiles et moyenâgeuses croyances.  //

Références

[1] Insee, « Dépenses culturelles et de loisirs – Données annuelles de 2000 à 2018 ». Sur insee.fr [2] Sur bargainorgonite.com [3] « Si on essayait l’électro-culture ? », 7 mars 2014. Sur permaculturedesign.fr [4] « De simples anneaux métalliques pour aider des végétaux ? », 17 mai 2015. Sur permafutur.fr [5] Point S, « Biophotons : la conscience sans la science », SPS n° 328, avril 2019. Sur afis.org. [6] « Je teste l’électroculture : un tuto dessiné et éclairant », 4 avril 2017. Sur electroculturevandoorne.com [7] « La pyramide utilisée en électroculture ». Sur lesdoigtsfleuris.com [8] « Articles scientifiques plantes et pyramides ». Sur electroculturevandoorne.com [9] « Matériel d’électroculture ». Sur sylvain-berbie.org [10] « Je teste l’électroculture : un tuto dessiné et éclairant », 28 mars 2017. Sur magazine.laruchequiditoui.fr [11] « Les tours d’énergie », 18 avril 2015. Sur permafutur.fr [12] « Antenne Condenseur Magnétique Cosmotellurique ». Sur electroculturevandoorne.com [13] « Électroculture et Magnétoculture », 28 janvier 2014. Sur visionquantique.blogspot.com [14] Point S, « Géobiologie de l’habitat : un simulacre de science », SPS n° 316, avril 2016. Sur afis.org [15] Sagan C, Cosmos, Marabout, 1990.

Électroculture expérimentale en 1927, Queensland State archives

84

Science et pseudo-sciences n°332 - avril / juin 2020

/

Les revues prédatrices

Intégrité scientifique

Chronique de Hervé Maisonneuve

Hervé Maisonneuve est médecin de santé publique. Il est consultant en rédaction scientifique et anime le blog Rédaction médicale et scientifique (redactionmedicale.fr)

Le loup et l'agneau, Jean-Baptiste Oudry (1686-1755)

Q

uand “Jane” s’est orientée vers les médecines alternatives, elle avait déjà reçu de la radiothérapie, de la chimiothérapie et d’autres traitements classiques pour son cancer du sein. Son médecin prescrivant des médecines alternatives avait partagé avec elle un article sur une thérapeutique à base d’infusions vitaminées. Pour elle et son médecin, c’était une authentique source d’espoir. Mais quand Jane montra cet article à son gendre, il réalisa qu’il provenait d’une revue prédatrice, impliquant que les promesses

« 

1 Toutes les traductions de l’anglais sont de notre responsabilité.

étaient douteuses et que la validité de traitement n’avait probablement pas été évaluée correctement » (extrait traduit de [1]1).

L’émergence de revues scientifiques dites prédatrices ou trompeuses date de la fin des années 2000. Ce phénomène est la conséquence des rapides changements en cours dans le système de diffusion des résultats des recherches. Ces revues prédatrices peuvent tromper chercheurs et citoyens. Jusqu’au début des années 1990, les revues scientifiques, historiquement contrôlées par des sociétés savantes, étaient diffusées aux Science et pseudo-sciences n°332 - avril / juin 2020

85

Intégrité scientifique

/

seuls abonnés (chercheurs, librairies ou institutions) sous la forme de numéros imprimés.

Du « lecteur-payeur » à l’« auteur-payeur »

Internet, et plus généralement les outils électroniques, ont complètement transformé ce modèle économique. Une diffusion imprimée aux seuls abonnés n’était plus viable pour les éditeurs, d’autant plus que la société et les chercheurs estiment normal d’avoir accès gratuitement aux résultats de recherches finan-

cées sur des fonds publics. C’est ainsi qu’un nouveau modèle est apparu où chercheurs et institutions acceptent de payer pour diffuser leurs résultats.

C’est au début des années 1990 que les revues scientifiques ont commencé à proposer des sites Internet mettant à disposition leurs articles, en parallèle de l’envoi des numéros papier. Les abonnés avaient ainsi automatiquement accès à ce contenu électronique et les non-abonnés pouvaient acheter un article, ou un numéro, à l’unité, pour le lire en format électronique. Le modèle lecteur-payeur restait cependant la norme (le client de la revue est ici le lecteur qui paie pour lire les articles). À partir du début des années 2000, des revues purement numériques, sans support papier, ont vu le jour avec pour objectif de permettre aux chercheurs, et plus généralement à toutes les personnes intéressées, d’accéder gratuitement aux résultats des recherches. Les revues BioMed Central (éditées par le groupe BMC, racheté ensuite par Springer), créées à Londres, ont été pionnières en la matière. Mais l’équilibre financier d’un modèle proposant un accès libre aux articles a nécessité une source pérenne de revenus. C’est ainsi que, en 2002, le groupe BMC a demandé aux auteurs de contribuer aux frais de publication des articles (APC ou article processing charges) à régler dès l’acceptation du manuscrit. Cette pratique était inédite et, contre toute attente, des auteurs ont accepté de payer pour la mise en ligne en accès libre de leurs articles. Les tarifs initiaux étaient d’environ 1 200 € par article. En 2020, Les compteurs d'argent, d’après Marinus van Reymerswaele (1490-1546) ils varient entre 700  € et

86

Science et pseudo-sciences n°332 - avril / juin 2020

/

Intégrité scientifique

Anonyme, XIIe siècle

8 000 € et dépendent essentiellement du prestige de la revue. Ils sont en moyenne plus élevés pour les revues du segment « Science, technologie et médecine » que pour celles du segment « Sciences humaines et sociales ».

Le modèle « auteur-payeur » était né et il inversait complètement la logique économique : le client n’est plus le lecteur de la revue, mais l’auteur de l’article. Depuis, de très nombreuses revues ont emboîté le pas et le répertoire des revues en accès ouvert (DOAJ ou Directory of Open Access Journals [2]) recense ainsi 14 000 revues électroniques en accès libre couvrant tous les domaines scientifiques. Les revues indexées dans le DOAJ répondent à des critères d’évaluation précis en termes de qualité et de validation du contenu. Tout en trouvant que les prix demandés étaient élevés, des chercheurs ont pris l’habitude de soumettre leurs articles à ces revues d’une nouvelle forme et de payer pour la publication de ceux qui étaient acceptés.

Un objet de convoitise

Des concepteurs de sites Internet ont alors perçu une opportunité due au modèle auteurpayeur. Ils ont pensé à offrir un service de publication à la fois à bas coût (tarifs généralement compris entre 50 et 800 €) et rapide (publication en quelques jours contre plusieurs mois en général). C’est ainsi que des revues dites prédatrices sont progressivement apparues à la fin des années 2000. Il ne faut que quelques heures

pour mettre en place un site, parfois en s’inspirant de la mise en page, voire du titre, de revues de qualité. Ces concepteurs ont organisé de véritables campagnes de marketing électronique auprès des chercheurs pour promouvoir leur offre. Ils font croire que leurs services sont excellents, mais en fait ils sont peu fiables et l’évaluation par les pairs (peer-review) y est absente ou superficielle. Ce phénomène a commencé en Égypte et en Inde, où se trouve l’éditeur OMICS, créé en 2008 et souvent présenté comme le plus grand groupe prédateur, qui publie environ 700 revues [3]. Il a fait l’objet, en avril 2019, d’une lourde condamnation de la Federal Trade Commission américaine pour « des déclarations trompeuses aux universitaires et aux chercheurs sur la nature de leurs conférences et publications » [4].

Quelle définition ?

Le terme de revues prédatrices a été proposé par Jeffrey Beall, documentaliste à l’université du Colorado à Denver (États-Unis). C’est en janvier 2012 qu’il a lancé son blog intitulé Scholarly Open Access et qui dressait une liste commentée des éditeurs et des revues prédatrices. En janvier 2017, il a dû fermer son site face aux pressions de son employeur, lui aussi objet de menaces. Il résuma ainsi ce qu’il avait appris de cette expérience [1] : « Les éditeurs prédateurs […] considèrent l’argent [comme] beaucoup plus important que l’éthique des affaires, l’éthique de la recherche ou l’éthique de l’édition et ces trois Science et pseudo-sciences n°332 - avril / juin 2020

87

Intégrité scientifique

/

piliers de l’édition savante sont facilement sacrifiés pour le profit. » Pour lui, ces éditeurs représentent « la plus grande menace pour la science depuis l’Inquisition […] en ne distinguant pas la science authentique de la mauvaise science [unsound science], en permettant à la science contrefaite, comme les médecines complémentaires et alternatives, de se présenter comme s’il s’agissait d’une science authentique et en permettant la publication d’une science militante [activist science] ».

de revues ; il existe en outre aussi des revues de sociétés savantes ayant peu de ressources, qui n’ont pas l’intention de tromper, mais dont la qualité pourrait être améliorée. De même, une mauvaise évaluation par les pairs n’a pas été retenue comme un élément clé des revues prédatrices car ce critère peut se retrouver chez certaines revues « légitimes ».

En 2019, un groupe d’experts a travaillé sur une définition précise de ces revues et a proposé ceci [5] : « Les revues et les éditeurs prédateurs sont des entités qui privilégient l’intérêt personnel au détriment de l’érudition et se caractérisent par des informations fausses ou trompeuses, un écart par rapport aux bonnes pratiques rédactionnelles et de publication, un manque de transparence et/ou le recours à des pratiques de sollicitation agressives et sans discernement. » De manière qui peut sembler surprenante, la qualité des articles (bonne ou médiocre) n’est pas une caractéristique en soi de ces revues prédatrices. D’une part, des revues prédatrices publient parfois de bons travaux soumis par des chercheurs ignorant l’existence de ce modèle

Ainsi, en 2020, il existerait plus de 10 000 revues prédatrices couvrant tous les domaines de la science. Mais c’est surtout le segment « Science, technologie et médecine » qui semble concerné, et relativement peu celui des « Sciences humaines et sociales ». Les auteurs qui publient dans ces revues sont de toutes nationalités ; et des chercheurs de bonne foi peuvent se laisser abuser. Les noms de ces revues sont trompeurs, proches de noms de revues de sociétés savantes, parfois avec des présentations voisines. Il existe une liste noire de 12 000 revues fallacieuses, produite par la société Cabells, mais elle est d’accès payant et aucune institution française n’y est abonnée. Des signaux peuvent cependant alerter : aucune rigueur au niveau des sites

Une concurrence dangereuse avec les vraies revues scientifiques

Montage à partir d'un détail du Jardin des délices, Jérôme Bosch (vers 1450-1516)

88

Science et pseudo-sciences n°332 - avril / juin 2020

/

Internet et du traitement des manuscrits, publication rapide après soumission du manuscrit, absence d’évaluation correcte par les pairs, sollicitation directe d’articles par courriel, création de comités de rédaction avec des chercheurs n’ayant jamais donné d’accord ni honoré ces positions, indicateurs de notoriété créés hors des systèmes reconnus, fausses adresses, le plus souvent en Amérique du Nord… De jeunes doctorants, en toute bonne foi, sans l’aide appropriée d’un superviseur, soumettent cependant leurs manuscrits à ces revues.

Cependant, certains auteurs peuvent décider de publier dans ces revues prédatrices en toute connaissance de cause. Ce peut être, par exemple, pour répondre à un besoin d’étoffer rapidement un curriculum vitae ou pour obtenir des financements en montrant des publications. En France, le Centre de coopération internationale en recherche agronomique pour le développement (Cirad) a montré que, en 2016, sur plus de 700 articles publiés et issus de cet organisme, 9 % avaient été publiés dans ces revues trompeuses [6].

Les conférences prédatrices

Il n’y a pas que les revues prédatrices qui usent de techniques de plagiat. Des conférences prédatrices existent sous plusieurs formes : sites Internet imitant ceux des congrès de sociétés savantes afin de piéger les chercheurs et récupérer le montant de leurs inscriptions, organisation de conférences dans des villes attirantes, parfois dans des lieux prestigieux, avec des orateurs célèbres à l’affiche (sans qu’ils soient toujours informés de l’usurpation de leur nom et photo). Ces conférences sont déplacées au dernier moment dans des salles spartiates avec des orateurs inconnus de dernière minute… perdant tout intérêt pour un public qui a déjà payé son inscription.

Une distinction de plus en plus difficile à faire

Il faut du temps et un peu d’expertise pour bien identifier les revues prédatrices. En effet, avec le temps, certaines d’entre elles se « professionnalisent », par exemple en proposant des formulaires de soumission d’articles au lieu de simples

Intégrité scientifique

pièces attachées de courriels. D’excellents articles ont été publiés dans ces revues et les auteurs ont du mal à les faire supprimer quand ils comprennent leur méprise. Ils doivent parfois payer pour les faire retirer des sites Internet avant de pouvoir les soumettre à une revue légitime. Mais aussi, des groupes que l’on pense légitimes appliquent des pratiques généralement attribuées aux revues prédatrices : par exemple, en ayant recours à des campagnes de sollicitation par courriel ou en appliquant des critères d’acceptation très lâches permettant ainsi de drainer de nombreux « auteurs-payeurs ». Il est aussi possible, avec une bonne technologie et en s’appuyant sur quelques revues de qualité, de multiplier les titres aux pratiques moins regardantes. Des éditeurs changent la composition de comités de rédaction quand ils estiment que les taux d’acceptation des articles sont trop bas, puisque leurs revenus dépendent des frais de publication des articles payés par les auteurs.

Interdire le commerce des revues prédatrices ?

Le commerce des revues prédatrices n’a, en lui-même, rien d’illégal, mais certaines pratiques trompeuses ou malhonnêtes peuvent être condamnées. Ce peut être le plagiat ou le vol d’articles pris à d’autres revues pour lancer des « numéros zéro », mais aussi l’utilisation de fausses adresses postales et téléphoniques (souvent sises aux États-Unis ou au Canada). Ces revues ne respectent pas les guides d’éthique, comme ceux du Committee On Publication Ethics [7] ou de l’International Committee of Medical Journal Editors [8], alors qu’elles les citent et disent les appliquer. Elles affichent de faux indicateurs de notoriété. La revue française Fourrages (éditée par l’Association française pour la production fourragère) a été victime deux fois d’opérations de piratage [9]. Fin 2015, une version anglaise du site de la revue est apparue, avec la même typographie et la même apparence que le site français. Le comité de rédaction était le même, excepté que la rédactrice en chef F. Vertès était appelée F. Green dans la version anglaise. Des auteurs se sont fait piéger et ont envoyé des articles, puis payé en vue de leur publication avant que l’information ne soit connue et que le site pirate dispaScience et pseudo-sciences n°332 - avril / juin 2020

89

Intégrité scientifique

/

raisse, faute d’articles. Puis nouveau piratage fin 2019… mais la communauté scientifique était déjà sur ses gardes.

Sur quels arguments et comment condamner ces ingénieurs basés en Inde, surtout dans la région d’Hyderabad, siège de la société OMICS ? Les institutions publiques et les ministères du pays font leur possible pour interdire ces activités, mais avec de grandes difficultés [10]. Des éditeurs de revues prédatrices existent aussi probablement en Iran et en Afrique (Kenya et Nigeria). Si des revues prédatrices ont existé en Chine, il semble que le phénomène y a presque disparu, signe probable que les autorités ont agi pour les interdire. Les revues prédatrices sont souvent l’endroit où des chercheurs soumettent des articles qui ont été refusés ailleurs (parfois plusieurs fois) : c’est pourquoi J. Beall les appelle « le salon des refusés » [1]. Cela n’empêche pas que de bons articles y sont aussi soumis. La communauté scientifique doit mieux comprendre le phénomène, s’abstenir de soumettre des manuscrits à ces revues, et également arrêter de citer les articles qui y sont publiés.

Des sociétés savantes, comme l’Association européenne d’urologie, ont publié des listes « vertes » (ou « positives ») des revues acceptées par la communauté des chercheurs de la discipline pour l’analyse des curriculum vitae et l’évaluation des projets de recherche. En France, le Conseil national des universités de la spécialité « médecine d’urgence » juge négativement les curriculum vitae contenant des articles publiés dans des revues prédatrices [11].   //

Je remercie Mme Cécile Fovet-Rabot pour sa relecture et ses suggestions.

Références

[1] Beall J, “What I learned from predatory publishers”, Biochemia Medica, 2017, 27:273-8. [2] Le site du Directory of Open Access Journals : doaj.org [3] Yadav S, “Inside India’s fake research paper shops: pay, publish, profit”, Indian Express 2018, 19 juillet. Sur indianexpress. com [4] “The Price for ‘Predatory’ Publishing? $50 Million”, The New York Times, 3 avril 2019. [5] Grudniewicz A et al., “Predatory journals: no definition, no defense”, Nature 2019, 576:210-212. [6] Chirouze E et al., « Analyse des articles 2012-2017 du Cirad dans les revues publiées par des éditeurs potentiellement prédateurs », document interne avec accès sur autorisation, Cirad-DGDRS-Dist, 2018, 35 p. Sur agritrop.cirad.fr [7] Committee On Publication Ethics, “Promoting integrity in scholarly research and its publication”. Sur publicationethics.org [8] International Committee of Medical Journal Editors. Sur icmje.org [9] Maisonneuve H, « La revue Fourrages à nouveau piratée ! », Rédaction Médicale et Scientifique, 31 janvier 2020. Sur redactionmedicale.fr [10] Tao T, “India’s Fight Against Predatory Journals: An Interview with Professor Bhushan Patwardhan”, The Scholarly Kitchen, 5 février 2020. [11] Riou B et al., « Modalités de fonctionnement du Conseil national des universités (CNU) de médecine d’urgence », Ann Fr Med Urgence, 2018, 8:1-6.

Rédaction médicale et scientifique Retrouvez plus d’informations sur le thème de l’intégrité scientifique sur le blog d’Hervé Maisonneuve : redactionmedicale.fr

90

Science et pseudo-sciences n°332 - avril / juin 2020

/

Article

L’histoire réelle de Mileva Einstein-Maric’ Yves Gingras est professeur d’histoire et de sociologie des sciences à l’université du Québec à Montréal.

Dans un article de notre rubrique Regards sur la science (SPS n°324, avril 2018), nous avons publié une courte note de la physicienne Suzy Collin-Zahn, « La vie tragique de Mileva Einstein ». Ce texte suggérant un rôle scientifique de Mileva dans les travaux d’Albert Einstein, qui aurait été occulté par ce dernier, a suscité une critique détaillée de la part de l’historien des sciences Yves Gingras, critique que nous publions ici.

H

istorien des sciences et lecteur régulier de Science et Pseudo-sciences, j’ai été plutôt surpris de lire dans le numéro n° 324 d’avril-juin 2018 un article sur la première femme d’Einstein, Mileva Marić, largement fondé sur des sources peu fiables ou idéologiquement orientées. En effet, il y était affirmé sans l’ombre d’une analyse critique des sources disponibles que Mileva Marić s’était vu refuser la reconnaissance scientifique qui lui aurait été pourtant due pour ses supposées contributions aux travaux qui ont valu au seul Albert Einstein une reconnaissance mondiale (on trouve des arguments et des citations similaires, de même qu’une absence d’analyse critique des sources, dans le blog de la physicienne Pauline Gagnon sur le site de la revue Scientific American [1]). Certaines phrases suggéraient même une volonté délibérée de cacher cette soi-disant vérité évidente d’une « contribution » significative et même essentielle aux publications d’Einstein : l’auteure note en effet dans une parenthèse que «  malheureusement très peu de lettres écrites par Mileva ont été conservées par Albert… », les points de suspension suggérant subtilement que ce dernier aurait peut-être détruit intentionnellement les lettres qui auraient prouvé la contribution de sa femme ! Aucune preuve n’existe et cela présuppose qu’Einstein devait conserver soigneusement toute sa correspondance, ce qui n’était pas le cas à cette époque. De plus, le texte affirme sans nuance que les

trois célèbres articles d’Albert Einstein de 1905 (sur la lumière, le mouvement brownien et la relativité) « étaient signés du nom Einstein-Marity dans la version soumise aux Annalen der Physik », alors qu’aucune preuve ne confirme cette hypothèse et qu’au contraire, toutes les sources fiables convergent pour la considérer plus qu’improbable pour ne pas dire sûrement fausse, même s’il est évidemment logiquement impossible d’infirmer l’inexistence de quoi que ce soit.

La parution aux États-Unis en 2019 d’une analyse historique sérieuse et approfondie des sources ayant contribué depuis les années 1980 à construire la mythologie selon laquelle la première femme d’Albert Einstein aurait joué un rôle central dans les fameuses publications de son mari [2] permet aujourd’hui de rappeler que l’histoire, comme toute science, a ses méthodes, qu’il faut les respecter et que les bons sentiments font de la mauvaise histoire1. En fait, les auteurs montrent, en bons historiens, que cette idée d’une double signature est fondée sur une déformation des réminiscences tardives du physicien russe Abraham Joffe dans un article paru en langue russe en 1955 à la suite du décès d’Einstein. Il y affirmait que le célèbre physicien était bien le seul auteur de ses articles de 1905 mais qu’il aurait signé « Einstein-Marity », 1 Une excellente étude, plus ancienne, sur le sujet a été publiée par John Statchel en 1996 [3].

Science et pseudo-sciences n°332 - avril / juin 2020

91

Article

/

tématiquement les résultats universitaires du couple pour conclure qu’en aucun cas Mileva n’avait des notes qui auraient pu suggérer, et surtout fonder, une quelconque « supériorité » ou « génie » en physique ou en mathématiques, comparé à son ami et futur mari.

Mileva Maric´ et Albert Einstein en 1912

ce qui a ensuite été présenté comme un article écrit par Einstein et Mileva Marić… Il n’apporte évidemment aucune preuve matérielle et dit cela de mémoire à l’âge de 75 ans.

Selon l’article publié par Science et pseudosciences, « il est pourtant évident – certaines lettres de la période de jeunesse d’Einstein le prouvent – qu’ils ont travaillé en commun » et qu’« il est donc probable que dans un premier temps, les époux considéraient que ces articles étaient issus de leur travail commun ». On passe ainsi de « évident » à « probable » par des suppositions arbitraires et sans qu’aucune analyse sérieuse des sources n’ait été effectuée. Que peut bien signifier « travailler en commun » ? En science, il faut se méfier des évidences. Bien sûr, seuls les « inconditionnels d’Einstein » peuvent, selon l’auteure, s’opposer à ces « évidences ». Pis encore, il semble qu’il ait « également été beaucoup reproché à Mileva d’avoir échoué à son examen de sortie de l’École polytechnique ». On ignore qui précisément aurait fait de tels « reproches » (inutiles en la circonstance) et, surtout, on peut se demander en quoi rappeler le fait indéniable que Mileva a bel et bien échoué à ses examens (deux fois en fait : en juillet 1900, au moment où Einstein les réussit, et à nouveau en juillet 1901 [2]) serait un « reproche » et pas un simple constat utile dans un contexte où certaines personnes font bruyamment la promotion du supposé « génie » propre de Mileva sans lequel le jeune Einstein n’aurait pu réussir ? Les auteurs ont donc raison de comparer sys-

92

Science et pseudo-sciences n°332 - avril / juin 2020

Et avant de « s’étonner qu’aucun [article] ne porte aussi sa signature », il faudrait d’abord établir clairement l’existence de contributions au-delà de la simple absence des lettres supposées les contenir, sous peine de raisonnement circulaire. Est-il nécessaire ici de rappeler que poser cette question en fonction des sources disponibles n’est aucunement « critiquer » ou « dévaloriser  » Mileva Marić  ? En fait, des sources existent et sont loin de suggérer des contributions ou une collaboration étroite justifiant, pour l’époque, une co-publication. En effet, il est significatif que les nombreuses lettres de Mileva à sa meilleure amie [4] ne font jamais référence à ses propres recherches scientifiques ou à ses contributions aux travaux de son mari. Ainsi, dans une lettre du 20 décembre 1900 à sa confidente Hélène Savić, elle lui apprend qu’Einstein a écrit un article qui paraîtra bientôt dans Annalen der Physik. Elle ajoute que ce n’est pas un article banal mais bien une contribution très importante sur la théorie des liquides et qu’elle est « très fière » de lui. En 1906 elle lui écrit à propos de son mari que « les articles qu’il a écrits sont déjà assez nombreux » . Aucune référence ici à ses propres contributions qui seraient pourtant toutes récentes si elles étaient avérées. Trois ans plus tard, elle lui écrit qu’Albert travaille très fort, a beaucoup publié et fait une conférence au congrès des physiciens à Salzbourg. Elle ajoute, un peu triste, qu’une telle renommée lui laisse peu de temps pour sa femme. En 1912, elle se plaint encore à Hélène d’être délaissée et lui confie que « [son] gros Albert est devenu un physicien renommé qui est hautement estimé par ses collègues. Il travaille sans cesse à ses problèmes et on peut dire qu’il ne vit que pour eux ». Cela la désole et elle confesse à son amie avoir « un peu de honte » à se voir ainsi, elle et ses enfants, si peu importants pour lui et n’occuper que la seconde place. Ces lettres montrent

/

bien que la vie affective du couple souffre déjà du comportement d’Einstein qui se désintéresse de sa femme et de sa famille au seul profit de la science et laissent ainsi déjà entrevoir la séparation qui va arriver en 1914.

Mais la question du rôle de Mileva dans la production scientifique d’Einstein n’a rien à voir avec sa relation de couple ou avec la façon dont il a interagi avec ses enfants, comme le laisse entendre l’article en insistant sur ces aspects personnels. Les divorces sont fréquents et rarement joyeux, et l’on se demande bien pourquoi Einstein serait différent des autres humains. Contribuant aux confusions et aux déformations historiques sur le rôle de Mileva dans les travaux d’Einstein, l’auteure écrit même que Mileva « essaya une seule fois de défendre ses droits en 1925 ». Elle cite alors la réponse d’Einstein qui se fâcha et lui écrivit « que personne ne prêterait la moindre attention à tes salades… ». La phrase est cruelle en effet et a été choisie de manière stratégique dans un corpus large d’échanges car elle suggère implicitement que Mileva parle alors de ses « droits » en tant que co-auteure des travaux de son mari. Cependant, le contexte de ces échanges montre sans ambiguïté qu’il est plutôt question de son idée d’écrire ses mémoires, ce qui est très différent. Il est évident que les mémoires de la première femme d’Albert Einstein, savant mondialement célèbre depuis 1921, rapporteraient gros en droits d’auteur et Einstein est furieux à l’idée de voir leur vie privée déballée en public. Dans une lettre de novembre 1925, il lui rappelle d’ailleurs avoir été très ennuyé par les absurdités colportées par le journaliste Alexandre Moszkowski qui publia en 1921 un volume de Conversations avec Albert Einstein [5]. De plus, l’auteure laisse entendre qu’Albert et Mileva sont en conflit depuis longtemps alors que les lettres de cette période (une dizaine entre mai 1923 et mai 1925, auxquelles s’ajoutent une quinzaine échangées avec ses deux enfants) laissent plutôt voir une situation familiale plus complexe et pas toujours conflictuelle, après leur divorce officiel en 1919. Par exemple, le 17 juin 1924, il écrit à Mileva qu’il aime beaucoup la maison qu’elle a achetée avec l’argent du prix Nobel de physique qu’Einstein a reçu en décembre 1922 et qu’il lui avait cédé

Article

– avant même de l’avoir obtenu ! – dans son entente de divorce. Aussi, le 23 avril 1925, il écrit de Buenos Aires à ses fils qu’il compte ramener de son voyage en Amérique du Sud des cactus pour Mileva. Un mois plus tard, il écrit directement à Mileva que le directeur du jardin botanique de Rio lui a offert les cactus qu’il compte lui apporter à son retour [6]. Après l’échange acrimonieux de 1925, leurs relations s’apaisent. Dernier exemple, Einstein lui écrit le 23 février 1927 qu’il est heureux de voir que leurs relations sont redevenues bonnes. Mileva lui répond aussitôt que sa lettre lui a fait énormément plaisir et elle la termine en lui disant que cela lui fera toujours plaisir s’il pouvait égayer son existence en lui écrivant, de temps à autre, quelques lignes amicales [7].

Rien là donc que des comportements humains, trop humains… On peut bien sûr déplorer qu’Einstein n’ait pas toujours été attentionné envers sa femme et ses enfants, mais cela relève du jugement moral de chacun et pas de l’analyse objective des relations de couple. Il est en fait très probable que ceux qui se posent en défenseurs de la mémoire de Mileva Marić en suggérant sans preuves tangibles – et même à l’encontre des sources existantes – qu’elle a contribué de manière significative aux idées originales d’Einstein, desservent sa mémoire en exigeant une « reconnaissance » qu’elle-même n’a jamais revendiquée sur les travaux scientifiques de son mari. Les lecteurs désireux d’en connaître davantage sur les origines d’un mythe moderne qui tend (sous certaines plumes) à se transformer en fait incontestable pourront désormais se référer à l’ouvrage de Esterson et Cassidy [2] dont les analyses précises et contextuelles de toutes les sources disponibles montrent non seulement qu’une contribution scientifique significative de Mileva aux publications d’Einstein est plus qu’improbable, mais que les affirmations contraires se fondent sur des suppositions, des hypothèses peu plausibles et des déformations des sources existantes. En somme, considérant le fait que Mileva n’a jamais publié aucun article, ni discuté de quelconques recherches scientifiques (effectuées seule ou en collaboration avec son mari) avec sa meilleure amie Hélène Savić – et ce, quelles Science et pseudo-sciences n°332 - avril / juin 2020

93

Article

/

qu’en soient les raisons – alors qu’Einstein a publié de manière continue depuis 1901 et continué une carrière plus que fructueuse après leur séparation en 1914, l’idée que ce dernier n’ait pas lui-même été seul à l’origine de ses premières grandes découvertes dépasse largement ce qu’il serait raisonnable de croire à la lumière de l’ensemble des données disponibles analysées de manière critique et sans biais idéologique ou croyance en une dissimulation réalisée par Einstein lui-même. D’ailleurs si cette dissimulation était avérée, on devrait se demander pourquoi Mileva n’a pas publié de textes avant, pendant et surtout après sa relation avec Einstein. Aussi, pour établir si ses « contributions » impliquaient d’être co-auteure, il faudrait comparer son cas à celui du grand ami d’Einstein, Michele Besso. Il est en effet très significatif que le fameux article sur l’électrodynamique des corps en mouvement publié par Einstein en 1905 se termine par la phrase suivante  : « En terminant, je tiens à dire que mon ami et collègue M. Besso m’a constamment prêté son précieux concours, pendant que je travaillais à ce problème et que je lui suis redevable de maintes suggestions intéressantes » [8]. En 1928, Besso lui écrit pour se remémorer avoir été « [son] public pendant les années 1904-1905 ; en [l]’aidant à rédiger [ses] communications sur le problème des quanta », mais n’a jamais considéré qu’il devait être co-auteur (voir par exemple la lettre de Besso à Einstein, 17 janvier 1928 dans [9]).

Il est en effet anachronique de projeter les critères actuels de co-publication – surdéterminés par les pressions actuelles à publier – dans le passé. Enfin, tenant compte du fait que quelques autres femmes au tournant du siècle ont aussi fait des études universitaires (pas seulement en sciences, Hélène Savić ayant étudié en histoire de l’art) pour ensuite plutôt se consacrer à fonder une famille, il est également légitime de se poser la question : si Mileva Marić n’avait pas épousé le personnage qu’est devenu Albert Einstein, aurait-on assisté depuis les années 1980 aux tentatives de prouver ses « contributions » aux travaux de son mari et à la promotion de son « génie » scientifique méconnu ? Répondre à cette question demanderait un autre texte sur les usages idéologiques de l’histoire, mais la réponse la plus probable est évidente. Et comme cela doit être le cas dans toute science,

94

Science et pseudo-sciences n°332 - avril / juin 2020

Albert Einstein en 1921, Ferdinand Schmutzer (1870-1928)

seules de nouvelles sources et non des rumeurs, du ressentiment ou des bons sentiments, pourront éventuellement amener les historiens des sciences à revoir leurs conclusions sur l’absence d’apport scientifique spécifique de Mileva Marić aux nombreuses découvertes de son mari entre 1901 et leur séparation en 1914.  // Yves Gingras

Références

[1] Gagnon P, “The Forgotten Life of Einstein’s First Wife”, Scientific American, 19 décembre 2016. [2] Esterson A, Cassidy D, with a contribution by Sime RL, Einstein’s ´ MIT Press, 2019. Wife. The Real Story of Mileva Einstein-Maric,

´ A Collaboration [3] Statchel J, “Albert Einstein and Mileva Maric. that failed to develop », in Pycior HM, Slack NG, Abir-Am PG (dir.), Creative Couples in the Sciences, Rutgers University Press, 1996, 207-19. [4] Popovic M (dir.), In Albert’s Shadow. The Life and Lettres of Mileva Maric, Einstein’s First Wife, Johns Hopkins University Press, 2005, 70. [5] Kormos-Buchwald D et al. (ed.), The Collected Papers of Albert Einstein, vol. 15, doc. 99. [6] Kormos-Buchwald D et al. (ed.), The Collected Papers of Albert Einstein, vol. 14, doc. 476 et 489. [7] Kormos-Buchwald D et al. (ed.), The Collected Papers of Albert Einstein, vol. 15, doc. 485 et 487. [8] Einstein A, Sur l’électrodynamique des corps en mouvement, traduit par Maurice Solovine, Gauthiers-Villars, 1955, 48. [9] Einstein A, Besso M, Correspondance, 1903-1955, Hermann, 1973, 239.

/

Article

La fiction « Le Nuage » confond un nucléaire fantasmé et la réalité Jean-Jacques Ingremeau est ingénieur en sûreté nucléaire. Il est indépendant de tout exploitant nucléaire et n’est pas rémunéré pour cette analyse.

© MichaelUtech | Istockphoto

Nous publions ici une petite partie, relative à l’épisode 1 de la fiction, de l’analyse complète mise en ligne sur notre site Internet (afis.org).

E

n janvier 2020, Spotify a mis en écoute un podcast en cinq épisodes intitulé « Le Nuage », réalisé par Aurore Meyer-Mahieu du studio Nouvelles Écoutes, avec Emmanuelle Devos dans le rôle principal [1]. La fiction est présentée de la façon suivante : « Le 25 août 2020, un accident se déclare dans l’une des plus vieilles centrales françaises, le Douvrey, près de Lyon. Julia Roch-Rivière, directrice de la centrale, va tout tenter pour protéger la population du nuage radioactif. Mais sur sa route, se dresse plus puissant qu’elle. […] Le Nuage esquisse une réponse à une question très simple : que se passerait-t-il en cas d’accident nucléaire en France ? » [1]. Dans cette fiction, un accident nucléaire avec fusion du cœur est causé par une canicule qui déclenche une série de dysfonctionnements. D’importants rejets radioactifs en résultent et mettent en danger la population. Le pouvoir politique

s’en mêle et cherche à étouffer l’information. La sortie de ce podcast a été relayée par la presse, en des termes plutôt élogieux – Le Figaro [2] et Le Monde [3] par exemple. En effet, il serait censé documenter « avec une précision d’orfèvre l’enchaînement fatal d’un accident nucléaire sur notre territoire. À partir de scénarios tout ce qu’il y a de plus plausibles. Et pour cause, ils ont été envisagés par des experts de l’énergie » [2]. Selon l’un des producteurs, « c’est littéralement ce qui peut se passer » [3].

Une canicule peut-elle causer un accident nucléaire majeur en France ? Le scénario de l’accident et de sa gestion est-il crédible ? Afin d’évaluer sa vraisemblance, cet article détaille les principaux éléments scénaristiques du premier épisode, en les comparant à la réalité de la conception des réacteurs nucléaires et de la gesScience et pseudo-sciences n°332 - avril / juin 2020

95

Article

/

tion de crise nucléaire actuelle en France. Cette comparaison n’utilise que des informations publiques, facilement accessibles et vérifiables, comme par exemple celles publiées dans deux ouvrages grand public sur la conception et la sûreté des réacteurs [4,5].

L’analyse ne porte ici que sur les aspects techniques de l’accident et de sa gestion, car ils font appel à des notions de physique et à des connaissances sur les réacteurs nucléaires inconnues de la plupart des auditeurs. En re-

vanche, il ne sera fait ici aucun commentaire sur la réalisation auditive et artistique de ce podcast, que chacun est libre d’apprécier selon ses propres goûts.

« Une surchauffe du réacteur »

Dans le scénario du podcast, la présence d’algues dans le Rhône conduit à bloquer les prises d’eau qui assurent le refroidissement d’un des réacteurs. Ceci conduit à une « surchauffe anormale de la cuve  » régulièrement répétée au cours de l’épisode.

Les trois circuits indépendants d’un réacteur nucléaire

Dans un réacteur nucléaire, des noyaux d’uranium remplacent le combustible fossile (charbon, pétrole) utilisé dans les centrales thermiques. […] La chaleur dégagée durant la réaction en chaîne est utilisée pour produire de la vapeur d’eau [et] c’est cette vapeur qui entraîne une turbine et son alternateur pour produire l’électricité.

Ce fonctionnement est basé sur trois circuits indépendants remplis d’eau qui opèrent des échanges thermiques.

• Le circuit primaire (en jaune sur le schéma) est un circuit fermé qui assure la transmission de la chaleur dégagée dans le cœur du réacteur (où se situe le combustible et s’opère la réaction en chaîne) aux générateurs de vapeur qui transforment cette chaleur en vapeur.

96

Science et pseudo-sciences n°332 - avril / juin 2020

• Le circuit secondaire (en bleu) est un circuit fermé qui amène la vapeur produite dans les générateurs de vapeur à la turbine du groupe turbo-alternateur qui produit l’électricité. Ensuite, la vapeur est retransformée en eau dans le condenseur.

• Le circuit de refroidissement (vert) alimente en eau froide le condenseur. Cette eau (la source froide) est prélevée dans un fleuve, une rivière ou la mer.

Selon le modèle de réacteur, l’eau peut être ensuite rejetée à la source à une température légèrement plus élevée (réacteur sans aéroréfrigérant) ou bien refroidie dans un aéroréfrigérant puis réinjectée dans le circuit de refroidissement (réacteur avec aéroréfrigérant).

Source : Le site de l’IRSN, irsn.fr

/

L’arrivée d’algues colmatant les prises d’eau des réacteurs et causant des problèmes de refroidissement est un initiateur tout à fait pertinent. C’est d’ailleurs ce qui est arrivé à la centrale de Cruas en décembre 2003 et 2009 [6]. Cependant, cela ne peut pas directement conduire, comme présenté dans la série, à une « surchauffe de la cuve du réacteur ». En réalité, la température du circuit primaire (où se trouve le cœur du réacteur, voir schéma) est régulée par plusieurs automatismes. Ces derniers assurent notamment que la température de l’eau à la sortie du cœur, point le plus chaud du circuit primaire, ne sort pas de sa plage de fonctionnement (autour de 330 °C [5]). Ainsi, en cas de baisse de la puissance évacuée par les circuits de refroidissement, la puissance du réacteur serait automatiquement réduite de façon à conserver la température de fonctionnement. Si le refroidissement se révélait malgré tout insuffisant, ce qui est le cas dans le scénario du podcast, des automatismes arrêteraient le réacteur : les barres de commande chuteraient dans son cœur, ce qui arrêterait la réaction en chaîne. La puissance produite par le cœur diminuerait alors très fortement. Elle ne serait néanmoins pas nulle du fait de la puissance résiduelle1, mais cette dernière est de l’ordre de quelques pourcents de ce que produit le réacteur à pleine puissance. Ainsi, les besoins en refroidissement se trouveraient très fortement diminués. En comparaison, lors de l’événement de Cruas en 2009, l’arrivée des algues avait été progressive, bouchant d’abord une première prise d’eau. EDF avait alors arrêté le réacteur, avant même que la deuxième soit indisponible [6]. Ainsi, il a suffi d’évacuer la puissance résiduelle (et non la puissance du réacteur en fonctionnement), ce qui était tout à fait faisable avec les stocks d’eau disponibles sur le site. Les prises d’eau ont ensuite été nettoyées et l’incident n’a eu aucune conséquence (voir encadré).

« On va utiliser le circuit de secours pour alimenter en eau les générateurs de vapeur »

Dans « Le Nuage », la directrice de la centrale arrive d’urgence dans la salle de commande, se fait 1 Puissance produite par la désintégration des produits de fission encore présents dans le cœur.

Article

expliquer la situation et prend alors la décision d’utiliser les circuits de secours pour alimenter en eau les générateurs de vapeur. Premièrement, dans une centrale nucléaire, la totalité des actions de sûreté nécessitant une réponse rapide sont automatisées de façon redondante (de sorte que si un automate ne remplit pas sa fonction, un autre l’assure). En particulier, aucune action d’un opérateur humain n’est requise pour faire face à un début d’accident durant les vingt premières minutes. C’est notamment le cas pour l’arrêt du réacteur et l’alimentation de secours en eau des générateurs de vapeur (dite ASG). Tout ceci aurait donc déjà eu lieu, sans nécessiter d’intervention humaine, bien avant l’arrivée de la directrice en salle de commande. Deuxièmement, même si le déroulement de l’accident conduisait à ne pas démarrer automatiquement le système ASG d’alimentation en eau des générateurs de vapeur de secours (défaillance des automatismes ou scénario accidentel particulier), les personnels chargés de la conduite du réacteur, appelés opérateurs, suivraient alors les procédures de conduite en vigueur et effectueraient eux-mêmes ces actions de conduite « classiques », sans avoir à demander l’autorisation à qui que ce soit. C’est d’ailleurs ce qui s’est passé à Cruas. Les procédures de conduite sont testées par EDF et validées par l’Autorité de sûreté nucléaire (ASN), elles ne nécessitent pas de nouvelle validation pour être appliquées. Ce serait plutôt si les opérateurs souhaitaient ne pas les appliquer qu’ils devraient avoir l’accord de l’ASN. Dans le scénario du podcast, le fait que ce soit la directrice qui explique les procédures de conduite aux opérateurs et que ceux-ci n’aient pas su quoi faire en attendant est totalement irréaliste.

« Les alimentations électriques des pompes externes sont gravement endommagées »

Ensuite, dans le scénario, cette alimentation en eau des générateurs de vapeur est inopérante à cause d’un problème électrique. Cette étape du scénario accidentel est vraiment extravagante. En effet, à aucun moment dans le scénario de la série il n’y a de perte d’alimentaScience et pseudo-sciences n°332 - avril / juin 2020

97

Article

/

L’incident de la centrale de Cruas (2009) • 20 h 30 – La voie B se révèle aussi défaillante. • 23 h 30 – L’exploitant déclenche le plan d’urgence interne (PUI).

2 décembre 2009 • 00 h 45 – Gréement (activation) du centre technique de crise (CTC). Le refroidissement de divers systèmes IPS de l’installation se fera grâce à l’utilisation de l’eau contenue dans de vastes réservoirs (point 3) comme la bâche PTR. • 05 h 30 – Nettoyées, les voies A et B peuvent être utilisées de nouveau. 1er décembre 2009 • 19 h 10 – Encombrée d’algues, la voie A du circuit de refroidissement des systèmes importants pour la sûreté (IPS) du réacteur n°  4 de la centrale nucléaire de Cruas devient indisponible (point 1 sur le schéma). • 19 h 30 – Le réacteur est mis à l’arrêt par la chute des barres de contrôle (point 2).

tion électrique. Le réacteur continue donc à être alimenté en électricité par le réseau principal et le réseau auxiliaire [7]. Il n’y a donc aucune raison que les pompes du système ASG soient inopérantes. D’autant plus qu’il y a quatre pompes au total pour remplir ces fonctions, dont deux peuvent fonctionner sans alimentation électrique à partir de la vapeur produite par les générateurs de vapeur (on parle de turbopompes) [5]. Ces pompes ne peuvent pas non plus être endommagées par des algues (explication donnée dans le podcast) puisqu’elles se trouvent sur le circuit secondaire dont l’eau n’est jamais en contact avec celle de la rivière (au contraire du circuit tertiaire qui se refroidit avec elle). Le système ASG peut en revanche manquer d’eau

98

Science et pseudo-sciences n°332 - avril / juin 2020

• 06 h 30 – Levée du PUI et désactivation du CTC. Source

Le site de l’IRSN, irsn.fr

L’incident a été classé 2 sur l’échelle Ines car il n’a conduit à aucun rejet radioactif mais a entraîné l’indisponibilité de systèmes de sûreté.

s’il ne dispose d’aucun appoint supplémentaire. Mais compte tenu des réserves d’eau disponibles sur le site2, l’exploitant disposerait alors de temps pour les réapprovisionner, ou retrouver la source de refroidissement principale.

« Il nous faut des renforts pour arroser depuis l’extérieur l’enceinte du réacteur »

Dans le scénario du podcast, la directrice de la centrale prend cette initiative pour refroidir le réacteur. Cette phrase est insensée dans ce contexte. À ce moment, les opérateurs cherchent à refroidir 2 La seule bâche du système ASG fait plus de 1 200 m3 sur les réacteurs de 1 300 MWe [4].

/

le cœur du réacteur qui est dans le circuit primaire, au centre de l’enceinte de confinement. Celle-ci est un énorme cylindre de béton d’environ quarante mètres de diamètre et d’un mètre d’épaisseur [5]. Le fait d’arroser l’enceinte ne peut donc avoir aucun impact sur le refroidissement du cœur. Cette action serait absurde car totalement inefficace. C’est comme si, pour refroidir un plat dans votre four, vous jetiez un sceau d’eau sur votre toit, mais en beaucoup moins efficace. Sachant que bien sûr, vous pouvez également éteindre le four...

En réalité, les opérateurs utiliseraient les systèmes qui sont normalement à leur disposition pour la conduite du réacteur (alimentation en eau des générateurs de vapeur par exemple), et au besoin les systèmes de secours, permettant un refroidissement direct du cœur par le circuit primaire et secondaire, en suivant les procédures pour lesquelles ils sont formés. La directrice figurée dans le podcast propose des actions qui ne correspondent donc à aucun besoin, témoignant qu’elle ne semble pas connaître les procédures de pilotage d’un réacteur ni la physique des échanges thermiques en son sein. En revanche, il est déjà arrivé d’arroser une enceinte de confinement dans une situation de canicule, comme à Fessenheim en 2003. Mais l’objectif n’était alors absolument pas de refroidir le cœur du réacteur en situation accidentelle pour des raisons de sûreté, mais de refroidir l’air à l’intérieur de l’enceinte de confinement, afin de pouvoir continuer la production d’électricité. En effet, lorsque la température de l’intérieur de l’enceinte dépasse les plages de fonctionnement normales des matériels, les procédures impliquent l’arrêt du réacteur. Il y a ici une confusion entre une mesure prise pour pouvoir continuer à produire de l’électricité tout en restant dans la plage de température de fonctionnement des matériels, et des mesures qui seraient prises pour refroidir le cœur du réacteur en situation accidentelle.

« Le réacteur ne veut pas s’arrêter »

Dans la fiction, après avoir déclenché le Plan d’urgence interne (PUI), demandé le secours de la Force d’action rapide du nucléaire (FARN) et appelé l’ASN, ils se décident (enfin) à arrêter le réacteur. Or, même en insérant les barres de com-

Article

mande, le réacteur ne s’arrête pas et les réactions de fission continuent, produisant toujours une quantité importante de chaleur. Tout d’abord, il est invraisemblable d’arrêter le réacteur aussi tard. En réalité, et comme le montrent les événements de Cruas, le réacteur serait arrêté dès le début de la perte de source froide, que ce soit par des automatismes ou des opérateurs de conduite.

Ensuite, si les barres de commande s’insèrent dans le cœur, elles vont absorber les neutrons et provoquer l’arrêt de la réaction en chaîne et de la production de puissance par fission nucléaire. Le podcast n’indique pas pourquoi les barres, qui tombent dans le cœur sous l’action de leur propre poids, ne pourraient pas jouer leur rôle. Dans une situation hypothétique où le réacteur serait déjà endommagé, il est certes possible qu’elles ne puissent pas s’insérer suffisamment pour arrêter le réacteur. Cette hypothèse est néanmoins prise en compte à la conception de tous les réacteurs nucléaires électrogènes. En particulier, il est requis par les exigences internationales de disposer d’un deuxième moyen d’arrêter le réacteur (voir par exemple la réglementation américaine [8] ou française [9]). Sur les réacteurs à eau pressurisée (REP) français, il s’agit d’eau borée. En effet, le bore, présent dans l’eau de l’injection de sécurité, absorbe les neutrons et permet d’arrêter le réacteur même en cas d’absence de chute des barres de commande. Ce moyen d’arrêter le réacteur serait mis en œuvre soit automatiquement, soit par les opérateurs au besoin et éviterait l’accident. Il est totalement invraisemblable que les opérateurs de conduite ne connaissent pas ce moyen de contrôler la réactivité d’un cœur, puisqu’ils l’utilisent régulièrement pour le pilotage du cœur en puissance, ainsi que dans les périodes d’arrêt pour rechargement du combustible [10].

Conclusion

« Le Nuage » est ce qui s’appelle en rhétorique un épouvantail ou « un homme de paille » : les scénaristes ont inventé un nucléaire qui n’existe pas, où les réacteurs sont très vulnérables aux agressions, où les opérateurs humains sont incompétents et non préparés, où l’Autorité de sûreté nucléaire n’est pas indépendante, où la crise est gérée par quelques personnes sans Science et pseudo-sciences n°332 - avril / juin 2020

99

Article

/

opinion sur la base de risques réels. Et il aurait sans doute été plus informatif de se fonder sur des scénarios crédibles, tels que les étudient par exemple EDF, l’ASN et l’IRSN pour se préparer en cas d’accident grave. La série « Chernobyl » [12] illustre a contrario la possibilité de concevoir un scénario sur le nucléaire civil, avec une mise en scène cinématographique grand public, qui fait preuve de beaucoup plus de réalisme et de rigueur scientifique, même s’il contient quelques exagérations.  // © nsilcock | Istockphoto

Jean-Jacques Ingremeau

Retrouvez l’analyse complète sur afis.org

outils d’aide à la décision, dans l’opacité et le secret. Si le scénario de cette fiction n’est pas vraisemblable, il contient néanmoins quelques éléments intéressants pour ceux qui ne sont pas familiers des risques d’accidents nucléaires, tels que la prise de pastille d’iode, les mesures de confinement ou le déroulement de la fusion d’un cœur ; mais ces éléments sont noyés au milieu d’affirmations extravagantes et sans fondements. Cet article s’est concentré sur les principales erreurs factuelles du premier épisode, et l’analyse complète de la série en entier est disponible sur afis.org.

C’est la liberté de la fiction d’inventer tous les scénarios possibles, sans obligation de vraisemblance. Mais ce qui est problématique, c’est de présenter cette fiction comme « plausible » [2] et « documentée » [11] : cela trompe les auditeurs en leur faisant croire qu’elle décrit la réalité, brouillant ainsi la perception des risques. Les enjeux énergétiques et de sûreté nucléaire méritent une information rigoureuse et transparente, comme la fournissent par exemple l’ASN et l’IRSN de façon pédagogique sur leurs sites Internet, pour que chacun puisse se forger une

100 Science et pseudo-sciences n°332

- avril / juin 2020

Références

[1] Le site du producteur du podcast « Le Nuage » : nouvellesecoutes.fr/podcasts/le-nuage/ [2] Aubel F, « Le podcast de la semaine : “Le Nuage”, nucléaire et vapeurs d’enfer », Le Figaro, 6 février 2020 [3] El Mokhtari M, « Nouvelles Écoutes se lance dans la fiction avec le podcast “Le Nuage” », Le Monde, 30 janvier 2020. [4] Tarride B, Physique, fonctionnement et sûreté des REP – Maîtrise des situations accidentelles du système réacteur, INSTN, Collection EDP Sciences, 2013. [5] Coppolani P et al, La chaudière des réacteurs à eau sous pression, INSTN, Collection EDP Sciences, 2004. [6] IRSN, « Comment l’IRSN a géré l’incident de la centrale nucléaire de Cruas (2009) ». Sur irsn.fr. [7] IRSN, « Les centrales nucléaires. Les alimentations électriques sur une centrale nucléaire française ». Sur irsn.fr. [8] The US Nuclear Regulatory Commission (NRC), “Part 50 – Domestic licensing of production and utilization facilities”. Sur nrc.gov [9] Guide de l’ASN n° 22, « Conception des réacteurs à eau sous pression ». Sur asn.fr [10] Kerkar N, Paulin P, Exploitation des cœurs REP, INSTN, EDP Sciences, 2008. [11] Le compte Twitter du producteur du podcast : twitter.com/synfission/status/1224308813328719872 [12] Série « Chernobyl », HBO, 2019.

/

Livres

Notes de lecture

Rubrique coordonnée par Thierry Charpentier et Philippe Le Vigouroux

Science et conscience dans la post-urgence du séisme de Haïti Éric Calais L’Harmattan, 2017, 92 pages, 12 €

Le 12 janvier 2010, un séisme de magnitude 7 sur l’échelle de Richter dévaste Haïti et sa capitale Port-auPrince. Cette catastrophe dans un des pays les plus pauvres de la planète fait 200 000 morts et des dégâts matériels équivalents au PIB annuel du pays. L’émotion internationale est vive, les promesses de dons affluent, il faut reconstruire le pays. Éric Calais est géologue et sismologue, spécialiste de cette région du globe, et après y avoir consacré son activité scientifique, il lui consacre deux ans de sa vie comme conseiller auprès du ministère de l’intérieur haïtien. Il en a tiré ce petit livre qui est passionnant, à la fois pour comprendre la situation économique et sociale d’Haïti et les conséquences du tremblement de terre, mais aussi pour comprendre en quoi et comment un scientifique peut, sans se substituer aux décideurs, aider à la décision. La connaissance des aléas sismiques, l’existence de solutions dans la construction parasismique et l’ampleur des dégâts sembleraient à première vue devoir conduire à des décisions rationnelles sans hésitation.

Et pourtant, on voit que rien n’est simple. Un ministre déclarait à l’auteur en 2008  : « Vous ne savez pas prédire les dates des séismes, moi je sais que chaque année nous aurons des inondations mortelles entre juin et octobre » ; un autre utilise la reconstruction parasismique comme argument électoral ; des questions angoissées se posent après le tremblement de terre et la réplique qui suivit le 20 janvier 2010, pour savoir si trois jours plus tard cela serait fini (alors que les répliques potentielles s’étalent sur des

mois et que le « big one » reste à venir) ; la panique d’un tsunami improbable s’installe suite à un autre tremblement de terre ayant eu lieu à 1 000 km de là ; sans compter la presse qui, pour augmenter ses ventes, s’indigne des erreurs des sismologues alors que ce ne sont que des imprécisions inhérentes à la nature de la discipline. Rien n’est simple non plus dans la gestion de l’aide humanitaire, dans la mise en œuvre des travaux de reconstruction : la lourdeur et le surcoût de la gestion par les organisations onusiennes est effrayante. Comme l’est tout autant l’activisme de certaines ONG avides de reconnaissance et dont les actions, transitoires, sont souvent de fausses bonnes idées. L’afflux de dons souvent inadaptés aux capacités de les utiliser, les effets collatéraux de subventions mal gérées qui induisent des flux migratoires indésirables, tout cela ne doit pas décourager l’aide internationale, mais doit encourager une gestion mieux adaptée aux besoins. On sent dans le livre d’É. Calais à la fois son attachement au peuple haïtien, sa volonté d’expliquer, d’aider non seulement à faire les bons choix mais aussi à former sur place les générations d’Haïtiens qui auront intégré le risque sismique parce qu’ils auront appris à l’étudier. Comment ne pas penser au fameux précepte chinois enjoignant d’apprendre à pêcher plutôt qu’offrir du poisson ?

Il s’agit là d’un livre humaniste, d’une réflexion sur les limites de la science et sur les devoirs des scientifiques qui « doivent sortir de leur zone de confort pour démêler cette complexité, la déplier face au monde, bref pour expliquer ». Yves Bréchet

Science et pseudo-sciences n°332 - avril / juin 2020

101

Livres

/

Le théorème du parapluie ou l’art d’observer le monde dans le bon sens Mickaël Launay (auteur), Chloé Bouchaour (illustrations) Flammarion, 2019, 298 pages, 19,90 €

Ils sont rares, les écrivains scientifiques capables de vulgariser intelligemment des connaissances souvent difficiles d’accès au non-spécialiste. L’auteur fait partie de ceux-là car il sait, avec une grande simplicité de langage, aborder certains domaines complexes pour le profane. Le sous-titre de son livre annonce d’ailleurs parfaitement sa méthode de vulgarisation : changer de point de vue.

Au fil des chapitres, le lecteur découvre ainsi plusieurs grandes théories physiques ou mathématiques comme la loi de Benford1, la loi de la gravitation, la notion d’infini, les géométries non euclidiennes ou la théorie de la relativité. La façon d’aborder ces thèmes permet à l’auteur d’évoquer d’autres notions qui sont bien moins évidentes qu’il n’y paraît : par exemple comment définit-on l’altitude sur Terre ? Et sur Mars ?

L’unité de ce livre ne tient donc pas tant aux sujets traités, qui sont très divers, qu’à la façon originale de les présenter. Ainsi, expliquer la théorie de la relativité en nous faisant comprendre que nous voyageons tous à la vitesse de la lumière, puisque temps et espace sont intimement confondus en un « continuum espace-temps2 » à quatre dimensions, n’est pas une méthode banale car cette façon de procéder est bien étrange en apparence. Pour autant il ne faut pas s’attendre à trouver dans cet ouvrage une explication complète de théories complexes connues de nom sans avoir jamais été vraiment comprises, mais plutôt une perspective nouvelle propice à stimuler l’imagination du lecteur par des expériences de pensée simples, originales et accessibles à tous. 1 Cette loi stipule que, d’une façon générale et sans contrainte particulière, le premier chiffre significatif d’un nombre d’une série se répartit de la façon suivante : 30,1 % pour le 1, 17,6 % pour le 2, et ainsi de suite en décroissant jusqu’au 9. Voir sur le sujet « La loi de Benford : raccourcis médiatiques », sur afis.org.

102

Science et pseudo-sciences n°332 - avril / juin 2020

L’auteur part souvent d’observations apparemment triviales pour nous entraîner dans des considérations beaucoup plus fouillées. Par exemple : pourquoi les nombres que l’on rencontre dans la vie courante (prix étiquetés, population par pays, longueurs des rivières, etc.) commencent-ils plus souvent par le chiffre 1 que par n’importe quel autre chiffre ? À partir de cette constatation immédiate, l’auteur nous fait découvrir la loi de Benford (même si elle fut formulée pour la première fois par l’astronome canadien Simon Newcomb en 1881).

De la présentation de ce qu’est un logarithme à la notion de fractale, chaque thème est décrit sous l’angle ludique de la découverte. Mickaël Launay, vulgarisateur bien connu grâce à sa chaîne YouTube Micmaths, nous fait ainsi partager, dans une certaine mesure, l’excitation qui saisit le scientifique lorsqu’il arrive à ordonner ses idées pour en construire une théorie nouvelle. Cette capacité d’abstraction n’est pas donnée à tout le monde, il faut donc l’apprécier à sa juste valeur. Mais surtout, au-delà de la transmission d’un certain savoir (ce qui est déjà considérable), cet ouvrage nous fait partager finement l’émotion de la compréhension et nous donne l’envie irrésistible d’aller plus loin. À cette fin, une bibliographie complémentaire en fin d’ouvrage, organisée par chapitres, permettra au lecteur curieux de parfaire ses connaissances. La simplicité du langage utilisé rend la lecture profitable à tout un chacun. Le livre se parcourt ainsi sans le moindre effort et ne laisse qu’un seul regret au lecteur : celui d’avoir été trop rapidement achevé.

Thierry Charpentier

2 Ce continuum espace-temps, appelé espace de Minkowski du nom de son concepteur, est la base de tous les travaux sur la théorie de la relativité.

/

Livres

Histoire de l’astronomie Des premières observations à la conquête de l’espace Marie-Christine de La Souchère Ellipses Marketing, 2019, 148 pages, 16 €

Toutes les civilisations antiques nous ont légué des signes de leur intérêt pour les événements célestes. Nos lointains ancêtres s’y intéressaient habituellement pour des raisons religieuses, mais y ajoutaient souvent de véritables tentatives de déchiffrement du monde. Pour preuve, ces mystérieux « observatoires » en Europe (Newgrange, Stonehenge…)  ; ces magnifiques cartes chinoises de Dunhuang (VIIe siècle avant notre ère) illustrant comètes et constellations ; ces tablettes babyloniennes décrivant la marche apparente des astres ; cette riche philosophie grecque… L’astronomie a été aussi l’axe autour duquel se développèrent nombre de sciences liées au progrès de l’humanité, comme l’établissement des calendriers des fêtes religieuses et des activités agricoles qui y sont associées, le repérage en mer pour la navigation, sans oublier son rôle dans les révolutions scientifiques conduites par Galilée, Newton et Einstein. Enfin, le ciel est la demeure de maintes divinités mythologiques et il reste celle du Dieu créateur des religions monothéistes. Ces croyances irriguent d’innombrables œuvres d’art, de poésie et d’architecture. On doit donc saluer toute initiative d’enrichir les connaissances du grand public en la matière. Agrégée de physique, diplômée en astronomie, collaboratrice du mensuel La Recherche, auteure chez Ellipses de livres d’histoire sur le temps, les horloges, l’électricité, etc., MarieChristine de La Souchère a les qualités requises pour accomplir ce qui semble une tâche incommensurable, si l’on se réfère à ce sous-titre : Des premières observations à la conquête de l’espace. S’agit-il donc pour elle de couvrir l’ensemble des connaissances humaines dans ce domaine en seulement 148 pages ? Ou simplement d’en donner un aperçu ? Elle a jugé utile d’avertir dans l’avant-propos : « Le présent ouvrage […] ne prétend pas à l’exhaustivité ». Cela va sans dire, mais cela va encore mieux en le disant. Celui

qui s’est déjà frotté au même problème, sur un sujet apparenté1 (quoique plus modeste dans le temps et dans l’espace) sait qu’il est humainement impossible de tout traiter, qu’on doit faire des choix – à condition de veiller à ce que les coupes n’entament pas la cohérence de la présentation.

Le livre se divise en douze chapitres, les six premiers nous conduisent jusqu’à Newton et au « triomphe de la mécanique céleste ». Les observations faites en Europe au Néolithique, en Mésopotamie, en Chine, en terre d’islam sont bien résumées. Et les belles images des cartes chinoises, le Livre de soie et la Carte de Dunhuang, sont bienvenues. En revanche, concernant la Grèce antique, le choix de réduire Pythagore et Claude Ptolémée à la portion congrue complique la tâche. C’est en effet chez les Pythagoriciens qu’on trouve les prodromes des dogmes qui vont habiter la pensée philosophique jusqu’à Galilée, y compris dans le monde musulman, et non pas chez Platon et Aristote, comme indiqué. C’est d’ailleurs cette idée de la perfection divine, formulée par Timée2, qui est à l’origine des dogmes qui ont longtemps paralysé l’évolution de la science : le dogme du cercle et celui de la division de l’univers en monde céleste et monde sublunaire. Par ailleurs, le système géocentrique de Ptolémée mériterait quelques lignes supplémentaires. Cela faciliterait la compréhension de son complexe système d’épicycles, d’excentriques et d’équants : les encarts destinés à permettre au lecteur « d’aller plus loin » sur cette question sont trop concis. Signalons par ailleurs une imprécision, malheureusement très répandue : il est dit que « l’extension de l’empire musulman […] à l’Egypte, à la Syrie et à d’autres territoires hellénisés avait procuré un accès direct aux principaux textes

1 Fontaine J, Simaan A, L’image du monde. Des babyloniens à Newton, Vuibert, 2010, 256 p. Voir la note de lecture sur afis.org (ndlr). 2 Timée, philosophe pythagoricien, dans un dialogue de Platon qui porte son nom, justifie par des raisons purement mystiques liées à la perfection divine la rotondité de la Terre et les mouvements circulaires uniformes des astres.

Science et pseudo-sciences n°332 - avril / juin 2020

103

Livres

/

grecs ». Il aurait fallu mentionner également la conquête de l’empire perse, où s’étaient réfugiés notamment les chrétiens nestoriens persécutés dans l’empire byzantin au Ve siècle à cause de leurs conceptions jugées hérétiques. Ils y avaient apporté de nombreux manuscrits grecs, déjà traduits en syriaque, qu’ils ont par la suite traduits en pehlevi puis en arabe. Les chrétiens d’Orient sont ainsi à l’origine d’une grande partie des connaissances qui ont alimenté la culture scientifique et philosophique de l’empire arabo-musulman.

La deuxième partie du livre est très bien menée. Elle est consacrée au développement de l’astronomie par le biais de l’observation (ce qui correspond d’ailleurs à son sous-titre). On y voit cette science avancer à pas de géants depuis la lunette de Galilée jusqu’au télescope spatial Hubble et de ses successeurs. M.-C. de La Souchère illustre ces chapitres avec de belles images, sans oublier de décrire de manière captivante la naissance de l’astrophysique, des

grands observatoires, de la radioastronomie, de la conquête de l’espace…

En outre, chaque question abordée comporte une bibliographie succincte, en sus d’une plus générale en fin d’ouvrage. Enfin, on ne trouve dans ce livre aucun index, ce qui est parfaitement regrettable dans un ouvrage qui aborde tant de sujets. Il ne s’agit pas de manque de place, l’éditeur aurait pu les ajouter sans difficultés : en effet, les dix dernières pages sont blanches ! Ce livre s’adresse, d’après son auteure, « à toute personne désireuse de se forger ou de compléter une culture scientifique dans un domaine toujours d’actualité, et ce quelle que soit sa formation de base. Il n’est nullement nécessaire de posséder un grand bagage scientifique pour comprendre les rudiments de l’astronomie. Les notions-clés sont ici introduites progressivement, sans recourir au formalisme mathématique. » Tout cela est vrai, mais pour bien en profiter, il vaut mieux posséder quelques notions de base. Arkan Simaan

Mensonges ! Une nouvelle approche psychologique et neuroscientifique Xavier Seron - Odile Jacob, 2020, 306 pages, 23,90 € L’auteur, professeur émérite de psychologie à l’université de Louvain et ancien président de la Société de neuropsychologie de langue française, est un éminent praticien et chercheur. Il présente une synthèse de ce que la recherche scientifique apporte aujourd’hui sur la psychologie des mensonges et sur les possibilités de les détecter.

L’être humain est une espèce sociale prédisposée à communiquer honnêtement pour survivre. Il croit spontanément ce qu’on lui raconte, avec raison, car la communication de vérités est plus fréquente que celle d’informations destinées à tromper. Toutefois, il arrive à chacun de mentir, notamment par politesse, par altruisme, par omission, par intérêt ou en étant pris dans le feu de la conversation.

104 Science et pseudo-sciences n°332

- avril / juin 2020

Il importe de distinguer les mensonges selon leur degré de gravité. Certains ont des conséquences absolument désastreuses, comme la célèbre mise en cause de l’Irak accusée par l’administration Bush de détenir des armes de destruction massive.

Certains individus mentent de façon pathologique et finissent par croire leurs inventions. Un cas célèbre est l’imposture d’une Belge qui s’était inventée une identité juive et qui a raconté sa soi-disant marche de trois mille kilomètres dans l’Allemagne nazie pour retrouver ses parents. Son livre Survivre avec les loups a connu un succès considérable et a été porté à l’écran avant la découverte de la mystification1.

L’ouvrage de Xavier Seron fait le bilan de nombreuses recherches sur la production des sou-

1 Duroy L, Survivre avec les loups. La véritable histoire de Misha Defonseca, XO Éditions, 2011, 240 p.

/

venirs, les témoignages (notamment d’enfants) et les faux souvenirs. Il accorde une place importante à de nouvelles formes de mensonges apparues avec Internet, notamment les arnaques et les fake news dont Donald Trump est un champion. Il montre que le développement du numérique est une menace pour la démocratie.

Nous signalons volontiers

La seconde moitié de l’ouvrage passe en revue les moyens de détecter les mensonges par l’observation de mouvements, du regard, du temps mis pour répondre, etc., ou à l’aide de techniques comme le « détecteur de mensonges », l’électroencéphalogramme et l’imagerie par résonnance magnétique fonctionnelle. Ces différentes méthodes fournissent des tendances statistiques de validité variable, mais toutes sont encore peu fiables pour rendre compte de la diversité des conduites mensongères ou pour fournir un diagnostic exact des paroles d’un accusé.

Livres

Un long chapitre concerne une des principales spécialités de l’auteur : l’expertise médico-légale des accidentés du travail et de la route. Des personnes minimisent leurs troubles consécutifs à un accident, mais beaucoup d’autres les exagèrent ou mentent dans l’espoir d’un dédommagement important. Les connaissances validées pour une évaluation objective des dommages progressent sensiblement depuis les années 1950, mais la pratique reste encore un art. L’ouvrage devrait intéresser en particulier les enquêteurs, les juges, les policiers et autres experts, mais toute personne intéressée par la psychologie peut y trouver une mine impressionnante d’informations, présentées dans une langue parfaite et avec un extrême souci de rigueur méthodologique. Jacques Van Rillaer

Métamorphose du monde rural Agriculture et agriculteurs dans la France actuelle Hervé Le Bras et Bertrand Schmitt - Éditions Quae, 2020, 152 pages, 20 € L’agriculture a connu de profondes transformations au cours du dernier demisiècle. Un métier familial est devenu une profession individuelle, un savoirfaire coutumier est devenu une compétence reconnue par les diplômes. Dans le même temps, les économies dans lesquelles s’inscrit l’activité agricole ont été bouleversées. L’emploi rural a été renouvelé avec l’émergence de nouveaux services aux populations, l’occupation du sol a été soumise à des pressions et des enjeux insoupçonnables auparavant. L’ouvrage retrace en cartes et en chiffres cette métamorphose du monde rural, de l’agriculture et des agriculteurs. Il montre que ces derniers de-

meurent des acteurs importants du développement local en dépit de leur effectif réduit.

Hervé Le Bras est démographe et historien, directeur de recherches émérite à l’Institut national d’études démographiques (Ined), et directeur d’études à l’École des hautes études en sciences sociales (EHESS). Auteur de nombreux ouvrages sur la société française, il a contribué à Science et pseudosciences.

Bertrand Schmitt est directeur de recherche en économie à l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (Inrae). Ses recherches ont notamment porté sur les déterminants du développement des territoires ruraux et périurbains. Il a dirigé la Délégation à l’expertise, à la prospective et aux études (Depe) de l’Inra. D’après la présentation de l’éditeur

Science et pseudo-sciences n°332 - avril / juin 2020

105

Livres

/

Freud et Lacan. Des charlatans ? Faits et légendes de la psychanalyse Jacques Van Rillaer Mardaga, 2019, 276 pages, 19,99 €

L’ouvrage de Jacques Van Rillaer, très bien écrit, déconstruit point par point le mythe de la psychanalyse qui repose sur des échafaudages interprétatifs et des mensonges quant à ses résultats. Citons, à l’appui, le psychanalyste Peter Fonagy et ses collaborateurs1 : « Il n’y a pas d’étude qui permette de conclure sans équivoque que la psychanalyse soit efficace par rapport à un placebo actif  2 ou à une autre forme de traitement. Il n’y a pas de méthodes disponibles qui pourraient, d’une manière incontestable, indiquer l’existence d’un processus psychanalytique. La plupart des études ont des limitations majeures qui pourraient conduire ceux qui critiquent la discipline à ne pas prendre en compte leurs résultats. D’autres études ont des limitations si graves que même un évaluateur qui a de

sur afis.org

1 Fonagy P, Kächele R, Krause E, Jones R, Perron R, An open door review of outcome studies in psychoanalysis, International Psychoanalytic Association Press, London, 1999, 330 p. 2 Un placebo actif produit des effets secondaires tels qu’il peut convaincre la personne traitée qu’elle reçoit un traitement reconnu plutôt qu’un placebo inefficace. Ainsi le placebo ne sera pas démasqué.

la sympathie pour la psychanalyse pourrait être enclin à ne pas tenir compte de leurs résultats. » J. Van Rillaer se délecte en brossant le portrait haut en couleurs de Jacques Lacan, qu’il a bien connu, et souligne ce qu’il peut y avoir de « psychopathique » dans le mot d’ordre lacanien « ne rien céder sur son désir ». Il cite François Roustang, un déconverti tout comme lui, qui disait que la psychanalyse développait chez les zélotes du Maître l’art de marcher sur les pieds des autres sans culpabilité. Lacan, diva du divan, a, peu avant sa mort, reconnu son imposture dans ce qu’on peut considérer comme une ultime provocation : « Il s’agit de savoir si Freud est oui ou non un événement historique. Je crois qu’il a raté son coup. C’est comme moi, dans très peu de temps, tout le monde s’en foutra de la psychanalyse » (Le Nouvel Observateur, septembre 1981, n° 880).

Pourtant, la psychanalyse persiste encore trop largement dans notre pays,en particulier dans la prise en charge du spectre de l’autisme, et ceci malgré cinq condamnations de la France par le Conseil de l’Europe pour non-conformité des soins avec l’état des connaissances scientifiques.

De l’autre côté de la machine Voyage d’une scientifique au pays des algorithmes Aurélie Jean Éditions de l’Observatoire, Collection de facto, 2019, 208 pages, 18 € Une note de lecture de Camille Williams et Sacha Yesilaltay

106 Science et pseudo-sciences n°332

- avril / juin 2020

Jean Cottraux

Nous signalons volontiers

/

Livres

L'Évolution, ça marche ! Petit manuel d’auto-défense darwinienne Thomas C. Durand - Éditions du Seuil, Coll. Science ouverte, 2019, 180 pages, 16 € À l'heure où prospèrent sur les réseaux sociaux les attaques les plus diverses et les plus régressives contre la théorie de l’évolution, voici un bref vade-mecum de défense et illustration de cette théorie, trop souvent mal comprise. En une trentaine de questions-réponses concises sont discutés et réfutés les arguments critiques les plus couramment développés : « Si l’Homme descend du Singe, pourquoi reste-t-il des singes ? » ; « Ce n’est qu’une théorie ! Cela veut dire que personne n’a de certitude » ; « La nature est trop bien faite pour être le fruit du hasard » ; « La probabilité de formation spontanée d’une molécule biologique est infime », etc.

Une indispensable contribution à la salubrité intellectuelle collective !

Thomas C. Durand est docteur en biologie végétale. Il a écrit quelques romans et pièces de théâtre, et a créé une chaîne très suivie sur YouTube, La Tronche en Biais. Il a déjà publié au Seuil un essai remarqué, L’Ironie de l’évolution (collection Science Ouverte, 2018), qui a obtenu le prix La Science se livre 2019. D’après la présentation de l’éditeur

Thomas C. Durand, qui contribue à Science et pseudo-sciences, est aussi l’auteur de Connaissez-vous l’homéopathie ? Idéologie, médias, science (Ed. Matériologiques, 2019), Quand est-ce qu’on biaise ? Comment ne pas se faire manipuler ? (Humensciences, 2019), La vie après la mort ? Une approche rationnelle (Book-e-book, 2016).

Des nouvelles vidéos sur la chaîne YouTube de l’Afis Conférence, entretiens... retrouvez toutes nos vidéos en ligne sur la chaîne YouTube de l’Afis. Dernières mises en ligne :

Science et pseudo-sciences n°332 - avril / juin 2020

107

Article

/

Jean-Claude Pecker

© Collège de France

(1923-2020)

C

’est avec une profonde tristesse que nous avons appris la disparition de JeanClaude Pecker. Il nous a quittés le 20 février 2020 à 96 ans. L’Association française pour l’information scientifique (Afis) rend hommage à un grand scientifique, mais aussi à un ami, membre du comité de parrainage et ancien président de notre association. Et elle adresse ses condoléances à sa compagne et à toute sa famille.

Professeur émérite au Collège de France, titulaire de la chaire d’astrophysique théorique de 1964 à 1988 et membre de l’Académie des sciences depuis 1977, Jean-Claude Pecker a consacré sa carrière à l’astrophysique. Il a ainsi été directeur de l’Observatoire de Nice (19621969), directeur de l’Institut d’astrophysique du CNRS (1972-1979), secrétaire général de l’Union astronomique (1964-1967) et auteur de nombreux ouvrages scientifiques et de vulgarisation. Comme le rappelle l’astrophysicienne Suzy Collin-Zahn, au lendemain de la Seconde Guerre mondiale, l’astrophysique théorique n’existait pratiquement pas en France et c’est sous l’impulsion d’Evry Schatzman puis sous celle de Jean-Claude Pecker qu’elle émergea et se développa [1]. Jean-Claude Pecker a éga-

108 Science et pseudo-sciences n°332

- avril / juin 2020

lement été, entre autres, président du Comité interministériel de la recherche scientifique et technique (1985-1987), président du comité Sciences de la Commission nationale française pour l’Unesco (1974-1978), ou président de la Société astronomique de France (1973-1976).

La vie de Jean-Claude Pecker est aussi celle d’un engagement politique et humaniste. En 1942, Jean-Claude Pecker réussit le concours de l’École normale supérieure, mais sa qualité de juif lui en interdit l’entrée [2]. En 1944, ses parents sont arrêtés et déportés à Auschwitz d’où ils ne reviendront pas (Jean-Claude Pecker rassemblera en un recueil, cinquante ans plus tard, plusieurs poèmes pour leur rendre hommage [3]). Dans la clandestinité, Jean-Claude Pecker s’engage dans le mouvement trotskyste [4]. Au lendemain de la guerre, avec son ami Evry Schatzman (disparu en 2010), il adhère à l’Union rationaliste, poussé en cela par le secrétaire général de l’époque, l’astronome et vulgarisateur Paul Couderc.

En 1979, Jean-Claude Pecker participe, avec Evry Schatzman, Michel Rouzé et Yves Galifret, à la création du Comité français pour l’étude des

/

phénomènes prétendus paranormaux (CFEPP) que présidera Alfred Kastler et dont l’objectif est de combattre la promotion de l’irrationnel, du paranormal et des pseudo-sciences, en particulier sur les chaînes de la radio et de la télévision publiques de l’époque. Et c’est donc logiquement qu’il joue un rôle majeur dans le développement de l’Afis, créée en 1968 par Michel Rouzé (1913-2003) dont il était proche. Ainsi, il lui succède en 1999 en tant que président de l’association. Depuis, Jean-Claude Pecker a toujours suivi avec intérêt et enthousiasme l’action de l’association à laquelle il avait largement contribué. En 2018, à l’occasion des 50 ans de l’Afis, il nous avait fait parvenir un enregistrement vidéo tourné sur l’île d’Yeu où il résidait alors et par lequel il adressait un message à la fois optimiste sur notre action, mais inquiet face au constat de la dégradation de la place de la science et de l’expertise dans la société.

Article

Il y a à peine deux mois, le 23 décembre 2019, JeanClaude Pecker souhaitait encore « à notre fringante Afis une année pleine de soleil et le succès ». Le Soleil, qu’il avait largement étudié sur le plan scientifique, s’éclipse un peu avec sa disparition. Jusqu’à ces dernières semaines, Jean-Claude Pecker continuait à écrire. Il travaillait dernièrement à ses mémoires et, fin novembre 2019, paraissait son dernier livre, écrit en collaboration avec Gilles Bogaert, 1962 : La renaissance de l’Observatoire de Nice [5]. Il venait aussi de terminer la correction d’un livre de poésie, Ébauche d’un Tristan, qui, d’une certaine façon et comme il le disait lui-même, était un peu son histoire. Jean-Claude n’était pas uniquement astrophysicien… Il était aussi peintre avec plusieurs centaines d’aquarelles à son actif, qu’il faisait durant ses nombreux voyages, entre deux conférences. Quelques-unes ont déjà été éditées [6]. Nous garderons de Jean-Claude Pecker le souvenir d’un grand scientifique, d’un homme de

L’Île d’Yeu, aquarelle de Jean-Claude Pecker

Science et pseudo-sciences n°332 - avril / juin 2020

109

Article

/

grande culture passionné de civilisation et de littérature grecques, et d’un ami d’une grande gentillesse et plein de bienveillance..  // Communiqué de l’Afis, le 24 février 2020

Références

[1] Collin-Zahn S, Des quasars aux trous noirs, EDP Sciences, 2009. [2] Comité français pour Yad Vashem, « Fiche de Ida Barret ». Sur yadvashem-france.org [3] Pecker J-C, Lamento 1944–1994, Z4 éditions, 2017. [4] Le Maintron, « Notice Schatzman Évry, Léon par Michel

Plusieurs témoignages rendant hommage à Jean-Claude Pecker peuvent être consultés sur notre site Internet (afis.org).

Pinault », Dictionnaire biographique du mouvement ouvrier et du mouvement social. Sur maitron.fr [5] Pecker J-C, Bogaert G, 1962 : La renaissance de l’Observatoire de Nice, Z4 éditions, 2019. [6] Pecker J-C, En voyage de quelque part à ailleurs – 1001 aquarelles, Z4 éditions, 2014.

Jean-Loup Parier rejoint le parrainage scientifique

Jean-Loup Parier est président honoraire de l’Académie de pharmacie.

Né en 1944 dans le Périgord, Jean-Loup Parier fait ses études de pharmacie à Paris, études qu’il poursuit par des études de médecine et un doctorat de sciences pharmaceutiques. Après une courte carrière hospitalière (internat, assistanat, consultations) et universitaire (assistant en histologie) à la faculté de médecine Saint-Antoine à Paris, il se dirige vers l’industrie pharmaceutique avec différentes responsabilités nationales et internationales (recherche et développement, pharmacologie clinique, direction médicale et affaires réglementaires). En 2006, Jean-Loup Parier est élu membre titulaire de l’Académie de pharmacie, puis élu président pour l’année 2018.

Rectificatif Dans le dossier sur la biodiversité publié dans notre dernier numéro (SPS n° 331, janvier 2020), une erreur s’est glissée dans un intertitre (page 21). Celui-ci indiquait : « Les objectifs de conservation et d’exploitation durable sont atteignables sans changements en profondeur. » Il fallait bien entendu lire « inatteignables », comme le précise bien la phrase qui suivait : « Les trajectoires actuelles

110

Science et pseudo-sciences n°332 - avril / juin 2020

ne permettent pas d’atteindre les objectifs de conservation et d’exploitation durable de la nature et de parvenir à la durabilité, et les objectifs pour 2030 et au-delà ne peuvent être réalisés que par des changements en profondeur sur les plans économique, social, politique et technologique. » Nous nous en excusons. Nos lecteurs auront corrigé d’euxmêmes ce contresens.

/

B

ook-e-book, éditeur de la zététique, c’est plus de cinquante livres disponibles en version papier ou au format numérique. Idées reçues, mythes, rumeurs et théories conspirationnistes sont abordés sur de nombreux sujets (l’ordinateur d’Archimède, les pyramides de Bosnie, la vie après la mort, les attentats du 11 septembre…). De nombreux ouvrages reprennent également des thèmes familiers aux lecteurs de Science et pseudo-sciences : la psychanalyse, les pseudo-médecines, l’homéopathie, les ravages des faux souvenirs, l’astrologie… Mais le lecteur curieux trouvera aussi matière à développer son aptitude au doute et sa capacité à déjouer les pièges de la désinformation.

Book-e-book

Enseignée dès l’Antiquité, la zététique est en fait le refus de toute affirmation dogmatique et le flambeau est ici repris en tant qu’approche scientifique rigoureuse des  phénomènes prétendument paranormaux. Mais la zététique ne se restreint évidemment pas au seul domaine de l’extraordinaire, elle se veut également un pilier fondamental du développement général de l’esprit critique. Fondée en 2002, Book-e-book a su se créer une place particulière dans le monde de l’édition. En 2018, Henri Broch, son fondateur, a confié à l’Afis la poursuite de l’aventure.

book-e-book.com

Science et pseudo-sciences n°332 - avril / juin 2020

111

Abonnement et adhésion Nom :

Prénom :

Adresse complète :

Courriel : Abonnement normal • 5 numéros • 10 numéros

Profession : France r 25 E r 50 E

étranger r 30 E r 60 E

ou virement IBAN : FR 65 2004 100001 2100000P020 50

Abonnement formule « SPS Diffusion »

Recevez au total 3 exemplaires de chaque numéro de SPS et faites connaître la revue autour de vous, auprès d’amis, de parents, dans une salle d’attente.

• 5 numéros • 10 numéros

Chèque à l’ordre de l’Afis (uniquement en France)

r 45 E r 90 E

BIC : PSSTFRPPPAR N°de compte : 20041 / 00001 / 2100000P020

Afis 4, rue des Arènes 75005 Paris

r 50 E r 100 E

Abonner un ami

[email protected]

Abonnement découverte, 5 numéros à moitié prix.

• 5 numéros r 12,5 E r 15 E Nom, prénom et adresse du bénéficiaire : Adhésion ou réadhésion à l’Afis • Cotisation annuelle r 21 E

Retrouvez tous les numéros de Science et pseudo-sciences sur l′application smartphone « Afis Science »

112

Science et pseudo-sciences n°332 - avril / juin 2020

Abonnement et adhésion en ligne :

www.afis.org/boutique.html Le renouvellement de votre abonnement prendra tout naturellement la suite de l’actuel et repoussera d’autant la date d’échéance.

Total :

E

Découvrez les vidéos des conférences organisées par l′Afis sur notre chaîne YouTube (50 ans, vaccins, Lyme, nucléaire, etc.)

Sommaire des anciens numéros 320. Épidémie de pseudo-sciences en

326. LED et lumière bleue : quels risques ?

321. Maladie de Lyme : et si le scandale

327. OGM : 20 ans de progrès, 20 ans

322. Alimentation : bactéries, virus,

328. Le passé idéalisé : était-ce vraiment

323. Glyphosate, Lévothyrox, Lyme...

329. Énergie et climat

324. Déchets nucléaires et stockage

330. Médecines alternatives,

325. Résistance aux antibiotiques : crise

331. L’Homme, la nature et

Russie – Viande rouge cancérogène : faut-il s’alarmer ? – Modification du génome. CRISPR-Cas9 : entre percée scientifique et controverse – Élections et sondages : reflètent-ils toujours les préférences et les opinions ? – Pollution de l’air : 11, 3 100, 11 000, 34 000 ou 48 000 décès annuels ?

était ailleurs ? – Cancers évitables : les conséquences des campagnes antivaccination – L’âge de la Terre : 6 000 ans devenus 4,6 milliards d’années – Le dualisme esprit-matière derrière les pseudo-sciences.

fipronil, OGM, intoxications… les risques réels et les craintes infondées – Les « Lyme doctors », un risque pour les patients – Les scientifiques engagés : engagent-ils la science ?

La science inaudible – Science et médias : une relation sous influence – Sophrologie : quels fondements ? – Enfants et écrans : quels risques ? – Écriture inclusive – Le bonheur : causes et conséquences.

géologique – Test de Rorschach – Espérance de vie – Homéopathie : popularité n’est pas efficacité.

sanitaire en vue ? – Dispositifs antiondes : l’argent de la peur – Détecteurs de mensonges – Comment gérer les médicaments onéreux.

– Ovnis, yoga des yeux : un peu de science ne fait pas de mal – Médecin : qui croire ? – Les causes de cancer : la science face à la rumeur – Afis 1968-2018 : 50 ans de luttes contre les pseudo-sciences.

de controverses – Traces de produits dangereux dans l’alimentation : faut-il s’en inquiéter ? – De l’ésotérisme à la raison : une ancienne gourou témoigne – Former les médecins à l’esprit critique.

mieux avant ? – Les dinosaures : ce qu’ils étaient, ce qu’ils sont devenus – Choléra en Haïti : mensonges et épidémies – Bébés nés sans bras : du côté des statistiques.

(renouvelables, nucléaire, pétrole, transports, bâtiments, industrie)… rien n’est simple – La zététique ou l’art du doute – La vaccination contre le papillomavirus.

homéopathie... Inefficaces mais quand même utiles ? – Alimentation et cancer – Discours apocalyptiques et information scientifique – Faux aveux : un innocent peut-il avouer un crime ? – Biodynamie : la pensée magique en agriculture – Anthroposophie : l’ésotérisme multiforme. la biodiversité : rêve, réalité, cauchemar ? – Marées vertes en Bretagne : fin d’une controverse ? – Science et télévision : liaisons dangereuses ? – Téléphonie 5G : peurs et rumeurs.

Les numéros sont à retrouver dans notre boutique en ligne sur afis.org

L’Association française pour l’information scientifique (Afis), créée en 1968, se donne pour but de promouvoir la science et d’en défendre l’intégrité contre ceux qui, à des fins lucratives ou idéologiques, déforment ses résultats, lui attribuent une signification qu’elle n’a pas ou se servent de son nom pour couvrir des entreprises charlatanesques.

L’Afis considère que la science ne peut résoudre à elle seule les problèmes qui se posent à l’humanité, mais qu’on ne peut le faire sans avoir recours aux résultats de la science. Ainsi, elle assure la promotion de l’esprit critique et de la méthode scientifique et s’oppose aux tendances obscurantistes traversant la société. L’Afis s’intéresse à tous les sujets aux interfaces entre science et société. Elle dénonce également les pseudo-sciences et leurs promoteurs (astrologie, paranormal, médecines fantaisistes, etc.) et les charlatans pourvoyeurs de l’irrationnel. L’Afis appelle à une séparation claire entre l’expertise scientifique (ce que dit la science) et la décision (ce que la société choisit de faire). La prise de décision, qui intègre des jugements de valeur, est affaire de choix démocratiques ; elle est hors du champ d’action de l’association. L’Afis est une association d’intérêt général ouverte à tous. Elle est indépendante et sans lien d’intérêt financier ou idéologique avec quelque entité que ce soit : gouvernement, parti politique, entreprise, etc. Ses comptes et sa gouvernance, soumis chaque année à l’approbation de ses adhérents en assemblée générale, sont présentés sur son site Internet en toute transparence.

Science et pseudo-sciences est la revue éditée par l’Afis. Elle est réalisée par une équipe de rédaction entièrement bénévole et publie des textes provenant d’auteurs très variés, scientifiques ou nonscientifiques, issus du monde académique, de la sphère économique ou, plus largement, de la société civile. Chaque auteur est présenté quant à ses activités professionnelles ou associatives en lien avec le contenu de son article. Aucun contributeur n’est rémunéré.

Des enjeux économiques et sociaux, politiques et moraux, et d’une façon générale sociétaux, conduisent certains acteurs à propager des informations scientifiquement fausses ou déformées, ou à attribuer indûment à des faits scientifiques des implications politiques ou morales. Science et pseudo-sciences apporte l’éclairage permettant à ses lecteurs de construire leurs propres opinions. La science est un processus lent et continu. La rédaction de Science et pseudo-sciences se donne le temps pour prendre le recul nécessaire à l’analyse des faits et de leur signification. Science et pseudo-sciences rejette le relativisme où toute hypothèse devrait se voir reconnue une part de vérité. L’état des connaissances issu d’un consensus est explicitement présenté. Dans les domaines de la santé et de l’environnement, les avis des agences sanitaires ou des institutions académiques sont toujours rappelés. Les faits et les résultats sont séparés, autant que possible, de l’interprétation. Les sources et les références, à l’appui des affirmations présentées dans les articles, sont toujours fournies, permettant aux lecteurs de les vérifier et d’approfondir le sujet. Les articles d’opinions sont clairement indiqués comme tels. Les articles signés ne reflètent pas nécessairement le point de vue de la rédaction.

France MeTrO : 5 € - BeL/LUX : 6 € - DOM : 6 € - eSP/POrT. cOnT. : 6 € - D : 6 € - cH : 8 FS – can : 7,99 $ caD - Mar : 55 MaD - ncaL/S : 950 cFP

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.