2.6. Le discours scientifique et la fiction

Introduction

Après avoir étudié le discours scientifique, je souhaite aborder le discours fabulateur. Je reprends cette formulation à Nancy Huston, qui l’a utilisée dans son essai L’espèce fabulatrice publié en 2008. Un livre que je n’ai pas lu mais qui a servi de point de départ au film documentaire Demain, aventure qui m’a beaucoup inspirée. Nancy Huston, après s’être fait interpeller par une détenue en prison qui lui a demandé : « À quoi ça sert d’inventer des histoires, alors que la réalité est déjà tellement incroyable ? », développe la thèse selon laquelle si la réalité est incroyable, c’est justement grâce à la fiction. Les histoires seraient le carburant fondamental de l’espèce humaine. Selon elle, « c’est parce que la réalité humaine est gorgée de fictions involontaires et pauvres qu’il importe d’inventer des fictions volontaires et riches ».
Le mot fable, du latin fabula, signifie raconter une histoire. Cette étymologie ne distingue pas la fiction du réel ou l’illusion du fait. C’est là peut-être le propre du discours fabulateur : entretenir l’ambiguïté entre le vrai et le faux. Prouver que le faux n’est jamais entièrement faux, et le vrai jamais entièrement vrai. Car lirait-on des fables, si elles nous apprenaient tout ? Et les lirait-on, si elles ne nous apprenaient rien ? Rassurez-vous, dans cet article, il ne sera pas uniquement question d’histoires à dormir debout. Nous parlerons des mythes qui ont structuré et structurent notre réalité.
 63322c05fd9cae476a13fe6a8fee8889
« Of course it is happening inside your head, Harry, but why on earth should that mean that it is not real? » JK Rowling.

 1. Mythologies

La discipline la plus rigoureuse pour étudier les fables est probablement la mythologie. Historiquement, elle se constitue au XIXème siècle comme discipline chargée d’étudier les mythes bien que dès l’antiquité grecque, on trouve des commentaires critiques des mythes (Xénophane). Le mythologue se spécialise soit dans l’étude d’une mythologie particulière, soit dans la mythologie comparée. Le nom vient du grec ancien muthologos et signifie discours fabuleux. Traditionnellement, le muthos est aussi synonyme de mensonge par opposition au logos, voix de la vérité.
En 1957 paraît un essai de Roland Barthes intitulé Mythologies. Il ne s’agit pas d’un historique des grandes mythologies qui ont structuré notre civilisation, mais plutôt d’une tentative de généralisation du concept de mythe à tous les discours collectifs. Selon Barthes, la culture se construit sur une mythification de certains évènements, personnages ou comportements collectifs. Autrement dit, nous aurions besoin d’idéaliser collectivement certains phénomènes pour construire le nous. L’idéalisation dont je parle n’est autre qu’une sélection de certains phénomènes, certains traits de caractère, certaines valeurs, dont on fait des caractéristiques identitaires. L’auteur emploie le terme de représentation collective comme synonyme de mythe. Critique envers ce phénomène, Barthes dénonce les idéologies arbitraires, généralement bourgeoises, véhiculées par les mythes et leur emprise sur nos esprits.
Avant de se formaliser, les grandes mythologies que nous connaissons (égyptiennes, grecques, asiatiques, scandinaves, sud-américaines…) furent des histoires disparates, transmises de génération en génération depuis probablement la préhistoire. Michael Witzel propose, dans son essai The Origins of the World’s Mythologies (2012), une approche phylogénétique très pertinente de la mythologie. Il s’agit de comprendre comment se sont transmis les mythes dans l’espace et dans le temps, quels sont leurs points communs et leurs différences…
En utilisant des méthodes statistiques élaborées, Witzel a comparé les mythes des différents continents et montré qu’il était possible de distinguer deux grandes traditions. L’une concerne les cultures issues de la Laurasie, le continent qui regroupait l’Eurasie et l’Amérique du Nord il y a des dizaines de millions d’années et l’autre les cultures issues du Gondwana, le continent qui regroupait l’Afrique, l’Amérique du Sud, l’Inde, l’Australie et l’Antarctique. Voici les deux cosmogonies (récits de la création) distinguables :
ff
Dans l’étude phylogénétique originale de Julien d’Huy que j’ai retrouvée, on peut lire : « La mythologie, comme la génétique et les langues, fournit des éléments essentiels à la compréhension de l’histoire humaine. Des arbres phylogénétiques basés sur des versions mythologiques peuvent permettre de reconstituer l’histoire et la préhistoire de cultures humaines en remontant jusqu’à la période paléolithique ». L’auteur montre à quel point les mythes développent des points communs avec la génétique :
 Image1
Jean-Loïc Le Quellec, auteur de l’article1 de la revue Sciences Humaine sur lequel je m’appuie pour cette partie, explique par exemple que l’histoire de Polyphème, contée dans le livre IX de l’Odyssée d’Homère (VIIIème siècle av JC), est un mythe qu’on retrouve dans de nombreuses cultures laurasiennes et que l’idée apparaît dès le paléolithique. Voici un extrait de l’histoire telle qu’elle est contée dans l’Odyssée : « Dès que la fille du matin a brillé dans les cieux, tous les béliers sortent pour se rendre aux pâturages ; les brebis que le Cyclope n’a pu traire bêlent dans l’intérieur de la grotte ; car leurs mamelles sont chargées de lait. Le monstre, affligé par de grandes douleurs, passe sa main sur le dos des béliers sans soupçonner que sous leurs ventres touffus sont attachés mes braves compagnons ». Et voici maintenant les motifs que contenait la version originale du mythe, datant du paléolithique supérieur (-45 000 ans) : « Des animaux sont enfermés dans la demeure d’un monstre. Un chasseur entre dans cette maison sans y être invité, puis se retrouve enfermé à l’intérieur. Cherchant à le tuer, le monstre fait sortir les animaux en contrôlant chacun d’entre eux, mais le chasseur parvient finalement à s’échapper en se cachant sous le ventre d’une des bêtes. »2
Cette approche phylogénétique montre d’une certaine manière que le mythe est à la culture ce que la génétique est à la vie : il permet sa transmission dans l’espace et dans le temps. Dans quelle mesure parle-t-on d’une transmission évolutive ? Cette question est centrale s’il est important pour la compréhension intergénérationnelle que le mythe soit relativement stable, il faut également qu’il puisse évoluer avec sa société. Cela nous ramène à l’approche critique de Roland Barthes, qui voit le mythe comme un frein au progrès social mais il semble que cela valle uniquement pour des mythes trop rigides, qui se refusent à toute évolution. Et si l’analogie entre le mythe et la génétique est juste, alors on peut supposer qu’un mythe qui refuse de muter (comme les gènes) disparaîtra, faute de s’être adapté à son nouvel environnement.
Le lien entre les mythes et la culture me permet de croire qu’une histoire fictionnelle ne peut être comprise indépendamment de son environnement réel. En effet, nos outils d’appréciation et de compréhension sont principalement issus de notre expérience réelle, de la confrontation entre nos sens et le monde. Les péripéties que vivent les personnages d’une fable sont donc principalement jugées relativement à ces référentiels expérimentaux. Il est donc logique de supposer qu’un discours fabulateur n’ayant aucun rapport avec notre expérience et nos besoins réels sera incompréhensible, vide de sens. L’intérêt d’un discours fabulateur est donc peut-être proportionnel à sa résonnance avec les enjeux individuels et collectifs du contexte dans lequel il est énoncé. Cela explique pourquoi les mythes qui ne résonnent plus avec leur contexte spatio-temporel d’énonciation tombent dans l’oubli. L’histoire des sociétés semble marquée par des périodes de mythification, source de cohésion sociale et de démythification, source de division. Bien sûr, l’interaction fiction/réalité est réciproque : les deux se nourrissent mutuellement dans une relation d’interdépendance qui semble nécessaire à l’homme.
On peut distinguer deux manières de transmettre un mythe. La première consiste simplement à raconter les fables collectives telles qu’elles furent formalisées à l’origine, sans tenir compte de l’évolution des structures sociales (implique une trace écrite, figée). Autrement dit, le fond comme la forme sont stables (ce sont les « classiques » qu’on enseigne à l’école). La deuxième manière de transmettre une mythologie (et la plus ancienne) consiste à adapter la forme des mythes aux évolutions sociales tout en conservant l’essentiel des valeurs transmises. La mise à jour formelle du mythe permet de rendre très accessibles les idées qu’il contient. Ainsi, des sagas comme Star Wars de George Lucas, Le Seigneur des anneaux de Tolkien ou Harry Potter de J. K. Rowling, mettent à jour notre mythologie civilisationnelle dans la forme (mélange des cultures, rationalisme des personnages, antihéros, science, exotisme, réalisme subjectif de la narration) tout en préservant ses valeurs ancestrales dans le fond (croissance et décadence, soif de pouvoir, figure du sauveur, dualisme bien/mal…). Cette association de rupture et de continuité est peut-être ce qui, en échos avec notre analogie biologique, caractérise le mieux les mythes.
Pouvons-nous pousser l’analogie biologique plus loin et supposer que certaines valeurs mythologiques sont la traduction linguistique de caractéristiques biologiques ? Je souhaite, pour répondre en partie à ces questions, étudier le rapport entre le discours fabulateur et le discours scientifique.

 

 2. De l’histoire fabulatrice à la science fabuleuse

Quelle est la différence entre l’information véhiculée par une histoire et celle véhiculée par une théorie scientifique ? Face à une telle question, différentes approches sont envisageables : historique, philosophique, psychologique, empirique… Nous allons en étudier certaines.
Pour commencer, le discours scientifique et le discours fabuleux semblent répondre tous les deux à une même volonté : transmettre de l’information sur des phénomènes. Il ne faut pas confondre le discours sur les phénomènes avec le processus de découverte du phénomène car on peut découvrir quelque chose d’incroyable sans être pour autant capable de le transmettre par un discours. Par exemple, quand Einstein a eu l’intuition à l’origine de la relativité, il était incapable d’en faire un discours mathématique. Cependant, il pouvait communiquer verbalement l’intuition de la théorie. On constate à travers cet exemple que la même information (théorie de la relativité) peut prendre des formes différentes (verbale, mathématique…) selon le discours auquel on l’associe. Ainsi, il est probable qu’une même information puisse être jugée réelle lorsqu’elle est véhiculée par un certain discours et fictionnelle lorsqu’elle l’est par un autre.
Nous avons déjà longuement parlé du discours scientifique. Il a pour principal objectif de connaître les lois récurrentes de notre monde en s’appuyant sur nos expériences sensibles récurrentes. Ce discours comprend en produisant des connaissances permettant d’agir sur le monde. La connaissance est une information jugée selon le pouvoir d’action qu’elle offre aux hommes. La prise de position des sciences pour une philosophie naturelle (la nature est ce que nous percevons de manière prédictible et expérimenté) renvoie dans le domaine de la fiction tous les phénomènes qui ne sont pas naturels, c’est-à-dire non prédictibles et expérimentés. La fable est précisément ce récit de fiction.
Elle diffère du discours scientifique car elle décrit des phénomènes qui ne sont pas nécessairement réels au sens où on ne peut pas nécessairement les expérimenter directement ou agir sur eux. Faute d’un référentiel collectif permettant de prouver les informations fabulatrices, elles sont considérées comme des croyances. Nous avons estimé qu’une des finalités possibles du discours scientifique était l’action. Quelle est la finalité du discours fabulateur ? Contrairement au discours scientifique, il ne donne pas les moyens d’agir sur des phénomènes car il ne donne pas accès à la source des perceptions à partir de la récurrence de ces dernières. Cependant, parce qu’il présente des situations stimulants nos émotions et nos valeurs morales, il nous invite à questionner les déterminants de nos prises de décision. Quelles finalités est-ce que je poursuis ? Quelles sont les conséquences de mes choix ? Par l’exemple et l’identification fabuleux, certains déterminants se trouvent légitimés, d’autres contestés pour finalement éclairer nos choix individuels et collectifs. Pour résumer, je dirais que la fable donne la raison d’agir (pourquoi) là où la science donne la manière (comment). Bien sûr, la science conserve une dimension fabuleuse car tout discours, dans la mesure où il décrit un référent (réel ou imaginaire) par un signifié, diffère de la réalité référée. Ainsi, tout est fiction dans un degré variable selon la proximité entre l’évocation du discours et l’expérience de ce qui est évoqué.
Prenons un exemple. Si je dis aujourd’hui que je connais un homme capable de devenir invisible, vous serez nécessairement dans l’impossibilité d’expérimenter et de prédire cette observation : il s’agit d’une fable. Si je dis qu’il pleut parce que Rain man, le dieu de la pluie, est triste, vous n’êtes pas en mesure non plus de prédire et d’expérimenter cette affirmation : il s’agit également d’une fable. Si je dis maintenant qu’il va pleuvoir parce que Rain man charge le ciel de nuages gris et qu’il finit effectivement par pleuvoir, j’ai peut-être prédit et expérimenté une manifestation du comportement de Rain man, mais je ne sais rien de l’existence ou pas du comportement de Rain man. Tout ce que je sais au sens scientifique du terme, c’est qu’un ciel chargé de nuage gris fut suivi de pluie. Le lien de causalité entre les nuages et la pluie deviendra une bonne connaissance scientifique si la corrélation se répète mais sans avoir fait l’expérience directe d’un être doué de sentiment incarné dans les nuages, on ne peut pas dire que la pluie est la conséquence de la tristesse de Rain man. On peut appeler les nuages gris Rain man, mais cela ne prouve pas qu’ils ont des sentiments. Notons que si notre exemple ne fonde pas scientifiquement l’existence d’un Rain man sentimental, il ne fonde pas non plus son inexistence.
Face à ces situations indéterminées, l’homme peut éprouver une forme d’angoisse existentielle car les phénomènes semblent vides d’un sens intelligible. Et si le discours scientifique préfère l’incertitude à l’illusion potentielle, le discours fabulateur préfère l’illusion potentielle à l’incertitude car cela permet de donner du sens malgré notre finitude. La fable serait  donc particulièrement nécessaire là où la connaissance scientifique est indéterminée (impossible d’affirmer ou d’infirmer une théorie par les sens).
La fiction est, au même titre que la science, dépendante de nos perceptions. Cependant, elle n’implique pas l’expérience sensible et la prédiction. Cela implique une distinction majeure.
Grâce à notre mémoire perceptive, nous pouvons associer des perceptions entre elles et créer des situations imaginaires qui, bien que perçues, ne peuvent être expérimentées. Ainsi, si je décris Rain man comme un bonhomme bleu qui vole  entouré d’étincelles dorées, vous pourrez le visualiser car vous savez ce qu’est un bonhomme, voler, la couleur bleu, le brillant et les étincelles. Bien que vous n’ayez jamais expérimenté les cinq éléments réunis, vous pouvez imaginer la perception qui en résulterait. Cette capacité rend les phénomènes des fables compréhensibles bien qu’inexpérimentés directement. Les fictions se décomposent toutes, aussi compliquées soient-elles, en concepts réels. Pour le dire autrement, les discours fabuleux ont du sens bien que leur structure ne soit pas réelle car ses composants fondamentaux (les référents) renvoient nécessairement à une perception réelle. Ainsi, ne font sens que les signifiants rattachés à des référents réels ou à un ensemble de référents réels réunis dans une structure imaginaire (bonhomme bleu qui vole). La science doit donc distinguer les signifiés réels du discours des signifiés fabuleux (associations artificielle de référents).
Le discours scientifique et le discours fabulateur semblent très liés. En fait, ils se nourrissent mutuellement. Par exemple, puisque les fables se permettent des associations phénoménologiques inexpérimentées, elles peuvent parfois inspirer à la science des nouveaux cadres théoriques qui demain, seront expérimentables. Le genre littéraire de la science fiction est une belle illustration du rapport d’interdépendance entre les deux domaines car beaucoup d’inventions fictives d’auteurs de science fiction deviennent un jour réalité (le clonage, la réalité augmentée, les hologrammes…). Les œuvres de fiction sont alors des sources d’inspiration pour les chercheurs. Avec la méthode déductive ou hypothéticodéductive, on commence par proposer une idée de lien entre des phénomènes sans savoir s’ils existent logiquement et/ou empiriquement. Cela permet d’imaginer de nouveaux phénomènes et donc parfois d’en découvrir. La science est donc dépendante de la fiction (même avec une méthode inductive car la formulation d’hypothèses est toujours nécessaire) pour découvrir. Mais à quoi sert la fiction indépendamment de la science ?
Comme nous l’avons dit, les fables prennent appui sur des phénomènes sensibles mais les assemblent de manière fictive, c’est-à-dire indépendamment d’une réalité sensible. On peut donc considérer qu’une fable parle d’une réalité fantasmée, espérée ou redoutée, qui n’existe que comme une construction mentale. Pour Nancy Huston, la fiction nous permet de mettre en adéquation nos fantasmes avec la réalité, de créer un monde dans lequel nos désirs sont comblés et nos peurs rassurées (d’où la place centrale de la fiction là où la science n’a pas de réponse). Ce monde, lorsqu’il se fait idéologie, mythologie ou religion, devient véritable et permet alors d’unir les hommes autour de projets communs. La fiction est source d’action car en idéalisant un sujet réel, elle lui donne le sens qui nous motive à agir des manière individuelle ou collective.
Le procédé décrit ci-dessus repose sur l’idée très simple d’anthropocentrisme : « parce que je suis animé par une volonté consciente et des émotions, alors les phénomènes qui m’entourent le sont probablement aussi ». Ainsi, si je me sens agressé par un phénomène, c’est que quelque chose a voulu m’agresser et donc peut-être que je lui ai donné une raison d’agir ainsi. Sinon, la chose peut être substantiellement méchante (agresse sans raison). Cette manière d’interpréter permet de comprendre aisément ce qui m’arrive et d’adapter mon comportement, car j’applique au monde mes propres référentiels. Sans vouloir vexer certaines convictions, je pense que l’exemple du déluge qui apparaît dans la mythologie chrétienne mais que l’on sait provenir de mythologies plus anciennes (sumériennes notamment), est inspirant : Dieu noie les hommes car ils l’ont déçu et fâché par leur comportement. Ainsi, si je souffre de la pluie, c’est que Dieu (ou Rain man, souvenez-vous) veut me punir de ma mauvaise conduite. Je dois donc adapter mon comportement au désir de Dieu pour vivre paisiblement, la prochaine fois qu’on fait une bêtise, pour s’assurer qu’il ne s’énerve pas, on lui offrira un sacrifice. L’erreur ici, mais nous en avons déjà parlé avec Rain man, est d’avoir confondu l’expérience du déluge avec celle d’une volonté divine.
Ca n’est pas parce qu’il pleut beaucoup que quelqu’un doué d’une volonté fait pleuvoir mais pour mieux comprendre le monde qui nous entoure, nous sommes capables de faire exister mentalement des structures logiques qui créent une réalité en adéquation avec nos intuitions anthropocentrées. L’humanisation des phénomènes est courante, la littérature utilise d’ailleurs beaucoup ce procédé (personnification). Voici par exemple la célèbre description, dans La bête humaine d’Emile Zola (1890), d’une locomotive ayant déraillé : « On n’entendait plus, on ne voyait plus. La Lison, renversée sur les reins, le ventre ouvert, perdait sa vapeur, par les robinets arrachés, les tuyaux crevés, en des souffles qui grondaient, pareils à des râles furieux de géante. Une haleine blanche en sortait, inépuisable, roulant d’épais tourbillons au ras du sol, pendant que du foyer, les braises tombées, rouges comme le sang même des entrailles, ajoutaient leurs fumées noires. La cheminée, dans la violence du choc, était entrée en Terre; à l’endroit où il avait porté, le châssis s’était rompu, faussant les deux longerons; et, les roues en l’air, semblable à une cavale monstrueuse, décousue par quelque formidable coup de corne, la Lison montrait ses bielles tordues, ses cylindres cassés, ses tiroirs et leurs excentriques écrasés, toute une affreuse plaie bâillant au plein air, par où l’âme continuait de sortir, avec un fracas d’enragé désespoir. » Longtemps, les sociétés ont vécu en harmonie grâce à ce discours. Elles gagnaient en sens et en stabilité ce qu’elles perdaient en puissance.
Comme nous allons le voir dans la partie qui suit, la science, en retirant aux phénomènes du monde leurs propriétés anthropologiques (raison, émotions), a aussi retiré le respect que les hommes avaient envers eux.
La science a révolutionné notre manière de parler du monde. Avec elle, il ne s’agit plus d’humaniser le monde en lui attribuant notre subjectivité et donc en supposant que les phénomènes obéissent à des desseins conscients, mais d’essayer de le voir tel qu’il se montre à nous. Autrement dit, ne dire que ce qui est perçu des phénomènes. Plus de fable. L’affirmation du discours scientifique n’est pas sans conséquence : le monde qui nous entoure se vide des ses volontés, émotions et désirs incertains pour se transformer en un tas données brutes et déterminées. On risque alors de ne plus trouver de sens à notre environnement. Dans son discours de la méthode, Descartes nous dit : « Je me résolus de feindre que toutes les choses qui m’étaient jamais entrées en l’esprit n’étaient non plus vraies que les illusions de mes songes ». Par cette démarche, il estime que les hommes seront enfin « maîtres et possesseurs de la nature ». Mais quel sens donner alors aux connaissances que nous produisons ?
 le_caravage_-_lincrc3a9dulitc3a9_de_saint_thomas
Caravage, L’incrédulité de St Thomas, 1603, Huile sur toile, 107 × 146 cm
Lorsque le monde était mythifié, chaque phénomène était une conscience en action. On pouvait par comparaison définir les « motivations » des phénomènes. Désormais, un phénomène n’est qu’un phénomène et avec l’avènement des neurosciences, même la conscience et l’émotion semblent déterminées. La liberté pratique qu’offre la science semble en même temps vider le monde de son sens (tout devient objet), conduisant à un sentiment de solitude existentielle où notre humanité se trouve, comme dirait Tocqueville, « enfermée dans la solitude de notre propre cœur ». Certains (Weber, Gauchet) parlent d’un désenchantement du monde3, c’est-à-dire le passage d’une réalité où, en raison d’une faible quantité de connaissances empiriques, un grand nombre de discours fabuleux peuvent être supposés réels, à une réalité où, en raison d’une grande quantité de connaissances empiriques, un seul discours est vrai. Rêver devient de plus en plus difficile. Les mots ont peu de valeur s’ils ne s’accompagnent pas de faits. Vincent Estellon, auteur d’un Que sais-je sur les états limites se demande : « Que vaut la parole dans un système où ce qu’elle est amenée à dire ne tient pas ? Une parole qui ne tient pas – et qui ne se tient pas – est une parole qui fait du bruit, un bruit qui ne s’entend plus. Les mots dans une telle optique perdent leur valeur performative et leur fonction sociale (on ne tient pas sa parole). Il n’y a plus d’espace pour le secret ou pour le fantasme […].
Formellement, il semblerait que le discours scientifique repose sur une précision sémantique et que le discours fabulateur repose sur un flou sémantique. En effet, dès lors qu’il est posé une définition claire des concepts que l’on mobilise dans son discours, il est possible de déterminer avec précision les affirmations cohérentes avec les critères de définition et celles qui ne le sont pas (science) mais tant qu’aucune définition précise des mots n’est donnée, on peut leur faire dire n’importe quoi, leur existence est indéterminée, ce qui est favorable à la fiction. Parler sans dire de quoi l’on parle et jouer sur les ambiguïtés et les paradoxes qui résultent de cette absence de définition, voilà des ressorts du discours fabulateur.
Ce-dernier repose cependant sur deux autres leviers fondamentaux : le plaisir d’émerveillement et le plaisir d’identification. L’émerveillement, d’abord, est relatif au caractère inhabituel et surprenant d’un phénomène. Pour qu’un phénomène soit inhabituel et/ou surprenant, il faut que sa nature, son origine et sa finalité soient au moins en partie uniques ou inconnues ou bien encore inattendues relativement un modèle donné. Plus une fiction évoque ce type de phénomènes, plus le plaisir d’émerveillement est fort. L’identification, ensuite, est importante car c’est elle qui détermine les liens qu’un récepteur tisse entre son existence et un discours fabulateur. Le plaisir d’identification se mesure à la quantité de souvenirs rationnels et émotionnels qu’une fiction évoque. On peut supposer que c’est l’association de souvenirs et non les souvenirs eux-mêmes qui provoque ce plaisir.
S’émerveiller, c’est chercher la nouveauté. Pour cela, on peut découvrir des nouvelles expériences ou apprendre à percevoir autrement des expériences que l’on croit connaître. Dans tous les cas, il est difficile de continuer à s’émerveiller sans un regard neuf. Or, plus les expériences s’accumulent, plus le regard neuf se fait rare : de l’expérience naît une connaissance (potentielle), de la connaissance une maîtrise (potentielle) et de la maîtrise (potentielle) une soumission (potentielle) de la chose expérimentée à notre volonté. Une fois soumise, la chose risque de perdre de son intérêt. L’émerveillement face à une chose ne peut coexister longtemps avec l’expérience de la chose.
Dès lors qu’on expérimente, on ne peut pas choisir de ne pas connaître. Notre esprit conceptualise et mémorise toutes nos perceptions. Imaginez-vous finalement entrain de faire un tour de magie face à un public qui connaît déjà le truc. Vous aurez beau faire de votre mieux, il sera impossible de créer de l’émerveillement car ils savent exactement ce qu’il se passe. Le public pourrait être impressionné par votre agilité pour dissimuler les artifices du tour mais cela aussi finirait par se banaliser. C’est cette connaissance banalisée, figée, prévisible, que la science propose. C’est elle qui dure, contrairement à l’excitation de la découverte, très éphémère.

Conclusion

Cet article montre que la fiction fait partie intégrante de l’histoire humaine. Elle guide nos actions en idéalisant nos aspirations et nos peurs. Par l’identification et l’émerveillement, nous développons au contact des fables une motivation à agir. Avant l’antiquité, les discours fabulateur avaient une valeur de vérité. Cependant, avec l’affirmation des démarches philosophiques et scientifiques, les mythes sont devenus des fictions et le monde a cessé de s’interpréter à partir de caractéristiques anthropologiques. Aujourd’hui, le rationalisme crée ce que certains ont appelé un désenchantement, une perte de sens.
Malgré tout, il me semble abusif de dire que la fiction n’existe plus et je ne souhaite pas qu’on me reproche de caricaturer la réalité. Il suffit de regarder un programme de cinéma pour voir à quel point les gens aiment encore rêver, s’évader. Mais peut-on parler de la même fiction qu’autrefois, je veux dire, avant que la science ne s’impose comme vérité ? Se divertir devant un film, ça n’est pas la même chose que d’écouter un évangile à la messe. Hier, la fiction avait valeur de vérité, elle guidait les gens. Aujourd’hui, cette fonction de guide semble contingente.
Quel intérêt aurions-nous à donner aux fables une plus grande légitimité ? Tout d’abord, un monde merveilleux, qui ressent et qui désire, c’est un monde humanisé. Or, nous avons une empathie naturelle envers les choses humaines. Attribuer aux phénomènes une subjectivité sensible, une liberté volitionnelle (le monde des esprits, religions polythéistes…), c’est peut-être garantir le respect de leur existence et limiter nos actions destructrices. Cela valorise les croyances polythéistes (respecter une diversité d’esprits) par rapport aux monothéismes (ne servir qu’un seul esprit).
Au-delà, la fiction est utile à la science et à la philosophie. Ces disciplines rigoureuses ne sont, peut-être, que la formalisation des mythes fondateurs de notre civilisation. Ainsi, toute connaissance serait d’abord une croyance (hypothèse) : la fiction précèderait la science. A ce propos,  Jacques Bouveresse, cité par Jil Silberstein dans La terre est l’oreille de l’ours (p. 271), nous dit : « le besoin d’expliquer les mythes primitifs devient certainement beaucoup moins impérieux, lorsqu’on constate, par exemple, que la philosophie des sociétés civilisées est, de façon générale, bien plus proche de la mythologie qu’on ne le soupçonne généralement : notre philosophie savante n’est pour l’essentiel rien d’autre qu’une actualisation d’une mythologie latente déposée dans les formes mêmes de notre langage ».
Je reviens pour finir sur la question du langage, toujours centrale dans notre étude. Cette filiation entre la science et la fiction, filiation résultant de structures linguistiques communes (hypothèse Sapir-Whorf), explique peut-être pourquoi les deux discours semblent partager une définition commune de la subjectivité humaine (soumission aux perceptions). Bien souvent, si l’on observe des divergences formelles, les principes qui régissent le monde fabuleux sont soit les mêmes que ceux régissant le monde scientifique (énergie, entropie, accoutumance, déterminisme…) soit l’opposé. Les discours ne s’en libèrent jamais : aussi puissante que soit l’imagination, elle est déterminée par ce que nous avons perçu, dans la fiction comme dans la science. Dans la suite de cette étude, je me demanderai dans quelle mesure il est possible de se libérer ou de redéfinir ce déterminisme. Peut-on s’affranchir de la perception comme point de départ de tout voyage intellectuel ?
 ps : pour une ouverture sur la notion de croyance religieuse, thème qu’on abordera probablement dans la suite de notre étude, voir cet article du blog : https://pardelaleconnu.wordpress.com/2016/07/30/la-croyance-religieuse-commentaire/

  1. https://www.researchgate.net/publication/263849484_A_quoi_ressemblaient_les_premiers_mythes
  1. Julien D’Huy. Le conte-type de Polyphème: essai de reconstitution phylogénétique.. Mythologie française, Paris : SMF ; Grasse : SMF, 2012, pp.47-59.
  1. Gauchet Marcel, Le Désenchantement du monde. Une histoire politique de la religion, Gallimard (Bibliothèque des sciences humaines), Paris, 1985
 
Publicités

2. Le discours scientifique, synthèse

1. Le discours scientifique permet

– de manipuler une grande diversité d’objets et de sujets, grâce à la flexibilité et à la richesse de son langage.
– de déclarer réel un phénomène ou un lien entre des phénomènes qui provoque un ensemble de perceptions définies (caractéristiques) à partir de leurs caractéristiques communes et récurrentes.
– de donner aux signes linguistiques une probabilité performative qui est d’autant plus fiable que le lien entre le discours et le réel a été plusieurs fois vérifié.
– de définir quels sont les principes nécessaires à certaines pensées et perceptions (axiomes, noumènes kantiens).
– de progresser en montrant que des connaissances peuvent êtres contredites par d’autres. Il abat des illusions.
– de placer la connaissance du côté de la certitude et de la régularité.
– de déterminer dans quelles conditions et par quels moyens on peut modifier des éléments de notre environnement avec la plus grande certitude possible. Cependant, ce désir d’action nous enferme dans nos repères perceptifs et nous empêche de voir au-delà.
– de déduire qu’il existe un double déterminisme : déterminisme du sujet perceptif car si nous pouvions tout percevoir à volonté, il n’y aurait plus de distinction possible entre le vrai et le faux. Et déterminisme du monde extérieur car si les informations perçues n’obéissaient à aucune loi universelle, alors il n’y aurait pas de raison pour que certaines se manifestent à nos sens de manière constante et récurrente.
– de se légitimer en se présentant en adéquation avec l’intuition rationnelle ou l’observation empirique.
– au prix d’efforts physiques et intellectuels, de percevoir des phénomènes qui étaient situés hors de notre champ perceptif habituel (élargissement quantitatif)
– de donner des caractéristiques aux phénomènes qui valent relativement à un appareil perceptif particulier. Plus il s’agit de caractéristiques perceptibles par tous, plus elles sont jugées évidentes et plus elles seront au fondement des théories (axiomes).
 

2. Le discours scientifique ne permet pas

– d’affirmer la vérité absolue de ses axiomes, indépendamment des postulats et de la relativité de nos perceptions (constructivisme, Quine, axiomatique, pétition de principe…).
– de justifier lui-même le lien entre les signifiants et les signifiés (pétition de principe).
– d’être parfaitement fidèle à la réalité sensible (il reste toujours une médiation symbolique minimum sinon il ne s’agit plus d’un discours).
– d’appréhender les phénomènes qui échappent à nos cinq sens connus et/ou qui sont non réguliers.
– d’écarter la philosophie lorsque se pose le problème des fondements, c’est-à-dire de la justification de ses axiomes ou du lien signifié/signifiant.
– de prétendre à l’objectivité car elle prend position pour une philosophie naturelle, un appareil perceptif déterminé
– de remettre en cause la philosophie naturelle, c’est-à-dire la pertinence de l’expérience sensible dans l’élaboration de connaissance
– d’augmenter notre pouvoir perceptif car trop souvent, il utilise les perceptions mais ne les cultive pas en elles-mêmes.
– de trouver une stabilité absolue car même l’existence d’informations théoriques (connaissance d’une loi, d’une forme…) semble relative à un système fini dans l’espace-temps.
– de répondre  à tous nos besoins linguistiques. Si je veux connaître mes rêves pour raconter à mes amis les histoires qui s’y déroulent, la carte de l’activité électrique de mon cerveau pendant le rêve est peu pertinente et fausse car elle ne me permet pas de transmettre la connaissance que je cherche.
– de s’affranchir des lois physiques par le système qu’elles déterminent, nous pouvons seulement les manipuler, orienter, contourner…

2.5 Le discours scientifique et la découverte

Introduction

Il me semble léger d’accepter des principes logique ou méthodologiques sous prétexte qu’ils sont « nécessaires » au mouvement du corps et de la pensée car savons-nous vraiment de quels mouvements le corps et la pensée sont capables ? L’unique manière de montrer que le sujet sensible est infini est de découvrir de nouveaux mouvements, de s’ouvrir à de nouveaux champs perceptifs. Pour ce faire, il faut découvrir. La découverte est consubstantielle à la science et nous allons en dire quelques mots. Qu’est ce que découvrir ? Voici le thème de cet article, plus court et plus abordable que les deux précédents.

 1. L’heuristique ou comment faire un pas de côté

Toute découverte implique d’ajouter de l’information à un ensemble de connaissances. Il y a donc une évolution du système d’un état A vers un état B. De quelle nature est cette évolution ? Dans quelle mesure la découverte est une continuité ou une rupture dans le changement ? En logique classique, passer d’un système A à un système B à partir de ce même système A est impossible car au non du principe d’identité, si A est A, A ne peut pas devenir autre chose tout seul. Je vois renvoi ici à l’histoire du baron de Münchhausen. La seule manière d’obtenir l’objet B par l’objet A est de supposer que l’objet A contienne en puissance la possibilité de sa modification. L’objet A est en fait un objet A-B qui ignorait sa caractéristique B. Il n’y a pas eu une métamorphose de A en B, mais simplement une redéfinition de A relativement à une caractéristique B présente depuis toujours mais jusque là ignorée.
Pour découvrir B, il est aussi possible de supprimer l’objet A, autrement dit de faire en sorte qu’il s’autodétruise. Cela a l’inconvénient de nous empêcher de prévoir si on découvrira, qui est-ce qui découvrira et qu’est-ce qu’on découvrira.
Enfin, on peut penser que le système A contient une porte permettant de s’échapper vers une alternative B et de revenir. Il s’agirait d’une zone frontière en contact avec un système B. Mais comment trouver cet espace ? Comment voir ce monde possible et y entrer ?
L’heuristique1, c’est à la dire la découverte comme objet de connaissance, nous apportera peut-être des éléments de réponse. Le terme vient du grec ancien eurisko, je trouve. Elle signifie l’art de découvrir. Le mot « découverte » a de multiples sens. Dans le cadre des sciences, il peut concerner une avancée dans une théorie, mais aussi plus précisément l’instant de la découverte (eureka). Comme l’explique l’article de la Stanford encyclopedia of philosophy consacré à la découverte scientifique2, il faut distinguer le discours portant sur le contexte de découverte (irrationnel) et celui portant sur le contexte de justification (rationnel). La découverte scientifique n’est en effet pas la création ou l’invention mais un certain type de création, une création source de connaissances scientifiques nouvelles. Cela impose une formalisation linguistique de la découverte pouvant poser problème. Les méthodes de justification des découvertes sont généralement démonstratives mais varient quant à leurs objets de départ, les règles de déplacement et leurs points d’arrivée. Margaret Boden (chercheuse anglaise en sciences cognitives) distingue par ailleurs la création psychologique, c’est-à-dire la nouveauté pour une personne et la création historique, c’est-à-dire la nouveauté universelle (encore jamais pensé).
Comme nous l’avons dit, une découverte est le passage d’un système de connaissance A à un système de connaissance B, enrichi d’informations nouvelles. La découverte de nouvelles informations doit généralement répondre à un problème. Une découverte est un passage vers un nouveau paradigme, une porte qui, à partir d’un système A, nous plongera dans un système B. L’avantage de la porte, c’est qu’elle se traverse dans les deux sens, telle une frontière. Notre être est probablement contenu dans un ensemble de frontières que nous choisissons de traverser ou pas. Le tout est de savoir ce qu’on perd et ce qu’on gagne en traversant. Quoiqu’il en soit, découvrir c’est traverser une nouvelle frontière. Peut-on élaborer une méthode pour cela ?
Nous avons de nombreux exemples de projets méthodologiques échoués. Leibniz (XVIIème) par exemple a proposé l’heuristique déductive systématique. Selon lui, le monde est un cryptogramme qu’il faut déchiffrer : « Le monde des phénomènes est un immense cryptogramme dont les clefs sont les lois de la nature ». Il pense donc qu’un bon algorithme serait capable de tout découvrir. Son projet n’a cependant pas aboutit. Francis Bacon (XVIème) a lui proposé une heuristique « inductive », mais elle ne fut pas plus concluante que la théorie leibnizienne. Il estime que l’esprit est à éduquer, ouvrir à la réalité dont il fut coupé. Pour renouer avec la réalité et donc découvrir de nouvelles choses, il faut pratiquer une « chasse aux faits », les rassembler puis les associer.
Norwood Russel Hanson (XXème siècle) a tenté de concevoir une logique de la découverte. Selon lui, il s’agit d’un « un examen de la rationalité du processus de création des hypothèses scientifiques ». « Pour inventer l’idée spécifique d’une orbite planétaire elliptique […], ou l’idée de l’attraction universelle, il faudra sans aucun doute du génie. Mais cela n’implique pas que la démarche par laquelle on parvient à ces idées n’est pas rationnelle ». Concrètement, la logique d’Hanson est abductive (Patterns of discovery, 1958).  Elle part d’une anomalie, d’un problème identifié par le chercheur et propose une hypothèse permettant de résoudre le problème. L’identification de cette anomalie est essentielle et suppose une évaluation des perceptions présentes à la lumières des perceptions passées. Le schéma est le suivant : 1. Observation de phénomènes étonnants/problématiques, 2. Mise ne lumière d’une hypothèse H les expliquant. Certains critiquent ce modèle qu’ils considèrent trop « permissif ». En effet, il peut y avoir plusieurs hypothèses explicatives et la difficulté est de choisir la bonne. C’est pourquoi cette méthode est souvent complétée par l’abduction sélective, c’est-à-dire l’inférence permettant de choisir la meilleure hypothèse.
Les partisans d’une méthode algorithmique utilisent des programmes informatiques capables de soumettre des variables à un ensemble de lois, de manière à déterminer le chemin à suivre vers un état recherché et à prédire cet état. Cependant, cette méthode est soumise aux lois du programme et donc limitée.
Thomas Kuhn (philosophe du XXème siècle) insiste, comme sur l’importance de l’anomalie, point de départ de la découverte. Cependant, il associe cette anomalie au cadre théorique dans lequel elle émerge : « l’anomalie apparaît seulement sur la toile tissée par le paradigme ». Ensuite, Kuhn critique la possibilité d’attribuer la découverte à un individu. Qu’il s’agisse de la découverte de l’oxygène par Lavoisier (1777) ou de la relativité par Einstein (1905), des travaux antérieurs empêchent d’attribuer La découverte à une seule personne. Les travaux modernes se penchent plus directement sur le processus de création.
Nersessian (professeur de sciences cognitives à Harvard) estime qu’il ne faut pas considérer la création de nouveaux concepts/modèles comme un acte mais comme un processus. Les instants « eureka » ne surviennent pas par hasard et chez n’importe qui. Einstein par exemple a passé des années à travailler sur des horloges et des problèmes de synchronisation temporelle avant d’aboutir à la relativité. Il faut un travail préliminaire.
Deux principes semblent permettre la découverte : l’analogie et le modèle mental. L’analogie consiste à prendre des idées qui s’accordent bien dans un système donné et à les transposer à un autre système. Mary Hesse, philosophe anglaise, a étudié la place de l’analogie dans la découverte scientifique (Models and Analogies in Science, 1964). Elle distingue trois types d’analogies : positive (les caractéristiques sont communes aux deux systèmes), négative (les caractéristiques sont présentes dans un système uniquement) et neutres (on ignore si les caractéristiques sont positives ou négatives). Elle prend l’exemple de l’analogie entre les molécules d’un gaz et des boules de billard. Hesse ajoute une distinction essentielle entre l’analogie horizontale et verticale. L’analogie horizontale souligne des correspondances entre différents systèmes tandis que l’analogie verticale étudie les structures causales d’un système. C’est en essayant de transposer une structure causale d’un système à l’autre qu’on fabrique de nouvelles théories.
Plus généralement, les modèles mentaux sont essentiels à la découverte. L’idée fondamentale est qu’un modèle théorique est une représentation mentale. Tout changement de modèle implique donc un changement de représentation. L’analogie mobilise des modèles mentaux, tout comme la simulation ou la visualisation. La visualisation consiste à créer une image mentale d’une situation réelle, par exemple se représenter mentalement un parcours géographique. Le langage détermine les modèles que nous pouvons former. On parle de modèles discursifs. Des études furent réalisées pour comprendre comment se forment les univers mentaux lorsqu’on lit un texte (de roman par exemple)3.
Parmi les modèles existant, il y a ceux qui s’appliquent à des expériences spécifiques et il y a les modèles types, qui constituent le cadre des autres modèles. La deuxième moitié du XXème siècle est marquée par l’émergence de multiples théories des modèles/systèmes (Craik, Nersessian, Bertalanffy…). Dans le cadre des théories de la découverte, on parle beaucoup de l’analyse cognitivo-historique. Le versant historique souligne la causalité entre les connaissances nouvelles et les anciennes tandis que le versant cognitif souligne l’importance d’une « épistémologie naturelle », c’est-à-dire une structure biologique déterminant nos réflexions.
Finalement, les méthodes de découverte que nous avons abordées permettent de décrire/créer un contexte favorable à l’émergence d’une connaissance nouvelle, mais elles ne permettent pas la découverte en tant que tel. D’ailleurs, Karl Popper nous dit : « Il n’y a pas de méthode permettant de créer des idées neuves, pas plus qu’il n’y a de reconstruction logique du processus en question ». Pourquoi la découverte se refuse-t-elle à toute description en substance ?

2. Traverser, à quel prix ?

A travers la découverte, c’est souvent la définition même de la rationalité qui se trouve bouleversée, d’où un potentiel problème de compréhension rationnelle du processus. L’instant de la découverte est inhabituel. Or, nous avons vu que Hume associait l’intuition à l’habitude, au traditionnel. Ainsi, la découverte serait nécessairement contre-intuitive, ce qui empêche toute méthode logique, rationnelle, de la saisir. Il faudrait user d’une rationalité contre-intuitive pour découvrir. Mais parler de méthode semble supposer un processus répétitif, presque mécanique. La question ici est alors : une méthode de recherche peut-elle être contre intuitive ou inhabituelle ?
Une méthode contre-intuitive ne peut se définir car pour ne pas tomber dans une routine procédurale (et donc se fermer à l’inhabituel), elle doit évoluer en permanence et donc changer régulièrement de caractéristiques. On peut malgré tout imaginer une méthode rationnelle qui, si elle ne permet pas la découverte, permet au moins de nous mettre dans un état propice à la découverte. Je pense par exemple à une méthode qui inhiberait nos barrières rationnelles, stimulant ainsi notre créativité (brainstorming…).
Je souhaite maintenant aborder le problème de l’origine des découvertes. Prenons un exemple : dans un ordinateur, le bootstrap est le programme qui a pour mission de charger le système d’exploitation quand la machine s’allume (boot). C’est le premier programme exécuté par la machine. Le système commence par charger ce programme très simple qui ensuite charge peu à peu des systèmes plus complexes (par récursivité)… Littéralement, le bootstrap désigne la languette des chaussures permettant de les enfiler plus facilement. C’est l’amorce de la chaussure, d’où l’analogie avec le démarrage d’un système information. Ici, le bootstrap est placé par le programmeur dans l’ordinateur. Il n’y a donc pas de découverte pure en informatique. Même l’amorçage du système est programmé. Dans le cas de l’heuristique, la question est ouverte : quel est le bootstrap de la découverte, l’amorce initiale ? Qui tire sur la languette ? Les découvertes sont-elles préprogrammées dans notre esprit ?
Pour Platon, oui. Toute découverte serait anamnèse c’est-à-dire redécouverte du déjà su. Le philosophe a même proposé une démonstration pour justifier son idée, le paradoxe de Ménon. L’argument se développe ainsi : il est impossible de connaître volontairement quelque chose de nouveau si l’on ne sait pas quoi chercher. Si on sait ce qu’on cherche, alors il est inutile de chercher car on a déjà trouvé. D’où l’idée que la découverte est une redécouverte, la prise de conscience d’une connaissance inconsciente, le passage d’un savoir implicite à un savoir explicite. Le verbe découvrir signifie d’ailleurs « révéler ce qui était couvert », caché. Ainsi, nous saurions déjà tout ce que nous pouvons savoir, mais sous une forme qui ne permet pas toujours l’énonciation.
Tout processus de création est en même temps un processus de définition qui limite, parce qu’il caractérise, le pouvoir de l’objet définit. Ainsi, découvrir quelque chose c’est souvent fermer les yeux sur autre chose, ignorer ce qui pourrait être. Cependant, c’est aussi la définition qui permet à notre conscience de donner des caractéristiques et donc des fonctions/capacités/pouvoirs aux choses. Sans définition, nous serions incapables d’utiliser des outils car le concept même d’outil sera inexistant.
Le processus de création est aussi un processus de destruction. En effet, pour s’ouvrir à de nouvelles informations, il faut nécessairement renoncer à de l’information ancienne. Par exemple, lorsqu’un enfant grandit de 4 à 7 ans, il perd l’état d’esprit qu’il avait à 4 ans. Sur le plan quantitatif, il est probable que son cerveau porte plus d’information, mais il y a eu des pertes sur le plan qualitatif. Ce phénomène est d’ordre logique : être quelque chose, c’est ne pas ou ne plus être exactement autre chose.
Par conséquent, si l’on cherche à obtenir des informations sur de nouveaux systèmes, il faut déterminer quelles caractéristiques (contraintes) du système de départ nous voulons conserver et quelles caractéristiques nous pouvons perdre. Il faut jouer sur la suppression et l’ajout de certaines caractéristiques (physiques notamment) et observer ce qu’on obtient de nouveau (y’a-t-il de nouvelles caractéristiques qui apparaissent ?). Le gain (ou la perte) d’une nouvelle caractéristique doit entraîner la perte (ou le gain) d’une caractéristique ancienne sans quoi il ne peut y avoir eu de changement systémique (A est resté A).
 
La conclusion du livre de Maurice Boudot, Logique inductive et probabilité (1972), œuvre que nous avons déjà évoquée, est très critique vis-à-vis de la science moderne. L’auteur dénonce notamment la volonté totalisante de la méthode scientifique moderne, qui nous ferait tomber dans un dogmatisme, celui du positivisme et de la philosophie naturelle. Il regrette que l’axiomatique et l’épistémologie ne soient pas plus étudiées : « le fait qu’on puisse remettre en cause la catégorisation qu’établit un langage d’observation déterminé n’est pas pris en considération ». Sur le plan formel, Boudot estime que les scientifiques « sont en droit de se refuser aux questions d’origine, non de les résoudre de façon imparfaite ». Il s’attaque particulièrement le caractère arbitraire des sciences « dans la délimitation du vocabulaire ».
Pour lui, le mariage de la logique et de l’induction ne ferait que décrire avec de plus en plus de force l’étendue de notre subjectivité. J’ai déjà parlé de l’impasse que constituerait une connaissance limitée à nos cinq sens actuels : d’une part, il sera bientôt physiquement impossible de découvrir plus car nous ne pourrons plus construire des outils de mesure plus puissants et d’autre part, nous savons que jamais ces outils ne pourrons traverser certaines frontières (trou noir, instant zéro…).
Boudot déclare que le dessein fondamental mais implicite de la logique inductive est « d’asseoir la validité de la science sur la seule certitude sensible ». Toutes les théories se fondent sur une connaissance première, les axiomes. La seule légitimité de ces axiomes est qu’ils sont évidents, autrement dit conforment à l’expérience sensible et « ainsi, toute la connaissance scientifique devient prisonnière des croyances que véhicule la connaissance commune. […] La méthode choisie est conforme aux impératifs d’une philosophie pour laquelle la subjectivité n’est qu’un phénomène de la nature dont la science doit rendre compte. Le problème de la connaissance première ne se pose que si l’on a besoin de discriminer entre ce qui relève d’une connaissance pertinente ou pas. L’avantage est toujours donné à la perception ».

Conclusion

Il est fort probable que ce que nous connaissons de notre appareil perceptif détermine et limite ce que l’on peut connaître mais peut-on connaître autre chose de nos sens ? Plutôt que de remettre en question les jugements de perceptions, il me semble plus pertinent de remettre en question les perceptions elles-mêmes. Tout comme de nombreux penseurs contemporains ont cessé de questionner les objets désignés pour s’intéresser à la méthode de désignation elle-même, je souhaite m’intéresser à notre méthode de perception.

  1. Jean-Pierre CHRÉTIEN-GONI, « HEURISTIQUE». In Universalis éducation [en ligne]. Encyclopædia Universalis, consulté le 7 mai 2016. Disponible sur https://www-universalis–edu-com.acces-distant.sciences-po.fr/encyclopedie/heuristique/
  1. http://plato.stanford.edu/entries/scientific-discovery/
  1. https://www.google.com/search?q=mental%20models%20reading&oq=mental%20models%20reading&sourceid=chrome&from=coli&gws_rd=ssl#q=mental+models+reading+scholars
 

2.4 La science incertaine

Introduction

Cet article est la suite directe du précédent, que nous avons consacré à la logique. Il aborde la dimension empirique du discours scientifique, autrement dit le lien entre les faits et la théorie. Il sera question d’un baron dans un marécage, d’une paire de bottes, de Mr Nobody, d’un mathématicien faisant une grève de la faim, d’un canard-lapin, d’une cigarette et d’autres choses beaucoup moins sérieuses.
Bonne lecture !

 

1. Le problème des fondements

Nous avons parlé du cinquième postulat d’Euclide qui résiste à toute démonstration. Dire cela signifie simplement que notre « intuition » (si elle est à l’origine des découvertes) est incapable de trouver une démonstration de ce « concept ». Et ça n’est pas le seul qui résiste (encore et toujours). Cela montre que si nous supposons que la régression infinie existe sur le plan théorique, nous ne pouvons pas l’expérimenter en pratique. De nombreux concepts nous mettent face à une porte close, c’est ce qu’on appelle le problème des fondements.
Concrètement, le postulat des parallèles ne peut être rejeté sous peine de quitter la surface plane qui constitue le cadre fondamental de la géométrie. Autrement dit, nier le cinquième postulat d’Euclide, c’est nier la géométrie euclidienne elle-même. Cet exemple permet de déterminer une caractéristique des axiomes théoriques : ils sont tautologiques. Autrement dit, ils ne peuvent être que vrais car nous ne connaissons aucune théorie dans lesquels ils soient faux. Car qu’est-ce qu’une théorie ? A l’origine, il s’agit d’un cadre, d’une structure qui influe sur des variables dans un modèle pour en tirer des conclusions. Tout comme une cathédrale est composée de pierre et de bois, une structure logique est composée d’axiomes. C’est grâce à eux qu’on crée un sujet réflexif, un référentiel à partir duquel il est possible de formuler des jugements. Les axiomes sont la pointe du compas que l’on plante pour tracer des cercles, les sens de l’être sensible qui perçoit pour agir… Retirez au compas sa pointe et à l’être sensible ses sens et vous devrez changer votre définition de l’être et du compas. Si vous refusez de changer de définition, vous devez accepter les axiomes associés aux objets ou bien renoncer à dire quelque chose à propos de ces objets.
Il existe de nombreux exemples des limites de la démonstration logique que je ne suis bien sûr pas le premier à constater. Le problème des fondements des sciences a donné naissance à plusieurs théories. Nous allons en évoquer quelques unes.
Tout d’abord, le travail de Kurt Gödel, mathématicien austro-américain du XXème siècle, est fondamental. Gödel est surnommé dès son enfance par sa famille « monsieur pourquoi ». Il manifeste ainsi très vite une obsession pour l’origine, le fondement, la compréhension des phénomènes. Son ambition est de parvenir, comme ont essayé avant lui Russel, Whitehead ou encore Hilbert, de démontrer la complétude et la cohérence des mathématiques par les mathématiques… boucler la boucle, en somme. Ironie du sort : à l’issue de ses études, en 1931, Gödel parvient en fait à démontrer… l’incomplétude de l’arithmétique. Autrement dit, les théorèmes de Gödel montrent qu’ils existent toujours des énoncés indécidables et pourtant nécessaires aux théories logiques.
Rigoureusement, la complétude est le fait, dans un système de déduction et pour une logique donnée, qu’il soit possible de démontrer la validité de toutes les formules à partir des axiomes de la théorie  (un système de déduction est correct ou vrai quand toute déduction est valide sémantiquement (pour au moins un modèle)).
Le premier théorème d’incomplétude de Gödel énonce que, contrairement à ce que voudrait le programme de Hilbert, sous des hypothèses raisonnables, aucune théorie arithmétique cohérente (qui ne démontre pas à la fois un énoncé et sa négation) n’est complète car elle est nécessairement constituée d’énoncés qui dans certains modèles sont indécidables (axiomes autoréférentiels par exemple), c’est-à-dire ni démontrables, ni réfutables (un énoncé est démontrable si on peut le déduire vrai à partir des axiomes de la théorie, il est réfutable si on peut déduire sa négation). Par conséquent, il est impossible de démontrer la validité des formules dans tous les modèles : le système est incomplet. Il existe un célèbre exemple visuel de l’indécidabilité, analysé par Wittgenstein : le canard-lapin (image ci-dessous). Il est objectivement impossible de décider si ce dessin est un canard ou un lapin car il est à la fois l’un et l’autre :

lkj

Le deuxième des théorèmes de Gödel montre que l’affirmation de la non-contradiction du système est précisément un de ces énoncés indécidables. Autrement dit, une théorie cohérente ne démontre pas sa propre cohérence car l’énoncé qu’il faudrait formuler pour y parvenir est victime du premier théorème. Autrement dit la cohérence d’une théorie est indécidable dans la théorie. En effet, si la théorie tente de démontrer sa cohérence et qu’elle découvre qu’elle est incohérente, alors la démonstration qu’elle vient de produire est elle aussi incohérente, ce qui délégitime le résultat. Une théorie est incapable de démontrer que ce qu’elle dit est vrai car elle ne peut ni accepter ni rejeter la possibilité de son incohérence.
Plus rigoureusement : appelons cohT un énoncé qui exprime la cohérence de T dans la théorie T. La théorie T’ est égale à T + non cohT. Ainsi, cette théorie T’ tente de démontrer l’incohérence de T à partir de T. Rien ne semble l’empêcher d’essayer… Cependant, « non cohT » signifie qu’il existe une preuve d’une contradiction dans T. Or, une preuve dans T est aussi une preuve dans T’ car T’ est composée en partie de T. Ainsi, non cohT a pour conséquence non cohT’ et si T’ est incohérente, alors sa conclusion ne peut pas prouver l’incohérence de T. En définitive, on a donc déduit du second théorème d’incomplétude l’existence d’une théorie T’ qui ne parvient pas à démontrer l’incohérence de T.
Pour exprimer le résultat du théorème dans un langage plus simple, je dirais que démontrer l’incohérence d’un langage avec ce même langage est impossible car alors la démonstration elle-même est incohérente. La phrase « le langage n’existe pas » est un exemple de l’aporie que constitue une négation de l’outil par l’outil. Comment puis-je démontrer par le langage que le langage n’existe plus si le langage n’existe plus ? D’après le théorème de Löb, une théorie qui démontre la vérité ou la fausseté de ses axiomes n’est pas une démonstration car la conclusion implique de valider les axiomes (pour les besoins de la démonstration) avant d’avoir démontré leur validité (pétition de principe) ! Ainsi, la conclusion ne peut pas être une preuve de la validité ou de la fausseté des axiomes et une démonstration ne vaut rien si ses conclusions concernent ses postulats.
Je dois ici mentionner l’existence du théorème de complétude de la logique de premier ordre de Gödel, qui fut publié avant les autres (1929). Ce théorème est intimement lié à la théorie des ensembles. J’ai épluché plusieurs articles concernant ce théorème, notamment celui de wikipédia1, mais je n’ai réussi qu’à effleurer  sa conclusion. En toute logique, ce théorème ne peut opérer au même niveau que les deux autres car sinon, il y a contradiction. D’après mes lectures, le théorème de complétude prouve que les formules vraies dans tous les modèles de la logique de premier ordre sont toutes justifiées par un ensemble énumérable de lois logiques. Il y a donc équivalence entre la syntaxe et la sémantique de la théorie. Cela n’est possible que pour un nombre très réduit et intuitif de principes logiques (ceux de la logique de premier ordre).
Quoi qu’il en soit, Gödel est devenu fou, probablement par excès d’un rationalisme insatiable, et est mort de sa folie (paranoïa, troubles obsessionnels…) en cessant de s’alimenter. Cassou-Noguès2 se demande, dans sa biographie du logicien « Faut-il penser que Gödel déforme en quelque sorte la philosophie classique, la logique et ses principes de sens commun pour y faire entrer ses propres peurs ? Ou bien, faut-il reconnaître que ce complexe qui nous est commun, de philosophie, de logique, de bon sens, contient déjà cette « folie » que Gödel ne fait qu’y révéler ? ». Certains penseurs et notamment Régis Debray ont tenté d’appliquer les conclusions des théorèmes de Gödel à d’autres disciplines que les mathématiques (ici la sociologie). Jacques Bouveresse a vivement critiqué cette analogie, expliquant que les conclusions ne s’appliquent à des systèmes formels, ce que la sociologie n’est pas. De plus, il met en garde contre l’utilisation littéraire de concepts scientifiques incompréhensibles par le grand public (sophisme fondé sur l’argument d’autorité).
A l’opposé de Gödel ou d’Hilbert, Poincaré (deuxième moitié du XIXème siècle) ne croyait pas à la possibilité de tout démontrer logiquement : « Un naturaliste, qui n’aurait jamais étudié l’éléphant qu’au microscope, croirait-il connaître suffisamment cet animal ? Eh bien ! En Mathématiques, il y a quelque chose d’analogue. Le logicien décompose pour ainsi dire chaque démonstration en un très grand nombre d’opérations élémentaires ; quand on aura examiné ces opérations les unes après les autres et qu’on aura constaté que chacune d’elles est correcte, croira-t-on avoir compris le véritable sens de la démonstration ?  ».
Nous avons donc montré dans la partie précédente que les axiomes d’une théorie ne peuvent être justifiés que par des axiomes et des démonstrations externes à la théorie. Quelles sont les prolongements de ces conclusions ?
Dans la théorie, les axiomes peuvent être associés au concept de tautologie (le concept doit être vrai dans tous les modèles pour garantir la cohérence de la théorie, peu importe qu’il soit démontrable ou pas). Ils sont souvent autoréférentiels (c’est-à-dire qui doivent être admis pour être énoncés) et forment des arguments circulaires ou pétitions de principes ou diallèles (qui utilisent le résultat de la conclusion pour la démonstration). D’après wikipédia, « on nomme argument circulaire un argument où une proposition A utilise pour sa justification une proposition B dans le même temps que la justification de la proposition B nécessite la validité de la proposition A. Par exemple : Notre bureaucratie est un élément capital dans notre fonctionnement (proposition A), car elle génère de nombreux documents, qui je le rappelle, sont extrêmement précieux ! (proposition B) puisqu’utiles au fonctionnement convenable de notre glorieuse bureaucratie, si vitale ! »3. Il est précisé que dans une longue boucle d’arguments, ces pétitions de principes peuvent être des sophismes très difficiles à déceler.
Une bonne manière de résumer les problèmes des fondements est d’utiliser le trilemme de Münchhausen4. Münchhausen est un baron, à la fois un personnage réel et fictif. Il est le héros d’une série de récits de l’allemand Rudolf Erich Raspe publiés en 1785. Parmi les nombreuses aventures fantastiques du baron, il y a celle où il s’extirpe lui et son cheval d’un marécage vaseux en se tirant par ses propres cheveux. En 1968, cette histoire fut transformée en expérience de pensée par Hans Albert. Elle montre par l’absurde qu’un individu pris dans un marécage ou une quelconque situation similaire ne peut pas s’en sortir uniquement avec les éléments de la situation (ici une traction par ses propres cheveux). Il en va de même pour la résolution du problème des fondements qui prend ici la forme d’un trilemme, d’après la formulation de Karl Popper. Ainsi, lorsqu’on tente de fonder la connaissance à partir des méthodes qui la produisent, alors on tombe soit dans un argument circulaire formant une pétition de principe (sophisme), soit dans une affirmation arbitraire de principes non justifiés, autoréférentiels ou tautologiques (dogmatisme), soit enfin dans une régression infinie.
Une autre version de ce problème des fondements fut déjà proposée au IIème siècle par le sceptique pyrrhonien Sextus Empiricus comme le problème d’Aggripa5, qui fonde par cinq affirmations (modes) le scepticisme. Dans les théories de la connaissance, la régression infinie est qualifiée d’infinitisme. Lorsqu’on affirme des postulats au nom d’une évidente nécessité (généralement physique) sans les justifier, il s’agit de fondationnalisme (je pense donc je suis). Enfin, lorsque les axiomes des théories sont vrais relativement à la structure cohérente qu’ils forment (bien que non démontrés individuellement), c’est-à-dire qu’ils se justifient mutuellement (argument circulaire), alors on parle de cohérentisme (axiomatique de Peano).
Les partisans d’un réalisme des idées et principes logiques diront que les définitions sont arbitraires et que nous pouvons les modifier à volonté à partir de manipulations axiomatiques (les transformer en autre chose). Pourtant, dans certains cas, cela est impossible car il existe des concepts dont nous sommes incapables de nous passer. Non seulement ces concepts sont toujours vrais dans les théories connues (tautologies) mais en plus nous sommes incapables de savoir à quoi ressemblerait une théorie sans eux. Il s’agit pas exemple des concepts d’existence, de conscience, de langage… Ces axiomes définissent l’outil qui permet leur existence. Modifier l’axiome implique de modifier l’outil et donc de perdre sa fonction première.
Le déterminisme de certaines définitions s’explique par le lien étroit entre intuition et perception. Pour qu’un concept logique soit satisfaisable, il doit résonner, directement ou après démonstration, avec notre intuition sensible fondamentale. Ca n’est pas toujours le cas car la cohérence logique est une chose, l’adéquation effective avec une situation réelle, un modèle ou système, en est une autre. Je peux avoir une intuition logique face à une situation qui n’est en fait qu’une analogie erronée avec une situation antérieure. Je peux concevoir une scène telle qu’elle n’est pas. C’est pourquoi les logiciens et les scientifiques utilisent généralement une deuxième méthode de vérification de la connaissance : la réalisation, autrement dit la tentative d’appliquer la théorie au monde des choses, à un modèle. En effet, tout ce qui est réel est possible et donc si la théorie s’applique dans un modèle, elle se doit satisfaisable et consistante dans ce modèle. C’est la dimension sémantique de la théorie. L’expérience empirique est liée à nos perceptions familières, celles qui font sens à notre esprit, que l’on estime « logique ». Ces perceptions nous permettent de faire appel à notre intuition ou notre instinct. Beaucoup de penseurs ont essayé d’écarter les perceptions pour laisser place aux idées pures, que ça soit par l’expérience, la logique, la psychologie ou la philosophie… mais ni Leibniz, ni Hilbert, ni Russel et Whitehead, ni Gödel, ni Einstein n’ont réussi.

 

2. L’expérience de la vérité

Il reste toujours une part d’intuition sensible dans la théorie, les axiomes indémontrables et irréfutables. Pour donner à la science une plus grande fiabilité, des penseurs ont développé une méthode de preuve fondée sur l’expérience empirique. Cette dernière vise à légitimer par les faits les axiomes de la théorie. Mais comment déterminer alors le degré d’universalité des résultats d’une expérience ?
Selon Goodman (1946)6 et son célèbre paradoxe, il est impossible de déduire une vérité universelle d’une expérience particulière (méthode inductive). Pour illustrer cette idée, le penseur inventa l’adjectif « vleu » signifiant « vert jusqu’à une certaine date t et bleu ensuite. » Sa question est : au nom de quoi pouvons-nous affirmer de manière certaine que l’adjectif vert est vrai et l’adjectif vleu est faux ? Bien qu’un objet qui apparaît vert à un instant t n’est pas bleu à cet instant, nous ne pouvons pas être certains qu’il ne le sera pas demain. Il en va ainsi du lever du soleil, de la gravité et de toutes les connaissances que nous tenons de nos expériences régulières. De même, il est impossible d’affirmer que « tous les hommes sont mortels » car rien ne m’empêche de penser que demain, un homme sera immortel. Je peux bien sûr dire « tous les hommes morts à ce jour étaient mortels », mais vous constaterez vous-même l’absurde banalité de cette proposition (tautologique).
Il y a eu d’autres paradoxes d’énoncés (Hempel…), mais tous critiquent un présupposé essentiel à la validité des inductions ; ils critiquent ce que Hume appelle le principe d’uniformité de la nature. J’ai trouvé sur internet une explication de ce principe d’uniformité qui résume bien, selon moi, les limites de l’induction : « Le principe d’uniformité de la nature, à savoir que telle cause sera toujours suivie de tel effet, ne peut être fondé puisqu’on ne peut pas fonder une expérience par une expérience sans commettre une pétition de principe. Une expérience unique ne donne jamais une cause, et plusieurs expériences qui mettent en jeu les mêmes causes ne donnent jamais qu’une probabilité. Seules toutes les manifestations d’un même phénomène pourraient faire œuvre de loi. Or, il est impossible à l’échelle humaine d’appréhender toutes les manifestations d’un phénomène. Pour Hume, si l’homme en arrive à déduire, dans sa vie courante, les mêmes effets des mêmes causes, c’est par l’habitude qu’il a pris depuis sa naissance de voir les premiers suivre les secondes. Ainsi, on ne peut tirer aucune connaissance nécessaire et universelle de l’expérience ». Malgré la logique implacable de cet énoncé, pourquoi tenons-nous tellement à la vérité des inductions ?
Dans l’absolu, l’intuition qui se trouve au fondement des théories logiques est elle-même un produit de l’expérience. Certes, il ne s’agit pas d’un protocole rigoureux, mais elle provient de perceptions empiriques. Ainsi, tout notre matériel réflexif serait issu de l’expérience. On peut travailler sur nos réseaux d’intuitions, modifier des définitions, des associations, mais toute pensée est spatio-temporelle au sens où elle ne peut appréhender des phénomènes qui échappent à nos quatre dimensions physiques, autrement dit qui ne sont pas dépendants d’un espace-temps. L’expérience ne pose pas de problème tant qu’elle ne tire pas de conclusion générale, de disposition, d’une expérience particulière, autrement dit tant qu’elle ne devient pas inductive. Pour reprendre l’exemple de Pierre Saint-Germier6 :
« La flexibilité est la disposition, pour un objet, de plier s’il est soumis à une pression suffisante. Un objet flexible non soumis à une pression suffisante ne fléchit pas. Son comportement manifeste, dans ce cas, ne permet pas de le distinguer des objets non flexibles. Pourtant, il est flexible, car soumis à une pression adéquate, il plierait […]. Or, d’un énoncé comprenant la notion de disposition se déduisent des énoncés portant sur des cas possibles, c’est-à-dire ne dénotant aucun objet réel dans l’univers de discours au moment où ces énoncés sont produits (contre-fait) […]. Par exemple : « si la barre avait été soumise à une pression suffisante, alors elle aurait fléchi ». Qu’est-ce qui nous permet d’accepter la validité de cette connexion conditionnelle entre deux « contre-faits », validité qui est pourtant affirmée dans le concept de disposition ? ». Nous acceptons parce que dans le cas d’une induction scientifique rigoureuse, l’expérience est répétée de manière à augmenter la probabilité de sa prédiction. Ce concept de probabilité est substantiel de celui d’induction.  Saint-Germier nous dit ainsi « exiger d’un critère de validité inductive qu’il détermine la vérité de l’énoncé induit, c’est exiger un critère observationnel pour des cas inobservables, c’est-à-dire, en somme, des compétences divinatoires ». Goodman estime que l’induction procède ainsi par « projection des prédicats », « il s’agit de savoir comment, en partant d’un prédicat manifeste comme « fléchi », nous pouvons effectivement l’étendre à un domaine plus vaste en définissant un prédicat corrélatif tel que « flexible » […].
L’enjeu est d’obtenir un critère de discrimination entre les prédicats projectibles et les prédicats non projectibles. Saint-Germier estime, dans son commentaire des théories de Goodman8, qu’il serait impossible de tenir des discours pertinents sur le monde sans recourir à des projections de prédicats donc à des inductions. Ainsi, il fait des « mondes possibles » résultant des projections des parties du monde réel. Ainsi, les théories probabilistes pourraient rejoindre (et c’est déjà le cas dans le monde de la physique) le cercle très fermé du réalisme. Goodman va jusqu’à montrer, dans son livre Manière de faire des mondes (2006), que « s’engager dans un rapport cognitif au monde, sur la voie du langage, ou sur d’autres voies symboliques, ce n’est pas seulement comprendre le monde, mais encore participer à sa construction ».

 

La théorie des mondes possibles9 fut d’abord formulée par Leibniz (qui considère que Dieu a créé plusieurs mondes et que le nôtre est le meilleur possible, idée critiquée par Voltaire dans Candide). Elle s’est développée au XIXème siècle avec la logique modale qui intègre les notions de nécessité, de possibilité, de contingence… L’approche sémantique et notamment celle de Kripke est fondamentale. L’idée est simple : il existe une pluralité de mondes, de modèles, dans lesquels peuvent se réaliser des propositions. Ainsi, dire « il est possible que » revient à dire « il est vrai que ». Certains mondes sont interconnectés, ce qui permet une forme de communication. Par exemple, notre monde réel semble connecté avec des mondes « possibles » au sens où nous sommes en mesure de les imaginer. Cette conception prend à contrepied la philosophie naturelle et les discours scientifiques qui estiment que seul le monde sensible est vrai. Rigoureusement, « un modèle de Kripke est un triplet (W, R, h) où W est un ensemble de mondes dit univers, R une relation binaire dite d’accessibilité et h une fonction de valuation sur les atomes d’un langage propositionnel L ». La fonction de valuation est ce qui permet de dire si une proposition est vraie ou fausse dans un monde.
Comme on peut le lire sur l’article wikipédia, certains penseurs de cette théorie considèrent que les mondes possibles existent de manière concrète, d’autres qu’ils ne sont que des abstractions. Lewis, philosophe américain du XXème siècle, pense que d’autres mondes existent. Il déclare dans son essai On the plurality of Worlds (1986) : « « Y a-t-il d’autres mondes ? Je dis qu’il y en a. Je plaide pour la pluralité des mondes, ou réalisme modal… qui soutient que notre monde n’est qu’un monde parmi de nombreux autres. […] Les mondes sont isolés : il n’y a ni relations spatiotemporelles entre des choses qui appartiennent à des mondes différents, ni une chose survenant dans un monde qui cause la survenance de quelque chose dans un autre monde. ».
Hugh Everett (mathématicien américain du XXème siècle) s’est appuyé sur la théorie des mondes possibles pour développer la théorie des mondes multiples, une interprétation du problème de la mesure quantique à partir des équations de Schrödinger10. Là où un monde possible peut-être logiquement possible mais physiquement impossible, les mondes multiples sont tous physiquement possibles. Everett considère l’univers comme une surface d’eau qui subirait des chocs. La quantité d’eau ne varie pas mais les ondes qui se dégagent des chocs diffèrent. Elles sont autant de mondes possibles.
Pour appréhender ce concept de mondes possibles de manière artistique, je vous invite à regarder le film Mr Nobody (2009) de Dormael. Il est question de la relation entre plusieurs mondes possibles et des paradoxes inhérents à la question du choix :

pko

https://www.youtube.com/watch?v=SRmaWnuMBnc
Si nous pouvons raisonnablement imaginer des théories ouvertes sur d’autres mondes, c’est bien parce que dans une certaine mesure, nous ne pouvons pas être certains de nos connaissances sensibles. L’induction est le processus permettant de définir notre réalité vraie sur le critère de l’expérience sensible. Selon Maurice Boudot, « sans induction nous en sérions réduits au pur flux du vécu ». Pour lui (et le courant constructiviste/néo-positiviste), un fait est signifiant si on peut affirmer sa vérité dans des circonstances données (un monde ou modèle). L’induction permet de définir précisément les circonstances de vérité d’un fait car c’est sur elles qu’elle est fondée.
La puissance de l’induction, c’est aussi son pouvoir prédictif. Autrement dit, bien que la régularité des perceptions phénoménologiques soit incertaine, elle est dans bien des cas étudiés hautement probable. Cela permet de faire des prédictions pour l’action. Ainsi, la méthode inductive correspond très bien aux besoins d’information des activités humaines. Certains pensent d’ailleurs que plutôt que de parler de connaissance scientifique, il faudrait parler de théories de l’action. La connaissance ne tire sa validité que de son pouvoir d’action, « l’induction devrait être légitimée à titre de stratégie optimale ». Cette prise de position de la société occidentale en faveur de la méthode inductive et de la science expérimentale (ce qui est sensiblement la même chose) pose de nombreux problèmes éthiques. Longtemps considérée comme la démarche la plus légitime, elle a conduit à de nombreuses discriminations culturelles, mises en évidence par les anthropologues modernes comme Levi-Strauss (La pensée sauvage, 1962).
Si l’induction pose problème, c’est parce que la généralisation du fait circonstanciel à des situations hypothétiques est toujours incertaine. Pour mesurer la certitude des théories, les chercheurs ont donc développé des théories probabilistes de l’induction.
Dans les sciences inductives, toute connaissance est une probabilité. La probabilité est une grandeur qui dépend de l’état de connaissance d’un sujet particulier, donc elle est relative à la fois à notre connaissance et à notre ignorance. Cette incertitude a deux origines possibles : si la réalité est déterminée par des lois parfaitement immuables, alors l’incertitude est issue d’une limite de nos capacités techniques et perceptives. Si au contraire la réalité est incertaine par nature (les lois sont variables aléatoirement), alors même des capacités techniques et perceptives meilleures ne pourront pas nous offrir une connaissance certaine.
Si deux évènements sont équiprobables, c’est parce qu’on n’a pas connaissance d’un modèle dans lequel ils se distinguent. Nous savons que nous sommes incapables de démontrer certains concepts. Ainsi, notre connaissance d’une stabilité est par exemple relative à notre ignorance de l’instabilité.  Il reste de l’ignorance à l’origine. Toute théorie est probable et toute égalité est une équiprobabilité. Pour exprimer cette idée de manière topologique, nous sommes incapables de rendre une mesure particulière vraie indépendamment des probabilités car toute mesure a lieu sur une portion finie d’espace-temps et rien ne permet d’affirmer la valeur du résultat sur une autre portion.
La théorie probabiliste de Hans Reichenbach (philosophe allemand du XXème siècle) suppose un double système de suites : celle qui attribue une probabilité à un évènement particulier dans une suite d’évènements (suite naturelle) et celle qui exprime l’évolution de la probabilité de l’évènement lorsqu’on le fait tendre vers l’infini (suite de généralisation). La généralisation qui résulte du deuxième système est elle-même une suite qui sera plus ou moins proche de la suite naturelle selon le degré de similitude entre les faits réels et les faits du modèle. L’écart entre la suite de généralisation et la suite naturelle décrit le poids de la probabilité. Ce poids tient lieu de valeur de vérité. Théoriquement, nous sommes capables de prédire, à condition que les lois du modèle soient stables, la limite vers laquelle tend une mesure. Il s’agit là d’une induction. Il est important de noter que les probabilités ne s’intéressent pas à l’incertitude de l’existence, mais à l’incertitude de l’existence possible car elles sont généralement appliquées à des évènements qui n’ont pas encore eu lieu.
Au-delà de l’incertitude qui l’accompagne, l’induction est confrontée au problème du choix. Comment sélectionner une perception plutôt qu’une autre ? Selon quels critères ? Karl Popper dans La Logique de la découverte scientifique (1934), estime que c’est une illusion de croire qu’il existe d’autres formes de raisonnement que les raisonnements déductifs car toute induction impliquerait une discrimination dans les faits relevés, un choix d’hypothèse qui, fondamentalement, se fonde sur des critères arbitraires : la théorie préexiste à l’expérience qui ne peut la confirmer avec certitude. Car au nom de quel principe choisit-on une cause plutôt qu’une autre ? Putnam explique en 1983 qu’un incendie de forêt peut-être déclenché « par » une cigarette, mais il faut également inclure dans les causes la sècheresse, la température, l’addiction du fumeur… En statistique, un coefficient de détermination noté R2 permet de déterminer le pouvoir explicatif d’une relation causale modélisée. Mais ce coefficient reste relatif aux mesures effectuées.
Il n’y aurait donc aucune réalité de fait, se révélant objectivement et entièrement. Nous construisons des connaissances à partir de déductions et d’inductions mais ces connaissances sont, dans une certaine mesure, soumises à l’arbitraire. Existe-t-il alors des lois scientifiques ? Selon l’essentialisme de Kripke (1972), une loi doit, pour être est loi, être douée d’une modalité « aléthique », c’est-à-dire être toujours valable dans son modèle d’application. Sinon il ne s’agit plus d’une loi mais d’une régularité. Face à la finitude de nos outils de mesure et de formalisation des théories, l’essentialisme admet la possibilité que nous ne connaissions aucune loi véritable, seulement des lois relatives.

 

 Conclusion

Pour conclure sur cette démarche inductive (dont j’ai conscience de n’avoir dressé qu’un grossier panorama) et théorie de la preuve en science expérimentale, je souhaite rappeler que le postulat essentiel de la méthode inductive est que le futur ressemblera au passé. Cela est valable aussi longtemps que les « lois » de notre univers, c’est-à-dire les régularités que l’on estime nécessaires à l’existence des phénomènes en général, ne changent pas. L’enjeu de ma recherche n’est pas de me débarrasser de la connaissance commune et subjective. Comme dit Russsel, « non que la connaissance commune doive être vraie, mais nous ne possédons aucun genre de connaissance radicalement différent, qui nous viendrait d’une autre source. Le scepticisme universel, logiquement irréfutable, est pratiquement stérile ». L’objectif clair de Russel est donc de clarifier nos connaissances communes, pas de les nier. Selon lui, il faut tenter d’augmenter le degré de certitude de nos connaissances, par la logique et l’expérience.
J’accepte notre dépendance à une subjectivité. Cependant, je n’accepte pas que notre perspective de progrès réside dans l’augmentation du degré de certitude de nos connaissances communes. Les perceptions ne sont pas bornées par des limites définitives. Selon moi, il est possible d’élargir notre subjectivité perceptive et ainsi de la redéfinir. En apprendre plus sur nos capacités perceptives nous obligera également à créer de nouveaux outils de formalisation de nos connaissances. A l’extrême, y a-t-il quelque chose nous interdisant de rêver à une subjectivité omnisciente ? Qu’est-ce qui distinguerait alors la subjectivité de l’objectivité ?
ps : voici une podcast incroyable qui reprend et approfondi très très bien (c’est à dire à la fois justement et simplement) ce que j’ai dit à propos de la logique, de la démonstration et plus particulièrement des théorèmes d’incomplétude de Gödel. Je vous recommande vraiment de l’écouter : http://www.podcastscience.fm/tag/philosophie/

 


  1. https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_compl%C3%A9tude_de_G%C3%B6del
  1. Cassou-Noguès Pierre, Gödel, 2003, Éditions Les Belles Lettres.
  1. https://fr.wikipedia.org/wiki/Argument_circulaire
  1. https://en.wikipedia.org/wiki/M%C3%BCnchhausen_trilemma
  1. https://fr.wikipedia.org/wiki/Agrippa_(philosophe)
  1. https://fr.wikipedia.org/wiki/Paradoxe_de_Goodman
  1. GOODMAN N., Faits, fictions et prédictions, « la nouvelle énigme de l’induction », Paris, Les éditions de Minuit, 1984.
  1. http://traces.revues.org/2793?lang=en
  1. https://fr.wikipedia.org/wiki/Mondes_possibles
  1. https://fr.wikipedia.org/wiki/Th%C3%A9orie_d%27Everett

 

2.3 Le discours scientifique et la logique

Introduction

Enfin ! ZE article complètement chéper dont la compréhension sera réservée aux plus voltigeuses des têtes pensantes que vous êtes (je ne pense pas aux nobliaux). SPOILER ALERT ! Vous allez entendre parler de logique, d’abduction (et ça n’est pas Sylvain Duriff qui le dit), de l’énigme du cinquième postulat, de Luke Skywalker, de Peano-chio et d’axiomatisation analytique de la logique du calcul des prédicats.
Cette accroche ne signifie pas que j’ai changé ma ligne éditoriale, ni que je travaille maintenant sous cocaïne. Simplement, sachez que je suis disponible pour répondre à toutes vos questions et critiques concernant cet article qui est je pense moins abordable que les autres (d’où mes efforts pour le vendre).
Commentaire général sur ma recherche jusqu’à présent : j’aurais pu choisir d’éviter sagement toutes ces thématiques. Je vois déjà un professeur me dire qu’il est idiot d’ouvrir des champs aussi larges et complexes pour se contenter de les effleurer, voire de mal les présenter. J’admets. J’assume. Mais je préfère essayer, quitte à me vautrer. Et puis ça n’est pas dans mes habitudes d’effleurer comme un papillon. Je pique plutôt, telle la guêpe. Mais on n’est jamais à l’abri d’une erreur… prudence, toujours. Là où vous êtes chanceux, c’est que j’ai tenté d’éclaircir et de simplifier le contenu d’ouvrages encore moins abordables. Ne me remerciez pas, accrochez vos neurones et rendez-vous dans les commentaires.

 1. La logique ou la science intuitive

Qu’est-ce que la logique ?1 J’avoue ne pas savoir par où commencer. Je me suis formé comme j’ai pu à cette branche très particulière de la philosophie, et la complexité de ce que j’ai découvert rend difficile un compte rendu sous forme d’article. Fondamentalement, la logique est un langage et un discours particuliers dont l’objectif est de distinguer le vrai du faux. Contrairement à l’expérimentation scientifique, la logique n’a pas besoin de tester la vérité d’une assertion de manière empirique. Le terme vient en effet du grec logos qui signifie relation. Ainsi, c’est dans la mise en relation des concepts par le langage que la logique est capable de distinguer le vrai du faux. Le travail du logicien consiste à construire un langage qui autorise certaines relations, en interdit d’autres et permet dans tous les cas de les exprimer clairement.
Concrètement, un langage logique est composé, comme tout langage, de symboles que l’on divise en deux catégories : les signes logiques et les signes non logiques. On peut inventer autant de signes non logiques qu’il existe de phénomènes à leur associer. Ces phénomènes sont soit des sujets (chose signifiée), soit des prédicats (qualité de la chose signifiée). Les signes logiques sont utilisés pour mettre en relation les signes non logiques. Leur nombre et leur signification dépendent de la vérité que le logicien valorise. Le choix d’un langage formel plutôt qu’un autre dépend de l’usage qu’on entend en faire. De l’antiquité jusqu’à la fin du XIXème siècle, une logique dite classique s’imposait comme unique modèle de vérité. La logique classique regroupe traditionnellement le calcul des propositions et le calcul des prédicats. Depuis le XIXème, d’autres logiques et notamment le modèle intuitionniste se sont développées mais dans la mesure où les théories scientifiques actuelles s’appuient principalement sur des lois de la logique classique, il est essentiel pour nous de comprendre ces lois avant de les remettre en question.
Les premiers logiciens ont pour tâche de déterminer quels sont les critères de vérité dont nous pouvons voire devons être certains. On trouve une première énumération de ces critères dans l’Organon d’Aristote (IVème siècle av JC). Ils sont au nombre de 3 :
– La loi d’identité affirme d’abord que « tout ce qui est, est », donc A est A, toute chose est identique à elle-même. Cela est essentiel car pour affirmer que A implique B, il faut que A soit identifiable.
– La loi de non-contradiction interdit à un énoncé et à sa négation d’être vrais tous les deux. Autrement dit, on ne peut avoir en même temps P et non-P vrais. Selon Aristote dans sa Métaphysique, « il est impossible qu’un même attribut appartienne et n’appartienne pas en même temps et sous le même rapport à une même chose ». Pour beaucoup de penseurs, ce principe est nécessaire dès lors que l’on ouvre la bouche car dire quelque chose, c’est rejeter autre chose. La contradiction serait alors la frontière même entre le pensable et l’impensable. Cette loi se traduit par le principe
– La loi du tiers-exclu affirme que face à deux énoncés dont l’un est la négation de l’autre, au moins l’un des deux est vrai. Ainsi, ce principe précise la loi de non-contradiction en rejetant tout état intermédiaire entre l’être et le non-être (logique bivalente), « tout doit ou bien être, ou bien ne pas être ». Cette dernière loi fait échos au principe de non-contradiction, mais le complète car si ce-dernier précise qu’il est impossible que deux propositions contradictoires soient vraies en même temps, il n’interdit pas qu’elles soient toutes les deux fausses, laissant place à un état intermédiaire (un « demi-être »). Cette loi permet enfin de raisonner par l’absurde (si non A est impossible, alors on a A).
Dans la continuité des travaux d’Aristote, les langages logiques se sont multipliés et mathématisés. Autrement dit, les mots furent remplacés par des symboles et les phrases par des formules. Cela permet de créer des énoncés plus univoques. Ce rapprochement de la logique et des mathématiques est relativement récent : XVIIème siècle avec Leibniz mais surtout XIXème avec Boole puis Frege et son Idéographie (1879). Pour justifier cette démarche, Frege déclare : « c’est une tâche de la philosophie de rompre la domination du mot sur l’esprit humain en dévoilant les illusions qui naissent presqu’inévitablement de l’utilisation de la langue pour l’expression de la relation entre les concepts ». Voici un exemple de formule logique (l’implication matérielle) :  . Cette formule signifie que « non A implique non B » implique nécessairement « B implique A ». Sur le tableau ci-dessous, vous trouverez d’autres formules fondamentales de la logique propositionnelle (raisonnement par l’absurde, conjonction, négation d’une disjonction, négation d’une implication matérielle et équivalence matérielle) :

Ima1

 

Chaque formule est constituée de connecteurs logiques (signes logiques) et d’une ou plusieurs propositions (A, B, Q1, Q2…). Une proposition est un énoncé qui admet potentiellement une valeur de vérité ou de fausseté. Par exemple, « il pleut » est une proposition dans le modèle terrestre car soit il pleut et la proposition est vraie, soit il ne pleut pas et la proposition est fausse. Je peux être incapable de savoir s’il pleut ou pas, mais je sais qu’en théorie, on doit opter pour l’un ou pour l’autre. En revanche, « fête de la musique » (et oui c’est le mois de juin) n’est pas une proposition car cet énoncé n’attend pas une valeur de vérité ou de fausseté. Les connecteurs logiques sont les fameuses relations logiques qui lient des propositions. La plupart sont considérés comme les propriétés de la pensée (Catégories aristotéliciennes, Tables kantiennes), la question étant de savoir si nous les connaissons toutes. Nous ne pouvons pas parler ici des tous les connecteurs logiques qui existent et des langages correspondant.
L’idée essentielle à retenir, c’est la capacité des langages logiques à formuler des propositions et à les connecter. A quoi servent ces énoncés logiques ? Comment les exploiter notamment dans les théories scientifiques ? Quelle est la valeur de leur vérité ? Ses limites ?
En attribuant une valeur de vérité à des propositions et en interprétant les conséquences de cette valuation à partir de lois fondamentales (critères de vérité comme ceux d’Aristote par exemple) et des connecteurs logiques du langage logique, on peut créer de nouvelles propositions dont la valeur de vérité est relative à celle des propositions initiales. Si la première valuation est correcte, la deuxième le sera aussi car les lois fondamentales sont incontestables. Par exemple, si j’affirme que dans un contexte donné que A ET non B est vrai, alors je peux affirmer pour ce même contexte qu’en vertu du principe de non contradiction, non A et B est faux, de même que non A et non B (en vertu de la conjonction). Nous venons ici de démontrer par déduction la fausseté de « non A et B ». Les propositions initiales sont appelées prémisses du raisonnement tandis que les propositions finales sont les conclusions. On constate que si la vérité des prémisses est déterminée par un jugement externe aux lois du langage logique, celle des conclusions en dépend entièrement. Ainsi, dès lors que les prémisses sont acceptées vraies, les conclusions le sont également en vertu des règles logiques. Ce qui permet de déduire des propositions conclusives à partir de prémisses, c’est le cadre normatif imposé par la signification des symboles logiques du langage.
J’ai employé dans le paragraphe précédent l’expression « démontrer par déduction ». Qu’est-ce que cela signifie ? Rigoureusement, une démonstration est une suite finie de propositions telle que chacune est soit un axiome, soit la conséquence d’une proposition précédente par application d’une règle du langage logique. On parle aussi de règles de déduction ou d’axiomes du langage. Un axiome (ou postulat) est une proposition acceptée mais non démontrée. Dans l’exemple du paragraphe précédent, nous avons une suite de deux propositions. La première proposition est un axiome car nous n’avons pas démontré pourquoi « A et non B » est estimée vrai. La deuxième proposition est une conséquence logique de l’axiome initial car elle explicite les informations (implicites) que les lois fondamentales et les connecteurs logiques ajoutent à la prémisse. Cette explicitation est ce qu’on appel une inférence. Pour qu’une conclusion soit conséquence logique des prémisses, elle doit toujours être vraie quand les prémisses sont vraies. Si les prémisses sont ambigües, alors le raisonnement ne peut aboutir. La dernière formule d’une démonstration est un théorème, c’est-à-dire une formule pour laquelle il existe une démonstration.
Ce ne sont pas les choses elles-mêmes qui sont liées par l’inférence mais certaines caractéristiques partagées. Moins ces caractéristiques sont partagées, plus l’inférence se limite à un modèle restreint. L’inférence se manifeste naturellement au quotidien, elle est liée à l’habitude d’associer certaines caractéristiques à certaines choses. Grâce à la mémoire, l’inférence permet d’étendre (ou projeter) un phénomène se manifestant dans un espace-temps observé à un phénomène se manifestant dans un espace-temps non observé.
L’induction, la déduction et l’abduction sont les trois formes communes de raisonnement par inférence (ou démonstration). La déduction est la plus fondamentale car les autres formes en dépendent. Si une hypothèse à étudier est acceptée par postulat avant d’être démontrée, alors le raisonnement est purement déductif. Si l’hypothèse doit être vérifiée par une observation, généralement empirique, alors le raisonnement est inductif. Si enfin l’hypothèse est justifiée par discrimination des autres hypothèses possibles, alors le raisonnement est abductif. Fondamentalement, Russel critique la légitimité de l’induction car il estime, à juste titre il me semble, qu’elle se réduit à une déduction qui, plutôt que de se fonder sur des intuitions empiriques, se fonde sur des faits empiriques.
La causalité, qui est en fait identifiée grâce à l’induction (primaire ou secondaire) est ainsi définie par Russel (La méthode scientifique en philosophie, 1914)2 : « Si, dans un grand nombre d’exemples, une chose d’un certain genre est associée, d’une certaine manière, à une chose d’un certain autre genre, il est probable qu’une chose du premier genre soit toujours pareillement associée à une chose de l’autre genre ; et, à mesure que croît le nombre d’exemples, la probabilité se rapproche indéfiniment de la certitude ».
Je souhaite maintenant revenir au principe fondamental de la méthode démonstrative : chaque proposition est soit la conséquence d’une autre par application d’une règle de déduction, soit un axiome. Pour fonder la vérité des propositions, il est donc nécessaire de fonder celle des axiomes et des règles de déduction (qui sont en fait des axiomes). Je vous propose d’étudier deux fondements majeurs de la vérité des axiomes : l’intuition et l’expérience empirique.

 2. Intuition et vérité

L’intuition suppose de ne pas démontrer la vérité de ses axiomes par l’expérience mais de les justifier soit par une démonstration logique, soit par l’évidence.
Nous avons déjà étudié ce qu’implique une démonstration logique (règles de déduction, prémisses, conclusion, inférence, axiomes…). Aussi allons-nous ici nous intéresser à l’évidence. Cette dernière concerne les axiomes des théories qu’il est impossible de démontrer par choix ou par nécessité. Mais pourquoi nous avons « foi » dans certains axiomes et pas d’en d’autres ? La réponse donnée est que certains axiomes sont nécessaires intuitivement, par évidence. Autrement-dit, nous croyons en eux sans avoir besoin de preuve logique. Toute démonstration est ainsi une régression conceptuelle qui se poursuit jusqu’à ce que les propositions soient jugées « évidentes » sans qu’il soit nécessaire (ou possible) de démontrer cette évidence. Hume dirait qu’on passe de pensées complexes à des pensées simples, issues de nos impressions. Peut-on maintenant définir plus précisément ce qu’est une intuition ? Hume l’associe à une habitude (nous avons parlé de perception familière) perceptive. Autrement dit, est intuitif ce qui est ou a été perçu de manière régulière par nos sens.
La logique et la science sont très critiques à l’égard de l’intuition car tandis que leur démarche vise à tout justifier par positionnement relatif dans un réseau de définitions ou de propositions, l’intuition est une idée non justifiée. Ainsi, on ne peut pas savoir dans un premier temps si une intuition est correcte ou pas. Il faut « avoir confiance » comme dit Obi Wan au jeune Luke Skywalker qui s’apprête à détruire l’étoile noire dans l’épisode 4 de la Guerre des Etoiles (http://www.dailymotion.com/video/x2tfaiu)… Bergson est aussi un défenseur de l’intuition. Russel le cite pour le critiquer (Introduction à la Métaphysique) : « Il y a deux manières profondément différentes de connaître une chose. La première implique qu’on tourne autour de cette chose ; la seconde qu’on entre en elle. La première dépend du point de vue où l’on se place et des symboles par lesquels on s’exprime. Le seconde ne se prend d’aucun point de vue et ne s’appuie sur aucun symbole. De la première connaissance on dira qu’elle s’arrête au relatif ; de la seconde, là où elle est possible, qu’elle atteint l’absolu ». On observe bien ici la différence entre l’observation extérieure du phénomène, relative à l’entendement, la raison, et l’observation intérieure, relative à l’intuition, la communion sensible.
Bergson développe une approche très héraclitienne du réel : pour lui, tout produit de l’entendement n’est que fiction d’une réalité sans catégorie, où tout s’écoule. La vérité réside dans une immersion au sein de la réalité intuitive, évidente. Le philosophe prend exemple sur la nature : les phénomènes naturels sont purement instinctifs et pourtant ils réalisent des prouesses que l’homme ne peut qu’à peine effleurer avec l’entendement. A Schopenhauer de renchérir à propos de la logique : « c’est comme si un homme se coupait les deux jambes afin de marcher avec des béquilles ». Selon eux, la raison éloigne plus qu’elle ne rapproche de la réalité.

 

Les critiques de l’intuition ont eux aussi des arguments solides. Russel reproche à l’intuition d’être l’expression d’anciennes manières d’agir et de traduire ainsi une parenté avec les générations passées. L’intuition, ou l’instinct comme il dit, seraient incapables de faire face à la nouveauté, d’innover : « l’instinct est admirable dans la sphère de l’ordinaire mais il est totalement incompétent dès que le milieu change ». Développer cette idée nous amènerait dans des considérations physiologiques et évolutionnistes (qu’on traitera plus tard) mais il est vrai que l’instinct est spontanément attribué aux espèces non humaines. Or, ces espèces ont la particularité de persévérer dans leur nature en faisant preuve de capacités d’adaptation très limitées dans le temps (contrairement à l’homme). Bien que la critique de l’intuition soit légitime, il semble que nous ne savons pas nous en passer tout à fait. En effet, que l’on démontre une théorie par la logique ou par l’expérience, l’intuition sensible joue toujours un rôle fondamental.
 Image2
On pourrait penser que les partisans de la méthode démonstrative ne peuvent accepter comme vraies que les propositions démontrées et rejeter toute intuition. Mais est-ce seulement possible ?
Si je justifie une proposition par une proposition antérieure, je dois à nouveau justifier la proposition antérieure par une autre proposition. Cette quête démonstrative conduit à une régression infinie, de propositions en propositions, et comme l’homme a des moyens de recherche limités dans l’espace et le temps, toutes les conclusions démonstratives, même mathématiques, se fondent à l’origine sur un axiome, c’est-à-dire une proposition admise, non démontrée, intuitive. Une discipline est née de l’étude des axiomes : l’axiomatique. Elle vise à mettre en évidence les axiomes que renferment les théories. Sont-ils vraiment des axiomes ? Y en a-t-il suffisamment ?
Tout d’abord, l’axiome est un terme ou une proposition fondamentales, définit par trois caractéristiques : il doit être indémontrable dans la théorie, indépendant de la théorie et absolument nécessaire à la cohérence de la théorie. Si l’axiome est démontrable par des propositions antérieures, alors il ne s’agit plus du fondement de la théorie. S’il n’est pas indépendant, cela signifie que son existence est au moins en partie conditionnée par la théorie qu’il fonde. Autrement dit, il ne fonde à nouveau plus entièrement la théorie. L’indépendance n’est pas indispensable, mais elle signifie une surabondance de propositions premières, ce que le principe d’économie déconseille. Mais attention, la pauvreté de la langue de base a généralement pour effet d’allonger le discours. Par exemple, les opérateurs de la logique classique de premier ordre peuvent tous être obtenus à partir de la négation et d’un connecteur logique (conjonction, disjonction ou implication). Plus radicalement, les ordinateurs ne travaillent qu’à partir de suites de 0 et de 1. Cela rend cependant les langages moins intelligibles pour l’esprit humain. Enfin, l’axiome doit être nécessaire à la cohérence de la théorie car sinon, le principe d’économie nous encourage à l’ignorer. Nier le rôle fondateur d’un bon axiome d’une théorie revient à nier la possibilité d’existence même de la théorie.
Par exemple, si je fonde une théorie en commençant par dire « le langage existe », il s’agit d’un axiome car je ne démontre pas l’existence du langage mais je l’admets nécessaire à l’énonciation même de la théorie. Si je commence ma démonstration en posant comme axiome « le langage n’existe pas », alors tout ce que je dirai par la suite sera contradictoire avec cet axiome (car dire c’est admettre l’existence du langage). Si un axiome ne peut être remis en cause à l’intérieur d’une théorie, c’est-à-dire s’il ne permet pas de démontrer une proposition et sa négation, alors il est non contradictoire et forme avec la théorie un ensemble consistant. Un système de postulats est complet si tous les énoncés qui sont conséquence logique des axiomes peuvent être déduits à partir de ces axiomes. Si on ne peut que décider de la démontrabilité d’une proposition (possible de trancher entre vraie ou fausse), sans la démontrer vraiment, alors le système est seulement décidable. L’incomplétude est moins importante que l’inconsistance car elle résulte d’une imperfection de la théorie et non d’une contradiction logique.
Fondamentalement, toute théorie est composée de propositions premières et de termes premiers. Une proposition première est composée de termes premiers et l’ensemble des axiomes de la théorie est composé de propositions premières. Un terme premier est un symbole dont il faut admettre la signification pour commencer à définir. La proposition première est un ensemble de symboles dont il faut admettre la signification pour commencer à démontrer.
Rigoureusement, l’axiomatique est « un système où soient totalement explicités les termes non définis et les propositions non démontrées ». L’objectif est donc d’identifier les propositions premières qui fondent la connaissance pour mieux les étudier, les éprouver. Lorsque ses axiomes sont identifiés, une théorie est dite axiomatisée. Robert Blanché développe, dans le premier chapitre de son ouvrage L’axiomatique (1959), l’exemple de l’axiomatisation de la géométrie classique à partir notamment des Eléments d’Euclide…
Euclide (300 av JC) est probablement le premier auteur à proposer une démarche axiomatique. Il démontre et définit tout ce qu’il dit, à part bien sûr les propositions et termes premiers qui sont énoncés clairement dans les Eléments. L’évidence des axiomes d’Euclide est si puissante que personne ne parvint à les critiquer correctement avant le XIXème siècle. La célèbre 29ème proposition d’Euclide, son cinquième postulat, fut la plus étudiée. Cette proposition nous force à admettre, pour sa démonstration, que par un point hors d’une droite, ne passe qu’une seule parallèle à cette droite. Il découle de cette proposition que la somme des angles d’un triangle est égale à deux droits. Hors, les penseurs ont estimé que cette proposition n’est pas suffisamment intuitive pour se passer de démonstration… Le problème, c’est qu’à ce jour, aucune démonstration directe n’a réussi à justifier le cinquième postulat euclidien. Ainsi, l’ensemble de la communauté scientifique est unanime pour dire qu’on ne peut ni en faire un théorème (donc le démontrer), ni le supprimer (car alors la plupart des théorèmes de la théorie sont modifiés).
Les recherches ont cependant porté leurs fruits d’une autre manière. Nous avons découvert que si la suppression du postulat des parallèles entraîne une réinterprétation de toute la théorie géométrique, elle n’entraîne pas de contradiction logique à condition qu’on abandonne notre intuition classique, naturelle (espace-temps de l’expérience quotidienne). Ainsi, les chercheurs ont reconnu l’existence de nouveaux systèmes géométriques fondés sur des nouveaux axiomes. Des mathématiciens comme Gauss, Lobatchevski ou Poincaré ont proposé, notamment à partir du XIXème siècle, des géométries non euclidiennes (sphérique, elliptique, hyperbolique…) qui n’utilisent pas le cinquième postulat d’Euclide4. La géométrie hyperbolique admet par exemple que par un point hors d’une droite, il passe une infinité de parallèles à cette droite (sur l’image, d1 d2 et d3 sont toutes parallèles à D).
dgh
Cela suppose ainsi que la somme des angles d’un triangle est supérieure à deux droits. Récemment, nous avons découvert que certaines de ces géométries s’appliquaient à des portions particulières de l’espace-temps. La géométrie hyperbolique est par exemple la règle au voisinage des trous noirs. Ce tournant géométrique est  intéressant car il montre que ce qui est intuitif n’est pas forcément ce qui est habituel et si nous ne pouvons démontrer certaines propositions, c’est justement parce qu’elles ouvrent sur des intuitions moins « classiques ».
L’histoire de la 29ème proposition et les débuts de l’axiomatique nous enseignent que les sciences n’ont pas d’axiomes vrais dans l’absolu. Tout axiome n’est qu’une hypothèse plus ou moins habituel et toute hypothèse est acceptable, sa validité dépendant des caractéristiques du système de réalisation considéré (moins il est habituel, moins nous y aurons accès facilement). Un postulat vrai dans un système peut devenir faux dans un autre, tout dépend de la structure logique considérée. Ainsi, Blanché nous dit que « des théorèmes incompatibles entre eux peuvent également être vrais, pourvu qu’on les rapporte à des systèmes différents ». Souvent, c’est notre enfermement dans un système particulier, celui de notre expérience quotidienne (habituelle), qui limite la logique.
Bien sûr, cette démarche ne libère pas les théories des axiomes. Elle se contente de les expliciter. De plus, elle ne libère pas l’intuition rationnelle de l’observation empirique car les axiomes ne naissent pas de rien (problème heuristique). La géométrie hyperbolique est intuitive grâce à une analogie avec des surfaces hyperboliques qu’il est possible de rencontrer dans la nature. De même, on constate qu’une intuition rationnelle est d’autant plus complexe à saisir que son système de réalisation est difficile à percevoir. Un phénomène de complexification touche particulièrement les théories modernes (mécanique quantique par exemple). Leur réalisation est de plus en plus éloignée de notre expérience et on est ainsi en droit de se demander si elles ne perdent pas ainsi en pertinence.
Deux grandes méthodes sont généralement utilisées pour axiomatiser une théorie, je souhaite présenter deux méthodes traditionnelles permettant d’axiomatiser une théorie.
La méthode analytique, héritée de Kant3, consiste à expliciter les caractéristiques de l’axiome (terme ou proposition) par réduction à des axiomes antérieurs (appartenant généralement à une autre théorie). En postulant la non-contradiction des axiomes antérieurs avec ceux de la théorie étudiée, on peut proposer une nouvelle interprétation de la théorie qui sera par extension elle aussi non-contradictoire. D’une manière générale, plus on remonte vers des théories antérieures, plus on gagne en consistance. L’arithmétique classique (science des nombres) est ainsi souvent choisie comme témoin de la consistance d’autres théories car une fois traduite mathématiquement, une idée est très difficilement contestable. La réduction peut se faire de propositions en propositions, de termes en termes, ou de propositions en termes et de termes en propositions.
Kant donne l’exemple d’une réduction analytique à partir du terme corps en disant « tout corps est étendu ». L’extension spatiale est un concept différent de celui de corps, mais elle est supposée par le concept de corps, inhérent à son existence. Autrement dit, sans espace, pas de corps. L’étendu est donc un terme antérieur à partir duquel on peut déduire le concept de corps (cf interprétation à partir de la théorie des ensembles). Définir le corps comme une étendu permet d’expliciter une de ses caractéristiques fondamentales. Rigoureusement, on peut considérer cette méthode comme tautologique car si l’étendu est supposée par le corps, alors l’expliciter ne crée par d’information mais ne fait que rendre explicite l’implicite. Cette méthode analytique est ce qu’on appelle une définition explicite (ou intensive, ou connotative)5.
L’approche synthétique consiste à associer un axiome à un autre. Ainsi, l’axiome n’est pas défini en lui-même mais par la relation qu’il entretient avec d’autres concepts. Par conséquent, la définition est implicite (ou extensive, ou dénotative) : sa vérité est relative au système formel qu’elle énonce. Cette approche fait souvent perdre en universalité. En effet, le concept est vrai relativement à une constellation de concepts qui, contrairement à la méthode analytique, ne sont pas nécessaires à son existence en général, mais seulement à son existence dans la théorie axiomatisée considérée. Il s’agit par exemple d’associer au concept de corps celui de poids. Il existe des corps sans poids (neutrinos…) mais dans la plupart des systèmes où l’on fait intervenir le concept de corps, ce dernier en a un. L’approche synthétique est la seule qui devient applicable lorsqu’on a affaire à des axiomes dont les caractéristiques ne sont décrites par aucune théorie antérieure. Par exemple, Peano a proposé à la fin du XIXème siècle une axiomatisation de l’arithmétique en définissant de manière implicite l’ensemble des entiers naturels. Concrètement, il a mis en relation 5 axiomes, définissant ainsi les entiers par la structure que forment ces axiomes :
  1. l’élément appelé zéro et noté 0, est un entier naturel.
  2. Tout entier naturel n a un unique successeur, noté s(n) ou Sn.
  3. Aucun entier naturel n’a 0 pour successeur.
  4. Deux entiers naturels ayant le même successeur sont égaux.
  5. Si un ensemble d’entiers naturels contient 0 et contient le successeur de chacun de ses éléments, alors cet ensemble est égal à N (à la suite des entiers naturels)
Dans cette démonstration, on ne sait pas si les propositions sont vraies individuellement car elles nous sont données par postulat, mais on sait que l’ensemble des 5 propositions est cohérent. C’est donc dans leur relation les unes avec les autres que les propositions deviennent des axiomes légitimes. Cette méthode permet-elle de résoudre le problème de la régression infinie ? J’aimerais répondre oui, mais cela serait malhonnête. En effet, les 5 axiomes de Peano sont connus à travers le système qu’ils forment, mais ils sont inconnus individuellement. On est en droit de se demander au nom de quel principe on les accepte. Pourquoi admettre que zéro est un entier naturel avant même d’avoir défini ce qu’est un entier naturel ? Si la définition de zéro comme le premier entier naturel est arbitraire, comment justifier l’existence objective des entiers naturels ?
Bien que ces méthodes soient imparfaites, elles permettent de valuer des discours. Dans cet article6 qui étudie les distinctions entre les concepts d’existence et de réalité, il est question de la notion de « monde ». L’auteur explique que si on définit le monde comme une totalité, « ce qui contient tout », alors il est absurde de supposer l’existence de « mondes » au pluriel, d’univers parallèles. En effet, le faire créerait une contradiction avec la définition initiale (le monde est tout).
Certains voient dans les progrès de la logique une « abstraction croissante, un refoulement de l’intuition, une subordination du contenu à la structure ». Cependant, il serait abusif de croire dans un effacement total de l’intuition.
Pour conclure, je dirai que toute découverte est une conception qui à un instant donné, passe de la contre-intuition à l’intuition, de l’impossible au possible. La logique intervient dans un second temps, pour formaliser l’intuition et donner au discours scientifique sa forme finale. L’histoire des sciences est donc marquée par une alternance entre des périodes d’expansion des connaissances (renaissance) où les intuitions sont bousculées, renouvelées, et des périodes de formalisation, où l’on tente de donner une cohérence systémique et un champ d’application aux intuitions nouvelles (classicisme). L’axiomatique questionne, comme le dit Blanché, « les rapports du logique et de l’intuitif ». Personnellement, j’ai envie de questionner les rapports de l’intuition et de non logique pour comprendre dans quelle mesure les outils de la pensée limitent et cadrent notre perception. Mais avant cela, nous allons étudier les perceptions de plus près (dans le prochain article). Dans le monde des sciences, s’il y a intuition, il y a aussi expérience de la vérité…

  1. Wagner Pierre, Logique et Philosophie, 2014, Ellipses, 360p
  1. https://fr.wikipedia.org/wiki/La_M%C3%A9thode_scientifique_en_philosophie#La_m.C3.A9thode_analytique_en_philosophie
  1. https://fr.wikipedia.org/wiki/Critique_de_la_raison_pure
  1. https://fr.wikipedia.org/wiki/G%C3%A9om%C3%A9trie_non_euclidienne
  1. Gergonne, Essai sur la théorie de la Définition, 1818
  1. http://www.philosciences.com/Pss/philosophie-generale/ontologie-reel-realite/195-existence-reel-realite

2.1 Le discours scientifique

Introduction

Il existe une multitude de langages. Certains sont dits naturels parce qu’ils résultent d’une lente évolution biologique (ADN), d’autres sont dits culturels parce qu’ils résultent d’une lente évolution socio-historique (langues romanes et germaniques par exemple, qui constituent les principales traditions linguistiques du monde occidental). D’autres sont dits construits parce qu’ils résultent d’une « création normative consciente »1 (langues utilisées dans les œuvres de fiction comme l’Elfique chez Tolkien langages informatiques allant du binaire jusqu’aux codes de programmation ou bien évidemment langages logiques et mathématiques). Enfin certains langages sont morts, car ils ne sont plus pratiqués par le peuple par lequel ils sont nés. Il me semblait important de souligner cette diversité des champs linguistiques qui ne nous a pas empêchée, dans nos articles précédents, d’en dégager des invariants, des caractéristiques générales.
Notre mission aujourd’hui est de descendre en abstraction et de considérer un mode d’expression particulier, une volonté de communiquer dans un objectif déterminé : créer de la connaissance scientifique. Si vous avez un doute sur le sens des termes que j’utilise, référez-vous aux notes de bas de page qui renvoient à une source de définition plus détaillée, ou à l’article « Concepts fondamentaux ».

 

I. Epistémologie ?

L’étude du discours scientifique relève d’une discipline bien spécifique : l’épistémologie. Qu’est-ce donc que cela ? Le mot est souvent entendu sans qu’on soit capable de dire précisément ce qu’il signifie.
Du grec episteme (connaissance vraie) et logos (discours), l’épistémologie est l’étude critique de la science ou plutôt, comme le souligne Hervé Barreau dans le Que sais-je consacré au sujet, des sciences car on distingue différentes épistémologies selon les sciences et les époques considérées. Certains penseurs distinguent une tradition française et une tradition anglo-saxonne. La première sépare nettement l’épistémologie de la philosophie des sciences et de la théorie de la connaissance, la seconde les y assimile plus volontiers. Les trois approches (épistémologie, philosophie des sciences, théorie de la connaissance) se ressemblent dans la mesure où elles proposent toutes une étude critique de la connaissance, mais ne sont pas identiques. De plus, leur signification relative a évolué au cours du temps ce qui nous empêche de donner des définitions universelles. Nous tenterons simplement de présenter celles qui sont le plus communément admises de nos jours.
La théorie de la connaissance est probablement la discipline la plus générale pour l’étude critique de la connaissance. Elle ne se limite ni en terme d’objet, ni en terme de méthode. Pour ce qui est de la philosophie des sciences, si on dit de la philosophie en général qu’elle est une analyse des énoncés, la philosophie des sciences serait alors une analyse des énoncés scientifiques. On parle donc d’une philosophie appliquée à un champ particulier, les sciences. La méthode est relativement libre mais pas l’objet. Jusqu’à la renaissance, il n’y avait pas de distinction entre épistémologie et philosophie des sciences car science et philosophie étaient très liées. La démarche consistant à justifier la rigueur d’un discours scientifique par un discours philosophique était toute naturelle. On trouve ainsi dès l’antiquité (avec par exemple l’Organon d’Aristote) des études analytiques de ce qui fonde la bonne connaissance scientifique.
Le problème de l’analyse philosophique lorsqu’elle étudie un objet, c’est qu’elle ne se cherche plus elle-même (la méthode s’auto-justifie). Or, la logique utilisée à l’antiquité (aristotélicienne) fut beaucoup remise en cause, ce qui a remis en cause les conclusions qu’elle livrait. De plus, la justification philosophique reste conceptuelle, abstraite. Comme le dit Bertrand Russel : « Il y a une certaine affinité entre la philosophie et les mathématiques pures, dans le fait que toutes les deux sont générales et a priori ». De grandes « épistémologies » sont nées de cette démarche. La méthode cartésienne par exemple, présentée dans le Discours de la méthode de René Descartes, énonce quatre règles fondamentales de la connaissance scientifique2 :
Image2
Cette approche analytique s’est trouvée rapidement concurrencée par des démarches plus empiriques. Ainsi, Francis Bacon insiste dans son Novum Organum (XVIème siècle) sur l’importance de vérifier par l’expérience l’adéquation entre les théories et les faits. Un peu plus tard, les empiristes anglais (Boyle et Newton avec la Royal Society, Locke…) expriment l’idée que « le raisonnement est secondaire alors que l’observation est première »3. Or, ce qui émane d’une perception est ouvert à l’interaction. Petit à petit, la capacité d’action sur le réel devient le critère privilégié de l’évaluation d’une théorie scientifique. Grâce au savoir expérimental, des domaines comme l’industrie (brevet de la machine à vapeur en 1769…) et la médecine (Lavoisier et la respiration en 1784…) apportent concrètement plus de pouvoir aux hommes. La formule de Bacon scientia potestas est (savoir c’est pouvoir) résume l’intérêt de l’épistémologie que nous venons de présenter. Le fameux tableau de Derby (1768) intitulé Une expérience sur un oiseau dans une pompe à air illustre parfaitement le mélange de fascination et de crainte des sociétés de l’époque face à l’avènement du pouvoir scientifique :
qbwb
La démarche expérimentale peut se résumer par l’acronyme OHERIC (Giordan) c’est-à-dire Observation, Hypothèse, Expérience, Résultat, Interprétation et Conclusion (ma prof de biologie aimait d’ailleurs ajouter un P pour Problème après le O). Cette épistémologie méthodologique souhaite distinguer strictement la science, fondée sur des faits, de la philosophie, fondée sur des idées mais cela constitue paradoxalement une prise de position arbitraire en faveur d’une philosophie naturelle (la vérité est donnée par l’expérience sensible) dont le frère idéologique est le positivisme logique (Comte). Ce dernier formalise les raisonnements qui permettent de décrire avec justesse les relations observées entre les phénomènes (Russel). Ici, par la logique comme par les faits, l’expérience sensible reproductible et justifiée est la source de toute connaissance vraie.
Malgré son succès, de nombreux penseurs critiquent le positivisme. Par exemple au XXème siècle, Karl Popper, Gaston Bachelard, Jean Piaget, Quine ou encore  Bruno Latour4 (Science Studies dans les années 1990) tentent de dépasser l’opposition entre les faits et la théorie en proposant une épistémologie fondée le relativisme de la connaissance à un contexte socio-historique particulier (constructivisme).
Selon les défenseurs du constructivisme, il est absurde de dire que les lois de Newton sont faussent sous prétexte qu’elles supposent une vitesse de la lumière infinie (contrairement à la relativité einsteinienne), elles sont vraies relativement à une époque. La relativité de la connaissance au cadre spatio-temporel dont elle est issue constitue une approche qui se situe au centre de l’opposition entre le réalisme des idées (idéalisme) et celui des faits (matérialisme).  En effet, d’une côté elle réaffirme l’importance de penser la réalité à partir de faits (philosophie naturelle et positivisme logique) de l’autre elle interdit la croyance en une vérité absolue des théories scientifiques.
Quine déclare ainsi, dans un article intitulé Deux dogmes de l’empirisme (1951) : « On peut toujours préserver la vérité de n’importe quel énoncé, quelles que soient les circonstances. Il suffit d’effectuer des réajustements énergiques dans d’autres régions du système. On peut même en cas d’expérience récalcitrante préserver la vérité d’un énoncé situé près de la périphérie, en alléguant une hallucination, ou en modifiant certains des énoncés qu’on appelle lois logiques »5. L’auteur critique donc le positivisme de certains penseurs et notamment ceux du Cercle de Vienne (comme Bertrand Russel dont nous aurons l’occasion de reparler) qui en estimant que leur connaissance découle logiquement de l’ordre naturel des phénomènes prennent position, comme nous l’avons déjà dit, en faveur d’une philosophie naturelle. Or, juger la connaissance vraie sous prétexte qu’elle témoigne de l’articulation logique de données sensibles est loin d’être évident car toute donnée sensible est interprétée et toute interprétation est relative au sujet qui interprète. Ainsi, il est impossible dans cette approche de supprimer tout à fait la subjectivité de la connaissance et ce même si les démonstrations de certains phénomènes sont acceptées par des milliards d’individus. Cela vaut pour les disciplines scientifiques comme pour l’épistémologie.
La convergence de multiples subjectivités expérimentales (nombreuses répétitions d’une même mesure sensible dans un champ donné) vers une même conclusion rend la conclusion plus probable mais pas certaine. Je m’approche ici du problème épistémologique majeur de l’induction, c’est-à-dire l’établissement d’une loi générale à partir de mesures particulières. Si le but de la science expérimentale se résume à la capacité de prédire la naissance et l’évolution d’évènements sensibles et récurrents, alors la méthode inductive, parce qu’elle permet d’évaluer la probabilité de récurrence d’une expérience sensible dans un système particulier, semble être la plus adaptée. La science inductive ainsi constituée nous permet de prédire la manifestation de phénomènes sensoriels et récurrents. Plus la fréquence d’observation d’un phénomène donné dans un champ donné est élevée, plus on est face à un phénomène dont l’apparition est probable et donc prédictible dans le champ.
Malgré son pouvoir prédictif, la science exclut d’emblée les phénomènes extra sensibles et non reproductibles. Autrement-dit, elle limite notre connaissance du monde à notre capacité subjective d’interpréter et de mesurer nos perceptions dans un champ donné. Nous étudierons plus en détail cette critique fondamentale. Quoi qu’il en soit, voici ci-dessous deux tableaux issus de wikipédia6 qui témoignent de l’évolution d’une épistémologie analytique classique, dite métaphysique ou  cartésienne, à l’épistémologie scientifique contemporaine parfois appelée épistémologie complexe (Edgar Morin) :

Image3

Image4
L’épistémologie contemporaine est très proche de la démarche scientifique expérimentale au point que je le considère comme une discipline scientifique à part entière. Dans le cadre épistémologique contemporain, le progrès de la connaissance devient un jeu infini de redéfinition des théories anciennes par rapports aux faits nouveaux ou des faits anciens par rapport aux théories nouvelles et l’épistémologie moderne est elle-même soumise à ce processus.

 

 II. L’épistémologie de l’épistémologie…

Aujourd’hui, l’épistémologie semble s’être séparée de la philosophie des sciences pour analyser de manière empirique le champ scientifique et ses produits. Peut-on pour autant dire que l’épistémologie est une science à part entière ?
Tout d’abord, la distinction entre science et philosophie est très relative. A un certain niveau de recherche scientifique, les problèmes qui se posent sont d’ordre philosophique et à un certain niveau de philosophie, ils sont d’ordre logique voire empirique. La science est donc philosophique et vice versa. Nous avons défini la philosophie comme l’art d’interpréter des énoncés. Dans la mesure où l’épistémologie moderne est définie par un énoncé (science qui décrit par l’observation empirique et l’application d’une méthode inductive l’évolution des mécanismes et des critères d’évaluation de la connaissance scientifique), elle peut potentiellement être réinterprétée par la philosophie.
La première critique philosophique de l’épistémologie moderne que je souhaite formuler est sa soumission à la démarche scientifique. De nos jours, la méthode scientifique moderne devient à la fois le sujet et l’objet de l’épistémologie ce qui empêche la discipline de véritablement objectiver son travail. En effet, à un certain moment, elle ne pourra pas redéfinir la méthode scientifique moderne sans se redéfinir elle-même car elle applique cette méthode. Or, nous savons grâce à Gödel (théorèmes d’incomplétude) que la redéfinition d’une méthode par la même méthode interdit toute conclusion logique car alors la méthode se justifie d’elle-même (argument circulaire, pétition de principe…).
La redéfinition justifiée des sujets et des objets énoncés est un rôle de la philosophie. « L’amour de la sagesse » serait nécessaire lorsqu’un sujet/objet en rencontre un autre car alors il devient autre et le problème de la définition de son identité propre se pose. La philosophie s’écarte donc de l’épistémologie moderne car elle maintient possible une remise en cause de la méthode épistémologique. L’épistémologie moderne contrairement à la philosophie applique une méthode particulière en en assume les limites. Le travail de redéfinition d’un énoncé (ici l’épistémologie) est réservé à la philosophie. Une philosophie des sciences n’est pas nécessaire tant qu’on se satisfait d’une méthode épistémologique particulière et dans ce sens, l’épistémologie moderne est une science comme une autre.
La philosophie des sciences devient nécessaire si l’on souhaite redéfinir les critères de la bonne connaissance scientifique, que ça soit pour s’ouvrir à des épistémologies passées ou en construire de nouvelles. Nous pouvons en fait dire que chaque épistémologie est l’application d’une philosophie des sciences particulière mais d’une manière générale, je pense qu’à la question ce qui est dit est-il ce qui doit être dit ?, seule la philosophie doit pouvoir répondre car il s’agit de la seule discipline ne privilégiant aucune croyance ou méthode particulière (elle présente des possibles sans les imposer).
Dans la continuité de ce lien entre épistémologie moderne et méthode scientifique, il n’incombe pas à l’épistémologie de résoudre la question de l’émergence de la connaissance. Cette tâche est réservée à l’heuristique. Voici pour finir quelques courants qui proposent une théorie des fondements de la connaissance :
  • réalisme
  • naturalisme
  • phénoménologiste
  • relativisme
  • positivisme
  • sensualisme
  • matérialisme
  • immatérialisme
  • logicisme
  • rationalisme
  • idéalisme
  • psychisme
  • spiritualisme
  • monadisme
  • dynamisme
  • empirisme
  • constructivisme
  • structuralisme

  1. https://fr.wikipedia.org/wiki/Langue#cite_note-4
  2. Barreau Hervé, L’épistémologie, Que sais-je, PUF, 2013
  3. https://fr.wikipedia.org/wiki/Discours_de_la_m%C3%A9thode#Sixi.C3.A8me_partie
  4. Latour Bruno, La vie de laboratoire, 1979.
  1. https://fr.wikipedia.org/wiki/M%C3%A9thode_exp%C3%A9rimentale#cite_ref-13
  2. https://fr.wikipedia.org/wiki/%C3%89pist%C3%A9mologie#cite_ref-:1_53-0

2.2 Le discours scientifique, approfondissements

Introduction

Nous avons parlé d’épistémologie mais il manque à notre approche une étude critique de la science en général, autrement dit une remise en cause de la philosophie naturelle qui est au fondement du dogme scientifique.
La philosophie naturelle est à l’origine des sciences et de la physique moderne. Le terme, fondé par Aristote, se donne pour ambition de connaître la nature. Ainsi, il a pu jusqu’au XVIIème siècle se confondre avec la physique, littéralement la connaissance de la nature. Depuis les travaux de Galilée, Descartes et surtout Newton, la physique désigne l’étude scientifique des causes naturelles. Contrairement à la philosophie naturelle qui est ouverte à toute épistémologie, la physique moderne est liée à une logique et une méthode expérimentale particulières.
Ainsi, pour ne pas enfermer la connaissance dans un pur scientisme, c’est-à-dire un rejet aveugle des explications extra sensibles ou illogiques, la philosophie naturelle fut réintroduite au XIXème siècle pour questionner notamment « la continuité de la science à la métaphysique, le rapport entre les mathématiques et le monde sensible, le naturalisme, les différentes classes de causalité en science et leurs relations avec le déterminisme et la liberté, ainsi que le problème de la compréhension de la hiérarchie naturelle et des liens entre ses différentes strates (physique, chimique, biologique, psychique et sociale) », « L’un des lieux où s’épanouit cette réflexion est le Cercle de Philosophie de la Nature auquel participent une centaine d’enseignants-chercheurs de plusieurs horizons intellectuels et géographiques. Il a été fondé en 2008 par Miguel Espinoza, de l’Université de Strasbourg »1. Ainsi, la philosophie naturelle est une discipline d’un très grand intérêt pour ma recherche car son domaine d’étude est précisément la frontière des connaissances scientifiques actuelles.

Chinese-Dragon-HD-Wallpaper

I. D’où vient la connaissance ?

 A. La connaissance est matérielle

La science n’est pas la philosophie, bien que les deux traditions aient vocation à dire la vérité. En effet, là où la philosophie en général tente de connaître en se libérant de tout cadre physique ou théorique, la science est accepte au moins un, celui de l’expérience sensible. Autrement dit, le premier critère nécessaire à la vérité d’un phénomène, c’est la possibilité, dans un contexte défini, d’en faire l’expérience sensible. Ainsi, le réel de la science est fondamentalement celui de notre perception mais dans la mesure où les perceptions peuvent être identiques face à des phénomènes différents (trompe l’œil par exemple), il a fallu développer une méthode capable de définir une et une seule réalité, la réalité indépendante de notre volonté.
Classiquement, cette réalité est constituée de phénomènes définis par un certain nombre de caractéristiques. Plus les caractéristiques sont expérimentées de manière constante et reproductible, plus le phénomène est la manifestation probable d’une réalité. Pour s’assurer de la régularité et de la reproductibilité des perceptions, il faut les expérimenter plusieurs fois et le discours décrivant ces perceptions doit lui-même les évoquer de manière régulière et reproductible. Ainsi, une théorie scientifique se fonde d’abord sur des règles logiques qui correspondent à nos intuitions sensorielles fondamentales pour penser la perception.
Aristote est le premier à dresser dans ses Catégories une liste très complète de ces intuitions (« le terme de « catégorie » provient du verbe grec categorein, qui signifie « accuser ». Les catégories seront ainsi les modes d’accusation de l’être, c’est-à-dire les différentes façons de signifier et de désigner ce qui est en général »). Voici les dix catégories de la pensée selon Aristote : « la substance (ou essence), la quantité, la qualité, la relation, le lieu, le temps, la position, la possession, l’action, la passion »2. Je les avais déjà évoqué dans l’article d’approfondissement sur le langage, et avec elles leur critique. Pour compléter les 10 critères d’Aristote, je souhaite citer Kant et ses catégories de l’entendement présentées dans la Critique de la Raison Pure (1781). Le philosophe de Königsberg les associe à celles des jugements, ce qui donne les deux tableaux suivant :
Table des jugements
Quantité
Qualité
Relation
Modalité
Universels
Affirmatifs
Catégoriques
Problématiques
Particuliers
Négatifs
Hypothétiques
Assertoriques
Singuliers
Indéfinis
Disjonctifs
Apodictiques
Table des catégories de l’entendement
Quantité
Qualité
Relation
Modalité
Unité
Réalité
Substance – accident
Possibilité
Impossibilité
Pluralité
Négation
Cause – effet
Existence non-existence
Totalité
Limitation
Réciprocité
Nécessité – contingence
Je ne m’attarderai pas ici à décrire ces tableaux, mais Kant montre à travers eux que nos connaissances sont toutes issues de nos perceptions. Nos capacités à percevoir déterminent nos capacités à connaître. Il n’est donc pas possible d’élargir notre champ de connaissance sans élargir en même temps notre champ de perception. Autrement dit, nous ne connaissons jamais la chose en soi, mais seulement la perception de la chose. Il déclare « nous ne connaissons des choses que ce que nous y mettons nous-mêmes ». L’existence ou pas du phénomène est relative à notre perception. En effet, comment savoir qu’il existe s’il n’est pas perçu ? Ainsi, dire que quelque chose n’existe pas, nulle part, est paradoxal car dans l’absolu, si ça « n’existe pas », c’est simplement parce qu’on ne l’a pas perçu dans notre environnement. Autrement dit, je ne sais pas s’il existe, mais je ne sais pas pour autant qu’il n’existe pas.

 

Ce fameux problème nous amène, et il s’agit là d’un tournant nécessaire, à deux grands débats opposant d’une part, les matérialistes aux idéalistes et d’autre part, les réalistes aux constructivistes. Pour le matérialisme, « il n’existe d’autre substance que la matière »3. Il s’agit donc d’un monisme de la matière, l’esprit n’a pas d’existence indépendante du corps. Tout est corps. Paradoxalement, le matérialisme peine à définir ce qu’est la matière en substance. Cette tâche semble plutôt relever de la science physique. Deux critères de définition de la matière sont proposés sur Wikipédia (on notera que la définition est seulement négative et relationnelle, extensive et non intensive) : « une réalité universelle qui ne dépend pas de la pensée, et notamment de la représentation que l’on en a ; un principe fondamental qui est la cause ou la raison de l’émergence de l’esprit ».
Il s’agit de ne pas confondre le matérialisme qui relève essentiellement de l’ontologie (qu’est ce que l’être), avec l’empirisme ou le réalisme, qui sont eux relatifs à une gnoséologie (qu’elle est la connaissance vraie). Alors que le matérialisme se contente d’affirmer l’existence d’un monde physique qui n’est pas relatif à nos perceptions, l’empirisme estime, aidé par le réalisme et le rationalisme, que la perception nous donne accès à ce monde immuable et vrai.
Il faut donc se méfier des ambitions réductionnistes qui associent hâtivement le matérialisme à un empirisme. Le matérialisme ne prend pas position pour une description particulière de la nature de l’être, il affirme son existence immuable indépendamment de nos perceptions relatives sans donner ni le moyen d’accéder à l’être, ni le critère de sélection du meilleur moyen. L’expérience sensible dans laquelle croit l’empirisme scientifique, n’est donc pour le moment qu’un moyen parmi d’autre de connaître.
Petite parenthèse historique pour souffler ! En France, l’usage du terme matérialisme comme doctrine philosophique s’impose au XIXème siècle mais les premiers penseurs matérialistes sont bien plus anciens. Les philosophes de Milet (VIème siècle av JC) en Grèce, comme Thalès et Anaximandre, avaient une conception mécaniste du matérialisme, proche de l’empirisme (est vrai ce qui est physique). Leur obsession était la recherche du principe premier duquel découleraient toutes les formes. Démocrite (IVème siècle av JC) est le premier à penser une version atomiste du matérialisme : les phénomènes résulteraient « d’une combinaison d’atomes se déplaçant dans le vide ». Plus tard, au XVIème siècle, Galilée surf sur la vague de la renaissance et contribue à la mathématisation des conceptions matérialistes des corps, du mouvement…
Ces propos sur le matérialisme, une branche majeure du réalisme, imposent une conclusion : il est impossible de savoir dans quelle mesure nos perceptions reflètent la réalité. Le matérialisme résiste à une connaissance objective. Nous allons donc tenter de sauver la connaissance objective du réel en parlant de l’idéalisme, l’autre branche du réalisme.

B. La connaissance est idéelle

Platon (Vème siècle av JC) est probablement le père de l’idéalisme qui se définit ici comme la foi dans l’existence indépendante et immuable de formes intellectuelles, les Idées. Le plus haut degré de connaissance est donc donné par l’intellect, la raison et les exemples issus de l’expérience ne peuvent suffire à fonder une vérité. L’analogie de la ligne, proposée par Platon, résume bien son épistémologie :
ef
Le célèbre mythe de la caverne témoigne aussi de la cosmologie de Platon. Pour le philosophe, « l’âme ne peut parvenir à l’être par le moyen des sensations »4. Selon lui, l’âme est la partie immuable de l’être qui en est éloignée par son incarnation dans un corps, une réalité sensible. Pour retrouver la vérité de l’être, il lui faut donc se « ressouvenir » de ses connaissances antérieures et pures. Il parle de réminiscence. Dans le Ménon, on peut ainsi lire : « Ainsi, immortelle et maintes fois renaissante l’âme a tout vu, tant ici-bas que dans l’Hadès, et il n’est rien qu’elle n’ait appris ; aussi n’y a-t-il rien d’étonnant à ce que, sur la vertu et sur le reste, elle soit capable de se ressouvenir de ce qu’elle a su antérieurement » (la découverte est ici anamnèse). Chez Platon, la connaissance des Idées est cependant permise par la sensation, qui met l’esprit sur la voie de la vérité. Je ne m’attarderai pas sur la cosmologie et la théologie platonicienne. Sa pensée fut qualifiée d’idéaliste car elle considère que la réalité se fonde sur des idées, des formes abstraites (représentations mentales).
Platon défend bien un réalisme mais un réalisme dit des Idées. En effet, les Idées constituent pour lui une réalité qui, bien qu’invisible, n’en est pas moins intelligible et donc existante. Il est donc faut de qualifier Aristote de réaliste et Platon d’idéaliste. Tous les deux sont réalistes mais tandis qu’Aristote défend un réalisme immanent, physique, Platon prône un réalisme de l’intelligible, transcendant, abstrait. Ainsi, la juste opposition consiste à dire qu’Aristote est matérialiste et que Platon est idéaliste. Rigoureusement, on considère que les idéalistes font de l’esprit le substrat de la matière et que les matérialistes font de la matière le substrat de l’esprit. Il s’agit de traditions monistes car le réel n’a dans les deux cas qu’une seule origine (la matière ou l’esprit). Cependant, les penseurs reconnaissent généralement l’importance des deux dimensions (matérielle et idéelle). Le débats réside dans leur articulation.

C. Au-delà du réalisme, le constructivisme

A partir de la renaissance, des penseurs font avancer le débat et affinent la définition de l’idéalisme. Descartes (idéalisme problématique) est proche de Platon car il estime que la pensée est la seule chose dont nous puissions être certains. Il ne parle pas des résultats de la pensée, mais du processus de pensée lui-même (cogito ergo sum). Cependant, il croit en la pensée rationnelle comme voix de la vérité. Il rejoint en ce sens Platon. Kant (réalisme et idéalisme transcendantal) estime lui que seul le monde sensible est réel mais que ce dernier nous dépasse. Ainsi, plutôt que de connaître les objets d’un monde qui nous échappe, Kant étudie les conditions nécessaires à la connaissance de ces objets. C’est ainsi qu’il est arrivé aux catégories de l’entendement dont nous avons parlé, mais surtout aux concepts d’espace et de temps. Ce sont des noumènes, des formes a priori qu’on ne pas directement percevoir mais dont il faut admettre l’existence pour pouvoir penser quoique ce soit. C’est dans ces noumènes que se situe l’idéalisme kantien.
Au-delà de l’opposition matérialisme/idéalisme, qui sont comme nous l’avons vu deux approches du réalisme, on peut opposer le réalisme au constructivisme (aussi appelé subjectivisme, relativisme…). Les réalistes, qu’ils soient idéalistes ou matérialistes, considèrent que les fruits de notre perception et de notre conception sont l’expression de la réalité car beaucoup nous sont donnés indépendamment de notre volonté. Par exemple, quand je touche quelque chose de chaud, je ne peux pas choisir de ne pas me bruler. L’effet de la chaleur sur ma peau est une information objective et on peut donc dire que dans la Réalité, une matière fragile comme la peau est brulée lorsqu’elle entre en contact avec une intense source de chaleur. La faiblesse de cette approche tient dans l’affirmation d’une réalité indépendante de notre perception. Puisqu’on ne peut recueillir aucune information sans d’abord percevoir quelque chose, nous sommes incapables de connaître une réalité entièrement indépendante de nos perceptions. L’existence immuable de la Réalité est donc injustifiée. C’est sur cette idée que les constructivistes construisent leur théorie.
Pour les constructivistes (ce courant s’est formalisé récemment, mais on trouve des penseurs constructivistes depuis l’antiquité), la Réalité est en effet entièrement issue de notre subjectivité. Ainsi, chaque être sensible (humains comme animaux) perçoit une réalité différente en fonction de ses attribues biologiques et de son milieu culturel. Certains estiment que, dans la mesure où il est impossible de connaître sans engager notre subjectivité perceptive, alors toute caractéristique ontologique est arbitrairement attribuée et même la foi dans une régularité de nos perceptions ne peut nous mettre à l’abri de l’illusion. Par conséquent, le matérialisme réaliste ne peut pas définir la Réalité. Il n’est pas question de dire que nous sommes libres de définir la réalité qui nous chante car la plupart de nos perceptions sont données indépendamment de notre volonté. Cependant, on ne peut affirmer que ce mode d’expérience donne accès à une Réalité existant sans sujets pour la percevoir.
Le phénoménisme (Berkeley, Hume, Mach…) est un mouvement antérieur au constructivisme, mais il s’en rapproche puisqu’il affirme que le seul monde qui existe est celui qui est perçu (réductionisme). Autrement dit nous créons le monde vrai au fur et à mesure que nous le percevons ! Cette conception fait obstacle à toute tentative de connaissance réaliste car comme le souligne Alfred Jules Ayer, « si je peux être victime d’une illusion (ou d’une hallucination) sans le savoir, c’est que rien ne me permet de distinguer entre une expérience véridique et une illusion lorsque j’y suis confronté ». Il n’y a donc pas une réalité et des illusions, mais uniquement des perceptions dont il est impossible de connaître la nature objective. La prétendue vérité de l’empirisme scientifique repose sur des critères arbitraires de vérité comme la démonstration ou la récurrence. Mais ça n’est pas parce qu’une illusion est démontrée et récurrente qu’elle devient réelle, ça n’est pas parce que je perçois la manifestation physique d’un phénomène que ça n’est pas une illusion.
Berkeley est une icône de l’idéalisme empirique (phénoménisme). Il rejette toute existence a priori et donc tous concepts transcendants (espace et temps chez Kant, sujet pensant chez Descartes…). Berkeley nous dit « être c’est être perçu ou percevoir ». Tout est donc a posteriori. Toutes les idées sont particulières, relatives à une perception. Les abstractions ne nous rapprochent pas de la réalité, elles nous en éloignent. L’esprit construit des idées générales à partir de la conjonction de perceptions particulières pour simplifier le réel mais ces idées ne correspondent en aucun cas à une réalité. Berkeley s’oppose ainsi parfaitement à Platon. Il distingue les idées des sens et les idées de la réflexion (d’après Locke) : «  Il est visible à quiconque porte sa vue sur les objets de la connaissance humaine, qu’ils sont ou des idées véritablement imprimées sur les sens, ou des idées perçues quand l’attention s’applique aux passions et aux opérations de l’esprit, ou enfin des idées formées à l’aide de la mémoire et de l’imagination, en composant et divisant, ou ne faisant simplement que représenter celles qui ont été perçues originellement suivant les manières qu’on vient de dire. ». Notre dépendance à la perception nous interdit d’affirmer l’existence d’un monde en soi, indépendamment de la perception. On ne sait ni à quoi ressemble l’univers qui échappe à la perception ni s’il y a un univers parce qu’on ne peut connaître que ce qu’on perçoit.
Le débat réalisme/constructivisme est ancien et pourtant toujours aussi vif. Par exemple, Héraclite (VIème av JC) concevait déjà un monde où tout se meut sans cesse sans stabilité. Il n’y a donc pas d’unité de l’être, pas de vérité immuable, tout est en devenir, insaisissable. Il écrit : « Joignez ce qui est complet et ce qui ne l’est pas, ce qui concorde et ce qui discorde, ce qui est en harmonie et en désaccord ; de toutes choses une et d’une, toutes choses »4. Avec de tels propos, Héraclite ne peut être ni idéaliste ni matérialiste car une caractéristique commune à ces doctrines est l’immuabilité, la stabilité de leurs vérités. Il serait constructiviste. Tout est relatif au sujet. La réalité est un mobilisme universel. Cette vision est très proche de certaines philosophies asiatiques et notamment de la pensée de Laozi exprimée dans le Dao de Jing (VIIème siècle av JC). Des parallèles orient/occident furent d’ailleurs tracées à ce sujet par Sri Aurobindo, un penseur indien contemporain, dans son livre De la Grèce à l’Inde5.
Si Héraclite défend un mobilisme universel, Parménide (Vème siècle av JC) est lui pour un immobilisme universel. Concrètement, Parménide défend une stable unité de l’être, démontrée par la logique et l’expérience récurrente. Ses écrits et plus généralement la pensée de l’école éléatique à laquelle il se rattache, ont eu une grande influence sur notre philosophie. Ils sont repris par Platon et Aristote. Si Parménide de démontre pas qu’il existe une réalité indépendante de notre perception (personne ne le peut à ce jour), il démontre que tout n’est pas en mouvement permanent : il existe des phénomènes qui obéissent à des lois que l’on perçoit mais qui nous sont données.
En résumé, il y a donc d’un côté une vision réaliste qui croit que le monde est de nature rationnelle et matérielle. Ainsi nos perceptions et les théories scientifiques qui en sont issues doivent suffire à le connaître dans sa totalité. Toute nouvelle connaissance de la réalité sera nécessairement empirique et rationnelle. De l’autre côté, nous avons une pensée constructiviste qui croit que la Réalité du monde n’existe pas indépendamment de nos perceptions subjectives. Nous vivons donc potentiellement dans une grande illusion. Une alternative consiste à admettre que la réalité stable et immuable implique un double déterminisme : déterminisme du sujet perceptif car si nous pouvions tout percevoir à volonté, il n’y aurait plus de distinction possible entre le vrai et le faux. Et déterminisme du monde extérieur car si les informations perçues n’obéissaient à aucune loi universelle, alors il n’y aurait pas de raison pour que certaines se manifestent à nos sens de manière constante et récurrente. Cette vision est celle d’un réalisme constructiviste. Patrick Juignet en dégage deux conséquences6 :
  • La réalité n’est pas absolue mais relative, elle dépend de l’expérience qui la fait surgir.
  • La réalité manifeste une résistance qui ne dépend pas de notre expérience.
Fondamentalement, les réalistes pensent qui si nous percevons le monde d’une manière déterminée, c’est aussi parce qu’il se donne à percevoir de manière déterminée. S’il n’y avait pas déterminisme des informations circulant dans l’univers, il n’y aurait pas déterminisme de la perception de ces informations. En revanche, les réalistes ne peuvent pas réduire la Réalité à nos perceptions car dire qu’une partie des informations de l’univers sont déterminées en adéquation avec nos perceptions ne signifie pas que toutes les informations de l’univers le sont.

 

 II. Quelle finalité pour le discours scientifique ?

Nous avons vu dans la partie précédente que pour connaître une réalité stable, il fallait une rencontre entre le déterminisme de notre appareil perceptif et celui des informations circulant dans l’univers. Mais pouvons-nous accéder à des informations et donc à une réalité instables ?
Il faut, pour répondre à cette question, commencer par nuancer la définition de la réalité. Elles sont multiples et il est peu probable qu’une voix se fasse un jour entendre et nous dise « Platon avait raison » ou « Berkeley se trompait ». C’est le fameux« silence déraisonnable du monde » face à notre quête de vérité dont nous parle si bien Camus. Concrètement, il existe de nombreuses manières de connaître une réalité. Nous pouvons penser, percevoir, rêver, prier, mesurer, calculer… Chacun de ces outils nous propose une expérience du monde particulière et tous ont donc une existence et une réalité particulières. Une expérience onirique n’apportera pas la même chose que la visualisation par électroencéphalogramme d’un cerveau entrain de rêver. Comment savoir ce qui est le plus réel ? L’expérience du rêve ou l’activité électrique du cerveau ? On constate qu’il est absurde de choisir car il s’agit de deux connaissances différentes qui constituent deux réalités/vérités différentes. Pour le rêveur, le rêve existe car il en fait l’expérience directe, mais il ne peut pas percevoir son activité électrique lui-même. Pour le scientifique, le rêve n’est qu’un ensemble de réactions électriques dans un cerveau et donc n’existe pas en soi. Ainsi, il n’y a pas de phénomène vrais ou faux dans l’absolu, simplement des phénomènes pertinents ou pas relativement à la finalité de notre quête de connaissance. Si je veux connaître mes rêves pour raconter à mes amis les histoires qui s’y déroulent, la carte de l’activité électrique de mon cerveau pendant le rêve est peu pertinente et fausse car elle ne me permet pas de transmettre la connaissance que je cherche.
Fondamentalement, l’ambition des scientifiques n’est pas d’imposer aux hommes une vision froide et désenchantée du monde. Comment nous l’avons dit, ça n’est pas parce que je sais que mon rêve est le résultat d’une activité électrique dans mon cerveau qu’il n’existe pas comme expérience onirique. Mais alors quelle est l’ambition de la science ?
Nous en avons déjà parlé. La science se fonde sur une philosophie naturelle. Autrement dit, elle montre comment nos perceptions sont provoquées par des phénomènes eux-mêmes provoqués par d’autres phénomènes. Plus la relation entre les phénomènes se vérifie de manière sensible et constante, plus la connaissance est jugée vraie. Le critère absolu d’existence et de vérité du phénomène et sa perception. Quels avantages y a-t-il à faire de la perception un critère de vérité ?
D’abord, pour une information donnée, nos sens seront tous stimulés de la même manière si le contexte de perception est le même pour chaque individu. Observez par exemple, sur l’image ci-dessous, le champ humain de la perception sonore (fréquence et intensité) :

dv

Ici, on constate que notre champ auditif est très clairement défini par la zone jaune. En dessous de cette zone, personne (sauf peut-être exception) n’entend rien. Au dessus, nous endommageons notre système auditif. Il s’agit là de faits objectifs car leur manifestation ne dépend pas de la volonté. Les référentiels perceptifs ont beau faire partie de mon corps, de ma subjectivité, ils sont déterminés par nos capacités physiques, elles mêmes déterminées par notre évolution biologique, un phénomène sur lequel la volonté n’a pas de prise immédiate (on ne sait pas se faire pousser des ailes sur un coup de tête…). Par conséquent, il n’y a plus lieu de débattre sur la vérité ou l’existence d’un son A. Si mon oreille l’entend dans un contexte donné, il existe véritablement pour tous les êtres humains situés dans le même contexte. Je ne peux pas choisir de ne pas l’entendre à moins de modifier le contexte de perception (mettre un casque, me déplacer…).
Grâce à ce référentiel perceptif, la science est capable de définir avec précision le contexte, l’environnement dans lequel évoluent les individus. Connaissant les caractéristiques sonores d’une voix humaine et l’influence de l’environnement sur cette dernière, je serai capable d’évaluer approximativement à quelle distance se situe un appel au secours. Ma théorie est certaine car ma perception est constante : si le cri que j’entends est faible mais que j’entends normalement le bruit de mes pas, alors la faiblesse du cri n’est pas due à une anomalie auditive mais à son éloignement. Si les capacités perceptives de nos sens changeaient de manière aléatoire, la science serait incapable de définir une réalité stable et de déterminer l’origine ou la finalité des phénomènes. Si vivre c’est percevoir une réalité plus riche et plus complexe, alors fonder la connaissance scientifique sur les sens permet de vivre. En effet, la stabilité de nos capacités perceptives crée un référentiel pour comparer, associer et distinguer les systèmes qui s’offrent à nous. Contrairement à ce qu’on pense souvent, notre déterminisme physique est donc la condition essentielle de notre connaissance. C’est d’abord notre stabilité qui crée une réalité stable.
Cette approche nous permet-elle de voir plus clair dans le débat idéalisme/matérialisme ? Une chose est sûre, les scientifiques sont pour un réalisme des choses matérielles. Ils estiment donc que le son A est connu à partir du moment où il est perçu (matérialisme) et qu’il existerait même sans personne pour le percevoir (réalisme). Les langages scientifiques ne sont que des outils traduisant la réalité matérielle perçue. Ainsi, les axiomes des théories sont justifiés par leur « évidente » nécessité, c’est-à-dire en fait la nécessité des perceptions qu’ils évoquent. Comment maintenant justifier l’existence d’une réalité extra-perceptive ? Comment savoir dans quelle mesure la perception de la chose est la chose elle-même ?
Pour Berkeley, il n’y a aucun moyen de le savoir car on ne connaît jamais la chose elle-même. Au mieux, nous connaissons les caractéristiques régulières des perceptions associées aux choses. Nous pouvons par exemple constater que nos percevons les phénomènes quelque part autour de nous, avant et après d’autres phénomènes… Nous disons alors comme Kant que la réalité s’incarne nécessairement dans un espace-temps, mais cela signifie réduire la réalité à notre perception. Sous prétexte qu’un espace-temps est nécessaire à nos perceptions, l’espace-temps serait une réalité universelle. Cette conception est problématique car elle suppose une réduction de la réalité à notre capacité perceptive. Le jour où nous ne pourrons plus construire de capteurs plus puissants (pour étendre nos capacités perceptives), la découverte s’arrêtera. De plus, si nous ne pouvons rien percevoir et donc rien connaître qui ne soit incarné dans un espace-temps, l’intérieur d’un trou noir et l’origine de l’univers seront à jamais des mystères. Qu’il s’agisse des équations de la mécanique quantique, des idées platoniciennes ou des noumènes kantiens, toutes nos connaissances actuelles sont issues de nos perceptions biologiques. Ainsi, la science étend nos perceptions sur le plan quantitatif, mais pas sur le plan qualitatif. Cela fait 200 000 ans que nous utilisons cinq sens et pas un de plus. La science ne nous libère pas de nos perceptions, elle nous y enferme ! N’est-il pas temps d’aller voir au-delà ?
Si plutôt que de chercher à partir de nos perceptions physiques biologiquement déterminées nous essayons de découvrir d’autres formes de perceptions, capables de s’affranchir des cadres traditionnels que sont par exemple l’espace et le temps, alors nous pouvons espérer aller plus loin dans la connaissance. Autrement dit, il s’agit d’arrêter d’utiliser nos perceptions pour connaître le monde et de faire l’expérience directe de nos perceptions pour en découvrir de nouvelles. Je parle bien de la découverte d’une forme de sixième sens. Il s’agit, quoiqu’il en soit, d’une quête qui s’oppose à l’ordre naturel des choses (l’évolution biologique), qui sort de la philosophie naturelle.

Conclusion

Afin de bien mettre en évidence l’impasse dans laquelle nous serons tant que nous n’aurons pas découverts d’autres formes d’intuitions sensorielles, je propose de présenter les paradoxes des fondements, autrement dit les limites de la connaissance au-delà desquels nous ne pouvons pas aller. Mais avant cela, nous devons rappeler les fondements de la logique et montrer dans quelle mesure il s’agit d’un discours normatif.

  1. https://fr.wikipedia.org/wiki/Philosophie_naturelle#.C3.89tymologie
  1. https://fr.wikipedia.org/wiki/Cat%C3%A9gories_(Aristote)#Les_cat.C3.A9gories
  1. https://fr.wikipedia.org/wiki/Mat%C3%A9rialisme
  1. https://fr.wikipedia.org/wiki/H%C3%A9raclite
  1. Aurobindo Sri, De la Grèce à l’Inde, 2000, Albin Michel.
  2. http://www.philosciences.com/Pss/philosophie-generale/ontologie-reel-realite/195-existence-reel-realite