2.4 La science incertaine

Introduction

Cet article est la suite directe du précédent, que nous avons consacré à la logique. Il aborde la dimension empirique du discours scientifique, autrement dit le lien entre les faits et la théorie. Il sera question d’un baron dans un marécage, d’une paire de bottes, de Mr Nobody, d’un mathématicien faisant une grève de la faim, d’un canard-lapin, d’une cigarette et d’autres choses beaucoup moins sérieuses.
Bonne lecture !

 

1. Le problème des fondements

Nous avons parlé du cinquième postulat d’Euclide qui résiste à toute démonstration. Dire cela signifie simplement que notre « intuition » (si elle est à l’origine des découvertes) est incapable de trouver une démonstration de ce « concept ». Et ça n’est pas le seul qui résiste (encore et toujours). Cela montre que si nous supposons que la régression infinie existe sur le plan théorique, nous ne pouvons pas l’expérimenter en pratique. De nombreux concepts nous mettent face à une porte close, c’est ce qu’on appelle le problème des fondements.
Concrètement, le postulat des parallèles ne peut être rejeté sous peine de quitter la surface plane qui constitue le cadre fondamental de la géométrie. Autrement dit, nier le cinquième postulat d’Euclide, c’est nier la géométrie euclidienne elle-même. Cet exemple permet de déterminer une caractéristique des axiomes théoriques : ils sont tautologiques. Autrement dit, ils ne peuvent être que vrais car nous ne connaissons aucune théorie dans lesquels ils soient faux. Car qu’est-ce qu’une théorie ? A l’origine, il s’agit d’un cadre, d’une structure qui influe sur des variables dans un modèle pour en tirer des conclusions. Tout comme une cathédrale est composée de pierre et de bois, une structure logique est composée d’axiomes. C’est grâce à eux qu’on crée un sujet réflexif, un référentiel à partir duquel il est possible de formuler des jugements. Les axiomes sont la pointe du compas que l’on plante pour tracer des cercles, les sens de l’être sensible qui perçoit pour agir… Retirez au compas sa pointe et à l’être sensible ses sens et vous devrez changer votre définition de l’être et du compas. Si vous refusez de changer de définition, vous devez accepter les axiomes associés aux objets ou bien renoncer à dire quelque chose à propos de ces objets.
Il existe de nombreux exemples des limites de la démonstration logique que je ne suis bien sûr pas le premier à constater. Le problème des fondements des sciences a donné naissance à plusieurs théories. Nous allons en évoquer quelques unes.
Tout d’abord, le travail de Kurt Gödel, mathématicien austro-américain du XXème siècle, est fondamental. Gödel est surnommé dès son enfance par sa famille « monsieur pourquoi ». Il manifeste ainsi très vite une obsession pour l’origine, le fondement, la compréhension des phénomènes. Son ambition est de parvenir, comme ont essayé avant lui Russel, Whitehead ou encore Hilbert, de démontrer la complétude et la cohérence des mathématiques par les mathématiques… boucler la boucle, en somme. Ironie du sort : à l’issue de ses études, en 1931, Gödel parvient en fait à démontrer… l’incomplétude de l’arithmétique. Autrement dit, les théorèmes de Gödel montrent qu’ils existent toujours des énoncés indécidables et pourtant nécessaires aux théories logiques.
Rigoureusement, la complétude est le fait, dans un système de déduction et pour une logique donnée, qu’il soit possible de démontrer la validité de toutes les formules à partir des axiomes de la théorie  (un système de déduction est correct ou vrai quand toute déduction est valide sémantiquement (pour au moins un modèle)).
Le premier théorème d’incomplétude de Gödel énonce que, contrairement à ce que voudrait le programme de Hilbert, sous des hypothèses raisonnables, aucune théorie arithmétique cohérente (qui ne démontre pas à la fois un énoncé et sa négation) n’est complète car elle est nécessairement constituée d’énoncés qui dans certains modèles sont indécidables (axiomes autoréférentiels par exemple), c’est-à-dire ni démontrables, ni réfutables (un énoncé est démontrable si on peut le déduire vrai à partir des axiomes de la théorie, il est réfutable si on peut déduire sa négation). Par conséquent, il est impossible de démontrer la validité des formules dans tous les modèles : le système est incomplet. Il existe un célèbre exemple visuel de l’indécidabilité, analysé par Wittgenstein : le canard-lapin (image ci-dessous). Il est objectivement impossible de décider si ce dessin est un canard ou un lapin car il est à la fois l’un et l’autre :

lkj

Le deuxième des théorèmes de Gödel montre que l’affirmation de la non-contradiction du système est précisément un de ces énoncés indécidables. Autrement dit, une théorie cohérente ne démontre pas sa propre cohérence car l’énoncé qu’il faudrait formuler pour y parvenir est victime du premier théorème. Autrement dit la cohérence d’une théorie est indécidable dans la théorie. En effet, si la théorie tente de démontrer sa cohérence et qu’elle découvre qu’elle est incohérente, alors la démonstration qu’elle vient de produire est elle aussi incohérente, ce qui délégitime le résultat. Une théorie est incapable de démontrer que ce qu’elle dit est vrai car elle ne peut ni accepter ni rejeter la possibilité de son incohérence.
Plus rigoureusement : appelons cohT un énoncé qui exprime la cohérence de T dans la théorie T. La théorie T’ est égale à T + non cohT. Ainsi, cette théorie T’ tente de démontrer l’incohérence de T à partir de T. Rien ne semble l’empêcher d’essayer… Cependant, « non cohT » signifie qu’il existe une preuve d’une contradiction dans T. Or, une preuve dans T est aussi une preuve dans T’ car T’ est composée en partie de T. Ainsi, non cohT a pour conséquence non cohT’ et si T’ est incohérente, alors sa conclusion ne peut pas prouver l’incohérence de T. En définitive, on a donc déduit du second théorème d’incomplétude l’existence d’une théorie T’ qui ne parvient pas à démontrer l’incohérence de T.
Pour exprimer le résultat du théorème dans un langage plus simple, je dirais que démontrer l’incohérence d’un langage avec ce même langage est impossible car alors la démonstration elle-même est incohérente. La phrase « le langage n’existe pas » est un exemple de l’aporie que constitue une négation de l’outil par l’outil. Comment puis-je démontrer par le langage que le langage n’existe plus si le langage n’existe plus ? D’après le théorème de Löb, une théorie qui démontre la vérité ou la fausseté de ses axiomes n’est pas une démonstration car la conclusion implique de valider les axiomes (pour les besoins de la démonstration) avant d’avoir démontré leur validité (pétition de principe) ! Ainsi, la conclusion ne peut pas être une preuve de la validité ou de la fausseté des axiomes et une démonstration ne vaut rien si ses conclusions concernent ses postulats.
Je dois ici mentionner l’existence du théorème de complétude de la logique de premier ordre de Gödel, qui fut publié avant les autres (1929). Ce théorème est intimement lié à la théorie des ensembles. J’ai épluché plusieurs articles concernant ce théorème, notamment celui de wikipédia1, mais je n’ai réussi qu’à effleurer  sa conclusion. En toute logique, ce théorème ne peut opérer au même niveau que les deux autres car sinon, il y a contradiction. D’après mes lectures, le théorème de complétude prouve que les formules vraies dans tous les modèles de la logique de premier ordre sont toutes justifiées par un ensemble énumérable de lois logiques. Il y a donc équivalence entre la syntaxe et la sémantique de la théorie. Cela n’est possible que pour un nombre très réduit et intuitif de principes logiques (ceux de la logique de premier ordre).
Quoi qu’il en soit, Gödel est devenu fou, probablement par excès d’un rationalisme insatiable, et est mort de sa folie (paranoïa, troubles obsessionnels…) en cessant de s’alimenter. Cassou-Noguès2 se demande, dans sa biographie du logicien « Faut-il penser que Gödel déforme en quelque sorte la philosophie classique, la logique et ses principes de sens commun pour y faire entrer ses propres peurs ? Ou bien, faut-il reconnaître que ce complexe qui nous est commun, de philosophie, de logique, de bon sens, contient déjà cette « folie » que Gödel ne fait qu’y révéler ? ». Certains penseurs et notamment Régis Debray ont tenté d’appliquer les conclusions des théorèmes de Gödel à d’autres disciplines que les mathématiques (ici la sociologie). Jacques Bouveresse a vivement critiqué cette analogie, expliquant que les conclusions ne s’appliquent à des systèmes formels, ce que la sociologie n’est pas. De plus, il met en garde contre l’utilisation littéraire de concepts scientifiques incompréhensibles par le grand public (sophisme fondé sur l’argument d’autorité).
A l’opposé de Gödel ou d’Hilbert, Poincaré (deuxième moitié du XIXème siècle) ne croyait pas à la possibilité de tout démontrer logiquement : « Un naturaliste, qui n’aurait jamais étudié l’éléphant qu’au microscope, croirait-il connaître suffisamment cet animal ? Eh bien ! En Mathématiques, il y a quelque chose d’analogue. Le logicien décompose pour ainsi dire chaque démonstration en un très grand nombre d’opérations élémentaires ; quand on aura examiné ces opérations les unes après les autres et qu’on aura constaté que chacune d’elles est correcte, croira-t-on avoir compris le véritable sens de la démonstration ?  ».
Nous avons donc montré dans la partie précédente que les axiomes d’une théorie ne peuvent être justifiés que par des axiomes et des démonstrations externes à la théorie. Quelles sont les prolongements de ces conclusions ?
Dans la théorie, les axiomes peuvent être associés au concept de tautologie (le concept doit être vrai dans tous les modèles pour garantir la cohérence de la théorie, peu importe qu’il soit démontrable ou pas). Ils sont souvent autoréférentiels (c’est-à-dire qui doivent être admis pour être énoncés) et forment des arguments circulaires ou pétitions de principes ou diallèles (qui utilisent le résultat de la conclusion pour la démonstration). D’après wikipédia, « on nomme argument circulaire un argument où une proposition A utilise pour sa justification une proposition B dans le même temps que la justification de la proposition B nécessite la validité de la proposition A. Par exemple : Notre bureaucratie est un élément capital dans notre fonctionnement (proposition A), car elle génère de nombreux documents, qui je le rappelle, sont extrêmement précieux ! (proposition B) puisqu’utiles au fonctionnement convenable de notre glorieuse bureaucratie, si vitale ! »3. Il est précisé que dans une longue boucle d’arguments, ces pétitions de principes peuvent être des sophismes très difficiles à déceler.
Une bonne manière de résumer les problèmes des fondements est d’utiliser le trilemme de Münchhausen4. Münchhausen est un baron, à la fois un personnage réel et fictif. Il est le héros d’une série de récits de l’allemand Rudolf Erich Raspe publiés en 1785. Parmi les nombreuses aventures fantastiques du baron, il y a celle où il s’extirpe lui et son cheval d’un marécage vaseux en se tirant par ses propres cheveux. En 1968, cette histoire fut transformée en expérience de pensée par Hans Albert. Elle montre par l’absurde qu’un individu pris dans un marécage ou une quelconque situation similaire ne peut pas s’en sortir uniquement avec les éléments de la situation (ici une traction par ses propres cheveux). Il en va de même pour la résolution du problème des fondements qui prend ici la forme d’un trilemme, d’après la formulation de Karl Popper. Ainsi, lorsqu’on tente de fonder la connaissance à partir des méthodes qui la produisent, alors on tombe soit dans un argument circulaire formant une pétition de principe (sophisme), soit dans une affirmation arbitraire de principes non justifiés, autoréférentiels ou tautologiques (dogmatisme), soit enfin dans une régression infinie.
Une autre version de ce problème des fondements fut déjà proposée au IIème siècle par le sceptique pyrrhonien Sextus Empiricus comme le problème d’Aggripa5, qui fonde par cinq affirmations (modes) le scepticisme. Dans les théories de la connaissance, la régression infinie est qualifiée d’infinitisme. Lorsqu’on affirme des postulats au nom d’une évidente nécessité (généralement physique) sans les justifier, il s’agit de fondationnalisme (je pense donc je suis). Enfin, lorsque les axiomes des théories sont vrais relativement à la structure cohérente qu’ils forment (bien que non démontrés individuellement), c’est-à-dire qu’ils se justifient mutuellement (argument circulaire), alors on parle de cohérentisme (axiomatique de Peano).
Les partisans d’un réalisme des idées et principes logiques diront que les définitions sont arbitraires et que nous pouvons les modifier à volonté à partir de manipulations axiomatiques (les transformer en autre chose). Pourtant, dans certains cas, cela est impossible car il existe des concepts dont nous sommes incapables de nous passer. Non seulement ces concepts sont toujours vrais dans les théories connues (tautologies) mais en plus nous sommes incapables de savoir à quoi ressemblerait une théorie sans eux. Il s’agit pas exemple des concepts d’existence, de conscience, de langage… Ces axiomes définissent l’outil qui permet leur existence. Modifier l’axiome implique de modifier l’outil et donc de perdre sa fonction première.
Le déterminisme de certaines définitions s’explique par le lien étroit entre intuition et perception. Pour qu’un concept logique soit satisfaisable, il doit résonner, directement ou après démonstration, avec notre intuition sensible fondamentale. Ca n’est pas toujours le cas car la cohérence logique est une chose, l’adéquation effective avec une situation réelle, un modèle ou système, en est une autre. Je peux avoir une intuition logique face à une situation qui n’est en fait qu’une analogie erronée avec une situation antérieure. Je peux concevoir une scène telle qu’elle n’est pas. C’est pourquoi les logiciens et les scientifiques utilisent généralement une deuxième méthode de vérification de la connaissance : la réalisation, autrement dit la tentative d’appliquer la théorie au monde des choses, à un modèle. En effet, tout ce qui est réel est possible et donc si la théorie s’applique dans un modèle, elle se doit satisfaisable et consistante dans ce modèle. C’est la dimension sémantique de la théorie. L’expérience empirique est liée à nos perceptions familières, celles qui font sens à notre esprit, que l’on estime « logique ». Ces perceptions nous permettent de faire appel à notre intuition ou notre instinct. Beaucoup de penseurs ont essayé d’écarter les perceptions pour laisser place aux idées pures, que ça soit par l’expérience, la logique, la psychologie ou la philosophie… mais ni Leibniz, ni Hilbert, ni Russel et Whitehead, ni Gödel, ni Einstein n’ont réussi.

 

2. L’expérience de la vérité

Il reste toujours une part d’intuition sensible dans la théorie, les axiomes indémontrables et irréfutables. Pour donner à la science une plus grande fiabilité, des penseurs ont développé une méthode de preuve fondée sur l’expérience empirique. Cette dernière vise à légitimer par les faits les axiomes de la théorie. Mais comment déterminer alors le degré d’universalité des résultats d’une expérience ?
Selon Goodman (1946)6 et son célèbre paradoxe, il est impossible de déduire une vérité universelle d’une expérience particulière (méthode inductive). Pour illustrer cette idée, le penseur inventa l’adjectif « vleu » signifiant « vert jusqu’à une certaine date t et bleu ensuite. » Sa question est : au nom de quoi pouvons-nous affirmer de manière certaine que l’adjectif vert est vrai et l’adjectif vleu est faux ? Bien qu’un objet qui apparaît vert à un instant t n’est pas bleu à cet instant, nous ne pouvons pas être certains qu’il ne le sera pas demain. Il en va ainsi du lever du soleil, de la gravité et de toutes les connaissances que nous tenons de nos expériences régulières. De même, il est impossible d’affirmer que « tous les hommes sont mortels » car rien ne m’empêche de penser que demain, un homme sera immortel. Je peux bien sûr dire « tous les hommes morts à ce jour étaient mortels », mais vous constaterez vous-même l’absurde banalité de cette proposition (tautologique).
Il y a eu d’autres paradoxes d’énoncés (Hempel…), mais tous critiquent un présupposé essentiel à la validité des inductions ; ils critiquent ce que Hume appelle le principe d’uniformité de la nature. J’ai trouvé sur internet une explication de ce principe d’uniformité qui résume bien, selon moi, les limites de l’induction : « Le principe d’uniformité de la nature, à savoir que telle cause sera toujours suivie de tel effet, ne peut être fondé puisqu’on ne peut pas fonder une expérience par une expérience sans commettre une pétition de principe. Une expérience unique ne donne jamais une cause, et plusieurs expériences qui mettent en jeu les mêmes causes ne donnent jamais qu’une probabilité. Seules toutes les manifestations d’un même phénomène pourraient faire œuvre de loi. Or, il est impossible à l’échelle humaine d’appréhender toutes les manifestations d’un phénomène. Pour Hume, si l’homme en arrive à déduire, dans sa vie courante, les mêmes effets des mêmes causes, c’est par l’habitude qu’il a pris depuis sa naissance de voir les premiers suivre les secondes. Ainsi, on ne peut tirer aucune connaissance nécessaire et universelle de l’expérience ». Malgré la logique implacable de cet énoncé, pourquoi tenons-nous tellement à la vérité des inductions ?
Dans l’absolu, l’intuition qui se trouve au fondement des théories logiques est elle-même un produit de l’expérience. Certes, il ne s’agit pas d’un protocole rigoureux, mais elle provient de perceptions empiriques. Ainsi, tout notre matériel réflexif serait issu de l’expérience. On peut travailler sur nos réseaux d’intuitions, modifier des définitions, des associations, mais toute pensée est spatio-temporelle au sens où elle ne peut appréhender des phénomènes qui échappent à nos quatre dimensions physiques, autrement dit qui ne sont pas dépendants d’un espace-temps. L’expérience ne pose pas de problème tant qu’elle ne tire pas de conclusion générale, de disposition, d’une expérience particulière, autrement dit tant qu’elle ne devient pas inductive. Pour reprendre l’exemple de Pierre Saint-Germier6 :
« La flexibilité est la disposition, pour un objet, de plier s’il est soumis à une pression suffisante. Un objet flexible non soumis à une pression suffisante ne fléchit pas. Son comportement manifeste, dans ce cas, ne permet pas de le distinguer des objets non flexibles. Pourtant, il est flexible, car soumis à une pression adéquate, il plierait […]. Or, d’un énoncé comprenant la notion de disposition se déduisent des énoncés portant sur des cas possibles, c’est-à-dire ne dénotant aucun objet réel dans l’univers de discours au moment où ces énoncés sont produits (contre-fait) […]. Par exemple : « si la barre avait été soumise à une pression suffisante, alors elle aurait fléchi ». Qu’est-ce qui nous permet d’accepter la validité de cette connexion conditionnelle entre deux « contre-faits », validité qui est pourtant affirmée dans le concept de disposition ? ». Nous acceptons parce que dans le cas d’une induction scientifique rigoureuse, l’expérience est répétée de manière à augmenter la probabilité de sa prédiction. Ce concept de probabilité est substantiel de celui d’induction.  Saint-Germier nous dit ainsi « exiger d’un critère de validité inductive qu’il détermine la vérité de l’énoncé induit, c’est exiger un critère observationnel pour des cas inobservables, c’est-à-dire, en somme, des compétences divinatoires ». Goodman estime que l’induction procède ainsi par « projection des prédicats », « il s’agit de savoir comment, en partant d’un prédicat manifeste comme « fléchi », nous pouvons effectivement l’étendre à un domaine plus vaste en définissant un prédicat corrélatif tel que « flexible » […].
L’enjeu est d’obtenir un critère de discrimination entre les prédicats projectibles et les prédicats non projectibles. Saint-Germier estime, dans son commentaire des théories de Goodman8, qu’il serait impossible de tenir des discours pertinents sur le monde sans recourir à des projections de prédicats donc à des inductions. Ainsi, il fait des « mondes possibles » résultant des projections des parties du monde réel. Ainsi, les théories probabilistes pourraient rejoindre (et c’est déjà le cas dans le monde de la physique) le cercle très fermé du réalisme. Goodman va jusqu’à montrer, dans son livre Manière de faire des mondes (2006), que « s’engager dans un rapport cognitif au monde, sur la voie du langage, ou sur d’autres voies symboliques, ce n’est pas seulement comprendre le monde, mais encore participer à sa construction ».

 

La théorie des mondes possibles9 fut d’abord formulée par Leibniz (qui considère que Dieu a créé plusieurs mondes et que le nôtre est le meilleur possible, idée critiquée par Voltaire dans Candide). Elle s’est développée au XIXème siècle avec la logique modale qui intègre les notions de nécessité, de possibilité, de contingence… L’approche sémantique et notamment celle de Kripke est fondamentale. L’idée est simple : il existe une pluralité de mondes, de modèles, dans lesquels peuvent se réaliser des propositions. Ainsi, dire « il est possible que » revient à dire « il est vrai que ». Certains mondes sont interconnectés, ce qui permet une forme de communication. Par exemple, notre monde réel semble connecté avec des mondes « possibles » au sens où nous sommes en mesure de les imaginer. Cette conception prend à contrepied la philosophie naturelle et les discours scientifiques qui estiment que seul le monde sensible est vrai. Rigoureusement, « un modèle de Kripke est un triplet (W, R, h) où W est un ensemble de mondes dit univers, R une relation binaire dite d’accessibilité et h une fonction de valuation sur les atomes d’un langage propositionnel L ». La fonction de valuation est ce qui permet de dire si une proposition est vraie ou fausse dans un monde.
Comme on peut le lire sur l’article wikipédia, certains penseurs de cette théorie considèrent que les mondes possibles existent de manière concrète, d’autres qu’ils ne sont que des abstractions. Lewis, philosophe américain du XXème siècle, pense que d’autres mondes existent. Il déclare dans son essai On the plurality of Worlds (1986) : « « Y a-t-il d’autres mondes ? Je dis qu’il y en a. Je plaide pour la pluralité des mondes, ou réalisme modal… qui soutient que notre monde n’est qu’un monde parmi de nombreux autres. […] Les mondes sont isolés : il n’y a ni relations spatiotemporelles entre des choses qui appartiennent à des mondes différents, ni une chose survenant dans un monde qui cause la survenance de quelque chose dans un autre monde. ».
Hugh Everett (mathématicien américain du XXème siècle) s’est appuyé sur la théorie des mondes possibles pour développer la théorie des mondes multiples, une interprétation du problème de la mesure quantique à partir des équations de Schrödinger10. Là où un monde possible peut-être logiquement possible mais physiquement impossible, les mondes multiples sont tous physiquement possibles. Everett considère l’univers comme une surface d’eau qui subirait des chocs. La quantité d’eau ne varie pas mais les ondes qui se dégagent des chocs diffèrent. Elles sont autant de mondes possibles.
Pour appréhender ce concept de mondes possibles de manière artistique, je vous invite à regarder le film Mr Nobody (2009) de Dormael. Il est question de la relation entre plusieurs mondes possibles et des paradoxes inhérents à la question du choix :

pko

https://www.youtube.com/watch?v=SRmaWnuMBnc
Si nous pouvons raisonnablement imaginer des théories ouvertes sur d’autres mondes, c’est bien parce que dans une certaine mesure, nous ne pouvons pas être certains de nos connaissances sensibles. L’induction est le processus permettant de définir notre réalité vraie sur le critère de l’expérience sensible. Selon Maurice Boudot, « sans induction nous en sérions réduits au pur flux du vécu ». Pour lui (et le courant constructiviste/néo-positiviste), un fait est signifiant si on peut affirmer sa vérité dans des circonstances données (un monde ou modèle). L’induction permet de définir précisément les circonstances de vérité d’un fait car c’est sur elles qu’elle est fondée.
La puissance de l’induction, c’est aussi son pouvoir prédictif. Autrement dit, bien que la régularité des perceptions phénoménologiques soit incertaine, elle est dans bien des cas étudiés hautement probable. Cela permet de faire des prédictions pour l’action. Ainsi, la méthode inductive correspond très bien aux besoins d’information des activités humaines. Certains pensent d’ailleurs que plutôt que de parler de connaissance scientifique, il faudrait parler de théories de l’action. La connaissance ne tire sa validité que de son pouvoir d’action, « l’induction devrait être légitimée à titre de stratégie optimale ». Cette prise de position de la société occidentale en faveur de la méthode inductive et de la science expérimentale (ce qui est sensiblement la même chose) pose de nombreux problèmes éthiques. Longtemps considérée comme la démarche la plus légitime, elle a conduit à de nombreuses discriminations culturelles, mises en évidence par les anthropologues modernes comme Levi-Strauss (La pensée sauvage, 1962).
Si l’induction pose problème, c’est parce que la généralisation du fait circonstanciel à des situations hypothétiques est toujours incertaine. Pour mesurer la certitude des théories, les chercheurs ont donc développé des théories probabilistes de l’induction.
Dans les sciences inductives, toute connaissance est une probabilité. La probabilité est une grandeur qui dépend de l’état de connaissance d’un sujet particulier, donc elle est relative à la fois à notre connaissance et à notre ignorance. Cette incertitude a deux origines possibles : si la réalité est déterminée par des lois parfaitement immuables, alors l’incertitude est issue d’une limite de nos capacités techniques et perceptives. Si au contraire la réalité est incertaine par nature (les lois sont variables aléatoirement), alors même des capacités techniques et perceptives meilleures ne pourront pas nous offrir une connaissance certaine.
Si deux évènements sont équiprobables, c’est parce qu’on n’a pas connaissance d’un modèle dans lequel ils se distinguent. Nous savons que nous sommes incapables de démontrer certains concepts. Ainsi, notre connaissance d’une stabilité est par exemple relative à notre ignorance de l’instabilité.  Il reste de l’ignorance à l’origine. Toute théorie est probable et toute égalité est une équiprobabilité. Pour exprimer cette idée de manière topologique, nous sommes incapables de rendre une mesure particulière vraie indépendamment des probabilités car toute mesure a lieu sur une portion finie d’espace-temps et rien ne permet d’affirmer la valeur du résultat sur une autre portion.
La théorie probabiliste de Hans Reichenbach (philosophe allemand du XXème siècle) suppose un double système de suites : celle qui attribue une probabilité à un évènement particulier dans une suite d’évènements (suite naturelle) et celle qui exprime l’évolution de la probabilité de l’évènement lorsqu’on le fait tendre vers l’infini (suite de généralisation). La généralisation qui résulte du deuxième système est elle-même une suite qui sera plus ou moins proche de la suite naturelle selon le degré de similitude entre les faits réels et les faits du modèle. L’écart entre la suite de généralisation et la suite naturelle décrit le poids de la probabilité. Ce poids tient lieu de valeur de vérité. Théoriquement, nous sommes capables de prédire, à condition que les lois du modèle soient stables, la limite vers laquelle tend une mesure. Il s’agit là d’une induction. Il est important de noter que les probabilités ne s’intéressent pas à l’incertitude de l’existence, mais à l’incertitude de l’existence possible car elles sont généralement appliquées à des évènements qui n’ont pas encore eu lieu.
Au-delà de l’incertitude qui l’accompagne, l’induction est confrontée au problème du choix. Comment sélectionner une perception plutôt qu’une autre ? Selon quels critères ? Karl Popper dans La Logique de la découverte scientifique (1934), estime que c’est une illusion de croire qu’il existe d’autres formes de raisonnement que les raisonnements déductifs car toute induction impliquerait une discrimination dans les faits relevés, un choix d’hypothèse qui, fondamentalement, se fonde sur des critères arbitraires : la théorie préexiste à l’expérience qui ne peut la confirmer avec certitude. Car au nom de quel principe choisit-on une cause plutôt qu’une autre ? Putnam explique en 1983 qu’un incendie de forêt peut-être déclenché « par » une cigarette, mais il faut également inclure dans les causes la sècheresse, la température, l’addiction du fumeur… En statistique, un coefficient de détermination noté R2 permet de déterminer le pouvoir explicatif d’une relation causale modélisée. Mais ce coefficient reste relatif aux mesures effectuées.
Il n’y aurait donc aucune réalité de fait, se révélant objectivement et entièrement. Nous construisons des connaissances à partir de déductions et d’inductions mais ces connaissances sont, dans une certaine mesure, soumises à l’arbitraire. Existe-t-il alors des lois scientifiques ? Selon l’essentialisme de Kripke (1972), une loi doit, pour être est loi, être douée d’une modalité « aléthique », c’est-à-dire être toujours valable dans son modèle d’application. Sinon il ne s’agit plus d’une loi mais d’une régularité. Face à la finitude de nos outils de mesure et de formalisation des théories, l’essentialisme admet la possibilité que nous ne connaissions aucune loi véritable, seulement des lois relatives.

 

 Conclusion

Pour conclure sur cette démarche inductive (dont j’ai conscience de n’avoir dressé qu’un grossier panorama) et théorie de la preuve en science expérimentale, je souhaite rappeler que le postulat essentiel de la méthode inductive est que le futur ressemblera au passé. Cela est valable aussi longtemps que les « lois » de notre univers, c’est-à-dire les régularités que l’on estime nécessaires à l’existence des phénomènes en général, ne changent pas. L’enjeu de ma recherche n’est pas de me débarrasser de la connaissance commune et subjective. Comme dit Russsel, « non que la connaissance commune doive être vraie, mais nous ne possédons aucun genre de connaissance radicalement différent, qui nous viendrait d’une autre source. Le scepticisme universel, logiquement irréfutable, est pratiquement stérile ». L’objectif clair de Russel est donc de clarifier nos connaissances communes, pas de les nier. Selon lui, il faut tenter d’augmenter le degré de certitude de nos connaissances, par la logique et l’expérience.
J’accepte notre dépendance à une subjectivité. Cependant, je n’accepte pas que notre perspective de progrès réside dans l’augmentation du degré de certitude de nos connaissances communes. Les perceptions ne sont pas bornées par des limites définitives. Selon moi, il est possible d’élargir notre subjectivité perceptive et ainsi de la redéfinir. En apprendre plus sur nos capacités perceptives nous obligera également à créer de nouveaux outils de formalisation de nos connaissances. A l’extrême, y a-t-il quelque chose nous interdisant de rêver à une subjectivité omnisciente ? Qu’est-ce qui distinguerait alors la subjectivité de l’objectivité ?
ps : voici une podcast incroyable qui reprend et approfondi très très bien (c’est à dire à la fois justement et simplement) ce que j’ai dit à propos de la logique, de la démonstration et plus particulièrement des théorèmes d’incomplétude de Gödel. Je vous recommande vraiment de l’écouter : http://www.podcastscience.fm/tag/philosophie/

 


  1. https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_compl%C3%A9tude_de_G%C3%B6del
  1. Cassou-Noguès Pierre, Gödel, 2003, Éditions Les Belles Lettres.
  1. https://fr.wikipedia.org/wiki/Argument_circulaire
  1. https://en.wikipedia.org/wiki/M%C3%BCnchhausen_trilemma
  1. https://fr.wikipedia.org/wiki/Agrippa_(philosophe)
  1. https://fr.wikipedia.org/wiki/Paradoxe_de_Goodman
  1. GOODMAN N., Faits, fictions et prédictions, « la nouvelle énigme de l’induction », Paris, Les éditions de Minuit, 1984.
  1. http://traces.revues.org/2793?lang=en
  1. https://fr.wikipedia.org/wiki/Mondes_possibles
  1. https://fr.wikipedia.org/wiki/Th%C3%A9orie_d%27Everett

 

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s