2.3 Le discours scientifique et la logique

Introduction

Enfin ! ZE article complètement chéper dont la compréhension sera réservée aux plus voltigeuses des têtes pensantes que vous êtes (je ne pense pas aux nobliaux). SPOILER ALERT ! Vous allez entendre parler de logique, d’abduction (et ça n’est pas Sylvain Duriff qui le dit), de l’énigme du cinquième postulat, de Luke Skywalker, de Peano-chio et d’axiomatisation analytique de la logique du calcul des prédicats.
Cette accroche ne signifie pas que j’ai changé ma ligne éditoriale, ni que je travaille maintenant sous cocaïne. Simplement, sachez que je suis disponible pour répondre à toutes vos questions et critiques concernant cet article qui est je pense moins abordable que les autres (d’où mes efforts pour le vendre).
Commentaire général sur ma recherche jusqu’à présent : j’aurais pu choisir d’éviter sagement toutes ces thématiques. Je vois déjà un professeur me dire qu’il est idiot d’ouvrir des champs aussi larges et complexes pour se contenter de les effleurer, voire de mal les présenter. J’admets. J’assume. Mais je préfère essayer, quitte à me vautrer. Et puis ça n’est pas dans mes habitudes d’effleurer comme un papillon. Je pique plutôt, telle la guêpe. Mais on n’est jamais à l’abri d’une erreur… prudence, toujours. Là où vous êtes chanceux, c’est que j’ai tenté d’éclaircir et de simplifier le contenu d’ouvrages encore moins abordables. Ne me remerciez pas, accrochez vos neurones et rendez-vous dans les commentaires.

 1. La logique ou la science intuitive

Qu’est-ce que la logique ?1 J’avoue ne pas savoir par où commencer. Je me suis formé comme j’ai pu à cette branche très particulière de la philosophie, et la complexité de ce que j’ai découvert rend difficile un compte rendu sous forme d’article. Fondamentalement, la logique est un langage et un discours particuliers dont l’objectif est de distinguer le vrai du faux. Contrairement à l’expérimentation scientifique, la logique n’a pas besoin de tester la vérité d’une assertion de manière empirique. Le terme vient en effet du grec logos qui signifie relation. Ainsi, c’est dans la mise en relation des concepts par le langage que la logique est capable de distinguer le vrai du faux. Le travail du logicien consiste à construire un langage qui autorise certaines relations, en interdit d’autres et permet dans tous les cas de les exprimer clairement.
Concrètement, un langage logique est composé, comme tout langage, de symboles que l’on divise en deux catégories : les signes logiques et les signes non logiques. On peut inventer autant de signes non logiques qu’il existe de phénomènes à leur associer. Ces phénomènes sont soit des sujets (chose signifiée), soit des prédicats (qualité de la chose signifiée). Les signes logiques sont utilisés pour mettre en relation les signes non logiques. Leur nombre et leur signification dépendent de la vérité que le logicien valorise. Le choix d’un langage formel plutôt qu’un autre dépend de l’usage qu’on entend en faire. De l’antiquité jusqu’à la fin du XIXème siècle, une logique dite classique s’imposait comme unique modèle de vérité. La logique classique regroupe traditionnellement le calcul des propositions et le calcul des prédicats. Depuis le XIXème, d’autres logiques et notamment le modèle intuitionniste se sont développées mais dans la mesure où les théories scientifiques actuelles s’appuient principalement sur des lois de la logique classique, il est essentiel pour nous de comprendre ces lois avant de les remettre en question.
Les premiers logiciens ont pour tâche de déterminer quels sont les critères de vérité dont nous pouvons voire devons être certains. On trouve une première énumération de ces critères dans l’Organon d’Aristote (IVème siècle av JC). Ils sont au nombre de 3 :
– La loi d’identité affirme d’abord que « tout ce qui est, est », donc A est A, toute chose est identique à elle-même. Cela est essentiel car pour affirmer que A implique B, il faut que A soit identifiable.
– La loi de non-contradiction interdit à un énoncé et à sa négation d’être vrais tous les deux. Autrement dit, on ne peut avoir en même temps P et non-P vrais. Selon Aristote dans sa Métaphysique, « il est impossible qu’un même attribut appartienne et n’appartienne pas en même temps et sous le même rapport à une même chose ». Pour beaucoup de penseurs, ce principe est nécessaire dès lors que l’on ouvre la bouche car dire quelque chose, c’est rejeter autre chose. La contradiction serait alors la frontière même entre le pensable et l’impensable. Cette loi se traduit par le principe
– La loi du tiers-exclu affirme que face à deux énoncés dont l’un est la négation de l’autre, au moins l’un des deux est vrai. Ainsi, ce principe précise la loi de non-contradiction en rejetant tout état intermédiaire entre l’être et le non-être (logique bivalente), « tout doit ou bien être, ou bien ne pas être ». Cette dernière loi fait échos au principe de non-contradiction, mais le complète car si ce-dernier précise qu’il est impossible que deux propositions contradictoires soient vraies en même temps, il n’interdit pas qu’elles soient toutes les deux fausses, laissant place à un état intermédiaire (un « demi-être »). Cette loi permet enfin de raisonner par l’absurde (si non A est impossible, alors on a A).
Dans la continuité des travaux d’Aristote, les langages logiques se sont multipliés et mathématisés. Autrement dit, les mots furent remplacés par des symboles et les phrases par des formules. Cela permet de créer des énoncés plus univoques. Ce rapprochement de la logique et des mathématiques est relativement récent : XVIIème siècle avec Leibniz mais surtout XIXème avec Boole puis Frege et son Idéographie (1879). Pour justifier cette démarche, Frege déclare : « c’est une tâche de la philosophie de rompre la domination du mot sur l’esprit humain en dévoilant les illusions qui naissent presqu’inévitablement de l’utilisation de la langue pour l’expression de la relation entre les concepts ». Voici un exemple de formule logique (l’implication matérielle) :  . Cette formule signifie que « non A implique non B » implique nécessairement « B implique A ». Sur le tableau ci-dessous, vous trouverez d’autres formules fondamentales de la logique propositionnelle (raisonnement par l’absurde, conjonction, négation d’une disjonction, négation d’une implication matérielle et équivalence matérielle) :

Ima1

 

Chaque formule est constituée de connecteurs logiques (signes logiques) et d’une ou plusieurs propositions (A, B, Q1, Q2…). Une proposition est un énoncé qui admet potentiellement une valeur de vérité ou de fausseté. Par exemple, « il pleut » est une proposition dans le modèle terrestre car soit il pleut et la proposition est vraie, soit il ne pleut pas et la proposition est fausse. Je peux être incapable de savoir s’il pleut ou pas, mais je sais qu’en théorie, on doit opter pour l’un ou pour l’autre. En revanche, « fête de la musique » (et oui c’est le mois de juin) n’est pas une proposition car cet énoncé n’attend pas une valeur de vérité ou de fausseté. Les connecteurs logiques sont les fameuses relations logiques qui lient des propositions. La plupart sont considérés comme les propriétés de la pensée (Catégories aristotéliciennes, Tables kantiennes), la question étant de savoir si nous les connaissons toutes. Nous ne pouvons pas parler ici des tous les connecteurs logiques qui existent et des langages correspondant.
L’idée essentielle à retenir, c’est la capacité des langages logiques à formuler des propositions et à les connecter. A quoi servent ces énoncés logiques ? Comment les exploiter notamment dans les théories scientifiques ? Quelle est la valeur de leur vérité ? Ses limites ?
En attribuant une valeur de vérité à des propositions et en interprétant les conséquences de cette valuation à partir de lois fondamentales (critères de vérité comme ceux d’Aristote par exemple) et des connecteurs logiques du langage logique, on peut créer de nouvelles propositions dont la valeur de vérité est relative à celle des propositions initiales. Si la première valuation est correcte, la deuxième le sera aussi car les lois fondamentales sont incontestables. Par exemple, si j’affirme que dans un contexte donné que A ET non B est vrai, alors je peux affirmer pour ce même contexte qu’en vertu du principe de non contradiction, non A et B est faux, de même que non A et non B (en vertu de la conjonction). Nous venons ici de démontrer par déduction la fausseté de « non A et B ». Les propositions initiales sont appelées prémisses du raisonnement tandis que les propositions finales sont les conclusions. On constate que si la vérité des prémisses est déterminée par un jugement externe aux lois du langage logique, celle des conclusions en dépend entièrement. Ainsi, dès lors que les prémisses sont acceptées vraies, les conclusions le sont également en vertu des règles logiques. Ce qui permet de déduire des propositions conclusives à partir de prémisses, c’est le cadre normatif imposé par la signification des symboles logiques du langage.
J’ai employé dans le paragraphe précédent l’expression « démontrer par déduction ». Qu’est-ce que cela signifie ? Rigoureusement, une démonstration est une suite finie de propositions telle que chacune est soit un axiome, soit la conséquence d’une proposition précédente par application d’une règle du langage logique. On parle aussi de règles de déduction ou d’axiomes du langage. Un axiome (ou postulat) est une proposition acceptée mais non démontrée. Dans l’exemple du paragraphe précédent, nous avons une suite de deux propositions. La première proposition est un axiome car nous n’avons pas démontré pourquoi « A et non B » est estimée vrai. La deuxième proposition est une conséquence logique de l’axiome initial car elle explicite les informations (implicites) que les lois fondamentales et les connecteurs logiques ajoutent à la prémisse. Cette explicitation est ce qu’on appel une inférence. Pour qu’une conclusion soit conséquence logique des prémisses, elle doit toujours être vraie quand les prémisses sont vraies. Si les prémisses sont ambigües, alors le raisonnement ne peut aboutir. La dernière formule d’une démonstration est un théorème, c’est-à-dire une formule pour laquelle il existe une démonstration.
Ce ne sont pas les choses elles-mêmes qui sont liées par l’inférence mais certaines caractéristiques partagées. Moins ces caractéristiques sont partagées, plus l’inférence se limite à un modèle restreint. L’inférence se manifeste naturellement au quotidien, elle est liée à l’habitude d’associer certaines caractéristiques à certaines choses. Grâce à la mémoire, l’inférence permet d’étendre (ou projeter) un phénomène se manifestant dans un espace-temps observé à un phénomène se manifestant dans un espace-temps non observé.
L’induction, la déduction et l’abduction sont les trois formes communes de raisonnement par inférence (ou démonstration). La déduction est la plus fondamentale car les autres formes en dépendent. Si une hypothèse à étudier est acceptée par postulat avant d’être démontrée, alors le raisonnement est purement déductif. Si l’hypothèse doit être vérifiée par une observation, généralement empirique, alors le raisonnement est inductif. Si enfin l’hypothèse est justifiée par discrimination des autres hypothèses possibles, alors le raisonnement est abductif. Fondamentalement, Russel critique la légitimité de l’induction car il estime, à juste titre il me semble, qu’elle se réduit à une déduction qui, plutôt que de se fonder sur des intuitions empiriques, se fonde sur des faits empiriques.
La causalité, qui est en fait identifiée grâce à l’induction (primaire ou secondaire) est ainsi définie par Russel (La méthode scientifique en philosophie, 1914)2 : « Si, dans un grand nombre d’exemples, une chose d’un certain genre est associée, d’une certaine manière, à une chose d’un certain autre genre, il est probable qu’une chose du premier genre soit toujours pareillement associée à une chose de l’autre genre ; et, à mesure que croît le nombre d’exemples, la probabilité se rapproche indéfiniment de la certitude ».
Je souhaite maintenant revenir au principe fondamental de la méthode démonstrative : chaque proposition est soit la conséquence d’une autre par application d’une règle de déduction, soit un axiome. Pour fonder la vérité des propositions, il est donc nécessaire de fonder celle des axiomes et des règles de déduction (qui sont en fait des axiomes). Je vous propose d’étudier deux fondements majeurs de la vérité des axiomes : l’intuition et l’expérience empirique.

 2. Intuition et vérité

L’intuition suppose de ne pas démontrer la vérité de ses axiomes par l’expérience mais de les justifier soit par une démonstration logique, soit par l’évidence.
Nous avons déjà étudié ce qu’implique une démonstration logique (règles de déduction, prémisses, conclusion, inférence, axiomes…). Aussi allons-nous ici nous intéresser à l’évidence. Cette dernière concerne les axiomes des théories qu’il est impossible de démontrer par choix ou par nécessité. Mais pourquoi nous avons « foi » dans certains axiomes et pas d’en d’autres ? La réponse donnée est que certains axiomes sont nécessaires intuitivement, par évidence. Autrement-dit, nous croyons en eux sans avoir besoin de preuve logique. Toute démonstration est ainsi une régression conceptuelle qui se poursuit jusqu’à ce que les propositions soient jugées « évidentes » sans qu’il soit nécessaire (ou possible) de démontrer cette évidence. Hume dirait qu’on passe de pensées complexes à des pensées simples, issues de nos impressions. Peut-on maintenant définir plus précisément ce qu’est une intuition ? Hume l’associe à une habitude (nous avons parlé de perception familière) perceptive. Autrement dit, est intuitif ce qui est ou a été perçu de manière régulière par nos sens.
La logique et la science sont très critiques à l’égard de l’intuition car tandis que leur démarche vise à tout justifier par positionnement relatif dans un réseau de définitions ou de propositions, l’intuition est une idée non justifiée. Ainsi, on ne peut pas savoir dans un premier temps si une intuition est correcte ou pas. Il faut « avoir confiance » comme dit Obi Wan au jeune Luke Skywalker qui s’apprête à détruire l’étoile noire dans l’épisode 4 de la Guerre des Etoiles (http://www.dailymotion.com/video/x2tfaiu)… Bergson est aussi un défenseur de l’intuition. Russel le cite pour le critiquer (Introduction à la Métaphysique) : « Il y a deux manières profondément différentes de connaître une chose. La première implique qu’on tourne autour de cette chose ; la seconde qu’on entre en elle. La première dépend du point de vue où l’on se place et des symboles par lesquels on s’exprime. Le seconde ne se prend d’aucun point de vue et ne s’appuie sur aucun symbole. De la première connaissance on dira qu’elle s’arrête au relatif ; de la seconde, là où elle est possible, qu’elle atteint l’absolu ». On observe bien ici la différence entre l’observation extérieure du phénomène, relative à l’entendement, la raison, et l’observation intérieure, relative à l’intuition, la communion sensible.
Bergson développe une approche très héraclitienne du réel : pour lui, tout produit de l’entendement n’est que fiction d’une réalité sans catégorie, où tout s’écoule. La vérité réside dans une immersion au sein de la réalité intuitive, évidente. Le philosophe prend exemple sur la nature : les phénomènes naturels sont purement instinctifs et pourtant ils réalisent des prouesses que l’homme ne peut qu’à peine effleurer avec l’entendement. A Schopenhauer de renchérir à propos de la logique : « c’est comme si un homme se coupait les deux jambes afin de marcher avec des béquilles ». Selon eux, la raison éloigne plus qu’elle ne rapproche de la réalité.

 

Les critiques de l’intuition ont eux aussi des arguments solides. Russel reproche à l’intuition d’être l’expression d’anciennes manières d’agir et de traduire ainsi une parenté avec les générations passées. L’intuition, ou l’instinct comme il dit, seraient incapables de faire face à la nouveauté, d’innover : « l’instinct est admirable dans la sphère de l’ordinaire mais il est totalement incompétent dès que le milieu change ». Développer cette idée nous amènerait dans des considérations physiologiques et évolutionnistes (qu’on traitera plus tard) mais il est vrai que l’instinct est spontanément attribué aux espèces non humaines. Or, ces espèces ont la particularité de persévérer dans leur nature en faisant preuve de capacités d’adaptation très limitées dans le temps (contrairement à l’homme). Bien que la critique de l’intuition soit légitime, il semble que nous ne savons pas nous en passer tout à fait. En effet, que l’on démontre une théorie par la logique ou par l’expérience, l’intuition sensible joue toujours un rôle fondamental.
 Image2
On pourrait penser que les partisans de la méthode démonstrative ne peuvent accepter comme vraies que les propositions démontrées et rejeter toute intuition. Mais est-ce seulement possible ?
Si je justifie une proposition par une proposition antérieure, je dois à nouveau justifier la proposition antérieure par une autre proposition. Cette quête démonstrative conduit à une régression infinie, de propositions en propositions, et comme l’homme a des moyens de recherche limités dans l’espace et le temps, toutes les conclusions démonstratives, même mathématiques, se fondent à l’origine sur un axiome, c’est-à-dire une proposition admise, non démontrée, intuitive. Une discipline est née de l’étude des axiomes : l’axiomatique. Elle vise à mettre en évidence les axiomes que renferment les théories. Sont-ils vraiment des axiomes ? Y en a-t-il suffisamment ?
Tout d’abord, l’axiome est un terme ou une proposition fondamentales, définit par trois caractéristiques : il doit être indémontrable dans la théorie, indépendant de la théorie et absolument nécessaire à la cohérence de la théorie. Si l’axiome est démontrable par des propositions antérieures, alors il ne s’agit plus du fondement de la théorie. S’il n’est pas indépendant, cela signifie que son existence est au moins en partie conditionnée par la théorie qu’il fonde. Autrement dit, il ne fonde à nouveau plus entièrement la théorie. L’indépendance n’est pas indispensable, mais elle signifie une surabondance de propositions premières, ce que le principe d’économie déconseille. Mais attention, la pauvreté de la langue de base a généralement pour effet d’allonger le discours. Par exemple, les opérateurs de la logique classique de premier ordre peuvent tous être obtenus à partir de la négation et d’un connecteur logique (conjonction, disjonction ou implication). Plus radicalement, les ordinateurs ne travaillent qu’à partir de suites de 0 et de 1. Cela rend cependant les langages moins intelligibles pour l’esprit humain. Enfin, l’axiome doit être nécessaire à la cohérence de la théorie car sinon, le principe d’économie nous encourage à l’ignorer. Nier le rôle fondateur d’un bon axiome d’une théorie revient à nier la possibilité d’existence même de la théorie.
Par exemple, si je fonde une théorie en commençant par dire « le langage existe », il s’agit d’un axiome car je ne démontre pas l’existence du langage mais je l’admets nécessaire à l’énonciation même de la théorie. Si je commence ma démonstration en posant comme axiome « le langage n’existe pas », alors tout ce que je dirai par la suite sera contradictoire avec cet axiome (car dire c’est admettre l’existence du langage). Si un axiome ne peut être remis en cause à l’intérieur d’une théorie, c’est-à-dire s’il ne permet pas de démontrer une proposition et sa négation, alors il est non contradictoire et forme avec la théorie un ensemble consistant. Un système de postulats est complet si tous les énoncés qui sont conséquence logique des axiomes peuvent être déduits à partir de ces axiomes. Si on ne peut que décider de la démontrabilité d’une proposition (possible de trancher entre vraie ou fausse), sans la démontrer vraiment, alors le système est seulement décidable. L’incomplétude est moins importante que l’inconsistance car elle résulte d’une imperfection de la théorie et non d’une contradiction logique.
Fondamentalement, toute théorie est composée de propositions premières et de termes premiers. Une proposition première est composée de termes premiers et l’ensemble des axiomes de la théorie est composé de propositions premières. Un terme premier est un symbole dont il faut admettre la signification pour commencer à définir. La proposition première est un ensemble de symboles dont il faut admettre la signification pour commencer à démontrer.
Rigoureusement, l’axiomatique est « un système où soient totalement explicités les termes non définis et les propositions non démontrées ». L’objectif est donc d’identifier les propositions premières qui fondent la connaissance pour mieux les étudier, les éprouver. Lorsque ses axiomes sont identifiés, une théorie est dite axiomatisée. Robert Blanché développe, dans le premier chapitre de son ouvrage L’axiomatique (1959), l’exemple de l’axiomatisation de la géométrie classique à partir notamment des Eléments d’Euclide…
Euclide (300 av JC) est probablement le premier auteur à proposer une démarche axiomatique. Il démontre et définit tout ce qu’il dit, à part bien sûr les propositions et termes premiers qui sont énoncés clairement dans les Eléments. L’évidence des axiomes d’Euclide est si puissante que personne ne parvint à les critiquer correctement avant le XIXème siècle. La célèbre 29ème proposition d’Euclide, son cinquième postulat, fut la plus étudiée. Cette proposition nous force à admettre, pour sa démonstration, que par un point hors d’une droite, ne passe qu’une seule parallèle à cette droite. Il découle de cette proposition que la somme des angles d’un triangle est égale à deux droits. Hors, les penseurs ont estimé que cette proposition n’est pas suffisamment intuitive pour se passer de démonstration… Le problème, c’est qu’à ce jour, aucune démonstration directe n’a réussi à justifier le cinquième postulat euclidien. Ainsi, l’ensemble de la communauté scientifique est unanime pour dire qu’on ne peut ni en faire un théorème (donc le démontrer), ni le supprimer (car alors la plupart des théorèmes de la théorie sont modifiés).
Les recherches ont cependant porté leurs fruits d’une autre manière. Nous avons découvert que si la suppression du postulat des parallèles entraîne une réinterprétation de toute la théorie géométrique, elle n’entraîne pas de contradiction logique à condition qu’on abandonne notre intuition classique, naturelle (espace-temps de l’expérience quotidienne). Ainsi, les chercheurs ont reconnu l’existence de nouveaux systèmes géométriques fondés sur des nouveaux axiomes. Des mathématiciens comme Gauss, Lobatchevski ou Poincaré ont proposé, notamment à partir du XIXème siècle, des géométries non euclidiennes (sphérique, elliptique, hyperbolique…) qui n’utilisent pas le cinquième postulat d’Euclide4. La géométrie hyperbolique admet par exemple que par un point hors d’une droite, il passe une infinité de parallèles à cette droite (sur l’image, d1 d2 et d3 sont toutes parallèles à D).
dgh
Cela suppose ainsi que la somme des angles d’un triangle est supérieure à deux droits. Récemment, nous avons découvert que certaines de ces géométries s’appliquaient à des portions particulières de l’espace-temps. La géométrie hyperbolique est par exemple la règle au voisinage des trous noirs. Ce tournant géométrique est  intéressant car il montre que ce qui est intuitif n’est pas forcément ce qui est habituel et si nous ne pouvons démontrer certaines propositions, c’est justement parce qu’elles ouvrent sur des intuitions moins « classiques ».
L’histoire de la 29ème proposition et les débuts de l’axiomatique nous enseignent que les sciences n’ont pas d’axiomes vrais dans l’absolu. Tout axiome n’est qu’une hypothèse plus ou moins habituel et toute hypothèse est acceptable, sa validité dépendant des caractéristiques du système de réalisation considéré (moins il est habituel, moins nous y aurons accès facilement). Un postulat vrai dans un système peut devenir faux dans un autre, tout dépend de la structure logique considérée. Ainsi, Blanché nous dit que « des théorèmes incompatibles entre eux peuvent également être vrais, pourvu qu’on les rapporte à des systèmes différents ». Souvent, c’est notre enfermement dans un système particulier, celui de notre expérience quotidienne (habituelle), qui limite la logique.
Bien sûr, cette démarche ne libère pas les théories des axiomes. Elle se contente de les expliciter. De plus, elle ne libère pas l’intuition rationnelle de l’observation empirique car les axiomes ne naissent pas de rien (problème heuristique). La géométrie hyperbolique est intuitive grâce à une analogie avec des surfaces hyperboliques qu’il est possible de rencontrer dans la nature. De même, on constate qu’une intuition rationnelle est d’autant plus complexe à saisir que son système de réalisation est difficile à percevoir. Un phénomène de complexification touche particulièrement les théories modernes (mécanique quantique par exemple). Leur réalisation est de plus en plus éloignée de notre expérience et on est ainsi en droit de se demander si elles ne perdent pas ainsi en pertinence.
Deux grandes méthodes sont généralement utilisées pour axiomatiser une théorie, je souhaite présenter deux méthodes traditionnelles permettant d’axiomatiser une théorie.
La méthode analytique, héritée de Kant3, consiste à expliciter les caractéristiques de l’axiome (terme ou proposition) par réduction à des axiomes antérieurs (appartenant généralement à une autre théorie). En postulant la non-contradiction des axiomes antérieurs avec ceux de la théorie étudiée, on peut proposer une nouvelle interprétation de la théorie qui sera par extension elle aussi non-contradictoire. D’une manière générale, plus on remonte vers des théories antérieures, plus on gagne en consistance. L’arithmétique classique (science des nombres) est ainsi souvent choisie comme témoin de la consistance d’autres théories car une fois traduite mathématiquement, une idée est très difficilement contestable. La réduction peut se faire de propositions en propositions, de termes en termes, ou de propositions en termes et de termes en propositions.
Kant donne l’exemple d’une réduction analytique à partir du terme corps en disant « tout corps est étendu ». L’extension spatiale est un concept différent de celui de corps, mais elle est supposée par le concept de corps, inhérent à son existence. Autrement dit, sans espace, pas de corps. L’étendu est donc un terme antérieur à partir duquel on peut déduire le concept de corps (cf interprétation à partir de la théorie des ensembles). Définir le corps comme une étendu permet d’expliciter une de ses caractéristiques fondamentales. Rigoureusement, on peut considérer cette méthode comme tautologique car si l’étendu est supposée par le corps, alors l’expliciter ne crée par d’information mais ne fait que rendre explicite l’implicite. Cette méthode analytique est ce qu’on appelle une définition explicite (ou intensive, ou connotative)5.
L’approche synthétique consiste à associer un axiome à un autre. Ainsi, l’axiome n’est pas défini en lui-même mais par la relation qu’il entretient avec d’autres concepts. Par conséquent, la définition est implicite (ou extensive, ou dénotative) : sa vérité est relative au système formel qu’elle énonce. Cette approche fait souvent perdre en universalité. En effet, le concept est vrai relativement à une constellation de concepts qui, contrairement à la méthode analytique, ne sont pas nécessaires à son existence en général, mais seulement à son existence dans la théorie axiomatisée considérée. Il s’agit par exemple d’associer au concept de corps celui de poids. Il existe des corps sans poids (neutrinos…) mais dans la plupart des systèmes où l’on fait intervenir le concept de corps, ce dernier en a un. L’approche synthétique est la seule qui devient applicable lorsqu’on a affaire à des axiomes dont les caractéristiques ne sont décrites par aucune théorie antérieure. Par exemple, Peano a proposé à la fin du XIXème siècle une axiomatisation de l’arithmétique en définissant de manière implicite l’ensemble des entiers naturels. Concrètement, il a mis en relation 5 axiomes, définissant ainsi les entiers par la structure que forment ces axiomes :
  1. l’élément appelé zéro et noté 0, est un entier naturel.
  2. Tout entier naturel n a un unique successeur, noté s(n) ou Sn.
  3. Aucun entier naturel n’a 0 pour successeur.
  4. Deux entiers naturels ayant le même successeur sont égaux.
  5. Si un ensemble d’entiers naturels contient 0 et contient le successeur de chacun de ses éléments, alors cet ensemble est égal à N (à la suite des entiers naturels)
Dans cette démonstration, on ne sait pas si les propositions sont vraies individuellement car elles nous sont données par postulat, mais on sait que l’ensemble des 5 propositions est cohérent. C’est donc dans leur relation les unes avec les autres que les propositions deviennent des axiomes légitimes. Cette méthode permet-elle de résoudre le problème de la régression infinie ? J’aimerais répondre oui, mais cela serait malhonnête. En effet, les 5 axiomes de Peano sont connus à travers le système qu’ils forment, mais ils sont inconnus individuellement. On est en droit de se demander au nom de quel principe on les accepte. Pourquoi admettre que zéro est un entier naturel avant même d’avoir défini ce qu’est un entier naturel ? Si la définition de zéro comme le premier entier naturel est arbitraire, comment justifier l’existence objective des entiers naturels ?
Bien que ces méthodes soient imparfaites, elles permettent de valuer des discours. Dans cet article6 qui étudie les distinctions entre les concepts d’existence et de réalité, il est question de la notion de « monde ». L’auteur explique que si on définit le monde comme une totalité, « ce qui contient tout », alors il est absurde de supposer l’existence de « mondes » au pluriel, d’univers parallèles. En effet, le faire créerait une contradiction avec la définition initiale (le monde est tout).
Certains voient dans les progrès de la logique une « abstraction croissante, un refoulement de l’intuition, une subordination du contenu à la structure ». Cependant, il serait abusif de croire dans un effacement total de l’intuition.
Pour conclure, je dirai que toute découverte est une conception qui à un instant donné, passe de la contre-intuition à l’intuition, de l’impossible au possible. La logique intervient dans un second temps, pour formaliser l’intuition et donner au discours scientifique sa forme finale. L’histoire des sciences est donc marquée par une alternance entre des périodes d’expansion des connaissances (renaissance) où les intuitions sont bousculées, renouvelées, et des périodes de formalisation, où l’on tente de donner une cohérence systémique et un champ d’application aux intuitions nouvelles (classicisme). L’axiomatique questionne, comme le dit Blanché, « les rapports du logique et de l’intuitif ». Personnellement, j’ai envie de questionner les rapports de l’intuition et de non logique pour comprendre dans quelle mesure les outils de la pensée limitent et cadrent notre perception. Mais avant cela, nous allons étudier les perceptions de plus près (dans le prochain article). Dans le monde des sciences, s’il y a intuition, il y a aussi expérience de la vérité…

  1. Wagner Pierre, Logique et Philosophie, 2014, Ellipses, 360p
  1. https://fr.wikipedia.org/wiki/La_M%C3%A9thode_scientifique_en_philosophie#La_m.C3.A9thode_analytique_en_philosophie
  1. https://fr.wikipedia.org/wiki/Critique_de_la_raison_pure
  1. https://fr.wikipedia.org/wiki/G%C3%A9om%C3%A9trie_non_euclidienne
  1. Gergonne, Essai sur la théorie de la Définition, 1818
  1. http://www.philosciences.com/Pss/philosophie-generale/ontologie-reel-realite/195-existence-reel-realite
Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s