lundi 31 mars 2008
Modèle tripartite - triade - de la conscience.
Il suffit que la symétrie des contraires s’annihilant ne soit pas parfaite pour que demeure à l’horizon de cette conscience de conscience pure, cette vacuité (au sens d'un espace sans dimension ni temporalité mais néanmoins riche de toutes les potentialités), une part de conscience élémentaire, tournée soit vers l’intérieur (p.ex. le sujet : conscience de soi), soit vers l’extérieur (p.ex. l’objet : conscience du monde). Cette conscience de conscience pure qui ne peut être qu’une conscience d’elle-même (i.e. un état T autonome), devient alors conscience de cette conscience élémentaire, ce que l’on appelle alors une conscience objective ou plus exactement, une conscience objectivante (Temple, 1998) : elle oriente les choses et donc, ses choix et décisions.
Dans cette perspective, sujet et objet, organisme et monde, esprit et corps sont ontologiquement liés, par un couplage dynamique impliquant la présence de l'affectivité dans toute forme d'interaction et à tout niveau d'abstraction. Il en découle ainsi, qu'au même titre que nos rapports avec l'extérieur peuvent être bons ou mauvais en fonction de leur nature (ce que nous respirons, mangeons, buvons...), c.-à-d. ce à quoi nous nous exposons ; nos rapports avec l'intérieur peuvent être porteurs ou inhibiteurs en fonction de ce que nous pensons ou ruminons ou, de ce que nous désirons, fantasmons ou rejetons et exécrons.
. .
mardi 25 mars 2008
L'astuce des niveaux de réalités.
Nous avons vu dans le précédent article de cette section, qu'à partir du moment où l'on accepte la logique du tiers inclus, une question cruciale persiste : comment peut-on concevoir un tiers unificateur de e (i.e. proposition, phénomène, élément ou événement) et de non-e (i.e. anti-proposition, anti-phénomène, anti-élément ou anti-événement) ?
C’est suite à une réflexion sur l’impact culturel majeur de la révolution quantique, comme remise en cause du dogme philosophique contemporain de l’existence du monde objectif, que le physicien Basarab Nicolescu apporte à la trialectique lupascienne, la notion complémentaire de niveaux de réalité (Nicolescu, 1983 ; cité par Nicolescu, 1998) et ce, avec l’assentiment de son instigateur : « Avec une certaine appréhension (comment un grand créateur comme lui va réagir à mon intrusion sur le territoire de sa philosophie ?), je me suis ouvert à Lupasco. Au lieu d’une résistance ce fut une explosion de joie et Lupasco m’encouragea, avec sa générosité proverbiale, de publier au plus vite ma trouvaille » (ibid., 4. §2). Elle sera développée et pleinement formulée dans Nous, la particule et le monde (Nicolescu, 1985) donnant ainsi au mot Réalité, son sens à la fois pragmatique et ontologique.
Selon la vision « quantique » du monde, le Réel se définit comme une chose impossible à saisir dans son entier qui, selon l’expression consentie de Réel voilé (d’Espagnat, 1994 ; cité par Bitbol, 1998a), résiste à nos expériences, représentations, descriptions, images et/ou formalisations mathématiques. La survenue de la physique quantique au XXe siècle, montre que les objets que nous percevons du réel, ne sont pas transcendants, mais constituent le produit d’une interaction entre le réel et notre appareil cognitif.
Ainsi, si l’on peut convenir que le travail mental, s’appliquant aux choses bornées et relatives de notre continuum perceptivo-cognitif, est essentiellement adapté à l’application d’un tiers exclus dans son appréhension du contenu de l’extérieur (cf. l’empirisme logique), cette évidence n’implique pas de nier que d’autres types de relations puissent être également vrais, relativement à un référentiel interne du réel (cf. l’idéalisme transcendantal).
A chaque fois que les physiciens essaient de reconstituer des objets spatio-temporels (ou corps matériels) à partir de l’ordre des phénomènes, ils échouent. Ils n’y arrivent que par parties, par fragments, ou plus exactement, par fragments complémentaires : « Certains fragments manifestés lors de l’utilisation de certains types d’appareillage se comportent comme une onde classique, d’autres comme une particule classique. Mais ce ne sont jamais que des parties de phénomènes relatives à des appareillages mutuellement exclusifs. Elles ne permettent pas une recomposition, une synthèse qui désignerait de façon non ambivalente une réalité extérieure complètement détachée des moyens de l’appréhension des phénomènes » (Bitbol, 2004, §16).
Cette attitude rappelle en permanence que celui qui parle, ne décrit pas le Réel mais une interaction entre lui et un environnement. On peut alors parler de son couplage structurel ou encore, de son paradigme du monde : « L’indéterminisme quantique se comprend aisément comme indice de l’inséparabilité du phénomène et de ses conditions de manifestation, plutôt que comme reflet de l’ordre (ou du désordre) d’une nature séparée » (Bitbol, 1998b, 8. §1).
La physique quantique nous fait découvrir que l’abstraction n’est pas un simple intermédiaire entre nous et la nature, un outil pour décrire la réalité, mais une des parties constitutives de la nature : le formalisme logique est inséparable de l’expérience. Il résiste, à sa manière, à la fois par un souci d’auto-consistance interne et un besoin d’intégrer les données expérimentales sans – toutefois – détruire cette auto-consistance.
La maxime qui orne habituellement la démarche empirique : « toutes choses étant égales par ailleurs » demeure un pari impossible, une hypothèse déterministe indécidable mais néanmoins nécessaire. Nous ne pouvons que compter des occurrences de faits (i.e. les invariances) permettant de créer un lien logique entre des situations alors statuées comme équivalentes ou différentes. L’abstraction ou encore, l’objectivation de la réalité, acquiert tout son sens une fois liée à l’observateur, aussi anodines et primitives que puissent nous apparaître ses capacités d’observation (telles que chez un organisme simple comme une bactérie) : « Il faut donner une dimension ontologique à la notion de Réalité, dans la mesure où la Nature participe de l’être du monde. La Nature est une immense et inépuisable source d’inconnu qui justifie l’existence même de la science. La Réalité n’est pas seulement une construction sociale, le consensus d’une collectivité, un accord intersubjectif. Elle a aussi une dimension trans-subjective, dans la mesure où un simple fait expérimental peut ruiner la plus belle théorie scientifique » (Nicolescu, op. cit., 4. §5).
Dès l’instant où, il devient nécessaire de faire coexister deux systèmes de pensée (p.ex. physique classique et physique quantique), ceci afin de maintenir toute sa cohérence à notre compréhension de la réalité, une rupture, entre ce qui forme alors deux niveaux de description d’une seule et même réalité, est posée. Un niveau de réalité correspond à un ensemble de systèmes, invariant à l’action d’un nombre de lois générales. Deux niveaux de réalité sont différents si, pour passer de l’un à l’autre, il y a rupture des lois et concepts fondamentaux (comme, par exemple, la causalité linéaire).
A ce titre, les particules élémentaires soumises aux lois quantiques, sont en rupture radicale avec les lois du monde macrophysique. De plus, à ce jour, aucun formalisme mathématique ne permet le passage rigoureux d’un monde à l’autre, car s’il est possible d’envisager une théorie unifiant ces deux aspects d’une même réalité, cela n’est – en aucun cas –, au sens du déterminisme strict, d’un seul niveau de causalité. Il faut alors admettre la notion de discontinuité, non pas au sens de l’abandon de son opposé complémentaire, la continuité, mais bien au sens de leur codétermination : « La discontinuité qui s’est manifestée dans le monde quantique se manifeste aussi dans la structure des niveaux de réalité » (ibid., 4. §6). Ce qui n’empêche en rien, les deux mondes de coexister. Notre propre existence en est une preuve : nos corps ont à la fois une structure macrophysique et une structure quantique.
La physique quantique nous révèle une dissymétrie de la nature, l’infiniment petit et l’infiniment grand apparaissent homogènes l’un à l’autre, mais leurs actions sont différentes.
Lupasco montre que la logique du tiers inclus est une véritable logique, formalisable et formalisée, multivalente (à trois valeurs : A, non-A et T) et non-contradictoire. Toutefois, l’absence dans sa philosophie, de la notion de niveaux de réalité, en rendit le contenu peu accessible : « Beaucoup ont cru que la logique de Lupasco violait le principe de non-contradiction – d’où le nom, un peu malheureux, de "logique de la contradiction" – et qu’elle comportait le risque de glissements sémantiques sans fin. De plus, la peur viscérale d’introduire la notion de "tiers inclus", avec ses résonances magiques, n’a fait qu’augmenter la méfiance à l’égard d’une telle logique » (ibid., 4. §14). C’est à la lumière de la notion de niveaux de réalité, que la compréhension de l’axiome du tiers inclus, s’éclaire : A, non-A et T coexistent simultanément sur deux plans différents d'une même réalité.
Une métaphore philosophique, serait de dire que les germes de l'innéisme (A), de son opposé l'empirisme (non-A), et de l’unification d’un tiers en le constructivisme (T), ont émergés simultanément. Ce qui, sur un plan métaphysique, reviendrait à dire qu’essence, substance et conscience, sont des termes – à la fois – immanents et transcendants.
La logique du tiers inclus est non-contradictoire car l’axiome de non-contradiction est respecté. L’ontologie fondamentale de la trialectique repose sur la coexistence des trois termes (A, non-A et T) au même moment du temps. La simultanéité des trois termes sur deux plans de réalité fait de la logique du tiers inclus, une logique géométrique (i.e. elle s’exprime dans l’espace). En deçà de ce principe, c.-à-d. si l’on essaie d’éliminer l’un des termes, la théorie est contredite : elle renvoie alors à la logique classique. Soit nous acceptons l’existence simultanée des trois termes sur deux niveaux de réalité – domaine de la coexistence des mondes quantique et classique – ; soit sommes-nous obligés de concevoir la succession de A et non-A sur un seul plan de réalité – domaine du monde classique –, leur coexistence menant toujours à une contradiction et donc, dans ce cas, à une annihilation réciproque sans suite. Il persiste donc un niveau en deçà duquel, la théorie refuse d’être contredite et c’est bien le principe classique de non-contradiction qui est appliqué ici.
Les notions de vrai et faux ne sont pas seulement conservées, elles sont étendues. Elles ne répondent plus à un critère de vérité, mais à un critère de cohérence : elles acquièrent ainsi une dimension pragmatique c.-à-d., contextuelle et épistémique : « La logique du tiers inclu n’est pas simplement une métaphore pour un ornement arbitraire de la logique classique, permettant quelques incursions aventureuses et passagères dans le domaine de la complexité. La logique du tiers inclus est une logique de la complexité et même, peut-être, sa logique privilégiée dans la mesure où elle permet de traverser, d’une manière cohérente, les différents domaines de la connaissance » (Nicolescu, 1998, 4. §20) ; en d’autres termes : une logique de la logique.
La notion de niveau de réalité, essentielle à la compréhension d’un principe d’accord entre contradictoires, se révèle en fait, familière de divers registres sémantiques. Elle est, par exemple, implicite dans le langage militaire, dans la distinction entre tactique et stratégique. De même, elle est implicite chez Aristote lorsqu’il distingue la physique de la métaphysique. Elle est encore implicite chez les linguistes avec la distinction entre le langage et le métalangage ou chez les psychologues, entre la cognition et la métacognition. D’une façon générale le préfix méta- renvoie à un autre niveau de réalité tel que celui de la métamathématique ou de la métalogique, ou encore, d'une métapsychologie : en termes ensemblistes, « discuter de » c'est « sortir de », et il semble que ce soit de cette « prise de recul », ou encore de cette distanciation, que se révèlent la cohérence et les apories du système de pensée considéré (un changement de paradigme peut être considéré comme le passage à un niveau méta-paradigmatique).
Il s’avère aujourd’hui, que c’est au sein même de la physique théorique, que cette notion trouve droit de cité comme si la nature s’exprimait elle aussi sur plusieurs niveaux de réalité. Cette notion jusqu’alors culturelle, devient naturelle et susceptible d’une formalisation rigoureuse dans le langage de la physique, à partir de faits expérimentaux (p.ex. mesure de la pression du vide ou effet Casimir, expérience EPR & inégalités de Bell).
Il est important de préciser que le nombre des niveaux de réalité ne se limite pas à deux. Tout niveau de réalité a son métaniveau. Si la décidabilité sur un niveau 1 implique l’assujettissement à un critère de décision sur un niveau 2, le choix de ce critère parmi plusieurs critères possibles, procède lui aussi d’une décision impliquant un métacritère sur un niveau 3, et ainsi de suite, telles des poupées gigognes s’emboîtant les unes dans les autres. La logique du tiers inclus décrit la cohérence entre les niveaux de réalité par un processus itératif en trois étapes :
- un couple de contradictoires (A, non-A) situé à un premier niveau de réalité est unifié par un état T situé au niveau de réalité immédiatement suivant ;
- cet état T est relié à un couple de contradictoires (A’, non-A’) situé à son propre niveau ;
- ce couple de contradictoires (A’, non-A’) est, à son tour, unifié par un état T ’ situé à un nouveau niveau de réalité, immédiatement voisin de celui où se trouve le ternaire (A’, non-A’, T).
L'action de la logique du tiers inclus sur les différents niveaux de réalité induit une structure ouverte, alors appelée structure gödelienne : « Le processus itératif continue à l’infini jusqu’à l’épuisement de tous les niveaux de Réalité, connus ou concevables » (ibid., 5. §6). Cette structure, à la portée considérable pour une théorie de la connaissance, implique l’impossibilité d’une théorie complète, fermée sur elle-même. A partir d’un certain nombre de couples mutuellement exclusifs, une théorie nouvelle, éliminant les contradictions à un nouveau niveau de réalité, apparaît. Cette théorie temporaire conduit inévitablement, sous la pression conjointe de la théorie et de l’expérience, à la découverte de nouveaux couples de contradictoires, qui – à leur tour – s’unifient sur un nouveau niveau de réalité. Cette nouvelle théorie sera, elle aussi, remplacée, au fur et à mesure que de nouveaux niveaux seront découverts, par des théories toujours plus objectivantes et unifiées.
Echo résonnant aux propos de Michel Bitbol lorsqu'il souligne la sous-détermination de notre rapport empirique du monde, révélée de la physique quantique : « Il est totalement inapproprié de considérer comme transitoire la leçon d'une théorie aussi durable, aussi efficace, aussi féconde que l'est la physique quantique sous prétexte que, peut-être, un jour, celle-ci changera. Elle changera certes, comme toute théorie, mais la probabilité la plus grande à mon sens est que l'étrangeté de la future théorie qui englobera et dépassera la physique quantique sera non seulement aussi grande mais bien supérieure. » (Bitbol, 2004, §21).
Ce processus continue à l’infini, sans jamais pouvoir aboutir à une théorie complètement et totalement unifiée. L’axiome de non-contradiction sort de plus en plus renforcé de ce processus : en ce sens, on peut parler d’une évolution continue de la connaissance, « sans jamais pouvoir aboutir à une non-contradiction absolue, impliquant tous les niveaux de Réalité : la connaissance est à jamais ouverte » (Nicolescu, op. cit., 5. §9).
.
jeudi 20 mars 2008
Cas de conscience...
NON à l’écrasement de la culture tibétaine !
B. Werber
mercredi 19 mars 2008
Journée sur l'Épistémologie de la Physique Quantique.
Campus Carlone, Université de Nice Sophia Antipolis
(amphithéâtre 112, bâtiment de l'extension.)
La Physique Quantique est un lieu d'intenses recherches : dans les domaines théorique et expérimental, où elle engrange les succès, et dans le domaine philosophique, où elle continue de nourrir de larges réflexions conceptuelles.
Des physiciens, des mathématiciens, et des philosophes, rassemblés en cette journée, exploreront l'intersection de ces différents domaines, à partir de cette question : dans quelle mesure les réalisations expérimentales en Physique Quantique jettent-elles une lumière nouvelle sur les problèmes philosophiques que pose cette théorie ?
Avec les interventions de :
- Olivier Alibart (LPMC, Nice)
- Françoise Balibar (Université de Paris VII)
- Ali Benmakhlouf (CRHI, Université de Nice)
- Jean-Marc Levy-Leblond (Université de Nice)
- Thierry Paul (ENS, Paris)
- Sébastien Poinat (CRHI, Université de Nice)
- Sébastien Tanzilli (LPMC, Nice)
samedi 15 mars 2008
Un cadre particulier de la MQ : la dérivation théorético-informationelle.
De plus, la mécanique classique fonctionne très bien en son sein, la physique quantique pouvant être vue comme la physique des « quantités classiquement négligées ». On se demande alors pourquoi ses idées et implications ne diffusent pas plus dans les sciences ?
Ce à quoi Michel Bitbol (2004, §20) nous répond : « La vraie raison pour laquelle la base philosophique de la mécanique quantique, bien connue pourtant depuis l’invention de celle-ci, ne se propage pas davantage, c’est qu’il y a une sorte d’espoir, toujours vivace, que l’enseignement de la physique quantique n’a pas à être pris au sérieux. La physique quantique ne serait qu’une théorie provisoire. Un jour, on découvrira des "variables cachées", selon le terme consacré, qui devraient permettre de penser autrement, c’est-à-dire en revenir au réalisme ».
La version des variables cachées de Bohm obtient d’ailleurs une « fin de non-recevoir » vigoureuse, Michel Bitbol (2002) la reléguant au rang de « contre-mesure intellectuelle ». Et de rajouter (2004, §21) : « C’est absurde. Il est totalement inapproprié de considérer comme transitoire la leçon d’une théorie aussi durable, aussi efficace, aussi féconde que l’est la physique quantique sous prétexte que, peut-être, un jour, celle-ci changera. Elle changera certes, comme toute théorie, mais la probabilité la plus grande à mon sens est que l’étrangeté de la future théorie qui englobera et dépassera la physique quantique sera non seulement aussi grande mais bien supérieure. Au lieu de tenter sans cesse de reculer, il vaudrait mieux aller jusqu’au bout, dire "Arrêtons de regarder en arrière, prenons la physique quantique à la lettre et regardons ce qu’elle nous enseigne sur la nature de la connaissance scientifique en général, et plus particulièrement de la connaissance en physique". A partir de là, on peut progresser. »
C’est la voie dans laquelle s’est engagé Alexeï Grinbaum (2004) qui, inspiré de la vision duale pragmatico-transcendantale de Michel Bitbol (1998) et prolongeant les travaux de Jeffrey Bub (1997 ; cité par Grinbaum, op. cit.) et de Anton Zeilinger (1997, 1999), développe une approche théorético-informationnelle dans laquelle l’observateur est intégré. Elle permet à partir de la notion d’information, de dériver le formalisme de la mécanique quantique.
Alexeï Grinbaum dénonce le fait qu’il est encore aujourd’hui commun à l’ensemble des scientifiques et en particuliers aux physiciens, de considérer les objets théoriques décrivant les particules et les champs comme des objets réels, c.-à-d. comme des entités fondamentales possédant un statut ontologique : « La dérivation théorético-informationnelle du formalisme quantique donne à ces questions une clarté longtemps désirée : toutes les présuppositions ontologiques sont étrangères à la théorie quantique, qui est, en soi, une pure épistémologie. La théorie quantique comme théorie de l’information doit être débarrassée des présupposés réalistes, qui ne doivent leur existence qu’aux préjugés et croyances individuelles des physiciens, sans appartenir de quelque façon que ce soit à la théorie quantique propre. » (ibid., p. xii).
Il part d'un premier présupposé philosophique : le monde peut être décrit comme une boucle des existences entre phénoménalité et objectivité.
Dans la mesure où il n’est seulement question que de description, l’expression est dénuée de tout engagement ontologique : « la boucle décrit non pas les existences comme éléments de la réalité externe, mais les descriptions, c’est-à-dire les différentes théories. Ainsi, le premier présupposé devient : L’ensemble de toutes les théories est décrit sous forme cyclique comme une boucle. » (ibid., p. xvi).
Etant donné la « dynamicité » de cette boucle, un second présupposé philosophique consiste à dire que : « chaque description théorique particulière, peut être obtenue à partir de la boucle par une opération consistant en sa coupure. Toute coupure sépare l’objet de la théorie des présupposés de la même théorie. Il est impossible de donner une description théorique de la boucle tout entière, sans la couper. Une fois la coupure donnée, certains éléments de la boucle deviennent l’objet d’étude de la théorie, d’autres restent dans la métathéorie de cette théorie. En changeant l’endroit où est effectuée la coupure, il est possible d’échanger les rôles de ces éléments : ceux qui étaient explanans deviennent explanandum et l’inverse. » (ibidem).
Ainsi, le problème de la mesure classiquement si déroutant, se dissout comme une simple erreur logique. Trois notions fondamentales sont introduites : système, information et fait. Leur signification n’étant pas donnée par la théorie quantique, elles sont considérées comme des notions métathéoriques, c.-à-d. comme fixées par l’opérateur de la coupure.
Enfin, la reconstruction du formalisme de la théorie quantique repose essentiellement sur les deux premiers axiomes informationnels :
- Axiome I : Il existe une quantité maximale de l’information pertinente qui peut être extraite d’un système.
- Axiome II : Il est toujours possible d’acquérir une information nouvelle à propos d’un système. (ibid., p. xviii).
Il n’y a pas de contradiction entre les axiomes : « le premier parle non pas d’une information quelconque, mais de l’information pertinente, tandis que le deuxième énonce qu’une information nouvelle peut toujours être engendrée, même s’il faut pour cela rendre une information précédemment disponible, non pertinente. La notion d’information pertinente est liée aux faits, et étant donné le caractère métathéorique de la notion fondamentale de fait, la notion de pertinence ne peut émerger de l’intérieur de la théorie, mais nécessite une définition externe. » (ibidem).
En d’autres termes, toute théorie physique « contextuelle » (i.e. décrivant des phénomènes non définis par eux-mêmes mais par rapport à un contexte expérimental) prend nécessairement la forme de la mécanique quantique qui se présente avant tout, comme un formalisme prédictif contextuel, liant de manière intime observateur et observé.
S’il y’a un argument que je vous invîte à retenir de la mécanique quantique, sans toutefois négliger les autres, c’est bien l’idée que de ce jour, nous sommes engagés à faire une distinction entre ce que nous nommons communément le réel et la réalité (d’Espagnat, 2004). Le premier est une chose floue inaccessible en son entier, dont nous ne pouvons obtenir qu’une certaine quantité d’information nous permettant de voir, de penser et d’« écrire » la seconde. C’est en ce sens que je comprends l’idée de réel voilé exposée par d’Espagnat (1994, cité par Bitbol, 1998).
Déjà, Werner Heisenberg (1942) entendait la réalité, comme « la fluctuation continue de l’expérience telle que la saisit la conscience » et rajoutait : « A ce titre, elle n’est jamais identifiable en son entier à un système isolé ». Il faut alors concevoir la réalité comme notre connexion informationnelle entre le réel, et l’entité qui lui serait directement opposée, que l’on retrouve aussi bien dans la topique de Lacan, le surrationalisme de Bachelard, ou le paradigme de Kuhn, que dans la deuxième dimension des nombres complexes si pratiques à décrire la fonction d’onde : l’imaginaire.
A propos de nos connaissances aussi bien pratiques que théoriques du réel, il devient alors préférable de parler d’entités interfaciales (Bitbol, 2004), même si cette réalité nous semble stable et immuable, du fait qu’elle contient aussi la matière palpable que nous connaissons et touchons : « Une fois que l’on a compris que des axiomes portant sur des entités "interfaciales" (plutôt que sur des entités qui soient ou bien objectives ou bien subjectives) permettent de faire tant de choses, on se convainc plus facilement que la physique quantique est peut-être non une théorie du monde que l’on explore, mais une théorie du domaine d’interaction, de la surface qui sépare sujet et objet » (ibid., §27).
A cet endroit, l’entre-deux varélien (1989, 1993) pourrait sembler suffisant comme concept général tenant le rôle d’entité interfaciale, mais sans une certaine permanence, les choses restent processuelles, diffuses, et selon cette hypothèse, c.-à-d. sans la fixité des représentations, la réalité devrait nous rester la même, dans sa perception la plus simple, son appréhension la plus naïve et gratuite (difficile de concevoir plusieurs niveaux d'abstraction). Pour qu’il y-ait engendrement de connaissance, il faut que celle-ci puisse se fixer, se coder, elle nécessite une trace, et dès lors qu’il y’a codage, le symbole devient nécessaire et sa contradiction, naturelle.
En ce sens : tout organisme vivant, code (sur un mode complexe : le mode non-linéaire de l'interaction).
Ainsi, l’opération de coupure produite par Alexeï Grinbaum sur la boucle des existences (i.e. l’ensemble de toutes les théories), pour en extraire une théorie ou une nouvelle information, correspond - pour moi - à l’acte d’engendrement d’une connaissance et donc d’une représentation. La représentation est entendue ici dans son acception la plus large, dynamique et à objectivité faible (à laquelle il est désormais possible de donner un statut : celui du projet), de « modèle du réel », comme construction permanente « jamais achevée » (Simon, 1991). Et seule l'approche informationnelle de la théorique quantique permet cette conception de manière formelle.
mardi 11 mars 2008
Conférence présentée à la journée "La Parole aux Docteurs" de l'ARCo.
L'opportunisme cognitif : Approche multidimensionnelle de l'activité humaine.
Résumé :
La perspective proposée consiste en une reconsidération de notre appréhension du monde sur un mode complexe. Nous adoptons dans un premier temps la posture de l’énaction, fondant la co-émergence – le co-avènement – de l’organisme et de son monde ou encore, la relation immédiate entre les termes immanents de sujet et d’objet, comme nécessaire à l’expression de tout processus d’ordre cognitif. Penser l’immanence de cette coprésence, permet de sortir des écueils de l’idéalisme comme du réalisme ; toutefois, adopter cette posture, c.-à-d. s’inscrire dans une perspective à la fois processuelle (et donc dynamique), complexe (aux objets au minimum bidimensionnels) et pragmatique (i.e. relative à un but), engage de réduire toute prétention d’objectivité au cadre d’une approche à l’objectivité faible et à l’ontologie transitoire (i.e. établie pour l’action). Cadre pour lequel, l’énaction semble pouvoir difficilement nous fournir une axiomatique et ce, malgré les nombreuses références de Varela aux problèmes de la circularité.
Aussi, c’est en se tournant vers les implications épistémologiques de l’approche informationnelle de la mécanique quantique, et en nous inscrivant dans le paradigme de la trialectique lupascienne, que nous pensons pouvoir trouver un cadre à la fois heuristique, cohérent et ayant la singulière particularité de faire apparaître le temps (dans son acception téléologique). Dans ce cadre-là, la réalité rationnelle et pragmatique (i.e. construite) consiste en une réalisation projective résultant de la conjugaison d’une intentionnalité subjective appliquée à des conditions objectives. Ce cadre ternaire, ou tridimensionnel (i.e. sujet/objet/projet), nous permet de considérer l’individu (mais aussi le collectif), dans le contexte de son activité, comme étant tributaire d’un champ de contraintes limitant plus ou moins fortement sa marge de jeu, mais comme n’étant que rarement mécaniquement déterminé par ce champs, car disposant toujours d’une capacité d’initiative susceptible de faire émerger de la nouveauté : sa liberté d’action. D’où la notion d’opportunisme, « cognitif » se référant au sens morinien d’une computation réflexive ou encore, récursive, ayant pour double fonction la production de soi et du monde.
Diaporama powerpoint de la conférence au format pdf.
.
vendredi 7 mars 2008
Mais que peut bien être cette satanée... logique du tiers inclus ?
Partons de l'hypothèse assez acceptable que : en Science, la sélection des théories se fait par l’application des trois principes de la logique classique aristotélicienne :
- identité : A est A, donne lieu au postulat : « tout ce qui est, est » ;
- non-contradiction : A n’est pas non-A : « rien ne peut à la fois être et ne pas être, une proposition ne peut être vraie et fausse en même temps » ;
- tiers exclus : il n’existe pas de tiers T entre A et non-A : « tout doit ou bien être ou bien ne pas être : une proposition est soit vraie, soit fausse ».
L'idée étant, qu'il n'est pas possible de maintenir « ensemble » deux théories opposées et concourrant pour l'explication d'un même phénomène.
Dans l’hypothèse classique de l’existence d’un seul niveau de perception et d'abstraction de la réalité, le deuxième et le troisième axiome sont équivalents et relèvent d’une redondance inutile, une sorte de « garde-fou » pour les situations compliquées (p.ex. les hypothèses de récursivité telle qu'impliquées par le paradoxe du barbier selon Russell, ou encore à sa transposition due à Martin Gardner : « est-il logiquement possible d'écrire une encyclopédie qui répertorie toutes les encyclopédies ne se répertoriant pas elles-mêmes et seulement celles-ci ? »), qui finalement mettent « à mal » cette logique binaire du ou exclusif communément imposé par ces mêmes axiomes.
Accepter la logique classique, c’est accepter que les couples de contradictoires mis en évidence par la physique quantique soient mutuellement exclusifs, car on ne peut sur un même plan de la réalité, affirmer – en même temps – la validité d’une chose et son contraire (A et non-A) : « La perplexité engendrée par cette situation est bien compréhensible : peut-on affirmer, si on est sain d’esprit, que la nuit est le jour, le noir est le blanc, l’homme est la femme, la vie est la mort ? » (Nicolescu, 1998, 4. §11).
Dès l’arrivée à maturité de la physique quantique, dans les années trente, se pose la nécessité de formuler une logique adaptée à cette coexistence des contradictoires. Et c’est à la suite des travaux de Birkhoff et Von Neumann, que se développent les logiques dites « quantiques » ayant pour ambition de résoudre les paradoxes ainsi engendrés et d’essayer, dans la mesure du possible, d’arriver à une puissance prédictive plus forte que celle obtenue avec la logique classique (Marshal, 1998).
En 1936, Birkhoff et Von Neumann développent une logique algébrique intégrant la spécificité des propositions quantiques. Cette logique est parfois appelée logique quantique minimale pour la distinguer de celle à laquelle on rajoute un axiome d’orthomodularité (p -> q) -> (q -> (p v (¬p ^ q))). Le statut de cette logique concernant les fondements de la mécanique quantique, est, en fait, souvent tenu pour nébuleux, Van Fraassen (1974) parle même de labyrinthe des logiques quantiques (Marchal, op. cit.).
La plupart des logiques quantiques ont modifié le deuxième axiome de la logique classique – l’axiome de non-contradiction – en introduisant la non-contradiction à plusieurs valeurs de vérité à la place de celle du couple binaire (A, non-A). C’est le cas par exemple, de la logique floue développée par Zadeh, bien connue des cogniticiens, dont le réel pouvoir n’est que de pondérer un ensemble de facteurs ou contraintes (les sous-ensembles flous). Elle reste en cela, objectiviste, et s’inscrit dans le grand paradigme des théories du traitement de l’information. Car si elle représente une des théories les mieux à même de traduire l'idée d'« équilibres ponctués », elle n'en demeure pas moins impuissante face au problème de l'arrêt de la décision (cf. Halting Problem de Turing).
Ces logiques multivalentes, au statut controversé quant à leur pouvoir prédictif, n’ont pas pris en compte une autre possibilité, celle de pouvoir modifier le troisième axiome, l’axiome du tiers exclus, au nom de son opposé le Tiers inclus : il existe un troisième terme T qui est à la fois A et non-A.
« Le développement de la physique quantique ainsi que la coexistence entre le monde quantique et le monde macrophysique ont conduit, sur le plan de la théorie et de l’expérience scientifique, au surgissement de couples de contradictoires mutuellement exclusifs (A et non-A) : onde et corpuscule, continuité et discontinuité, séparabilité et non-séparabilité, causalité locale et causalité globale, symétrie et brisure de symétrie, réversibilité et irréversibilité du temps, etc.
Le scandale intellectuel provoqué par la mécanique quantique consiste dans le fait que les couples de contradictoires qu’elle a mis en évidence sont effectivement mutuellement contradictoires quand ils sont analysés à travers la grille de lecture de la logique classique » (Nicolescu, op. cit., 4. §8-9).
Celle-ci est donc insuffisante !
Mais une question cruciale persiste : comment peut-on concevoir un tiers unificateur de e (i.e. proposition, phénomène, élément ou événement) et de non-e (i.e. anti-proposition, anti-phénomène, anti-élément ou anti-événement)...
hein ?!... comment ???
La solution est : ici.
.
mercredi 5 mars 2008
La physique quantique en quelques mots...
L’équivalence d’Einstein entre énergie et matière à une certaine vitesse (E=mc²), montrée pour la lumière au travers de la notion de photon qui est à la fois onde et corpuscule (ou principe de complémentarité de Bohr), peut être étendue selon de Broglie en 1920, à tous les constituants de la matière. Ainsi, en physique quantique, en raison de cette dualité onde/corpuscule, on doit à Schrödinger en 1927 la description d’une particule non comme un point matériel tangible, mais comme une fonction d’onde, et là où il y a "effondrement de la fonction d’onde" (on parle aussi de "réduction du paquet d’onde"), se trouve délimité une zone de probabilité non nulle ou l’on a des chances de trouver la particule.
En fait, selon les phénomènes, la nature ondulatoire l’emporte sur la nature corpusculaire ou inversement, mais ces deux natures, en tout cas avant toute mesure ou interaction engendrant leur décohérence, sont toujours présentes simultanément (ou principe de superposition d’état). La longueur d’onde de la fonction d’onde associée à une particule est inversement proportionnelle à l’énergie de la particule. Lorsque cette longueur d’onde est inférieure ou de l’ordre des dimensions des "objets" qui interviennent dans le phénomène, c’est la nature corpusculaire qui est favorisée. Inversement, si cette longueur d’onde est supérieure aux dimensions des "objets" impliqués, alors c’est la nature ondulatoire qui est privilégiée. Etant donné que la longueur d’onde est courte pour des particules très énergétiques, on en conclut que les phénomènes se produisant à hautes énergies mettent plutôt en évidence un comportement corpusculaire alors que, inversement, les phénomènes à basses énergies sont plutôt de nature ondulatoire.
Les particules étant toujours décrites comme des entités duales onde-corpuscule, la conséquence en-est que : plus on interroge la position d’une particule, moins on obtient d’information sur sa vitesse et inversement, plus on interroge la vitesse, moins on connait sa position. C’est à Heisenberg en 1927, que l’on doit les relations liant la précision que l’on peut obtenir de la vitesse et de la position d’une particule d’une part, et la précision de la mesure et de son énergie en fonction de la durée de la mesure d’autre part (ou relations d’incertitude). En physique quantique, les objets décrits ne sont plus des entités matérielles mais des modèles mathématiques, et la description de leurs comportements, une description probabiliste (Bitbol, 1997, 2002, 2004).
Enfin, au grand désespoir des réalistes convaincus, outre le caractère non localisé des particules, un autre phénomène des plus déroutants, s’ajoute à l’embarras : l’influence de l’observateur sur l’objet observé.
La physique classique nous indique que mesurer quelque chose (i.e. une position, une vitesse, etc.) perturbe automatiquement, quoique la plupart du temps de manière très faible, l’objet observé. Même si l’on ne fait que lui envoyer un rayon lumineux, pour que celui-ci nous le renvoie marqué de son empreinte et ainsi pouvoir l’observer, on l’a néanmoins "perturbé" : les photons lui communiquent une quantité de mouvement infinitésimale, mais non nulle. Généralement, l’influence de la mesure sur l’objet est si faible qu’elle est négligeable, ce qui explique pourquoi on mentionne rarement – sinon jamais –, l’influence de l’observateur sur l’objet observé.
En physique quantique, le problème est tout autre. La mesure d’une grandeur, telle que la position d’un électron, produit un effet radical. L’objet observé passe d’une position diffuse dans l’espace-temps, à une position déterminée dont nous n’avons au final, toute mesure se lisant sur un écran, que la trace de son passage ou de son existence. Le fait est, que lorsqu’on observe un électron, c’est l’observation qui le fait passer de son état de cohérence quantique où il est à la fois onde et particule, à un état décohéré lisible. Or, il est fortement ennuyeux de provoquer l’état d’un objet que l’on désire "observé en toute objectivité".
Toute théorie physique "contextuelle" (i.e. décrivant des phénomènes non définis par eux-mêmes mais par rapport à un contexte expérimental) prend obligatoirement la forme de la mécanique quantique. Pour le démontrer, Michel Bitbol part d'une théorie physique dont il ignore a priori tout, sinon qu'elle est contextuelle. Le but de toute théorie est de fournir des prévisions, au moins en termes de probabilités, sur les résultats d'expériences. Or, pour une même préparation expérimentale, beaucoup de mesures sont possibles. Une théorie contextuelle doit être capable de prédire tous les résultats que l'on peut mesurer étant donné la préparation effectuée.
Ces contraintes sont draconiennes, Paulette Destouches-Février et Jean-Louis Destouches ont démontré, dans les années cinquante, qu'une telle théorie a alors nécessairement besoin d'un "espace vectoriel à coordonnées complexes muni d'un produit scalaire" pour représenter les phénomènes, c.-à-d. d'un espace de Hilbert, caractéristique de la mécanique quantique (notamment pour sa multidimensionnalité propre à exprimer les états de superposition). Il faut aussi s'assurer qu'une telle préparation garde sa cohérence lorsque les phénomènes évoluent dans le temps : en 1989, Richard Hugues montre que cela suffit à engendrer le squelette de l'équation de Schrödinger (permettant de calculer la fonction d'onde). En synthétisant d'autres travaux, Michel Bitbol a montré que les caractéristiques quantiques de quantification, d'interférences, d'incompatibilité des mesures ou de réduction du paquet d'onde, en découlent. Il en conclut que "la théorie quantique se présente avant tout comme un formalisme prédictif contextuel" : impossible d'échapper à ses lois, si on cherche à prévoir le comportement de la matière dans son contexte.
Il faut bien comprendre que dans le cadre de la mécanique quantique, la frontière classique entre sujet-objet s'abolit au bénéfice d'une conception relationnelle et processuelle où, le contexte (i.e. le dispositif mis en place permettant la production de l'évènement et sa mesure) se fond à l'observateur (i.e. l'instigateur du dispositif). Elle nous oblige, en quelques sortes, à adopter une posture pragmatique.
L'idée que je retiens, avec Basarab Nicolescu, est que :