vendredi 3 décembre 2010

L'isomorphie entre systèmes intriqués et systèmes émergents est-elle fondée ? (thèse)

Sébastien POINAT

Département de Philosophie et Sciences de l’Éducation de l’IUFM Célestin Freinet,

Université de Nice-Sophia Antipolis

a le plaisir de vous inviter à la soutenance de sa thèse :

Mécanique quantique, émergence et réduction : entre formalisme mathématique et problèmes conceptuels

le mercredi 8 décembre à 14h30

Université de Nice-Sophia Antipolis, UFR Lettres, Arts et Sciences Humaines
98, Bd Édouard Herriot, à Nice, Salle du Conseil, bât. A



Devant le jury est composé de :
  • Ali Benmakhlouf (Directeur de thèse, Professeur à l’Université de Nice-Sophia Antipolis)
  • Jocelyn Benoist (Examinateur, Professeur à l’Université de Paris-I Panthéon-Sorbonne)
  • Joseph Kouneiher (Rapporteur, Maître de Conférences Habilité à l’Université de Nice-Sophia Antipolis)
  • Giuseppe Longo (Examinateur, Directeur de Recherche au CNRS, ENS Ulm)
  • Thierry Paul (Co-directeur de thèse, Directeur de Recherche au CNRS, École Polytechnique)

Résumé :

L’émergence et la réduction sont des modèles d’intelligibilité des systèmes composés, qui sont au cœur de deux doctrines opposées, l’émergentisme et le réductionnisme. Selon le réductionnisme, le comportement de tout système composé peut être expliqué en le déduisant du comportement des parties qui le constituent. Au contraire, l’émergentisme considère que certains systèmes composés ont des comportements que l’on ne peut pas expliquer à partir de celui de leurs parties, et qu’ils doivent être appelés « des systèmes émergents ». Afin de prouver la validité de leur thèse, de très nombreux partisans de l’émergentisme se sont appuyés sur la mécanique quantique et sur le phénomène d’intrication, considérant que les systèmes intriqués apportaient la preuve irréfutable qu’il existe bien dans la nature des systèmes émergents. La mécanique quantique pourrait ainsi, à leurs yeux, arbitrer le conflit entre le réductionnisme et l’émergentisme, en donnant raison à ce dernier. Notre premier travail vise à discuter l’hypothèse implicite de cet argument, à savoir qu’un système intriqué est bien un système composé. Pour cela, nous proposons un critère général permettant, au sein du domaine de la physique, de distinguer les systèmes simples et les systèmes composés. On montre alors qu’un tel « critère de composité » a pour conséquence que les systèmes intriqués ne sont pas des systèmes composés, et donc qu’ils ne sont pas concernés par le débat entre l’émergentisme et le réductionnisme.

Plus largement, notre travail est une contribution à la question : comment faut-il penser la mécanique quantique ? Notre réponse est qu’il faut s’appuyer sur le langage utilisé, au sein de la communauté scientifique, dans le cadre des activités professionnelles de recherche et d’enseignement, par opposition à tout langage fondé sur des images classiques ou qui permettrait de formuler ce qu’on appelle « une interprétation » de la mécanique quantique. Le langage utilisé par la communauté des physiciens est pour nous le langage propre de la mécanique quantique et c’est à partir de lui qu’il faut penser cette dernière et la comprendre. L’argument émergentiste appliqué à la mécanique quantique est au contraire un exemple des apories qui apparaissent lorsqu’on ne pense pas la mécanique quantique dans son langage propre. Dans cette perspective, le travail de compréhension qu’il nous faut accomplir ne consiste ni à chercher une nouvelle interprétation de la mécanique quantique, ni à établir la meilleure parmi celles existantes, mais plutôt à expliciter le sens des concepts nouveaux de la mécanique quantique, à partir de leurs définitions et de leurs conséquences, et du contexte mathématique dans lequel ils opèrent.

mercredi 27 octobre 2010

Les séminaires du Temps

Séminaire sur le Temps

Jiri Benovsky (U. de Fribourg), Isidora Stojanovic (CNRS-IJN)

Le temps, 24h (Benovsky: 15h; Stojanovic: 9h)
jeudi de 14h à 17h ENS, Salle des conférences au RdC du 46 rue d'Ulm, Paris.


Dates confirmées : 4, 18 et 25 novembre, 2 décembre, 20 et 27 janvier, 3 février. 6 ECTS.

Site web : http://www.jiribenovsky.org/timejn.html

Nous existons tous dans le temps, et persistons à travers le temps.
Toutes nos expériences et toutes nos pensées sont localisées dans le temps, et durent. Tous les objets qui nous sont familiers et que nous côtoyons dans la vie de tous les jours sont également dans le temps.
Mais le temps, qu’est-ce que c’est ? Et que voulons-nous dire en disant que nous existons ‘dans’ le temps, que nous ‘persistons’ à travers le temps, que des événements ‘ont lieu’, que le temps ‘passe’ ? Nous étudierons dans ce séminaire ces questions ainsi que certaines questions reliées : le voyage dans le passé est-il possible ? peut-il y avoir du temps s’il ne se passe rien, s’il n’y a aucun changement ? le temps a-t-il un commencement ? une fin ? Nous nous intéresserons également au temps tel qu'il apparaît dans le raisonnement et dans le langage. Nous finirons avec un aperçu des logiques temporelles et de leur application en sémantique des langues naturelles.

Séminaire ouvert, les auditeurs/trices libres sont bienvenu(e)s.

Isidora Stojanovic
Institut Jean-Nicod
ENS - Pavillon Jardin
29 rue d'Ulm, 75005 Paris
http://ira.stojanovic.online.fr

.

jeudi 23 septembre 2010

Corrélations et complexité du réel

A la recherche d'un éventuel Réel quantique

par Jean-Paul Baquiast et Christophe Jacquemin


En présentant dans notre rubrique Livres en bref (sur le site d'Automates Intelligents) le dernier livre de Stephen Hawking, The Great Design, co-écrit avec le physicien Leonard Mlodinow, nous indiquions ceci :

« Stephen Hawking et son collègue et co-auteur estiment que la découverte en 1992 d'une planète orbitant autour d'une autre étoile que le soleil (découverte suivie depuis de dizaines d'autres) oblige à déconstruire la vision d'Isaac Newton selon laquelle l'univers n'est pas sorti du chaos. On sait que, pour Newton, du fait de son ordre parfait, l'univers aurait été créé par Dieu.
Pour les auteurs, la découverte de systèmes planétaires lointains dément les affirmations des partisans du principe anthropique fort, selon laquelle des paramètres soigneusement choisis ont permis l'apparition de l'homme sur la Terre. Le fait que le Soleil soit unique (au lieu d'être double comme dans certains systèmes), qu'il soit situé à la bonne distance de la Terre et qu'il soit doté d'une masse adéquate, sont de simples coïncidences dues au hasard des lois physiques.
Ajoutons que l'on pourra en dire autant de ces lois et au-delà des constantes cosmologiques, dont les défenseurs du même principe anthropique disent qu'elles ont été réglées au millimètre près (fine tuned) pour que l'homme puisse apparaître.
Le livre ne se limite pas à énoncer ce qui pour les scientifiques matérialistes constitue une évidence. Il reprend les réponses que peuvent apporter les hypothèses de la physique et de la cosmologie moderne aux grandes questions philosophiques: quand et comment a commencé l'univers ? Pourquoi nous y trouvons-nous ? Pourquoi quelque chose au lien de rien ? Qu'est-ce que la réalité ? Pourquoi les constantes physiques semblent-elles justifier notre présence ? Et finalement, la science offre-t-elle d'autres perspectives que le recours à un Grand Dessein ou un Grand Créateur pour expliquer tout ce qu'elle observe ?
Parmi les réponses de la science qu'ils recensent, les auteurs se réfèrent à une interprétation de la mécanique quantique dite du multivers, souvent évoquée sur notre site, selon laquelle le cosmos n'a pas une seule histoire. Toutes les histoires possibles de l'univers coexistent simultanément. Mais cela, appliqué à l'univers dans sa totalité remet en question la relation entre la cause et l'effet, indispensable à la science quotidienne.
Pour Hawking et Mlodinow, le fait que le passé n'aurait pas une forme bien définie signifie que nous créons l'histoire de l'Univers en l' « observant » autrement dit en y agissant. Ce n'est donc pas l'histoire passée de l'univers qui nous crée. On retrouve là les conclusions des travaux de Mioara Mugur-Schächter, résumés par le concept de MCR, Méthode de Conceptualisation Relativisée. A leurs yeux, nous sommes nous-mêmes le produit de fluctuations quantiques inhérentes à l'univers dans sa toute première forme. Selon eux, la mécanique quantique prédit de façon très solide le multivers, hypothèse selon laquelle notre univers n'est que l'un des nombreux univers qui apparurent (ou peuvent encore apparaître) spontanément à partir du vide quantique, chacun d'eux doté de lois fondamentales différentes. »


Les lecteurs de notre site savent que le concept de multivers, souvent évoqué dans nos colonnes, rencontre à la fois un accord assez général des physiciens quantiques et une défiance de la plupart des autres scientifiques, du fait notamment qu'à ce jour il n'a pas paru directement observable. Il paraît donc intéressant de faire le point sur la façon dont il est aujourd'hui reçu, en s'appuyant sur les travaux récents.

Derrière l'hypothèse du multivers, se pose directement celle encore plus fondamentale de la Réalité. Nous venons de voir ce qu'en pensent Hawking et Mlodinow. Mais le profane pourrait se dire que le concept de multivers n'évacue pas l'idée qu'il existe une réalité sous-jacente aux descriptions de la science. Elle serait seulement plus complexe que ce que la science, elle-même limitée par les capacités cognitives de notre cerveau, pourrait se représenter.

Avec un petit effort cependant, on pourrait imaginer des univers multiples, s'étendant à l'infini. Le concept même d'infini est d'ailleurs utilisé depuis des temps immémoriaux par les religions, puis plus récemment par les mathématiques. Sans se le formuler nettement, ceux qui l'emploient considèrent qu'il correspond à quelque chose de réel, se situant « hors de notre réalité à nous » mais appartenant à un réel de catégorie supérieure. Dans cet esprit, les concepts mathématiques utilisés par les sciences dites réalistes, par exemple la mécanique newtonienne décrivant la gravité, sont des symboles pertinents pour se représenter le réel. Mais le réel ne s'éclipse pas derrière ces symboles. Il est toujours là. On doit par conséquent constamment améliorer les formulations mathématiques pour se rapprocher de ce réel en soi, quitte à se résigner à ne jamais pouvoir l'atteindre pleinement.

Dans l'esprit de ceux - sans doute rares selon Feynman - qui l'ont comprise, la mécanique quantique postule tout autre chose. Ses structures mathématiques, autrement dit son formalisme (fonctions d'onde, vecteurs d'état, matrices, espace de Hilbert), n'ont pas et ne cherchent pas à avoir de relations avec l'hypothèse d'un Réel dont, selon une formule célèbre de Laplace s'appliquant à Dieu, elle n'a pas besoin. Le paradoxe est que, si ces structures mathématiques opèrent parfaitement bien dans le monde de la physique macroscopique quotidienne, il n'est pas possible de les rattacher à un ensemble de principes ou postulats dont elles dériveraient. Certains diront qu'il en est de même de la physique newtonienne, dont les postulats de base ressemblent beaucoup à des choix philosophiques puisqu'ils ne sont pas vérifiables.

Mais, comme rappelé ci-dessus, Newton et ses successeurs n'ont jamais évacué la question de la réalité du Réel sous-jacent à leurs descriptions mathématiques du monde. Or la physique quantique adopte un point de vue différent. Certains de ses représentants évoquent parfois un « monde quantique » ou infra-quantique sous-jacent à ce que décrit le formalisme, mais il s'agit d'une manière de parler car ce terme de monde quantique ne peut susciter de recherches destinées à en préciser le contenu. La recherche de « variables cachées », qui avaient été évoquées par Louis de Broglie puis David Bohm dès les premières années de la physique quantique, n'a toujours pas abouti(1). L'idée dominante face au mystère du monde quantique pourrait ainsi être résumée par cette expression de la police urbaine après un attentat : « circulez, il n'y a rien à voir ».

Depuis quelques années cependant, certains jeunes physiciens s'efforcent de trouver des méthodes permettant, non de décrire le monde quantique en termes réalistes - ce qui ne sera jamais sans doute possible à moins de découvrir une loi qui serait déjà opérante parmi nous et que nous n'aurions pas vu jusqu'ici (comme Newton l'avait fait de la gravité), mais de réduire quelques unes des incertitudes ou bizarreries qui donnent son originalité épistémologique à la mécanique quantique.

Le multivers

Une première direction en ce sens peut être signalée. Il s'agit précisément de la question du multivers évoquée au début de cet article.

Pourquoi se mettre en peine à cet égard puisque en termes observationnels, le fait que dans un univers supposé parallèle au nôtre, et en application du principe d'incertitude, un autre moi découvre un chat de Schrödinger mort alors que moi je l'avais observé vivant n'est d'aucune importance [nb : à propos du chat de Schrödinger, consulter l'article de Christophe Jacquemin Petit rappel sur la décohérence et la réduction de la fonction d'onde]. Ce qui compte et comptera toujours pour moi est mon chat à moi, même si dans une infinité d'univers parallèle, une infinité d'observateurs analogues à moi constatent la vie ou la mort d'une infinité de chats.

Les probabilités de trouver le chat soit vivant soit mort se calculent en utilisant une fonction complexe représentant l'état de la particule radioactive commandant l'ouverture de la bouteille de gaz toxique supposée tuer le pauvre animal. Il s'agit de la fonction d'onde et le principe dit de Born permet de calculer la probabilité de trouver le chat vivant ou mort. Mais s'il existe une multiplicité d'univers, que deviendra cette probabilité à l'échelle de l'ensemble de ces univers ?

Récemment les physiciens Anthony Aguirre, Max Tegmark et David Layzer ont suggéré(2) une « interprétation cosmologique » de la mécanique quantique. Selon cette interprétation, la fonction d'onde décrirait l'ensemble « réel » de systèmes quantiques identiques dotés d'autant d'observateurs obtenant chacun des résultats différents. Il ne serait plus besoin de faire appel à la règle de Born pour connaître la probabilité de trouver le chat vivant ou mort, il suffirait de dénombrer les observateurs et leurs observations. Il n'y aurait plus alors d'incertitude globale. L'incertitude quantique serait alors locale, si l'on peut dire. Elle serait attribuable à l'incapacité de tel observateur individuel à se localiser dans cet ensemble.

Bel avantage, dira-t-on, puisque ce dénombrement serait irréalisable, du fait de l'impossibilité d'accéder aux différents univers du multivers. Mais pour les auteurs, leur proposition a l'avantage de tuer, non le chat, mais l'hypothèse du multivers, qui devient inutile. Le physicien se retrouve dans l'interprétation classique dite de Copenhague, ne postulant qu'un univers mais reposant sur le principe d'incertitude. Sauf que ce principe d'incertitude ne fait pas appel ce que l'on pourrait appeler le caractère définitivement étrange (weird) du monde quantique. Le monde quantique serait en ce cas « réel », au sens du réalisme traditionnel, bien que composé d'une infinité d'univers.

Certes pour connaître la probabilité de survenue de tel événement, nous serions comme avant obligé de faire appel aux probabilités, c'est-à-dire à la fonction d'onde et à la règle de Born. Mais beaucoup de physiciens déconcertés par le principe d'incertitude pourraient alors nourrir l'espoir, en s'appuyant sur l'hypothèse que le monde quantique est d'une façon ou d'une autre réel, envisager de nouvelles approches permettant de préciser cette réalité, non seulement en termes de formulations mathématiques, mais pourquoi pas un jour d'expériences sur le terrain. Ainsi pourrait-on espérer pouvoir un jour comprendre la raison du caractère probabiliste du monde quantique, qui reste évidemment encore à découvrir(3).

Les corrélations quantiques

On ne se trompera pas en pensant que cette première approche ne suffira pas à satisfaire ceux qui voudraient élucider la raison des caractères intrinsèquement bizarres du monde quantique. On trouve une autre piste.dans un article du NewScientist dont la publication a précédé de quelques jours celle citée ci-dessus(4). Elle est principalement explorée par le physicien Caslav Brukner de l'université de Vienne(5). Ce savant voudrait revenir sur ce qu'il estime être une démission de la physique quantique face à l'effort de mieux comprendre ce que serait une réalité quantique, autrement dit un monde quantique de type réel sous-jacent au nôtre. Pour cela, il propose de retrouver la démarche qui a toujours été celle de la science : observer, élaborer des hypothèses de lois, en déduire des hypothèses de faits et soumettre ces dernières à l'expérimentation.

Mais par où commencer ? Brukner juge inopérant de rejoindre les nombreuses équipes qui dans le cadre de la gravitation quantique s'efforcent, sans succès à ce jour, de concilier gravitation et mécanique quantique. Pour lui, comme pour des chercheurs explorant des pistes voisines, plutôt qu'aborder la question à partir de la gravité comme le font les théoriciens de la théorie des cordes, mieux vaudrait le faire par l'autre extrémité, c'est-à-dire en approfondissant les fondements physiques de la mécanique quantique elle-même. Une relecture critique de la question des corrélations quantiques leur paraît offrir une voie.

On appelle corrélation le fait que deux corps ou événements non connectés puissent disposer d'états similaires, en fonction de ce que permet ou non la théorie s'y appliquant. Dans la physique classique ces corrélations ne peuvent se produire que si d'une part les objets ou événements disposent de propriétés réelles intrinsèques et si, d'autre part, ils partagent la même localité ou, en le disant autrement, si leurs propriétés ne sont pas définies par des influences extérieures. Il s'agit des conditions de réalisme et de localité.

Pour la théorie quantique de la corrélation, ces deux conditions ne sont pas nécessaires. Cette théorie définit dans ses termes propres les conditions selon lesquelles des objets apparemment non corrélés peuvent l'être, comme dans le cas de plus en plus étudié de l'intrication (entanglement). Or des chercheurs ont montré que des lois physiques simples non quantiques permettent des corrélations encore plus grandes que celles permises par la corrélation quantique. Le monde qui en résulterait serait très bizarre. Le moindre des gestes entraînerait un grand nombre de conséquences corrélées, si bien que la vie et l'évolution y deviendraient impossibles. Ce serait le cas, cité dans l'article de Webb, d'un monde n'obéissant qu'à une seule règle, celle selon laquelle la cause et l'effet ne peuvent se propager plus vite que la lumière (principe de « causalité relativiste »).

Or la physique quantique est loin de permettre des corrélations aussi systématiques. Elle en limite strictement les possibilités. Mais alors se pose la question de savoir pourquoi elle est si restrictive, et quel facteur a déterminé le maximum de degré de corrélation qu'elle admet. En 2001 le physicien Lucien Hardy a proposé un ensemble d'axiomes physiquement plausibles qui devrait suffire à définir la mécanique quantique et elle seule(6). Malheureusement, comme il le reconnaît lui-même, certains de ces axiomes permettent aussi la construction de systèmes mathématiques extérieurs à la théorie quantique.

Mais par la suite, à partir de l'un des axiomes de Hardy, Brukner a développé trois règles décrivant comment, en conformité avec l'expérimentation, la théorie quantique intervient dans le cas du plus simple des systèmes quantiques, à savoir un qbit qui résulte de la superposition de deux états possibles. Si les trois règles de Bruckner s'appliquaient uniquement à la théorie quantique, cela permettrait d'éliminer les autres axiomes de Hardy et conduirait au fondement de l'intrication, la plus significative des corrélations permises par la théorie quantique(7).

Que sont les règles de Brukner ?
  • La première est qu'un qbit peut passer en continu d'un état de superposition à l'autre. Ceci n'est pas possible dans la physique classique.
  • La seconde règle est que l'on ne peut extraire d'un qbit en état de superposition, en le mesurant, qu'un seul bit d'information à la fois.
  • La troisième règle ne s'applique qu'à des systèmes composites de deux ou plusieurs qbits. Connaissant les probabilités que les qbits individuels soient dans un état particulier et les probabilités de corrélation entre eux, on obtient l'état du système complet. Ceci enferme les propriétés de l'intrication entre des états quantiques que l'expérience peut faire apparaître dans le monde réel.
La chose serait alors d'une grande importance. L'intrication quantique, et les expériences qui permettent de la mesurer, lesquelles portent dorénavant sur des systèmes de plusieurs atomes, représentent une base indiscutable. Or seule une théorie aussi précisément corrélée que la théorie quantique peut à la fois obéir à tous les axiomes proposés et produire le type d'intrication quantique observable expérimentalement. Des théories moins précisément corrélées ne produisent aucune intrication. Dans d'autres, on peut mesurer tous les états de tous les qbits d'un système, connaître leurs corrélations et ne pas pouvoir connaître l'état global du système.

Mais pourquoi l'intrication quantique joue-t-elle un tel rôle dans la nature ? La question n'a pas encore de réponse. Pour Brukner, on pourrait envisager que, sans intrication, la matière ordinaire ne serait pas stable ; Il faudrait dans ce cas poursuivre l'observation des états d'intrication dans des corps de plus en plus proches de ceux de la matière ordinaire. Mais beaucoup de chercheurs ne sont pas convaincus. Ils soupçonnent qu'une règle encore à découvrir devrait permettre d'expliquer plus complètement la « réalité » du monde quantique, aussi bizarre que puisse être cette explication. On pourrait alors espérer trouver par une autre voie la relation entre la mécanique quantique et la gravité(8).

On voit en tous cas que le temps n'est plus où, devant la bizarrerie du monde quantique, la réponse la plus courante des physiciens quantiques aux curieux était « circulez, il n'y a rien à voir ».

Notes
(1) Voir sur ce point la discussion avec Michel Gondran "Entretien sur les expériences EPR, interaction d'échange et non-localité".
(2) Anthony Aguirre, Max Tegmark et David Layzer "Born in an Infinite Universe: a Cosmological Interpretation of Quantum Mechanics" http://arxiv.org/abs/1008.1066
(3) Sur ce qui précède, voir un article de Rachel Courland dans le Newscientist du 28 août 2010 dont nous nous sommes inspirés http://www.newscientist.com/article/mg20727753.600-infinite-doppelgangers-may-explain-quantum-probabilities.html?full=true
(4) Voir Richard Webb, "Reality gap"
http://www.newscientist.com/article/mg20727741.300-is-quantum-theory-weird-enough-for-the-real-world.html?full=true
(5)Caslav Brukner : http://homepage.univie.ac.at/caslav.brukner/
(6) Voir Lucien Hardy "Quantum Theory From Five Reasonable Axioms" http://arxiv.org/abs/quant-ph/0101012v4
(7) Voir Borivoje Dakic, Caslav Brukner, "Quantum Theory and Beyond: Is Entanglement Special ? http://arxiv.org/abs/0911.0695
(8) Voir Voir Miguel Navascués, Harald Wunderlich : "A glance beyond the quantum model"
http://rspa.royalsocietypublishing.org/content/466/2115/881.abstract?sid=ec83aa34-dc51-4c20-a77c-8998fff2c503

© Automates Intelligents
93 de septembre 2010
.

vendredi 17 septembre 2010

Au hasard de l'expression des potentialités

Séminaire PhilBio de l'Institut d'Histoire et de Philosophie des Sciences et des Techniques
13, rue du Four - 75006 PARIS

Vers une intégration de la stochasticité et du contrôle génétique dans les modèles du développement

Par Pierre-Alain Braillard

jeudi 23 septembre de 14h à 15h30
grande salle de l'IHPST (2ème étage)


Un nombre croissant de résultats expérimentaux a récemment révélé l'importance de la stochasticité dans de nombreux mécanismes moléculaires, en particulier l'expression des gènes. Pour certains chercheurs, ces données constituent une réfutation des modèles classiques du développement embryonnaire, qui décrivent celui-ci comme le déroulement d'un programme informatique déterminé jusque dans ses moindres détails. Selon eux, un modèle de type darwinien, dans lequel l'ordre émerge du couple hasard-sélection, offre une bien meilleure explication du développement que les modèles de contrôle génétique, qui sont fondamentalement déterministes.
Ma présentation cherchera à montrer que différentes approches empiriques et théoriques offrent un cadre alternatif, capable d'intégrer le caractère stochastique de l'expression génique, sans toutefois nier l'importance du contrôle génétique. Ces approches sont fondées sur l'application de la théorie des systèmes dynamiques aux réseaux moléculaires. Elles ne sont pas certes pas complètement nouvelles, mais les récents progrès de la génomique fonctionnelle et de la biologie des systèmes ont donné à ce cadre une certaine assise empirique. L'intérêt de ces approches réside dans le fait qu'elles reconnaissent différentes possibilités de couplage entre hasard et déterminisme, et évitent par conséquent les dangers d'une vision monolithique d'un processus aussi complexe que le développement.
Je conclurai par quelques remarques sur la possibilité d'une comparaison entre processus évolutifs et développementaux. Je soulignerai un certain nombre de différences importantes qui font douter de la possibilité d'appliquer le schéma darwinien au développement embryonnaire.

Courriel : ihpst@univ-paris1.fr .
Site web :http://sites.google.com/site/philosophiedelabiologie/

Séminaire de Philosophie de la Biologie : PhilBio 2010-2011, organisé par Antonine Nicoglou (antoninenico[at]hotmail.com) et Francesca Merlin (francesca.merlin[at]gmail.com), bi-mensuel, de 14h à 15h30.

.

lundi 30 août 2010

Simplicité et complexité du vivant : le geste

Journée scientifique et musicale au Collège de France
Le 20 septembre 2010, salle 4 de 9h à 18h.


Cette Journée a pour thème « La Simplexité » objet du dernier ouvrage de Alain Berthoz. Elle comportera une première partie d’Atelier avec exposés et débats théoriques et une deuxième partie de concert de musique du XXe s.

« Simplicité et complexité du vivant : le geste »

1. Dans divers secteurs des sciences biologiques, on peut noter la récurrence d'un ancien paradoxe : la « simplicité » - réelle ou apparente - des solutions du vivant aux problèmes que la « complexité » de l'environnement (externe et interne) pose pour sa survie (Uri Alon, Nature 2007 ; Alain Berthoz, La simplexité, 2009 ; Leland H. Hartwell et al, Nature 1999 ; Ron Milo et al. Science 2002, 2004 ; Tal Kenet Nature 2003 ; Kestutis Kveraga et al. 2007 ; Hishshi Ohtsuki et al. Nature 2006). Cette nouvelle tendance peut se concevoir comme tentative de réponse à une difficulté que crée la multiplication des niveaux d'analyse. De la psychophysiologie de la posture et du comportement (voire de l'écologie de l'Umwelt) à la cartographie du cortex cérébral et à la biochimie des molécules, nos modes d'approche tendent à une spécialisation toujours plus poussée et telle qu'à chaque niveau le progrès de la recherche ouvre sur une complexité sans limites. Sans parler de l'intrication buissonnante des relations entre ces niveaux, relations qu'on découvre ne pas être seulement hiérarchiques, ascendantes ou descendantes, mais aussi hétérarchiques.

2. La difficulté, sans doute, est d'abord de nature épistémologique : le défaut d'un discours intégrateur capable d'articuler les uns avec les autres cette variété d'aperçus partiels en une conception unitaire du vivant devient moins tolérable à mesure qu'ils se multiplient. Mais elle n'est pas limitée à l'épistémologie, car personne ne croit que la vie a évolué de manière à ce que son fonctionnement nous devienne intelligible. La difficulté fondamentale est de nature ontologique ou ontique : comment des processus, qu'à travers leurs modélisations « sur le papier » nous devinons d'une formidable complexité, ont-ils pu rendre capables les organismes dans la Nature (ou les agents humains dans la société) de faire face en temps voulu aux contraintes du milieu ?

3. Pour les neurosciences cognitives le problème de la connaissance comme recherche de la vérité ne se présente pas sous la forme idéalisée par Descartes dans le Discours de la Méthode et dans les Règles pour la direction de l'esprit. Il est hors de question de vouloir ramener le compliqué au plus simple, afin de repartir du plus simple pour résoudre toutes les difficultés. La raison en est que le problème de la connaissance pour le chercheur se double « du problème de la cognition posé au cerveau », c'est-à-dire de ce que le chercheur interprète en ces termes, tout en se gardant de confondre la cognition avec l'acte de connaître, le cerveau avec un sujet connaissant.
Impossible de sauvegarder la réciprocité entre l'analyse en éléments simples et le retour graduel à la complexité initiale par simple renversement de l'ordre de progression. Non seulement parce que les éléments simples appartiennent à d'autres sciences de même que les totalités, respectivement : chimie, physique - économie, sociologie, écologie. Mais, toute tentative de formulation du problème de la cognition cérébrale par analogie avec les conditions générales de la résolution de problème amène à subdiviser l'expérience individuelle en « tâches » distinctes et nous engage dans une énumération des tâches présumées pour le cerveau qui ne peut avoir aucun terme assignable.
Comprendre comment il est possible pour l'organisme humain d'avoir un comportement adapté dans un environnement complexe et changeant, cette ambition, si limitée à première vue, est repoussée à une échéance toujours plus lointaine par la multiplication des tâches intermédiaires à accomplir. Le dialogue permanent de la vision ou de la perception et de l'action dans la vie quotidienne, où un même sujet percevant et agissant passe continuellement d'un contexte à un contexte nouveau, nous pose un persistant défi. Témoins : l'écart toujours considérable entre la vision naturelle et « le traitement d'image » des ingénieurs, entre le mouvement humain de la marche et la déambulation des robots, la limitation des robots autonomes à des « petits mondes » sans commune mesure avec l'environnement ordinaire d'un agent humain, etc.

4. Dans la mesure où elle débouche sur un emboîtement sans fin de mécanismes et de fonctionnalités, une telle multiplication des niveaux d'analyse n'aide guère à comprendre comment il est possible que tout cela apparaisse en définitive de façon « simple » à quelqu'un dans son vécu. Car, quelle que soit la complexité interne que celui-ci recèle en tant qu'organisme, quelle que soit la complexité des lois des systèmes physiques environnants, le vivant est un individu autonome (en particulier une personne) actuellement plongé dans une certaine situation locale, qui se configure pour lui d'une façon typique qui le plus souvent correspond à ses anticipations, une situation aux exigences de laquelle ses capacités ordinaires lui permettent habituellement de répondre de façon relativement satisfaisante.
L'adéquation entre la forme anticipée et perçue de la situation et la réponse normalement adaptative du vivant exclut la longue médiation qu'exigerait (d'après l'analogie entre la computation neuronale et le calcul humain) le traitement les unes à la suite des autres de complexités renvoyant en cascade à des complexités toujours nouvelles.

5. Qu'un Lebenswelt, monde de vie doué de sens pour un vivant, puisse venir à se manifester au sujet dans l'évidence, que la masse des mécanismes et processus inconscients qui sous-tendent sa vie organique puisse comporter une phase privilégiée telle que la perception consciente et la décision volontaire, que cette phase privilégiée soit en outre constituante pour toutes les autres phases en tant que porteuses de sens, de cela nous nous sommes fait un mystère. Notre science, engagée dans la fuite en abîme vers des niveaux toujours plus profonds de complexités sous-jacentes aux phénomènes, n'a plus de place pour l'idée même de la phénoménalité du vécu. Pour autant, la thèse phénoménologique du caractère originaire du phénomène, à travers la déclinaison variée qu'en donnent les œuvres de Husserl, Heidegger, Merleau-Ponty, etc., doit-elle être tenue pour périmée ?

6. N'avons-nous donc rien à redire à ce que dans l'intervalle entre les mécanismes physiologiques du milieu interne, d'une part, et les mécanismes physiques du milieu externe, d'autre part, la perception, l'action, toute cette continuelle interaction perceptive, pratique, affective, etc. entre un sujet percevant et agissant et les autres sujets au sein d'un monde commun qui constitue par son entrelacs le sol solide et permanent du vécu, tende à se réduire sous l'effet d'une sorte de vertige de l'explication à une interface sans épaisseur : insubstantielle, évanouissante, illusoire. « Sauver les phénomènes » : ici la formule ne renvoie pas comme autrefois au rétablissement de la régularité des mouvements des corps célestes malgré les irrégularités observées. Il s'agit plutôt de comprendre comment le vivant a trouvé moyen de ne pas se noyer dans sa propre complexité immanente. Il ne suffira pas de pointer du doigt au cas par cas le procédé appliqué pour résoudre telle ou telle difficulté. Ce qu'il faut ressaisir c'est la méthode générale du vivant pour rejoindre « la clairière de l'être » de l'évidence phénoménale et s'y maintenir fermement.

7. Si un paysan du Nordeste brésilien souhaite composer le nom de ses enfants d'un morceau du sien recollé à un morceau du nom de la mère, le fonctionnaire d'état civil ne lui refusera pas l'enregistrement. « La référence des noms propres n'est pas affectée par l'arbitraire de leur composition » : le principe vaut pour les noms de personnes.
S'applique-t-il aux expressions de concepts renvoyant à un état de choses abstrait ? Le fait pour un gouvernement d'hésiter entre la rigueur et la relance ne constitue pas une politique originale qu'on puisse désigner du terme composite de « rilance ». Qu'il suffise d'avoir recollé les morceaux des lexèmes 'simplicité' et 'complexité' en 'simplexité' pour gagner avec ce néologisme le bénéfice conceptuel de la simplicité tout en sauvegardant l'essentiel de la complexité d'un système biologique, c'est ce que nous ne devrions pas assumer sans un examen approfondi.

8. [D'après P. Livet] Plusieurs idées de simplexité semblent être en jeu : il importe de savoir si elles s'accordent entre elles, si elles résonnent les unes avec les autres :
  1. Un procédé capable de contracter les données multiples d'un problème parce qu'il revient à une situation plus simple (système contractant, point fixe dans l'odorat) ;
  2. Une mise en perspective qui permette de déployer plusieurs approches comme autant de variantes d'une structure fondamentale (géométrie affine) ;
  3. La combinaison de plusieurs variables en une seule permettant de traiter le problème dans un espace plus simple - ou de passer du non linéaire au linéaire (poulies pour les muscles de l'œil, grille en triangles pour les repérages, variable complexe qui combine position, vitesse, accélération) ;
  4. La mise en œuvre de dispositifs qui répondent à un problème de plus grands degrés de liberté, tenant à des contraintes affaiblies (ex : non commutativité, conduction plus rapide pour le pied plus éloigné que la main, etc.) ;
  5. La modularité (elle simplifie localement, mais pose un problème plus complexe, celui des changements de référentiels appropriés entre modules) ;
  6. Le réemploi d'une même structure par des variantes pour traiter des problèmes différents (marche et course, mais cela pose le problème complexe de trouver les bonnes variantes) ;
  7. Le maintien d'une stabilité au sein de l'instabilité d'une dynamique (mais il s'agit de trouver les solutions pour le faire : maintenir la stabilité en rotation de la plateforme de la tête, lier perception, mouvement et usage du mouvement.
Les deux premières formes de simplexité consistent en des réductions de complexité qui auraient du mal et se recharger en complexité. Les deux suivantes posent le complexe comme simple globalement, mais ne peuvent pas non plus retrouver sa richesse (en analysant ce qui a été combiné), ni même retrouver une simplicité moins liée à des contraintes locales. Les deux suivantes partent d'une structure plus simple, mais demandent des transformations ou des changements de référentiels pour rendre compte de la complexité. La dernière pose le problème général, un problème qui a des solutions particulières, bien qu'on ne connaisse pas de stratégie générale pour trouver ces solutions. Il est donc possible qu'une certaine simplexité ne consiste pas forcément à trouver une stabilité dans une dynamique, mais à entretenir des dynamiques qui, si elles pouvaient être globalisées et sommées, donneraient une stabilité, alors qu'en fait, cette sommation n'est pas possible : nous ne disposons jamais à la fois des vertus de la stabilité et de celles de la dynamique, de celles des modules et des changements de référentiels, de la structure de base et de ses transformations. La simplexité, ce jeu de renvois entre la complexité sous-jacente des structures et la simplicité manifeste du geste comportemental (saillance de l'objet perçu, valence affective d'une expression faciale, relation inverse entre vitesse et courbure de la trajectoire du mouvement biologique, etc.), la simplexité appelle une nouvelle épistémologie : une épistémologie qui rejette la totalisation insensible de l'axiomatique pour mieux éclairer cette mystérieuse capacité du vivant - comme « écart prolongé par rapport à l'équilibre dans une zone de criticité étendue » (Bailly, Longo) - de faire vivre sa propre dynamique constitutive. Mais ici, encore une fois, l'épistémologie renvoie à l'ontologie.

9. [D'après D. Bennequin] Contrairement au préjugé de la complexité des lois des systèmes physiques, les lois de la physique sont certainement simplexes elles aussi. En effet, à première vue, les phénomènes naturels sont complexes (une pierre qui tombe de la tour de Pise est loin d'être une masse ponctuelle dans un espace vide) ; tandis que la loi est "simple" car elle élimine la complexité en introduisant des symétries artificielles, "simplificatrices" (solution possible des points 1 et 2 ci-dessus). Cependant, en y regardant de plus près, on s'aperçoit que la complexité n'a pas disparu. D'abord, parce que la loi explique au moins en partie le phénomène (comme Hubel et Wiesel expliquent une partie de la réponse des cellules de V1).
Mais, surtout parce qu'avec cette loi est opéré un déplacement conceptuel vers un espace de phase, ou au moins une utilisation de la notion de "vitesse" et d'accélération dont l'émergence au cours de l'histoire des sciences a été rien moins que simple. C'est là, un aspect du problème sur lequel la notion de simplexité nous fait avancer : un bon concept (ici en physique) dépasse la complexité sans la nier simplement. La physique ne manque pas d'exemples de changements de niveaux, montrant qu'un milieu complexe, avec une dynamique elle-même on ne peut plus complexe (au sens de Kolmogorov), peut tout de même donner lieu à des évolutions simples (prédits par l'ergodicité, ou mieux, par des "dualités"). On peut penser, mais cela reste à prouver, que l'évolution des organismes vivants procède de la même manière, mais que les outils pour en rendre compte demanderont une extension de la Physique, comme celle qu'a constitué la Chimie (c'était le point de vue de Heisenberg). Encore plus intéressant philosophiquement, la "conceptualisation" en Physique doit sans doute elle-même être incluse dans les processus de "simplexité" de la nature, qui incluent les sociétés modernes d'humains comme ils incluent aussi les facettes des yeux des mouches.

Jean-Luc PETIT
Pr de philosophie
Université de Strasbourg
(UFR PLISE)

Laboratoire de Physiologie
de la Perception et de l'Action
(UMRC 7152) Collège de France
www.jlpetit.com
.

dimanche 11 juillet 2010

Relier ou isoler ?

Les deux bouts de la langue

par Michel Onfray


Au commencement était Babel, chacun connaît l'histoire : les hommes parlent une seule et même langue, dite "adamique", celle du premier d'entre eux. Puis ils se proposent de construire une immense tour destinée à pénétrer les cieux. Pareille architecture suppose que les hommes habitant le même élément que Dieu en deviendraient de facto les égaux. Cette volonté prométhéenne agit comme une autre formule du péché originel car, goûter du fruit de l'arbre de la connaissance, c'est savoir tout sur chaque chose, autrement dit, une fois encore, égaler Dieu. Il y eut une sanction pour le geste d'Ève, personne n'a oublié... De même pour celui des constructeurs de Babel : la confusion des langues.

Dieu qui est amour, rappelons-le pour qui aurait la fâcheuse tendance à l'oublier, descend sur Terre pour constater de visu l'arrogance de ces hommes. "Il dit : "Voilà qu'à eux tous ils sont un seul peuple et ont un seul langage ; s'ils ont fait cela pour leur début, rien désormais pour eux ne sera irréalisable de tout ce qu'ils décideront de faire. Allons ! Descendons et là, brouillons leur langage, de sorte qu'ils n'entendent plus le langage les uns des autres." Et Yahvé les dispersa, de là, à la surface de toute la Terre, et ils cessèrent de bâtir la ville." (Gen. 11, 6-7) - où comment semer la discorde...

Dès lors, il y eut des langues, certes, mais surtout l'incompréhension parmi les hommes. De sorte que la multiplicité des idiomes constitue moins une richesse qu'une pauvreté ontologique et politique. On se mit alors à parler local, ce que d'aucuns célèbrent aujourd'hui comme le fin du fin. Je songe aux "nationalistes", plus justement nommés "indépendantistes régionaux", qui font de la langue un instrument identitaire, un outil de fermeture sur soi, une machine de guerre anti-universelle, autrement dit un dispositif tribal.

Précisons que le politiquement correct passe souvent sous silence cette information qu'il n'existe pas une langue corse, une langue bretonne, mais des dialectes corses ou bretons, chacun correspondant à une étroite zone géographique déterminée par le pas d'un homme avant l'invention du moteur. Le mythe d'une langue corse ou d'un unique parler breton singe paradoxalement le jacobinisme honni, car lesdites langues régionales sont compartimentées en groupe de dialectes - j'eus des amis corses qui, le vin aidant, oubliaient un instant leur religion et leur catéchisme nationaliste pour avouer qu'un berger du cap corse ne parlait pas la même langue que son compagnon du cap Pertusato ! Babel, Babel...

La langue régionale exclut l'étranger, qui est pourtant sa parentèle républicaine. Elle fonctionne en cheval de Troie de la xénophobie, autrement dit, puisqu'il faut préciser les choses, de la haine de l'étranger, de celui qui n'est pas "né natif" comme on dit. Or, comme une espèce animale, une langue obéit à des besoins relatifs à une configuration temporelle et géographique ; quand ces besoins disparaissent, la langue meurt. Vouloir faire vivre une langue morte sans le biotope linguistique qui la justifie est une entreprise thanatophilique. Son équivalent en zoologie consisterait à vouloir réintroduire le dinosaure dans le quartier de la Défense et le ptérodactyle à Saint-Germain-des-Prés...

A l'autre bout de la langue de fermeture, locale, étroite, xénophobe, il existe une langue d'ouverture, globale, vaste, cosmopolite, universelle : l'espéranto. Elle est la création de Ludwik Zamenhof, un juif de Bialystok, une ville alors située en Russie (en Pologne aujourd'hui). Dans cette cité où la communauté juive côtoyait celle des Polonais, des Allemands et des Biélorusses, les occasions de ne pas se comprendre étaient nombreuses. En ces temps, déjà, Dieu pouvait jouir de son forfait. Fin 1870-début 1880, l'espéranto se propose donc le retour au Babel d'avant la colère divine.

A l'heure où le mythe d'une langue adamique semble prendre la forme d'un anglais d'aéroport parlé par des millions d'individus, on comprend que la langue de Shakespeare mutilée, amputée, défigurée, massacrée, dévitalisée, puisse triompher de la sorte puisqu'on lui demande d'être la langue du commerce à tous les sens du terme. Vérité de La Palice, elle est langue dominante parce que langue de la civilisation dominante. Parler l'anglais, même mal, c'est parler la langue de l'Empire. Le biotope de l'anglais a pour nom le dollar.

Mais cette langue agit aussi comme un régionalisme planétaire : elle est également fermeture et convention pour un même monde étroit, celui des affaires, du business, des flux marchands d'hommes, de choses et de biens. Voilà pour quelle raison l'espéranto est une utopie concrète à égalité avec le projet de paix perpétuelle de l'abbé de Saint-Pierre, autant d'idées de la raison dont le biotope n'est pas "l'avoir" mais "l'être" - plus particulièrement "l'être ensemble" sans perspective d'échanges autres que de biens immatériels.

L'espéranto propose d'habiter une langue universelle, cosmopolite, globale qui se construit sur l'ouverture, l'accueil, l'élargissement ; elle veut la fin de la malédiction de la confusion des langues et l'avènement d'un idiome susceptible de combler le fossé de l'incompréhension entre les peuples ; elle propose une géographie conceptuelle concrète comme antithèse à la religion du territoire ; elle parie sur l'être comme généalogie de son ontologie et non sur l'avoir ; elle est le voeu d'une nouvelle Grèce de Périclès pour l'humanité entière - car était grec quiconque parlait grec : on habitait la langue plus qu'un territoire - ; elle est la volonté prométhéenne athée non pas d'égaler les dieux, mais de faire sans eux, de quoi prouver que les hommes font l'histoire - et non l'inverse.

Article paru dans l'édition du journal Le Monde du 10.07.10.
.

samedi 26 juin 2010

L'espace et le temps (appel)

Philosophia Scientiae lance un appel à contributions

pour un numéro spécial sur le thème :

L'espace et le temps. Approches en philosophie, mathématiques et physique

Cahier thématique de Philosophia Scientiae 15/3 (automne 2011)

Editeurs invités : Christophe Bouriau, Catherine Dufour, Philippe Lombard

Date limite de soumission : 1er décembre 2010


Les concepts d'espace et de temps ont beaucoup évolué à la fois au gré des différentes théories physiques et mathématiques et au gré de la pensée philosophique. L'espace et le temps absolus de Newton, encore proches de l'intuition, trouvent une justification dans la construction transcendantale de Kant. La thermodynamique, et en particulier le second principe, semble apporter une solution au problème de la direction du temps, auquel la mécanique ne répond pas. L'irruption des géométries non-euclidiennes puis le développement de l'algèbre linéaire conduisent à une redéfinition du concept d'espace en mathématiques, indépendante de l'intuition. En physique, la relativité restreinte puis générale rendent obsolète l'espace-temps newtonien. Depuis Poincaré, les physiciens se sont attachés à construire espace et temps à partir des propriétés de groupes de transformations. La difficulté à construire une théorie quantique de la gravitation laisse à penser que ces concepts d'espace et temps ne sont pas aboutis. En théorie des boucles quantiques par exemple, espace et temps émergent naturellement de la théorie.

L'objectif du numéro est de réunir des contributeurs qui examineront certaines de ces conceptions modernes ou anciennes de l'espace et/ou du temps. Quels liens existent-ils entre les concepts de l'espace et du temps développés par les mathématiciens, les physiciens et les philosophes ? Faut-il et peut-on résoudre la question de la nature de l'espace et du temps ?

---------------------------------------------------
Philosophia Scientiæ est une revue scientifique à comité de lecture qui publie des travaux en épistémologie, en histoire et en philosophie des sciences. Elle accueille notamment des études traitant des mathématiques, de la physique et de la logique, mais elle est ouverte aux travaux portant sur les autres disciplines scientifiques.
Elle est publiée aux éditions Kimé (Paris).

Les manuscrits des articles individuels, écrits en français, en allemand ou en anglais, doivent contenir un résumé en français et en anglais de 10 à 20 lignes, et être préparés pour une évaluation anonyme.

Pour toute information supplémentaire (anciens numéros, consignes aux auteurs, résumés), merci de consulter le site de la revue : http://poincare.univ-nancy2.fr/PhilosophiaScientiae/Accueil/.

Le comité de rédaction (philosophiascientiae[at]univ-nancy2.fr)

mardi 8 juin 2010

Épistémologie relationnelle de la physique quantique

Kant, nouveau sage tibétain de la physique quantique ?

par Hicham-Stéphane Afeissa

Sur le livre de Bitbol, M. (2010), De l'intérieur du monde. Pour une philosophie et une science des relations. Paris : Flammarion.


Philosophie et physique quantique. L’intitulé, à lui tout seul, risque d’en effrayer plus d’un et d’en étonner de nombreux autres qui ne verront pas bien, de prime abord, ce que la philosophie peut apporter à une entreprise scientifique dont Richard Feynman disait, en badinant, que personne n’y comprend rien, pas même lui !

Et pourtant, il y a non seulement beaucoup à dire sur ce sujet, mais il y a même matière à écrire un grand livre de philosophie, comme vient tout juste de le démontrer Michel Bitbol, qui s’est distingué en France depuis de nombreuses années par ses remarquables travaux de vulgarisation et de recherche sur la philosophie de la physique quantique.

Physique quantique et principe d’indétermination

Il y a fort à parier que le lecteur un peu averti de ce dont il retourne en physique quantique s’empressera de citer le célèbre "principe d’indétermination" de Werner Heisenberg, ce qui ne constitue pas, après tout, un mauvais point de départ pour parler de ces choses-là. Ce principe énonce, en substance, qu’il est impossible de connaître simultanément la position d’une particule atomique et sa quantité de mouvement. Plus une mesure de position est précise, plus elle modifie de manière imprévisible la quantité de mouvement et par suite la vitesse du corpuscule. La trajectoire de la particule étudiée reste ainsi inconnue. Position et vitesse sont des grandeurs incomposables.

La première interprétation de ce fait consisterait à dire que l’indétermination des valeurs d’un couple de variables résulte de ceci que leur mesure requiert deux dispositifs expérimentaux incompatibles. Le problème porterait alors sur l’appareillage qui serait incapable d’écarter l’écueil de la perturbation des phénomènes observés par les moyens d’investigation. La physique quantique donnerait des moyens de prédiction, à condition d’ordonner toutes les prédictions pouvant être faites à des conditions expérimentales données. Ce qui serait perdu, c’est la possibilité de prédire avec certitude la valeur des deux variables conjuguées pour un système. Mais même dans le cas de la prédiction de l’une seule des deux variables, la prédiction resterait conditionnelle (suspendue à l’utilisation d’un certain appareillage).

Les relations d’incertitude de Heisenberg n’interdiraient pas par elles-mêmes que l’on puisse fournir simultanément des valeurs des deux variables conjuguées, mais elles indiqueraient plutôt que les valeurs fournies n’ont qu’une valeur prédictive mutuellement limitée : une mesure perdrait en imprécision ce que l’autre gagnerait en précision. Les mouvements des corpuscules continueraient d’obéir aux lois de la mécanique classique – une impossibilité matérielle nous empêchant seulement de déterminer les conditions initiales, ayant pour conséquence d’interdire toute prédiction. Il y aurait donc en réalité déterminisme (de droit), et seulement indéterminisme apparent dû à la faiblesse de nos procédés de mesure.

La révolution épistémologique de la physique quantique

Tout l’intérêt de la réflexion des principaux acteurs de la physique quantique consiste précisément dans les efforts répétés visant à dépasser cette première interprétation, pour jeter les bases d’une théorie de la connaissance adéquate à cette nouvelle physique.

Quantité de mouvement et position ne sont pas des grandeurs incomposables en fait (faute de savoir les mesurer simultanément), elles sont incomposables en droit, parce qu’à chacune de ces mesures se trouvent associées des fonctions d’onde qui ont des propriétés incompatibles les unes avec les autres. Comme il est d’usage de le dire, il n’y a pas de "paramètre caché", tel que, si sa valeur était connue, il y aurait déterminisme. Les phénomènes d’aspect corpusculaire et les phénomènes d’aspect ondulatoire s’excluent mutuellement : une théorie ondulatoire classique permettra de prouver qu’il n’y a pas de phénomènes corpusculaires ; une théorie ponctuelle prouvera qu’il n’y a pas de phénomènes ondulatoires.

Les implications d’une telle interprétation des résultats expérimentaux sont considérables, à commencer par "l’éclatement complet du cadre conceptuel dualiste" dans lequel se situe clairement la première interprétation du principe d’indétermination : "Au lieu d’une relation causale transcendante entre une entité microscopique et une instrumentation, ce qui se trouve désormais mis en jeu est une relation de codépendance entre classes d’occurrences immanentes. (…) Les phénomènes dépendent pour leur manifestation, les vecteurs d’état dépendent pour leur validité prédictive, d’un réseau d’actes expérimentaux. Au lieu d’en rester à une impasse à propos de la connexion transitive de l’interaction, on développe les possibilités qu’offre la connexion corrélative de la contextualité.".

Toute une épistémologie relationnelle demande par conséquent à être élaborée pour permettre de comprendre à la fois les relations des sujets avec les objets, et les relations qui prévalent entre les objets – tâche à laquelle se consacre Michel Bitbol en réservant la première partie à l’examen du première genre de relations, et la seconde à la discussion du second genre de relations.

Naturalisation de la connaissance et épistémologie transcendantale

Mais pourquoi doit-on poser deux genres distincts de relations ? N’est-il pas tentant de fondre ces genres de relations en une seule famille, en considérant que la relation entre sujets et objets est un cas particulier des relations entre objets (selon une stratégie de naturalisation de la connaissance et d’objectivation du sujet) ; ou en considérant que la focalisation des sciences sur les relations entre objets n’est que la conséquence du caractère relationnel de la connaissance (selon la stratégie de l’épistémologie transcendantale) : le sujet n’étant confronté qu’à des phénomènes, il n’a rien à dire sur ce que sont les choses en elles-mêmes, mais seulement sur les relations réglées qu’il aperçoit entre elles grâce à la relation qu’il entretient avec elles ?

La réfutation de ces deux stratégies épistémologiques occupe le cœur de l’ouvrage de Michel Bitbol et détermine son orientation générale. Selon lui, la conception naturalisée des relations comporte un risque d’autodestruction : si le sujet objectivé est immergé dans la toile relationnelle du monde, il ne peut espérer s’en détacher suffisamment pour en offrir une représentation fiable : "Par suite, la représentation relationnelle du monde n’est pas plus fiable qu’une autre, et tombe sous le coup de sa propre critique.".

Quant à l’épistémologie transcendantale, elle porte en elle le germe de son propre affaiblissement : si le sujet n’a accès aux choses que par la façon dont ses relations avec elles l’affectent, l’information dont il dispose se réduit à une combinaison inextricable de sa contribution et de celles des choses : "En quoi peut-on alors dire qu’il a acquis un savoir à propos des choses (y compris à propos de leurs relations mutuelles) s’il ne peut pas extraire, dans l’information mêlée qui lui est accessible, ce qui lui revient en propre ?".

De là l’idée de la troisième partie du livre de Michel Bitbol entièrement consacrée à mettre au jour un mode inédit de coopération pour les deux approches à première vue antinomiques que sont la réflexivité transcendantale et la démarche de naturalisation, où il s’agit de coupler la clause critique de relativité des connaissances avec la représentation scientifique des réseaux de relations entre phénomènes observables.

Kant, Nagarjuna, Protagoras et les sceptiques

Tel est, à grands traits, le projet que poursuit Michel Bitbol dans cet ouvrage ambitieux qui vise rien de moins qu’à élaborer une nouvelle théorie de la connaissance à la lumière de la philosophie de physique quantique.

La mise en œuvre de ce projet, examinée dans son détail, fournit un autre motif d’admiration au lecteur. Michel Bitbol se révèle être un guide très sûr dans le dédale des discussions qui agitent le milieu des théoriciens contemporains de la physique quantique, de l’épistémologie et de la métaphysique de part et d’autre de l’Atlantique. Il faut lire ces pages où l’on salue tout autant le véritable talent de pédagogue que la richesse étonnante de la culture mobilisée, par exemple celles – lumineuses – qui sont consacrées à une histoire abrégée de l’ontologie des relations depuis Aristote jusqu’au structuralisme, où celles qui nous proposent une relecture du scepticisme antique déjà préoccupé par les problèmes d’une épistémologie relationnelle, ou du relativisme de Protagoras tel que Platon en parle dans le Théétète et Aristote dans le livre de la Métaphysique.

Il faut surtout lire l’étonnante enquête comparative portant sur les théories de la connaissance kantienne et néokantienne, et l’enseignement de l’école bouddhique Madhyamika dont l’auteur de référence est Nagarjuna – enquête qui constitue peut-être l’un des traits les plus originaux du livre de Michel Bitbol. Pour reprendre la formule de Lucien Febvre en conclusion de son compte rendu de La Méditerranée de Fernand Braudel : bien plus qu’un livre qui nous instruit, un livre qui nous grandit.

Article de Nonfiction.fr du 08 mai 2010.
.

dimanche 30 mai 2010

Comment la matière l'a emporté de justesse sur l'antimatière

par Pierre Le Hir

Si l'on en croit le modèle standard de la physique, la page de journal où est imprimé cet article, ou l'écran sur lequel il s'affiche, ne devraient pas exister. Pas plus que les journalistes, les lecteurs, ni rien d'autre. Pas de galaxies, d'étoiles, de planètes. Pas de vie. Pourtant, nous sommes vivants, et le monde qui nous entoure bien réel. Parce que l'Univers a choisi la matière plutôt que l'antimatière. De très peu : une infime pincée supplémentaire de la première, qui a suffi à faire toute la différence. Pourquoi, comment ?

Des expériences menées au Fermilab de Chicago, avec le détecteur DZero du Tevatron - le collisionneur de particules le plus puissant au monde après le Large Hadron Collider (LHC) de l'Organisation européenne pour la recherche nucléaire (CERN) de Genève -, lèvent peut-être un coin du voile. Tout en ébranlant le socle de la physique fondamentale. Ces travaux, auxquels participent 500 physiciens de 19 pays, parmi lesquels une cinquantaine de chercheurs français du CNRS et du Commissariat à l'Énergie Atomique (CEA), ont été soumis pour publication à la revue Physics Review D.

En théorie, lors du Big Bang originel, voilà 13,7 milliards d'années, matière et antimatière ont été formées en quantités égales. Leurs composants élémentaires sont de même masse, mais de charge électrique opposée, à chaque particule de matière correspondant une antiparticule : ainsi de l'électron, de charge négative, et du positon, chargé positivement.

Or, lorsqu'une particule et une antiparticule se rencontrent, elles disparaissent dans un flash de lumière, leur masse se transformant en énergie. Si matière et antimatière étaient restées en quantités égales, elles auraient donc dû s'annihiler. A moins de supposer que l'Univers s'est scindé en domaines distincts, faits soit de matière, soit d'antimatière. Mais, alors, des déflagrations devraient se produire en permanence aux frontières de ces domaines, créant des rayons gamma cosmiques parvenant jusqu'à la Terre.

Les calculs montrent que, compte tenu du flux de ces rayons gamma, de tels domaines auraient au moins la taille de la totalité de l'Univers visible. Conclusion : l'antimatière primitive a totalement disparu de notre Univers. Celle qu'observent aujourd'hui les physiciens provient des rayons gamma heurtant l'atmosphère terrestre, ou des collisionneurs où elle est fabriquée en très petites quantités.

"VIOLATION DE SYMÉTRIE"

Les cosmologistes imaginent que l'Univers primordial a connu à ses tout premiers instants, alors qu'il était encore extrêmement dense et chaud, une phase de transition au cours de laquelle son équilibre thermodynamique a été rompu, explique Antonio Riotto, du groupe de recherche théorique du CERN. Une particule de matière sur 10 milliards aurait survécu à l'annihilation générale entre particules et antiparticules. C'est de ces rescapées que serait né le monde que nous connaissons.

A la fin des années 1960, le physicien russe Andreï Sakharov (Prix Nobel de la paix en 1975) a suggéré que des forces agissaient de façon différenciée entre matière et antimatière, provoquant une "violation de symétrie" entre particule et antiparticule. Cette asymétrie a ensuite été mise en évidence par plusieurs expériences.

La percée réalisée par les chercheurs du Fermilab, qui ont procédé, pendant huit ans, à plusieurs centaines de milliards de milliards de collisions entre protons et antiprotons, est d'avoir mesuré une différence de 1 % entre le nombre de particules (des muons) et d'antiparticules (des antimuons) générées par ces chocs, rapporte Marc Besançon (CEA). Un écart considérable que - c'est le plus vertigineux de l'histoire - le modèle standard de la physique, qui prévoit un taux d'asymétrie inférieur à 1 pour 1 000, est impuissant à expliquer.

Ces résultats ne pourront qu'aiguillonner les équipes du CERN, dont l'un des détecteurs, le LHCb, est dédié à l'étude de l'asymétrie entre matière et antimatière. S'ils demandent à être validés par de nouvelles mesures, ils marquent, commentent les chercheurs, une "nouvelle étape vers la compréhension de la prédominance de la matière dans l'Univers ", en faisant apparaître "l'existence de nouveaux phénomènes qui dépassent nos connaissances actuelles". Et qui appellent rien de moins qu'une nouvelle physique.

Article paru dans l'édition du journal Le Monde du 28.05.10.
.

mercredi 26 mai 2010

L'Intelligence Artificielle aujourd'hui

Redéfinir l’Intelligence Artificielle (IA)

par Jean-Paul Baquiast


Ce texte commente un article qui vient de paraître dans la revue du MIT : MIT News http://web.mit.edu/newsoffice/2009/ai-overview-1207.html

Dans un article que nous publions simultanément sur ce site [cf. Automates Intelligents : "La Chine bientôt première puissance scientifique mondiale ?"] nous envisageons la perspective selon laquelle la Chine entreprendrait dans les prochaines années ou décennies la construction d’une vaste Intelligence Générale artificielle (AGI) qui pourrait être fortement marquée par ses propres valeurs civilisationelles. Si cette perspective inquiète certains chercheurs en IA américains ou européens, c’est que l’IA, tant aux États-Unis qu’en Europe, marque le pas depuis des années. Cela tient à différentes causes. D’une part, les crédits et chercheurs disponibles sont attirés par les recherches militaires (par exemple la réalisation de drones et satellites de plus en plus autonomes). Ces recherches restent confidentielles, car leurs retombées civiles sont étroitement réglementées. D’autre part, d’étranges peurs, quasiment religieuses, continuent à régner dans le domaine de l’IA et dans celui, associé, des cerveaux et consciences artificiels. On craint de voir remettre en cause le préjugé selon lequel il n’est d’intelligence possible qu’humaine et que, par ailleurs, il n’est d’intelligence humaine que d’inspiration divine.

On ne doit pas cependant minimiser les énormes progrès réalisés par l’IA sous ses différentes formes depuis les origines. Même si la prédiction d’Herbert Simon en 1960 : " Machines will be capable, within 20 years, of doing any work a man can do." n’a pas été tenue, il suffit de se référer aux travaux des différentes sociétés savants consacrées à l’IA, par exemple en France l’Association Française pour l’IA, ou Afia), pour s’en rendre compte. Mais nos lecteurs savent par ailleurs que les ambitieuses et semble-t-il très pertinentes idées du professeur Alain Cardon relativement à la réalisation d’une conscience artificielle n’ont jamais reçu de soutiens officiels.

Aux Etats-Unis cependant, où l’IA fut inventée il y a plus de 50 ans, un certain nombre de pionniers, rejoints par des chercheurs plus jeunes, pensent aujourd’hui qu’une nouvelle opportunité s’ouvre pour la définition d’une IA tenant compte des divers progrès réalisés par ailleurs : nouvelles technologies de la communication, neurosciences computationnelles, biologie évolutionnaire, etc.

Le MIT s’engage résolument dans cette direction, puisque il vient de lancer un projet nommé Mind Machine Project, ou MMP, doté d’un budget de 5 millions de dollars programmé sur 5 ans. La somme de 5 millions peut paraître faible, au regard des crédits bien plus importants consacrés par la DARPA du Département de la défense à des thèmes voisins. Mais aux USA il n’y a pas de barrières étanches entre agences, et le crédit sera sans doute augmenté en cas de réussite. Certes, il faut toujours, face à de telles annonces, tenir compte d’une possible « intox » destinée à décourager d’autres tentatives analogues de par le monde. Le prétendu projet de Calculateur de 5e génération japonais en avait donné un exemple emblématique dans les années 1970-80. Cependant, concernant le MIT, l’affaire parait sérieuse.

Le principe servant de point de départ au projet et lui donnant tout son intérêt consiste à revoir entièrement les conceptions actuelles relatives au fonctionnement de l’esprit, de la mémoire et de l’intelligence afin de mieux pouvoir les transposer sur des bases matérielles artificielles. L’ambition affichée est de revenir aux présupposés fondamentaux ayant guidé 30 ans de recherches sur l’IA, afin de retrouver les visions initiales qui avaient été gelées faute des connaissances et des technologies adéquates. Selon un des promoteurs du MMP, Neil Gershenfeld, il convient ainsi de redéfinir l’esprit, la mémoire et le corps tels que l’IA traditionnelle s’était efforcée jusqu’à présent de les simuler.

Concernant l’esprit se pose la question de la modélisation de la pensée. Le cerveau humain s’est formé au cours de millions d’années d’évolution et comporte un ensemble complexe de solutions et systèmes, auquel il fait appel pour résoudre les problèmes qui se posent à lui. Malheureusement, les processus qu’il utilise ne sont pas modélisables. L’IA dispose de son côté de nombreuses solutions dispersées qui donnent de bons résultats dans des cas précis mais ne peuvent à elles seules servir de base à la construction d’une IA générale. L’objectif serait aujourd’hui de faire coopérer ces processus afin d’obtenir un outil général de résolution de problèmes (general problem solver).

Concernant la mémoire, il est admis que le cerveau humain navigue dans l’immense stock de pensées et de souvenirs qu’il a mémorisé au cours d’une vie entière sans utiliser des algorithmes précis. Il s’accommode au contraire des ambiguïtés et des no n-pertinences. Vouloir que l’IA utilise des processus rigoureux de recherche en mémoire représente d’une part une impossibilité pratique et surtout, d’autre part, une erreur de direction. Il faut au contraire trouver des méthodes gérant l’ambiguïté et l’inconsistance, comme le fait le cerveau.

Concernant enfin l’équivalent du corps pour un système d’IA, il conviendra également de changer de perspectives. Selon Gershenfeld, les ordinateurs sont programmés pour écrire des séquences de lignes de code. Mais le cerveau ne travaille pas, là encore, de cette façon. Dans le cerveau, tout peut arriver tout le temps. Gershenfeld propose une nouvelle approche pour la programmation, intitulée RALA (pour « reconfigurable asynchronous logic automata »). L’objectif sera de réorganiser les calculs sous forme d’unités physiques dans le temps et dans l’espace, afin que la description informatique d’un système coïncide avec le système qu’elle représente. On pourrait ainsi obtenir des traitements en parallèle à un niveau de détail aussi fin que celui réalisé dans le cerveau.

Le projet MMP regroupe 5 générations de chercheurs en AI, à commencer par le plus ancien, Marvin Minsky. Il est dirigé par Newton Howard, qui est venu au MIT après des activités diverses dans l’industrie. Le financement du projet provient de la “Make a Mind Company” presidée par Richard Wirt, de Intel.

Les membres du projet se donnent de grandes ambitions, destinées à exploiter les ressources désormais disponibles des neurosciences observationnelles et d’ordinateurs capables de performances élevées pour des coûts négligeables. C’est ainsi que Marvin Minsky voudrait obtenir un système capable de passer avec succès un Test de Turing renforcé, par exemple lire un livre pour enfant, comprendre l’histoire qui y est présentée, la résumer avec ses propres termes et répondre à des questions raisonnablement compliquées à son sujet.

Un autre objectif serait d’obtenir ce que le groupe nomme des « systèmes d’assistance à la cognition ». Ceux-ci pourraient dans un premier temps fournir des aides aux personnes souffrant de déficits tels que la maladie d’Alzheimer. Mais plus généralement ils pourraient augmenter les capacités cognitives des individus normaux. Ils identifieraient exactement les informations dont les sujets auraient besoin pour accomplir telle ou telle tâche et s’efforceraient de les mettre à leur disposition. Ils utiliseraient à cette fin les bases de données personnelles disponibles ainsi bien entendu que les ressources de l’Internet. A plus long terme, l’objectif serait de permettre aux cerveaux des individus de se comporter comme l’i-Phone aujourd’hui : faire appel à des centaines d’applications permettant de résoudre aussi bien les problèmes courants que les questions les plus théoriques. Mais dans cette perspective, le cerveau n'aurait pas besoin de l’intermédiaire d’un i-Phone. Ce seraient les assistants à la cognition dont il disposerait qui joueraient ce rôle, avec une efficacité que l’on voudrait bien meilleure.

Pour les promoteurs du projet, un délai de 5 ans peut être considéré comme convenable pour atteindre ces divers objectifs.

Pour en savoir plus :

© Automates Intelligents
.

jeudi 20 mai 2010

Nouveau n° de la revue Texto !

Numéro XV-2

coordonné par Carine Duteil-Mougel



Texto !
est une revue électronique en libre accès.

Texto ! est une publication scientifique consacrée au sens et à l'interprétation. Son point d'ancrage principal est la sémantique, en particulier la sémantique des textes, mais aussi les sémantiques lexicales, diachroniques, cognitives… Outre la linguistique, d'autres disciplines, comme l'herméneutique et la philologie, sont naturellement questionnées.
Par ailleurs, comme aujourd'hui l'accès aux textes se développe avec les banques textuelles numérisées, tout ce qui concerne leur exploitation assistée est bienvenu : il faut en effet développer de nouveaux modes de lecture et d'interprétation.

Texto ! ne respecte guère la séparation entre les lettres et les sciences ; et la théorie l'intéresse autant que la pratique.

Texto ! est sensible à l'éthique de la discussion ; fuyant la routine des gate-keepers, il peut publier des textes qui ne se soucient pas trop des habitudes académiques, et se réserve le droit de favoriser des genres oubliés ou négligés, comme la lettre ou l'entretien. Il refuse l'esprit de lobby (car la recherche ne se fait pas avec de la complaisance et des renvois d'ascenseur). Cela lui permet de traiter sur un même pied les jeunes chercheurs et les vétérans : la valeur n'attend pas la notoriété - et d'ailleurs la jeunesse est un défaut qui se corrige toujours trop vite.

Bref, Texto ! cherche un juste déséquilibre entre les tristes nécessités académiques, les saines exigences scientifiques et les ambitions intellectuelles : que les dernières l'emportent !

Texto !
publie des inédits, comme des articles récents déjà publiés mais difficiles d'accès. Il privilégie la nouveauté et le débat. Il enregistre depuis son lancement plusieurs centaines de connexions par jour, et, sur la plupart des grands moteurs de recherche, constitue la première référence proposée pour l'interrogation sur le mot texte.


Sommaire du XV-2 :

François Rastier
Naturalisation et culturalisation
Dits et inédits

Astrid Guillaume
Diachronie et synchronie : passerelles (étymo)logiques
La dynamique des savoirs millénaires
Repères pour l'étude

Marc Cavazza
Narratologie et Sémantique : pour une refondation interprétative
Repères pour l'étude

Verónica Portillo Serrano
Problématique des genres dans les productions écrites universitaires : cas du résumé scolaire chez des étudiants français et mexicains
Parutions et trésors

Verónica Portillo Serrano
La notion de genre en Sciences du Langage
Repères pour l'étude

François Rastier
Pour un remembrement de la linguistique
Enquête sur la sémantique et la pragmatique
Dits et inédits

Patrick Sériot
Oxymore ou malentendu ?
Le relativisme universaliste de la métalangue sémantique naturelle universelle d'Anna Wierzbicka
Dits et inédits

Mathieu Valette
Approche textuelle du lexique
Corpus et trucs

.

mardi 11 mai 2010

Épistémologie peircienne (thèse)

Les Lois de l'esprit chez Charles S. Peirce

Université Paris-Est UPEC
(métro : ligne 8, station Créteil-Université)
samedi 15 mai à partir de 14h en salle des thèses.

par Jean-Marie Chevalier


Thèse soutenue devant le jury composé de :
  • Anouk Barberousse (CNRS)
  • Pascal Engel (Université de Genève)
  • Gerhard Heinzmann (Université Nancy-2)
  • Claudine Tiercelin (dir. de thèse ; Institut Jean Nicod / Université Paris-12)
  • Pierre Wagner (Université Paris-1)
Résumé :
Malgré un antipsychologisme plusieurs fois réasserté, le philosophe américain Charles S. Peirce (1839-1914) maintient une dépendance ambiguë de la connaissance objective envers les états mentaux de la conscience. La thèse rend compte de ce paradoxe apparent en montrant que le projet peircien n’est pas logique mais épistémologique, et consiste en une étude critique de notre pouvoir de connaître. Peirce a cherché différentes manières de naturaliser la connaissance, c’est-à-dire de l’inscrire dans nos facultés réelles sans pour autant renoncer à son ambition fondationnelle et normative.
On peut en distinguer plusieurs phases successives : la correction de la psychologie des facultés, la théorie de l’enquête, les recherches en psychologie expérimentale, la création d’un associationnisme logique, une cosmologie de la préformation de la raison, l’invention d’une phénoménologie, et finalement le dialogisme graphique. Ces tentatives plus ou moins heureuses fournissent des outils pour penser aujourd’hui une théorie de la connaissance dans un cadre naturaliste.

Abstract:
In spite of his several times restated antipsychologism, the American philosopher Charles S. Peirce (1839-1914) still ambiguously assumes that objective knowledge depends on the mental states of consciousness. The thesis accounts for this apparent paradox in showing that Peirce’s purport is epistemological, not logical, and consists in a critical approach to our power of knowing. Peirce sought various ways of naturalizing knowledge, i.e. making it rely on our real faculties, yet without giving up a normative foundation. One can identify a sequence of such attempts : correcting faculty psychology, the theory of inquiry, experimental psychology, logical associationism, a cosmology of preformed reason, the invention of a phenomenology, and finally graphical dialogism. These more or less successful attempts provide tools to conceive today a theory of knowledge in a naturalistic frame.

La soutenance sera suivie d'un pot de thèse.
.

samedi 10 avril 2010

La Mécanique Quantique comme modèle formel de l'énaction (publication)


Le paradigme de l'énaction aujourd'hui
Apports et limites d'une théorie cognitive
« révolutionnaire »

Plastir, 2010, 18

par Olivier Penelaud

Résumé :

Il est question ici, de soulever le problème d'opérationnabilité souvent rencontré par les chercheurs des Sciences Cognitives qui, séduits par le cadre novateur de la théorie de l'énaction, ont voulu faire leur, ce paradigme. Pour tenter de comprendre le pourquoi de cette difficulté, nous allons : remonter à l'origine du concept, dont on trouve les prémisses dans la théorie de l'autopoïèse ; analyser son développement, en étudiant les notions spécifiques qui le définissent ; puis, focaliser notre attention sur les incohérences générées par sa pleine expression, en pointant notamment son difficile rapport avec le langage et sa dimension symbolique. Nous verrons qu'une des difficultés d'appropriation de l'énaction provient du cadre épistémique dans lequel on se place pour l'appréhender. En-effet, celle-ci convoque un changement paradigmatique, impliquant un changement d'ontologie non-trivial, identifié ici, comme être à la source du problème posé. Enfin, nous montrerons que le cadre de la Mécanique Quantique, plus particulièrement dans sa perspective informationnelle, peut apporter des éléments de réponses quant-aux limites évoquées.

Sommaire :

  1. Introduction
  2. Le vivant comme système autopoïétique
  3. Une cognition incarnée exempte de représentation
    1. La corporéité des connaissances
    2. Circularité, expérience du vécu et renversement phénoménologique
  4. Cognition sans représentation, quid du langage ?
    1. Pour une perspective énactive du langage
    2. Sous-détermination du troisième terme
  5. Enaction et modèles formels
    1. Pourquoi, malgré tout, une théorie « révolutionnaire » ?
    2. Mécanique Quantique Informationnelle et théorie cognitive relationnelle
  6. Conclusion

Article du n°18 de la revue Plastir disponible en pdf.

.

mardi 6 avril 2010

Ontophylogenèse et déterminisme génétique

Ontophylogenèse

Jean-Jacques Kupiec
(biologiste, Centre Cavaillès)

Jeudi 3 juin 2010
Centre Cavaillès (3e étage, 29 rue d’Ulm, 75005 Paris)
de 18h00 à 20h00
entrée libre dans la limite des places disponibles


L’évolution des espèces (phylogenèse) et le développement des organismes individuels (ontogenèse) sont considérés comme deux phénomènes distincts. La biologie repose sur cette ontologie qui pose l’espèce et l’individu comme réels et coextensifs, l’espèce étant une collection d’individus identiques. Dans sa version moderne cette ontologie s’appuie sur la théorie du programme génétique : une espèce est une collection d’individus possédant le même programme génétique et l’évolution des espèces est le résultat des mutations qui affectent leurs programmes (théorie synthétique de l’évolution).

Cette conception est aujourd’hui invalidée par les données expérimentales. En effet, la théorie du programme génétique repose sur l’idée que les interactions des molécules biologiques sont spécifiques. Au contraire, des données récentes montrent que les protéines manquent de spécificité. Elles peuvent interagir avec de nombreux partenaires moléculaires. En conséquence, les interactions moléculaires sont intrinsèquement stochastiques et il est par ailleurs aussi démontré que l’expression des gènes est probabiliste. Cela contredit la théorie du programme génétique à sa racine, jusqu’à l’ontologie qui la soutient.

La prise en considération de ce manque de spécificité des protéines et du caractère intrinsèquement probabiliste des interactions entre molécules biologiques débouche sur une nouvelle conception. La sélection naturelle agit non seulement dans la phylogenèse mais aussi l’ontogenèse. Celle-ci, au lieu d’être un processus déterministe dans lequel l’information génétique circule uniquement des gènes vers le phénotype (l’organisme individuel), est au contraire probabiliste et duale : les gènes fournissent les protéines, mais leurs interactions probabilistes sont triées par les contraintes sélectives produites par les structures cellulaires (et multicellulaires), qui sont elles mêmes soumises à la sélection naturelle.

Au final, cette conception débouche sur une nouvelle ontologie : il n’existe qu’un seul phénomène d’« ontophylogenèse » expliqué par la seule théorie de sélection naturelle agissant en même temps sur l’ontogenèse et la phylogenèse.

J.-J. Kupiec, L’origine des individus, Fayard, 2008. (Trad. angl. The Origin of Individuals, World Scientific, 2009). Sous la direction de J.-J. Kupiec, O. Gandrillon, M. Morange, M. Silberstein, Le hasard au cœur de la cellule, Syllepse, 2009.
.