dimanche 30 mai 2010

Comment la matière l'a emporté de justesse sur l'antimatière

par Pierre Le Hir

Si l'on en croit le modèle standard de la physique, la page de journal où est imprimé cet article, ou l'écran sur lequel il s'affiche, ne devraient pas exister. Pas plus que les journalistes, les lecteurs, ni rien d'autre. Pas de galaxies, d'étoiles, de planètes. Pas de vie. Pourtant, nous sommes vivants, et le monde qui nous entoure bien réel. Parce que l'Univers a choisi la matière plutôt que l'antimatière. De très peu : une infime pincée supplémentaire de la première, qui a suffi à faire toute la différence. Pourquoi, comment ?

Des expériences menées au Fermilab de Chicago, avec le détecteur DZero du Tevatron - le collisionneur de particules le plus puissant au monde après le Large Hadron Collider (LHC) de l'Organisation européenne pour la recherche nucléaire (CERN) de Genève -, lèvent peut-être un coin du voile. Tout en ébranlant le socle de la physique fondamentale. Ces travaux, auxquels participent 500 physiciens de 19 pays, parmi lesquels une cinquantaine de chercheurs français du CNRS et du Commissariat à l'Énergie Atomique (CEA), ont été soumis pour publication à la revue Physics Review D.

En théorie, lors du Big Bang originel, voilà 13,7 milliards d'années, matière et antimatière ont été formées en quantités égales. Leurs composants élémentaires sont de même masse, mais de charge électrique opposée, à chaque particule de matière correspondant une antiparticule : ainsi de l'électron, de charge négative, et du positon, chargé positivement.

Or, lorsqu'une particule et une antiparticule se rencontrent, elles disparaissent dans un flash de lumière, leur masse se transformant en énergie. Si matière et antimatière étaient restées en quantités égales, elles auraient donc dû s'annihiler. A moins de supposer que l'Univers s'est scindé en domaines distincts, faits soit de matière, soit d'antimatière. Mais, alors, des déflagrations devraient se produire en permanence aux frontières de ces domaines, créant des rayons gamma cosmiques parvenant jusqu'à la Terre.

Les calculs montrent que, compte tenu du flux de ces rayons gamma, de tels domaines auraient au moins la taille de la totalité de l'Univers visible. Conclusion : l'antimatière primitive a totalement disparu de notre Univers. Celle qu'observent aujourd'hui les physiciens provient des rayons gamma heurtant l'atmosphère terrestre, ou des collisionneurs où elle est fabriquée en très petites quantités.

"VIOLATION DE SYMÉTRIE"

Les cosmologistes imaginent que l'Univers primordial a connu à ses tout premiers instants, alors qu'il était encore extrêmement dense et chaud, une phase de transition au cours de laquelle son équilibre thermodynamique a été rompu, explique Antonio Riotto, du groupe de recherche théorique du CERN. Une particule de matière sur 10 milliards aurait survécu à l'annihilation générale entre particules et antiparticules. C'est de ces rescapées que serait né le monde que nous connaissons.

A la fin des années 1960, le physicien russe Andreï Sakharov (Prix Nobel de la paix en 1975) a suggéré que des forces agissaient de façon différenciée entre matière et antimatière, provoquant une "violation de symétrie" entre particule et antiparticule. Cette asymétrie a ensuite été mise en évidence par plusieurs expériences.

La percée réalisée par les chercheurs du Fermilab, qui ont procédé, pendant huit ans, à plusieurs centaines de milliards de milliards de collisions entre protons et antiprotons, est d'avoir mesuré une différence de 1 % entre le nombre de particules (des muons) et d'antiparticules (des antimuons) générées par ces chocs, rapporte Marc Besançon (CEA). Un écart considérable que - c'est le plus vertigineux de l'histoire - le modèle standard de la physique, qui prévoit un taux d'asymétrie inférieur à 1 pour 1 000, est impuissant à expliquer.

Ces résultats ne pourront qu'aiguillonner les équipes du CERN, dont l'un des détecteurs, le LHCb, est dédié à l'étude de l'asymétrie entre matière et antimatière. S'ils demandent à être validés par de nouvelles mesures, ils marquent, commentent les chercheurs, une "nouvelle étape vers la compréhension de la prédominance de la matière dans l'Univers ", en faisant apparaître "l'existence de nouveaux phénomènes qui dépassent nos connaissances actuelles". Et qui appellent rien de moins qu'une nouvelle physique.

Article paru dans l'édition du journal Le Monde du 28.05.10.
.

mercredi 26 mai 2010

L'Intelligence Artificielle aujourd'hui

Redéfinir l’Intelligence Artificielle (IA)

par Jean-Paul Baquiast


Ce texte commente un article qui vient de paraître dans la revue du MIT : MIT News http://web.mit.edu/newsoffice/2009/ai-overview-1207.html

Dans un article que nous publions simultanément sur ce site [cf. Automates Intelligents : "La Chine bientôt première puissance scientifique mondiale ?"] nous envisageons la perspective selon laquelle la Chine entreprendrait dans les prochaines années ou décennies la construction d’une vaste Intelligence Générale artificielle (AGI) qui pourrait être fortement marquée par ses propres valeurs civilisationelles. Si cette perspective inquiète certains chercheurs en IA américains ou européens, c’est que l’IA, tant aux États-Unis qu’en Europe, marque le pas depuis des années. Cela tient à différentes causes. D’une part, les crédits et chercheurs disponibles sont attirés par les recherches militaires (par exemple la réalisation de drones et satellites de plus en plus autonomes). Ces recherches restent confidentielles, car leurs retombées civiles sont étroitement réglementées. D’autre part, d’étranges peurs, quasiment religieuses, continuent à régner dans le domaine de l’IA et dans celui, associé, des cerveaux et consciences artificiels. On craint de voir remettre en cause le préjugé selon lequel il n’est d’intelligence possible qu’humaine et que, par ailleurs, il n’est d’intelligence humaine que d’inspiration divine.

On ne doit pas cependant minimiser les énormes progrès réalisés par l’IA sous ses différentes formes depuis les origines. Même si la prédiction d’Herbert Simon en 1960 : " Machines will be capable, within 20 years, of doing any work a man can do." n’a pas été tenue, il suffit de se référer aux travaux des différentes sociétés savants consacrées à l’IA, par exemple en France l’Association Française pour l’IA, ou Afia), pour s’en rendre compte. Mais nos lecteurs savent par ailleurs que les ambitieuses et semble-t-il très pertinentes idées du professeur Alain Cardon relativement à la réalisation d’une conscience artificielle n’ont jamais reçu de soutiens officiels.

Aux Etats-Unis cependant, où l’IA fut inventée il y a plus de 50 ans, un certain nombre de pionniers, rejoints par des chercheurs plus jeunes, pensent aujourd’hui qu’une nouvelle opportunité s’ouvre pour la définition d’une IA tenant compte des divers progrès réalisés par ailleurs : nouvelles technologies de la communication, neurosciences computationnelles, biologie évolutionnaire, etc.

Le MIT s’engage résolument dans cette direction, puisque il vient de lancer un projet nommé Mind Machine Project, ou MMP, doté d’un budget de 5 millions de dollars programmé sur 5 ans. La somme de 5 millions peut paraître faible, au regard des crédits bien plus importants consacrés par la DARPA du Département de la défense à des thèmes voisins. Mais aux USA il n’y a pas de barrières étanches entre agences, et le crédit sera sans doute augmenté en cas de réussite. Certes, il faut toujours, face à de telles annonces, tenir compte d’une possible « intox » destinée à décourager d’autres tentatives analogues de par le monde. Le prétendu projet de Calculateur de 5e génération japonais en avait donné un exemple emblématique dans les années 1970-80. Cependant, concernant le MIT, l’affaire parait sérieuse.

Le principe servant de point de départ au projet et lui donnant tout son intérêt consiste à revoir entièrement les conceptions actuelles relatives au fonctionnement de l’esprit, de la mémoire et de l’intelligence afin de mieux pouvoir les transposer sur des bases matérielles artificielles. L’ambition affichée est de revenir aux présupposés fondamentaux ayant guidé 30 ans de recherches sur l’IA, afin de retrouver les visions initiales qui avaient été gelées faute des connaissances et des technologies adéquates. Selon un des promoteurs du MMP, Neil Gershenfeld, il convient ainsi de redéfinir l’esprit, la mémoire et le corps tels que l’IA traditionnelle s’était efforcée jusqu’à présent de les simuler.

Concernant l’esprit se pose la question de la modélisation de la pensée. Le cerveau humain s’est formé au cours de millions d’années d’évolution et comporte un ensemble complexe de solutions et systèmes, auquel il fait appel pour résoudre les problèmes qui se posent à lui. Malheureusement, les processus qu’il utilise ne sont pas modélisables. L’IA dispose de son côté de nombreuses solutions dispersées qui donnent de bons résultats dans des cas précis mais ne peuvent à elles seules servir de base à la construction d’une IA générale. L’objectif serait aujourd’hui de faire coopérer ces processus afin d’obtenir un outil général de résolution de problèmes (general problem solver).

Concernant la mémoire, il est admis que le cerveau humain navigue dans l’immense stock de pensées et de souvenirs qu’il a mémorisé au cours d’une vie entière sans utiliser des algorithmes précis. Il s’accommode au contraire des ambiguïtés et des no n-pertinences. Vouloir que l’IA utilise des processus rigoureux de recherche en mémoire représente d’une part une impossibilité pratique et surtout, d’autre part, une erreur de direction. Il faut au contraire trouver des méthodes gérant l’ambiguïté et l’inconsistance, comme le fait le cerveau.

Concernant enfin l’équivalent du corps pour un système d’IA, il conviendra également de changer de perspectives. Selon Gershenfeld, les ordinateurs sont programmés pour écrire des séquences de lignes de code. Mais le cerveau ne travaille pas, là encore, de cette façon. Dans le cerveau, tout peut arriver tout le temps. Gershenfeld propose une nouvelle approche pour la programmation, intitulée RALA (pour « reconfigurable asynchronous logic automata »). L’objectif sera de réorganiser les calculs sous forme d’unités physiques dans le temps et dans l’espace, afin que la description informatique d’un système coïncide avec le système qu’elle représente. On pourrait ainsi obtenir des traitements en parallèle à un niveau de détail aussi fin que celui réalisé dans le cerveau.

Le projet MMP regroupe 5 générations de chercheurs en AI, à commencer par le plus ancien, Marvin Minsky. Il est dirigé par Newton Howard, qui est venu au MIT après des activités diverses dans l’industrie. Le financement du projet provient de la “Make a Mind Company” presidée par Richard Wirt, de Intel.

Les membres du projet se donnent de grandes ambitions, destinées à exploiter les ressources désormais disponibles des neurosciences observationnelles et d’ordinateurs capables de performances élevées pour des coûts négligeables. C’est ainsi que Marvin Minsky voudrait obtenir un système capable de passer avec succès un Test de Turing renforcé, par exemple lire un livre pour enfant, comprendre l’histoire qui y est présentée, la résumer avec ses propres termes et répondre à des questions raisonnablement compliquées à son sujet.

Un autre objectif serait d’obtenir ce que le groupe nomme des « systèmes d’assistance à la cognition ». Ceux-ci pourraient dans un premier temps fournir des aides aux personnes souffrant de déficits tels que la maladie d’Alzheimer. Mais plus généralement ils pourraient augmenter les capacités cognitives des individus normaux. Ils identifieraient exactement les informations dont les sujets auraient besoin pour accomplir telle ou telle tâche et s’efforceraient de les mettre à leur disposition. Ils utiliseraient à cette fin les bases de données personnelles disponibles ainsi bien entendu que les ressources de l’Internet. A plus long terme, l’objectif serait de permettre aux cerveaux des individus de se comporter comme l’i-Phone aujourd’hui : faire appel à des centaines d’applications permettant de résoudre aussi bien les problèmes courants que les questions les plus théoriques. Mais dans cette perspective, le cerveau n'aurait pas besoin de l’intermédiaire d’un i-Phone. Ce seraient les assistants à la cognition dont il disposerait qui joueraient ce rôle, avec une efficacité que l’on voudrait bien meilleure.

Pour les promoteurs du projet, un délai de 5 ans peut être considéré comme convenable pour atteindre ces divers objectifs.

Pour en savoir plus :

© Automates Intelligents
.

jeudi 20 mai 2010

Nouveau n° de la revue Texto !

Numéro XV-2

coordonné par Carine Duteil-Mougel



Texto !
est une revue électronique en libre accès.

Texto ! est une publication scientifique consacrée au sens et à l'interprétation. Son point d'ancrage principal est la sémantique, en particulier la sémantique des textes, mais aussi les sémantiques lexicales, diachroniques, cognitives… Outre la linguistique, d'autres disciplines, comme l'herméneutique et la philologie, sont naturellement questionnées.
Par ailleurs, comme aujourd'hui l'accès aux textes se développe avec les banques textuelles numérisées, tout ce qui concerne leur exploitation assistée est bienvenu : il faut en effet développer de nouveaux modes de lecture et d'interprétation.

Texto ! ne respecte guère la séparation entre les lettres et les sciences ; et la théorie l'intéresse autant que la pratique.

Texto ! est sensible à l'éthique de la discussion ; fuyant la routine des gate-keepers, il peut publier des textes qui ne se soucient pas trop des habitudes académiques, et se réserve le droit de favoriser des genres oubliés ou négligés, comme la lettre ou l'entretien. Il refuse l'esprit de lobby (car la recherche ne se fait pas avec de la complaisance et des renvois d'ascenseur). Cela lui permet de traiter sur un même pied les jeunes chercheurs et les vétérans : la valeur n'attend pas la notoriété - et d'ailleurs la jeunesse est un défaut qui se corrige toujours trop vite.

Bref, Texto ! cherche un juste déséquilibre entre les tristes nécessités académiques, les saines exigences scientifiques et les ambitions intellectuelles : que les dernières l'emportent !

Texto !
publie des inédits, comme des articles récents déjà publiés mais difficiles d'accès. Il privilégie la nouveauté et le débat. Il enregistre depuis son lancement plusieurs centaines de connexions par jour, et, sur la plupart des grands moteurs de recherche, constitue la première référence proposée pour l'interrogation sur le mot texte.


Sommaire du XV-2 :

François Rastier
Naturalisation et culturalisation
Dits et inédits

Astrid Guillaume
Diachronie et synchronie : passerelles (étymo)logiques
La dynamique des savoirs millénaires
Repères pour l'étude

Marc Cavazza
Narratologie et Sémantique : pour une refondation interprétative
Repères pour l'étude

Verónica Portillo Serrano
Problématique des genres dans les productions écrites universitaires : cas du résumé scolaire chez des étudiants français et mexicains
Parutions et trésors

Verónica Portillo Serrano
La notion de genre en Sciences du Langage
Repères pour l'étude

François Rastier
Pour un remembrement de la linguistique
Enquête sur la sémantique et la pragmatique
Dits et inédits

Patrick Sériot
Oxymore ou malentendu ?
Le relativisme universaliste de la métalangue sémantique naturelle universelle d'Anna Wierzbicka
Dits et inédits

Mathieu Valette
Approche textuelle du lexique
Corpus et trucs

.

mardi 11 mai 2010

Épistémologie peircienne (thèse)

Les Lois de l'esprit chez Charles S. Peirce

Université Paris-Est UPEC
(métro : ligne 8, station Créteil-Université)
samedi 15 mai à partir de 14h en salle des thèses.

par Jean-Marie Chevalier


Thèse soutenue devant le jury composé de :
  • Anouk Barberousse (CNRS)
  • Pascal Engel (Université de Genève)
  • Gerhard Heinzmann (Université Nancy-2)
  • Claudine Tiercelin (dir. de thèse ; Institut Jean Nicod / Université Paris-12)
  • Pierre Wagner (Université Paris-1)
Résumé :
Malgré un antipsychologisme plusieurs fois réasserté, le philosophe américain Charles S. Peirce (1839-1914) maintient une dépendance ambiguë de la connaissance objective envers les états mentaux de la conscience. La thèse rend compte de ce paradoxe apparent en montrant que le projet peircien n’est pas logique mais épistémologique, et consiste en une étude critique de notre pouvoir de connaître. Peirce a cherché différentes manières de naturaliser la connaissance, c’est-à-dire de l’inscrire dans nos facultés réelles sans pour autant renoncer à son ambition fondationnelle et normative.
On peut en distinguer plusieurs phases successives : la correction de la psychologie des facultés, la théorie de l’enquête, les recherches en psychologie expérimentale, la création d’un associationnisme logique, une cosmologie de la préformation de la raison, l’invention d’une phénoménologie, et finalement le dialogisme graphique. Ces tentatives plus ou moins heureuses fournissent des outils pour penser aujourd’hui une théorie de la connaissance dans un cadre naturaliste.

Abstract:
In spite of his several times restated antipsychologism, the American philosopher Charles S. Peirce (1839-1914) still ambiguously assumes that objective knowledge depends on the mental states of consciousness. The thesis accounts for this apparent paradox in showing that Peirce’s purport is epistemological, not logical, and consists in a critical approach to our power of knowing. Peirce sought various ways of naturalizing knowledge, i.e. making it rely on our real faculties, yet without giving up a normative foundation. One can identify a sequence of such attempts : correcting faculty psychology, the theory of inquiry, experimental psychology, logical associationism, a cosmology of preformed reason, the invention of a phenomenology, and finally graphical dialogism. These more or less successful attempts provide tools to conceive today a theory of knowledge in a naturalistic frame.

La soutenance sera suivie d'un pot de thèse.
.