2006 : Démarches intégratives dans les sciences aujourd’hui

Colloque organisé par le Centre d’Alembert
les 10 & 11 mai 2006

Programme du colloque

L’ambition du colloque est d’étudier et de comparer les tendances et les implications des recherches multidomaines, multiéchelles, plurithéoriques, qui prennent de plus en plus d’importance aujourd’hui. Il s’agit de mettre en évidence les modalités et les résultats des articulations entre des sous-disciplines ou entre disciplines, entre méthodes, techniques, schémas descriptifs ou explicatifs.
La question fréquemment évoquée de la complexité ne sera pas strictement au centre du colloque ; l’enjeu principal concernera les thèmes du réductionnisme et de l’émergence, des explications causales « proches et lointaines », des démarches « top-down » et « bottom-up », des méthodes de miniaturisation ou de construction. Ces thèmes seront approchés à partir d’exemples caractéristiques de modélisations et de simulations, de réalisations et d’expérimentations, dans les sciences et techniques de la matière et de la vie. Les préoccupations concernent les problèmes d’instrumentation et de coopération, ainsi que les obstacles à la compréhension et à la diffusion des démarches et des connaissances, et donc les besoins de formation scientifique spécialisée ou générale, ou les enjeux de communication avec les « experts ».
Dans cet esprit, les intervenants feront part de leur expérience de chercheurs ou de responsables de recherches marquées par des démarches intégratives. Ils montreront et discuteront les tendances récentes dans leur spécialité, les difficultés pour « monter » les collaborations entre points de vue et compétences diverses, les pressions et tensions affectant de ce fait les laboratoires.
Enfin, quelques interventions et discussions introduiront à des points de vue plus distanciés, historiques ou philosophiques, à propos des démarches scientifiques intégratives.

ALLOCUTIONS D’OUVERTURE
Gérard CHARBONNEAU, Vice-Président de l’Université Paris-Sud 11

Alexandre REVCOLEVSCHI, Vice-Doyen, Directeur de la Division de la Recherche à la Faculté des Sciences d’Orsay

Jack GUICHARD, Directeur du Palais de la Découverte

PRÉSENTATION DES TRAVAUX DU COLLOQUE
Jean-Louis MARTINAND, Directeur du Centre d’Alembert

RECHERCHES POUR LES MÉDICAMENTS
Séance animée par Roger FOURME, Synchrotron SOLEIL, Président du Centre d’Alembert

Herman VAN TILBEURGH, Professeur de Génomique structurale, IBBMC, UFR d’Orsay, Université Paris-Sud 11.
« Recherche de nouveaux médicaments assistée par la structure des protéines cibles »

Résumé :
Grâce à des développements technologiques majeurs, la biologie structurale a obtenu des résultats marquants pendant les deux dernières décennies. Par exemple, on peut citer la détermination de la structure du ribosome à l’échelle atomique ou encore celle du canal à potassium (couronné par le prix Nobel). Bien que, comme le ribosome et le canal à potassium, beaucoup de protéines soient des cibles pour des médicaments, le progrès des techniques d’analyse des protéines par RMN ou cristallographie n’a pas eu jusqu’ici le même impact sur le développement de médicaments que sur la biologie fondamentale. Les informations structurales obtenues sur une cible devraient en principe mener à des stratégies efficaces pour le développement de nouveaux produits.
Nous présenterons quelques cas favorables où une exploitation intelligente de la structure tridimensionnelle d’une protéine a effectivement mené jusqu’à un médicament utilisé en pharmacie. Nous essayerons ensuite d’expliquer pourquoi la conception de médicaments basée sur la structure reste un art difficile. Nous discuterons aussi les approches modernes d’analyse structurale qui rendent cette démarche plus abordable, notamment en diminuant le coût d’obtention des informations structurales.


Patrick COUVREUR, Professeur, UFR de Châtenay-Malabry, Université Paris-Sud 11.
« Nanotechnologies appliquées à la Pharmacologie »

Présentation de P. Couvreur
Résumé :
L’adressage de molécules thérapeutiques vers l’organe, le tissu ou la cellule malade constitue aujourd’hui un défi majeur pour le traitement des maladies humaines notamment infectieuses, cancéreuses ou d’origine génétique. Dès le début du vingtième siècle, le savant Paul Ehrlich rêvait déjà de « magic bullet » susceptible d’acheminer un médicament de manière spécifique vers son site d’action. Le rêve de Paul Ehrlich est aujourd’hui proche de la réalité grâce au développement des nanotechnologies qui ont permis de proposer le concept de vectorisation des médicaments.
De nombreux principes actifs présentent, en effet, des caractéristiques physico-chimiques (hydrophilie, poids moléculaires, etc …) peu favorables au passage des barrières biologiques qui séparent le site d’administration du médicament de son site d’action. D’autres molécules actives se heurtent aussi à des barrières enzymatiques entraînant leur dégradation et métabolisation rapides. L’obtention de concentrations efficaces en thérapeutique au niveau du site d’action ne peut donc se faire qu’au détriment d’une importante déperdition de médicament vers d’autres tissus ou cellules ce qui occasionne des effets toxiques importants et parfois rédhibitoires c’est à dire entraînant l’abandon du traitement par ce médicament en dépit de son efficacité.
C’est pour toutes ces raisons que le développement de nanotechnologies, vecteurs de médicaments, a pris un essor considérable au cours des dernières années. S’appuyant sur de nouveaux concepts physico-chimiques et sur le développement de nouveaux matériaux (synthèse de nouveaux polymères, par exemple), la recherche galénique a permis d’imaginer des systèmes sub-microniques d’administration capables : (i) de protéger la molécule active de la dégradation et (ii) d’en contrôler la libération dans le temps et dans l’espace. Quelques exemples montreront que ces nouveaux systèmes d’administration peuvent avoir un rôle considérable dans la découverte de nouveaux médicaments. Par exemple, l’administration sous forme de nanoparticules, d’un médicament anticancéreux comme la doxorubicine, permet de traiter de manière efficace les métastases hépatiques résistantes aux chimiothérapies classiques. Cette découverte a abouti à un essai clinique de phase II (en cours). Des nanotechnologies de deuxième génération permettent maintenant de délivrer de manière spécifique des molécules actives au niveau de tumeurs cérébrales ou de maladies autoimmunes entraînant des réactions inflammatoires au niveau de certains tissus du cerveau. Lorsque ces vecteurs transportent une antihormone comme le tamoxifène, ils sont même capables de cibler le tissu oculaire et de traiter efficacement l’uvéite autoimmune.

Gilles VASSAL, Professeur, UFR de Médecine de Kremlin-Bicêtre, Institut Gustave Roussy, Université Paris-Sud 11.
« Les essais cliniques et les dernières étapes de l’élaboration du médicament »

VIVANT, SANTÉ, AGRONOMIE
ance animée par Christine JACOB, INRA Jouy

Albert GOLDBETER, Faculté des Sciences, Université Libre de Bruxelles, Titulaire à l’Université de Paris Sud 11 d’une Chaire de recherche Blaise Pascal soutenue par l’Etat et la Région Ile-de-France, sous les auspices de la Fondation
« Les rythmes circadiens : de l’expérience à la modélisation, un exemple de démarche intégrative »

Résumé :
Les rythmes circadiens, d’une période proche de 24h, sont observés chez la plupart des organismes vivants et leur permettent d’anticiper les variations périodiques de l’environnement, caractérisées par l’alternance du jour et de la nuit. Des progrès expérimentaux remarquables réalisés au cours de la dernière décennie chez la drosophile, le champignon Neurospora, les cyanobactéries, les plantes et les mammifères ont permis de clarifier le mécanisme moléculaire des rythmes circadiens et la manière par laquelle la lumière les contrôle. Le mécanisme moléculaire des rythmes circadiens repose sur une imbrication de boucles de régulation positive ou négative contrôlant l’expression d’un certain nombre de gènes de l’horloge.  Des modèles mathématiques de complexité croissante fondés sur les données expérimentales mettent en lumière les conditions précises dans lesquelles ces réseaux de régulation produisent un comportement périodique correspondant à des oscillations entretenues du type cycle limite. Les modèles rendent compte de l’existence d’oscillations circadiennes en conditions d’obscurité constante, et du déphasage de ces rythmes ou de leur suppression par une impulsion de lumière. Le modèle pour l’horloge circadienne des mammifères permet également de tester les bases moléculaires et dynamiques de certains troubles du sommeil comme les syndromes d’avance ou de délai de phases du cycle veille-sommeil, ou l’absence d’entraînement par les cycles lumière-obscurité. Le cas des rythmes circadiens fournit un exemple de démarche intégrative en biologie, qui allie l’approche expérimentale à la modélisation mathématique, et couvre un domaine allant des études fondamentales aux aspects cliniques.
Pour une bibliographie concernant la modélisation des rythmes circadiens : Voir le site : www.ulb.ac.be/sciences/utc/index.html

 
Jean-Christophe POGGIALE, Professeur, Centre d’Océanologie de Marseille, Luminy.
« Méthode d’analyse de modèles environnementaux intégrant plusieurs échelles »

Présentation de J-C. Poggiale
Résumé :
L’écologie vise à comprendre comment les organismes vivants interagissent avec leur environnement, sur des grandes gammes d’échelles spatiales (inférieure au micron à plus du kilomètre) et temporelles (inférieure à la seconde à plusieurs années). Afin de comprendre le fonctionnement d’un écosystème, il est nécessaire d’intégrer des processus moléculaires jusqu’à des phénomènes à très grande échelle. Il est courant de considérer les niveaux d’organisation comme l’individu, la population, la communauté ou l’écosystème. Chacun d’eux a ses propres échelles et le fonctionnement de l’écosystème est une combinaison de processus agissant à chaque échelle et d’interactions entre ces processus. Des méthodes mathématiques permettant d’aborder le changement d’échelles peuvent donc s’avérer utiles pour intégrer l’ensemble des processus et comprendre le fonctionnement des écosystèmes. Parmi celles-ci, les méthodes géométriques de perturbations singulières permettent notamment de comprendre comment la dynamique à un niveau d’organisation agit à un autre niveau et comment ce dernier rétroagit. Nous montrons sur quelques exemples comment cette approche permet d’étudier les effets bottom-up et top-down en écologie. Nous illustrerons également à travers un exemple l’intérêt de disposer de théorèmes dans les cas où l’intuition est insuffisante.


François KÉPÈS, Directeur de Recherche, CNRS, Co-directeur du programme d’Epigénomique, Génopole, Evry, Membre associé du Centre de Recherche en Epistémologie Appliquée, Ecole Polytechnique.
« Epigénomique des réseaux de régulation biologique : le cas du modèle solénoïde des chromosomes »

Présentation de F. Képès
Résumé : 

This talk exemplifies a possible path for complex studies, starting from a biological case study, described below, and subsequently raising increasingly theoretical and wide-ranging issues.
The organization of transcription within the eukaryotic nucleus or the prokaryotic nucleoid may be expected to both depend on and determine the structure of the chromosomes. In yeast and bacteria, genes that are controlled by the same sequence-specific transcription factor tend to be either clustered or regularly spaced along the chromosomes. The same spacing is found for most transcription factors within a chromosome. Furthermore, in bacteria, the gene encoding the transcription factor locates at identical regular intervals from its targets. This periodicity is consistent with a solenoidal epi-organization of the chromosome, which would dynamically gather the interacting partners into foci. Binding at genuine regulatory sites on DNA would thus be optimized by locally increasing the concentration of transcription factors and their binding sites. As many transcription factors are simultaneously active and some share targets, the resulting collection of foci provides a potent self-organizational principle for the chromosome, and consequently for the functional nuclear architecture. The transcription-based solenoidal model of chromosomes allows predictions of unprecedented accuracy, in particular on the functional three-dimensional structure of chromosomes.

Jean-François MOROT-GAUDRY, Directeur de Recherche INRA.
« Les techniques en « omics » et  la nutrition azotée des plantes »

Présentation de JF. Morot-Gaudry
Résumé :
Les mécanismes d’absorption et d’assimilation de l’azote par les plantes ont fait l’objet de recherche intense ces cinquante dernières années. Les agronomes ont suivi tout d’abord l’absorption du nitrate par les racines, sa réduction en ammonium et son intégration dans des molécules organiques amenant à la synthèse d’acides aminés, pièces élémentaires des protéines. L’utilisation des isotopes, 15N notamment, a permis ensuite d’affiner les approches cinétiques d’assimilation de l’azote. L’avènement de la biologie moléculaire a rendu enfin possible l’identification de protéines membranaires (transporteurs à forte, faible affinité, inductibles ou constitutifs, etc.) impliquées dans l’absorption du nitrate et d’enzymes assurant sa réduction et la métabolisation ultérieure de l’azote. Ces approches indispensables étaient très réductionnistes.
L’explosion récente des techniques de génomique, transcriptomique, protéomique, métabolomique etc, permettent d’arriver maintenant à des approches plus intégrées, prenant en compte non seulement la racine ou la feuille mais la plante dans son intégrité, à différentes périodes de son développement et dans différents environnements. La  génomique permet de rassembler les résultats obtenus au niveau moléculaire et de les intégrer dans l’espace et le temps, donnant une vision globale de la biologie (biologie intégrative).

Yahia CHEBLOUNE, Directeur de Recherche INRA, Research Assistant Professor, Kansas University of Medical Center, USA.
« Virus et la barrière d’espèces : exemple d’un lentivirus caprin (CAEV) »

Yahia Chebloune,  François Guiguen, Théodore Alogninouwa, Jitka Durand et Essadek Erhouma, INRA UMR 754 Lyon, France et KUMC, Kansas City USA.
Présentation de Y. Chebloune
Résumé :
La seconde moitie du siècle dernier a été marquée par l’émergence de nombreuses nouvelles maladies humaines et animales, mais également la réémergence de maladies qu’on pensait être contrôlées. De nouvelles maladies apparaissent dans des populations ou dans des espèces qu’elles n’atteignaient pas jusqu’alors, ou dans lesquelles elles avaient une importance mineure. Ces maladies émergentes posent des problèmes de santé animale pour les espèces domestiques, de conservation pour les espèces sauvages et des problèmes de santé publique chez l’homme. L’origine de la plupart de ces émergences est le franchissement de la barrière d’espèces d’agents infectieux, et leurs adaptations chez les nouveaux hôtes. Ceci a été favorisé par l’évolution de nombreux facteurs écologiques, socio-économiques, sanitaires, climatiques etc. Les lentivirus sont des agents infectieux connus depuis longtemps chez de nombreuses espèces animales cependant que leur apparition chez l’homme ne date que de la fin du siècle dernier.  Il est actuellement bien établi que l’émergence des Virus de l’Immunodéficience Humaine (HIV) de type 1 et 2, isolés respectivement pour la première fois en 1983 et en 1986, s’est effectuée à la suite de deux événements émergentiels et avec deux virus distincts. Par ailleurs, de nombreux franchissements de la barrière d’espèces de lentivirus simiens entre différentes espèces de singes, et de lentivirus félins entre félins domestiques et sauvages ont également été démontrés. Nous avons développé un modèle d’étude utilisant le lentivirus naturel de la chèvre, Virus de l’Arthrite et de l’Encéphalite Caprine (CAEV), afin de déterminer la réelle importance de ces mécanismes dans l’émergence de nouveaux agents infectieux et de nouvelles maladies. CAEV est un lentivirus apparenté au VIH mais qui est non-inducteur d’immunodéficience chez son hôte. Grâce à ce modèle, nous avons démontré les capacités élargies que possède le CAEV à franchir la barrière d’espèces in vitro pour causer des infections productives ou abortives sur des cultures cellulaires de nombreuses espèces animales. La seule restriction qui empêche CAEV d’infecter les cellules humaines est l’absence de récepteurs fonctionnels pour permettre son entrée dans ces cellules. Par ailleurs, des infections expérimentales chez des animaux autres que la chèvre, ont confirmé les capacités de ce virus à s’adapter et induire des pathologies chez les nouveaux hôtes. Ce modèle permet donc de déterminer in vitro la capacité du virus à franchir la barrière d’espèces par l’infection et la permissivité des cellules en culture et in vivo la capacité du virus à causer une infection persistante ou restrictive chez le nouvel hôte et à induire des pathologies. Ce modèle permet en outre d’étudier les propriétés biologiques, génétiques et pathologiques des virus adaptées après le franchissement et d’établir des outils de diagnostic et des modèles bio-mathématiques prédictifs de nouvelles émergences.


POINTS DE VUE ET SCHÉMAS EXPLICATIFS ALTERNATIFS EN BIOLOGIE
ance animée par Jean-Louis MARTINAND, Ecole Normale Supérieure de Cachan

Michel MORANGE, Professeur. Laboratoire de Génétique Moléculaire, ENS Ulm

L’objectif de cette conférence sera d’analyser les transformations actuelles de la biologie, décrites comme son entrée dans l’ère post-génomique.
Après avoir écarté quelques interprétations qui nous semblent erronées, nous montrerons que ce qui est à l’oeuvre en biologie est l’articulation entre des schèmes explicatifs différents, qui avaient jusqu’alors co-habité sans interagir.
Nous discuterons de la nature de ces schèmes, et des conséquences possibles de ces efforts d’articulation.


MATIÈRE ET MATÉRIAUX

Bernadette BENSAUDE-VINCENT, Professeur, Département de Philosophie, Université
Paris 10.
« A l’école du vivant : matériaux biomimétiques et nanotechnologies »

Présentation de B. Bensaude-Vincent
Résumé :
fin d’élaborer des matériaux composites multifonctionnels les chimistes ont tourné leur regard vers les matériaux fabriqués par le vivant. Par rapport aux projets technologiques contemporains, la nature apparaît comme un ingénieur modèle insurpassable. Mais ce nouveau regard sur le vivant ne conduit pas à un paradigme unique. Des composites biomimétiques jusqu’aux procédés d’autoassemblage en passant par les nanorobots, l’inspiration biologique se déploie dans plusieurs voies pas forcément cohérentes entre elles.

MATIÈRE, TERRE, CIEL
ance animée par Fabienne CASOLI, Directrice de l’Institut d’Astrophysique Spatiale

François RAULIN, Professeur, Université Paris 12 – Val de Marne, ancien Directeur du LISA (Laboratoire Interuniversitaire des Systèmes Atmosphériques), Directeur du Groupement de Recherche en exobiologie (GDR Exobio) du CNRS, Président du Groupe Exo/astrobiologie du CNES.
« L’exobiologie – La vie dans l’univers : développements et approches intégratives »

Présentation de F. Raulin
Résumé :
Parmi les questionnements qui ont de tout temps troublé la conscience de l’Homme, qu’il soit savant ou simple amoureux de la nature, celui de l’existence d’une vie ailleurs est sans doute le plus fort. Le problème de la vie extraterrestre fait aujourd’hui partie d’un domaine scientifique propre, une jeune science très pluridisciplinaire et interdisciplinaire : l’exobiogie.

L’exobiologie : la vie dans l’univers
De façon générale, l’exobiologie a pour objet l’étude de la vie dans l’univers : ses origines, sa distribution, son évolution et sa destinée. Il s’agit d’un vaste domaine thématique, qui porte aussi le nom d’astrobiologie ou de Bioastronomie. L’exobiologie fait appel à la plupart des grands champs disciplinaires classiques, allant de la physique et de l’astrophysique, à la physico-chimie, la chimie, les sciences de la Terre et la biologie et microbiologie et les sciences de la vie en général. Ses approches sont très nombreuses, et comprennent, entre autres, l’étude de l’origine et de l’évolution de la vie sur Terre, la recherche de systèmes vivants extraterrestres ou de leurs signatures par mesures in situ ou par télédétection dans le système solaire, la recherche de signatures biologiques sur les exoplanètes et la recherche de signaux d’intelligences extraterrestres. Mais elle comprend aussi la recherche et l’étude de structures – y compris moléculaire – et de processus – y compris organiques – liés à la vie, dans les différents environnements du cosmos.
Du fait de la multiplicité de ses approches, et de sa très grande interdisciplinarité, ce gigantesque champ d’investigation nécessite une intégration systématique et régulière des données venant de  nombreux domaines scientifiques classiques et des trois voies classiques et incontournables de la recherche scientifique : expérimentation en laboratoire – modélisation théorique –. Observation. C’est donc via une démarche intégrative exemplaire que l’exobiologie avance actuellement.

Un domaine né de l’exploration spatiale
Ce domaine a émergé en tant que tel avec le développement de l’exploration spatiale. En effet la recherche in situ est la voie la plus évidente. Accessible depuis peu avec le développement des moyens technologiques, elle a été le catalyseur qui a favorisé le rapprochement entre les multiples programmes qui participent aujourd’hui au domaine de l’exobiologie. Toutes ses approches bénéficient elles aussi des progrès technologiques. Simultanément, leur développement a déjà permis des découvertes qui sont venues enrichir la discipline propre de ces recherches, que ce soit dans le domaine de la chimie, de la biologie ou des sciences de l’univers. Actuellement beaucoup de programmes exobiologiques reposent sur des missions spatiales :

  • missions en orbite terrestre d’irradiations de matériaux d’intérêt exobiologique (Biopan-Photon, ISS etc)
  • missions d’exploration planétaire : vers Mars, Europe, les comètes et Titan
  • observatoires spatiaux pour l’étude de ces objets (Hubble, ISO, et les futurs observatoires)
  • observatoires spatiaux pour l’étude des exoplanètes

Un domaine très présent en Europe, et en particulier en France …
L’exobiologie est largement présente en Europe où les communautés scientifiques travaillant dans ce domaine se sont structurées par  la création de réseaux ou de groupes de recherches nationaux. C’est particulièrement le cas en Grande Bretagne (Astrobiology Society of Britain), en Espagne (Centro de Astrobiologia) et en France, qui fut en fait le premier pays européen à effectuer une telle structuration. Elle s’est prolongée par la création en 2001 d’un réseau européen, l’EANA. En France, une large communauté scientifique, rattachée à des disciplines classiques très différentes, travaille depuis plusieurs décennies dans des domaines directement liés à l’exobiologie. Cette communauté s’est fédérée à la fin des années 1990, sous la forme d’un Groupement de Recherche du CNRS, le « GDR Exobio » une fédération d’équipes de compétences complémentaires. Le GDR Exobio, créé par le CNRS en 1999 et soutenu financièrement par le CNRS et le CNES, l’agence spatiale française, a pour but de coordonner les actions relevant du domaine de l’exobiologie en France et d’inciter les coopérations dans ce domaine, tout en représentant la communauté exobiologique française dans les structures internationales. Des actions vers les communautés francophones – y compris canadiennes – sont en cours …

… sur des thématiques variées
Les thèmes prioritaires du GDR couvrent les différents aspects et les différentes approches de l’exobiologie et sont une bonne illustration des développements en Europe dans ce domaine :

i) Les ingrédients de la vie primitive dans leur contexte géologique, planétaire et interstellaire
La chimie du milieu interstellaire : sa composante organique, son apport à la chimie de la nébuleuse protostellaire. Nature et propriétés de l’environnement primitif terrestre, en particulier de l’atmosphère et des océans. Les sources endogènes et exogènes de matière carbonée sur la Terre primitive : atmosphère, systèmes hydrothermaux, météorites, micrométéorites, poussières cosmiques, comètes. Chimie organique planétaire, en particulier sur Titan, un exemple de réacteur prébiotique à l’échelle planétaire.

 ii) De la chimie des origines de la vie  à l’émergence du vivant – structures et fonctions des molécules biologiques
Les structures moléculaires fondamentales de la chimie  prébiotique – basée sur les ingrédients carbonés et l’eau liquide.

  • Les mécanismes : réplication, catalyse et auto-catalyse, structures dissipatives, auto-assemblage, auto-organisation.
  • Les scénarios : monde ARN, monde soufré, monde des membranes, …
  • Les modélisations : formalismes et informatique (“ vie artificielle ”).

iii) La vie terrestre comme référence: fossiles, biomarqueurs, milieux extrêmes
Microfossiles bactériens. Biomarqueurs organiques et minéraux.
Définition de la vie aux niveaux fonctionnel et structurel.
LUCA et les premières formes de vie qui sont apparues sur Terre.
Etendue du domaine et des limites du vivant : la vie dans les conditions extrêmes sur Terre et au-delà.

iv) Habitats et signatures de vies extraterrestres
Les objets extraterrestres différenciés susceptibles d’abriter ou d’avoir abrité la vie, en particulier Mars et Europe.
Critères d’habitabilité.
La définition des signatures de la vie.
Les possibilités de recherches en dehors du système solaire : planètes extrasolaires, modélisation des atmosphères, signatures spectrales de la vie, etc…

Les aspects philosophiques et épistémologiques du vaste domaine exobiologique sont aussi inclus. Quant aux outils utilisés, ils comprennent les trois volets complémentaires : – expériences de laboratoire – modélisation théorique – observation. Cette dernière approche  repose sur les grandes campagnes « de terrain » sur Terre (des pôles aux grands fonds sous-marins) et dans l’espace (missions spatiales).
Ces différentes thématiques, leurs développements actuels, et les directions envisagées seront décrits brièvement. Certains des résultats obtenus récemment seront présentés, en relation avec les grandes missions internationales d’exploration planétaire d’intérêt exobiologique (telles que les missions martiennes, en cours ou a venir, mais aussi, les missions cométaires et la mission Cassini-Huygens) et avec le développement d’instruments robotisés associés à ces missions. Bien évidemment la démarche intégrative qui doit systématiquement accompagner toutes ces recherches sera mise en relief.

 

Etienne GUYON, Directeur honoraire de l’Ecole Normale Supérieure, Professeur émérite, Université Paris-Sud 11, Chercheur à l’ESPCI (laboratoire PMMH) et au Centre Cavaillès de l’ENS.
 « Les descriptions multiéchelles dans la physique de milieux désordonnés. Application aux matériaux granulaires »

Résumé :
Un des objectifs de la science des matériaux consiste à déterminer  les lois macroscopiques de comportement qui les régissent. Pour cela, nous disposons de descriptions de plus en plus précises au niveau microscopique. La loi de Darcy donnant la perméabilité des milieux poreux, l’angle de Coulomb du glissement d’un solide sur un autre sont deux exemples de lois macroscopiques que l’on s’efforce de relier à ce qui se passe à l’échelle d’un pore ou celle du contact local entre deux solides en frottement.
Mais, en particulier dans le cas de matériaux désordonnés, l’homogénéisation  qui permet le passage du « Micro » au « Macro » ne peut se faire directement, et il est nécessaire de caractériser les échelles intermédiaires « Meso » qui permettent de passer du Micro au Macro.
Nous illustrerons cette démarche à « 3M » par le thème des milieux granulaires qui possède toutes les diversités que l’on peut imaginer : une longue histoire, de nombreuses communautés impliquées ; des formes variées de désordre et de type et tailles de grains. Nous considérerons successivement les problèmes de statique en mécanique des grains (voûtes), les effets d’avalanche et la formation de dunes où nous identifierons les effets d’échelles multiples.

 

Pierre BINETRUY, Professeur, Directeur du Laboratoire « AstroParticule et Cosmologie » (APC) de l’Université Paris 7 – Denis Diderot.
« Démarches intégratives dans les sciences aujourd’hui. L’exemple de la cosmologie »

Résumé :
La cosmologie se situe dans ce domaine à l’interface entre astrophysique et physique des particules qu’on appelle astroparticules.
Pourquoi l’étude de l’infiniment grand et celle de l’infiniment petit, que tout a priori sépare, deviennent complémentaires et s’enrichissent mutuellement ?
Y a-t-il une démarche bottom-up de l’astrophysicien et une démarche top-down du physicien des hautes énergies ?
Comment la stratégie multi-échelles de l’astrophysique devient-elle une stratégie multi-messagers des astroparticules ?
Enfin, on décrira les difficultés mais aussi les succès rencontrés quand on cherche à faire collaborer et même vivre ensemble observateurs (astrophysiciens) et expérimentateurs (physiciens des particules).

 
MATÉRIAUX ET ASSEMBLAGES
ance animée par Jean-Michel LEFOUR, Université Paris-Sud 11

Jean-Philippe BOURGOIN, Ingénieur, Laboratoire d’Electronique Moléculaire, CEA/SPEC CEA Saclay.
« Auto-assemblage et fonctionnalisation : deux clés de l’électronique moléculaire »

Résumé :
L’Electronique Moléculaire, -terme utilisé ici au sens large, i.e. incluant les dispositifs, circuits et “technologies” basés sur les molécules, les nanoparticules, les nanofils et les nanotubes de carbone- a connu récemment des succès remarquables dans l’exploration des propriétés de transport électronique de ces nanoobjets et suscité des promesses d’applications à moyen-long terme dans le domaine de la micro-nanoélectronique.
L’Electronique Moléculaire est de plus en plus étudiée comme technologie potentielle pour les principales raisons suivantes.
Tout d’abord, les tailles moléculaires des objets sont vues comme une réponse possible au problème de plus en plus difficile de la miniaturisation, si bien sûr il peut être démontré que ces objets peuvent être assemblés en circuits complexes fonctionnels.
Ensuite, les objets de l’Electronique Moléculaire peuvent être utilisés pour apporter de nouvelles fonctionnalités (NEMS, capteurs , optoélectronique en particulier) aux systèmes sur la puce.
Par ailleurs, l’Electronique Moléculaire utilisant des objets de nature intrinsèquement quantique, est un domaine privilégié pour tester de nouveaux paradigmes de calcul, en cherchant en particulier une efficacité énergétique supérieure à celle du CMOS.
Enfin, il s’agit d’un domaine naturel pour le développement de l’autoassemblage et des techniques de fabrication bottom-up.
Au cours de cette présentation, je me focaliserai sur des exemples de réalisations de dispositifs moléculaires centrés autour de l’utilisation de l’autoassemblage. Je décrirai une approche basée sur la fonctionnalisation localisée des surfaces permettant de diriger le dépôt de nanoobjet puis envisagerai l’apport de la biologie pour gagner en précision et complexité.
Je discuterai également d’une part des perspectives d’applications nouvelles ouvertes par l’électronique moléculaire et d’autre part des interactions disciplinaires nécessaires pour permettre à ces applications de devenir réalité.

 

Jean-Louis HALARY, Professeur. Physico-chimie des Polymères et Milieux Dispersés, ESPCI (Ecole Supérieure de Physique et Chimie Industrielles de la Ville de Paris).
« Une approche moléculaire pour comprendre et améliorer la ténacité des matériaux polymères »

Présentation de JL. Halary
Résumé :
L’objet de la présentation est de reconsidérer un certain nombre d’idées supposées bien établies sur le comportement à la rupture de thermoplastiques amorphes et de résines thermodurcissables. À cette fin, il est fait appel à des résultats récents relatifs à des systèmes modèles dont la structure chimique et les caractéristiques moléculaires (longueur de chaînes et densité d’enchevêtrements pour les thermoplastiques, densité de points de réticulation pour les thermodurcissables) sont judicieusement choisies et soigneusement contrôlées.
La densité d’enchevêtrements ne d’un polymère thermoplastique, définie par la relation :
ne  = r NA/Me  (dans laquelle NA représente le nombre d’Avogadro et r et Me désignent respectivement la masse volumique et la masse moyenne entre enchevêtrements du polymère) est connue pour avoir une influence majeure sur la rupture des thermoplastiques. Des corrélations, portant sur une quinzaine de polymères usuels de structure chimique très différente, ont été proposées de longue date entre le facteur d’intensité de contrainte critique en mode I, KIc et ne ou entre KIc et ne1/2. Convaincantes à grands traits en première analyse, ces relations trouvent des contre-exemples si l’on considère des familles de polymères dans lesquelles la structure chimique est modifiée très progressivement : copolymères statistiques du méthacrylate de méthacrylate de méthyle ou polyamides semi-aromatiques amorphes par exemple. Au sein de chacune de ces séries, KIc peut varier d’un facteur 2 en passant d’un polymère à un autre alors que leurs ne sont identiques. Aux effets de densité d‘enchevêtrements s’ajoutent alors des effets de mobilité moléculaire que la considération des caractéristiques des relaxations secondaires permet d’interpréter. Ainsi, dans le motif de répétition des polyamides amorphes, le remplacement d’un résidu téré-phtalique par un résidu iso-phtalique, qui fait perdre son caractère coopératif à la relaxation secondaire, suffit à faire chuter KIc d’un facteur 2.
Autre exemple, il est souvent mentionné dans la littérature que KIc est indépendant de la masse molaire des polymères linéaires dès lors que le rapport de la masse molaire  à la masse entre enchevêtrements Me, m =  / Me, excède une valeur de l’ordre de 6. En fait, l’étude de polyamides semi-aromatiques amorphes a montré que la réponse doit être fortement nuancée en fonction de la température à laquelle l’essai de rupture est réalisé. À basse température et jusqu’aux confins de la température ambiante, cette proposition est correcte. Elle correspond au cas où le passage en fissure résulte de la formation de craquelures par scission de chaînes. En revanche, à température plus proche de la température de transition vitreuse du matériau, les craquelures formées sont des craquelures par désenchevêtrements. La résistance à la rupture est alors gouvernée par la stabilité des fibrilles présentes au sein des craquelures, qui, elle, continue à croître avec la masse molaire des chaînes jusqu’à des valeurs du rapport m très supérieures à 6.
Une autre idée reçue sur la ténacité des polymères, parfaitement acceptable celle-là, est que le caractère fragile des matériaux thermodurcissables (KIc de l’ordre de 0,7 à 0,8 MPa.m1/2) tient à leur structure de réseau tridimensionnel. Cette conclusion a été vérifiée de longue date, par exemple dans le cas de réseaux époxy-amine conventionnels, et également, beaucoup plus récemment , dans le cas de réseaux hybrides organique-inorganique basés sur le poly(méthyl méthacrylate) et des nanoparticules de silice porteuses de nombreux greffons méthacryloyle. Dans les deux cas, des méthodes originales, non préjudiciables à la valeur du module d’Young à température ambiante, peuvent être proposées pour rendre ces matériaux résistants au choc. Dans le cas des résines époxy, une séparation de phases à l’échelle nanométrique peut être provoquée durant la cuisson de la résine, par addition au mélange de monomères d’un additif antiplastifiant approprié. Les matériaux produits présentent une valeur de KIc pouvant atteindre 2,7 MPa.m1/2. Dans le cas des réseaux hybrides, la solution retenue pour réduire considérablement la fragilité est la réalisation de stratifiés, de structure comparable à celle de la nacre de l’huître : de fines couches (1 mm) de méthacrylate de méthyle sont insérées entre des couches épaisses (1 mm) d’hybride ; des assemblages comptant une dizaine de couches ont pu être réalisés et leur rupture a été suivie couche par couche : le renforcement observé résulte de déviations de fissure aux interfaces.

INTERVENTION ET RÉACTIONS

Daniel PARROCHIA, Professeur, Philosophie des Sciences, Université de Lyon 3.
« Epistémologie des classifications »

Présentation de D. Parrochia
Résumé :
On appelle « classification » l’opération consistant à distribuer, répartir ou ventiler des individus ou leurs propriétés dans des classes finies ou infinies, hiérarchisées ou non, nettes ou floues, empiétantes ou pas.
Les buts de l’opération sont bien connus : Il s’agit d’abord de simplifier la réalité en réduisant le nombre de ses objets (on substitue aux individus des classes moins nombreuses qu’eux). Il s’agit également de valider à partir de là certaines hypothèses théoriques, de faire des prédictions, de générer des hypothèses nouvelles, voire des théories inédites.
En même temps que des méthodes (ascendantes et descendantes), qui relèvent des pratiques empiriques, on distinguera philosophiquement deux grands types de classifications :

  • Des classifications « phénoménales » (classifications zoologiques, botaniques, médicales, sociologiques, etc.) fondées sur des ressemblances ou dissemblances perceptives (et leur mathématisation par des notions de distance et des algorithmes de « clustering ») ;
  • Des classifications « nouménales » (classifications physico-mathématiques) fondées sur des invariants plus ou moins complexes ou abstraits.

La conférence entend montrer qu’un traitement rationnel du problème classificatoire supposerait en fait qu’on s’élève aux conditions mathématiques d’une théorie générale des classifications dont les axiomes seraient plus contraignants que ceux de la théorie des ensembles.

CLÔTURE
Jean-Louis MARTINAND
, Directeur du Centre d’Alembert