Overblog
Suivre ce blog Administration + Créer mon blog
15 avril 2010 4 15 /04 /avril /2010 18:01

 

 

 m31 gendler Nmosaic1

 

 

 

 

  

  

Dans mon dernier sujet d’astronomie, j’évoquais l’apparition des premières galaxies et les interrogations que suscite leur création (voir sujet : les premières galaxies ) ; il y était question de courants « froids », nouvelle théorie qui venait s’opposer à celle, classique, selon laquelle ce sont des courants de gaz bien plus chauds qui seraient à l’origine des premières concentrations d’étoiles (voir sujet : le Big bang et le début de l’Univers ) ; dans les deux cas, on aboutissait à la formation de ces premières galaxies par la condensation d’immenses filaments de gaz.

 

Preuve que l’astronomie – ou plutôt ici la cosmologie scientifique – est en pleine effervescence, voici qu’interviennent à présent de nouveaux personnages : les quasars, objets les plus brillants de l’Univers, d’autant plus brillants qu’on regarde loin, c’est-à-dire dans le passé, et supposés traduire la présence de gigantesques trous noirs galactiques. On finit par s’y perdre : est-il envisageable de comprendre ce qu’il s’est passé lors des tout premiers moments de l’Univers ?

  

 

  

 

Les acteurs en présence

  

 

·         Le Big bang

  

Sans revenir sur les détails (déjà longuement évoqués) de la théorie, rappelons seulement qu’il aura fallu environ 300 000 ans pour que le monde devienne transparent et que les atomes de la matière puissent se créer et se stabiliser. Avant, il n’y avait qu’un magma initial incommensurablement chaud et c’est en refroidissant que ce magma a donc permis l’apparition de la lumière et de la matière que nous connaissons. De ce moment bien précis, il reste le rayonnement fossile (ou cosmologique, voir le sujet : fonds diffus cosmologique), encore perceptible dans toutes les directions célestes. Ensuite, la matière s’est condensée pour former les premières étoiles.

 

 

·         Les filaments cosmiques

  

La répartition des galaxies dans l’Univers n’est pas homogène :filaments cosmiques simulation celles-ci se distribuent le long de filaments "cosmiques", créés juste après le Big bang et séparés par d’immenses étendues de vide, un peu comme les limites de bulles gigantesques placées côte à côte. La condensation des gaz par l’effet des forces gravitationnelles aurait permis la création le long de ces filaments des premières galaxies dont on comprend dès lors la répartition spéciale.

 

 

·         Les quasars

  

Lorsqu’on observe les galaxies, le plus souvent on trouve en leurs centres des objets très lumineux, les quasars (ou quasi-stellar radio-sources). Il est même arrivé que ces objets quasar 3C273extraordinaires aient pu être confondus avec de véritables étoiles car leur intense lumière éclipsait celle des étoiles de la galaxie au sein de laquelle ils siègent (un article presque entier leur a déjà été consacré). Il aura fallu bien des observations et des controverses pour qu’on soit pratiquement certains aujourd’hui que ces quasars sont les signes indirects de trous noirs galactiques. Il faut par ailleurs noter que, plus on regarde loin dans le passé, plus ces quasars sont lumineux.

 

 

·         Les trous noirs

  

Il existe différentes variétés de trous noirs mais ceux qui nous intéressent aujourd’hui sont les trous noirs galactiques, c'est-à-dire ceux siégeant au centre d’une galaxie (chaque galaxie – y compris la nôtre – est supposée en posséder un). Dans les premiers temps, ces trous noirs (dont, rappelons-le, rien ne peut s’échapper, pas même la lumière) avaient beaucoup d’étoiles à leur portée et donc une activité intense : ils ont, bien sûr, grossi mais autour d’eux s’est progressivement créé un espace vidé de ses étoiles d’où leur baisse de vitalité. Comme leur activité est visible indirectement sous la forme de quasars, on comprend que ces derniers aient été bien plus lumineux et gigantesques par le passé et que, dans la plupart des galaxies proches, on ne mette plus en évidence que des « miniquasars ».

 

Jusqu’aux environs des années 2000, il n’y avait guère de suspense : les galaxies s’étaient créées par densification et accrétion des nuages de gaz, sous l’effet de la gravité, le long des filaments cosmiques. Une observation plus fine devait donc permettre de trouver dans le ciel lointain - celui des débuts - de petites galaxies devenant de plus en plus massives au fur et à mesure de leur vieillissement. On a donc demandé au télescope Hubble de nous confirmer tout ça… et c’est alors que la surprise a été de taille.

 

  

 

 

Les nouvelles observations de Hubble

  

 telescope-hubble

 

 

On ne dira jamais assez tout l’intérêt scientifique qu’aura représenté (et représente encore dans l’attente de son successeur) le télescope spatial Hubble. Pour la première fois de son histoire, grâce à lui, l’Humanité a pu s’affranchir de sa planète et de son atmosphère quasi-oblitérante pour des observations visuelles de longue durée, incomparables en finesse et en pureté (dans d’autres domaines, notamment dans le non visuel, les observatoires terrestres internationaux du Chili sont également très performants). Un des domaines de prédilection du télescope Hubble est le ciel lointain, autrement dit le champ extragalactique, et, là, le moins que l’on puisse affirmer, c’est que les résultats de ses observations ont jeté un certain doute sur les théories alors en vigueur.

 

 

·         Des galaxies au plus loin de ce que l’on observe

  

Avant Hubble, on pensait qu’il avait fallu un certain temps, estimé au minimum à 1 ou 2 milliards d’années après le Big bang, pour qu’apparaissent les premières galaxies, une durée qui semblait suffisamment raisonnable pour la création et le rassemblement notable des toutes premières étoiles. Au fil des années, Hubble a observé de plus en plus loin dans l’espace (et, donc, comme on l’a déjà dit, dans le passé). Seulement voilà : en repoussant les limites d’observation de 5 à 6 milliards d’années-lumière jusqu’à récemment plus de 13 milliards d’années-lumière (soit 6 à 700 000 ans après le Big bang), on a eu une grosse surprise : même si loin dans le passé, il y a quand même des galaxies et en nombre… Premier accroc à la théorie jusque là admise.

 

 

·         Des galaxies géantes depuis le début

  

Classiquement, la théorie prévoyait un fait parfaitement logique : les galaxies se seraient formées peu à peu, par réunion de conglomératsgalaxies-fusionnant.jpg d’étoiles. Du coup, dans cette vision, les galaxies sont d’abord petites puis grossissent lentement avec le temps jusqu’à former, des milliards d’années plus tard, des galaxies géantes. Oui mais ce n’est pas ce qui a été découvert par le télescope : ses clichés sont formels et des galaxies géantes (regroupant plus de mille milliards d’étoiles alors que, pour mémoire, la Voie lactée, notre galaxie, n’en renferme « que » 150 à 200 milliards) sont observables dès le premier milliard d’années après le Big bang. Comment cela est-il possible ? Deuxième accroc.

 

 

·         les trous noirs massifs des premières galaxies

  

Il est parfaitement possible de calculer pour chaque galaxie le rapport entre leur masse proprement dite et celle de leur trou noir central et là aussi les chiffres recèlent des surprises apparemment difficiles à expliquer. Pour les galaxies (relativement) proches, situées entre 1 et 6 milliards d’années-lumière, on trouve un rapport d’environ 700. Énoncé autrement, cela veut dire que ces galaxies « pèsent » approximativement 700 fois plus que leur trou noir. En observant plus loin, vers 10 milliards d’années-lumière, le rapport tombe à 300/400… et même à 200 pour les galaxies du début, vers 12 milliards d’années-lumière. Les calculs sont vite faits car, la matière étant toujours la même, il n’y a qu’une explication envisageable : les trous noirs du lointain passé étaient (beaucoup) plus massifs que les plus récents.  Comment faire coïncider cette découverte avec une théorie crédible ? Troisième accroc.

  

 

 

  

La théorie des trous noirs créateurs

 

  

C’est à ce stade des réflexions que la presse spécialisée s’est faite récemment le porte-parole d’une nouvelle approche : ce ne serait pas les étoiles qui auraient été formées en premier, juste après le Big bang, mais des trous noirs supermassifs dont l’activité aurait engendré les premières étoiles et galaxies.  Il s’agit d’une toute nouvelle théorie présentée par un astrophysicien du nom de David Elbaz (CEA de Saclay) et elle mérite, semble-t-il, qu’on s’y attarde un peu. 

 

Contrairement aux théories classiques, les trous noirs préexisteraient, on vient de le dire, à tout le reste. On connait ce type d’objets, forcément de façon indirecte puisqu’ils ne sont par définition pas visibles, grâce aux quasars qui les entourent : ces derniers, les sources les plus brillantes du ciel, sont probablement le résultat de la consumation de la matière absorbée par un trou noir ; c’est le seul moyen d’expliquer leur toute petite taille alors que leur luminosité dépasse parfois celle de la galaxie entière où ils se trouvent !

 

Imaginons-donc un quasar très actif, témoin du trou noir « phagocyteur » de matière qu’il entoure : les monstrueux jets de gaz trou noirpropulsés par le trou noir tandis qu’il détruit la matière (voir le sujet trous noirs) provoquent dans un premier temps l’augmentation de sa taille ; par la suite, les tourbillons de gaz qui l’entourent entraînent la création d’un fantastique champ magnétique et c’est aux deux pôles de celui-ci que des faisceaux de gaz brûlant jaillissent pour traverser l’espace de part et d’autre du trou noir. Rencontrant alors des nuages d’hélium et d’hydrogène, ces faisceaux provoquent une considérable augmentation de la température locale et donc des réactions de fusion nucléaire : la conséquence en est connue et c’est l’éclosion de nouvelles étoiles pouvant assez rapidement s’agglutiner de manière à former des ensembles galactiques… Voilà une façon assez logique d’expliquer la présence très précoce de galaxies dans le passé de l’Univers. D’ogres abominables détruisant toute matière à sa portée, le trou noir, tel un Janus astronomique, est également propulsé au rôle de créateur d’étoiles !

 

Qu’en pense le petit microcosme de l’astronomie moderne ? Eh bien, comme toujours, il est divisé : certains sont enthousiasmés par cette nouvelle approche conceptuelle tandis que d’autres sont plus que sceptiques, avançant que le gaz entourant le quasar n’est que repoussé au loin sans création de nouvelles étoiles. La solution viendra peut-être d’une approche intermédiaire : le titulaire de la chaire d’astronomie de l’université d’Oxford déclarait récemment qu’il était possible que les trous noirs créent dans un premier temps des myriades d’étoiles avant que les gaz ne soient repoussés par sa force conjuguée au souffle de l’explosion des supernovae nouvellement formées.

 

  

 

 

L’avenir du passé

  

 

La barrière d’observation indépassable (étant donné, en tout cas, l’état actuel de nos connaissances) reste ce rayonnement fossile déjà évoqué, témoin de l’apparition de la lumière. Le télescope Hubble nous a permis de nous approcher de manière relativement fine jusqu’à environ 600 000 années-lumière du Big bang, c’est-à dire à quelques centaines de milliers d’années du point de départ (visible) ; la période encore manquante entre les observations de Hubble et le rayonnement fossile est probablement la plus intéressante de l’histoire de notre univers puisque son décryptage permettrait de trancher de façon presque définitive sur la formation des premières étoiles : on pourrait ainsi savoir quelle était la véritable nature des nuages de gaz concernés, pourquoi (et comment) la répartition des galaxies est ce qu’elle est, si les trous noirs primordiaux ont réellement contribué à l’amorce des galaxies, bref, toutes ces questions fondamentales qui passionnent la communauté astronomique internationale. Or, nous ne sommes pas très loin d’aboutir : dans quelques années, le successeur de Hubble, le télescope spatial James Webb, plus performant et bénéficiant de l’expérience de son illustre prédécesseur, sera enfin lancé et il devrait nous apporter les réponses à toutes ces questions. Peut-être.

 

 

Sources : Science & Vie, 1111, avril 2010

 

 

 

Images

  

1. ciel extragalactique : la nébuleuse d'Andromède m31 (sources : faculty.physics.tamu.edu)

2. filaments cosmique (simulation) (sources :  www.insu.cnrs.fr)

3. le quasar 3C 273 (sources : www.physics.uc.edu) 

4. fusion de galaxies (sources :  www.astronoo.com)

5. trou noir (vue d'artiste) (sources : boulesteix.blog.lemonde.fr) 

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

  

 

Mots-clés : galaxies premières - Big bang - cosmologie scientifique - quasars - rayonnement fossile (fonds diffus cosmologique) - filaments cosmiques - trous noirs galactiques - télescope spatial Hubble (en anglais et en français) - David Elbaz - télescope spatial James Webb

 (les mots en blanc renvoient à des sites d'informations complémentaires)

 

 

Sujets connexes sur le blog :

1. avant le Big bang

2. les étoiles primordiales

3. la théorie des cordes ou l'Univers repensé

4. les premières galaxies

5. Big bang et origine de l'Univers

6. trous noirs

7. les galaxies

8. pulsars et quasars

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

 

l'actualité du blog se trouve sur FACEBOOK

 

Mise à jour : 15 juin 2013

Partager cet article

Repost0
27 mars 2010 6 27 /03 /mars /2010 14:00

 

    

 tropidoderus-childrenii

 

 

 

 

     Beaucoup de nos contemporains – et pas forcément les moins avertis – n’arrivent pas à comprendre comment l’œil, organe complexe, a pu se constituer de façon progressive au fil des âges alors que, d’après eux, cet organe ne peut être fonctionnel que dans sa forme définitive : comment l’évolution aurait-elle pu retenir « des organes visuels incomplets et donc fonctionnellement impropres », argumentent-ils en souriant. J’ai déjà eu l’occasion d’évoquer ce (faux) problème dans un précédent sujet (voir l’œil, organe-phare de l’évolution).

 

     De la même façon, bien des gens n’arrivent pas à saisir l’origine des morphologies végétales ou des comportements animaux en apparence extraordinaires, de ces cas que l’on appelle volontiers « des merveilles ou des miracles de la nature ». A partir de quelques exemples, je vais essayer d’expliquer pourquoi la sélection naturelle, et elle seule, est ici à prendre en compte. Il va de soi que, au-delà des quelques modèles retenus, l’approche est bien entendu partout la même.

 

 

 

Des exemples étranges mais édifiants

 

 

     Observons dans un premier temps quelques cas de comportements surprenants glanés dans la littérature éthologiste puis, dans un second temps, nous essaierons de trouver une explication à ces « merveilles de la Nature », explications qui, comme on le verra, sont pratiquement toujours les mêmes.

 

 

·         l’orchidée « trompe-insectes »

 

     Les orchidées ont une stratégie bien particulière pour se reproduire : elles se servent d’insectes venus se repaître de leur nectar pour les enduire de pollen qui sera alors transporté vers une autre orchidée. Sauf orchidee-trompe-abeille.jpgque l’orchidée ne possède pas de nectar et, pour attirer par exemple une guêpe, elle secrète une phéromone précise, c'est-à-dire une odeur identique à celle de la guêpe femelle. Plus encore, certaines orchidées vont jusqu’à posséder une lèvre inférieure (le labelle) identique en forme et en texture au corps de l’insecte femelle (poilue si la fleur cherche à tromper une abeille, glabre pour une guêpe). L’illusion est presque totale : certains naturalistes ont déclaré qu’il leur avait fallu se pencher de près pour s’assurer qu’il s’agissait bien d’une excroissance de l’orchidée qu’ils apercevaient et non véritablement d’une guêpe. C’est ce que l’on appelle du mimétisme. De fait, la fleur trompe vraiment l’insecte qui « croit » avoir affaire à une femelle de son espèce : il va chercher à copuler en se frottant sur l’orchidée et, ce faisant, se barbouille de pollen… qu’il ira déposer sur une autre orchidée prise là aussi, pour quelqu’un d’autre ! Cette « pseudo-copulation », une trouvaille vraiment performante de la Nature pour les orchidées, a évolué de façon indépendante sur trois continents. La question qu’on se pose immédiatement est la suivante : il paraît difficile de croire qu’un mécanisme aussi compliqué, alliant morphologie mimétique (le labelle de l’orchidée) et chimie (la phéromone trompeuse), se soit constitué progressivement : en effet, comment expliquer que la sélection naturelle – qui ne laisse subsister que les éléments favorables – ait pu permettre le maintien d’étapes intermédiaires, forcément inabouties, et, du coup, très désavantageuses pour les orchidées « incomplètes » ? Au premier abord, on pense à l’agencement d’un procédé d’emblée fonctionnel : on se retrouve donc proche du créationnisme… et loin de la réalité, comme on le verra plus tard.

 

 

·         la guêpe fouisseuse

 

     J’ai évoqué dans le sujet « indifférence de la Nature » et à la suite des travaux du formidable entomologiste que fut Jean-Henri Fabre, le comportement bien spécifique de la guêpe fouisseuse dont l’indifférence pour la douleur de ses proies peut sembler de la cruauté à un œil non averti. Fabre imagina avec cet insecte une expérience devenue classique. Il avait remarqué que lorsqu’elle revient vers son trou avec une proie qu’elle a paralysée, la guêpe fouisseuse dépose d’abord sa victime à proximité de son antre puis pénètre dans cette celle-ci afin, semble-t-il, de vérifier queguepe-fouiseuse-Sceliphron-caementarium.jpg tout y est normal et qu’il n’y a aucun danger pour elle, que, par exemple, nul intrus n’y a pénétré en son absence. C’est seulement après s’être ainsi rassurée que la guêpe tire sa victime dans le trou pour la faire dévorer vivante par ses larves. Voilà un comportement bien singulier qui pourrait démontrer une certaine forme d’intelligence. Difficile en effet de croire à première vue qu’une telle attitude ne s’est pas imposée à la guêpe en une seule fois et que ce n’est que progressivement avec le temps qu’elle y a eu recours. Fabre eut donc l’idée de déplacer de quelques cm la proie pendant l’inspection de son domicile par l’insecte. Face à ce changement et une fois ressortie, la guêpe se met normalement en quête de sa proie et la retrouve facilement. Elle la ramène donc mais, bizarrement, repart inspecter son trou comme la première fois. Une troisième tentative donnera les mêmes résultats. On pourra déplacer cinquante fois la proie, chaque fois la guêpe la retrouvera mais recommencera immuablement son manège d’inspection : tout se passe comme si, tel un programme d’ordinateur, l’attitude de l’insecte avait été « réinitialisée », l’obligeant indéfiniment à repasser par les mêmes séquences… La guêpe est facile à tromper et il n’y a ici nulle intelligence...

 

     Mais, me direz-vous, il existe peut-être une autre explication : la vue de la guêpe serait éventuellement approximative, de mauvaise qualité, ce qui guepe-fouisseuse-3.jpgexpliquerait ses « erreurs » (mais pas le soin apporté par l’orchidée déjà citée pour mimer parfaitement le corps de la femelle, on y reviendra). L’explication ne tient pas. En effet, avec le même insecte, l’éthologiste (et prix Nobel) Nicolaas Tinbergen procède de la façon suivante : après avoir repéré le trou d’une guêpe fouisseuse (ici de la variété Philantus, chasseuse d’abeilles), il attend que la guêpe soit dans sa cachette et dispose quelques repères visuels autour d’elle tels une pierre, des brindilles, etc. avant de disparaître. La guêpe sort, décrit trois ou quatre cercles comme pour visualiser mentalement le lieu et s’envole, parfois loin et longtemps, pour trouver une proie. Tinbergen déplace alors les brindilles de quelques mètres. Invariablement, à son retour, la guêpe manque son trou et plonge dans la partie du sol où, d’après ses repères, il aurait dû se trouver. L’insecte a donc une excellente vue (ainsi qu’une très bonne mémoire photographique) mais son comportement est automatique et irréfléchi. Il s’agit à l’évidence d’un comportement génétiquement acquis et il est peu vraisemblable que cela se soit fait en une fois.

 

 

·         La mouette commune

 

     Prenons à présent l’exemple d’un oiseau, la mouette. Pourrait-on trouver chez elle des comportements relevant d’une « intelligence » réfléchie ? Celle-ci a une réaction très caractéristique lorsqu’elle s’aperçoit qu’un de ses œufs a roulé hors du nid (qui est situé à même le sol) : elle s’étire afin d’attraper l’œuf pour le faire avancer sous son bec vers le nid. Comportement remarquable prouvant que l’oiseau, à l’instinct maternel exacerbé, est capable de comprendre que son (futur) petit est en danger ? Certainement pas puisque les éthologues ont pu montrer qu’un tel geste se produit également en présence d’un œuf de poule, d’une pelote de ficelle ou d’une canette de bière.

 

     Concernant toujours la mouette (mais les exemples foisonnent dans toutes les espèces), on sait que les jeunes mouettes mangeuses d’anchoismouette-a-bec-rouge.jpg quémandent de la nourriture à leurs parents et toujours de la même façon : en cognant avec leurs becs sur le point rouge du bec parental. Substituons une forme en carton ressemblant vaguement à une mouette adulte mais porteuse d’un point rouge : les petits cognent dessus et ouvrent leurs becs ; chez les mouettes tout se passe comme si les oisillons ne voyaient de leurs parents qu’un point rouge…

 

 

·         La dinde meurtrière

 

     Dans son livre « Qu’est-ce que l’évolution ? » (Hachette, collection Pluriel), Richard Dawkins rapporte une anecdote étrange concernant cette fois-ci la dinde. Cette dernière, on le sait, est féroce pour tout ce qui concerne la survie de ses petits qui, il est vrai, est parfois problématique tant les prédateurs (belettes, renards, rats, etc.) sont nombreux. La dinde a recours à un comportement très primaire mais également très efficace : elle attaque tout ce qui bouge et ne crie pas comme ses petits. Un éthologue célèbre se rendit compte un jour qu’une de ses dindes avait massacré tous ses petits. Intrigué, il se pencha sur ce problème très spécial et s’aperçut tout bêtement que la dinde en question était sourde ! Pour une dinde, voir quelque chose qui bouge, qui ressemble à ses petits, qui vient en toute confiance se protéger auprès d’elle, ne peut être qu’un ennemi si elle n’entend pas aussi les piaillements accompagnateurs de sa marmaille…

 

 

     Tous ces exemples, choisis parmi tant d’autres, ne sont destinés qu’à montrer qu’il n’existe pas dans la Nature (sauf chez l’Homme et certains primates) de comportements qui ne soient pas génétiquement acquis, et donc ne tombant pas sous le poids de l’évolution. J’ajoute que, bien sûr, l’apprentissage est certainement possible chez l’animal mais il s’agit alors d’un autre contexte. La construction de ces processus est par ailleurs forcément progressive, jamais aboutie du premier coup, nous en reparlerons. Je voudrais à présent terminer ce chapitre par une autre « merveille de la Nature » qui a fait souvent parler d’elle chez les créationnistes ébahis face à cette perfection, la danse des abeilles.

 

 

·         La danse des abeilles

 

     Karl Von Frisch qui fut avec Konrad Lorenz un des fondateurs de l’éthologie moderne rapporte qu’il fut un jour intrigué par le manège étrange d’une abeille : après avoir repéré un peu d’eau sucrée, cette abeille (que Frisch avait préalablement marquée) retourna à sa ruche pour y effectuer une « danse en rond » qui attira immédiatement l’attention de ses congénères. Tous s’envolèrent alors vers la source d’eau sucrée… On sait à présent que cette danse en rond se rapporte à des cibles situées relativement près de la ruche (une trentaine de mètres) mais que pour des distances plus importantes, il existe un autre type de communication codée appelée « danse frétillante ». Cette danse est effectuée à l’intérieur de la abeilles-danse.jpgruche, sur la face verticale du rayon, c'est-à-dire dans l’ombre, sans que les autres abeilles puissent la voir. Ce sont en fait les petits bruits cadencés accompagnant la danse qui sont perçus par les autres insectes : l’abeille informatrice effectue un parcours en huit sans cesse répété et c’est la portion rectiligne au sein de ce mouvement qui indique la direction à suivre. En réalité, les abeilles perçoivent le soleil (même caché par des nuages) grâce à la direction de la polarisation de la lumière… et transcrivent l’information dans leur petit manège. Plus encore, au moyen d’une « horloge interne », l’insecte « dansant » fait subir une rotation à la fraction rectiligne de sa danse de façon à rester en phase, au fil des heures, avec le mouvement du soleil. D’ailleurs, les abeilles de l’hémisphère sud font exactement la même chose mais en sens contraire comme il se doit ! Ce moyen de communication inné permet donc aux abeilles d’indiquer à leurs congénères non seulement la distance mais aussi la direction de l’endroit à explorer. Il s’agit d’un mode de transmission de l’information très rare chez les animaux et il est vraisemblable que, apportant un avantage évolutif certain, il a alors été retenu par la Nature. Cette découverte et les travaux s’y rapportant valurent d’ailleurs en 1973 le prix Nobel de physiologie à Von Frisch. Il semble difficile en première analyse de croire qu’un processus aussi extraordinaire et élaboré ait pu être progressivement sélectionné par l’évolution et pourtant…

 

 

 

 

L’orgueil de l'Homme, encore et toujours

 

 

 

* Le temps

 

     Imaginons un homme vivant, disons, en 1925 qui, grâce à une machine à voyager dans le temps, serait brusquement projeté de nos jours. A part quelques inévitables différences culturelles et sociétales, cet homme, biologiquement et intellectuellement parlant, est tout à fait semblable à n’importe lequel de nos contemporains. Présentons lui, par exemple, un de ces petits organiseurs informatiques que beaucoup d’entre nous possèdent : ne serait-il pas éberlué de voir le concentré de technologie mis à sa portée ? Quoi, cette petite machine tenant dans le creux d’une main est capable d’afficher des photos ou des films pris par lui-même ou par d’autres, de restituer des musiques, de traduire des textes, de prendre etiphone.jpg rappeler des rendez-vous, de posséder une bibliothèque de plusieurs centaines de livres et, plus encore, de communiquer en temps réel avec le reste du monde par le biais d’Internet ? Notre homme de 1925 serait stupéfait, incrédule et soupçonnerait, pourquoi pas ?, quelque diablerie. Comment pourrait-il comprendre – à moins qu’on lui explique le cheminement intellectuel et industriel de la chose – qu’il s’agit d’un objet ayant été le centre de milliers d’agencements successifs, d’erreurs, d’impasses technologiques, de petites et grandes découvertes, tout cela mis bout à bout : face à l’objet fini que représente l’organiseur électronique qu’on lui présente, il se trouverait dans la même situation que le créationniste confondu par la complexité et la haute spécificité de la danse des abeilles ou du mimétisme de l’orchidée…

 

     Il existe toutefois ici deux différences fondamentales avec l’œuvre de la Nature. D’abord, la complexification technologique progressive de l’organiseur est le fruit du travail minutieux et mille fois répété des hommes : à la différence de l‘évolution, il ne s’agit pas de transformations dues au hasard et à la pression de sélection mais bel et bien d’un cheminement intellectuel et conceptuel.  Ensuite, cette (apparente) extraordinaire fabrication s’est faite en peu de temps, en quelques dizaines d’années, ce qui est normal puisque due à l’intelligence dirigée des hommes. Voilà le point sur lequel, je souhaitais insister : dans la Nature, les « objets finis » que nous observons ne se sont constitués qu’au long de millions d’années, après des millions de générations d’êtres vivants nous ayant précédés. L’évolution, la sélection naturelle, ont permis cette progression, non sans erreurs, non sans retours en arrière ou changements multiples de milieux et donc de conditions de sélection, le tout au rythme des mutations génétiques, forcément peu fréquentes pour celles qui ont été retenues. Des mutations, des aménagements qui ont été sélectionnés par l’environnement et la compétition entre les différentes espèces vivantes selon un principe immuable : le hasard qui a permis à telle ou telle mutation de s’exprimer selon les circonstances, à certaines de disparaître, à d’autres de prospérer.

  

 

* La progressivité

  

     Il faut donc du temps, beaucoup de temps pour qu’apparaisse un caractère favorable à une espèce et susceptible d’être intégré à tous ses descendants. C’est encore plus vrai pour un ensemble de caractéristiques conduisant à un organe complexe ou à l’acquisition d’une procédure ou d’un comportement. Cette acquisition se fait petit à petit, à la suite de modifications le plus souvent minimes au point qu’elles peuvent presque passer inaperçues. Oui mais, disent les créationnistes, comment expliquer les étapes intermédiaires durant lesquelles la fonction n’est pas encore apparue ; pourquoi l’évolution les retiendrait-elles puisqu’elles n’apportent rien (ou handicapent) l’individu qui en est porteur ? Tout  a forcément été créé d’un seul coup ! Eh bien les créationnistes ont tort car les étapes intermédiaires « peuvent apporter quelque chose » qui n’est pas (encore) le bénéfice d’arrivée mais suffisant néanmoins pour ne pas être éliminé et oublié. L’organe (ou le processus) incomplet a une fonction encore embryonnaire, archaïque (parfois totalement différente de celle d’arrivée) mais conférant dans tous les cas un avantage sélectif au porteur.

 

     Les orchidées primitives n’avaient pas de nectar et étaient confrontées au problème de la diffusion de leur pollen. Une modification est un jour survenue sur l’une d’entre elles qui a permis, en trompant plus facilement un insecte, de permettre à cette orchidée d’avoir plus de descendants que les autres. La compétition engagée entre les orchidées a fait s’améliorer peu à peu le « piège » qui, au départ, était loin d’être parfait et ne fonctionnait peut-être qu’avec quelques rares insectes, seulement sous certaines conditions d’éclairage, de température, etc. Ce que nous observons aujourd’hui, c’est le résultat de cette évolution, c'est-à-dire un piège bien plus élaboré… et sa complexité peut étonner des esprits peu scientifiques.

 

     Certains éthologistes contemporains de Von Frisch acceptaient bien l’idée que la danse des abeilles existait et même qu’elle pouvait contenir des indications mais ils refusaient absolument de penser que les autres abeilles étaient capables de déchiffrer, de comprendre l’information ainsi délivrée. Il fallut attendre les remarquables expériences de Jim Gould (un peu longues et complexes à décrire ici) pour apporter la preuve qu’ils se trompaient : les abeilles « comprennent » bien les indications de la danse et s’en servent ensuite pour le ravitaillement de l’ensemble de la ruche.

 

     Mais comment expliquer une telle évolution, forcément progressive ?  Cette question passionna Von Frisch qui se mit à étudier tous les insectes proches des abeilles, espérant trouver chez eux des caractéristiques anciennes. Le scientifique mit effectivement en évidence un certain nombre de caractères archaïques existant encore dans la délivrance de l’information chez de lointains cousins des abeilles : il s’agissait là de quelques unes des étapes ayant conduit aux extraordinaires ballets informatifs des abeilles d’aujourd’hui qui, par leur élégance et leur complexité, peuvent induire en erreur ceux qui ne regardent que « le produit fini » sans songer au cheminement qui a été nécessaire pour y parvenir.

 

 

* L’anthropomorphisme

 

     L’Homme a longtemps été comme un enfant de un an contemplant le univers-infini.jpgmonde minuscule de sa chambre et qui, au-delà de ses peluches, ne connaît que ses parents et sa nounou. Il se voit le centre d’un univers qui gravite autour de sa présence et de ses caprices. Comme il ne connaît rien d’autre, l’enfant est le centre de l’Univers dans son intégralité. Les connaissances humaines ont singulièrement progressé et nous savons qu’il existe, au-delà de notre douce Terre, un univers démesuré au sein duquel notre présence est moins que celle d’un grain de sable dans le désert du Sahara : l’Homme sort enfin de l’enfance.

 

     L’abeille voit le monde en ultra-violet et les fleurs qui cherchent à les attirer se parent de courbes et de formes qui nous sont totalement inconnues : nous discernons de façon si différente ! La guêpe croit apercevoir, dans une excroissance de l’orchidée de mieux en mieux imitée au fil du temps, la compagne qu’elle recherche mais que savons-nous des perceptions de l’insecte ? Comment comprendre ce qu’il voit ou ressent ? C’est la raison pour laquelle, nous préférons souvent la facilité qui consiste à prêter nos propres sentiments, nos propres sensations à ce monde animal si étrange. Voir les autres formes de vie à travers le prisme déformant de nos pensées et de nos préjugés s’appelle l’anthropomorphisme.

 

     Certains phénomènes naturels semblent échapper à notre compréhension immédiate : la danse des abeilles – pour reprendre cet exemple – est si ingénieuse, si complexe, si particulière qu’il est tentant d’y voir plutôt du créationnisme que la lente et laborieuse transformation d’une espèce par la sélection naturelle, bras armé de l’évolution. Cette erreur se fonde sur l’orgueil de se croire « à part », d’être le centre de l’Univers, et elle s’appuie sur l’anthropomorphisme pour tenter d’interpréter le vivant qui nous entoure. C’est un mirage qu’il faut absolument éviter : seule une approche objective permet d’y voir un peu plus clair et c’est ce que, heureusement, offre la Science.

 

 

 

 

Images

 

1. mimétisme : tropidoderus childrenii (sources : tpe.mimetisme.e-monsite.com)

2. orchidée trompe-abeille (sources : docroger.over-blog.com)

3 guêpe fouisseuse Scheliphron (sources : www.insectesjardins.com)

4. guêpe fouisseuse entraînant sa proie dans son nid (sources :   jsbouchard.com )

5. mouette à bec rouge (sources : flickr.com)

6. danse des abeilles (sources : tecfa.unige.ch)

7. I.Phone (sources :  syl112002.wordpress.com/)

8. l'univers, infini, hors de portée (sources : toocharger.com)

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

Mots-clés : évolution - sélection naturelle - orchidées - mimétisme - créationnisme - Jean-Henri Fabre - guêpe fouisseuse - Nicolaas Tinbergen - mouette à bec rouge - danse des abeilles - Karl Von Fritsch - hasard génétique - anthropomorphisme

(les mots en blanc renvoient à des sites d'informations complémentaires) 

 

 

 

Sujets apparentés sur le blog

 

1. l'oeil, organe-phare de l'Evolution

 

2. les mécanismes de l'Evolution

 

3. indifférence de la Nature

 

4. le rythme de l'évolution des espèces 

 

5. le mimétisme, une stratégie d'adaptation 

 

6. l'inné et l'acquis chez l'animal

 

7. parasitisme et Evolution

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

 

l'actualité du blog se trouve sur FACEBOOK

 

 

mise à jour : 7 juin 2013

Partager cet article

Repost0
7 mars 2010 7 07 /03 /mars /2010 15:35

 

 

baleine3

 

 

 

 

Au fil des millions d'années qui ont vu les espèces se transformer par sélection naturelle, certaines d'entre elles ont semblé faire demi-tour en revenant à un milieu qu'elles avaient abandonné longtemps auparavant. C'est, par exemple, le cas de la baleine qui, après avoir quitté, comme tous les mammifères, la mer pour la terre ferme, y est ensuite retournée : cela veut-il dire que la baleine d'aujourd'hui a ainsi retrouvé les caractéristiques de son lointain ancêtre ? Comment pourrait-on définir cette apparente régression ? Existe-t-il un « schéma » évolutif des espèces ? A-t-on le droit de dire que l'histoire du vivant peut se répéter, qu'elle peut réemprunter les étapes d'un passé qu'on croyait abandonné à jamais ?

 

 

 

Le pari de Darwin

 

Il y un siècle et demi, Darwin, par une observation minutieuse de la Nature, a posé les bases de la théorie de l'Évolution, jamais remise en cause depuis par les scientifiques, bien que souvent remaniée et réactualisée en fonction des connaissances nouvelles. Le naturaliste anglais ne connaissait pas la génétique - support de l'hérédité - mais il était convaincu que l'acquisition de nouveaux caractères et la perte des anciens était irréversible. C'était une conviction mais nullement une démonstration scientifique : après tout, pourquoi ne pas imaginer - même par hasard - qu'une espèce retrouve ses caractéristiques anciennes, archaïques, à la façon d'un film qu'on aurait repassé à l'envers ?

 

L’ADN est le support de l’hérédité : le code génétique qu’il contient – et ADN-3.jpgque nous avons déjà longuement évoqué (voir par exemple le sujet : le hasard au centre de la vie) – permet la transmission puis l’apparition des caractéristiques qui font appartenir un individu à une espèce donnée. Que ce code comporte une erreur de transcription et voilà le message génétique modifié : c’est cela qu’on appelle une mutation qui pourra être, selon les cas, favorable (pas très souvent), délétère (rarement) ou neutre (cas le plus fréquent). Ces mutations sont totalement indispensables à l’évolution adaptative des espèces mais on comprend que seules celles qui sont favorables seront conservées par la sélection naturelle puisqu’elles confèrent un avantage à leur porteur. Ce nouvel individu, favorisé par la mutation, développera une descendance plus robuste que les autres qui, au fil de quelques générations, en viendra à supplanter peu à peu la population d’origine. On comprend bien cette « avancée » dans le temps mais comment pourrait-il y avoir une « évolution à rebours » ?

 

Pour qu’une espèce voit réapparaître des caractéristiques de son passé, il est certainement nécessaire que : 1. les conditions de milieu aient à nouveau changé et surtout que : 2. l’ancienne formule du code génétique ait été conservée quelque part dans l’ADN transmis au fil du temps. Cela est-il oui ou non possible ? Ce n’est que récemment que la question a pu être tranchée.

 

 

 

L’irréversibilité de l’évolution

 

Des travaux sur l’inévitable mouche à vinaigre (drosophila melanogaster) ont, dans un premier temps, orienté les réflexions sur le problème. On sait que cette mouche est particulièrement intéressante pour drosophile-2.jpgla génétique (c’est d’ailleurs sur elle que les pionniers de la discipline comme Morgan dans les années 1930 ont le plus travaillé) car, à partir d’une souche d’origine dite « sauvage », il est possible d’observer une multitude de mutations qu’on pourra alors étudier en les sélectionnant : la drosophile se reproduit en effet facilement et surtout très vite ce qui permet à un observateur d’examiner des dizaines de générations en quelques semaines. La reproduction du vivant en accéléré en quelque sorte. Des scientifiques ont donc observé une colonie de drosophiles sur une cinquantaine de générations, en modifiant les conditions environnementales (nourriture, luminosité, température, etc.) de façon à faire apparaître un maximum de souches mutées. Chaque fois, ils ont noté les modifications permettant aux insectes de survivre. Dans un deuxième temps, ils ont replacé les mouches dans leur milieu d’origine, point de départ des premiers individus étudiés. Ils ont encore attendu une cinquantaine de générations et… observé que les mouches retrouvaient les caractéristiques de leurs ancêtres du point de départ : normal, me direz-vous, de voir réapparaître les caractères les mieux adaptés au milieu d’origine. Alors, retour en arrière ? Eh bien non ! Les caractères drosophile-mutee.jpgmorphologiques et adaptatifs ont bien reparu… mais avec un matériel génétique différent : les chromosomes des mouches portaient en effet de nombreuses variantes (des allèles) prouvant que l’évolution avait bel et bien continué d’avancer ; il s’agissait en l’occurrence d’une nouvelle adaptation à un milieu identique, donnant des réponses apparentes identiques… mais génétiquement différentes. Ici, l’évolution n’est donc pas revenue en arrière…

 

Aller plus loin dans l’analyse de ce mécanisme d’irréversibilité, c’est chercher à en expliquer les raisons « biologiques ». C’est précisément ce qu’a fait un généticien américain, Joseph Thornton, de l’université de l’Oregon, travaux dont la presse spécialisée s’est récemment faite l’écho. De quoi s’agit-il ? Pour ne pas entrer dans des détails techniques bien trop complexes, essayons de les résumer succinctement. On a dit que des mutations apparaissent au fil du temps et des générations d’individus. De ce fait, puisque les paléontologues savent quand se sont différenciées les différentes lignées animales, il est possible de dater l’apparition des mutations pour, par exemple, une protéine bien précise et de remonter dans le temps jusqu’à la protéine de départ. Thornton  a étudié une protéine spécifique intervenant dans le système endocrinien mais peu importe : appelons-la « protéine GR ». Il est parvenu à récréer la protéineproteine-prostaglandines-copie-1.jpg GR « archaïque », celle qui existait il y a plus de 400 millions d’années et, surtout, il l’a comparée à la protéine GR actuelle. Bilan : 37 mutations successives dont seulement 7 peuvent expliquer les différences entre les deux versions. A quoi ont bien pu servir les 30 mutations inopérantes ? s’est demandé Thornton. Il a donc enlevé les 7 mutations « actives » en pensant obtenir une protéine à nouveau archaïque : surprise, le produit obtenu était complètement inactif, incapable d’entraîner une quelconque action métabolique. La conclusion tombe sous le sens : les mutations « neutres », sans conséquences apparentes, sont en réalité quand même fort importantes puisqu’elles empêchent la protéine de retrouver ses caractéristiques d’origine… Mais pourquoi ?

 

L’explication est la suivante : les modifications neutres n’entraînent aucune action et, du coup, la sélection naturelle ne les enlève pas puisqu’elles n’avantagent, ni ne désavantagent la molécule qui en est porteuse. L’évolution ne les « voit » même pas. Oui mais elles existent, ces mutations neutres, et empêchent la molécule de retrouver sa forme d’origine… et donc ses fonctions. Pour qu’elle redevienne opérationnelle comme au départ, il faudrait que la protéine en question subisse à nouveau les mêmes mutations naturelles, dans le même ordre évolutif mais inversé : il s’agit là d’une éventualité dont, on le comprend aisément, la probabilité est voisine de zéro.

 

Ce qui est valable pour une protéine, l’est a fortiori pour un individu entier, bien plus complexe. On peut donc aujourd’hui affirmer que, non, décidément, l’évolution ne rebrousse pas chemin et que la transformation des êtres vivants – comme l’Histoire – ne repasse pas les plats. On savait depuis le siècle dernier que les nageoires de la baleine n’étaient pas les mêmes que celles de son ancêtre marin : on comprend à présent pourquoi.

 

 

 

Les moteurs de l’évolution

 

L’évolution va toujours de l’avant et ce qui est perdu l’est définitivement. J’ai écrit quelque part dans un autre sujet que 99% des espèces vivantes ayant un jour existé sur notre planète ont disparu pour toujours – après avoir souvent vécu bien plus longtemps que l’Homme ne le pourra jamais - et que l’évolution ne pourra plus les récréer (que l’Homme puisse le faire à partir de quelques brins d’ADN est une autre histoire hors de notre propos d’aujourd’hui). Les êtres vivants se transforment au fil du temps, en fonction des variations du milieu où ils se trouvent, selon des mécanismes complexes que l’on commence à décrypter et dont on sait que le hasard est le grand ordonnateur (ce qui est logique si c’est le milieu qui commande). Quatre moteurs principaux sont aujourd’hui retenus par les spécialistes :

 

les mutations dont on vient de parler et qui représentent la source de nouveauté véritable de l’évolution ;

 

la sélection naturelle qui permet de sauvegarder ou non tel ou tel caractère en fonction de ce qu’il peut apporter à un individu confronté à un milieu donné ;

 

les mécanismes de brassage, c’est à dire tout ce qui permet la diversification des espèces (reproduction sexuée, isolement géographique, grandes migrations, etc.) 

 

et la dérive, facteur moins connu (qu’on appelle aussi le hasard d’échantillonnage) : puisque les parents n’ont forcément qu’une descendance limitée, il ne peut exister qu’une très faible partie des combinaisons génétiques possibles (leur nombre potentiel est en effet immense et seules quelques rares d’entre elles voient le jour) et c’est le hasard - et lui seul - qui permet l’apparition de l’une ou l’autre.

 

     Au bout du compte, le grand mouvement de l’évolution des êtres vivants est donc conditionné par le hasard puisqu'une mutation sera ou non maintenue en fonction d’un milieu précis, d’un échantillonnage particulier, hasard.vaguesld’un brassage opérant ou non… C’est la raison pour laquelle j’insiste souvent sur le fait qu’on ne peut pas parler de progrès (les rats musqués sont-ils mieux adaptés, plus « évolués » que les velociraptors ? Tout dépend du temps et du lieu dont on parle). Il ne faut pas parler de progrès mais d’une évolution adaptative. Le « progrès » si cher à certains n’est qu’une vue de l’esprit qui relève peut-être de la philosophie mais certainement pas de la science : c’est d’ailleurs la raison pour laquelle Darwin avait ce mot en horreur. Et cela mettait en rage ses détracteurs qui, eux, positionnaient l’Homme en haut de l’échelle du vivant, l’Homme but ultime d’une évolution universelle qui n’aurait été créée que pour lui. Egocentrisme et vanité, quand vous nous tenez…

 

Dans son remarquable livre « la vie est belle », le paléontologue mondialement reconnu que fut Stephen Jay Gould écrivit quelques lignes que je ne peux m’empêcher, pour terminer ce sujet, de citer ici tant elles résument bien le sens de mon propos : « … Chaque fois que l’on redéroule le film, l’évolution prend une voie différente de celle que nous connaissons. Mais si les conséquences qui en découlent sont tout à fait différentes, cela ne veut pas dire que l’évolution est absurde et dépourvue de tout contenu signifiant : quand on redéroule le film, on s’aperçoit que chaque nouvelle voie empruntée est tout aussi interprétable, tout aussi explicable a posteriori que celle qui a été réellement suivie et que nous connaissons. Mais la diversité des itinéraires possibles montre à l’évidence que les résultats finaux ne peuvent être prédits au départ. Chacune des étapes a ses propres causes mais on ne peut dire quels états finaux seront réellement atteints ; et aucun de ceux-ci ne sera à nouveau obtenu lorsqu’on redéroulera le film, parce que chacune des nouvelles voies de l’évolution se réalise par l’enchaînement de milliers d’étapes imprévisibles. Changez faiblement les événements initiaux, si faiblement que cela peut paraître sur le moment n’avoir qu’une minime importance, et l’évolution se déroulera selon une direction toute différente. » Stephen J. Gould, in « la vie est belle, les surprises de l’évolution » Edition du Seuil, collection Sciences).

 

 

 

 

Images

 

1. baleines (sources : regional02.ca)

 

     2. l'ADN et sa double hélice (sources : nature-biodiversite.forumculture.net)

 

3. drosophiles dont l'importance en génétique n'est plus à démontrer (sources :www.pbase.com)

 

4. drosophile mutée : ici, l'individu a deux paires d'ailes mais ce pourrait-être une patte surnuméraire, des ailes vestigiales, l'absence des yeux, etc. (sources : www.inrp.fr)

 

5. représentation 3D d'une protéine (prostaglandine). Une mutation peut modifier la dimension spatiale d'une molécule ce qui la rend incapable de reconnaître secondairement un transmetteur métabolique (sources : www.astrosurf.com)

 

6. le hasard est partout et nulle part (sources : ossiane.blog.lemonde.fr)

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

 

 Mots-clés : baleine (évolution) - Charles Darwin - génétique - théorie de l'évolution - ADN - mutation - sélection naturelle - mouche drosophile - Joseph Thornton (en anglais) - hasard - brassage - dérive ou hasard d'échantillonnage - Stephen J. Gould

(les mots en blanc renvoient à des sites d'informations complémentaires)

 

 

 

 

 Sujets apparentés sur le blog :

 

1. les mécanismes de l'Evolution

 

2. reproduction sexuée et sélection naturelle

 

3. le hasard au centre de la Vie

 

4. la notion d'espèce

 

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

 

l'actualité du blog se trouve sur FACEBOOK

 

 

Mise à jour : 4 juin 2013

 

Partager cet article

Repost0
11 février 2010 4 11 /02 /février /2010 18:56

 
 

 pangee.jpgla Pangée (supercontinent de l'époque permienne)
 

 
 

La vie de notre planète s’est étalée sur des centaines de millions d’années au cours desquels l’aspect de la croûte terrestre s’est profondément modifié au point qu’il serait impossible de reconnaître les contours actuels des continents dans ceux prévalant à des époques plus anciennes. Quand on sait l’aspect apparemment immuable des limites continentales actuelles qui ne varient que de quelques centimètres par an, on comprend que les millions d’années que nous évoquons représentent des durées de temps impossibles à concevoir réellement par le cerveau humain. C’est au cours de ces mêmes millions d’années que l’évolution des êtres vivants s’est faite et, là aussi, ces incroyables durées de temps expliquent comment les transformations successives des unes et des autres espèces ont abouti, à partir de quelques cellules rudimentaires, à la diversité actuelle.

 

Souvent lorsqu’on évoque le mot évolution, plus ou moins inconsciemment, on pense à une amélioration, à un « progrès » : il s’agit là d’une idée fausse ; grâce à la sélection naturelle, l’évolution permet seulement la transformation des espèces par une adaptation permanente à des conditions de milieu qui changent sans cesse, par hasard et sans but précis. La dérive des continents participe à ces transformations en modifiant géographiquement les niches géologiques. En modelant les paysages, elle permet – ou non – le développement et l’évolution des espèces vivantes. Longtemps ignorée, voire raillée par certains, cette notion fondamentale est la découverte d’un seul homme - on pourrait dire aussi d’un homme seul - : l’Allemand Wegener. Evoquons un peu sa vie avant d’aborder ses théories.

 

 

Alfred Wegener (1880-1930)

 

Fils d’un pasteur allemand, Alfred Wegener s’intéressa précocement à l’astronomie, une discipline qui lui permit de soutenir sa thèse. Toutefois, il wegener.gifse tourna assez rapidement vers une science nouvelle à cette époque : la météorologie. Désirant prospecter et expérimenter « sur le terrain », il s’obligea à suivre un entrainement physique intensif, notamment dans les sports nordiques (ski, patin à glaces, raquettes). En 1906, il battit d’ailleurs le record du monde de vol en ballon tandis qu’il participa la même année à une première expédition d’exploration et d’étude au Groenland qu’il retrouvera quelques années plus tard lors d’une seconde expédition (1912). A partir de 1908, il commença à donner des cours à l’université de Marbourg (où il a passé son doctorat), en Hesse, ce qui lui permit de réfléchir à la météorologie et aux conditions de son développement, encore balbutiant à l’époque. En 1915, il publia son livre sur la dérive des continents (qui lui vaudra, comme nous le verrons par la suite, de très nombreuses critiques de la part de la communauté scientifique). Il maintint néanmoins ses positions et accepta sa nomination en tant que professeur de météorologie à Graz (Autriche) en 1924 où il lui sembla être mieux accueilli. En 1930, il repartit pour une troisième expédition, toujours à caractère météorologique, mais celle-ci se termina mal : on récupéra son cadavre gelé dans son sac de couchage tandis que son compagnon d’infortune, Rasmus Willumsen, demeura introuvable. Wegener avait à peine cinquante ans et n’aura pas vu le triomphe de sa théorie…

 

 

L’hypothèse de Wegener

 

Pour asseoir sa théorie, Wegener affirmait qu’il avait « des preuves » indirectes très sérieuses mais on devrait plutôt dire qu’il s’agissait de déductions fondées sur l’observation. Le point de départ probable de sa réflexion a dû être (comme elle le fut pour beaucoup d’autres scientifiquesglobe_terrestre_jordglob_lumineux-copie-1.jpg qui ne s’aventurèrent pourtant pas plus loin) cette observation, cette constatation presque, qui frappe toute personne observant de près un globe terrestre (par exemple un de ceux que l’on offre aux enfants afin d’éclairer doucement leur table de travail tout en les habituant à la carte de la Terre) : on remarque effectivement un parallélisme troublant entre les côtes nord et sud-américaines et celles de l’Europe et de l’Afrique, comme s’il s’agissait de deux morceaux d’une même terre qui aurait été brisée en deux… Troublant, certes, mais insuffisant : il n’y a bien sûr pas que cela et les arguments de Wegener sont en fait au nombre de quatre.

 

 

a. la similitude du découpage des côtes entre continent américain et européen/africain

 

On vient de l’évoquer et il faut reconnaître que les cartes parlent d’elles-mêmes. Pour Wegener, il n’y a pas de doute : ces terres étaient jadis réunies ; il évoque un « supercontinent », la Pangée, qui sous l’effet d’une « force » qui reste à déterminer s’est scindée en ces différents blocs continentaux que l’on connait aujourd’hui.

 

 

  b. Les variations climatiques anciennes se retrouvent de part et d’autre

 

  Il s’agit essentiellement des glaciations passées. Jusqu’à Wegener, il existait des incohérences : on avait trouvé des traces de glaciations vieilles de 250 millions d’années dans des endroits se trouvant sous les tropiques et cela posait problème. En revanche, si les continents « bougent », qu’ils migrent tout au long du globe, on peut alors supposer que certaines régions actuellement en zone tropicale ont pu se trouver au niveau des pôles par le passé.

 Il existait aussi une autre bizarrerie : certaines des traces de l’écoulement de ces glaces anciennes se dirigent vers lintérieur des continents ce qui n’est pas logique ; toutefois, si ces terres se trouvaient jadis au pole, leur migration expliquerait alors le sens de ces écoulements glaciaires en périphérie de l’ancienne calotte polaire

 

 

c. L’observation de la faune fossilisée

 

Antérieurement et jusqu’à la jonction du paléozoïque (ou ère primaire) et du mésozoïque (ou ère secondaire) et plus précisément entre permien et cynognathus.jpgtrias, vers -250 millions d’années, une faune bien particulière a vécu, laissant enfouis dans les strates correspondantes de nombreux fossiles. On trouve ce type de fossiles (ainsi que des plantes de cette époque) de part et d’autre de l’océan tandis que – étrange hasard – les différentes lignées d’animaux commencent à diverger à partir de cette date pour se différencier ensuite fortement de part et d’autre de l’Atlantique : cela ne veut-il pas dire qu’il y a eu séparation de ces terres à partir de ce moment-là ?

 

 

d. Similitude des ensembles géologiques

 

Lorsqu’on compare les couches géologiques des continents situés en regard, de part et d’autre de l’océan atlantique, on retrouve les mêmes ensembles géologiques, les mêmes répartitions de roches, les mêmes couches sédimentaires. Plus encore, ce qui est vrai pour les côtes l’est aussi pour l’intérieur des terres ce qui argumente fortement en faveur de la Pangée, le supercontinent cher à Wegener.

 

Eh bien, allez-vous me dire, la cause semble relativement facile à défendre et la démonstration plutôt concluante ; du coup, on comprend mal que Wegener n’ait pas été suivi par la communauté scientifique internationale. Mais c’est qu’il existe un écueil de taille pour ses opposants : le scientifique allemand peine à expliquer comment un phénomène de dérive si considérable (rien de moins que l’ensemble des terres émergées de la planète !) a pu se produire : quelle force colossale, quel phénomène gigantesque pourrait-il être impliqué dans tout cela ? Au fond, disent les détracteurs de Wegener, cette théorie repose sur des observations en définitive assez grossières, des supputations, des spéculations, des hypothèses mais on n’y trouve guère de preuves tangibles et surtout pas d’explication crédible de l’origine du phénomène…

 

Wegener va donc s’acharner à trouver une interprétation logique mais la science de l’époque n’a pas encore les moyens de l’explication car on y ignore tout de la convection magmatique (dont on parlera un peu plus tard). Dès lors, il doit se rabattre sur des mécanismes plus ou moins vraisemblables : finalement, il impute cette dérive aux cycles lunaires et plus précisément à leurs marées. Les scientifiques qui étudient sa théorie – notamment le géophysicien britannique Harold Jeffreys, une des références de l’époque - n’ont aucun mal à réfuter son explication en démontrant qu’elle est physiquement impossible.

 

La mort de Wegener survenant tôt dans sa carrière scientifique fait oublier sa théorie et il faudra attendre presque 40 ans pour qu’elle refasse surface.

 

 

La tectonique des plaques

 

C’est Arthur Holmes, en 1945, qui avancera enfin une explication plausible à la dérive des continents : il parle pour la première fois de convection2.jpgmouvements de convection dans le manteau terrestre. Toutefois, il faudra attendre encore un peu pour emporter la conviction des différents acteurs : en 1962, l’officier de marine américain Harry Hess (explication par le « double tapis roulant »), puis un peu plus tard l’américain Morgan, le britannique McKenzie et le français Le Pichon permettent de finaliser ce que l’on appelle aujourd’hui la théorie synthétique de la tectonique des plaques.

 

Plusieurs modèles successifs ont été avancés dont le principe commun est assez voisin. Résumons en quelques lignes le modèle actuel (probablement assez proche de l’éventuel modèle définitif).

 

Les terres émergées sont évidemment solidaires de leur sous-sol immédiat et forment avec eux des plaques dites tectoniques qui fluctuent en fonction des mouvements du manteau terrestre, c’est-à dire de la couche intermédiaire entre la croûte terrestre et le noyau de la planète. Ces plaques vont donc interagir avec le manteau et on décrit trois types principaux de mouvements :

 

  * des divergences : on appelle ainsi le mouvement de plaques s’éloignant les unes des autres et c’est à leur point de contact que se trouvent les dorsales (sortes de rides ou de plis de la croute terrestre), lieux propices à de grandes éruptions volcaniques ;

 

      * des convergences : c’est le phénomène inverse, à savoir l’écrasement d’une plaque contre une autre (phénomène évidemment compensateur d’un élargissement des océans à un autre endroit du globe). On distingue alors des zones de subduction (une plaque « plonge » sous une autre comme, par exemple, la côte occidentale de l’Amérique du sud), des zones de collision (deux plaques se heurtent de plein fouet comme pour l’Himalaya) et des zones d’obduction mais il n’y a pas de zones de ce type actuellement actives.

 

              * et des transcurrences (ou coulissage) : ici, deux plaques glissent l’une contre l’autre.

 

  Bien entendu, à chaque type de contact correspondent des failles, c’est-à dire des zones de rupture, des lignes de fracture parfois immenses entre deux masses rocheuses. Une des plus célèbres est la faille de San Andreas, à la jonction des plaques du Pacifique et de l’Amérique qui a déjà provoqué des séismes dévastateurs en Californie (d’ailleurs, les habitants de Los Angeles et de San Francisco s’attendent en permanence au « tremblement de terre suprême », le Big Earthquake, dont on pense qu’il a plus de 99% de se produire dans les 30 ans à venir).

 

plaques-tectoniques-copie-1.jpg

La Terre n’est donc certainement pas statique ; bien au contraire, elle est le lieu de nombre de phénomènes majeurs qui bouleversent considérablement son écologie générale : je pense, par exemple, au récent tremblement de terre de Haïti – Haïti se trouve à la jonction des plaques tectoniques nord-américaine et caraïbe – qui fit tant de morts il y a quelques semaines. Or ce n’est pas le seul tremblement de terre (ou éruption volcanique) majeur survenu ces dernières années : on comprend donc les modifications considérables subies par la croûte terrestre durant tous ces millions d’années.  La connaissance du phénomène de la tectonique des plaques couplée aux moyens d’observation de la science moderne dans différentes disciplines nous permet à présent de reconstituer l’aspect de notre planète durant les ères géologiques précédentes.

 

 

Reconstitution du passé

 

Pour revenir à l’époque où la Terre ne recélait qu’un seul immense continent, la Pangée, il faut remonter à la fin du permien (qui est la dernière époque du paléozoïque ou ère primaire) : on se trouve alors vers - 250 millions d’années par rapport à aujourd’hui ; remarquons qu’il s’agit d’un temps très très ancien puisque, par exemple, l’Amérique et l’Afrique sont à cette époque encore soudées l’un à l’autre (or, nous l’avons déjà dit, les mouvements concernés ne représentent que quelques cm par an). Pourtant, il faut ramener cette durée de temps (250 millions d’années) à l’âge de la Terre qui est de 4,5 milliards d’années, soit environ 18 fois plus…

 

La Pangée est bien entendu le fruit de regroupements antérieurs de plusieurs masses continentales qui se sont rapprochées et éloignées durant les millions d’années précédents en une sorte de ballet incessant depuis le refroidissement de surface définitif de notre planète.

 

Nous sommes donc au permien et il existe un supercontinent, la Pangée, entouré d’un océan gigantesque, le Panthalassa (qui deviendra bien plus tard l’océan pacifique) et d’un autre océan à l’est, Thétys, formé danspangee-au-trisassique-tardif.jpg le creux de la Pangée elle-même puisque celle-ci forme une sorte d’énorme croissant. Bien que progressif et lent, ce mouvement de formation du supercontinent ne peut pas être sans conséquence sur la Vie : la longueur des bandes côtières va diminuer de façon importante or c’est à cet endroit que se concentrent beaucoup d’espèces marines ; inversement, le centre du supercontinent, loin des côtes, voit se développer d’immenses déserts plutôt hostiles. Troublante coïncidence : c’est à la fin du permien que survint une des plus terribles extinctions de masse : 90% de la vie marine et 70% des espèces terrestres furent anéanties (voir le sujet : extinctions de masse). Comme dans ces films policiers qu’on voit à la télévision, les coïncidences en sont rarement et, ici aussi, il y a gros à parier que la formation de la Pangée fut pour beaucoup dans l’évolution de la Vie sur Terre.

 

Cette Pangée va bientôt (?) se scinder à son tour : l’Amérique se sépare de l’Europe et de l’Afrique dans un grand mouvement qui entraîne les terres vers l’équateur et vers l’ouest. L’Australie (vers le Pacifique) et l’antarctique se détachent, suivis de Madagascar et de l’Inde qui effectue une remontée vers l’Asie à travers ce qui sera un jour l’océan indien. L’océan atlantique se forme puis s’élargit en raison de la migration plus rapide des plaques américaines. Peu à peu, les différentes migrations des continents finissent par former la configuration que nous connaissons aujourd’hui. Signalons le cas particulier de la mer Méditerranée qui, lors de la rencontre de l’Afrique et de l’Europe il y a 5 millions d’années, a été fermée ce qui a rendu le climat local extrêmement hostile avec un assèchement complet des eaux : une configuration anéantie quelques milliers d’années plus tard par l’ouverture du détroit de Gibraltar à partir duquel l’océan atlantique s’est à nouveau déversé sur ces terres arides… Ce n’était pas une évolution obligatoire et on peut se rendre compte de ce que l’éventualité de la non-ouverture du détroit de Gibraltar aurait coûté à nos civilisations humaines…

 

 

L’accélération du temps par l’Homme

 

En évoquant ces bouleversements de la configuration de notre bonne vieille Terre (en tout cas pour ce qui concerne sa surface), bouleversements qui, bien sûr, continuent (dans quelques millions d’années, par exemple, l’Afrique aura plongé sous l’Europe), j’ai souvent insisté sur les durées, immenses, qui ne sont guère à la portée du cerveau humain. Il est clair que, si par le moyen d’une machine à voyager dans le temps du type de celle de M. Wells, l’un d’entre nous se trouvait projeté dans une quelconque des époques que je viens d’évoquer (et qu’il puisse y survivre), il ne verrait évidemment aucun changement de son vivant : pour lui, les cartes terrestres qu’il dresserait seraient aussi immuables que les nôtres le sont pour le temps présent. Cette vérité persiste même à l’échelle de quelques milliers d’années… Pourtant, Homo sapiens  bouleverse la planète, non pas sur des milliers mais sur une ou deux centaines d’années ! Il déforeste, construit des barrages, des canaux, des villes immenses, multiplie inconsidérément sa population ce qui demande de plus en plus de surfaces cultivables, transforme les sous-sols pour toujours plus d’exploitation et de profit, pollue l’atmosphère, installe partout des machines et accumule les déchets. En quelques dizaines d’années. Où se situe le point de rupture ? A quel moment la Nature – qui n’est qu’indifférence – penchera-t-elle du mauvais côté ? Voilà d’angoissantes questions qu’il serait temps de prendre en compte, n’est-ce pas ?

 

 

 

 

Complément 1 : Fukushima

 

     La catastrophe japonaise de mars 2011 nous le rappelle : la Terre bouge sans cesse et, de temps à autre, la tectonique des plaques vient perturber dangereusement une situation que nous pensons bien établie. D'où la nécessité absolue de tenir compte des données que nous possédons (nous connaissons assez bien les lignes de fracture terrestres) . En conséquence, les constructions humaines doivent nécessairement être adaptées à cet état de fait. Peut-être, par exemple,  faut-il se résoudre à ne pas édifier de centrales nucléaires dans les pays à risques sismiques connus : les autorités de sûreté nucléaire avaient à plusieurs reprises alerté les autorités japonaises sur les risques encourus. Il n'en a apparemment pas été tenu compte...

 

 Complément 2 : l'Amasie

 

     La Pangée, supercontinent unique, occupait notre Terre il y a 250 millions d'années. Ce n'était pas le seul super continent à avoir été présent sur la planète : avant elle, il y avait eu Rodinia, et, encore avant, Nuna. Puis cette Pangée s'est fragmentée jusqu'à arriver à la géographie morcelée actuelle. Mais les mouvements tectoniques sont toujours à l'oeuvre. Dans un temps encore impossible à déterminer mais qui viendra inéluctablement, un nouveau supercontinent se formera qui regroupera les plaques américaine et eurasienne d'où son nom : l'Amasie. Cette fusion pourrait se produire par "introversion" (et donc à peu près au même endroit que l'ancienne Pangée) ou bien par "extroversion" ce que semblent démontrer les simulations informatiques. Dans cette dernière hypothèse, l'Amasie  serait alors formée à partir de la jonction des plaques américano-eurasiennes et la fermeture de l'océan Arctique, approximativement au niveau du pôle nord.

 

 

 

Photos

 

1.   La Pangée (sources : www.futura-sciences.com/)

2. Alfred Wegener (sources : www.iki.rssi.ru)

3. globe terrestre lumineux (sources : authentic-antiques.com)

4. cynognathus (sources : www.britannica.com)

5. shéma du phénomène de convection magmatique (sources : odyssespace.free.fr)

6. répartition des différentes plaques tectoniques (sources : apocalypse-quebec.com)

7. la Pangée au trias tardif (sources :  forum.rpg.net)

8. le barrage géant des trois gorges en Chine (sources : www.aujourdhuilachine.com)

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

  

 

Mots-Clés : théorie de l'Evolution - sélection naturelle - Alfred Wegener - Pangée - convection magmatique - plaques tectoniques - zones de subduction - zones de collisions - transcurrences - faille de San Andreas - Panthalassa - Thétys

(les mots en blanc renvoient à des sites d'informations complémentaires)

 

 

Articles connexes sur le blog

1. la paléontologie du futur

2. les mécanismes de l'évolution

3. les extinctions de masse

 

 

 Dernier sommaire général du blog : cliquer ICI

 

l'actualité du blog se trouve sur FACEBOOK

 

 

Mise à jour : 23 mai 2013

Partager cet article

Repost0
18 janvier 2010 1 18 /01 /janvier /2010 18:30

 

 

 galaxies-premieres-hubble-2004.jpg

les galaxies primordiales (télescope Hubble, 2004) 

 

 

 

  

     Il y a quelques semaines, grâce à sa nouvelle optique infrarouge, le télescope spatial Hubble a pu prendre des clichés de galaxies situées à 13,1 milliards d’années-lumière, un record… Contempler de tels objets astronomiques, c’est en réalité regarder loin dans le passé – nous l’avons déjà évoqué, notamment dans le sujet distances et durées des âges géologiques – et c'est observer l’Univers tel qu’il était il y a plus de 13 milliards d’années, lorsqu’il venait juste de naître, bien avant l’apparition de notre système solaire. On situe le Big-bang, la création de notre univers, quelque part vers – 13,7 milliards d’années : les galaxies observées par Hubble sont donc parmi les premières à avoir existé. Sait-on comment elles se sont formées et, plus généralement, pourquoi la matière a pris cet aspect, une issue qui a mené à ce que nous sommes aujourd’hui ?

 

 

 

La théorie hiérarchique

 

 

la classification de Hubble

 

     En 1924, Edwin Hubble décrypta pour la première fois dans l’histoire Hubble-telescope-Wilson.gifde l’Humanité la nature exacte des galaxies qu’on appelait encore « nébuleuses » et démontra de façon définitive que ces « halos de lumière » flous et plus ou moins visibles n’appartiennent pas à notre galaxie, la Voie lactée, mais sont situés en dehors d’elle ; en d’autres termes, il avança cette nouvelle incroyable pour l’époque : la matière existe en dehors de notre propre concentration d’étoiles et l’Univers est infiniment plus vaste qu’on ne le croyait. On sait à présent que des galaxies comme la nôtre (qui contient approximativement 150 à 200 milliards d’étoiles), il en existe des milliards ce qui fait beaucoup de matière… mais dans un univers si étendu qu’il est néanmoins composé à plus de 99% de vide !  Fort de sa découverte et du fait qu’il pilotait le télescope du Mont Wilson, probablement le plus performant de ce début du XXème siècle, Hubble commença par classer les objets célestes qu’il venait de découvrir en différentes catégories, s’appuyant sur le seul élément dont il disposait, leur apparence. Il décrivit ainsi des galaxies arrondies baptisées par lui elliptiques, des galaxies avec un disque central ou lenticulaires, des galaxies possédant des bras s’enroulant autour d’un bulbe central ou spirales, certaines d’entre elles barrées dans leur centre, etc. (voir le sujet : les galaxies). Comparant ces objets astronomiques qu’il venait de découvrir, il chercha à systématiser leurs aspects afin de mieux organiser leur classification.

 

 

Le scénario hiérarchique

 

     Bien que passant pour les plus performants de leur époque, les instruments de Hubble étaient encore relativement imprécis et le scientifique avait du mal à apprécier les tailles relatives des différents types de galaxies. Il imagina néanmoins que tous ces objets dérivaient les uns des autres : par exemple, les galaxies elliptiques (qualifiées par lui de « précoces »), devenaient spirales (qu’il désignait comme « tardives ») en acquérant des bras, etc.  Il s’agissait donc d’une approche évolutive, un peu à la manière de celle des êtres vivants.

 

     Par la suite, surtout à partir des années 1960-70, on repensa la classification de Hubble en prétendant au contraire que c’était, par exemple, les galaxies spirales qui, en fusionnant avec d’autres, perdaient leurs bras pour donner une galaxie elliptique mais une chose restait sûre : ces formations découlaient toutes les unes des autres selon une hiérarchisation qui restait à définir de façon formelle. On parla alors de scénario hiérarchique, scénario au sein duquel la fusion entre les galaxies était l’explication principale, le moteur de leur évolution en entités toujours plus importantes. De ce fait, il devenait évident que, en regardant de plus en plus loin dans l’espace (et donc dans le passé) on retrouverait les éléments précurseurs, ces toutes premières galaxies qui devaient être très petites, voire naines, plutôt irrégulières et devant fusionner en grand nombre.

 

 

 

Les observations

 

 

     Jusqu’au début des années 2000, le scénario hiérarchique fait pratiquement l’unanimité des astronomes car il explique assez bien l’apparition des galaxies quelques centaines de millions d’années après le Big-bang.  Depuis les années 70, on sait que contrairement à ce qui était auparavant affirmé, les chocs entre galaxies sont fréquents et on peut en observer avec les instruments de l’époque. En réalité, il existe (comme on l’a déjà souligné) tellement de vide entre les étoiles que lorsque deux galaxies, ces monstres cosmiques renfermant des milliards d’étoiles, se heurtent et s’interpénètrent, il n’existe jamais de chocs frontaux entre étoiles : tout se passe au niveau des attirances gravitationnelles et, de loin, on peut observer la galaxie résultante prendre une configuration différente de celles des galaxies qui l’ont formée : par exemple, deux galaxies spirales en fusionnant perdent leurs bras pour donner naissance à une galaxie géante elliptique, arrondie, dont les étoiles voient leurs trajectoires complètement désorganisées avant d’être « réajustées » par les nouvelles forces gravitationnelles présentes. Je précise que ces phénomènes cosmiques gigantesques dépassent bien sûr la durée des vies humaines et même des civilisations puisque s’étendant sur des millions d’années et que, de « l’intérieur », d’éventuels observateurs ne verraient… rien de particulier, si ce n’est – peut-être – une densité d’étoiles un peu plus élevée qu’attendue.

 

     Puisqu’on peut observer de telles fusions galactiques, comment ne pas imaginer que les premières galaxies se soient ainsi formées par fusions successives pour aboutir aux géantes que l’on connait aujourd’hui, d’autant qu’en ces temps primordiaux, l’Univers était moins étendu, les galaxies plus proches les unes des autres et les fusions forcément beaucoup plus nombreuses ? Un autre argument est en faveur du scénario : les fusions galactiques, si elles ne provoquent pas de catastrophes entre les étoiles déjà formées, entraînent de profonds remaniements dans la répartition et l’état des gaz galactiques avec pour conséquence une explosion de la création d’étoiles, la fusion pouvant être assimilée à une véritable crèche stellaire : voilà comment expliquer la création des premières étoiles, ces soleils aujourd’hui disparus que l’on qualifie d’étoiles primordiales car dépourvues d’éléments atomiques lourds (qui ne pourront apparaître qu’avec les générations ultérieures).

 

     Il subsiste quand même quelques interrogations. La fusion de deux voie_lactee.jpggalaxies conduit à un objet plus gros (c’est la logique qui le veut) où le maximum d’étoiles se retrouve au centre, dans ce que l’on appelle le bulbe galactique (et ça, ce sont les simulations informatiques qui l’ont démontré sans appel). Problème : notre propre galaxie, la Voie lactée, ne renferme que 20% de ses étoiles dans son bulbe et ce chiffre est peu compatible avec un accroissement de taille par fusion… Et notre galaxie est loin d’être la seule ! Il existe même des galaxies aussi grosses que la nôtre qui n’ont pas de bulbe central du tout. Pourquoi ?

 

     En 2004, d’extraordinaires images proviennent du télescope spatial Hubble : celles faisant partie du « Hubble Ultra Deep Field » et qu’on peut observer au début de ce sujet. Les scientifiques constatent une différence considérable entre 700 millions d’années où il n’y a que peu de galaxies et 900 millions d’années où elles sont très nombreuses : quelque chose s’est joué entre ces deux dates. Toutefois, il existe toujours une incertitude : les galaxies observées n’ont pas l’air de fusionner plus qu’aujourd’hui et, surtout, elles ne possèdent pas les gros bulbes (de fusion) qu’elles devraient avoir…

 

     Deux ans plus tard, grâce au plus grand télescope terrestre, le VLT, installé au Chili, des astronomes observent une galaxie plus récente mais quand même fort ancienne puisqu’existant « seulement » trois milliards d’années après le Big-bang or cette dernière ressemble tout à fait à la Voie lactée… sauf qu’elle fabrique bien plus d’étoiles qu’elle. Comment expliquer un tel objet si tôt dans l’Univers ? Ce ne peut pas être le résultat de fusions de galaxies naines car il n’y a pas eu assez de temps pour ça.

     Il y a quelques jours, le 5 janvier 2010, l’équipe du télescope spatial galaxies-premieres-Hubble-2010.jpgautorise la publication d'une extraordinaire photo du ciel lointain (ci-contre) légendée ainsi : « This is the deepest image of the universe ever taken in near-infrared light by NASA's Hubble Space Telescope. The faintest and reddest objects (left inset) in the image are galaxies that correspond to "look-back times" of approximately 12.9 billion years to 13.1 billion years ago. No galaxies have been seen before at such early epochs. These galaxies are much smaller than the Milky Way galaxy and have populations of stars that are intrinsically very blue. This may indicate the galaxies are so primordial that they are deficient in heavier elements, and as a result, are quite free of the dust that reddens light through scattering. » (Il s’agit de la vue la plus profonde de l’Univers jamais prise en lumière infrarouge par le télescope spatial Hubble de la NASA. Les objets rouges et à peine visibles de l’image (insérés à gauche) sont des galaxies qui correspondent à une « vision dans le passé » d’environ 12,9 à 13,1 milliards d’années. Jamais aucune galaxie n’avait été vue à une époque aussi reculée. Ces galaxies sont plus petites que la Voie lactée et possèdent des populations d’étoiles qui sont intrinsèquement très bleues. Ceci pourrait vouloir dire qu’elles sont si primitives qu’elles sont déficitaires en éléments lourds et, de ce fait, pratiquement libres de toute poussière pouvant rougir la lumière par dispersion). Mais, semble-t-il, toujours pas plus de fusions galactiques. Alors ?

  

 

 

Théorie alternative

 

 

     L’image la plus ancienne de l’Univers que l’on possède est celle du rayonnement fossile appelé fonds diffus cosmologique : c’est le témoin de la distribution de la matière juste après le Big-bang (voir sujet : fonds diffus cosmologique).  Toutefois, cette diffusion ne s’est pas faite de façon parfaitement homogène comme en témoigne la répartition des galaxies : celles-ci se distribuent le long de lignes  appelées par les astronomes « filaments cosmiques » qui parsèment l’Univers en une sorte de gigantesque toile d’araignée et entre lesquels il n’y a que du vide. Pour de nombreux scientifiques ces filaments devraient d'ailleurs être composés de cette fameuse matière noire dont, comme l'Arlésienne, ongaz-galactique--rouge-froid-et-bleu-chaud-.jpg parle toujours sans jamais la voir mais il s'agit là d'une autre affaire... Or, selon la théorie du Big-bang, il a existé dans l’Univers primordial des courants « froids » d'hydrogène, en fait des masses de gaz sous l’effet de la gravitation (lorsqu’on dit courants froids, tout est relatif puisque leur température est d’environ 10 000°, à comparer aux millions de degrés des autres courants gazeux en mouvement). On peut penser que ces gaz, plus denses, ont fini par se retrouver  le long de ces filaments cosmiques pour y rencontrer la matière accumulée là et provoquer la formation de très nombreuses étoiles. Ces étoiles se sont ensuite regroupées en des objets plus massifs, les premières galaxies. Cela ne veut pas dire que les fusions du scénario hiérarchique n’ont pas eu lieu mais qu’elles sont moins importantes qu’on le pensait pour l’élaboration de ces premiers groupements d’étoiles.

 

     Cette nouvelle approche, connue sous le nom de « théorie des courants froids » a reçu un début de consécration puisque de nombreuses équipes d’astronomes travaillent sur les simulations induites par cette hypothèse, simulations qui vont bien dans le sens souhaité par la nouvelle théorie… Selon ses défenseurs, la théorie expliquerait la création des ¾ des galaxies jusqu’à l’âge d’environ 6 milliards d’années de l’univers, époque de l’épuisement naturel de ces courants gazeux. A partir de ce moment et jusqu’à aujourd’hui, ce sont les collisions et fusions entre galaxies qui ont pris le relai dans la formation des nouvelles galaxies et étoiles. 

 

     Le successeur du télescope Hubble (le télescope spatial James Webb), attendu avec impatience par la communauté scientifique, apportera sans doute de nouvelles informations sur cet univers si lointain, dans le temps et dans l’espace, et tranchera vraisemblablement de manière définitive entre les deux approches.  Il nous en apprendra certainement beaucoup plus sur les premiers moments de notre univers puisque nous avons la chance que nos télescopes soient, d’une certaine façon, de vraies machines à remonter le temps. On a hâte de le voir à l’œuvre.

 

     Ce qu’il y a, par ailleurs, d’extraordinaire, c’est de constater le fantastique accroissement de nos connaissances ces derniers temps : on dit qu’on a plus progressé en savoir ces trente dernières années que depuis le début de la conscience humaine. La technique et les machines, sans doute, permettent cela mais aussi l’esprit des hommes, de moins en moins dépendant des prisons conceptuelles, des idées toutes faites, des aprioris dogmatiques et des préjugés. Et ça, c’est une bonne nouvelle.

 

 

 

Note : mars 2016 : la plus ancienne galaxie (pour le moment)

 

     Record battu pour le télescope spatial Hubble : il vient de repérer la plus ancienne galaxie jamais observée par l'Homme. Baptisée GN-z11, elle est située à 13,4 milliards d'années de nous et comme on a estimé l'âge de l'Univers à 13,8 milliards d'années, cela veut dire que ce dernier était âgé de seulement 400 millions d'années lorsque l'image de GN-z11 a été émise...

     Le précédent record concernait une galaxie âgée de 580 millions d'années mais il y a gros à parier que le futur télescope spatial James Webb trouvera encore plus loin... En attendant, cette lointaine cousine de la Voie lactée nous confirme que nous ne savons pas grand chose sur les premiers instants de l'Univers.

     En effet, bien que 25 fois plus petite que notre galaxie, GN-z11 en est quand même une "vraie", bourrée d'étoiles jeunes, et les scientifiques sont obligés de revoir leurs modèles de formation des galaxies : ils ne s'attendaient pas à voir un objet si massif si tôt, à peine 200 à 300 millions d'années après la formation des premières étoiles et donc si près du Big bang...

 

(in "le journal du blog de cepheides, 15 mars 2016, sur Facebook - lien ci-après)

 

 

 

Images :

 

1. télescope Hubble 2004 : les premières galaxies

(sources : www.planetastronomy.com)

2. Edwin Hubble et le télescope du Mont Wilson (sources : www.heise.de)

3. classification des galaxies selon E. Hubble (sources : www.astropolis.fr)

4. Fusion de galaxies : Arp87, 300 millions d’al, const. du Lion, février 2007

(sources : alluniversal.blogspot.com)

5. la Voie lactée (sources : www.notre-planete.info)

6. télescope Hubble 2010 (sources : hubblesite.org/newscenter/)

7. gaz galactique : selon le codage retenu, le gaz froid est en rouge et le chaud en bleu (sources :  blogs.lexpress.fr)

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

Mots-clés : télescope spatial Hubble - site du télescope spatial Hubble (en anglais) - fusions galactiques - univers primitif - Edwin Hubble - Big-bang - galaxies - étoiles primordiales - Hubble Ultra Deep Field (en anglais) - VLT (Very Large Telescope) - fonds diffus cosmologique - filaments cosmiques - matière noire - gaz galactiques - télescope spatial James Webb

(les mots en blanc renvoient à des sites d'informations complémentaires)

 

 

 

Sujets apparentés sur le blog :

 

1. matière noire et énergie sombre

2. les galaxies

3. trous noirs

4. pulsars et quasars

5. Big Bang et origine de l'Univers

6. juste après le Big bang

7. les étoiles primordiales

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

 

l'actualité du blog se trouve sur FACEBOOK

 

 

Mise à jour : 15 mars 2016

 

Partager cet article

Repost0
19 décembre 2009 6 19 /12 /décembre /2009 18:29

 

 

 

 

 

 

 

     Aujourd’hui, toute personne s’intéressant quelque peu à l’astronomie ou à la paléontologie sait que la Terre est âgée d’environ 4,5 milliards d’années et qu’elle est née approximativement en même temps que son étoile, le Soleil. Il n’en fut pas toujours ainsi : vers le milieu du XIXème siècle, deux écoles de pensée s’opposaient sur l’âge véritable de notre planète et les congrès scientifiques sur cette question donnaient alors lieu à des disputes parfois violentes, voire à quelques empoignades mémorables ; en effet, les physiciens avançaient l’âge maximal de 50 millions d’années tandis que les géologues parlaient plutôt en termes de centaines de millions d’années (ce qui était également l’opinion de Darwin qui pensait – à juste titre – qu’il fallait beaucoup de temps pour que les espèces évoluent et se transforment). Sans oublier tous ceux qui, appliquant à la lettre les enseignements des textes bibliques – et il y avait parmi eux quelque savants –, ne démordaient pas d’une création de la Terre remontant à environ six mille ans. Cette querelle – il s’agissait effectivement plus d’une polémique et même d’une dispute que d’une simple controverse – dura un demi-siècle ! Ce fut probablement le désaccord le plus long et un des plus virulents ayant jamais opposé des scientifiques de premier ordre et il ne me semble pas inintéressant de revenir sur les arguments des uns et des autres.

 

 

Le point de départ : Charles Lyell

 

     Né en 1797, Charles Lyell se destinait en fait à une carrière de droit mais il était passionné par la géologie qu’il avait toujours plus ou moinsCharlesLyell pratiquée. En 1828, Lyell voyage en Italie et dans le sud de la France : à cette occasion, il étudie diverses couches géologiques et leur trouve une unité en ce sens que ces différentes strates peuvent toutes être classées selon les fossiles d’animaux marins qu’elles renferment. Il en déduit une notion de continuité dans le temps, un temps qui ne peut être que nécessairement assez long. Deux ans plus tard, il commence à publier ses « principes de géologie », un véritable « pavé dans la mare » du catastrophisme qui prévalait à l’époque.

 

     En ce temps-là, en effet, à la suite de Cuvier (et d’autres grands noms), on pensait que la Terre s’était créée très rapidement (en quelques milliers d’années) à cause d’événements violents, catastrophiques (d’où le nom de la théorie) comme, par exemple, le Déluge. Cette approche avait par ailleurs le gros avantage de ne pas brusquer les esprits religieux de ceux qui accordaient à la Bible le statut de témoignage authentique du passé. Lyell comprend qu’il remet en question bien des idées reçues mais il a une certitude : pour obtenir les couches géologiques qu’il a étudiées, il faut du temps et non des événements brutaux. Il redonne alors toute leur place aux idées de James Hutton, un géologue qui, quelques années plus tôt, avait avancé que la Terre s’était formée graduellement et que les éléments qui avaient permis cette création étaient encore présents et actifs. Pour Hutton, la Terre était « infiniment » vieille et il avait appelé sa théorie « uniformitarisme » (ou actualisme), expliquant que les transformations observées des roches et des océans en un endroit précis s’étendaient forcément sur une le déluge par Géricaultdurée de temps obligatoirement fort longue (on ne connaissait pas encore la tectonique des plaques) mais, à l’époque, il ne fut guère écouté. Lyell défendit donc cette approche aux dépens du catastrophisme ambiant et cela devait avoir une grande importance dans la suite des événements.

 

     En effet, quelques années plus tard, Charles Darwin croit reconnaître dans diverses espèces vivantes (mais également disparues) des ressemblances qui ne peuvent s’expliquer que parce que ces espèces dérivent les unes des autres (voir le sujet : les mécanismes de l’évolution). Darwin avait lu avec attention les principes de géologie de Lyell et avait compris ce qu’ils impliquaient : la transformation – ou plutôt l’évolution – des espèces devenait crédible s’il lui était accordé un laps de temps suffisant ce que précisément le catastrophisme ne pouvait pas lui offrir. Après avoir longtemps hésité, Darwin publie « l’origine des espèces » en 1859, non sans insister sur tout ce qu’il doit à Lyell, et le livre entraînera les remous que l’on sait. Darwin, se basant sur une évaluation empirique de l’érosion de la croute terrestre, se risque à avancer pour l’âge de la Terre une date qui lui paraît compatible avec la théorie qu’il défend : 300 millions d’années. Mais devant la levée de boucliers des catastrophistes, dans la seconde édition de son livre, il renonce à donner un chiffre tout en continuant à proclamer que Lyell a forcément raison, ce dernier étant d’ailleurs en retour un des premiers scientifiques de renom à le soutenir.

 

 

La contestation : Lord Kelvin

 

     William Thomson – plus connu sous le nom de Lord Kelvin – était un très célèbre physicien puisqu’il avait – entre autres - donné son nom à une échelle de température absolue : le kelvin (la température de 0 K est égale à -273,15 °C et correspond au zéro absolu). Or, il était très dubitatif quant à la théorie de Darwin et, plus encore, sur les échelles de temps défendues par Lyell : il chercha donc à démontrer que tous ces gens-là se Lord-Kelvintrompaient… Il entreprit de s’appuyer sur les lois de la thermodynamique pour évaluer l’âge de la Terre et, d’emblée, une certitude s’imposa à lui : la Terre et le Soleil devaient être relativement jeunes sinon les deux astres ne seraient plus – et depuis longtemps- que des corps froids et inhabitables ; il était impossible, selon Kelvin, que les géologues aient raison car les chiffres qu’ils proposaient – des centaines de millions d’années – étaient bien trop élevés et, pour tout dire, fantaisistes.

 

     La réputation mondiale de Lord Kelvin était alors telle que les géologues ne purent que s’incliner. Quelques années plus tard, en 1862, Kelvin publia le résultat de ses travaux sur la diffusion de la chaleur dans l’espace qui concluaient à un âge maximal de la Terre ne pouvant en aucun cas dépasser 100 millions d’années. C’était bien peu pour les géologues qui se demandèrent alors s’ils n’avaient pas sous-estimé les caractéristiques physiques de l’érosion de la croûte terrestre et très dérangeant pour un homme comme Darwin qui trouvait que 100 millions d’années, c’était décidément très insuffisant pour expliquer le long cheminement de l’Evolution, mais bon… Seul, Thomas Huxley, ami proche du naturaliste et grand vulgarisateur de la théorie de l’Evolution, n’accepta jamais les conclusions du physicien, estimant que celui-ci devait forcément se tromper quelque part mais sans pouvoir dire où, ni de quelle manière… Il demeura toutefois bien seul sur sa position et les chiffres de Kelvin finirent par s’imposer au point que même Lyell retira ses propres estimations de la réédition de ses « principes de géologie ». Darwin quant à lui rectifia, certes à contrecœur, certains passages de ses livres afin de prendre en compte une vitesse d’évolution des espèces bien plus rapide qu’il ne l’avait primitivement estimée.

 

     En 1897, lord Kelvin publia de nouveaux travaux avec des calculs plus affinés qui concluaient à des chiffres encore plus petits : 20 à 40 millions d’années pour l’âge de la Terre ! C’était assurément un démenti définitif aux chiffres avancés par les tenants de l’authenticité biblique mais qui était loin de faire le bonheur des géologues et des Darwiniens. L’affaire en resta là jusqu’au début du siècle suivant et, la chose est assez rare pour être signalée, c’est à un physicien que l’on devra la levée de l’interdit jeté par un autre physicien…

 

 

La solution : Ernest Rutherford

 

     C’est en effet un physicien qui va apporter les éléments de résolution Rutherford_1908.jpgde cette querelle entre les géologues (et naturalistes) et les représentants de sa discipline… en donnant raison au camp opposé !  Cet homme providentiel est un Néo-zélandais travaillant en Angleterre et s’appelant Ernest Rutherford. Aujourd’hui, Rutherford est reconnu comme le père de la physique nucléaire mais à cette époque il n’en était encore qu’au commencement de sa prodigieuse carrière.

 

     Nous sommes au tout début du XXème siècle et le Français Pierre Curie travaille depuis quelque temps sur le radium ; il se rend compte que, compte tenu de la petite taille des échantillons observés, ce corps dégage une chaleur sans commune mesure avec ce à quoi on aurait pu s’attendre. Rutherford arrive à la même conclusion quelques mois plus tard. Or, on savait que la Terre était très riche en ce type d’éléments ; dès lors, une évidence s’impose : notre planète possède le moyen de conserver sa chaleur et, contrairement à ce que défend Lord Kelvin depuis des années, elle ne se refroidit pas ou, en tout cas, seulement extrêmement lentement. Rutherford est à présent convaincu que la Terre est capable de conserver sa chaleur durant des millions d’années grâce à la radioactivité naturelle et, bien sûr, cela change tout ! Cet extraordinaire dégagement de chaleur, explique Rutherford, a une explication parfaitement logique puisqu’elle est la conséquence de la désintégration naturelle de certains atomes comme le thorium sur lequel il a longtemps travaillé et, bien sûr, le radium. Au début, cette découverte choque chimistes et physiciens pour lesquels, jusqu’à ce jour, il ne pouvait être question de destruction de la matière mais les travaux de Rutherford sont sans appel et, bientôt, tous se rendent à l’évidence (Pierre Curie mettra deux ans). En 1903, âgé seulement de 32 ans, Rutherford entre dans le cercle fermé des découvreurs de génie et reçoit une prestigieuse récompense, la médaille Rumford, décernée par la Royal Society.

 

     C’est donc tout naturellement que, l’année suivante, il se rend à Londres terre-coupe 2pour participer à un congrès sur l’âge de la Terre… en présence de Lord Kelvin en personne. Il n’a aucun mal à expliquer pourquoi le vieux physicien s’est trompé : ce dernier a tablé sur une dissipation progressive de la chaleur originelle sans savoir qu’il en existait une importante source au centre de la Terre : les lois de la thermodynamique ne peuvent donc pas s’appliquer telles quelles. Les géologues (et les partisans de la théorie de l’Evolution) avaient donc eu raison sans le savoir !

 

     Lord Kelvin assista à la démonstration de Rutherford et aux débats qui s’ensuivirent mais jamais il n’accepta l’idée que la Terre pouvait être aussi âgée que le démontrait son jeune confrère car c’était admettre l’ouverture tant recherchée par les évolutionnistes, or, à cela, Lord Kelvin ne pouvait se résoudre tant il détestait l’idée même des travaux de Darwin. Quelques scientifiques continuèrent à soutenir sa position, plus par respect pour leur vieux maître que par conviction véritable, mais à sa mort, en 1907, on oublia définitivement ses calculs sur l’âge de la Terre. Les géologues avaient enfin trouvé l’explication de ces superpositions de strates qui les avaient tant intrigués et les Darwiniens le support scientifique nécessaire à la transformation des espèces dont ils avaient toujours été certains sans pouvoir le prouver.

 

 

L’âge de la Terre aujourd’hui

 

     Les recherches sur l’âge réel de la Terre se sont poursuivies au fil des années. En 2002, des études portant sur des corps radioactifs rares comme l’hafnium et le tungstène ont encore repoussé l’origine de notre globe de quelques dizaines de millions d’années : on pense à présent que la Terre (et d’autres planètes) s’est constituée plus tôt et plus rapidement qu’on le croyait, probablement dans les 30 à 40 millions d’années du début du système solaire ce qui la fait arriver à un âge total de 4,6 milliards d’années, Soleil et planètes s’étant formées au quasi même moment. L’explication la plus probable est celle de l’explosion à cette époque d’une supernova proche dont l’onde de choc serait en quelque sorte venue « fertiliser » le nuage de gaz qui se trouvait à l’emplacement de notre système solaire actuel pour donner naissance, par agrégation progressive, à notre étoile, une naine jaune à longue durée de vie, et à son cortège de planètes. C’était il y a 4,6 milliards d’années et, pourtant, notre planète est toujours chaude comme en témoignent notamment les volcans qui, de temps à autre, viennent réveiller les consciences humaines. C’était il y a suffisamment longtemps pour que la Vie ait pu apparaître sur Terre, se diversifier et donner naissance au monde que nous connaissons aujourd’hui.

 

 

 

 

Images

 

1. du nuage protosolaire  au système solaire (sources : lamaisondalzaz.com)

2. Charles Lyell (1797-1875) (sources : cosmology.tistory.com)

3. le Déluge, par Géricault (musée du Louvre) (sources : lettres.ac-rouen.fr)

4. Lord Kelvin (1824-1907) (sources :  www.universitystory.gla.ac.uk)

5. Ernest Rutherford (1871-1937) (sources :   commons.wikimedia.org/wiki)

6. coupe de la Terre (sources :  geothermie.tpe.free.fr)

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

Mots-clés : Charles Lyell - catastrophisme - Georges Cuvier - James Hutton - uniformitarisme - tectonique des plaques - Charles Darwin - Lord Kelvin (William Thomson) - lois de la thermodynamique - Thomas Huxley - Ernest Rutherford - désintégration atomique 

(les mots en blanc renvoient à des sites d'informations complémentaires)

 

 

Articles connexes sur le blog

1. les mécanismes de l'évolution

2. distances et durées des âges géologiques

3. le rythme de l'évolution des espèces

4. la dérive des continents ou tectonique des plaques

5. origine du système solaire

 

 

 Dernier sommaire général du blog : cliquer ICI

 

l'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 28 mai 2013

Partager cet article

Repost0
7 décembre 2009 1 07 /12 /décembre /2009 16:38

 

 

 

 

 

 

     Dans les années 20, un cataclysme considérable bouleversa le petit monde jusque là protégé de la physique fondamentale : l’irruption de la mécanique quantique. De quoi s’agissait-il ? Tout simplement de la remise en cause du caractère déterministe des phénomènes physiques avec l’introduction dans le domaine subatomique du hasard pur et dur. En d’autres termes, alors que dans le monde physique du visible (le nôtre de tous les jours) chaque action est connue pour être produite et déterminée par une action préalable, on affirmait tout à coup que dans le domaine de l’infiniment petit (à l’échelle de l’atome), c’était le seul hasard qui régissait la succession des événements… Impossible à croire ? Pourtant,  les équations étaient formelles et jamais la mécanique quantique n’a depuis été prise en défaut ; plus encore, elle a contribué à la réalisation d’extraordinaires outils tout en décryptant certains phénomènes jusque là inexplicables…  (voir le sujet : mécanique quantique). Aujourd’hui, plus aucun scientifique ne remet en cause cette physique bien particulière et cela même si on a du mal à l’accorder avec la théorie de la relativité générale d’Einstein.

 

     Or, en ce début de siècle (ou de nouveau millénaire, c’est comme on voudra), voilà que la question semble à son tour se poser… pour la biologie. Quoi, la science du vivant serait, elle aussi, sous le joug – au moins partiellement – du pur hasard ? Faut-il voir dans cette affirmation une provocation de quelques scientifiques en mal de notoriété ou, au contraire, d’une piste sérieuse pour expliquer les mécanismes régissant la Vie ? Explication.

 

 

Retour (rapide) sur la physique fondamentale

 

     C’est en 1927 que Heisenberg avance son « principe d’incertitude » (ou principe d’indétermination), c'est-à-dire l’affirmation selon laquelle on ne peut pas connaître en même temps la vitesse et la position d’une particule : dans le monde subatomique, on ne peut parler qu’en termes de probabilité, les objets ayant des comportements aléatoires, théoriquement imprévisibles à l’échelle de l’unité. Il s’agit là d’une notion bien difficile à comprendre : comment un objet ne peut-il « qu’éventuellement » être là ? Schrödinger utilisa une métaphore demeurée célèbre pour tenter de « visualiser » le concept, celle de son chat : on en trouvera une description en fin de l’article sur la physique quantique. Quoi qu’il en soit, les équations sont sans équivoque : à ce niveau d’organisation, c’est le hasard qui détermine la présence (ou l’absence) à un endroit donné de l’objet subatomique. Mais alors, me direz-vous, si c’est vrai,  comment se fait-il que ma main ne traverse pas la table sur laquelle je m’appuie car plus rien n’est possible si les particules se trouvent n’importe où ? La réponse tient dans la quantité : s’il est impossible de savoir si une particule est là plutôt qu’ailleurs, ce n’est plus vrai si l’on considère un nombre suffisant d’entre elles : en grande quantité, et bien qu’ayant une conduite individuelle aléatoire, il est possible de décrire un comportement statistique probabiliste de l’ensemble des particules : on ne peut pas savoir où se trouve une particule donnée (le hasard) mais on peut parfaitement définir la position d’un grand nombre d’entre elles (probabilité). En somme, on obtient l’ordre (le comportement de l’ensemble) à partir du désordre (le comportement au hasard de chacune des molécules prises isolément). Bon, mais que vient faire la biologie dans tout ça ?

 

     Eh bien, certains scientifiques se demandèrent aussitôt s’il était possible d’appliquer cette notion de « comportement aléatoire » aux molécules du vivant, ou plutôt à leurs constituants. Puis, après avoir bien réfléchi, tous conclurent que cela n’était pas possible parce que la génétique nous apprend qu’il n’existe, par exemple chez l’Homme, que 46 chromosomes, un nombre bien trop petit pour que des comportements « aléatoires » deviennent par la suite probabilistes… Quelques années passèrent… jusqu’à ce qu’on reconsidère la génétique cellulaire.

 

 

La compréhension de la génétique cellulaire progresse

  

     On comprend de mieux en mieux ce qui se passe, par exemple, au cours de l’embryogénèse, c'est-à-dire lors de la formation du fœtus. Bien sûr, à première vue, tout semble relever du déterminisme, c’est-à dire d’un programme préétabli avec un ordre immuable : on sait à présent qu’il existe sur les chromosomes des gènes régulateurs dont la fonction est de coder des protéines elles-mêmes régulatrices qui vont agir sur les cellules embryonnaires afin de leur faire quitter leur état indifférencié et les spécialiser, ici en cellules d’os, là en cellules du sang, là encore en cellule de pancréas, etc. Le fonctionnement de ces gènes est le suivant : des protéines régulatrices spécifiques vont se fixer sur un gène précis d’un chromosome et induire la formation d’enzymes qui vont copier ce gène sous la forme d’un transporteur (ARN-messager et ARN de transfert). Cette copie sort du noyau cellulaire et toute la petite machinerie cytoplasmique de la cellule va construire la protéine spécialisée qui n’aura plus qu’à agir sur son organe-cible. Impossible, semble-t-il, de faire plus déterministe !

 

     A y bien réfléchir, toutefois, la description de ce type d’action cellulaire est forcément déduite d’un ensemble de cellules puisque les techniques ne sont pas assez précises (du moins jusqu’à peu) pour examiner ce qui se passe dans une seule. De ce fait, ce que l’on observe est considéré comme représentatif de chacune des cellules auxquelles on attribue donc un mode d’action forcément identique mais est-ce bien la réalité ? Car, lorsqu’on examine avec attention les protéines régulatrices que l’on vient d’évoquer, on se rend compte qu’elles ne se déplacent que par leur seule diffusion, de façon désordonnée et aléatoire, et que, de plus, elles sont plutôt en nombre restreint : comment peuvent-elles bien rencontrer à chaque fois la copie du gène présente dans la cellule ? La réponse est simple : la rencontre – quand elle a lieu – relève du hasard ! Et pour une cellule donnée, impossible de prévoir ce qui va se passer : action complète, partielle ou pas d’action du tout… Pourtant, on sait bien que les actions biologiques ont lieu, que l’embryogénèse, pour reprendre cet exemple, suit un ordre bien précis, alors ? Nous revenons à ce que nous a appris la physique fondamentale : les cellules agissent de façon aléatoire à leur échelle individuelle mais leur très grand nombre rend parfaitement plausible la probabilité de l’action considérée… Mais… n’a-t-on pas dit, avec les physiciens, en début de sujet, que 46 chromosomes (pour l’Homme), c’était insuffisant pour permettre notre calcul probabiliste ? Voyons cela de plus près.

 

 

Richesse des constituants biologiques

 

     Comme pour la physique subatomique qui concerne des particules aussi nombreuses que variées, on peut décrire à présent un « infiniment petit » biologique également fort riche en entités diverses. C’est vrai, la cellule humaine ne contient dans son noyau que 46 chromosomes constitués d’ADN enroulé en double hélice. Toutefois, cet ADN est lui-même composé de corps simples appelés bases (puriques ou pyrimidiques) au nombre de quatre : cytosine, guanine, thymine et adénosine. Leur agencement et leur répétition dans un ordre précis va composer une espèce de code (le code génétique) qui, lu par des organites spécialisés tels que les ARN, va induire la formation de telle ou telle protéine. Chaque fragment indépendant de code est un gène. Soit mais encore ? Chez l’Homme, il existe environ 25 000 à 30 000 gènes actifs ce qui représente une moyenne d’un peu moins de 1000 gènes par chromosome (inégalement répartis en quantité puisque certains chromosomes sont plus gros que d’autres). On estime que ces gènes dits codants (puisqu’ils peuvent être « lus » et donc entraîner une action) représentent à peu près 3 à 5 % de l’ADN humain ; disons-le autrement : 95 % des chromosomes de l’Homme sont constitués de « gènes illisibles », les bases se succédant dans un désordre qui ne veut rien dire, en tout cas pour les cellules humaines présentes. Nous avons donc dit environ 25 000 gènes actifs susceptibles d’être codés par un ARN. Or, cet ARN peut subir à son tour un épissage (des remaniements) aboutissant à la fabrication de plusieurs ARN différents donc de plusieurs protéines… On le voit, au niveau cellulaire, beaucoup d’intervenants et beaucoup de mécanismes différents… et on s’étonne presque, si l’on est un déterministe farouche, qu’il n’y ait pas plus d’erreurs dans ces milliards de cellules qui vivent en symbiose.

 

 

Hasard et sélection naturelle

 

     C’est vrai : il est très difficile de s’imaginer que les mécanismes ultra précis et si élaborés de la vie cellulaire puissent relever du seul hasard… Et pourtant ! De plus en plus de scientifiques ont la certitude que c’est bien lui qui ordonne le domaine biologique de base. Comme pour les protéines inductrices déjà citées, l’essentiel des opérations biologiques se déroule au hasard, un hasard qui est partout présent au niveau moléculaire. Pourquoi ? Parce que les actions moléculaires dépendent de facteurs changeants et imprévisibles comme le cheminement des molécules au sein d’un milieu variable et dans des endroits divers, la modification des facteurs environnementaux, l’état général de l’organisme dans son ensemble, etc. Et, pensent certains, c’est la sélection naturelle qui va écarter ou retenir telle ou telle molécule en fonction du lieu, de son action favorable ou non, de la période de temps considérée, etc.

 

     Le hasard, donc, est ici omniprésent mais un hasard plus ou moins organisé selon le niveau où on l’observe : total pour la molécule individuelle… mais prédictible à l’échelon cellulaire. Et on pense réellement que c’est vraiment possible, ça ? Sans aucun doute. Je repense au célèbre exemple de la pièce de monnaie ; on la lance une fois en l’air et il est impossible de savoir avec certitude de quel côté elle tombera : vous aviez parié sur pile ? Eh bien, vous avez une chance sur deux de gagner… ou de vous tromper. A présent, lançons la pièce plusieurs centaines de fois et c’est tout l’inverse : on s’aperçoit qu’elle tombe à peu près 50% des fois sur pile et 50% des fois sur face, un phénomène parfaitement prévisible. Transposons-le, ce phénomène, en biologie : une molécule seule ne permet pas de savoir ce qui va se passer mais s’il existe beaucoup de molécules – comme dans une cellule – eh bien on peut deviner à quoi on peut s’attendre ! Fort bien mais a-t-on des preuves de tout ça ?

 

 

Que disent les observations récentes ?

 

     Depuis une vingtaine d’années, on commence à comprendre que le hasard intervient dans le fonctionnement cellulaire et de nombreux articles scientifiques s’en font l’écho. Par ailleurs, les observations de l’activité individuelle des cellules se multiplient parce que, à présent, nous possédons la technique qui les autorise. Or, les résultats sont formels : pour l’expression d’un gène donné, certaines cellules vont le synthétiser parfaitement, d’autres pas du tout et d’autres partiellement : en réalité, tous les intermédiaires existent… Le gène sera finalement actif si, à l’échelle de la population des cellules, l’action conjuguée de beaucoup d’entre elles atteint un certain seuil, le seuil de déclenchement.

 

 

Qu’en conclut la communauté scientifique ?

 

     Comme toujours – et j’oserai dire que c’est tant mieux – les scientifiques sont divisés : au fond, il n’y a finalement rien de pire qu’un avis unanimement partagé et que nul ne peut remettre en cause. Pour une majorité de biologistes, s’il est incontestable que le hasard intervient dans la grande machinerie du vivant, celui-ci reste pour eux finalement marginal. Il est vrai qu’il semble a priori difficile de remettre en cause le caractère déterministe des phénomènes biologiques. Pour d’autres, encore minoritaires, le hasard a une place bien plus importante qu’on veut bien le reconnaître et, pour eux, nombre de phénomènes en apparence parfaitement organisés sont plus le résultat d’actions probabilistes, la conséquence d’une sorte de hasard organisé.  Cette situation, en apparence contradictoire, n’est pas sans rappeler les années 1920 lorsque, comme je l’ai déjà mentionné, la mécanique quantique envahissait une partie de la physique fondamentale jusqu’alors terriblement déterministe… En réalité, les scientifiques ne sont peut-être pas si éloignés qu’ils le croient les uns des autres car si l’on y réfléchit vraiment, le fait qu’un événement se produise avec certitude (déterminisme) peut être également décrit comme une chance de probabilité toute proche de 1 : en pareil cas, le déterminisme ne serait qu’un cas particulier du probabilisme…

 

 

 

Images

 

1. table de roulette (sources :  www.animationcasino.com/)

2. le chat de Schrödinger (sources : www.astrosurf.com/)

3. duplication de l'ARN - image Wikipedia (sources :  www.colvir.net/)

4. cellule embryonnaire humaine se développant sur une couche de fibroblastes (sources :  www.maxisciences.com/)

5. calculer une probabilité : la machine de Babbage au XIXème siècle, ancêtre de l'ordinateur (sourvces :  impromptu.artblog.fr/)

6. le hasard... mais organisé ! (sources : sleemane-plat-tunisien.blogspot.com/)

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

Sources et documents

 

* Wikipedia France (http://www.wikipedia.fr/index.php)

* La Recherche (http://www.larecherche.fr/)

* Science & Vie (http://www.science-et-vie.com/)

* CNRS (http://www.cnrs.fr/)

* INSERM (www.inserm.fr/ )

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

Mots-clés : hasard - déterminisme - mécanique quantique - relativité générale - principe d'incertitude de Heisenberg - Erwin Schrödinger - ARN messager - cellule - bases puriques et pyrimidiques - gène codant - épissage - sélection naturelle - probabilisme scientifique

(les mots en blanc renvoient à des sites d'informations complémentaires)

 

 

 

 Sujets apparentés sur le blog :

 

1. mécanique quantique

2. pour une définition de la Vie

3. les mécanismes du cancer

4. la mort est-elle indispensable ?

 

 

 

 Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 21 mai 2013

Partager cet article

Repost0
11 novembre 2009 3 11 /11 /novembre /2009 18:52

 

 

 

taches solaires en 2001 (sources :  www.journaldunet.com/)

 

 

 

 

 

 

     Chaque jour et depuis à présent de nombreuses années, des astronomes professionnels mais aussi des amateurs éclairés, répartis sur les cinq continents, évaluent le nombre et l’étendue des taches solaires. Ils déterminent ainsi l’indice RI ou « nombre relatif international de Wolf » qui, corrélé à d’autres mesures (photographiques, électriques, etc.) permet en fait de quantifier l’activité solaire. Toutefois, depuis quelques mois, les observateurs se heurtent à un problème de taille : les taches solaires ont disparu ! Phénomène plutôt inhabituel puisqu’il faut remonter à un peu avant la guerre de 14-18, voire au XVIIe siècle, pour retrouver un tel événement : des mois entiers durant lesquels aucune tache n’est visible… On peut donc se poser une double question des plus légitimes : pourquoi une telle anomalie et, d’abord, ces fameuses taches, c’est quoi au juste ?

 

 

 

 

Origine des taches solaires

 

 

 

Le Soleil, nous avons déjà eu l’occasion de le dire dans des sujets précédents,  est de type spectral G2–V. Quand on le regarde, on lui reconnaît une couleur jaune tirant sur le blanc : il est en réalité plus chaud que la moyenne des étoiles de sa taille puisqu’il accuse environ 5800 kelvins à sa surface, soit 5527 °C (rappelons que la température de son centre, siège des réactions nucléaires, est de l’ordre bien plus élevé de 15 600 000 kelvins). C’est pour cette raison qu’il est classé G2 tandis que la lettre V signifie simplement qu’il est toujours (et pour longtemps) situé sur la séquence principale du diagramme de Hertzsprung-Russell des étoiles (voir le sujet : mort d’une étoile). La majeure partie des étoiles de notre galaxie, la Voie lactée (et probablement de toutes les autres galaxies), sont des naines rouges, donc moins chaudes que le Soleil (classé comme une naine jaune) mais, au total, il existe des millions d’étoiles semblables à lui ce qui en fait un astre parfaitement banal. Mais ces taches (que l’on peut voir sur l’image d’introduction) me direz-vous ?

 

Sur un corps incandescent, une tache signifie simplement que l’endroit est (relativement) plus froid que le reste du corps : on peut le voir par exemple dans une fonderie où les barres d’acier possèdent pour certaines d’entre elles et à certains moments des taches sombres qui tranchent sur le jaune rougeoyant du reste. Pour le Soleil, c’est pareil : les taches sont donc des zones (légèrement) moins chaudes mais pourquoi ?

 

Il y a quelques années (en 2001), le satellite d’observation SOHO est venu confirmer ce que l’on soupçonnait : une tache solaire est une espèce d’immense tourbillon (certaines taches sont grandes comme des dizaines de Terre) où le gaz situé à la surface du Soleil plonge vers l’intérieur à des vitesses de plusieurs milliers de km à l’heure. On sait depuis longtemps que le Soleil est le lieu de gigantesques champs magnétiques et ce sont eux qui enserrent les flux de gaz venant de son cœur et y retournant d’où l’apparition de zones moins chaudes, les taches. Ces taches sont donc variables en tailles et en durées, ces dernières pouvant s’étendre sur plusieurs jours ou semaines. Il existe comme on va le voir des cycles d’activité solaire qui rythment l’aspect de ces taches mais une chose est certaine : leur disparition totale durant des mois entiers est très inhabituelle.

 

 

 

 

 Cycles solaires

 

 

 

Depuis bien longtemps, les astronomes ont voulu caractériser l’activité solaire, notamment en cherchant à savoir si celle-ci se répétait à termes réguliers, un peu comme il existe un faux « cycle solaire » chaque année (les saisons) dû en fait à la révolution terrestre. Il faudra attendre l’astronome suisse Johann Wolf (1816-1893) – celui du nombre relatif international déjà cité – pour en avoir la certitude : c’est le premier à avoir réussi à quantifier cette activité en comptant les fameuses taches. Précisons toutefois que ces dernières étaient connues depuis fort longtemps : les astronomes chinois et grecs de l’antiquité en parlent dans leurs différents ouvrages mais c’est Galilée qui, grâce à sa lunette astronomique, les observera de façon plus complète.

 

Ces taches sont, on l’a dit, le lieu d’une intense activité magnétique et un endroit rendu moins chaud que le reste de la surface solaire. Elles évoluent en groupes plus ou moins importants qui, peu à peu, se rapprochent de l’équateur solaire jusqu’à changer de polarité et inaugurer ainsi le cycle suivant. Chacun de ces cycles dure approximativement 11 ans (en fait entre 8 et 15 ans) mais puisque les polarités – on vient de le dire – s’inversent à chaque fois, on peut parler de cycle complet tous les 22 ans. Bien, voilà pour la description mais que peut-on en conclure sur l’activité de notre étoile, activité dont on sait l’importance à notre échelle et à celle de notre planète ?

 

Contrairement aux idées reçues sur son caractère immuable, le Soleil passe donc par différentes périodes de plus ou moins grande vigueur : on sait que son maximum d’activité correspond à la partie du cycle solaire où existe un maximum de taches ; c’est à ce moment là que les éruptions solaires sont les plus fréquentes et que ses protubérances (les projections de matière depuis sa surface) sont les plus intenses. De nombreuses émissions de rayons (ultraviolets, ondes radio, rayons X) sont contemporaines de ces épisodes d’hyperactivité et cela peut avoir des conséquences importantes pour la Terre avec notamment des perturbations dans les communications (le cauchemar des gestionnaires de satellites), voire même dans les transports aériens. Mais au-delà ? Sur le climat, par exemple ? La question est difficile et pas encore tranchée. Voyons déjà si le passé nous apprend quelque chose.

 

 

 

 

 Irrégularités du passé

 

 

 

Lorsque l’on se penche sur les chroniques météorologiques (ou sur ce qui en faisait office) dans le passé, on s’aperçoit qu’un important changement climatique a été décrit entre le XVIème et XIX siècle sous le nom de petit âge glaciaire.

 

 

·              Le petit âge glaciaire : il s’est étendu approximativement des années 1550-1580 aux années 1850-1860. Il s’agit d’une période de climat froid, notamment décrit en Europe et en Amérique du nord (ce n’est pas une surprise) mais qui a touché le globe dans son entier. En réalité, il semble que cette période ait même commencé plus tôt, les hivers ayant été particulièrement rigoureux, dit la chronique, depuis le XIIIème siècle. On assiste alors à une considérable avancée des glaces et à des phénomènes spectaculaires : on marche à pied sur la Tamise gelée en 1607 et sur la Seine durant 35 jours de suite en 1777 (cette dernière gèlera 24 fois entre 1740 et 1859 mais plus aucune fois - sauf erreur - depuis 1891). En 1709, la méditerranée est gelée à Marseille et à Gènes. Le 21 janvier 1795, au Helder, la cavalerie française de Pichegru s’empare de la flotte hollandaise bloquée par les glaces et durant l’hiver de 1780, à New York, on allait à pied sec (ou plutôt à pied gelé) de Manhattan à Staten Island ce qui, pour ceux qui connaissent, est plutôt difficile à faire aujourd’hui. Autant de signes montrant que, durant ces quelques siècles, il a fait froid, très froid… Bon, mais quel rapport avec les taches solaires ?

 

 

·                Les minimums solaires : plusieurs minimums d’activité solaire ont été décrits durant les phases les plus extrêmes du petit âge glaciaire que je viens de mentionner. Il en existe trois : le minimum de Spörer (1420-1570), celui de Maunder (1645-1715) et celui de Dalton (1790-1830). Durant le minimum de Maunder, l’activité magnétique du Soleil a pratiquement disparu durant près de 70 ans sans qu’on ait la moindre idée de la cause. C’est durant ces périodes de moindre activité solaire que des phénomènes bien particuliers ont été décrits : par exemple, durant le minimum de Dalton (30 ans de moindre activité solaire), la station allemande d’Oberlach qui suivait les phénomènes climatiques a décrit une baisse moyenne des températures de 2° sur une durée de plus de 20 ans… 

 

 

Quelles conclusions peut-on tirer de ces rapprochements entre le refroidissement du climat et les minimums d’activité solaire ? Précisément que, par un mécanisme encore mal connu, le Soleil a une influence probablement importante sur le climat terrestre même s’il n’est pas seul : des éruptions volcaniques ou des diminutions de courants océaniques sont également évoqués. On ne peut toutefois pas s’empêcher d’avancer deux hypothèses d’origine solaire : une variation du rayonnement et la modulation par le vent solaire des rayons cosmiques. Quelles proportions pour les uns et les autres ? On ne sait pas vraiment.

 

 

 

 

 La situation actuelle

 

 

 

Depuis 1761 on suit et on compte les cycles solaires. En 2008 s’achevait avec son minimum le cycle 23 ; dès lors devait commencer le cycle 24 avec la montée en puissance progressive de l’activité solaire qui culminerait avec son cortège de protubérances, de maxima magnétiques, de taches, etc. sauf que… il ne s’est rien passé ; on a eu beau scruter, rien à se mettre sous la dent : pas de tache, pas de début de reprise de cycle. Bon, se sont dit les astronomes, tout cela n’est pas bien grave et le Soleil n’est pas un ordinateur, il a quelques irrégularités : tout repartira en 2009 ! Mais au début d’octobre 2009,  le soleil totalisait déjà 8 mois sans la moindre tache… Pourtant, les spécialistes expliquent que le cycle 24 a bien débuté puisque, dans les très rares régions actives pouvant être surveillées, l’inversion des champs magnétiques a bien eu lieu en janvier 2008…

 

Le cycle en cours semble donc différent des précédents et on ne sait pas quand redémarrera pleinement l’activité magnétique solaire. A en croire la presse spécialisée, il y a même des astronomes qui prédisent la disparition programmée des taches solaires vers 2015 car leurs températures, par insuffisance de champ magnétique, augmentent peu à peu jusqu’à les faire se confondre avec le reste de la surface. Alors, disparition des taches solaires pour longtemps ? Mais, au fait, cela s’est déjà produit… durant les minimums de Maunder et de Dalton notamment… avec les conséquences sur le climat que l’on a décrites : le refroidissement général.

 

 

Nous ne savons pas si les taches solaires vont disparaître durablement et, avec elles, survenir une moindre activité de notre étoile. Seul l’avenir (assez proche) pourra nous renseigner mais une chose est sûre : si c’est le cas, si nous approchons d’un nouveau minimum, ce ne sera pas forcément mauvais pour notre planète en ces temps de réchauffement climatique !

 

 

 

 

 

 

Complément : le retour des taches solaires (février 2010)

 

      En ce mois de février 2010, depuis plusieurs jours, on peut à nouveau observer quelques taches solaires, signe d'une reprise normale du cycle solaire. Aucun scientifique ne semble en mesure d'expliquer les raisons de ce retard de près de trois ans, ni si cette reprise sera véritablement durable. En tout état de cause, on peut penser que le maximum d'activité prévu pour 2012 ne sera probablement pas à la hauteur de celui de 2001 (en raison, précisément, de ce retard) : nous le verrons bien en temps et en heure, de la même façon que nous saurons rapidement si la reprise d'activité actuelle est durable ou un simple épiphénomène. Patience, patience... comme toujours !

 

 

... et le nouveau cycle solaire (mai 2013)

 

 

     Par comparaison avec les cycles solaires antérieurs rapportés par les chroniques des sociétés savantes, il est tout à fait possible d'estimer l'activité solaire à venir. Le spécialiste des taches solaires David Hattaway (de la NASA) pense que le cycle actuel, le numéro 24, sera probablement centré sur mai 2013 et, du coup, que la période de ce cycle sera de 13 ans (donc 26 ans au total). On peut dès lors faire une estimation du cycle 25 qui suivra et qui devrait être de 19 ans avec un maximum en 2032. En replongeant dans les tables, on s'aperçoit que le cycle 24 actuel est très semblable à celui des années 1799 à 1810 (cycle 5), en intensité et en période. Le cycle suivant devrait donc être le plus faible depuis 200 ans et, toujours selon Hattaway, nous nous dirigerions alors vers un minimum de Dalton (voir plus haut, dans l'article)...

 

 

 

 

Images

  

 

1. taches solaires en 2001 (sources : www.journaldunet.com/)

2. planète tournant autour d'une naine rouge : il s'agit bien sûr d'une vue d'artiste...  (sources : lecosmographe.com)

3. champ magnétique solaire (sources : irfu.cea.fr)

4. protubérance solaire (sources :  www.cea.fr/)

5. la Seine gelée en 1891 (sources : www.meteopassion.com )

6. un soleil... sans taches (sources :  blog.syti.net )

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

 

 Mots-clés :  indice de Wolf - type spectral stellaire GV-2diagramme de Hertzsprung-Russell - naine rouge - naine jaune - satellite SOHO - champ magnétique solaire - cycles solaires - petit âge glaciaire - minimums de Spörer, Maunder, Dalton 

(les mots en blanc renvoient à des sites d'informations complémentaires)

 

  

 

 

  

 Sujets apparentés sur le blog :

 

1. mort d'une étoile

 

2. origine du système solaire

 

3. la couleur des étoiles

 

 

  

 

Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 20 mai 2013

Partager cet article

Repost0
18 octobre 2009 7 18 /10 /octobre /2009 18:24

 

  

 

 

 

 

          Dans son livre princeps « L'origine des espèces »,  Charles Darwin évoque le rythme de l’évolution, c’est-à dire la transformation graduelle des espèces au fil du temps. Pour lui, le rythme de cette transformation ne peut être que lent, certainement progressif mais de façon presque imperceptible et surtout constant sur des centaines de siècles. Un problème, néanmoins, le préoccupe : lorsqu’on fouille le sol à la recherche des fossiles correspondants, on trouve toujours des spécimens en apparence fixés, bien différents les uns des autres (et ce même pour des lignées qui sont manifestement issues d’une même origine), sans ces formes qui témoigneraient des subtiles et minuscules transformations prédites par la théorie : en réalité, tout se passe comme si l’évolution procédait de façon suffisamment rapide pour ne pas laisser de traces intermédiaires fossiles. Quand on l’interroge sur cette apparente contradiction, Darwin répond toujours de la même façon : « les chaînons manquants n’ont tout simplement pas encore été découverts… ». En 2009, pourtant, nous en sommes pratiquement toujours au même point et si quelques unes de ces formes dites intermédiaires ont été mises en évidence pour certaines espèces bien précises, cela ne représente qu’une infime partie de ce à quoi nous aurions dû nous attendre. Où sont donc ces fossiles censés démontrer les transformations progressives des espèces ? Le naturaliste anglais se serait-il trompé ? Comment explique-t-on l’évolution aujourd’hui ?

 

 

 

Pour expliquer l’évolution trois théories se différencient… et se complètent

 

 

* Le gradualisme, tout d’abord, est la théorie explicative issue de ce que l’on appelle le néodarwinisme ou théorie synthétique de l’évolution, c'est-à-dire l’adaptation au Darwinisme de la redécouverte de la génétique (voir le sujet les mécanismes de l’évolution). Suivant en cela Darwin lui-même, de nombreux auteurs s’en réclament, expliquant donc que l’évolution des espèces ne peut être que lentement progressive, la Nature – par l’intermédiaire de la sélection naturelle – ne modifiant les êtres vivants que par petites touches. Et ce n’est qu’après des centaines de siècles qu’on peut s’apercevoir de l’apparition de différences profondes entre les parents ancestraux et leurs lointains descendants.

 

Cette approche conceptuelle s’oppose au « catastrophisme » qui prévalait jusqu'à la révolution darwinienne, une théorie qui soutenait, à la suite notamment des textes religieux, que les espèces avaient été créées en une seule fois (sous-entendu par Dieu) et détruites, au moins pour certaines d’entre elles, de la même manière (par exemple à l’occasion d’un déluge, d’un formidable tremblement de terre ou d’une apocalypse). Précisons que le catastrophisme est le témoin d’une époque où l’on n’avait aucune notion des temps géologiques : on pensait alors que la Vie avait été créée en sept jours et, selon l’étude des textes sacrés, que la Terre n’avait pas 4,5 milliards d’années comme on le sait aujourd’hui mais seulement… 4004 ans.

 

De fait, prenant en compte l’immensité des âges géologiques (que représente pour l’esprit humain une durée de plusieurs milliards d’années alors qu’il a déjà tant de mal à intégrer ce que signifie deux ou trois milliers d’années ? A ce sujet, on trouvera quelques réflexions s’y rapportant dans l’article : distances et durées des âges géologiques), le gradualisme explique de façon convaincante que des fossiles datés de millions d’années peuvent être les ancêtres de formes actuelles d’êtres vivants. Reste néanmoins le problème déjà évoqué : pourquoi ne trouve-t-on presque exclusivement que des spécimens, certes apparentés, mais ayant les uns par rapport aux autres des différences morphologiques et adaptatives le plus souvent très marquées ? Pourquoi n’existe-t-il pas, si l’évolution est si progressive,  de fossiles seulement séparés par des différences mineures? 

 

 

* Les équilibres ponctués : en 1972, Stephen J. Gould et Nils Eldredge prennent à contre-pied la position officielle en remettant en cause le gradualisme ; pour ces deux auteurs, jugés immédiatement iconoclastes, si on ne trouve pas les chaînons manquants tellement recherchés, c’est tout bêtement parce qu’ils n’existent pas ! S’appuyant sur la faune de Burgess dont on a déjà parlé (voir le sujet le schiste de Burgess), Gould explique qu’il existe des espèces qui disparaissent par hasard, sans raison apparente, alors qu’elles sont aussi bien armées pour survivre que les autres : elles sont alors probablement victimes de mauvais concours de circonstances (géographiques ou événementiels par exemple) qu’il est bien difficile de reconstituer par la suite. Il s’agit là d’une sorte de « catastrophisme biologique ».

 

 De la même façon, si toutes les espèces évoluent, selon Gould, cette évolution ne serait pas progressive mais par à-coups : il existerait de longues phases dites de stagnation durant lesquelles rien ne se passerait puis, soudainement, l’apparition d’une période de transformation très rapide (moins de 100 000 ans à comparer aux millions d’années sans réels changements). L’évolution, en somme, procéderait de façon saccadée, intermittente, et conduirait en peu de temps à ce que l’on appelle des spéciations, c’est-à dire des transformations intraspécifiques si importantes que les animaux en résultant ne pourraient plus s’apparier avec leurs ancêtres immédiats d’où l’apparition de nouvelles espèces.

 

 

* Cas particulier du saltationnisme : il s’agit en fait d’une théorie encore plus radicale que celles des équilibres ponctués que l’on vient d’évoquer et avec laquelle on la confond volontiers. Pour son créateur (un généticien autrichien des années 40), l’acquisition d’un caractère nouveau peut se produire sur quelques dizaines d’années, en l’espace de quelques générations tout au plus. Comment cela serait-il donc possible ? Par l’apparition de mutations soudaines et imprévisibles… Bien des scientifiques pensent que des mutations surviennent assez fréquemment chez les êtres vivants mais que, pour l’immense majorité d’entre elles, elles n’entraînent aucune conséquence (on dit alors qu’elles sont neutres) tandis que d’autres – très désavantageuses pour le sujet – sont dites délétères en ce sens que l’individu qui en est porteur n’est pas viable. Restent quelques mutations favorables… et transmissibles susceptibles d’engendrer une nouvelle lignée, différente de celle du départ : une nouvelle espèce est alors apparue.

 

Inutile de préciser que, lorsqu’ils entendirent pour la première fois évoquer cette théorie, les gradualistes sourirent (pour ne pas dire qu’ils se moquèrent férocement, ce qu’ils firent aussi avec le ponctualisme de Gould). Depuis, de l’eau a coulé sous les ponts… et des découvertes biologiques majeures sont venues à la rescousse du saltationnisme.

 

En effet, pour qu’une mutation brutale soit suffisamment importante, il faut qu’elle porte sur un élément de base de l’individu : justement, on a depuis quelques années mis en évidence des gènes du développement (comme les gènes homéotiques ou gènes hox qui sont responsables de la mise en place des organes mais il y en d’autres) qui interviennent dans  l’organisation de tout un segment du futur individu ; se pourrait-il alors qu’une mutation portant sur ce type de gène organisateur fondamental puisse entraîner l’apparition soudaine d’individus complètement différents ?

 

Il est en fait probable que tout le monde a tort et a raison en même temps : on pense aujourd’hui qu’une grande partie de l’évolution des espèces se fait de façon progressive au long des millénaires par de petites touches successives,  un peu à la manière d’un peintre pointilliste à son chevalet. Mais il a bien fallu – pour reprendre cette comparaison – que l’artiste jette à un moment ou à un autre les grandes lignes de ce qu’il peint : c’est ici qu’intervient la théorie des équilibres ponctués, et peut-être aussi le saltationnisme et, au fond, pourquoi pas ? 

 

 

 

Un rythme évolutif variable selon les espèces

 

Cette transformation des espèces au fil du temps est différente selon celles que l’on étudie ; pour le comprendre, prenons deux exemples extrêmes :

 

* le cœlacanthe : il s’agit d’un poisson très « archaïque », dernier représentant des crossoptérygiens, au point qu’il fut lors de sa découverte baptisé « véritable fossile vivant ». Étant apparu au dévonien, période du milieu de l’ère primaire (ou paléozoïque), tous les scientifiques pensaient qu’il avait disparu avec les dinosaures, au crétacé, à la fin de l’ère secondaire (ou mésozoïque). Imaginez la surprise de la scientifique qui en trouva un exemplaire vivant (enfin, mort depuis peu) en 1938 ! On en trouva un autre en 1955, puis plus récemment une colonie entière en 1998, du côté des Comores… Par comparaison avec les nombreux fossiles de cœlacanthes que l’on possède, on a pu se rendre compte que les différences entre ceux-ci et les exemplaires actuels étaient somme toute minimes : cet extraordinaire poisson que l’on croyait disparu depuis 65 millions d’années avait très peu évolué et si différences il y a, elles restent faibles. Un parfait représentant pour les gradualistes ;

 

* le VIH (virus du SIDA) : bien que certains scientifiques se demandent si les virus sont bien des êtres vivants, on peut leur accorder, me semble-t-il, ce statut puisque qu’ils se reproduisent avec un matériel génétique qui est bien le leur même s’ils ont besoin d’une cellule-hôte pour se répliquer. Or les virus mutent rapidement : on sait, par exemple, que le virus de la grippe n’est pas tout à fait le même d’une année sur l’autre au point qu’il faut chaque fois recommencer une vaccination préventive… Le virus du SIDA est, de ce point de vue, une sorte de champion toutes catégories puisqu’il mute sans cesse, parfois au sein d’un même malade. C’est tellement vrai qu’encore aujourd’hui on est bien incapable de réaliser un vaccin susceptible d’empêcher sa prolifération. Alors, des mutations si rapides ne rappellent-elles pas le saltationnisme mentionné plus haut ?

 

D’une espèce  à l’autre, comme on vient de le voir avec ces deux exemples, le rythme de l’évolution est variable. Pour l’Homme, il est clair qu’il se situe loin de ces deux extrêmes. S’il est certain qu’il n’existe aucune différence (sauf d’ordre culturel évidemment) entre un homme du 21ème siècle et un Romain du règne d’Auguste, d’éventuelles différences sont probablement moins importantes qu’on ne le croit avec des ancêtres plus lointains comme ceux qui vivaient à l’aurignacien, une époque préhistorique d’il y a environ 35 000 ans. Il faut remonter à des centaines de milliers d’années pour voir des différences significatives entre les hominidés de cette époque et les hommes d’aujourd’hui.

 

 

 

Facteurs intervenant dans le rythme de l’évolution

 

Ils sont vraisemblablement nombreux et la plupart d’entre eux restent mal cernés. Ce que l’on peut dire est que la Vie, quelle qu’elle soit, est une constante adaptation à un environnement forcément changeant. D’ailleurs, certains auteurs ont expliqué qu’une trop grande stabilité conduisait inexorablement à la régression et à la mort. C’est sans doute vrai mais une trop grande fluctuation des éléments environnementaux conduit aussi à un résultat identique et, aujourd’hui même, il est difficile d’apprécier les conséquences sur la faune et la flore terrestres d’un éventuel (et rapide) réchauffement climatique : de nombreuses espèces, stables depuis des centaines de milliers d’années, n’y survivraient probablement pas ! On pourrait donc résumer cela de la manière suivante : de la stabilité, certes, mais pas trop…

 

Quels sont donc ces facteurs qui influent sur le rythme de l’évolution ? Très certainement tous les événements « imprévisibles » et rapides : les modifications de l’environnement, que ce soit un réchauffement climatique et ses conséquences physiques (montée des océans, déplacement des zones désertiques, des forêts, etc.) ou une glaciation qui entraîne des effets inverses. Ailleurs, ce sera une catastrophe naturelle comme les grandes éruptions volcaniques du passé ou bien la météorite qui, il y 65 millions d’années, provoqua la disparition des grands sauriens en percutant la péninsule du Yucatan. A chaque fois que se produit ainsi une aggravation du stress environnemental et que les conditions changent notablement, cela entraîne inévitablement une augmentation de la pression de sélection et des espèces entières sont menacées ou détruites… tandis que d’autres, jusque là presque invisibles, profitent de la niche écologique qui se libère pour se développer à leur tour. Il a existé ainsi par le passé de grandes extinctions d’espèces, dites « de masse » (voir le sujet les extinctions de masse) et, chaque fois, celles-ci ont été suivies par une explosion de nouvelles espèces ou la transformation rapide d’espèces existantes ce qui, on l’a dit, est la même chose. Voilà qui va dans les sens des théories évolutives comme les équilibres ponctués chers à Gould.

 

Mais il n’en reste pas moins que l’aspect physique de la Terre change peu au cours du temps (du moins jusqu’à l’apparition de l’Homme) et, pourtant, les espèces vivantes se transforment petit à petit : voilà qui va dans le sens du gradualisme des néodarwiniens.

 

 

La Nature est aveugle : à la façon de ces petits mammifères qui cherchent leur chemin en creusant la Terre, bifurquant à chaque fois qu’un obstacle se présente mais toujours prompts à choisir la voie la plus économique, elle permet l’évolution de toutes les espèces vivantes, faune et flore réunies, comme en témoignent les traces plus ou moins bien fossilisées que l’on retrouve en creusant le sol de notre planète. La plupart de ces espèces viennent d’un passé si lointain que l’esprit humain peine à en saisir l’immensité. D’ailleurs, quatre-vingt dix neuf pour cent des espèces ayant un jour colonisé la Terre ont aujourd’hui disparu. Les survivantes s’adaptent sans cesse grâce à la sélection naturelle qui privilégie les plus performantes mais peut-être aussi grâce au hasard le plus pur (voir le sujet : le hasard au centre de la Vie). Il est encore difficile aujourd’hui de dire selon quelles proportions se distribuent l’évolution lente et graduelle et l’évolution ponctuelle par à-coups mais une chose est certaine, cette évolution existe et c’est elle qui permet de décrypter le monde tel qu’on le connaît aujourd’hui et de nous permettre ainsi de le comprendre et de le respecter.

 

 

 

 

Images

 

1. cœlacanthe (sources : forumfr.com )

2. catastrophisme : l'apocalypse (sources : merryswankster.com/)

3. les schistes de Burgess, Canada britannique (sources  : flickr.com/photos/12570566@N06/1325556680/)

4. un type de spéciation (sources :  www.colvir.net)

5. autre cœlacanthe (sources :  www.plongeur.com/)

6. la fin des grands sauriens (sources : newsoftomorrow.org )

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

Mots-clés : Charles Darwin - gradualisme - néodarwinisme - théorie synthétique de l'évolution - sélection naturelle - catastrophisme - théorie des équilibres ponctués - Stephen J. Gould - Nils Eldredge - schistes de Burgess - spéciation - mutation - gènes du développement - saltationnisme - cœlacanthe - VIH - stress environnemental - pression de sélection - extinctions de masse - hasard biologique

(les mots en blanc renvoient à des sites d'informations complémentaires)

 

 

 

Sujets apparentés sur le blog :

 

1. les extinctions de masse

2. les mécanismes de l'Evolution

3. distances et durées des âges géologiques

4. le hasard au centre de la Vie

5. la querelle sur l'âge de la Terre

6. la dérive des continents ou tectonique des plaques

7. l'Evolution est-elle irréversible ?

 

 

 

 

Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

Mise à jour : 23 avril 2013

Partager cet article

Repost0
24 septembre 2009 4 24 /09 /septembre /2009 18:06

 

 

 

 

 

 

 

  

     La pandémie de grippe A avance à son rythme, qui est rapide : on en parle tous les jours à la télévision et dans les journaux. Certains de nos compatriotes semblent par avance terrorisés, d’autres affectent de traiter l’affaire par le mépris, d’autres encore hésitent, doutent, s’interrogent. La cacophonie atteint son paroxysme lorsqu’on évoque l’éventuelle vaccination : s’agit-il d’une étape indispensable dans l’éradication du virus ou d’une opération de marketing sciemment organisée par l’industrie pharmaceutique ? Les Pouvoirs publics s’impliquent-ils autant parce qu’ils possèdent des informations tenues secrètes ou, suite à l’effet canicule de 2003, « ouvrent-ils le parapluie » pour se protéger d’éventuelles critiques à venir ? Face à tant d’incertitude, voire d’incohérence, sur un problème pourtant sérieux, essayons d’y voir un peu plus clair.

 

 

 

 

Intérêt et limites de la vaccination en pathologie virale

 

     Rappelons tout d’abord qu’une campagne de vaccination est une opération préventive destinée à empêcher la diffusion d’un agent – ici un agent viral – à l’ensemble d’une population et surtout aux personnes fragiles (dites « personnes à risques ») que ce soit en raison de leur âge ou d’une affection dont ils sont porteurs. Car, on l’a déjà écrit dans un sujet précédent (voir sujet : grippe A(H1N1), inquiétudes et réalités), il n’existe pas de traitement curatif en cas d’affection virale : la prévention paraît donc une attitude logique. Sauf que cela dépend de la maladie en cause : le vaccin – on le verra – n’est jamais un acte totalement anodin (même s’il est en principe très bien toléré) et risquer un effet indésirable même simplement potentiel pour une maladie somme toute banale est discutable. La première des exigences est donc d’évaluer les risques encourus par la population en cas d’infection, ici par le virus H1N1, et c’est là que cela devient compliqué : la maladie est nouvelle (en tout cas pour la majorité des gens actuellement vivants) et on a du mal à apprécier sa dangerosité. Y a-t-il moins de risques en vaccinant ou en ne faisant rien ? Première interrogation.

 

 

 

 

Fabrication d’un vaccin : le cas de la grippe A

 

     Dans une vaccination, le but est d’obtenir une certaine quantité d’antigènes dont l’innocuité est certaine mais qui, injectée à un organisme vivant, est susceptible d’entraîner de sa part une réaction de rejet par son système immunitaire ; dès lors, lorsque l’organisme sera en contact avec le vrai virus, l’organisme « reconnaîtra » l’élément étranger et s’en débarrassera avant que ce dernier ne cause de dégâts. Voilà pour la théorie. Cette approche s’est trouvée légitimée dans bien des maladies, soit non virales comme le tétanos ou la diphtérie, soit virales comme la rage ou la grippe saisonnière (dite grippe habituelle car nous la voyons se manifester chaque année au début de l’hiver). On sait par ailleurs qu’il faut plusieurs mois pour fabriquer un vaccin de qualité (c'est-à-dire efficace et sans danger) et, dans le cas de la grippe saisonnière, c’est bien ce qu’il se passe habituellement puisque le vaccin est fabriqué durant les 6 mois de période chaude de l’hémisphère considérée.

 

     La donne est différente avec la grippe A puisque nous nous trouvons ici dans l’urgence (la pandémie est en marche) pour fabriquer un vaccin pour la première fois avec ce type de souche virale. Et ce d’autant que ce n’est pas aussi simple qu’avec la grippe habituelle. En effet, selon les souches incriminées, la réaction du système immunitaire est variable : par exemple, pour la grippe habituelle, pas de problème et il ne faut qu’une toute petite quantité d’antigènes pour obtenir la réaction de défense de l’organisme (probablement parce que des souches voisines ont déjà circulé les années précédentes). C’est tout le contraire avec la grippe aviaire H5N1 (ou la souche H7N9 qui frappe la Chine en 2013) : ce virus entraîne très peu de réactions de défense de la part du système immunitaire, un peu comme s’il n’était pas reconnu pour ce qu’il est ; or, il s’agit d’un tueur impitoyable puisqu’il entraîne la mort plus d’une fois sur deux. Il est donc impératif pour une vaccination efficace de rendre le système immunitaire « sensible » au virus H5N1 et, pour ce faire, on doit le « stimuler » avec des produits appelés adjuvants : nous y reviendrons. Et la grippe A(H1N1) dans tout ça ? Elle occupe, semble-t-il, une position intermédiaire. Au début de l’épidémie, on a eu l’impression que son immunogénicité ressemblait à celle de la grippe aviaire (c'est-à-dire très faible) puis, au fur et à mesure qu’on en a su un peu plus, on s’est rendu compte que cette immunogénicité devait être meilleure que supposée au début et que, en définitive, la reconnaissance du virus (ou de sa fraction antigènes) était nettement plus forte que pour la grippe aviaire. Dès lors, on peut se poser la question de la nécessité de renforcer la reconnaissance du virus par le système immunitaire, donc de l’utilité d’adjuvants dans le vaccin. Deuxième interrogation.

 

 

 

Les adjuvants sont-ils indispensables dans le vaccin contre la grippe A ?

 

     Comme on vient de le voir, pour certains virus particulièrement mal reconnus par l’organisme, il est nécessaire de renforcer leur détection par des éléments complémentaires qu’on nomme adjuvants (un adjuvant, en pharmacologie, est un « additif » sans effet thérapeutique dont le seul rôle est de renforcer l’action du principe actif). Les plus utilisés aujourd’hui sont les sels d’aluminium et des émulsions à base de squalène (tandis que ceux à base de mercure sont abandonnés). Cela présente-t-il un problème ? Eh bien, d’une certaine façon, oui : ces adjuvants renforcent bien l’action des vaccins mais ils ont été accusés de provoquer des effets indésirables parfois plus graves que la maladie elle-même… Par exemple, il y a quelques années, la vaccination contre l’hépatite B a, en France, été vécue comme susceptible d’entraîner l’apparition de scléroses en plaques. En Grande-Bretagne, c’est le vaccin contre la rougeole (une maladie mortelle chez nos amis britanniques) dont on a prétendu qu’il pouvait induire l’apparition de symptômes autistiques. Précisons que les liens statistiques n’ont jamais pu être prouvés entre les vaccinations et ces maladies mais la méfiance règne (attisée par les opposants aux vaccinations dont les buts ne sont d’ailleurs pas forcément médicaux).

 

     Y a-t-il donc réellement un avantage à fabriquer un vaccin complété avec des adjuvants pour la grippe A(H1N1) ? On a dit que le taux global de reconnaissance du virus par le système était quand même plus faible que celui de la grippe habituelle ; en l’occurrence, si le vaccin ne contient pas d’adjuvants, il faudra certainement procéder à une double vaccination à trois semaines d’intervalle… alors qu’on manque de temps ! Ce temps qui passe trop vite et dont on a parfois si cruellement besoin ! A ce propos, parlons chiffres un instant : nous sommes à présent fin novembre et la vaccination est entrée dans sa phase active depuis près de 3 semaines, avec un peu de retard sur le programme prévu (mais, compte-tenu du temps assez clément, la grippe A, elle-aussi, est un peu en retard). Les personnes "à risques" ont été appelées en premier, suivies des femmes enceintes et, actuellement des élèves et lycéens. Il est encore néanmoins trop tôt et donc difficile d'évaluer l'impact réel de la campagne. Un grand nombre de personnes refusent toujours la vaccination (mais cela varie selon les jours et... les infos à la télé !). A l'inverse, j'ai parmi ma clientèle un nombre non négligeable de malades avec une lourde polypathologie qui attendent encore de recevoir leur convocation ; ailleurs, des centres sont tantôt déserts, tantôt pris d'assaut. En somme, quelques dysfonctionnements mais une avancée certaine. Tout cela suffira-t-il alors qu'une deuxième vague de l'épidémie est prévue au premier trimestre 2010 et que l'actuelle n'a pas encore atteint son pic maximal ? L'avenir le dira mais je rappelle qu’une épidémie - et c’est d’ailleurs bien ce qu’il se passe avec la grippe habituelle – commence à décliner lorsque 50 % de la population environ a été soit vaccinée, soit malade. On voit donc que, au-delà des cas strictement individuels (faut-il ou non se faire vacciner ?), il existe un enjeu de santé publique…

 

     Revenons au problème des éventuels adjuvants. L’immunogénicité plus faible de la grippe A(H1N1) oblige également à utiliser des quantités d’antigènes plus importantes or c’est cette fraction du vaccin qui est la plus longue à produire. Toujours le facteur temps ! La présence d’adjuvants permettrait donc une réponse vaccinale plus précoce mais à quel prix ? Dans le doute, certains pays ont décidé de ne pas employer de tels vaccins : c’est, par exemple, le cas des États-Unis qui, échaudés par une politique vaccinale douteuse lors d’une épidémie sur leur territoire en 1976, ont décidé de ne pas utiliser de vaccins avec adjuvants contre le virus H1N1, une réserve que ne partagent pas les  autorités européennes et donc françaises. Pour être complet – et pour la petite histoire – l’épidémie de grippe porcine qui, en 1976, aux États-Unis, a laissé un si mauvais souvenir (des effets indésirables furent rapportés… mais sans toujours de relation évidente avec la vaccination) avait été anticipée par des vaccins… sans adjuvants !

 

 

 

Faut-il se faire vacciner ?

 

     Disons le d’emblée : la vaccination n'est pas obligatoire et l’attitude adoptée sera certainement fonction de l’état de santé de chacun mais aussi – et peut-être surtout – des croyances et préjugés personnels…

 

     Il existe toutefois quelques éléments d’ordre général qui permettent d’engager une réflexion plus rationnelle :

 

·  D’abord et on l’a déjà dit, la vaccination n’est pas qu’un simple geste individuel puisque intervenant à l’échelle de la population pour peu qu’elle soit suffisamment importante…

 

·  Pour les individus à risques (insuffisants respiratoires, immunodéprimés, etc. voir le sujet : grippe A(H1N1), inquiétudes et réalités), il paraît logique de fortement conseiller une vaccination car pour ces personnes, le syndrome grippal clinique pourrait se révéler très dangereux.  

 

·  Cas particulier des personnes à risques pour la grippe A(H1N1) : à la suite du (léger) recul épidémiologique qu’on a sur cette maladie, on sait que certains groupes d’individus sont particulièrement menacés (ce qui n’est pas le cas avec la grippe habituelle),  à savoir les femmes enceintes, notamment lors de leur troisième trimestre de grossesse, les enfants surtout en bas-âge et, d’une manière plus générale, les personnes jeunes. La vaccination est donc proposée au cas par cas, avec le vaccin sans adjuvants pour les femmes enceintes, certes moins actif mais aussi potentiellement moins agressif. A ce propos, cassons-le cou à une vieille rengaine : le vaccin avec adjuvants n'est pas proposé aux femmes enceintes parce qu'il est "plus dangereux" mais parce que, pour des raisons éthiques, il n'a jamais pu être testé chez elles. Ce qui est d'ailleurs également le cas de tous les médicaments du marché avec comme effet pervers de disposer de moins en moins de traitements pour les femmes enceintes, au fur et à mesure du retrait des "anciens "médicaments (qui avaient été jadis utilisé chez elles sans précautions particulières).

 

·  Concernant la population « en bonne santé » : c’est ici que l’interrogation est la plus forte car il convient de savoir si la vaccination peut ou non être utile chez le « malade de base » ; en effet, après tout, un syndrome grippal ne dure que quelques jours durant lesquels seule une partie des personnes atteintes est réellement alitée tandis que pour beaucoup le tableau sera celui d’un gros rhume (en tout cas, si l’on en juge par ce que l’on sait aujourd’hui de la maladie). Bon, alors, ce n’est pas si grave, Docteur ? Non ce n’est pas si grave… sauf que, pour quelques personnes apparemment bien portantes, la grippe peut tuer sans qu’on sache vraiment pourquoi. C’était déjà vrai avec la grippe habituelle et ça l’est encore plus avec cette grippe A. Il est assurément difficile de se faire une idée : certaines études parlent d’un taux de mortalité de 1 pour mille (quand même pas loin de 35 000 morts rien qu’en France en pareil cas !) tandis que d’autres avancent le chiffre plus rassurant (et plus probable) de 1 pour 100 000. Les personnes touchées par ce qu’on appelait jadis une forme de grippe dite « maligne » seraient, selon l’OMS, plutôt jeunes (moins de 35 ans) et 40% d’entre elles n’auraient jamais eu la moindre maladie grave. Peu de morts en somme par rapport au nombre important de malades mais quand ça concerne directement quelqu'un chez vous… Le vaccin peut en principe empêcher cela mais qu’en est-il alors des risques à long terme que nous évoquions plus haut ? Comme souvent en médecine, il n’y a pas de réponse univoque et ce sera donc à chacun d’apprécier.

 

 

 

Quelles sont les propositions des Pouvoirs publics ?

 

     Les pouvoirs publics - d'ailleurs critiqués par certains mais c'est toujours ainsi en pareil cas - ont été résolument interventionnistes (un souvenir de la canicule de 2003 ?) et, en France, alors que notre pays ne représente que 1% de la population mondiale, on a commandé plus de 10% des vaccins disponibles. Comme je l'ai déjà dit, la vaccination n'est pas obligatoire. Les différentes catégories à risques ont donc d'abord été appelées et on va tout prochainement proposer le vaccin à l'ensemble de la population avec un succès qu'il est difficile de prévoir : faible s'il existe des nouvelles alarmantes sur le vaccin (comme récemment au Canada) et surtout si elles sont attisées par les ligues antivaccination, plus important au fur et à mesure que les médias rapporteront le nombre forcément progressif des décès. 

   

 

     Pour le reste de cette histoire, il faudra attendre de voir comment la pandémie évolue : elle-seule nous dictera l’attitude finale à adopter… et ce qu'il conviendra de faire l'année prochaine. Parce que, à moins d'une grosse surprise, le virus de la grippe A nous accompagnera encore quelque temps... non sans avoir muté et donc nécessité une revaccination annuelle.

 

 

 

 

Images :

 

1. masques (sources : www.corsematin.com/)
2. se protéger (sources : www.mecanopolis.org/)
3. virus de la grippe A(H1N1) (sources : farm4.static.flickr.com)
4. vaccination (source : www.lexpress.fr)
5. la femme enceinte, une cible (sources : www.atoutfemme.com/)
6. bisous... protégés ! (sources : 24heures.ch)
 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)
 
  
 
Mots-clés : grippe A(H1N1) - grippe aviaire (H5N1) - effet indésirable - antigène - système immunitaire - adjuvant - immunogénicité - squalènes - hépatite B - rougeole - épidémie de grippe porcine américaine
 (les mots en blanc renvoient à des sites d'informations complémentaires)
 
 
 
sujets apparentés sur le blog
 
 
 
 
 
 
Dernier sommaire général du blog : cliquer ICI
 
 
 L'actualité du blog se trouve sur FACEBOOK
 
 
Mise à jour : 23 avril 2013

Partager cet article

Repost0

Présentation

  • : Le blog de cepheides
  • Le blog de cepheides
  • : discussions sur la science (astronomie, paléontologie, médecine, éthologie, etc.) à partir d'articles personnels.
  • Contact

dépôt légal

copyrightfrance-logo17

Recherche

traduire le blog

drapeau-anglais.png
drapeau-allemand.png

.

.

.

 POUR REVENIR À LA PAGE D'ACCUEIL : CLIQUER SUR LE TITRE "LE BLOG DE CEPHEIDES" EN HAUT DE LA PAGE 

 

 

Sommaire général du blog : cliquer ICI

 

 

 

(le compteur global ci-après comptabilise les chiffres de fréquentation du blog depuis 2008, date de sa création et non pas du 11/09/2018)

Compteur Global gratuit sans inscription">

du même auteur

NOUVEAU !

 

ALCYON B

roman de science-fiction en ligne

actuellement en parution ICI

.

 

"Camille" (roman)

cliquer ICI

 

"Viralité" (roman)

cliquer ICI

 

"petites tranches de vie médicale"

(souvenirs de médecine)

cliquer ICI

 

"la mort et autres voyages"

(recueil de nouvelles)

cliquer ICI

Catégories