Overblog
Suivre ce blog Administration + Créer mon blog
Le blog de cepheides

Le blog de cepheides

articles de vulgarisation en astronomie et sur la théorie de l'Évolution

Publié le par cepheides
Publié dans : #astronomie

   

galaxie des Chiens de chasse (M 106)

 

 

   Le modèle qui explique le mieux ce que nous savons de notre Univers et de sa formation est appelé « modèle standard ». Il repose au départ sur l’hypothèse d’une singularité appelée Big bang où toute la matière est contenue dans un très petit volume qui brutalement s’agrandit en créant l’espace au fur et à mesure de son expansion pour aboutir à l’Univers que nous pouvons à présent observer, les étoiles, les galaxies, etc. Toutefois, la théorie n’est pas parfaite et même si, nos outils évoluant, nombre de ses implications ont pu être validées par l’observation, il reste des points noirs, des interrogations et des lacunes. Ces anomalies, ces bizarreries qui ne « collent » pas avec le modèle sont-elles susceptibles de le remettre en cause ou bien sont-elles seulement la preuve que nous ne disposons pas encore de toutes les données ? Doit-on tout reprendre à zéro ou simplement nous armer de patience, le temps finissant par nous apporter les réponses indispensables ? Il est passionnant de se poser de telles questions mais, bien sûr,  seulement après avoir précisé ce que sont les plus importantes de ces anomalies.

 

 

Des étrangetés qui interpellent

 

   Après la découverte par Penzias et Wilson en 1964 du fond diffus cosmologique, la théorie du noyau originel, plus connue sous le nom de Big bang, s’imposa chez les scientifiques comme étant l’explication la plus vraisemblable de la formation de notre Univers, même s’il fallut par la suite introduire la notion « d’inflation » (accélération subite de l’expansion de l’Univers à ses débuts) qui semble, d’ailleurs, avoir été récemment validée par l’observation. Toutefois, l’astronome Zwicky (qui « inventa » les supernovas) jeta un pavé dans la mare dès les années 1930 en expliquant que les rotations des galaxies étaient beaucoup plus rapides que ne le prévoyait la théorie du Big bang ce qui fut confirmé bien plus tard par la communauté scientifique. La vitesse anormale de la rotation des galaxies n’est toutefois pas, comme on va le voir, la seule interrogation que les astronomes se posent à propos de ces structures : leur aspect, leur disposition et même leur composition interpellent aussi. Intéressons-nous d’abord à la question qui passionna Zwicky.

 

 

La trop grande vitesse de rotation des galaxies

 

   Comme on vient de le voir, c’est donc le Suisse Fritz Zwicky (1898-1974) qui souleva le problème de la vitesse de rotation des galaxies (il avait constaté l’anomalie dès 1933 et, à cette époque, avait émis l’hypothèse d’une matière intersidérale invisible pour l’expliquer). Il ne fut bien sûr pas écouté et c’est seulement dans

chevelure de Bérénice
amas de Coma étudié par Zwicky en 1933

les années 1970 que l’Américaine Vera Rubin s’intéressa au problème et démontra que Zwicky avait raison : les étoiles en périphérie des galaxies ont une vitesse de rotation bien plus importante que ne le prévoit le modèle. L’explication pourrait en être la présence d’une matière « invisible » d’une masse pouvant aller jusqu’à 5 à 6 fois celle de la galaxie considérée. De ce fait, les étoiles observées ne se trouveraient alors plus en périphérie de la galaxie puisqu’entourées par de la matière invisible mais beaucoup plus proches du centre de l’ensemble ce que l’on ne peut évidemment pas voir en observation directe. Et voilà pourquoi ces étoiles tourneraient plus vite que prévu ! En 2008, les calculs furent affinés et ils ne souffrent aucune discussion : il y a bien anomalie puisque, alors que la théorie avance une vitesse de rotation maximale de 100 km/s, l’observation nous dit 3 fois plus (300 km/s environ). L’explication ? Le résultat de la présence de cette matière invisible, vite appelée matière noire.

 

   Problème : personne n’a jamais vu cette matière noire, ni même ne sait à quoi elle pourrait bien ressembler. On l’a introduite dans les calculs pour les valider, un point c’est tout. Pour un modèle « standard », cela ne fait pas tout à fait sérieux…

 

 

L’énigme des pulsars manquants

 

   Comme cela a déjà été expliqué dans le sujet dédié (mort d'une étoile), une étoile à neutrons est le stade ultime de la mort des grosses étoiles (celles faisant plus de 8 fois la masse du Soleil) après qu’elles se soient d’abord transformées en supernovas (certaines de ces étoiles, encore plus grosses, se transforment même directement en trous noirs). Une étoile à neutrons est toute petite : quelques dizaines de km de diamètre mais la matière y est hyperconcentrée (on dit que le poids de la tour Eiffel y tiendrait dans quelques grains de poussière). Beaucoup d’entre elles sont dotées d’un champ magnétique intense et, comme ces restes d’étoiles tournent rapidement sur eux-mêmes, leurs champs magnétiques peuvent être captés, à la manière de « phares » cosmiques, sous la forme de très brèves impulsions : on parle alors de pulsars. On comprend aisément que, si le rayonnement magnétique d’un pulsar est aligné sur le récepteur, à savoir la Terre, il est assez facile de l’identifier.

 

   Où trouve-t-on de grosses étoiles susceptibles d’avoir donné des pulsars ? Eh bien dans le centre de la galaxie où grouillent les étoiles massives. Sauf que

dessin d'artiste d'un pulsar

- pas de chance - les télescopes ne purent jamais mettre en évidence les dits-pulsars lorsqu’on les chercha. Normal, répondirent les spécialistes : entre le centre galactique et nous, il y a d’immenses nuages de poussière imperméables même aux rayons X. Bien. On se contenta de cette explication jusqu’à ce qu’un télescope en repère un, de pulsar, à une année-lumière du centre estimé. À cette occasion, on se rendit compte que les poussières n’étaient en réalité pas si opaques que ça… et que, décidément, il n’y avait vraiment pas de pulsars au centre de notre galaxie. L’explication ? Difficile à donner. Certains scientifiques évoquent l’antimatière (?), le trou noir central de notre galaxie appelé Sagittarius A ou, plus récemment… la matière noire qui, s’accumulant sur les pulsars, les ferait exploser en trous noirs… forcément invisibles. Toujours la matière noire  !

 

 

Le mystère des bulbes galactiques

 

   Encore les galaxies : décidément, il semble y avoir un problème avec elles dans le modèle standard ! Cette fois, on s’intéresse à leurs bulbes c'est-à-dire à leurs centres. En effet, la théorie stipule que les grandes galaxies sont le fruit de la fusion de galaxies plus petites qui s’agrègent progressivement. Et, là, les stimulations sont formelles : en pareil cas, à chaque nouvelle fusion, le bulbe de la nouvelle galaxie résultante doit s’accroître. Sauf que l’observation ne va pas dans ce sens. Les galaxies ont des bulbes centraux toujours plus petits que ce que l’on pourrait escompter et les deux-tiers d’entre elles n’ont même pas de bulbe du tout ! (étude en infrarouge de 2002 portant sur des milliers de galaxies). Plus encore, lorsque, avec le télescope spatial Hubble, on regarde très très loin – et donc dans le passé lointain de l’Univers – on s’aperçoit que ces premières galaxies si éloignées dans le temps et dans l’espace n’ont pas de bulbe, qu’elles ne sont que des amas d’étoiles jeunes organisées en différents blocs adjacents.

 

   Ces constatations sont si dérangeantes que les scientifiques essaient par tous les moyens de retoquer leur modèle en modifiant par exemple les températures notamment des gaz, la masse des galaxies… et les propriétés de la matière noire. Toujours elle. Le modèle standard, ici aussi, montre certaines limites.

 

 

L’alignement des galaxies naines

 

   Chaque grande galaxie est entourée de structures plus petites que l’on appelle des galaxies satellites. Notre galaxie, la Voie lactée, ne fait pas exception et elle

galaxie satellite de la Vois lacyée
grand Nuage de Magellan

est effectivement entourée de quelques galaxies naines (comme les nuages de Magellan qui renferment quelques milliards d’étoiles) mais elles ne sont qu’une trentaine là où la théorie en prévoit plusieurs milliers. Phénomène encore plus surprenant : toutes ces galaxies se retrouvent alignées dans un plan relativement étroit autour la Voie lactée. Cette disposition étrange n’est pas isolée : nous savons à présent que l’on retrouve un agencement aussi particulier pour nombre de galaxies observées récemment. Quelle peut en être l’explication ? Pour certains scientifiques, c’est encore la matière noire qui expliquerait ces alignements spéciaux. D’autres commencent à se demander si ce ne sont tout simplement pas les lois de la physique newtonienne qu’il faudrait revoir : nous aurons l’occasion de revenir sur ce point de vue.

 

 

Les oscillations trop intenses des géantes rouges

 

   Une étoile géante rouge représente le stade par lequel passe une étoile moyenne comme le Soleil lorsqu’elle atteint la fin de sa vie. Beaucoup plus grosse que l’étoile d’origine, elle est alors aussi plus froide (donc rouge) précisément en raison de sa taille. Ces étoiles sont parfaitement identifiables dans notre galaxie et c’est l’étude systématique de plusieurs centaines d’entre elles qui attira l’attention des scientifiques. En effet, dans le disque galactique où elles se trouvent, elles « oscillent » légèrement de bas en haut à la façon d’un manège où les chevaux de bois montent et descendent.

 

   Je devrais plutôt dire « la théorie prévoyait qu’elles oscillent légèrement » parce que, en réalité, ce n’est pas le cas : l’amplitude est d’autant plus grande qu’elles sont éloignées du centre du disque galactique, jusqu’à deux fois plus que ce qui était prévu. Quelle pourrait-être l’explication de cette étrange observation ? On a avancé la présence des galaxies naines, notamment les nuages de Magellan, mais les calculs montrent que leur masse est trop faible. Les chercheurs ont alors proposé une particularité de la matière noire qui s’écraserait aux pôles de la galaxie et expliquerait donc les variations à l’équateur. Toujours cette matière noire dont on ne peut se passer…

 

 

D’autres étrangetés, encore

 

   Les anomalies que l’on vient d’évoquer sont plutôt troublantes et elles ne sont pas les seules. Depuis quelques années, on a mis en évidence d'autres phénomènes ou observations qui ont du mal à entrer dans le cadre du modèle standard. À moins, ici encore, d’invoquer cette fameuse matière noire…

 

* mise en évidence d’un étrange rayon X : c’est à l’occasion d’une banale étude des spectres lumineux de

nébuleuse de la Carène
nébuleuse de la Montagne mystique (dans la Carène)

plusieurs dizaines d’amas galactiques (pour en cataloguer la composition chimique) que le télescope de l’Agence Spatiale Européenne identifia un rayonnement ne correspondant à rien de connu. Après avoir cru à une erreur, les spécialistes se précipitèrent sur des enregistrements antérieurs… qui montrèrent effectivement les mêmes données passées alors inaperçues  ! Et si c’était la trace de cette matière noire que l’on cherche désespérément depuis des années et que, comme l’Arlésienne, on ne voit jamais ?

 

* des nuages de gaz trop lumineux : entre les galaxies stagnent d’immense nuages d’hydrogène plus ou moins ionisés et baignant par conséquent en lumière ultra-violette. Les scientifiques ont donc cherché à mesurer ce fond ultra-violet et à en identifier les responsables. Malheureusement, même en incriminant tous les objets susceptibles de former ce fond, notamment les quasars (très productifs en UV) qui sont les trous noirs centraux de certaines galaxies, on arrive à peine à 20% de ionisation. Et le reste ? Serait-ce… la matière noire car, selon certains modèles expérimentaux, elle serait capable d’aboutir à la formation d’ultra-violets ? On n’en sait pas plus.

 

* de bizarres émissions d’ondes radio à l’origine difficile à expliquer s’affichent parfois sur les détecteurs des scientifiques. Ils ressemblent  à l’émission de pulsars sauf qu’ici ils sont isolés, bien différents d'une répétition régulière de signaux. La piste pulsar a donc été écartée mais les astronomes sont à peu près persuadés - étant donné la similitude du signal unique avec ce que l’on sait de ces objets - qu’il s’agit quand même bien d’étoiles à neutrons. Plusieurs explications invérifiables pour le moment ont été avancées, la dernière en vogue évoquant une étoile à neutrons s’effondrant en trou noir central galactique à cause d’un surplus de… matière noire.

 

* les amas galactiques sont, pour certains, incompatibles avec l’évolution prévue par le modèle standard. On évoque ici les ensembles de centaines de galaxies (plusieurs centaines, parfois même des milliers) qui se sont formés assez tôt dans l’Univers, il y a environ 10 milliards d’années, à une époque où celui-ci était encore très jeune (il avait donc 3,7 milliards d’années). Pourtant, à ce moment lointain du passé, certains amas étaient déjà gigantesques alors qu’ils sont censés se construire progressivement, au fur et à mesure des fusions. Ces structures étant relativement stables dans le temps, on peut se poser la question : pourquoi si tôt ?

 

 

La matière noire et quoi d’autre ?

 

   On a vu que le modèle standard, s’il répond correctement à l’immense majorité des événements impliqués dans la construction et l’expansion de l’Univers, trouve tout de même quelques limites. Et pas des moindres. Pour combler ces « imprécisions », les théoriciens ont introduit une notion qui permet d’expliquer totalement notre environnement : la matière noire. Celle-ci explique les lacunes observées. Explication facile, diront certains.

 

   Cette matière inconnue n’est toutefois pas la seule énigme de notre astronomie actuelle. Prenons encore plus de recul et regardons cet Univers dans sa globalité :

répartition de la matière dans l'Univers

on s’aperçoit alors que, non seulement il est en expansion mais que celle-ci s’accélère comme le démontrent les dernières observations ; il faut donc introduire une force répulsive s’opposant à la gravitation qui, elle, aurait spontanément tendance à faire se contracter l’Univers et se rapprocher les objets entre eux. C’est le rôle dévolu au corollaire énergétique de la matière noire baptisé énergie sombre (ou noire selon les auteurs). Et on a beau faire et refaire les calculs, de ces éléments et énergies cachées, il en faut beaucoup : toute la matière que nous connaissons (étoiles, planètes, galaxies, nuages de gaz, etc.) représente un peu moins de 4% tandis que la matière noire interviendrait pour 21% et l’énergie sombre, 75%  ! Disons-le autrement : 96% de l’Univers ne nous est pas accessible et nous est donc inconnu  ! On a parfois du mal à le croire et certains scientifiques ont vite franchi le pas. Si on ne voit pas cette matière noire, prétendent-ils, c’est pour la bonne raison qu’elle n’existe pas…

 

   Oui, mais comment alors expliquer les étrangetés dont nous venons de parler dans ce sujet : par exemple, la vitesse de rotation excessive des étoiles périphériques des galaxies ou la « danse oscillatoire » des géantes rouges ? D’autres modèles dits alternatifs viennent alors se substituer au modèle standard : des théories où les propriétés de la matière noire sont différentes , d’autres où elle n’existe pas.

 

   En effet, avancent certains chercheurs, si le modèle standard a tant de mal à expliquer certains phénomènes, c’est que la physique classique dont nous nous servons, celle de Newton, n’a plus cours dans ces domaines bien particuliers : il faut l’adapter et peut-être même la réinventer. C’est ce que propose, par exemple, le modèle MOND (MOdified Newtonian Dynamics ou Dynamique Newtonienne Modifiée) : ici, c’est la définition de la gravitation qui change. On se souvient que, dans la mécanique newtonienne, la gravitation est proportionnelle à l’accélération : dans la théorie MOND, cette gravitation varie selon l’échelle ; en cas de présence importante de matière, la gravitation suivrait parfaitement les lois de Newton mais, en cas de moindre quantité, l’accélération serait plus faible ce qui expliquerait les anomalies observées. De ce fait, plus besoin de matière noire, c’est la variation naturelle de la gravitation qui explique les phénomènes de vitesse de rotation trop élevée des étoiles périphériques des galaxies ou l’alignement des galaxies naines.

 

 

L’avenir départagera

 

   Les étrangetés de l’Univers dont nous venons d’évoquer les principales connues ne permettent pas au modèle standard actuellement en vigueur de leur

lentille gravitationnelle par l'amas Abell 3827

apporter des réponses totalement satisfaisantes. Signalons quand même que le modèle standard reste - de loin - le plus apprécié des scientifiques et cela bien qu’ on n’ait jamais pu isoler et identifier la matière noire. Toutefois, on a quand même pu indirectement l’observer  : l’effet de lentille gravitationnelle (dédoublement de l’image d’un objet par la courbure de l’espace en présence d’une masse importante) permet de calculer la masse d’après la théorie de la relativité générale et celle-ci ne correspond pas à la masse prédite, la différence étant attribuée à la matière noire. MOND ne peut expliquer les lentilles gravitationnelles mais prévient que ce n’est pas la masse qui est alors modifiée mais le champ gravitationnel. On le voit : il en faudra plus pour départager les différentes théories.

 

   De plus grands et plus précis outils d’observation vont bientôt entrer en fonction et il est probable que certaines des bizarreries évoquées se résoudront alors spontanément. La prochaine campagne du LHC, à la frontière franco-suisse, grand spécialiste de la chasse aux particules puisqu’il a mis en évidence le boson de Higgs, trouvera peut-être quelque chose se rattachant à la matière noire… Pour le moment, il faut patienter : dans le domaine scientifique, c’est toujours quand on s’y attend le moins que l’on est confronté aux surprises. Certaines de taille, parfois.

 

 

 

Sources :

 

1. Wikipedia France

2. Science et Vie, n° 1171, avril 2015

3. CNRS (http://www.cnrs.fr/)

4. Encyclopaedia Britannica

 

 

 

Images :

 

1. galaxie des Chiens de Chasse (sources : www.nasa.gov)

2. l'amas de Coma (sources : en.wikipedia.org)

3. vue d'artiste d'un pulsar (sources : zmescience.com)

4. grand nuage de Magellan (sources : astro-rennes.com)

5. nébuleuse de la montagne mystique (sources : qd9-test.obspm.fr)

6. répartition de la matière dans l'Univers (sources : www.podcastscience.fr)

7. lentille gravitationnelle Abell 3827 (sources : science-et-vie.com)

 (pour lire les légendes des illustrations, passer le curseur de la souris dessus)

 

 

 

Mots-clés : modèle standard - Big bang - fond diffus cosmologique - Fritz Zwicky - matière noire - supernovas - étoiles à neutrons - trous noirs - pulsars - Sagittarius A - géante rouge - quasars - amas galactiques - expansion de l'Univers - modèle MOND - lentille gravitationnelle

(les mots en gris  renvoient à des sites d'information complémentaires)

 

 

 

Sujets apparentés sur le blog

 

1. Big bang et origine de l'Univers

2. le fonds diffus cosmologique

3. les premières galaxies

4. l'Univers, passé et avenir

5. l'expansion de l'Univers

6. mort d'une étoile

7. pulsars et quasars

8. matière noire et énergie sombre

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

 

mise à jour : 19 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #astronomie

 

sonde cosmique New Horizonc
Pluton et la sonde New Horizonc

 

 

 

     Si d’aventure on le leur demandait, je crois que beaucoup de nos contemporains ne sauraient pas réellement situer la ceinture de Kuiper dans l’espace, pourtant tout le monde – ou à peu près – sait en réalité ce qu’elle est puisqu’il s’agit de la périphérie de notre système solaire, là où se situe la planète naine Pluton. La sonde New Horizons étant arrivée ces jours-ci à proximité de cette petite planète, il est intéressant de revenir sur cette part de notre système solaire que nous connaissons si mal et ce d’autant que l’hypothèse d’une planète fantôme susceptible d’y exister a récemment repris des couleurs.

 

 

 

La ceinture de Kuiper

 

 

     La ceinture de Kuiper, c’est loin, très loin, au-delà de la huitième planète du système solaire, Neptune, qui est déjà fort loin de nous puisque située à 30 unités astronomiques (ua). Rappelons qu’une ua, unité de mesure couramment utilisée en

UA
une unité astronomique équivaut à 150 millions de km

astronomie, correspond à la distance Terre-Soleil soit environ 150 millions de km (très exactement : 149 600 000 km). Neptune est donc à environ 4,5 milliards de km ce qui est une distance difficile à concevoir : disons pour mieux en saisir la réalité que la lumière du Soleil met 4 heures et 10 minutes pour l’atteindre alors qu’elle ne met que 8 minutes pour éclairer notre planète. C’est donc dans ce lointain espace que commence la ceinture de Kuiper et on estime qu’elle s’étend jusqu’à environ 55 ua.

 

     Dans cet endroit, si faiblement éclairé par le Soleil et où celui-ci apparaît à peine plus gros qu’une étoile, les scientifiques estiment que se trouvent des objets

ceinture de Kuiper (et lignes orbitaires planètes et comètes

multiples témoignant des premiers instants du système solaire : planètes naines comme Pluton et son satellite Charon, planétésimaux, comètes dont certaines viennent avec régularité visiter la partie plus centrale du système solaire, débris divers mal identifiés, poussières en tous genres, en fait tous des fragments du disque protosolaire qui, à cet endroit, n’ont pas réussi à former de véritables planètes.

 

     Il ne semble pas toutefois que ces objets, du plus petit (quelques grammes) au plus grand possible ici (moins de 3000 km de diamètre), soient distribués au hasard : l’essentiel de ces débris se situe entre 40 et 48 ua en raison d’un

planète Neptune

phénomène de résonance orbitale. Oui mais c’est quoi, la résonance orbitale ? Eh bien, pour faire simple, disons que, lorsque deux corps gravitent autour d’un troisième, ils s’influencent mutuellement jusqu’à ce que leurs périodes de révolution aient des rapports de fraction entière simple. Prenons un exemple : Pluton, la planète naine, est influencée par Neptune selon une résonnance 2 : 3 ce qui veut dire que chaque fois que Neptune tourne trois fois autour du Soleil, Pluton tourne deux fois autour de lui… De la même façon, la présence de Neptune a structuré la ceinture de Kuiper et les objets qu’elle est susceptible de contenir en en modifiant les orbites et les trajectoires jusqu’à une distance de 42 ua à partir de laquelle son influence devient négligeable : c’est donc à cette distance que les objets peuvent exister sans que leurs orbites soient modifiées et c’est également là que l’on trouve plus des 2/3 des objets de la ceinture.

 

   Curieusement, la ceinture de Kuiper s’interrompt brutalement, vers 50 ua, avec la disparition des objets de grande taille et il est difficile de savoir s’il s’agit du début d’une lacune très large ou effectivement le bord extérieur de la dite ceinture : les scientifiques qui n’ont pas d’explications pour ce phénomène l’ont appelé « la falaise de Kuiper ». Signalons enfin que ce mécanisme de ceinture de débris n’est pas propre à notre système solaire puisqu’un phénomène analogue a été mis en évidence pour une vingtaine d’étoiles.

 

 

 

Le nuage d’Oort

 

 

     Ce sont les comètes qui ont permis de comprendre ce qu’était l’espace au-delà de la ceinture de Kuiper. Déjà, Halley (celui qui donna son nom à l’une des plus

le nuage d'Oort (vue d'artiste)

célèbres d’entre elles) avait remarqué que les comètes revenaient éclairer nos cieux nocturnes de façon régulière et qu’elles devaient bien venir de quelque part. C’est l’astronome hollandais Oort qui, dans les années 1950, avança l’hypothèse que ces comètes régulières provenaient d’un lointain espace situé aux confins de notre système solaire. En effet, expliquait-il, on sait bien que, après plusieurs passages près du Soleil où elles perdent à chaque fois une partie de leur substance, les comètes sont détruites. Pourtant, on en voit toujours alors que depuis la formation du système solaire, il y a 4,6 milliards d’années, elles auraient dû toutes disparaître : c’est donc qu’il y a un réservoir de matière quelque part, un endroit qui recèle des milliards de noyaux cométaires… Oort sélectionna une quarantaine de comètes dont, après de savants calculs (répartition de l’inverse des demi-grands axes cométaires), il estima la provenance : entre 40 000 et 150 000 ua (soit à peu près de 0,6 à 2,4 années-lumière) ; le bord externe de cet espace est à l’extrême limite d’influence du Soleil, à plus du quart de la distance qui nous sépare de l’étoile la plus proche, la naine rouge Proxima (ou alpha) du Centaure… qui pourrait, elle-aussi, posséder son propre « nuage d’Oort » formant, pourquoi pas ?, un continuum avec celui du Soleil.

 

     Certains scientifiques ont avancé que le Soleil aurait un compagnon caché quelque part au-delà du nuage d’Oort, peut-être une naine brune (une étoile n’ayant pu « s’allumer » en raison de sa trop faible taille) ou une géante gazeuse située en dehors du nuage d’Oort mais qui y pénétrerait tous les 26 millions d’années entraînant alors un bombardement intense par des météorites des parties centrales du système solaire et donc de la Terre. On a même donné à cette hypothétique planète le nom de Némésis (du nom de la déesse de la colère des Dieux dans la mythologie grecque) mais aucune preuve de son existence n’a jusqu’à présent été trouvée. Néanmoins, une telle idée - une planète lointaine encore inconnue - peut-elle avoir des bases scientifiques ?

 

 

 

Une planète mystérieuse

 

 

    Parlant du nuage d’Oort, nous venons d’évoquer des distances de plusieurs milliers d’ua, un endroit si éloigné qu’aucune lumière provenant du Soleil n’y arrive jamais : là-bas, le Soleil est une étoile parmi les autres. De ce fait, n’importe quel objet, même de taille conséquente, pourrait s’y cacher sans qu’il soit visible de la Terre. Mais y a-t-il vraiment une planète à l’extrémité du nuage d’Oort ? Une planète qui aurait pu être rejetée là-bas, peu après la formation du système solaire, lors de, par exemple, la migration d’une des géantes gazeuses de notre système ? Depuis 200 ans environ, les scientifiques discutent du sujet, tantôt qualifié de « littérature de science-fiction », tantôt présenté comme étant la réponse aux indiscutables anomalies constatées par la communauté scientifique.

 

découverte Uranus
Urbain Le Verrier (1811-1877)

 

     Tout a en fait démarré avec la découverte d’Uranus en 1781 par Herschel ou plutôt par la constatation par Urbain Le Verrier, une soixantaine d’années plus tard, d’anomalies dans l’orbite de cette planète qui lui laissaient supposer qu’une autre planète existerait perturbant cette trajectoire. Il fit ses calculs et désigna un point du ciel où, à l’heure dite, on découvrit effectivement… Neptune.

 

     Toutefois, l’histoire ne s’arrête pas là car si Neptune explique bien certaines des anomalies constatées dans les mouvements d’Uranus, il reste des perturbations résiduelles qui ne peuvent être éliminées. On crut détenir l’explication du phénomène en 1930 avec la découverte de Pluton, alors baptisée la neuvième planète du système solaire. Mais l’astre est trop petit, trop peu influent pour expliquer les anomalies de la géante gazeuse (Pluton a été reléguée au rang de planète naine en 2006 ce qui fait que le système solaire ne compte à nouveau plus que huit planètes). Encore raté, donc.

 

     Il faut attendre 1993 et la mission Voyager 2 pour reparler de ces anomalies : la sonde ayant survolé Neptune en 1989, les calculs sont refaits et la masse de la planète est diminuée de près de 0,5 % ce qui permet d’expliquer les anomalies et, du coup, plus besoin d’une planète inconnue… On croit avoir enfin définitivement enterré l’hypothèse de la planète mystérieuse, baptisée planète X : il n’en est rien.

 

       En 2004, la découverte d’un planétoïde d’environ 1000 km de diamètre baptisé

plan de l'écliptique
toutes les planètes dans le même plan, celui dit de l'écliptique

Selma avait intrigué les scientifiques car le point de son orbite le plus proche du Soleil est quasiment aligné sur le plan de l’écliptique des autres planètes. Le plan de l’écliptique ? Il s’agit du plan de l’orbite terrestre autour du Soleil ; disons-le autrement : lors de la formation des planètes, celles-ci se sont toutes influencées de façon à ce que leurs orbites soient peu ou prou alignées dans une même zone autour de leur étoile et c’est cette zone circulaire que l’on appelle le plan de l’écliptique Oui, mais pourquoi Selma - qui est loin de toute influence massive des planètes centrales (il est hors de portée de l’attraction de Neptune) - a-t-il lui aussi un tel alignement ? Eh bien, répondirent bien des astronomes, c’est tout simplement dû… au hasard. Parce que le hasard, ça existe aussi, voyez-vous  ! On en resta donc là…

 

       … jusqu’en 2012 où deux astronomes américains mirent en évidence un gros astéroïde de 450 km de diamètre, appelé VP113 qui présente lui aussi une orbite alignée sur ce même plan de l’écliptique. Du coup, on revoit sérieusement le problème : un objet, passe encore, mais deux ça fait désordre. S’il ne s’agit pas d’une erreur d’interprétation (et il ne semble pas que ce soit le cas), cela veut dire qu’un objet massif a influencé le positionnement spatial de ces objets et ce ne peut être Neptune, bien trop centrale : on repense évidemment à la planète X…

 

     Or cette hypothèse d’une planète massive rejetée en périphérie de son système solaire et qui tournerait autour de son étoile à l’extrémité de sa zone d’influence a déjà été mise en évidence : elle concerne une exoplanète nommée Fomalhaut b qui, comme son nom l’indique, orbite autour de Fomalhaut, une étoile blanche de la séquence principale située à 25 années-lumière de la Terre, dans la constellation du Poisson Austral. Et cette exoplanète, une géante gazeuse, située à environ 120 ua de l’étoile a été suspectée… en raison de l’organisation particulière d’un disque de débris. Cherchée durant 8 ans, son existence ayant été niée à plusieurs reprises, on a finalement réussi à la mettre en évidence : c’est même la première exoplanète détectée directement par la photographie optique

 

     Alors, ce qui est vrai pour Fomalhaut, pourquoi cela ne le serait-il pas pour le Soleil ?

 

 

Pluton et au delà

 

     La ceinture de Kuiper et ce qui la prolonge sont vraiment du domaine de l’inconnu. La zone est lointaine et donc très mal éclairée par le Soleil, rendant de ce fait son étude à partir de la Terre très délicate. Même le télescope spatial Hubble a du mal avec cet endroit éloigné et glacé (il est vrai qu’il a surtout été conçu pour voir… beaucoup plus loin, aux confins de l’Univers). C’est dommage car la ceinture de Kuiper et après elle le nuage d’Oort sont des lieux passionnants pour ceux qui s’intéressent aux origines de notre système solaire : en effet, tout, là-bas, est resté « en l’état », c’est-à-dire dans la même situation et avec les mêmes éléments que lors de la formation du système, il y a 4,5 milliards d’années. Étudier ce monde lointain est capital pour la connaissance de nos origines…

 

     Heureusement, il y a les sondes. Justement, l’une d’entre elles, New Horizons,  entame l’exploration de ces mondes glacés et nous a déjà gratifié de photos

sonde New Horizons et la planète Pluton
New Horizons : la taille d'un piano mais si prolifique !

exceptionnelles de Pluton et de son satellite Charon : dans le meilleur des télescopes, Pluton nous apparaissait comme un petit point blême et voilà que la sonde nous donne les détails de ses montagnes, de ses différences de couleurs, de son absence surprenante de cratères, etc. mais New Horizons va très vite et, déjà, elle s’éloigne pour explorer d’autres objets.

 

     Le premier janvier 2019, New Horizons nous envoie les premières photos de l’objet céleste le plus lointain jamais observé par des yeux humains : Ultima-Thulé situé à une distance de 43,4 ua tandis que sa période de révolution autour du Soleil est d'un peu plus de 295 ans. Surtout, la sonde nous offre l'image d'un astéroïde binaire (composé de deux lobes accolés) primitif de la ceinture de Kuiper : la sonde nous enverra une foule de renseignements sur le petit objet tout au long des années 2019 et 2020.

 

     Les comètes qui viennent des bords du système solaire sont les témoins des débuts du système ? Eh bien, la sonde Rosetta, prend des photos de la comète Schuri mais, malheureusement, son module Philae parce que mal positionné lors de son "atterrissage" hasardeux ne pourra mener la mission jusqu'à son terme (prélévement d'échantillons notamment).

 

     Les sondes automatiques sont probablement l’avenir pour l’exploration de ces endroits si inhospitaliers et l’aventure ne fait que commencer  !

 

 

 

Sources

 

1. fr.wikipedia.org

2. revue Science & Vie, 1162, juillet 2014

3. Encyclopaedia Britannica

4. Ciel des Hommes (www.cidehom.com)

 

 

Images

 

1. Pluton par la sonde New Horizons, le 13 juillet 2015 (sources : NASA)

2. ua (sources : moulindesetoiles.wordpress.com)

3. ceinture de Kuiper (sources : lastronimieselaraconte.fr)

4. Neptune (sources : le-système-solaire.net)

5. nuage d'Oort (sources : alex-bernardini.fr)

6. Urbain Le Verrier (sources : en.wikipedia.org)

7. plan de l'écliptique (sources : asctoussaint.sa.free.fr)

8. sonde New Horizons (sources : geeksandcom.com)

(pour lire les légendes des illustrations, passer le curseur de la souris dessus)

 

 

Mots-clés : sonde New Horizons - unité astronomique (UA) - Pluton et Charon - disque protosolaire - résonance orbitale - falaise de Kuiper - nuage d'Oort - Jan Oort - planète Némésis - Urbain Le Verrier

(les mots en gris renvoient à des sites d'information complémentaires)

 

 

Sujets apparentés sur le blog

 

1. origine du système solaire

2. les sondes spatiales Voyager

3. la formation des planètes  

4. planètes extrasolaires

5. distances et durées des âges géologiques

 

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

dernière mise à jour : 15 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #éthologie
radeau de survie d'une colonie de fourmis de feu (Solenopsis invicta)

radeau de survie d'une colonie de fourmis de feu (Solenopsis invicta)

 

 

     Dans un précédent sujet, nous avons cherché à évaluer l’intelligence des animaux en tant qu’individus représentatifs de leur espèce (voir sujets apparentés en fin d'article). Il existe toutefois une autre forme d’intelligence animale, conséquence de l’activité commune d’un certain nombre de ressortissants d’une même espèce et qui peut être largement supérieure en termes de résultats à l’action de chacun des individus pris séparément. On évoque alors une intelligence de groupe que l’on peut trouver par exemple chez les oiseaux migrateurs, les bancs de poissons et surtout les insectes dits sociaux. Chez ces derniers, le produit de l’action du groupe est toujours infiniment supérieur à celui des individus pris isolément, non seulement en terme de force d’action, ce qui est aisément compréhensible, mais également et surtout pour l’intelligence de la réalisation qui aboutit presque toujours à un résultat surprenant. Ainsi, une fourmi isolée n’est guère intelligente et elle se révèle incapable d’accomplir des tâches un tant soit peu élaborées. Par contre, dès que l’on a affaire à un groupe suffisamment important de ces hyménoptères, les actions réalisées par leur association sont parfois extraordinaires. Comment se fait-il que des individus qui, solitaires, ne peuvent que très peu, trouvent ensemble des solutions parfois stupéfiantes grâce à ce qu’il faut bien appeler une « intelligence collective » ?

 

 

 

la somme du tout est bien supérieure à la somme des parties

 

 

     L’intelligence collective, c’est pour une espèce grégaire le fait de compenser la faiblesse de chacun de ses ressortissants par la possibilité de trouver ensemble et de mettre en ordre des actions parfois terriblement complexes. On y reviendra mais, d’ores et déjà, on peut souligner que seules les lois de l’Évolution adossées à la sélection naturelle sur un long, très long espace de temps sont capables d’expliquer ces réussites qui, aux yeux du profane, paraissent si extraordinaires qu’il en vient parfois à se demander s’il n’y a pas du créationnisme là-dessous : il n’en est à l’évidence rien. Prenons quelques exemples.

 

 

* des fourmis formidablement bien organisées

 

     Solenopsis invicta est une variété de fourmis originaires d’Argentine mais qui, à présent, peuple tout le sud des Etats-Unis ; on les surnomme les « fourmis de feu » en raison de leur grande agressivité et de la douleur occasionnée par leurs piqures.

 

       Leur réaction est très particulière lorsqu’une montée d’eau brutale

intelligence collective animale
radeau de survie de fourmis Solenopsis Invicta

(fréquente dans ces contrées) menace la fourmilière. Voilà que, à mesure que l’eau envahit leur habitat, des milliers d’ouvrières s’associent sur la surface de l'eau, s’accrochant les unes aux autres ici par les mandibules, là par leurs pattes. Chaque fourmi se trouve en contact par ses six pattes avec ses voisines, cherchant dans le même temps à les repousser le plus loin possible, créant ainsi de minuscules poches d’air dont la multiplication assure une bien meilleure flottabilité à l’ensemble.

 

     En quelques minutes se forme alors un véritable radeau vivant ! Les pupes et les larves - qui sont très légères - sont placées dans la partie immergée du radeau afin de servir de flotteurs tandis que la Reine est installée au centre de l’esquif. Celui-ci part alors à la dérive jusqu’à trouver un point de fixation (terre émergée, tronc d’arbre, etc.) où la colonie attendra patiemment la fin de l’inondation. Élément très particulier : le radeau vivant peut dériver des semaines avant de trouver un point de fixation jugé valable ! Ensuite, lorsque les conditions seront redevenues normales, il suffira aux fourmis de pratiquer la gymnastique inverse : la colonie est sauvée…

 

 

* la traversée du fleuve

 

    Bon nombre d’entre nous ont assisté, grâce aux documentaires animaliers, à la grande migration des gnous depuis les plaines du Serengeti, en Tanzanie jusqu’à celles de Masaï Mara au Kenya. Des dizaines de milliers de gnous accompagnés de quelques zèbres parcourent cette énorme distance à la recherche de nouveaux pâturages. Problème : pour rejoindre les terres convoitées, il faut que l’immense troupeau traverse la rivière Mara où les attendent des dizaines de crocodiles affamés regroupés à cet endroit précis chaque année à la même époque.

 

     Les scientifiques qui observent depuis longtemps ce drame inévitable sont arrivés à la conclusion que, si un zèbre s’appuie sur son intelligence

intelligence collective
Crocodiles à l'affût, la traversée de la rivière Mara demande du courage

propre qui est plus de dix fois supérieure à celle d’un gnou, les bovidés ont, eux, recours à une sorte d’intelligence collective : au total les gnous s’en sortent bien mieux que les zèbres. En effet, lorsque le gigantesque troupeau arrive sur la berge du fleuve, les premiers individus s’arrêtent, hésitent, piétinent, reculent tandis que les zèbres choisissent de traverser individuellement après avoir repéré les endroits qui leur paraissent les plus sûrs. Mais les nouveaux arrivants toujours plus nombreux repoussent de plus en plus les premiers gnous et l’un d’entre eux tombe finalement dans la rivière. Immédiatement, le troupeau entier se lance et, dans un énorme mouvement d’eau, fait reculer les crocodiles, circonspects devant le bruit et la masse qui s’approche d’eux. Bien sûr, des gnous seront happés au passage mais ce sont les zèbres qui traversent individuellement et latéralement qui feront souvent les frais du recul obligé des crocodiles…

 

     Arrivés sur l’autre rive, les gnous se séparent en différentes colonnes pour découvrir un passage et lorsque celui-ci est trouvé, tout le monde s’y engouffre, y compris les zèbres.

 

 

* la surveillance partagée

 

      Le Queléa ou « travailleur à bec rouge » (Quelea quelea) est un petit passereau connu pour être un des oiseaux les plus représentés au monde (un milliard et demi d’individus selon les dernières estimations). Habitant l’Afrique subsaharienne, ce petit oiseau (12 cm de long pour une quinzaine de grammes) est évidemment la victime de prédateurs, notamment les oiseaux de proie. Cependant, il lui faut bien se désaltérer et pour cela il a recours à une technique spéciale.

 

     Regroupés près du point d’eau, ce sont les plus anciens qui vont d’abord

intelligence collective
passereau de l'espèce Quelea quelea

se désaltérer tandis que les plus jeunes, grimpés sur les branches les plus hautes, scrutent le ciel. D’autres quéleas se placent sur les branches les plus basses pour prévenir d’une attaque terrestre. C’est seulement, lorsque les premiers auront étanché leur soif que les oiseaux échangeront leur place de façon à ce que chacun soit servi… Un oiseau de proie est repéré ? Immédiatement, tous les quéleas s’envolent dans un immense nuage virevoltant empêchant le prédateur de se fixer sur une proie précise et le plus souvent il repart bredouille.

 

     On peut donc constater, dans chacun de ces exemples, que le résultat obtenu par l’interaction entre les différents individus d’un même groupe est bien supérieur à ce qu’auraient obtenu les différents participants pris isolément (à supposer même que ces individus aient pu intervenir réellement sur le problème posé). Comment un tel dispositif est-il possible ?

 

 

 

une intelligence partagée pour quelle

organisation ?

 

 

     Jusqu’à il y a peu, la plupart des scientifiques s’étant intéressés à l’intelligence collective des animaux pensaient que la structure de l’organisation permettant la réalisation d’attitudes communes était de nature pyramidale. En d’autres termes, l’organisation des sociétés animales était vue comme celle des hommes : des décisions transitant par une hiérarchie au sommet de laquelle présidait le chef suprême donneur d’ordre, par exemple la Reine qui, dans la société des abeilles,  « ferait passer des ordres » à des ouvrières afin d’appliquer un programme prédéterminé.

 

     L’éthologie moderne a tendance à rejeter ce modèle : une des raisons avancées est que les individus concernés, des fourmis par exemple, n’ont tout simplement pas les aptitudes individuelles pour mettre en œuvre un tel programme : leurs capacités cognitives sont trop limitées. Pourtant, des actions mettant en jeu des milliers de participants existent bien, comme on l’a vu dans les exemples précédents. Comment cela est-il possible ? Eh bien, on pense qu’il s’agit d’interactions élémentaires induites entre individus qui n’ont accès qu’à des informations locales simples, peu nombreuses et forcément parcellaires.

   

     En d’autres termes, des sollicitations automatiques passent d’un individu à l’autre entraînant des réponses programmées, par exemple l’accrochage à la fourmi voisine en cas de danger par les eaux. L’individu pris isolément n’a aucune notion de ce que sera le résultat définitif : il ne sait pas du tout à quelle architecture il participe ni quel est l’objectif final de l’entreprise.

 

 

 

l’optimisation des procédures

 

 

     Comment une procédure peut-elle alors s’imposer comme règle de conduite de la communauté alors qu’il n’existe aucun « ordre venu d’en haut » et comment les individus qui vont être amenés à participer à une action commune bénéfique pour l’ensemble ont-ils « choisi » de le faire ? Pour le comprendre, reprenons l’exemple, très instructif, des fourmis  car il s’agit de sociétés animales où le nombre des participants est immense alors que l’indépendance de chacun d’entre eux est quasi-nulle.

 

     Imaginons une fourmilière et des centaines de fourmis partant d’elle pour aller explorer les environs à la recherche de nourriture. On sait qu’une fourmi laisse une trace odorante, appelée phéromone, sur l’espace qu’elle emprunte : c’est sa façon de communiquer avec ses congénères et de

intelligence animale collective
trouver le retour de façon fortuite

retrouver sa propre trace. Pour se rendre à un point B situé à distance de la fourmilière, il existe de nombreux chemins différents empruntés par des dizaines d’individus. Imaginons que l’une des fourmis « ait trouvé », de façon totalement aléatoire, le chemin le plus court pour aller du point A (fourmilière) jusqu'au point B (source d’approvisionnement) : en toute logique, elle retournera plus vite au nid avant de repartir par son chemin qu’elle empruntera plus souvent que les autres fourmis le leur. Son action se répète donc à de nombreuses reprises et le chemin le plus court finit par être marqué par davantage de phéromones que les autres, attirant de ce fait d’autres individus qui se mettent à l’emprunter, accentuant le phénomène. En pareil cas, la fourmi responsable d’avoir découvert le chemin le plus court ne le sait pas ; mieux encore, à aucun moment elle n’a cherché à communiquer l’information aux autres et pourtant celle-ci a fini par passer : il s’agit là d’un phénomène auto-organisé.

 

     Pour de nombreux problèmes se posant à une communauté d’animaux sociaux, l’acquisition de la solution la plus profitable à l’ensemble suit donc un tel schéma informatif. Mais, bien sûr, pour qu’une information demeure intacte au fil des générations, il faut davantage, comme on le verra plus loin.

 

 

 

critères d’intelligence collective

 

 

     On trouve des éléments d’intelligence collective chez d’assez nombreux animaux : les oiseaux, par exemple, sont capables de voler en groupe de façon à économiser les énergies de chacun (c’est le cas des oies sauvages dont la formation en V permet d’étendre la distance de vol, chaque individu profitant de l’aspiration de son prédécesseur) ou bien de réagir conjointement à la menace d’un prédateur. Ce type d’auto-organisation se rencontre également chez les petits poissons grégaires et permet au banc de répondre « comme un seul homme » aux différents stimuli extérieurs, notamment menaçants. C’est toutefois chez les insectes sociaux comme les fourmis, termites et autres abeilles que le modèle est porté à son paroxysme. Reprenons l’exemple des fourmis. Quels sont les critères d’organisation nécessaires à l’apparition d’une réponse collective adaptée ? On peut individualiser les suivants :

 

* l’information : les capacités cognitives de la fourmi en tant qu’individu sont, on l’a déjà souligné, limitées ce qui fait que chaque fourmi a finalement peu d’informations sur la fourmilière elle-même (il est d’ailleurs probable qu’elle ne sait rien de son organisation générale et de sa fonction globale). En revanche, grâce aux phéromones échangées, un individu est en contact avec ses voisins immédiats avec lesquels il peut échanger des informations locales ;

 

 * l’organisation par division des tâches : la Reine, bien sûr, est l’avenir de la colonie (il est d’ailleurs dommage d’avoir donné ce nom à cet individu primordial puisque, comme on l’a déjà dit, la décision d’action n’est pas pyramidale), les ouvrières, petites et accédant à l’ensemble de la fourmilière et les soldats, plus robustes et affectés à la surveillance et à la défense de l’ensemble. Ajoutons que chez d’autres animaux sociaux comme les abeilles, les rôles sont encore plus pointus, les ouvrières étant elle-même très spécialisées (voir le sujet : insectes sociaux et comportements altruistes). Quoi qu’il en soit, nos fourmis sont capables d’accomplir des tâches spécifiques comme collecter la nourriture, défendre la colonie, nourrir le reine et les larves, etc. Toutefois, on sait que, en cas de besoin, un individu peut changer complètement d’activité et on a souvent vu des fourmis ouvrières se battre et défendre l’entrée du nid contre des envahisseurs en cas de présence insuffisante des fourmis soldats. Cette faculté de changement traduit une certaine plasticité dans la division des tâches et pose une question : comment un individu dont on a dit que ses capacités étaient très limitées peut-il basculer ainsi dans un autre fonctionnement ?

 

* flexibilité et seuil de réponse : selon la « spécialisation » d’un individu, son seuil de réponse à une action sera plus ou moins important. Par

intelligence animale collective
pourquoi une ouvrière se bat-elle ?

exemple, il faudra peu de sollicitation pour qu’une fourmi ouvrière s’occupant plutôt de nourrir les larves le fasse effectivement puisque c’est sa fonction première. En revanche, son seuil de réponse est plus élevé pour, par exemple, défendre l’entrée de la colonie : ici, il lui faudra bien plus de stimuli pour qu’elle se « reconvertisse ». Or, nous avons vu que ce sont des informations locales qui font réagir une fourmi. Peu de sollicitations : elle accomplit sa tâche habituelle. Des sollicitations beaucoup plus importantes face à une menace (excès de phéromones, désorganisation locale, présence de « senteurs » étrangères, etc.) : elle se bat. Une sollicitation extrême, par exemple la fourmilière est inondée et certaines variétés de fourmis (décrites plus haut) s’accrochent les unes aux autres pour former un radeau flottant…

 

 

 

Pérennisation des comportements

 

 

     Ce que nous venons de décrire pour les fourmis concerne des attitudes collectives souvent compliquées résultant d’attitudes individuelles simples. On peut se demander comment de tels comportements ont pu se maintenir au fil du temps Il est évidemment exclu qu’un comportement collectif comme le radeau vivant des fourmis Solenopsis soit redécouvert par hasard à chaque fois qu’une colonie de ce genre est menacée par la montée des eaux. Il est également impossible que, chez des fourmis aux capacités individuellement si limitées, ce comportement ait été acquis par apprentissage (comme chez certains animaux intellectuellement plus évolués).

 

      Il s’agit donc forcément d’un instinct génétique et, en reprenant l’exemple du « radeau vivant » mais c’est vrai pour tous les autres acquis génétiques, on peut imaginer les choses de la façon suivante : les fourmis Solenopsis ont été confrontées depuis toujours aux inondations qui ont vu dans la plupart des cas disparaître des colonies entières. Et cela a duré pendant une période de temps immense, à savoir des centaines de milliers, voire des millions d’années. Puis, un jour, apparaît une mutation (chromosomique ou épigénétique) qui fait que, face à la menace de l’eau, un individu s’accroche à un autre pour se sauver. La mutation « accrochage à l’autre » n’est théoriquement intéressante qu’en cas de danger et elle apparaît chez une Reine, seule à même de donner des descendants. La mutation est transmise aux ouvrières qui, toutefois, ne sont nullement gênées par elle dans leur existence habituelle. Elle se maintient donc. En revanche, face au danger des eaux, la colonie porteuse de la mutation sera plus souvent sauvée que les autres et essaimera plus facilement d’où la diffusion progressive de cet élément favorable à la survie des colonies de ces fourmis.

 

 

 

L’intelligence collective

 

 

     Les animaux supérieurs qui chassent en bande (loups, lionnes, primates, etc.) montrent une sorte d’intelligence collective, ou du moins de groupe,

intelligence animale collective
loups : plus une collaboration qu'une action collective

puisque leur association leur permet d’obtenir des résultats qu’aucun d’entre eux n’aurait obtenu seul. Toutefois, il s’agit à mon sens de la limite d’une telle appellation : les animaux concernés ici possèdent des facultés cognitives bien supérieures aux insectes précédemment cités (et donc une bien plus grande liberté individuelle) et, d’autre part, le nombre des individus présents dans l’action est beaucoup plus faible. Ce type d’intelligence relève certainement plus de la coordination et de l’organisation que l’on retrouve dans un travail collaboratif, voire un travail d’équipe.

 

     À l’autre bout de l’échiquier se situe l’espèce humaine car l’intelligence collective la plus élaborée sur Terre est incontestablement celle des hommes : eux seuls ont réussi à s’affranchir de la communication locale entre individus (qui existe évidemment mais n’est plus primordiale) mais la comparaison s’arrête là. En effet, grâce à l’accumulation et à la transmission des connaissances acquises d’une génération à l’autre, l’aspect génétique évoqué pour les insectes sociaux est ici absent et toute comparaison est illusoire.

 

     L’intelligence collective proprement dite relève donc bien des sociétés animales sociales, sociétés d’autant plus performantes que l’aspect individuel est le moins présent possible. Elle traduit une faculté d’adaptation assurément très particulière et souvent très performante à moindre coût. Finalement assez mal connue, cette forme d’organisation mériterait que l’on s’y intéresse de près car elle a certainement beaucoup à nous apprendre.


 
 

 

Note brêve : rôle social des fourmis et épigénétique

 

Chez les fourmis, on naît ouvrière ou soldat et on le reste toute sa vie. Du moins, c'était le cas jusqu'ici. Car des biologistes de l'université de Pennsylvanie (Etats-Unis) ont réussi à inverser leurs rôles. Sans modifier leurs gènes mais en leur injectant des enzymes qui modulent l'expression des gènes par un simple changement de configuration de l'ADN. Un contrôle dit épigénétique qui pourrait jouer un rôle dans d'autres comportements sociaux chez la fourmi... et même chez l'homme.

(revue Science & Vie, avril 2016, n° 1183)


 

 

Sources :

 

1. Wikipedia France

2. Science et Avenir, n° 181, avril-mai 2015

3. CNRS (www.cnrs.fr/)

4. Encyclopaedia Britannica

5. www.animogen.com/

 

 

 

Images :

 

1. radeau de survie de fourmis Solenopsis (sources : journaldelascience.fr)

2. radeau de survie Solenopsis bis (sources : sweetrandomscience.blogspot.fr)

3. migration de gnous dans le Serengeti (sources : gentside.com)

4. Quélea (sources : calphotos.berkeley.edu)

5. fourmilière (sources : agoumatine.centerblog.net)

6. combat de fourmis ouvrières (sources : war2100.fr)

7. meute de loups (cources : loup.org)

 

 

Mots-clés : intelligence de groupe - hyménoptères - sélection naturelle - migration des gnous - organisation non pyramidale - information locale - phéromone - phénomène auto-organisé - plasticité comportementale

(les mots en gris renvoient à des sites d'information complémentaires)

 

Sujets apparentés sur le blog

 

1. le rythme de l'évolution des espèces

2. insectes sociaux et comportements altruistes

3. intelligence animale (1)

4. intelligence animale (2)

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

 

Dernière mise à jour : 16 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #paléontologie
DE L'ÉVOLUTION : la  Terre boule de neige

 

 

 

   Lorsqu’on pense aux débuts de notre planète, on imagine facilement une sorte de boule de feu où s’entrechoquent volcans éruptifs et mers de lave en fusion, le tout constellé de continuelles chutes de météorites venant rajouter de la confusion et des flammes. Ensuite, des millions d’années s’étant écoulés, on pense à un radoucissement progressif : la Terre se refroidit lentement pour aboutir à un climat à peu près tempéré qui permettra l’apparition de la Vie. Tout au plus, avance-t-on que, de temps à autre, se sont certainement produites des « oscillations » climatiques ayant conduit ici à une glaciation, là à un réchauffement des températures avec, chaque fois, la nécessaire adaptation du vivant.

 

   Il est rare toutefois que l’on imagine un autre processus extrême, aussi violent que la fournaise des débuts mais en sens inverse, c’est-à-dire aboutissant à une planète entièrement recouverte d’une épaisse couche de plusieurs km de glace et où la Vie telle qu’on la connait n’a aucune chance de se développer. Pourtant, cette époque glaciaire absolue a bel et bien existé, il y a longtemps, certes, et c’est cette période que l’on a appelé « Terre, boule de neige » (et que l’on aurait d’ailleurs plutôt dû appeler « Terre, boule de glace »), une période qui faillit faire de notre planète un désert.

 

 

 

Une hypothèse plutôt récente

   Douglas Mawson (1882-1958) était un Australien qui s’était spécialisé dans

tectonique des plaques - dérive des continents
Alfred Wegener (1880-1930)

l’exploration de l’Antarctique mais c’est dans le sud de son pays qu’il isola et identifia des étendues de sédiments glaciaires ce qui naturellement lui fit penser que, dans le passé, la Terre avait pu être recouverte d’une couche de glace généralisée. En réalité, la théorie de la tectonique des plaques (ou dérive des continents) n’avait pas encore été énoncée par Wegener et c’était pourtant là une explication bien plus simple : il n’en reste pas moins que ce fut la première fois qu’on envisagea une glaciation uniforme de notre planète…

 

   C’est bien plus tard, en 1964, qu’on reparla de cette approche de la Terre glacée lorsque le britannique W. B. Harland fit paraître un article dans lequel il expliquait avoir identifié au Groenland des moraines glaciaires (tillites) constituées alors que ce continent se trouvait à une latitude tropicale… Comment expliquer cette impossibilité apparente ?

 

   Le soviétique Mikhaïl Boudyko, à peu près au même moment, présenta une théorie de glaciation totale de la Terre en expliquant que, une fois une certaine latitude atteinte par les glaces, il s’ensuit un point de non-retour car l’effet réfléchissant de la neige et de la glace (l’albédo) entraîne un cercle vicieux, le refroidissement produisant toujours plus de froid. C’est même la raison pour laquelle Budiko abandonna sa théorie en concluant à peu près de cette façon : « Puisqu’il n’y a aucun moyen de sortir de cette glaciation générale et que nous sommes ici aujourd’hui pour en parler, c’est qu’elle n’a pas eu lieu  ! ».

 

  En 1992, l’américain Joseph Kirschvink, professeur de géobiologie en Californie

Joseph Kirschvinck

(au CIT) prononça pour la première fois l’expression « Terre boule de neige » en avançant non seulement qu’un état glaciaire général est possible mais qu’il peut être secondairement aboli par la présence de gaz à effet de serre, par exemple d’origine volcanique. C’était la solution qui manquait à Boudyko.

 

   Quelques années plus tard, la théorie de la Terre boule de neige prit encore de l’ampleur par la publication de l’américain Paul Hoffman qui expliquait que des sédiments découverts par son équipe en Namibie ne pouvait s’expliquer aisément que par la théorie de Kirschvink  !

 

   Les scientifiques, toutefois, ne partagent pas tous cet avis et il en reste un certain nombre qui s’interrogent sur la réalité du phénomène…

 

 

 

Un peu de chronologie

 

  Résumons tout d’abord succinctement ces différentes glaciations pour mieux situer celle qui nous intéresse. Dans l’histoire de la Terre, il y a eu, selon les données actuelles, cinq grandes phases de glaciations :

 

1. la glaciation huronienne (vers -2,3 milliards d’années)

 

2. la glaciation néoprotérozoïque : celle qui nous intéresse car responsable de la Terre boule de neige (entre -1 milliard et -542 millions d’années) et ayant évolué en au moins trois temps successifs,

 

3. la glaciation de la fin de l’ordovicien (-444 millions d’années)

 

4. la glaciation du dévonien, à la fin de l’ère primaire (-360 millions d’années ) et

 

5. la glaciation cénozoïque dans laquelle nous sommes encore (bien que dans une période interglaciaire) et qui dure depuis une quinzaine de millions d’années .

 

   Revenons à la glaciation néoprotérozoïque qui nous intéresse aujourd’hui. Elle évolua en trois phases et l’une d’entre elles, la glaciation dite marinoenne, a été plus particulièrement étudiée car c’est très vraisemblablement à cette époque qu’eut lieu le phénomène de planète boule de neige. Selon Paul Hoffman déjà cité, cette phase glaciaire intense voire exceptionnelle explique la diversification des espèces qui a suivi (et que nous avons déjà évoquée dans d’autres sujets)…

 

 

 

La glaciation marinoenne

 

   Ayant duré de -650 à -635 millions d’années, cette glaciation doit son nom au fait que les preuves de sa réalité ont été primitivement trouvées dans la région de Marino qui est une ville de la banlieue sud d’Adélaïde, en Australie. Elle fut terrible au point que, de l’espace, la Terre devait apparaître comme totalement blanche. Seules quelques rares et modestes étendues d’eau devaient être libres à l’équateur où les températures devaient être voisines de celles de l’antarctique actuel. De plus, la vapeur d’eau atmosphérique se congelant, la couverture nuageuse devait être très faible avec des nuits particulièrement froides et des déperditions de chaleur maximales. Inutile de préciser que, à de telles températures et avec une telle surface glacée, la production biologique était voisine de zéro.

 

terre boule de glace
le Rodinia lors de la glaciation marinoenne

 

   La cause en est la tectonique des plaques et la fragmentation du supercontinent  de cette époque lointaine, le Rodinia. Il devait y avoir certainement des blocs en

position polaire (sans cela, une glaciation ne peut se produire) mais il fallut aussi, et cela peut sembler paradoxal, qu’il y ait eu d’autres continents en position équatoriale pour que s’amorce l’effet boule de neige : en effet, ce sont les océans tropicaux qui réfléchissent le mieux la lumière du soleil (et diminuent de fait la température ambiante) tandis que les terres en regard sont beaucoup plus arrosées d’où une érosion accrue des rivières et, fait important, une mise en surface des silicates qui, en se combinant avec le CO², amènent à terme à sa diminution or c’est un gaz à effet de serre majeur.

 

   On comprend évidemment que de tels phénomènes se déroulent sur d’immenses

Terre boule de glace
l'albedo d'autant plus réfléchissant qu'il y a de la neige

durées de temps, les changements étant totalement imperceptibles à l’œil d’un éventuel observateur. Quoi qu’il en soit, on peut imaginer une progression des glaces depuis les pôles vers l’équateur. Or, comme l’avait parfaitement supposé le soviétique Budiko, il existe un point de non-retour, à savoir le franchissement du 35ème parallèle : au-delà l’albédo (l’effet réfléchissant de la lumière solaire) est si intense que le froid, en quelque sorte, s’auto-entretient et que la glace finit par couvrir l’intégralité du globe. À cette époque, notre planète était devenue une immense patinoire et cette glace toujours plus épaisse était un obstacle majeur au développement de la Vie. Toutes proportions gardées, la Terre devait ressembler à Ganymède, le satellite de Jupiter, qui, fort de sa masse de deux fois celle de la Lune, abrite un immense océan d’eau glacé sous une épaisse couche de glace : la Terre, heureusement, est quant à elle bien plus près du Soleil ce qui sous-entend que si un réchauffement survient, il peut être durable.

 

   A-t-on des preuves que cette situation cataclysmique a eu lieu ?  Eh bien oui : c’est la mise en évidence de « carbonates de recouvrement » qui permit à Hoffman

Terre boule de glace
des glaciers à l'équateur

d’asseoir son hypothèse. De quoi s’agit-il ? Les dépôts glaciaires découverts (notamment en Namibie) possèdent une signature magnétique prouvant que leur origine est plus proche de l’équateur que des pôles ; toutefois, ils sont ici « recouverts » par des carbonates qui sont des sédiments marins. Voilà donc des glaciers qui se sont formés au niveau de la mer mais comment peuvent-ils bien s’être créés et recouverts de carbonates près de l’équateur ? Une seule explication possible : à cette époque l’équateur était couvert de glace…

 

   Comment peut-on sortir de cette situation si celle-ci s’auto-entretient ? Pour combattre ce froid intense, il est nécessaire que l’albédo diminue avec la fonte des glaces et seul un effet de serre peut expliquer un tel phénomène. Oui, mais provoqué par quoi ? On se rappelle que ce sont les océans qui normalement stockent le CO² mais, dans le cas qui nous occupe, cela est impossible puisqu’il n’existe que de la glace. De ce fait, le CO² émis par les éruptions volcaniques va pouvoir s’accumuler dans l’atmosphère où va se créer peu à peu un effet de serre. Au fil de plusieurs millions d’années - et de la plus ou moins grande activité volcanique - le processus de refroidissement va s’inverser et la Terre progressivement sortir de sa gangue gelée.

 

 

 

Quelle signification pour la Vie ?

 

   Et la Vie dans tout ça, comment a-t-elle pu se maintenir ? Car,

algues bleues

bien que l’époque soit très lointaine, la Vie existait déjà, et depuis longtemps. Il ne s’agissait toutefois que d’une vie très rudimentaire, essentiellement des micro-organismes telles les cyanobactéries (algues bleu-vert) capables de photosynthèse et donc de production d’oxygène. Bien sûr, la Vie restait possible pour les organismes anaérobies demandant peu d’oxygène et en l’absence de

fumeurs noirs, si loin de la surface...

toute photosynthèse : on pense aux cheminées hydrothermales (ou fumeurs noirs) au fond des océans. Toutefois, il restait certainement aussi quelques rares régions océaniques libres de glace où de petites colonies d’organismes photosynthétiques ont pu fabriquer des traces d’oxygène assimilables par quelques colonies d’organismes aérobies. Ailleurs pouvaient exister des points chauds (comme en Islande actuelle) ou des poches d’eau liquide sous les calottes glaciaires comme le lac Vostok en Antarctique.

 

   Une chose est certaine : durant cette période de froid, la Vie ne semble pas avoir connu de changements majeurs. C’est seulement ensuite, lorsque le phénomène aura disparu, que se produira une incroyable diversification de la Vie conduisant à la flore d’Édiacara et à celle du Cambrien (voir le sujet : l’explosion cambrienne).

 

 

 

Les glaciations et la Vie

 

schiste de Burgess
faune d'Édiacara

 

   Comme on vient de le faire remarquer, la fin d’une glaciation correspond souvent à l’apparition de nouvelles formes de vie, comme si la disparition progressive des glaces ouvrait un certain nombre de niches écologiques qu’il conviendrait de coloniser. Ainsi, à la fin de la glaciation marinoenne et la probable Terre boule de neige, on voit apparaître les éponges. Un peu plus tard (une façon de parler car on évoque un intervalle de 60 millions d’années), vers -575 millions d’années survient une autre poussée glaciaire moins intense dite de Gaskiers qui voit peu après l’extraordinaire foisonnement de vie de la flore d’Édiacara déjà évoquée.

 

   Faut-il y voir une relation de cause à effet ? Eh bien, non pour certains scientifiques qui estiment qu’il ne s’agit là que de coïncidences temporelles. D’autres pensent que les glaciations notamment la néoprotérozoïque par son épisode marinoéen, la dernière à avoir pu provoquer une Terre boule de neige, a peut-être permis une progression de la Vie. On peut, en effet, penser que lors de sa disparition les océans sont remontés, multipliant la surface des plateaux continentaux et, au fil des millions d’années, l’augmentation du taux d’oxygène si important pour l’apparition de la diversité.

 

   En somme, après avoir été l’obstacle principal au développement de la Vie (au point de l’avoir empêchée durant des millions d’années jusqu’à la faire presque succomber), la Terre boule de neige aura peut-être été, par sa disparition, un des meilleurs éléments de la dissémination du vivant, de sa radiation à travers le globe.

 

 

 

 

Sources

 

1. fr.wikipedia.org

2. www.astronoo.com/fr/articles/vie-sous-la-glace.html

3. Encyclopaedia Universalis

4. les dossiers de la Recherche, n°39, mai 2010

5. http://www.futura-sciences.com

 

 

Images

 

1. la Terre boule de neige (sources : www.quizz.biz)

2. Alfred Wegener (sources : fr.wikipedia.org/)

3. Joseph Kirschvinck (sources : web.gps.caltech.edu/)

4. le continent Rodinia qui prévalait à l'époque néoprotérozoïque, notamment marinoenne (sources : burkemuseum.org)

5. l'albédo (sources : oceanbites.org)

6. glaciers (sources : electrictreehouse.com)

7. algues bleues (sources : lemonde.fr)

8. fumeurs noirs (sources : www.vetofish.com/)

9. faune d'Édiacara (sources : astrobio.net)

(pour lire les légendes des illustrations, passer le curseur de la souris dessus)

 

 

Mots-clés : glaciation - W. B. Harland (en anglais) - Mikhaïl Boudyko - albedo - tectonique des plaques - gaz à effet de serre - cyanobactéries - photosynthèse - faune d'Ediacara - explosion cambrienne

(les mots en gris renvoient à des sites d'information complémentaires)

 

 

Sujets connexes sur le Blog

 

1. les extinctions de masse

2. la dérive des continents ou tectonique des plaques

3. spéciations et évolution des espèces

4. la grande extinction du Permien

5. l'explosion cambrienne

 

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

 

mise à jour : 16 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #paléontologie

 

 

 

     Au cours des temps géologiques, il y eut pour la Vie sur Terre cinq grandes extinctions de masse, la plus importante d'entre elle s'étant produite il y a environ 250 millions d'années (MA), à une époque appelée par les scientifiques le Permien, époque qui marqua la fin du paléozoïque (c'est à dire l'ère primaire dans l'ancienne terminologie). Précédée par le Carbonifère et suivie du Trias, le Permien - qui doit son nom à la ville de Perm, en Russie , où fut découvert ce type de gisement fossilifère - s'étend sur un peu moins de cinquante millions d'années. Pour tous les paléontologues, cette période est particulièrement célèbre parce qu'elle s'acheva par la disparition de 95% des espèces vivantes marines et de trois-quarts des espèces terrestres.  Cette extinction massive est la troisième recensée par les scientifiques depuis l'apparition de la Vie (la première eut lieu à l'Ordovicien il y a 440 MA et la deuxième au Dévonien il y a 360 MA) mais elle fut la plus terrible. Pourquoi un tel phénomène si brutal ? Les extinctions postérieures suivirent-elles le même modèle apocalyptique et, si oui, peut-on y distinguer là une sorte de rythmicité ? Voilà quelques unes des questions que je me propose d'aborder dans ce sujet.

 

 

 

 

la vie au permien

 

 

     A cette époque lointaine, il n'existe qu'un seul supercontinent, la Pangée, dont la plus grande partie est située dans l'hémisphère sud et qui contient (presque) toutes les terres. Le continent unique renferme de nombreuses mers intérieures (mais avec des niveaux moyens assez bas) : d'une façon générale, le climat y est plutôt aride avec des températures plus élevées qu'au Carbonifère qui précédait et une quasi-disparition des glaces. Plus humide sur les bords de l'océan Panthalassa qui entoure les terres, le climat est plus sec dans le centre de la Pangée avec des températures pouvant passer de 0° la nuit à 40° le jour, un peu comme dans le désert du Sahara d'aujourd'hui. La pluviométrie générale y est plutôt faible et le climat relativement homogène ce qui devait permettre les migrations des animaux tout au long du supercontinent sauf dans la dernière partie du Permien (Permien supérieur) où le climat semi-désertique était devenu trop dominant dans le centre des terres.

 

     La vie dans la Pangée comprend, pour les plantes, des gymnospermes (dont les éléments reproducteurs sont protégés par des capsules), des fougères et on voit apparaître vers la fin de cette époque les premiers arbres, essentiellement des conifères.

 

     Mi-reptiles, mi-mammifères, dès le début du Permien, les thérapsidés (anciennement appelés reptiles mammaliens) furent les premiers animaux à adopter un mode de vie exclusivement terrestre : une de leurs branches, celle des cynodontes (dontun dimetrodon (famille des pelycosaures) certains représentants portaient déjà des poils), donnera à l'époque suivante (au Trias) les précurseurs des mammifères (placentaires et marsupiaux). C'est probablement à cette époque, vers la fin du Permien, qu'apparurent les premiers éléments de thermorégulation comme en atteste la présence chez certaines espèces (pelycosaures) de "voiles" essentiellement dorsaux permettant d'évacuer la chaleur du jour mais également de capter celle du Soleil pour l'activité matinale. À cette époque, également, on constate l'apparition des premières bipédies. Les amphibiens, les arthropodes (araignées, scorpions, insectes) et les ancêtres des grands reptiles du secondaire constituent l'essentiel du reste des espèces animales terrestres.

 

     La vie marine est également bien représentée avec, pour les mollusques, essentiellement des céphalopodes (comme les nautiles) et de nombreux foraminifères (protozoaires unicellulaires).

nautile

On trouve également des arthropodes comme les crustacés (mais les derniers trilobites ont déjà commencé à disparaître), des brachiopodes (animaux filtreurs, coquillages bivalves ressemblant à des palourdes, lys de mer, oursins, etc.) et des coraux dits "rugueux" (très différents des coraux actuels). Pour les poissons, ce sont ceux dits "cartilagineux" (comme les raies ou les requins) qui dominent les mers jusqu'à la fin du Permien tandis que les poissons osseux sont encore minoritaires.

 

     L'équilibre entre les différentes espèces animales et végétales qui durait tant bien que mal depuis plusieurs dizaines de millions d'années va soudain être détruit aux environs de - 252 MA par ce qui restera dans l'histoire de notre planète comme la pire catastrophe pour la Vie sur Terre.

 

 

 

 

les causes du désastre

 

  

     Comme souvent, il n'existe pas une cause unique pour expliquer l'extinction massive mais la juxtaposition, voire l'intrication de plusieurs d'entre elles.

 

     Le Permien, on l'a déjà évoqué, est la réalisation d'un événement unique : la réunion de toutes les terres émergées du globe en un seul supercontinent, la Pangée. Cette juxtaposition de terres auparavant indépendantes a eu pour conséquence principale de faire considérablement diminuer les plateaux continentaux et, d'une manière générale, de fortement réduire la longueur des côtes qui, on le sait, sont un habitat particulièrement recherché par la Vie. Par ailleurs, cette diminution entraîna, à surface égale, la baisse concomitante des terres soumises à un climat océanique alors que, au contraire, les zones continentales se firent plus vastes avec leur climat semi-aride moins favorable.

 

     Vers -265 MA (soit 15 MA avant l'extinction), une fois le supercontinent réalisé, la tectonique des plaques diminua considérablement ce qui eut pour conséquence l'affaissement de la dorsale océanique et donc une diminution des hauts-fonds des plateaux continentaux entraînant évidemment celle de la surface habitable : pour les espèces vivantes, la compétition devint de plus en plus âpre.

 

     Durant les quelques millions d'années qui précédèrent la fin du Permien supérieur (vers ‑257/‑252 MA), se mit en place une élévation générale des températures. En effet, grâce à des études portant sur des milliers de fossiles d'animaux, les scientifiques sont arrivés à la conclusion que la température moyenne des terres équatoriales avoisinait les 50° (voire 60°) tandis que celle des masses océanes équatoriales atteignait, elles, souvent les 40° : on comprend dès lors la difficulté pour les animaux de survivre dans un environnement aussi hostile. Quelles furent les causes d'une telle élévation des températures ? Très certainement, la conjonction d'un volcanisme intense aboutissant à un effet de serre entretenu, comme on le verra, par d'autres mécanismes. C'est en effet, dans les dernières centaines de milliers d'années du Permien supérieur que survint un phénomène éruptif capital appelé  les trapps de Sibérie.

 

     En suédois, le mot "trapps" signifie marches et c'est bien de cela dont il s'agit lorsqu'on regarde certaines photos de cet épisode volcanique majeur, peut-être le plus violent survenu sur

trapps de Sibérie

Terre au cours des 500 derniers millions d'années : environ trois millions de km3 de lave vont se répandre durant des milliers d'années sur la Sibérie. La lave produite par le phénomène correspondait à la hauteur du Mont Blanc sur une surface supérieure à deux fois celle de la France sur une durée d'environ 600 000 ans, peut-être plus : on imagine les conséquences sur le climat terrestre ! À titre de comparaison, rappelons le phénomène dit "de Laki", survenu en Islande entre juin 1783 et février 1784 : seulement 12 km3 de lave mais le rejet dans l'atmosphère de millions de tonnes de dioxyde de soude et de dioxyde de carbone qui décimèrent cultures et troupeaux dans toute l'Europe, provoquant un nombre de décès humains singulièrement élevé ; certains historiens prétendent même que ce fut un des éléments déclencheurs de la révolution française ! Alors 600 000 ans d'éruption volcanique... Outre les laves elles-mêmes, il y a leur action sur les sols qui, dans le cas des trapps, provoqua la libération d'une énorme quantité de gaz toxiques et donc l'accélération de l'effet de serre.

 

     Toutefois, selon les spécialistes, si les trapps de Sibérie furent les probables responsables de l'extinction, le phénomène ne porta que le coup de grâce à une faune et une flore déjà stressés auparavant. Dans la genèse de la catastrophe, on peut ainsi incriminer :

 

* la désoxygénation des eaux : dans les 20 millions d'années précédents, le niveau des mers avaient baissé de plus de 200 m, réduisant - on l'a déjà dit - les zones de vie en pente douce que sont les plateaux continentaux ; de plus, ces mers étaient

des océans peu propices à la vie

particulièrement anoxiques, c'est à dire manquant d'oxygène à tous les niveaux (et pas seulement en profondeur comme aujourd'hui) : la conséquence en a été le développement d'une importante flore anaérobie produisant de l'hydrogène sulfuré dont l'action principale a été, non seulement de détruire la faune aérobie, mais surtout d'entraîner par diffusion en surface pluies acides et destruction de la couche d'ozone protectrice naturelle. En somme, un stress considérable pour des populations devant déjà se partager un territoire plus restreint et plus hostile.

 

* l'empoisonnement général : les volcans - et donc les trapps - eux-aussi sont de grands pourvoyeurs d'hydrogène sulfuré et, émis en grande quantité, ce gaz s'est combiné avec l'oxygène restant des océans aboutissant à désoxygénation et acidification des eaux : difficile pour les habitants de ces endroits de résister longtemps.

 

     Sur Terre, la situation n'était guère meilleure avec la conjonction des actions délétères de l'hydrogène sulfuré et du dioxyde de carbone. Les scientifiques spécialistes de la question avancent les chiffres suivants : au moment de l'extinction Permien-Trias, le taux d'oxygène au niveau de la mer était équivalent à celui d'aujourd'hui au dessus de 2000 m d'altitude. Dans la dizaine de millions d'années qui a suivi, la raréfaction de l'oxygène s'est poursuivie au point que l'air respirable avait fini par correspondre à celui que l'on trouve de nos jours au dessus de 5300m. On comprend dès lors que peu d'organismes vivants ont pu résister à un tel régime.

 

* l'élévation constante des températures : comme pour tout effet de serre, les températures, nous l'avons déjà vu, ont augmenté de façon sensible jusqu'à atteindre les 50° voire plus en moyenne journalière d'été tandis que les hivers devaient être redoutablement rigoureux.

 

     Les éventuels coupables ne manquent pas et, plus récemment, a été proposé l'action mortifère d'un puissant gaz à effet de serre, le méthane. En effet, certains chercheurs se demandent si les seuls gaz toxiques des trapps peuvent avoir conduit à une élévation si considérable des températures. Or, depuis 1971, on s'intéresse de près au pergélisol sibérien qui renferme d'immenses quantités de méthane (10 000 milliards de tonne d'équivalent carbone), gaz toxique redoutable puisque, à l'échelle d'un siècle, il est 24 fois plus puissant que le CO2. (C'est d'ailleurs une des grandes angoisses du moment de savoir que le réchauffement climatique actuel pourrait libérer le méthane piégé par les glaces de Sibérie ce qui accentuerait le réchauffement en un cercle vicieux infernal). Pour le désastre du Permien, l'augmentation des traces de libération de méthane (le carbone12) apparaissent un peu après la date fatidique : le méthane ne serait donc pas le tueur principal mais un exécutant secondaire...

 

     Signalons pour être complets que, comme pour la cinquième extinction de masse (celle d'il y a -65 MA qui vit disparaître les grands sauriens), on rechercha avec beaucoup d'attention les cicatrices d'un éventuel astéroïde pouvant s'être écrasé à cette période sur Terre mais sans que les différents cratères successivement proposés n'emportent la conviction des scientifiques.

 

     Diminution de la surface de vie, raréfaction de l'air remplacé par des gaz toxiques à effets de serre,  pluies acides, augmentation de l'action ionisante des rayons solaires par disparition de la couche d'ozone, élévation généralisée des températures, le tout se poursuivant sur des centaines de milliers d'années, tout ceci explique que la Vie a failli totalement disparaître de la surface de la Terre. Pourtant, contrairement à ce que pouvait laisser prévoir ce scénario cataclysmique, elle résista quand même.

 

 

 

 

La vie est plus résistante qu'on le croit

 

 

     L'affaire est entendue : la crise du Permien fut exceptionnelle puisque trois-quarts des espèces terrestres et plus des 9/10 des espèces marines disparurent. Comme toujours lors d'une extinction massive, il y eut des perdants (beaucoup) et des gagnants (moins nombreux) qui eurent l'avantage considérable de trouver un environnement soudain "libéré" ce qui permit leur développement rapide, voire, pour certaines espèces, une véritable radiation (c'est à dire une nouvelle et intense diversification géographique).

 

        Précisons tout d'abord que la flore fut relativement épargnée. Bien sûr, elle a fortement évolué à cette époque mais surtout en raison de l'élévation des températures qui privilégia les plantes peu exigeantes en climat sec comme les conifères et les cycadales (palmiers), les plantes herbacées et les fougères.

 

           Sur Terre, bien qu'il soit toujours difficile d'affirmer avec certitude pour ces temps anciens, il semble que les reptiles dominants, les synapsides (dont font partie les thérapsides cités en début de texte et les pelycosaures "à voile"), sont ensuite toujours présents mais au prix de renouvellements importants des différentes lignées. Ces reptiles dits anciennement "mammaliens" qui, souvent, ressemblent aux varans d'aujourd'hui (les pelycosaures étaient très agiles) se retrouveront au Trias qui suit et ils concurrenceront un temps les dinosaures. Chez les synapsides herbivores, les dicynodontes qui sont des reptiles dotés de dents fouisseuses ne réchappent que par une seule de leurs espèces (lystrausaurus). Les cynodontes, en revanche, s'en sortent très bien : certains d'entre eux existeront jusqu'au Jurassique inférieur (-180 MA), soit encore 70 millions d'années ! Ces reptiles subsisteront, certes, au mésozoïque (ère secondaire) mais sous la forme de petits animaux fouisseurs insectivores, probablement à sang chaud et parfois poilus, les précurseurs des mammifères. Ce qui fait leur singularité (qui, bien longtemps après sera transmise aux mammifères), c'est la faculté qu'ils ont, à l'inverse des autres reptiles, de pouvoir mâcher la nourriture tout en respirant : les autres reptiles, en effet, ne le peuvent pas et c'est la raison pour laquelle ils avalent la nourriture par gros morceaux ce qui ralentit la digestion... et les réponses à la prédation. Les cynodontes avaient des dents bien différenciées et des muscles masticateurs développés tout en gardant une apparence générale de reptile archaïque.

 

          En revanche, les prédateurs du Permien supérieur, les gorgonopsiens ne survivent pas. Eux aussi faisant partie des thérapsidés, leur nom fait allusion aux Gorgones de la mythologie

gorgonopsien

grecque, ces femmes aux chevelures de serpents : ils étaient, en effet, les superprédateurs de cette époque, s'attaquant à toutes les proies rencontrées. Curieusement, bien que n'ayant rien à voir avec les mammifères, ces animaux leur ressemblaient avec un appareil dentaire voisin du nôtre (mais avec deux canines de plus de 10 cm de long), des pattes plus élancées que celles habituelles des reptiles, une apparence générale plus gracieuse. Nous ne savons pas, en revanche, s'ils possédaient un pelage. Faute de nourriture, les gorgonopsiens disparurent complètement lors de l'extinction.

 

          En milieu marin, l'hécatombe fut encore plus importante. On pourrait dire pour résumer très grossièrement que disparurent principalement ici les animaux fixés qui se nourrissaient d'aliments en suspension tandis que furent plutôt épargnés les animaux pouvant se déplacer.

 

        Certains groupes disparurent totalement : par exemple, chez les arthropodes, les fameux trilobites, les euryptides (ou scorpions de mer) et les grands foraminifères, essentiellement représentés par les fusulines qui vivaient posées sur les fonds océaniques, sont anéantis. Il semble, toutefois, que ces groupes aient commencé à décliner avant l'extinction qui serait en quelque sorte apparue comme le dernier coup porté. D'autres groupes souffrirent énormément mais sans disparaître totalement : c'est le cas de certains brachiopodes qui dominèrent les océans au paléozoïque ; ces animaux à coquilles bivalve sont aujourd'hui représentés par moins de 330 espèces, le groupe ayant perdu lors de l'extinction permienne 50 familles soit 90% des genres. D'autres subissent aussi de lourdes pertes : c'est le cas de divers échinodermes comme les étoiles et concombres de mer, les échinides (oursins : un seul genre survivant est à l'origine de tous les oursins modernes), les crinoïdes, etc. Signalons également la diminution importante des poissons cartilagineux (du type de la raie), dominants jusque là qui, sans disparaître complètement, laissent leur place aux poissons osseux.

 

         Quoi qu'il en soit, cinq pourcents des animaux marins de cette époque lointaine ont donc donné toutes les espèces actuelles.

 

           L'extinction de masse du Permien fut terrible et il faudra plus de 30 millions d'années à la Vie pour rebondir, ce qui n'est pas rien  !

 

 

 

 

Réalité des extinctions de masse

 

 

          Dans les années 1980, certains spécialistes scientifiques de la question avancèrent l'hypothèse qu'il existait peut-être une rythmicité des extinctions : ils crurent discerner certains pics de fréquence, notamment pour des extinctions mineures revenant régulièrement au cours des temps géologiques. On avança même que, peut-être, entraînée par la rotation du Soleil autour du centre de la Galaxie, notre planète traversait à dates fixes des portions de l'Univers "toxiques" pour la Vie.  À moins qu'il ne se soit agi de chutes régulières de météorites géants. Ces idées sont aujourd'hui abandonnées par la majorité des scientifiques qui pensent qu'il s'agit là essentiellement d'artéfacts statistiques.

 

          Il n'en reste pas moins que la Vie faillit disparaître à plusieurs reprises et singulièrement au Permien qui nous intéresse aujourd'hui. A-t-on identifié des causes communes à ces différents cataclysmes ? La seule extinction dont on soit à peu près certains qu'elle est la conséquence de la chute d'un météorite géant est la dernière (au Crétacé, il y a 65 MA avec la disparition des dinosaures). Pour les quatre précédentes, l'impact d'une météorite pourtant consciencieusement recherché n'a jamais été démontré. Restent les phénomènes volcaniques, souvent présents mais à des degrés divers, les modifications de la configuration des continents (et donc des modifications de vie) et de la profondeur des océans correspondants, l'intervention de gaz à effets de serre d'origine variable : en somme, bien des phénomènes souvent liés mais dont la coexistence à un moment donné semble plutôt dûe au hasard

 

          Pour la Vie, en tout cas, ces événements ne furent pas anodins puisque, comme nous l'avons dit, elle faillit être totalement anéantie, bien des espèces animales ne devant leur salut qu'à la survie de quelques individus. Des espèces dominantes furent soit détruites, soit presque réduites à néant : leur disparition permit alors la libération de niches écologiques et le développement de nouveaux arrivants qui, sans l'extinction, n'auraient jamais pu prospérer à leur tour (je pense à l'exemple parfait de la disparition des dinosaures au Crétacé sans laquelle les mammifères - et notamment l'espèce humaine - n'auraient jamais pu dominer le monde). On peut presque se demander s'il ne s'agit pas là, à l'échelle géante, d'un mécanisme de sélection naturelle. Les lois de l'Évolution en dimension planétaire en quelque sorte…

 

           Il reste évidemment que si extinctions de masse il y a eu, et ce à plusieurs reprises, il peut en arriver d'autres. Elles ne sont toutefois pas si fréquentes : cinq en l'espace de plus de 400 millions d'années… Cependant, un million d'années est déjà un chiffre que notre cerveau humain ne peut réellement saisir, lui qui est habitué à ne connaître qu'une civilisation vieille de tout au plus 5 000 à 6 000 ans. Et la dernière extinction eut lieu il y a… 65 millions d'années  !

 

        Toutefois il existe depuis peu - moins de 200 ans - un élément nouveau sur Terre : la modification radicale des conditions de vie avec l'apparition d'un réchauffement climatique par gaz à effet de serre et la réduction des territoires nécessaires à l'épanouissement des espèces animales présentes : étrange coïncidence puisque c'est en grande partie l'explication de l'extinction permienne  ! Seulement, cette-fois ci, pas de hasard : l'Homme et lui seul est responsable du bouleversement à venir. Ira-t-on jusqu'à dire qu'il s'agit de la sixième extinction de masse ou faut-il prétendre qu'il s'agit seulement d'un épiphénomène prévu par la théorie de l'Évolution à savoir la prise de pouvoir d'un superprédateur ? Je laisse à chacun des lecteurs le soin de conclure selon sa propre sensibilité.

 

 

 

 

 

 

Sources :

 

1. Wikipedia France ; Wikipedia USA

2. les dossiers de la Recherche, 39, mai 2010

3. Encyclopaedia Universalis

4. Encyclopaedia Britannica

5. www.futura-sciences.com

 

 

 

Images :

 

1. la Pangée (sources : www.futura-sciences.com)

2. dimétrodon (sources : dinosoria.com)

3. nautile (sources : biodiversite.nc)

4. carte des continents au Permien (sources : blogs.mediapart.fr)

5. trapps de Sibérie (sources : www.earth-of-fire.com)

6. océans terrestres (sources : 123ocean.com)

7. pergélisol sibérien (sources : futura-sciences.com)

8. dicynodonte (sources : dinosoria.com)

9. gorgonopsien (sources : paleodico.wifeo.com)

10. trilobite (sources : en.wikipedia.org)

(pour lire les légendes des illustrations, passer le curseur de la souris dessus)

 

 

Mots-clés : extinctions de masse - Pangée - reptiles mammaliens - tectonique des plaques - volcanisme - effet de serre - trapps de Sibérie - hydrogène sulfuré - dioxyde de carbone - pergélisol sibérien - trilobites - fusulines - sixième extinction de masse

(les mots en gris renvoient à des sites d'information complémentaires)

 

 

 

 

Sujets connexes sur le Blog

 

1. les extinctions de masse

2. la dérive des continents ou tectonique des plaques

3. spéciations et évolution des espèces

4. la notion d'espèce

 

 

Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

mise à jour : 16 mars 2023

Sujets connexes sur le Blog

 

1.

2.

3.

4.

5.

 

 

Voir les commentaires

Publié le par cepheides
Publié dans : #médecine

 

 

                 memoire-botanique.jpg

 

 

 

 

     Il y a de cela fort longtemps – mais le souvenir est encore bien présent en moi – un jour, je ne sais pourquoi, nous eûmes avec le professeur d’anglais de notre classe de cinquième une discussion passionnante sur ce qu’était la mémoire. Du moins sur ce que l’on en pensait à l’époque. Notre professeur, madame M., nous expliqua que l’on pouvait comparer la mémoire et le stockage de nos souvenirs à une immense gare de triage comportant des milliers de voies ferrées. Certaines d’entre elles, proches, sont facilement accessibles tandis que pour d’autres, fort éloignées, il faut que la « locomotive » fasse bien des kilomètres avant de les atteindre.voies-de-chemin-de-fer.jpg D’autres enfin, trop lointaines ou oubliées, ne sont plus abordables et j’imaginais leurs rails rouillés, leurs traverses abimées et l’envahissement par les herbes folles. A défaut de représenter la réalité, cette image présentait l’intérêt de bien fixer l’imagination. En fait, l’explication de notre professeur, fondée sur l’approche à la fois empirique et superficielle de ce temps-là, n’était pas si absurde, du moins d’un point de vue systémique à défaut, bien sûr, d’être biologiquement valide. Nous allons essayer de faire le point sur ce que l’on pense aujourd’hui de l’organisation de nos souvenirs dans le cerveau en n’oubliant jamais que, comme toujours, le support de cette chimie complexe ne relève (comme, d’ailleurs, la pensée) que de la matière et d’elle seulement.

 

 

Les différents types de mémoire

 

     Nous avons, bien sûr, tous remarqué que la mémoire n’est pas univoque : nous sentons empiriquement que notre mémoire immédiate semble différente de celle des souvenirs de notre enfance ou que, par exemple, la mémoire des noms propres n’est pas corrélée à celle des chiffres ou des visages. C’est qu’il existe différents types de mémoire, cinq en fait pour les scientifiques.

 

. Tout d’abord, évoquons la mémoire immédiate dite de travail : c’est celle cerveau zonesde tous les instants, celle qui nous permet de comprendre une phrase parce que, arrivé à sa fin, nous nous souvenons encore de son début. Ou bien de suivre un itinéraire qui vient de nous être expliqué. Cette mémoire permet de manier au fur et à mesure de nos besoins les données qui nous sont indispensables pour accomplir nos tâches quotidiennes. Son centre est situé dans le lobe frontal du cerveau.

 

.  Ensuite, existe la mémoire inconsciente dite procédurale : c’est celle qui nous permet d’accomplir un grand nombre de gestes ou une routine sans avoir à y « réfléchir » chaque fois : faire du vélo, passer des vitesses en voiture, se servir d’un stylo ou allumer une cigarette. Elle met en activité une partie du cortex moteur et les ganglions de la base du cervelet.

 

. La mémoire perceptive, quant à elle, intervient également de façon totalement inconsciente et automatique en fixant en nous le souvenir d’une odeur, d’un son, d’une image et peut-être même d’une sensation vécue : c’est la classique « madeleine de Proust ». Ou, comme me l’expliquait jadis un de mes professeurs de français, « l’odeur de café » pour toujours, chez lui, associée à la maison de son grand-père, le dimanche matin. C’est cette mémoire qui, à partir d’un son ou d’une odeur, ouvre tout un pan de nos souvenirs. On comprend aisément qu’elle ne puisse siéger que dans les aires primaires sensorielles du cerveau, à savoir les zones du cortex auditif, visuel, somatosensoriel, etc. 

 

. La mémoire sémantique est celle qui emmagasine les différentes connaissances que nous avons du monde (la tour Eiffel est à Paris,Arc_de_Triomphe.jpg l’Amazone est un fleuve du Brésil) mais également de nous-mêmes (nous sommes nés dans telle ville, avons exercé tel métier à tel endroit). C’est en quelque sorte la « banque de données » de nos connaissances théoriques. Elle siège dans les lobes frontal et pariétal gauche.

 

. Enfin la mémoire épisodique (que beaucoup confondent avec la mémoire « tout court ») est celle qui « contextualise » une grande partie de nos souvenirs en en fixant quelques uns de notre vie (un deuil, un anniversaire, la naissance d’un enfant). Il s’agit pour elle de nous faire nous remémorer un événement dans son contexte, en nous rappelant certains détails, l’ambiance d’une situation. Évidemment, comme la majorité de nos souvenirs s’efface presque instantanément (on pense que 90% des informations qui parviennent à notre cerveau sont oubliés au bout de trente secondes), il s’agit de quelques éléments soigneusement choisis et filtrés. D’ailleurs, cette mémoire est bien plus pauvre qu’on ne le croit habituellement : au bout du compte, il existe peu d’événements dont nous nous souvenons réellement et s’ils nous reviennent en mémoire, c’est souvent qu’ils furent importants pour nous, même incomplets, même un peu transformés (qui se souvient, par exemple, de son trajet en voiture le mardi de la semaine précédente… à moins d’avoir eu un accrochage avec un autre véhicule ?). Cette mémoire siège dans le cortex préfrontal et dans une structure sur laquelle nous reviendrons, l’hippocampe.

 

     Le fait de juxtaposer et d’identifier ces différents types de mémoire ne relève pas d’un simple exercice de style : suivant la localisation réelle d’une affection (par exemple une tumeur, un accident vasculaire, un traumatisme), c’est une de ces mémoires qui sera atteinte, les autres restant utilisables par le malade…

 

 

Information et cellules nerveuses

 

     Dans le cerveau, le passage d’une information passe toujours par l’intermédiaire des cellules nerveuses cérébrales, les neurones. Ceux-ci possèdent des extensions sous la forme de fins filaments appelés axones qui conduisent « l’information », c'est-à-dire l’influx électrique, vers l’extérieur jusqu’à leur extrémité appelée synapse. Il existe un seul axone par neurone mais des milliers d’autres filaments amenant l’information au neurone (les dendrites) et donc des milliers de synapses « afférentes ». En revanche, c’est par les synapses (efférentes) de l’axone que le neuroneneurone-schema.jpg « informe » son voisin. C’est en effet à cet endroit que l’extrémité du neurone est proche d’une dendrite d’un autre neurone auquel il doit faire passer l’information mais il y a un hic : l’impulsion électrique ne peut sortir de la synapse et donc du neurone sinon elle se perdrait dans l’espace interstitiel. La solution ? Lorsque l’influx nerveux arrive en bout de course, dans la synapse, il provoque la libération de substances chimiques appelées catécholamines (noradrénaline, sérotonine, GABA, etc.) qui vont aller stimuler la synapse correspondante du neurone voisin provoquant alors la naissance d’un nouvel influx nerveux identique à celui du neurone précédent : la transmission de l’information est donc passée. Bien entendu, un unique passage d’influx nerveux ne peut à lui seul représenter une information exploitable et c’est l’interaction de millions d’informations neuronales interconnectées qui explique l’activité cérébrale.

 

     Car, des neurones, il y en a beaucoup dans le cerveau : quatre-vingt cinq milliards ! Chacun d’entre eux ayant des milliers de connexions possibles, c’est par milliers de milliards que l’on peut chiffrer les interconnexions entre les cellules neuronales. Il s’agit d’un chiffre très élevé qu’il conviendra de se rappeler lorsqu’on essaiera de comprendre ce qu’est véritablement la mémoire. Précisons évidemment que plus un être est haut placé dans l’échelle de la conscience du vivant, plus sa richesse en neurones est importante. À titre de comparaison, par rapport aux 85 milliards de neurones du cerveau humain, citons les chiffres de 160 millions pour le chien, 300 millions pour le chat, 7 milliards pour le chimpanzé mais seulement 600 000 pour l’araignée… En fait, plus peut-être que le nombre, c’est l’agencement entre elles des cellules nerveuses et la richesse de leurs connexions qui a le plus d’importance et, à ce titre, l’Homme est assez loin devant les autres habitants de notre planète.

 

 

Formation d’un souvenir

 

     La mémoire est un élément fondamental de l’activité du vivant et nous avons déjà expliqué que, afin d’être parfaitement adaptés à leurs milieux, les animaux, contrairement à ce que l’on a longtemps pensé, ont tous une excellente mémoire, en tout cas dans les domaines qui les concernent. Mais qu’est-ce que la mémoire ? Quel est son support et comment s’organise-t-elle ?

 

     Essayons d’imaginer comment va se constituer un souvenir précis, celui d’un événement qui comptera vraiment. Prenons l’exemple d’une soirée très spéciale, celle du spectacle donné dans la grande salle de music-hall de votre région par votre chanteur préféré. Vous avez réservé votre place il y a des mois et voilà que le moment tant attendu arrive. Vous êtes assis au milieu de la foule et la lumière générale vient de s’éteindre. Quelques secondes encore et les gens se lèvent en criant : « Il » arrive sur scène. Sans que vous le sachiez vraiment, tous vos sens sont aux aguets : la vision et l’ouïe, bien sûr, mais aussi les odeurs, les sensations tactiles. Toutes les zones du cerveau se sont éveillées pour capter le maximum d’informations : dans le cortex visuel, par exemple, des plages de neurone-dynamique.jpgneurones spécialisés sont entrées en activité ; certaines sont chargées de reconnaître les visages, d’autres les couleurs, d’autres encore les formes ou le codage des lettres, etc. Toutes ces cellules spécialisées s’adressent des impulsions électriques qui varient en intensité, en rythme et selon leur localisation, à la façon d’une symphonie résultant d’une avalanche de différentes notes. La même activité se retrouve dans toutes les autres sphères sensorielles : audition, olfaction… Chaque élément (les sons, les odeurs, les couleurs des lumières des projecteurs, le mouvement de la personne qui vous accompagne et qui vous prend soudain le bras, les mots hurlés par votre voisin de droite, etc.) sera retenu par le cerveau et codé selon une configuration neuronale dynamique dans ses différents secteurs. Pour le moment toutefois, il ne s’agit que d’une animation en direct : rien n’est encore stocké pour être conservé ultérieurement. Les éléments informatifs sont épars dans le cortex cérébral à la manière d’un puzzle dont il faudra assembler les éléments pour en conserver une interprétation et c’est là qu’intervient cette structure très spéciale appelée hippocampe, située au cœur même du cerveau, qui va interpréter et associer tous les items afin d’en assurer le stockage et ainsi bâtir le souvenir.

 

 

Le rôle de l’hippocampe

 

     On sait depuis les années 50 que cette petite zone centrale du cerveau, située en regard des tempes, est indispensable à la constitution de la mémoire. À cette époque, en effet, on opérait assez facilement le cerveau de certains malades, notamment épileptiques : on enleva à l’un d’entre eux une partie de son hippocampe et, dès lors, il lui fut impossible de mémoriser le moindre souvenir : ceux qu’il avait d’avant, il pouvait se les rappeler mais impossible d’en fabriquer de nouveaux !  Cette petite zone du cerveau est donc l’élément central de la mémorisation, une mémorisation quelque peu spéciale puisqu'elle est surtout spatiale (on a ainsi pu mettre en évidence que, chez les chauffeurs de taxi, l'hippocampe est nettement plus grosse que la moyenne).

 

     Les informations, on l’a vu, sont éparses dans le cerveau et elles sont communiquées à l’hippocampe par les différents axones des neurones impliqués. Toutefois, puisqu’il est inutile (et même mauvais) de garder trophippocampe-cerveau.jpg d’informations, juste avant l’hippocampe, une autre petite structure nommée amygdale cérébrale va faire le tri et ne lui envoyer qu’une (petite) partie des informations jugées importantes. Sur quels critères se fait ce tri ? Difficile de conclure définitivement : les émotions ressenties par le sujet influent beaucoup sur ce choix mais on peut également penser que l’hérédité, l’acquis social, le niveau culturel, etc., bref tout ce qui fait la personnalité d’un individu, a son importance. Tout se passe comme si l’hippocampe était un centre d’identification et de classement des différentes informations qui lui parviennent ; elle constitue une sorte de système d’adressage qui prend une « empreinte » des endroits où se situent les informations de façon à ce que, si besoin est, elle puisse réactiver les différents neurones éparpillés dans le cerveau et impliqués dans un souvenir précis.

 

     On sait aussi que tous nos souvenirs ne sont pas à nos yeux d’égale importance et c’est l’amygdale déjà évoquée qui « explique » à l’hippocampe les circuits mémoriels qu’elle doit pérenniser, ceux qui pourront être réveillés à tout moment : il s’agit alors d’un authentique renforcement des circuits ainsi choisis. C’est sans doute grâce à ce mécanisme que l’on peut expliquer « la madeleine de Proust » que nous évoquions au début du sujet. Dans « À la recherche du temps perdu », Marcel Proust explique en effet que, un jour qu’il rentrait fatigué chez lui, sa mère lui proposa du thé qu’il ne buvait que rarement. Boire une cuillerée de thé mélangée à un morceau proust-madeleine.jpgde madeleine qu’il y avait trempé, lui procura alors un « plaisir délicieux » qu’il n’arriva d’abord pas à identifier ; se concentrant totalement sur son étrange impression, il s’y reprit à 10 fois, chercha plusieurs minutes au fin fond de son esprit et, d’un coup, le souvenir revint, celui de sa tante Léonie qui, le dimanche matin, lui offrait un petit morceau de ce biscuit lorsqu’il venait la visiter dans sa chambre. Le simple goût du petit gâteau imprégné de thé avait fait ressurgir en lui une foule de souvenirs chers à son cœur… On peut imaginer que le goût oublié et soudain retrouvé avait stimulé quelques neurones de l’hippocampe puis tout le circuit neuronal du cortex cérébral : l’information était stockée mais inaccessible jusqu’à ce que le stimulus la révèle.

 

     Oui, mais comment ce renforcement – qui nous fait, parfois sans le vouloir, choisir un souvenir particulier – se constitue-t-il ? Le chemin neuronal constituant un souvenir existe mais il est noyé parmi une quantité d’autres et si rien n’est fait il finira inévitablement par s’estomper avec eux. Pour le conserver, dès que l’ordre est donné par l’hippocampe, les neurones concernés voient leurs synapses se modifier par un mécanisme appelé Potentialisation à Long Terme : des catécholamines interviennent et des protéines se créent en cascade afin de transformer les synapses elles-mêmes pour que les neurones concernés restent activés, associés les uns aux autres. Au bout du compte, à chaque souvenir correspond un petit réseau de neurones qui sera plus ou moins renforcé selon le souvenir en question : c'est à ce niveau qu'interviennent les récepteurs AMPA qui fixent un neurotransmetteur très spécifique, le glutamate qui assure le passage d'information entre les différents neurones concernés. Ce renforcement peut durer des semaines, voire des mois, et pour certains souvenirs, importants pour nous, toute notre vie.

 

     Pour faire ce travail primordial de conservation, l’hippocampe ne dispose en fait que de quelques milliers de neurones spécialisés, l’essentiel du souvenir étant évidemment constitué par les circuits corticaux. Cela explique certainement pourquoi notre mémoire est en définitive relativement limitée, un moyen d’économiser l’énergie de cet organe, le cerveau, qui, chez l’Homme, consomme déjà beaucoup.

 

 

Fixation mnésique par le cortex

 

     L’hippocampe fixe donc le souvenir sous la forme d’une empreinte, d’un schéma représentant les différents circuits situés dans le cortex et faisant intervenir nombre de zones différentes (sons, vue, etc.). Il suffit ensuite que quelques neurones de l’hippocampe soient stimulés pour que tout le circuit se « réveille ».  Toutefois, plus les souvenirs sont « anciens », moins ils dépendent directement de l’activité propre de l’hippocampe. Notre malheureux malade à qui on avait enlevé l’hippocampe ne pouvait, c’est vrai, engranger de nouveaux souvenirs mais il avaitdebarras_grenier.jpg également bien des difficultés à se rappeler des souvenirs datant de quelques années avant son opération alors que les souvenirs de son enfance étaient parfaitement conservés. Tout se passe comme si plus un souvenir est ancien et plus il est « corticalisé », c'est-à-dire qu’il échappe à la tutelle de l’hippocampe. D’ailleurs dans certaines maladies, comme la maladie d’Alzheimer, ce sont bien les souvenirs anciens qui disparaissent en dernier, alors que les souvenirs les plus récents – et l’hippocampe - sont atteints relativement précocement.

 

 

Une pathologie lourde et bien des espoirs

 

     On commence à peine à comprendre quels sont les mécanismes entrant en jeu dans la formation de nos souvenirs. Il s’agit néanmoins d’une étape importante qui, au-delà de la connaissance pure toujours gratifiante, doit permettre d’ouvrir d’importantes perspectives pour la compréhension des « maladies de la mémoire » et de leurs traitements.

 

     Nos sociétés, par les avancées successives, notamment des sciences médicales, ont permis un allongement significatif de la durée de vie de alzheimer-alois.jpg l’ensemble de nos contemporains et il faut très certainement s’en féliciter. Le revers de la médaille est la montée, dans les statistiques, de la prévalence des maladies dégénératives du cerveau au premier rang desquelles figure la tristement célèbre « démence sénile » rebaptisée maladie d’Alzheimer. Cette affection qui touche nombre de nos anciens est dramatique non seulement pour le malade qui voit progressivement disparaître sa conscience de soi et son autonomie mais également pour son entourage confronté à la destruction progressive de la vie quotidienne du foyer. On n’en connaît pas vraiment la cause et a fortiori pas non plus le traitement. Les tumeurs cérébrales, les démences d’origine vasculaire ou toxiques (alcool), les différentes neuropathies, etc. viennent s’ajouter au grand nombre de personnes touchées par la maladie d’Alzheimer (900 000 Français touchés, 200 000 nouveaux cas chaque année). Une approche thérapeutique de ces affections passe par une connaissance meilleure de ce qu’est la mémoire etalzheimer-augusta-D.jpg de ce qui menace son intégrité. Il reste beaucoup à connaître ou à préciser mais si l’on songe aux croyances anciennes (l’activité cérébrale, la mémoire, la pensée, les rêves, relevaient, croyait-on, de « processus immatériels » se propageant au sein d’on ne savait quel éther hypothétique), eh bien, ce que l’on sait aujourd’hui est déjà beaucoup et a permis à la physiologie du cerveau de sortir d’une sorte de Moyen-Âge. Ce qui n’est déjà pas si mal.

 

 

Brêve : un nombre précis de neurones code chaque souvenir

 Ni trop, ni trop peu... Le nombre de neurones mobilisé pour coder un souvenir est déterminé par un mécanisme précis, que des chercheurs de l'université de Genève ont commencé à dévoiler. Ils ont d'abord identifié, chez des souris, les neurones gardant la trace du souvenir d'un petit choc électrique reçu dans une cage. Il s'agit d'un réseau de neurones qui se forme dans l'hippocampe au moment où a lieu l'événement et qui est réactivé chaque fois que le souvenir refait surface. Les neuroscientifiques ont constaté que, lors de la mémorisation, les neurones mobilisés inhibent leurs voisins, limitant ainsi le nombre total de neurones impliqués dans la trace mnésique (l'empreinte du souvenir). Ils ont ensuite eu recours à l'optogénétique, une technique très récente qui permet d'activer des neurones en les illuminant : en activant, grâce à cette méthode, des neurones au moment de la mémorisations, ils ont forcé le cerveau d'une souris à intégrer davantage de neurones dans la trace mnésique. Résultat : elle est restée plus longtemps figée de peur dans la cage dont elle gardait un mauvais souvenir. Pour Pablo Mendez, l'un des chercheurs, "le souvenir est plus stable quand davantage de neurones y participent". Tout est une question de dosage...

revue Science & Vie, 1183, avril 2016, p. 22

 

Sources

 1. fr.wikipedia.org

2. Science & Vie, HS 268, septembre 2014

3. Encyclopaedia Britannica

4.  www.cnrs.fr

5. revue pour la science

6. www.naturavox.fr

 

 

Images

 

1. mémoire botanique (sources : www.planetesante.ch/)

2. gare de triage (sources : wallfizz.com) 

3. cerveau humain (souces : www.bougepourtaplanete.fr)

4. Paris : l'Arc-de-Triomphe (sources : inzumi.com)

5. circuits dynamiques du cerveau (sources :  www.wallsave.com/)

6. l'hippocampe, en rouge (sources : sante.lefigaro.fr)

7. Marcel Proust et sa madeleine (photomontage) (sources : www.pinterest.com/)

8. grenier (sources : www.rapidservices.fr/)

9. Aloïs Alzheimer (sources : www.e-psikiyatri.com/)

10. Austa Deter (sources : medgeriatria.blogspot.fr/)

 (pour lire les légendes des illustrations, posser le pointeur de la souris sur l'image)

 

Mots-clés : lobe frontal - cervelet - hippocampe - neurone - synapse - catécholamines - amygdale (cerveau) - Madeleine de Proust (texte) - démence sénile - maladie d'Alzheimer

   (les mots en gris renvoient à des sites d'information complémentaires)

 

 

       Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

Mise à jour : 16 avril 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #astronomie

 

 

sursaut-gamma.jpg

 

 

 

 

     Le jour de Noël 2010, le satellite Swift - qui observe le cosmos depuis 6 ans à la recherche de ces énormes émissions de lumière que l’on appelle des sursauts gamma – détecte une énorme bouffée de photons (particules de lumière) dans la direction de la galaxie d’Andromède, notre plus proche voisine. Il faut toutefois se dépêcher de l’observer car on sait que ces éruptions brutales ne durent pas longtemps : de une à quelques dizaines de secondes au maximum. Swift communique instantanément les coordonnées de l’émission lumineuse aux télescopes terrestres afin qu’ils puissent rapidement « verrouiller » leur cible et débuter leurs observations puis il continue la surveillance du phénomène. Sauf que le temps passe, que les dizaines puis les centaines de secondes s’écoulent sans que le flux de photons ne faiblisse. Au total, le sursaut gamma dure presque 30 minutes (et peut-être même beaucoup plus car Swift est obligé de passer derrière la Terre - dont il fait le tour - en perdant forcément la liaison). IL y avait des sursauts gamma courts (une seconde) et des longs (plusieurs dizaines de secondes) : voilà qu’une nouvelle forme de ce phénomène apparaît, les sursauts ultra-longs. De quoi s’agit-il donc ? Que s’est-il passé du côté de la galaxie voisine de la nôtre ? Et, d’une façon générale, ces sursauts gamma que l’on peut qualifier d’événements les plus violents de l’Univers, c’est quoi en définitive ?

 

 

Une découverte récente

 

    Les sursauts gamma sont des bouffées de photons qui apparaissent au hasard dans le cosmos. Situés à de très grandes distances, parfois à des milliards d’années-lumière (ce qui, rappelons-le veut également dire des milliards d’années dans le passé), ils sont visibles de notre modeste planète parce qu’il s’agit des événements les plus lumineux et violents de l’Univers (en intensité ils sont classés juste après le Big bang).

 

     Leur découverte est relativement récente puisque datant de la « guerre froide » et plus précisément de l’année 1967, lorsque les satellites militaires américains qui les observèrent pour la première foissursaut-gamma-2.jpg laissèrent penser qu’il s’agissait probablement de l’empreinte d’armes nucléaires : il faut dire qu’on cherchait alors à vérifier le respect du traité d’interdiction des essais atomiques atmosphériques ! Cette ambiance bien particulière poussa les responsables à ne rendre publiques ces observations que dix ans plus tard. Mais, même à cette époque, on ne savait toujours pas grand-chose de ces phénomènes sauf qu’ils étaient variables en intensité et parfaitement  aléatoires donc imprévisibles. C’est quelques années plus tard qu’on mit en évidence deux types différents d’émissions : les sursauts courts et les sursauts longs. Enfin, quelques années plus tard encore, en 1997, grâce au satellite italo-hollandais BeppoSax, équipé à la fois d’un détecteur gamma et d’un détecteur de rayons X, on arriva à orienter l’étude du phénomène vers une source supposée responsable.

 

 

Différents types de sursauts gamma

 

     Nous avons déjà eu  l’occasion d’évoquer les rayons gamma lors du sujet traitant des rayons cosmiques : le rayonnement cosmique est un flux de noyaux atomiques (protons principalement mais aussi noyaux d’hélium) et de particules de haute énergie (qu’on nomme également « relativistes » parce que proches de la vitesse de la lumière telle que définie par la théorie de la relativité générale). Leur origine provient de processus astrophysiques extrêmement violents au cours desquels s’observent également des flashs intenses de photons gamma. On a assez rapidement rapproché l’émission de ces photons gamma de la mort d’étoiles et de la formation de trous noirs. Toutefois, il existe à l’évidence deux phénomènes de nature différente.

 

     Les sursauts longs (plusieurs dizaines de secondes) ont été corrélés sans trop d’hésitation à la mort dune étoile massive, c'est-à-dire, comme etoile-massive-naissance.jpgnous l’avons déjà vu, d’une étoile faisant plus de huit fois la masse de notre Soleil. En effet, lorsqu’elle se retrouve « à court de carburant », une telle étoile voit les réactions nucléaires, qui jusque là se produisaient en son cœur, se ralentir et s’affaiblir au point de ne plus pouvoir contrebalancer le poids de ses couches externes. Celles-ci s’effondrent vers le centre de plus en plus dense de l’étoile : les moins massives de ces étoiles géantes donneront une étoile à neutrons tandis que les plus grosses voient leur cœur être remplacé par un trou noir. Ce trou noir va absorber une grande partie de la matière externe de l’étoile géante et en recracher le reste sous la forme de deux jets opposés composés de matière brûlante éjectée à une vitesse proche de celle de la lumière : il suffit que l’un de ces jets pointe en direction de la Terre pour que l’on observe l’extraordinaire explosion de l’étoile géante. Et cela même si elle est très éloignée de nous car l’émission d’énergie est en effetsupernova mort étoile massive colossale et visible dans tout l’Univers.  À cette occasion, l’étoile mourante peut éclipser toutes les autres étoiles de sa galaxie qui sont pourtant des milliards. Précisons que la mort de telles étoiles est finalement assez rare : depuis l’invention du télescope il y a plusieurs siècles, aucune n’a été observée dans notre galaxie.

 

     Les sursauts courts, c’est une autre affaire et il faut bien avouer qu’il a été plus difficile de les expliquer. Il faut attendre 2005 et l’observation localisée d’un sursaut court par le satellite HETE-2 pour se rendre compte que les caractéristiques des galaxies contenant des sursauts courts sont bien différentes des autres. De ce fait, on n’a certainement pas affaire en trou-noir-avalant-etoile-a-neutrons.jpgpareil cas à la fin d’une étoile massive mais à un phénomène impliquant une étoile double (binaire) : ici, les protagonistes en présence sont des objets très denses comme une étoile à neutrons ou un trou noir. En se rapprochant, les objets de la binaire finissent par fusionner en émettant un flash de photons gamma, intense mais bref.

 

     La lumière, on l’a dit, a une vitesse de propagation de 300 000 km/seconde environ. Bien que cette vitesse soit très élevée (en terme de capacités humaines), l’Univers est si vaste qu’il faut aux rayons lumineux des milliards d’années pour nous parvenir des endroits les plus éloignés de nous. Ce qui veut dire également qu’une source lumineuse si lointaine sera atténuée et difficilement identifiable au sein des milliards d’étoiles plus proches. On saisit donc pourquoi, en dehors de la compréhension des phénomènes proprement dits, les sursauts gamma ont un grand intérêt documentaire : visibles de très loin, ils nous renseignent sur les galaxies lointaines et, par conséquent, sur les premiers instants de notre univers.

 

 

 Sursauts gamma ultra-longs

 

     Depuis 2010 et le satellite Swift, on a donc affaire à ce qui est peut-être un troisième genre de sursauts gamma, ceux qui durent vraiment plus longtemps que les autres. Par quoi peuvent-ils bien être générés ? Baptisé du doux nom de GRB 101225A, le sursaut gamma observé par Swift donne lieu à plusieurs hypothèses. On évoque tout d’abord, au sein d’une étoile binaire, la fusion d’une étoile à neutrons avec une étoile normale comme le Soleil mais en train de mourir et donc au stade de géante rouge : la fusion des deux aurait donné un trou noir et les événements, notammentsatellite-swift.jpg lumineux, y afférent. Une autre hypothèse met en scène une comète tombant sur une étoile à neutrons appartenant forcément à notre propre galaxie et donc beaucoup plus proche que primitivement imaginé, à peut-être 10 000 années-lumière de nous.

 

     C’est à ce moment de la réflexion des chercheurs que des études plus approfondies de la distance du phénomène montrent qu’il est en fait éloigné de… 7 milliards d’années-lumière, bien au-delà da la galaxie d’Andromède ! Beaucoup plus loin que ce que l’on avait jamais pensé… et provoqué par quelque chose d’énorme. On en revient aux étoiles géantes.

 

     On repense à nouveau complètement la question. Nous savons que le sursaut gamma dure le temps que mettent les couches externes d’une étoile pour tomber sur le cœur : quelques minutes au plus dans le cas d’une étoile massive. Comment expliquer des dizaines de minutes, voire presque deux heures pour une observation plus récente ? Il faudrait que l’étoile en cause soit absolument monstrueuse, d’une taille si importante que les scientifiques considèrent cela comme impossible.

 

     Impossible parce que, pour entretenir un sursaut gamma de cette importance, il faudrait une étoile d'un volume égal à des millions de Soleils ! Et une telle étoile, si elle existe, ne pourrait de toute façon pas émettre un tel sursaut gamma : les étoiles géantes de ce type perdraient en effet jusqu’au trois-quarts de leur masse au cours de leur vie, une matière qui ne serait donc plus disponible par la suite… Alors ?

 

     Il existe une autre explication possible : une étoile dont les couches externes seraient perméables aux différentes radiations ce qui permettrait alors à ces enveloppes externes de rester autour du cœur de l’étoile jusqu’à sa mort. De telles étoiles existent (ou ont existé) : ce sontsupergeante-bleue-Zeta_Puppis.png les étoiles primordiales que nous avons évoquées à plusieurs reprises sur ce blog. Au total, on se trouve devant une supergéante bleue presque exclusivement composée d’hydrogène et d’hélium avec très peu d’oxygène et pas du tout d’éléments lourds (fer, carbone, etc.) qui, eux, apparaissent dans les générations suivantes d’étoiles précisément à la mort de ces étoiles dites primordiales… Un seul problème mais il est de taille : ces étoiles de première génération ont disparu dès le début de l’Univers, il y a 13,6 milliards d’années. Comment se pourrait-il qu’il en existe encore vers - 7 milliards d’années (puisque le sursaut gamma qui nous intéresse provient d’un endroit situé à 7 milliards d’années-lumière) ?

 

     C’est là qu’intervient l’observation de galaxies originales, en quelque sorte « marginales » dans le grand bal galactique. On sait que, normalement, les galaxies se remodèlent sans cesse et que les plus grosses avalent, « phagocytent » les plus petites qui sont trop proches et encore liées à elles par la gravité. Chaque fois, les nuages de gaz se percutant, c’est alors une débauche de nouvelles naissances d’étoiles, étoiles de plus en plus riches en éléments lourds. Toutefois, certaines galaxies semblent rester en dehors de cette vie agitée et on pense que c’est le cas de celle qui abrite le sursaut gamma GRB 101225A : une petite tache bleue bien au-delà d’Andromède. On y trouve sans doute ces étoiles géantes qu’on pensait disparues depuis des milliards d’années et qui s’y fabriquent peut-être encore…

 

 

Danger des sursauts gamma

 

     Un sursaut gamma n’est pas seulement un phénomène extraordinaire comme l’Univers nous en propose parfois et l’élucidation de son mécanisme n’est pas qu’un jeu de l’esprit ou le simple désir d’expliquer les choses. C’est aussi un phénomène dont il faut se méfier… et qu’il est donc nécessaire de connaître le mieux possible !

 

     On le disait précédemment : des sursauts gamma, on n’en a pas vu depuis des siècles dans notre galaxie et c’est tant mieux. À moins de 6000 années-lumière de nous, ce type de phénomène hautement énergétique pourrait être mortel pour la Terre. Il faut pour cela, comme on l’a vu, que le faisceau soit dirigé vers notre planète : il brillerait alors aussi fort que le Soleil ! La conséquence en serait une destruction importante de la terre-detruite.jpgcouche d’ozone (30 à 40% durant au moins 10 ans) avec pour résultat immédiat la mise à mal du phytoplancton, base de la chaîne alimentaire océanique. On ne parle évidemment pas des ravages que pourrait entraîner une telle situation sur la peau d’homo sapiens… Mais ce n’est pas tout. Il y aurait aussi une diminution de la photosynthèse avec un effondrement de la production alimentaire tandis que, dans le même temps, l’atmosphère terrestre se colorerait en permanence d’une teinte orange en raison de la formation d’oxyde de carbone… Toutes les chaînes alimentaires seraient touchées, au premier rang desquelles, évidemment, celles qui concernent l’Homme. Peut-être le début de sa fin de la domination sur la planète ! Il s’agit d’un risque qu’il ne faut pas prendre à la légère : de nombreux spécialistes pensent par exemple que c’est un sursaut gamma relativement proche qui pourrait expliquer l’extinction de masse de l’ordovicien il y a 440 millions d’années (60% des genres et 80% des espèces détruits).

 

     L’apparition d’un phénomène aussi violent peut, en revanche, apporter quelque chose de positif. Bien des astronomes pensent que la formation du système solaire à partir de son nuage de gaz primordial il y a 4,5 milliards d’années a été grandement facilité (si ce n’est réalisé) par l’explosion d’une supernova relativement proche et de son cortège de phénomènes éruptifs comme, peut-être, un important sursaut gamma. On peut donc en déduire sans trop risquer de se tromper que ce qui peut contribuer à donner la Vie peut également aboutir à sa destruction. Une leçon à méditer.

 

 

 

 

Sources :

1. Wikipedia France ; Wikipedia USA

2. Science & Vie, 1152, septembre 2013

3. Encyclopaedia Universalis

4. Encyclopaedia Britannica

5. www.futura-sciences.com

6. www.notre-planete.info

 

Images :

 

1.  sursaut gamma (sources : club.doctissimo.fr)

2. autre sursaut gamma (sources : astronomie.skyrock.com)

3. naissance d'une étoile géante (sources : skyimagelab.com)

4. supernova (sources : astrosurf.com)

5. trou noir et étoile à neutrons (sources : commons.wikimedia.org)

6. le satellite Swift (sources : nasa.gov)

7. supergéante bleue (sources : afhalifax.ca)

8.Terre détruite (sources : channel.nationalgeographic.com)

 (pour lire les légendes des illustrations, posser le pointeur de la souris sur l'image)

 

Mots-clés : satellite Swift - satellite BeppoSax - rayonnement cosmique - étoile à neutrons - trou noir - supernova - étoile binaire - géante rouge - supergéante bleue - étoiles primordiales - extinction de masse de l'ordovicien

   (les mots en gris renvoient à des sites d'information complémentaires)

 

 

Sujets apparentés sur le blog

 

1. mort d'une étoile

2. novas et supernovas

3. les extinctions de masse

4. les étoiles primordiales

5. galaxies cannibales

6. la saga des rayons cosmiques

 

 

      Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

mise à jour : 16 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #astronomie

 

 

 HL-Tauri.jpg

 

 

 

     Dans le domaine de la science, il est incontestablement peu de certitudes définitives. Toutefois, depuis des années, la communauté scientifique était tombée à peu près d’accord sur la façon dont se forment les planètes dans un système stellaire mais il est vrai que le seul exemple que nous avions pour référence était le nôtre, le système solaire. Puis, au début des années 1990 fit irruption l’exoplanétologie, c'est-à-dire la science s’occupant des planètes situées en dehors du système solaire et que nous n’avions jusque là pas la possibilité d’étudier directement…

 

     Très vite on s’aperçut que les observations ne collaient pas tout à fait avec les théories élaborées ici-bas. Tout d’abord, on mit en évidence des planètes géantes gazeuses toutes proches, dès leur formation, de leur étoile centrale. Bizarre car contraire aux suppositions des théoriciens ! Ensuite, il y a quelques mois, était découverte une planète géante tellurique (c'est-à-dire composée de roches comme la Terre) mais dix-sept fois plus massive que notre planète, ce que les modèles théoriques supposaient hautement improbable. Étrange encore. Et puis, il y a quelques jours, le radiotélescope européen ALMA, basé au Chili, nous a produit l’extraordinaire photo d’une étoile en formation, encore enrobée par la gangue de sa nébuleuse de gaz mais où, déjà, les futures planètes sont parfaitement individualisables ce que les spécialistes pensaient théoriquement impossible. Pourtant, une photographie, c’est bien une preuve directe, n’est-ce pas ? Là, ça commence à faire beaucoup et on peut se poser ces questions : que savons-nous au juste de la formation des planètes ? Le modèle du système solaire n’est-il qu’une option parmi d’autres ou n’y avons-nous peut-être rien compris ? Cherchons à y voir un peu plus clair.

 

 

Formation du système stellaire

 

     Depuis le début de l’époque moderne, les observateurs de notre système solaire sont partis de la notion en apparence logique que les étoiles se forment toutes de la même manière et qu’il suffit d’appréhender la formation de la nôtre et de son cortège de planètes pour comprendre la genèse de toutes les autres. On trouvera dans un sujet dédié (origine du système solaire) l’historique de la pensée scientifique sur ce sujet qui correspond en fait à des siècles de controverses. Essayons quant à nous de résumer la théorie la plus partagée par le monde de l’astronomie d’aujourd’hui.

 

     Au commencement, il y a fort longtemps (environ 10 milliards d’années), ce qui sera le futur système solaire n’est qu’une minuscule partie d’un immense nuage de gaz, essentiellement composé d’hydrogène et d’hélium, qui tourne en périphérie de la Galaxie, plutôt loin du centre. Mais, au fur et à mesure que le temps passe, le nuage de gaz va se contracter nebuleuse-formation-etoiles.jpgprogressivement tandis qu’il s’enrichit en éléments lourds (fer, carbone, etc.) apportés par les explosions d’étoiles massives voisines (certains composants particuliers laissent même supposer qu’une supernova aurait explosé à proximité à cette même époque). Aujourd’hui, ces éléments lourds représentent environ 2% de l’ensemble.

 

     Cette contraction va durer plusieurs milliards d’années jusqu’à ce que, il y a 4,6 milliards d’années, le nuage finisse par s’effondrer sur lui-même en raison de sa propre gravité devenue trop importante. De ce fait, le nuage se fragmente en une série de nuages plus petits dont l’un deviendra le système solaire : on parle alors de protosystèmes.

 

     Le protosystème (celui du futur Soleil mais c’est pareil pour les autres) voit donc sa taille diminuer mais, selon la physique classique, qui dit réduction de taille dit augmentation de la vitesse de rotation (on appelle cela la conservation du mouvement angulaire) : c’est un peu comme ledisque-protoplanetaire.jpg patineur tournant sur lui-même qui accélère sa vitesse de rotation en repliant ses bras. De plus, puisque ce protosystème est principalement composé de gaz concentré, il est encore souple et il peut donc s’aplatir dans un plan perpendiculaire à l’axe de rotation : tout est en place pour que naisse le disque protostellaire.

 

     Apparaissent également des forces électromagnétiques qui créent une sorte de liaison entre le centre du disque (qui sera la future étoile) et le reste (où apparaitront les planètes) : de ce fait, le centre va être progressivement freiné tandis que le reste du disque accélère sa vitesse. Au bout d’un certain temps, les deux systèmes se trouvent séparés et

 

     1. la protoétoile poursuit sa contraction jusqu’à ce que, sa température augmentant fortement, la fusion nucléaire s’enclenche et qu’elle devienne une véritable étoile tandis que

 

       2. le reste du disque protoplanétaire conduit à la formation des planètes.

 

 

Formation des planètes

 

     Le disque protoplanétaire tourne donc autour de la future étoile : peu à peu, au gré du temps et des rencontres, ses atomes commencent à s’agréger les uns aux autres pour former des poussières (les flocules) qui, elles aussi, vont finir par se réunir afin de former des corps plus volumineux appelés des planétésimaux. Le disque protoplanétaire est donc devenu un disque d’accrétion


    Quelques millions d’années s’écoulent et voici que nos planétésimaux, grâce aux turbulences du disque, fusionnent progressivement pour donner des objets de plus en plus gros aboutissant planetesimaux.jpgaux planètes que nous connaissons : dans le cas du système solaire, il aura fallu environ 200 millions d’années pour aboutir à cette situation. Il est à noter que, dans ce modèle, en raison du temps nécessaire, les planètes n’apparaissent qu’une fois enclenchées les réactions de fusion nucléaire de l’étoile, c'est-à-dire une fois que celle-ci est allumée, les planètes se créant secondairement en utilisant les gaz laissés disponibles…

 

     Les planètes sont à peu près constituées mais elles n’ont pas encore leur aspect définitif car de nombreux remaniements ont encore lieu : internes avec un magma qui se solidifie en surface et des éruptions volcaniques qui diminuent d’intensité mais également externes puisqu’elles sont soumises à d’intenses bombardements, tous événements qui vont encore durer un bon milliard d’années.

 

     Dans ce modèle classique, l’aspect définitif des planètes va dépendre de leur place initiale au sein de l’anneau protoplanétaire. Près de l’étoile, ici le Soleil, elles voient leurs éléments légers recevoir beaucoup d’énergie (ce qui empêche ceux-ci de se condenser) et, par voie de conséquence, le matériau qui va constituer ces planètes sera riche en éléments lourds (silicium, soufre, cuivre, fer, etc.) : ces objets seront donc de densité élevée et formeront les planètes dites telluriques comme la Terre.

 

      En revanche, plus éloignées de l’étoile, s’il existe bien chez ces planètes un noyau dur, c’est essentiellement du gaz (hydrogène) qui va l’envelopper : de ce fait, les planètes dites gazeuses seront très légèressaturne-2.jpeg mais beaucoup plus grosses que les telluriques. Puisque le gaz disponible n’a qu’une durée de vie limitée  à quelques millions d’années, il est nécessaire que ces planètes soient créées avant sa dissipation, donc assez rapidement (en termes géologiques).

 

     Selon ce modèle quasi-universellement accepté, on peut donc retenir quelques grands critères concernant la formation des planètes :

 

. d’abord les planètes se forment dans le disque protoplanétaire alors que la protoétoile s’est déjà « allumée » ;

 

. ensuite, les planètes proches de l’étoile sont toutes des planètes « telluriques », c'est-à-dire composées de roches et donc de petite taille, tandis que les étoiles gazeuses sont forcément des géantes installées en périphérie du système stellaire, loin du foyer central ;

 

. enfin, puisque les planètes se forment dans un disque qui tourne avec l’étoile centrale, elles tourneront donc également toutes dans le même sens.

 

     Et c’est bien ce que l’on remarque avec le système solaire : les petites planètes telluriques (Mercure, Vénus, Terre, Mars) sont « intérieures », relativement proches du Soleil tandis que les géantes gazeuses (Jupiter, Saturne, Uranus, Neptune) sont bien en périphérie. Par ailleurs, toutes les planètes sont situées dans ce que l’on appelle l’écliptique, ce « plan circulaire » autour du Soleil qui correspond à l’ancien disque protoplanétaire. Plus encore, leurs orbites sont elliptiques (à l’exception de Mercure, trop proche de l’étoile). Enfin, nos huit planètes tournent toutes dans le même sens.

 

     Du coup, tout est parfait dans le meilleur des mondes et tout le monde est content ? C’était compter sans l’avancée de l’astronomie moderne ! A présent, depuis les années 1990, on peut observer directement les planètes d’autres systèmes stellaires car ces planètes qui n’étaient que des suppositions  - ce qui valut à Giordano Bruno de mourir sur le bûcher - existent bel et bien et elles sont certainement plus nombreuses que les étoiles qu’on compte déjà par milliards… Et on commence à pouvoir les observer !

 

     Et c’est là que le bât blesse : les observations de planètes extrasolaires nous montrent des situations qui ne « collent pas » complètement au modèle que nous venons de voir. Comprenons-nous bien : il n’est pas question de rejeter l’ensemble de la théorie qui reste certainement valable mais il faut bien admettre qu’elle n’explique pas tout.

 

 

Faut-il revoir la théorie ?

 

     Presque deux milliers d’exoplanètes ont été découvertes à ce jour et ce chiffre augmente sans cesse. Certains de ces astres ont pu être assez finement étudiés et le moins que l’on puisse dire, c’est que plusieurs aspects de la théorie de la formation planétaire que nous venons de voir ont besoin d’un bon nettoyage. Citons quelques unes des principales pierres d’achoppement de notre approche théorique.

 

     Les Jupiter chauds. On appelle ainsi les planètes géantes gazeuses repérées tout contre leurs étoiles. C’est le cas, par exemple, de la planète HD 209458 b, également surnommée Osiris, située à 154 années-lumière de la Terre : ce « Jupiter chaud » tourne tout contre son étoile (il en est 8 fois plus proche que Mercure ne l’est du Soleil). L’année sur Osiris ne dure que 3,5 jours et sa température de surface est estimée jupiter-chaud.jpgà plus de 1000°. Comment cela est-il possible alors que, selon la théorie, une géante gazeuse ne peut naître que loin de son astre central ? Eh bien, disent les spécialistes, c’est qu’un Jupiter chaud comme Osiris est bien né loin de l’étoile mais s’en est ensuite rapproché par ce qu’on appelle une « migration planétaire ». Du coup, on peut expliquer la période orbitale ultracourte de ce type de planètes (3 à 4j contre une année sur Terre). La réponse est-elle satisfaisante ? Non. En 2004, on découvre un Jupiter chaud ayant une période orbitale de UN jour (c'est-à-dire que la planète est « collée » contre son étoile) : comment la planète peut-elle résister à de telles conditions ? En 2008, une planète gazeuse 10 fois plus grosse que Jupiter est découverte toute proche de son étoile (TW Hydrae)… qui a moins de 10 millions d’années : l’étoile étant toute jeune, il est impossible de parler de migration de la planète gazeuse (elle n’aurait pas eu le temps de se faire). Et puis que dire de ces observations récentes qui montrent que, contrairement à ce qu’on attendait, plusieurs Jupiter chauds possèdent bien moins d’eau que ne le voudrait la théorie de leur formation et de leur migration ? Qu’il faut certainement retravailler la théorie et c’est bien ce que font les scientifiques.

  

       La Terre géante. Découverte en 2011 par la mission Kepler de la NASA, la géante tellurique de ce système a été surnommée Godzilla tant ses dimensions sont impressionnantes : 2,3 fois le diamètre de la Terre et 17 fois sa masse ! Impossible qu’une telle planète puisse exister affirmaient les spécialistes et pourtant ! Elle tourne tout près d’une très ancienne étoile vieille de 11 milliards d’années (une naine jaune comme le Soleil) mais sa taille aurait dû en faire une géante gazeuse alors qu’elle est rocheuse (tellurique). Où se situe l’élément qui n’a pas été compris ? Là aussi, il y a bien du travail en perspective.

 

     La formation de planètes autour d’une étoile double (GG-Tau-A). Il y a quelques années, un astronome très très célèbre déclarait à la télévision qu’il était impossible que des systèmes planétaires puissent se constituer autour d’étoiles binaires (doubles) et a fortiori multiples. Je l’entends encore : il était catégorique et affirmait en souriant benoîtement que les orbites desdites planètes seraient bien trop instables, les irrégularités de mouvement excessives, etc... Eh bien, raté ici aussi ! L’exoplanétologie a découvert que la majorité des étoiles multiples (les plus répandues dans l’Univers) possède des systèmes planétaires. Le système GG Tau-A, par exemple, est situé à 450 années-lumière de nous dans la constellation du Taureau. Il s’agit d’un tout jeune système en train de se former, un ensemble composé de trois étoiles dont une binaire (c'est-à-dire elle-même composée d’un système de deux étoiles tournant l’une autour de l’autre). Comme elles sont jeunes,  on peut encore voir les disques d’accrétion gazeux qui les entourent et, surprise, il existe un grand mizar alcoldisque autour de l’ensemble du système et des disques secondaires autour de chacune des étoiles, y compris la binaire : c’est là qu’est en train de se former tout un aréopage de planètes. D’ailleurs, on pense bien y avoir déjà mis en évidence une géante gazeuse. La théorie de formation des planètes n’était donc pas complète !

 

     Le sens de rotation des planètes. C’était entendu une fois pour toutes : les planètes se forment dans le disque d’accrétion de la protoétoile, une fois celle-ci « allumée », et se mettent à tourner dans le même sens qu’elle. C’est d’ailleurs le cas du système solaire. Malheureusement, l’observation de systèmes exoplanétaires ne confirme pas la théorie. Il s’agit encore de Jupiter chauds (ils sont plus faciles à détecter et à observer…) qui ne suivent pas le modèle : ainsi sur 27 exoplanètes découvertes il y a quelque temps, six d’entre elles ont été détectées orbitant dans le sens contraire de celui de leur étoile. Comment expliquer ce paradoxe ? Une théorie alternative de migration a été avancée, expliquant que la « migration » de ces planètes ne dépendrait pas du disque de poussières de départ mais des forces gravitationnelles dues à des planètes plus lointaines, voire d’autres étoiles assez proches. Bref, on n’est absolument sûr de rien…

 

     Le disque protoplanétaire de HL Tauri. Enfin, pour clore cette liste d’interrogations, signalons la plus récente de ces anomalies : la magnifique photo qui sert d’accroche à ce sujet est extraordinaire précisément parce qu’il s’agit d’une photographie, c'est-à-dire la réalité vraie et non pas un schéma reconstitué ou une « vue d’artiste » comme on en voit souvent en astronomie faute de mieux… Et que nous montre ce cliché ? Tout simplement un système planétaire en cours de formation avec un luxe de précision jusqu’ici inégalé. Le cliché a été pris par l’observatoire européen ALMA au Chili au mois de septembre dernier (2014) et concerne le système tout neuf HL Tauri qui, comme son nom l’indique, se trouve, lui aussi, dans la constellation du Taureau, mais à environ 450 années-lumière du Soleil. Cette étoile n’a qu’un million d’années d’existence (ce qui en fait un bébé étoile) et elle n’est pas visible à l’œil nu, de même qu’elle ne peut être correctement aperçue par les télescopes terriens voire le télescope spatial Hubble : elle est encore cachée au sein de la nébuleuse de gaz qui lui a donné naissance. Il fallait le radiotélescope d’ALMA qui observe le ciel dans les longueurs d’onde submillimétriques, c'est-à-dire celles qui concernent le rayonnement des poussières les plus froides de l’Univers, pour dégager une image réellement exploitable. On y radiotelescope-ALMA.jpgvoit donc au centre la protoétoile pas encore allumée et, autour d’elle, les cercles concentriques traduisant la formation déjà assez avancée des planètes. C’est une énorme surprise puisque, selon la théorie jusque là en vigueur, on pensait qu’il fallait plusieurs millions d’années pour que les planétésimaux s’assemblent pour former les planètes définitives. Cela peut paraître anecdotique mais ça ne l’est pas. En effet, si les planètes se forment après leur étoile, elles devront se contenter des gaz résiduels… s’il y en a. En revanche, si elles se forment en même temps, cela veut dire que toutes les étoiles sont potentiellement entourées de planètes… peut-être par dizaines. Or, souvenons-nous : il y a environ 250 milliards d’étoiles dans la seule Voie lactée (et des milliards de galaxie comme elle dans l’Univers). Cela veut probablement dire que le nombre de planètes dans notre Univers dépasse l’entendement humain… Et il n’y en aurait aucune autre qui ressemble à la Terre ? Je ne peux le croire et, de toute façon, c’est statistiquement impossible.

 

 

La théorie de la formation planétaire est à revoir

 

     Comme le montrent les exemples « d’anomalies » théoriques et/ou réelles que nous venons d’énumérer, la formation des planètes dont nous pensions connaître l’essentiel est certainement à revoir, au moins en partie. Il faut absolument comprendre la place de ces planètes gazeuses géantes surnommées Jupiter chauds qui n’existent pas dans notre système solaire et, d’une façon plus générale, comment se distribuent les différentes planètes dans l’histoire de leur genèse. Disons que, pour l’instant, nous avons une approche plutôt globale de la question et qu’il reste bien des incertitudes à approfondir. D’ailleurs, il n’est pas dit que de futures observations, encore plus précises, ne nous apporteront pas de nouvelles interrogations.

 

     En définitive, c’est bien cela la science : avancer à petits pas, tirer un enseignement général d’une foule d’observations plus ou moins disparates et ne pas hésiter à tout repenser face à la réalité de l’observation. Le dogmatisme ici ne peut déboucher sur rien de valable.

 

 

 

Sources

 

1. fr.wikipedia.org

2. www.techno-science.net/

3. Encyclopaedia Britannica

4. www.astronomes.com

5. www.redshift-live.com

6. www.futura-sciences.com

 

Images

1. l'étoile en formation HL Tauri (sources : www.eso.org/)

2. nébuleuse stellaire (sources : www.cnrs.fr)

3. disque protopla,étaire (sources : ast.obs-mip.fr)

4. planétésimaux (sources : irfu.cea.fr) 

5. Saturne (sources : maxisciences.com)

6. Jupiter chaud (sources : lecosmographe.com)

7. Mizar et Alcor (sources : irfu.cea.fr)

8. radiotélescope ALMA (sources : www.eso.org/)

(pour lire les légendes des illustrations, posser le pointeur de la souris sur l'image)

 

Mots-clés : exoplanétologie - supernova - fusion nucléaire - planétésimaux - disque d'accrétion - planète tellurique - géante gazeuse - Jupiter chaud - ecliptique - migration planétaire - étoile double (ou binaire) - observatoire ALMA

      (les mots en gris renvoient à des sites d'information complémentaires)

 

Sujets apparentés sur le blog

 

1. place du Soleil dans la Galaxie

2. étoiles doubles et systèmes multiples

3. origine du système solaire

 

 

       Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

mise à jour : 17 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #paléontologie

 

 

               mulet.jpg 

 

 

 

 

 

     Les premières cellules vivantes qui apparurent il y a plusieurs milliards d’années se sont progressivement complexifiées, organisées et diversifiées au fil du temps au point, aujourd’hui, de décliner leurs lointains descendants en des millions d’espèces différentes. Nous nous sommes déjà posés la question de savoir ce qu’était une espèce et comment chacune pouvait être différente des autres (voir le sujet dédié : la notion d'espèce). On peut également se demander pourquoi il en existe une telle profusion et une telle variété de formes. C’est la raison pour laquelle nous allons essayer de comprendre quels sont les mécanismes qui concourent à la formation des espèces nouvelles et donc à la diversité globale : il s‘agit là d’un des fondements de l’Évolution qui complète parfaitement la vision darwinienne de la Vie sur notre planète.

 

 

Mais, une espèce, c’est quoi au juste ?

 

     Au préalable, il convient effectivement de définir ce qu’est une espèce et ce n’est pas si facile, notamment dans le règne végétal. Toutefois, dans le sujet consacré à ce problème, nous avions avancé une définition, la plus complète et la plus proche possible de la réalité, définition qui est la suivante :

« Une espèce est un groupe d'êtres vivants pouvant se reproduire entre eux (interfécondité) et dont la descendance est fertile. Elle est l'entité fondamentale des classifications qui réunit les êtres vivants présentant un ensemble de caractéristiques morphologiques, anatomiques, physiologiques, biochimiques et génétiques, communes. »

 

     Les individus d’une même espèce sont par conséquent les seuls à pouvoir engendrer une descendance qui leur sera semblable. À l’inverse, des individus de deux espèces différentes ne pourront pas donner dechien-chat.jpg descendants féconds, même s’ils se ressemblent énormément (on pense, par exemple, au cheval et à l’âne). On peut aussi affirmer qu’il y eut un moment, il y a plus ou moins longtemps, où les représentants de deux espèces n’en formaient alors qu’une seule (ancêtres communs). La question qui se pose est donc la suivante : comment et pourquoi des individus appartenant à une même espèce finissent-ils par donner des descendants d’espèces différentes ou, dit d’une autre manière, comment et pourquoi ces populations au départ identiques divergent-elles ?

 

 

L’obtention de nouvelles espèces : les spéciations

 

     Le processus évolutif par lequel apparaissent de nouvelles espèces est appelé spéciation. Contrairement à ce que l’on entend parfois ici ou là, l’apparition d’une nouvelle espèce ne survient pas brutalement, d’un coup, suite à la survenue d’on ne saurait quel élément mutagène. Il s’agit, au contraire, d’un processus progressif qui fait qu’une population au départ homogène (et donc parfaitement interféconde) va se scinder peu à peu en deux groupes différents qui ne pourront plus avoir de descendants communs : devenues isolées l’une de l’autre au plan de la reproduction, on a alors affaire à deux espèces biologiques différentes mais chacune d’entre elles évidemment tout à fait authentique.

 

     C’est l’éthologue Ernst Mayr (1904-2005) qui le premier évoqua ce terme de spéciation pour qualifier cet évènement important de la vie des ernst-mayr-2.jpgespèces et il rappela au passage qu’une spéciation résulte notamment de deux éléments très importants de l’Évolution : la sélection naturelle et /ou la dérive génétique.

 

     Rappelons pour mémoire que la sélection naturelle est l’un des mécanismes principaux induisant l’évolution des espèces et elle s’appuie sur des éléments multiples : citons, parmi les plus importants, la lutte pour la survie au plan des ressources alimentaires disponibles, de la disponibilité géographique, de l’habitat, etc., la sélection sexuelle par les pariades (rituel de séduction) dans les espèces sexuées, « l’altruisme » génétiquement induit… Au bout du compte, l’individu le mieux adapté à son environnement du moment pourra se reproduire plus facilement que les autres et, ainsi, transmettre ses gènes à ses descendants, permettant la conservation des éléments les plus favorables à l’espèce, ce qui assure à cette dernière sa transformation et son adaptation au fil du temps.

 

     La dérive génétique citée également par Ernst Mayr est un autre phénomène. Il s’agit de la modification aléatoire et imprévisible du matériel génétique au sein d’une population, indépendamment de la sélection naturelle, d’une mutation ou d’une migration : on pense, par exemple, au hasard total qui prélude, chez les individus sexués, à la rencontre d’un spermatozoïde et d’un ovule. On comprend que l’importance de cet élément est d’autant plus intense que l’on se trouve dans une population numériquement faible !

 

     Quels que soient les mécanismes en jeu, une partie d’une espèce donnée et parfaitement individualisée va se séparer de la population « mère » au point que ses représentants ne pourront plus se reproduire avec ceux de l’espèce d’origine : une nouvelle espèce est alors née et c’est bien ce phénomène que l’on appelle spéciation.

 

 

Les différents types de spéciation

 

     Le seul fait que deux groupes issus d’une même population d’individus soient séparés durant un certain temps (d’ailleurs variable suivant les espèces) entraîne l’impossibilité ultérieure d’une reproduction pour les individus d’un groupe avec ceux de l’autre : la spéciation est avant tout une séparation et cette séparation revêt différents aspects.

 

     * La plus connue – mais aussi la plus facile à comprendre – est la spéciation géographique qui existe à des degrés divers ; les scientifiques l’ont appelée du nom un peu barbare de spéciation allopatrique. Évoquons tout d’abord

 

la spéciation géographique pure (que certains appellent « vicariante »)

 

     Deux populations de même origine vont diverger en s’isolant l’une de l’autre à l’occasion d’un changement climatique ou écologique majeur entraînant l’apparition d’une barrière naturelle (par exemple, le changement du cours d’un fleuve, la survenue d’un bras de mer, l’apparition d’une montagne, des remaniements dus à un tremblement de terre, peu importe). Sont alors créés des « isolats » au sein desquels une différenciation progressive apparaît. Il suffit que l’événement soit suffisamment important pour diviser effectivement l’ensemble concerné par le phénomène en deux populations différentes mais il faut également, bien entendu, que cette séparation dure assez longtemps.

 

     Un exemple bien connu est celui des goélands des côtes d’Europe, goéland bruntantôt argentés, tantôt bruns. Ces deux espèces cohabitent sur un même territoire mais ne s’hybrident jamais. Leur séparation remonte à la dernière glaciation dont le maximum culmina il y a un peu plus de 20 000 ans. La distribution des goélands qui couvrait le pôle et les côtes arctiques du  Canada et de la Sibérie a alors été fractionnée par le grand froid, les glaciers repoussant les populations plus au sud dans ce que l’on peut appeler des refuges glaciaires, sortes d’isolats de circonstance. Nous vivons à présent une période interglaciaire et les populations de goélands ont pu remonter vers le nord : il existe de ce fait toute une chaîne de cesgoeland-argente_0.jpg oiseaux pouvant se reproduire mais aux deux extrémités, les goélands bruns et les goélands argentés sont devenus des espèces complètement différentes…

 

     Un même phénomène a été observé avec le moustique de la ville de Londres dont il n’existait au départ qu’une seule espèce (Culex pipiens) ne se nourrissant que de sang d’oiseau. A l’occasion de travaux dans le métro, quelques colonies de moustiques s’y sont introduites mais c’est un endroit où l'on rencontre à l’évidence plus de mammifères (souris, rats… et humains) que d’oiseaux ! Assez rapidement (population faible donc dérive génétique intense, voir plus haut) se créa une nouvelle espèce de moustiques (Culex molestus) aujourd’hui incapable de se reproduire avec les moustiques d’origine. On avance même le fait qu’il existerait autant de sous-espèces de Culex molestus que de lignes de métro !

 

     On peut également citer l’exemple des souris de Madère : les souris de ces îles sont proches de Mus musculus, la souris grise dite domestique en Europe centrale et du sud (et donc du Portugal) mais avec des traces ADN de souris du nord de l’Europe traduisant très certainement le passage des Vikings vers l’an 900… Aujourd’hui, spéciations aidant, il existe six espèces différentes de souris à Madère, parfois distantes de seulement 10 km, capables certes de s’accoupler mais pour donner des hybrides stériles.

 

          . la spéciation insulaire est une variante de celle que nous venons de décrire en ce sens qu’il s’agit ici le plus souvent de la colonisation d’un isolat en marge de la population principale par un petit groupe d’individus qui va rapidement diverger d’avec elle : on pense, par exemple, à la colonisation d’une île près de la côte.  L’exemple emblématique de ce type de spéciation est celui dit des « pinsons de Darwin » puisque c’est ce cas qui conforta la pensée du savant anglais sur l’Évolution des espèces.

 

les pinsons des îles Galápagos : en réalité, lors de son passage aux îles Galápagos à bord du Beagle, Darwin avait bel et bien prélevé des échantillons mais sans en comprendre encore la portée. Ce n’est que bien plus tard, puisqu’il n’était pas expert ornithologue, qu’il confia ses spécimens de pinsons à John Gould (1804-1881) un spécialiste renommé ; celui-ci lui expliqua que ses pinsons étaient tous d’’espèces différentes (bien qu’appartenant à un même groupe d’oiseaux) et non pas des variantes pinsons-galapagos.jpgd’une même espèce. Interloqué, Darwin – qui n’avait pas noté les lieux de ses prélèvements – se reporta aux collectes des autres membres de l’expédition… pour s’apercevoir que chaque espèce de pinson correspondait à une île bien précise. La conclusion fut pour lui évidente : chaque île étant un habitat spécifique, la sélection naturelle avait permis de choisir les individus les mieux adaptés à un milieu particulier (par exemple, la finesse du bec d’une espèce de pinsons lui permet de se nourrir de la chair de cactus, principale ressource de son île, tandis qu’une autre espèce possède un gros bec pour casser des graines, seule nourriture à sa disposition ; ailleurs, une autre espèce a un bec étroit et pointu pour attraper des insectes, etc.). Une évolution donc différente car séparée, les différences avec le pinson de départ portant essentiellement sur les modifications génétiquement acquises en raison du milieu spécifique, mais une évolution conduisant à la formation d’espèces différentes, devenues incapables de se reproduire ensuite entre elles… Il s’agit bien là d’un cas exemplaire de spéciation allopatrique de la variante « effet fondateur ». On peut retrouver ce même phénomène pour

 

la mouche drosophile : cet animal, si précieux pour la génétique depuis les travaux de Thomas Hunt Morgan (1866-1945) a, en effet, été tout particulièrement étudié dans l’environnement très spécial de Hawaï. Cet archipel est composé de nombreuses îles colonisées par Drosophila melanogaster, la « mouche à vinaigre ». L’étude des différentes espèces de mouches drosophiles le long de ces îles a montré plusieurs groupes qui se répartissent toujours de la même façon : les espèces ancestrales sont presque toutes à l’ouest tandis que les espèces dérivées se trouvent Hawaii hotspot cross-sectional diagramà l’est. Pourquoi cette répartition étrange ? Tout simplement parce que Hawaï est un ensemble d’îles volcaniques qui, depuis 40 millions d’années, se créent à partir d’un « point chaud » Pacifique avant de se déporter vers l’ouest (par la tectonique des plaques) où elles finissent par être submergées par l’océan. De ce fait, les îles « nouvelles » sont à l’est, des îles encore peu peuplées… et colonisables par les drosophiles qui, localement, finissent par diverger de la souche originale : sur 103 espèces de mouches étudiées, quasiment toutes sont endémiques d’une île bien précise.

 

          . la spéciation par zone de contact étroite, autre variante de spéciation allopatrique, se produit lorsque les populations concernées occupent des territoires différents mais se superposant sur une étroite bande de contact : on y trouve alors des hybrides susceptibles de pouvoir s’accoupler avec les représentants de chaque population alors que celles-ci sont déjà séparées et différentes. On peut citer le cas des corneilles noires, une espèce de passereaux de la famille des corvidae (ceux-là même dont j’expliquais dans un sujet précédent qu’ils sont probablement parmi les plus intelligents des animaux). On les rencontre sur un immense territoire englobant une grande partie de l’Europe et de l’Asie mais si les corneilles occidentales sont bien noires, celles qui vivent plus à l’est sontcorneille-mantelee.jpg  mantelées (c'est-à-dire que la couleur de leur dos est différente de celle du reste de leur corps) ; cette légère différence a longtemps fait croire qu’il s’agissait de variantes locales d’une même espèce mais, en 2002, une observation plus soutenue a permis de conclure au peu de vigueur des rares hybrides existants et, du coup, la corneille argentée a été élevée au rang d’espèce à part entière : il s’agit bien dans ce cas d’une spéciation. La corneille d’Amérique qui sévit, elle, aux USA, au Canada et dans le nord du Mexique est une espèce différente de la corneille noire avec laquelle ni accouplement, ni hybridation n’est plus possible : la spéciation est ici plus ancienne.

 

 

     * spéciation dans une même zone de contact (dite sympatrique). Moins fréquente, cette spéciation concerne des populations qui ont divergé bien qu'occupant un même territoire. Si l’isolation géographique n’est pas en cause, c’est que l’explication de cette séparation se trouve ailleurs. Longtemps nié par un grand nombre de scientifiques, il semble que ce type d’évolution des espèces soit bien réel à défaut d’être le plus fréquent. Quels peuvent être les facteurs induisant ce type de spéciation ? Cela dépend évidemment des populations concernées :

 

          . la mouche de l’aubépine : l’aubépine (un arbre qui pousse dans l’hémisphère nord) est parasité depuis toujours par une mouche qui se nourrit de ses fruits. En 1864, des pomiculteurs américains s’aperçurent qu’un parasite inconnu attaquait leurs pommiers : il s’agissait en fait d’une variété de cette mouche de l’aubépine délaissant sa proie d’origine. Pourtant, en laboratoire, la mouche de l’aubépine et celle, nouvelle, du pommier se croisent facilement en donnant une descendance fertile. Dans la nature, c’est totalement différent et les accouplements sont rares avec des hybrides peu nombreux. Tout se passe comme s’il existait une barrière précopulatoire conduisant à un isolement reproductif. La cause, ici, est probablement d’ordre génétique et conduit à des différences de comportement (orientation visuelle et/ou olfactive).

 

          . le cas très spécial des orques. L’orque – que l’on appelle également épaulard – est un mammifère marin qui se trouve au sommet de sa chaîne alimentaire : c’est donc un superprédateur. Cet animal, très social et vivant souvent en familles, se répartit en deux grands groupes nommés résidents et nomades. Les orques résidents, souvent en colonies d’une trentaine d’individus, reviennent chaque année dans la même zone où ils se nourrissent de poissons, notamment des saumons. En revanche, les orques nomades sont toujours en déplacement. Solitaires le plus souvent, cesorque-attaque.jpg orques nagent en silence et ce sont elles qui attaquent les grands mammifères tels que phoques et otaries, lions de mer, marsouins, pingouins par échouage volontaire sur la terre ferme, voire baleines. De morphologie identique et habitant le même océan, ces deux types d’orques ne chassent pas les mêmes proies, n’ont pas la même façon de vocaliser… et ne se reproduisent pas entre eux.

 

     On peut donc voir que si l’éloignement spatial, géographique est le paramètre le plus fréquent dans la formation d’espèces différentes, il peut exister d’autres facteurs aboutissant également à une modification génétique. L’important reste de bien comprendre que, une fois la spéciation réalisée, il n’y a plus de retour en arrière et l’espèce nouvellement apparue restera parfaitement individualisée jusqu’à ce qu’une nouvelle spéciation la touche à son tour.

 

 

Vitesse des spéciations

 

     Classiquement, on a toujours pensé qu’une spéciation était un phénomène lent et progressif, nécessitant des centaines de milliers d’années. Dans le darwinisme classique, on évoque un mouvement uniforme et graduel, variable évidemment selon les espèces et les milieux considérés. Il paraît, en effet, logique de penser que l’apparition d’une nouvelle espèce sera plus rapide pour, par exemple, la drosophile qui se reproduit à grande vitesse que pour un grand mammifère.

 

     Mais alors, les souris de Madère dont plusieurs espèces sont apparues en moins de 1000 ans : cas particulier ? C’est possible mais une autre explication peut-être avancée. On a eu l’occasion de l’évoquer déjà à maintes reprises mais la notion de transformation progressive des espèces a été tempérée  par la théorie des équilibres ponctués de Gould et Eldredge. Ces deux scientifiques proposent, en effet, de considérer l’évolution darwinienne des espèces selon une histoire qui associerait de longues périodes d’équilibre entrecoupées de rapides périodes de changements majeurs (voir le sujet : les mécanismes de l'Évolution). La majorité des évolutionnistes penche actuellement pour un mélange de ces deux mécanismes selon les espèces considérées.

 

 

Hasard et évolution des espèces

 

     L’Évolution des espèces – et plus généralement la Vie – ne suit pas un plan préétabli ou décidé à l’avance. C’est le hasard qui détermine l’avancée du vivant et c’est parfaitement vrai pour l’apparition d’espèces nouvelles ; cette dernière éventualité dépend, on vient de le voir, de conditions le plus souvent environnementales dont la prévision est impossible : une rivière qui change son cours, une île qui apparaît lors d’un tremblement de terre, d’un phénomène volcanique, etc. Un peu comme la chute de l’astéroïde qui, il y a 65 millions d’années, a permis l’émergence des mammifères en détruisant les grands sauriens.

 

     Pour faire comprendre cet aspect de l’Évolution, Stephen J. Gould, dans son livre « la vie est belle » (Le Seuil pour la traduction française), utilise une image : assimilons l’Évolution à un film, écrit-il, et rembobinons- le pour le rejouer ; il est absolument certain que la Vie ne repasserait pas par les mêmes étapes tant elles sont dépendantes d’éléments essentiellement dus au hasard : dans cette optique, l’Homme n’aurait qu’une chance minuscule de réapparaître… Et cet Homme - n'en déplaise à sa vanité - n’est certainement pas le « progrès ultime », le sommet incontournable d’un processus progressant vers l’émergence de l’esprit. En réalité, il n’y a jamais rien de nécessaire et tout peut être toujours rejoué. Toujours.

 

     Il en est pour la transformation des espèces comme pour la survie des individus. On y retrouve une histoire en deux temps : d’abord, c’est le hasard qui joue le premier rôle dans la production des variations (quel spermatozoïde pour quel ovule ?) puis les lois déterministes entrent en action (un partenaire sexuel est-il atteignable ? L’inondation va-t-elle tuer le groupe ?) : il s’agit donc d’un jeu double associant variation et sélection, pur hasard et déterminisme. La nécessité, elle, est toujours absente de l’histoire totale qui évolue donc sans but défini.

 

     Non, l’organisme n’est pas parfait et permet seulement à la Vie de pouvoir se maintenir. François Jacob, il y a déjà bien des années, avait déjà formulé cela en parlant du « bricolage » de l’Évolution, un terme qui Francois-Jacob.jpgtraduit à la fois l’imperfection dans la Nature et la réponse par le déterminisme et le hasard. En somme, le « progrès » vers un avenir radieux (d'ailleurs variable selon les sociétés humaines) est fictif : il n’existe que de simples transformations qui permettent à la Vie de se maintenir et, si possible, de s’étendre.

 

 

 

 Sources :

1. Wikipedia France

2. www.cnrs.fr/cw/dossiers/dosevol

3. Encyclopediae Universalis

4. Encyclopediae Britannica

5. www.snv.jussieu.fr/vie/

 

 

Images :

 

1. mulet (sources : tizours.free.fr)

2. chien et chat (sources : cdn.pratique.fr)

3. Ernst Mayr (sources : www.achievement.org)

4. goéland brun (sources : fotooizo.free.fr)

5. goéland argenté (sources : www.pratique.fr)

6. pinsons des îles Galapágos (sources : wwwsamizdat.qc.ca)

7. le point chaud de Hawaï (sources : wikipedia.org)

8. corneille mantelée (sources : fr.wiktionary.org)

9. attaque d'épaulard (sources : www.borispatagonia.com)

10. François Jacob (sources : infodsi.com)

(pour lire les légendes des illustrations, posser le pointeur de la souris sur l'image)

 

 

Mots-clés : notion d'espèce - Ernst Mayr - sélection naturelle - dérive génétique - pariade - altruisme génétique - spéciation allopatrique - goélands bruns et argentés - moustique londonien - souris de Madère - spéciation insulaire - pinsons des galapágos - Thomas Hunt Morgan - corneilles noires ou mantelées - mouche de l'aubépine - orques - théorie des équilibres ponctués - François Jacob

 (les mots en gris renvoient à des sites d'information complémentaires)

 

 

Sujets apparentés sur le blog

1. les extinctions de masse

2. les mécanismes de l'Évolution

3. reproduction sexuée et sélection naturelle

4. le rythme de l'évolution des espèces

5. le hasard au centre de la Vie

6. l'Évolution est-elle irréversible ?

7. la notion d'espèce

8. la théorie des équilibres ponctués

 

 

 

 Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

mise à jour : 17 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #astronomie

 

                telescope-hubble.jpg

 

 

 

 

     Les grands télescopes d’observation de l’Univers existent depuis assez longtemps puisqu’ils ont commencé à apporter leurs lots de découvertes dès 1904 avec celui du Mont Wilson, aux USA : ce premier grand télescope permit notamment à l’astronome Edwin Hubble, dans les années 1920, de mettre en évidence le fait que des galaxies comme la Voie lactée existent en grand nombre et que l’Univers est en expansion. Vint ensuite, en 1949, celui du Mont Palomar, toujours aux USA, encore plus grand et encore plus précis (pour ce dernier, j’ai conservé en mémoire la photo du camion transportant, à travers le désert et vers le site prévu, le miroir principal, camion suivi par l’impressionnante file de voitures des scientifiques veillant jalousement sur leur futur joujou). Ces événements en définitive pas si lointains furent, certes, des avancées spectaculaires dans l’observation de nos cieux mais tous ces merveilleux outils avaient un défaut rédhibitoire : situés au sol, ils ne pouvaient s’affranchir des turbulences de l’air qui brouillent les images… On avait donc depuis longtemps envisagé de déplacer les observatoires au delà de l’atmosphère terrestre mais faire décoller une fusée, mettre en orbite et exploiter même un « petit » télescope resta longtemps du domaine du phantasme jusqu’à ce qu’en 1990…

 

 

L’idée

 

     Pouvoir observer l’Univers en s’affranchissant des contraintes terrestres remonte aux années 1920 (une idée avancée des 1923 par le physicien allemand Hermann Oberth) mais c’est en 1946 que l’astronome spitzer.jpgaméricain Lyman Spitzer en évoque fermement le concept. Ce scientifique met en avant deux arguments fondamentaux : d’abord, comme cela a déjà été signalé, la présence dans l’espace d’un télescope permettrait de s’affranchir des turbulences atmosphériques et d’obtenir en conséquence une précision d’observation bien supérieure et, d’autre part, cela permettrait également d’étudier dans les domaines de l’infrarouge et de l’ultraviolet ce qui est impossible au sol à cause de l’atmosphère qui intercepte la plus grande partie de ces rayonnements.  Manquaient à l’évidence les compétences techniques qui permettaient un financement acceptable… On se contenta donc de quelques caméras embarquées dans les premières fusées du début de l’ère spatiale.

 

     En 1970, la NASA crée un comité chargé de l’étude de faisabilité d’un projet de télescope spatial mais les fonds tardent à venir ou, s’ils existent, ils sont rapidement amputés. Au début des années 1980, le projet se dessine enfin : pour en limiter le coût, la taille du miroir du télescope est revue à la baisse (mais reste acceptable) et, surtout, l’agence spatiale européenne, l’ESA, est invitée à se joindre à l’opération en échange d’une participation de 15% dans le financement global. C’est la grande époque des navettes spatiales américaines et le projet de télescope s’appuie sur elles afin que, une fois mis en orbite, l’entretien et d’éventuelles réparations puissent être régulièrement pratiqués : tous les instruments embarqués dans le laboratoire spatial sont donc pensés pour être remplacés manuellement par des astronautes.

 

 

La mise en service

 

     Le télescope est lancé le 24 avril 1990 par l’intermédiaire de la navette spatiale Discovery.  C’est un véritable petit observatoire astronomique dediscovery-shuttle.jpg 11 tonnes puisque, outre le miroir principal de 2,4 m, il est couplé à plusieurs spectromètres et trois caméras (la première à champ étroit destinée à observer les objets peu lumineux, la seconde pour les observations à champ large et enfin la troisième pour l’infrarouge). Puisque pour des raisons politico-écologiques il a été décidé de ne pas utiliser de source d’énergie d’origine nucléaire, la production d’électricité destinée à faire fonctionner le module est assurée par deux ensembles de panneaux solaires moins polémiques mais probablement plus difficiles à manipuler.

 

     Le lancement est une réussite mais la joie des scientifiques est de courte durée : on se rend compte immédiatement que les premières images obtenues sont de qualité médiocre et que, même après traitement des dites-images, celles-ci restent floues. Il faut se rendre à l’évidence : une infime erreur de calcul dans la taille du miroir a rendu l’instrument « myope » ! Il faudra attendre une mission de sauvetage en 1993 avec à nouveau Discovery pour enfin corriger ce défaut « de jeunesse » (et au passage changer quelques autres instruments). Le télescope est alors pleinement opérationnel et il va bientôt changer notre perception de l’Univers.

 

 

Une moisson de découvertes

 

     Depuis la première mission de réparation par Discovery en 1993, Hubble verra les navettes revenir quatre fois pour assurer sa bonne marche. Chaque fois, les instruments défaillants sont remplacés et ceux devenus obsolètes changés. Toutefois, la dernière « mission » d’une navette (Atlantis) remonte maintenant à 2009 et c’était la dernière possible puisque le système de ces vaisseaux spatiaux réutilisables a été depuis abandonné par la NASA. En réalité, Hubble continuera à fonctionner de nombreuses années, même après le lancement réussi du télescope spatial James Webb, fin 2022, dont la vision dans l'infrarouge permet l'obtention d'images extraordinaires… qui viennent compléter et approfondir celles de son illustre prédécesseur toujours actif !

 

     La NASA avait assigné trois tâches à Hubble, tâches qui furent parfaitement accomplies :

 

étudier le proche milieu intergalactique afin d’en décrire la composition ainsi que celle des galaxies ;

 

*  étudier les champs profonds afin d’observer les premiers instants de l’Univers et

 

déterminer la constante de Hubble qui est, rappelons-le, la constante de proportionnalité entre distance et vitesse de récession apparente des galaxies ou, pour le dire plus simplement, la constante qui permet de déterminer le taux d’expansion de l’Univers.

 

    Mais ce ne fut pas tout : Hubble nous a ébloui par la qualité et la beauté des photographies qu’il a prises et, surtout, par des découvertes essentielles. Revenons brièvement sur quelques unes d’entre elles :

 

* En juillet 1994, Hubble était en parfait état de marche lorsque la comète Shoemaker-Levy s’écrasa sur Jupiter. Il participa donc à cette première observation directe de la collision hors de notre planète d’objets shoemaker-levy-par-hubble.jpgdu système solaire, événement confirmant au passage le rôle « protecteur » de la géante gazeuse puisque la forte influence gravitationnelle de celle-ci « détourne » un grand nombre de petites comètes et astéroïdes qui, autrement, iraient s’écraser sur d’autres cibles potentielles dont la Terre… avec les conséquences que l’on imagine.

 

* C’est Hubble qui, parmi les premiers, apporta la confirmation qu’il existe bien des exoplanètes, c'est-à-dire des planètes tournant autour d’autres systèmes solaires que le nôtre, une notion évoquée depuis des siècles mais jamais encore prouvée (première détection du transit secondaire sur l’étoile HD 209458, voir le sujet dédié : planètes extrasolaires).

 

* Hubble fut un élément déterminant dans la consécration du modèle actuel de l’accélération de l’Univers puisque ses observations ont permis de l’affiner.

 

* Contrairement aux télescopes terrestres (mais cela change rapidement), Hubble est capable d’observer les étoiles des autres galaxies, donc dans des milieux différents de la Voie lactée, ce qui a permis de compléterM31-compte-des-etoiles-par-Hubble.jpg notre connaissance du cycle stellaire.

 

* C’est encore le télescope spatial qui, grâce à des observations répétées, a confirmé le fait que la plupart des galaxies (dont la nôtre) recèlent un trou noir géant en leur centre. Rappelons pour la petite histoire qu’il y a à peine quelques années, une majorité de scientifiques doutaient de ce que les trous noirs – notion théorique s’il en est – puissent réellement exister…

 

*  Depuis l’astronome suisse Fritz Zwicky, on sait que la quantité visible de matière ne peut à elle seule expliquer le ballet des galaxies dans le ciel : le calcul de l’action des forces gravitationnelles qui régissent leurs mouvements sous-entend obligatoirement la présence d’une « matière invisible » appelée, faute de mieux, matière noire ou matière sombre. Inutile de dire que, durant des années, cette idée insolite divisa profondément la communauté scientifique. Hubble apporta la preuve que cette matière noire ne pouvait pas être due à la seule existence des naines brunes (étoiles avortées car de trop petites tailles) ou noires (évolution possible, mais non prouvée, des naines blanches) : d’après les observations du télescope spatial, leur nombre est en effet trop faible pour expliquer les grandes divergences des chiffres.

 

* L’étude de ce que l’on appelle aujourd’hui « le champ profond de Hubble » est également une contribution remarquable du télescope. Il s’agit de la photographie d’une région couvrant un trente millionièmes duhubble-deep-field.jpg ciel, région minuscule certes mais contenant déjà plusieurs milliers de galaxies. Cette photographie confirma ce que l’on soupçonnait auparavant, à savoir que, quelle que soit la direction dans laquelle on regarde, on trouve des galaxies semblables à la nôtre à n’en plus finir mais pas seulement… Puisque regarder si loin, c’est regarder dans un passé très ancien, reflétant les premiers instants de l’Univers, Hubble a ainsi repoussé les limites de l’observation et, surtout, prouvé que des galaxies importantes étaient présentes bien plus tôt qu’on ne le pensait. Ajoutons à cela que cette étude fut également effectuée dans le ciel austral avec les mêmes résultats, démontrant de façon irréfutable l’homogénéité de l’Univers à grande échelle : il ne s’agit pas là d’une observation banale mais de la confirmation du bien fondé de la théorie du Big bang et de son inflation initiale (voir le sujet : Big bang et origine de l'Univers).

 

     On voit donc que l’apport de ce télescope malgré la taille modeste de son optique (comparée à celle des télescopes au sol) fut et est encore fondamental. Mais ce qui est peut-être le plus remarquable et le plus émouvant dans la moisson de ce petit engin, c’est la qualité et la beauté des photographies de l’Univers qu’il nous a données : galaxies, amas globulaires, nébuleuses, rémanents de novas, couples binaires, cocons stellaires, etc. On ne peut que s’extasier devant l’extraordinaire album illustré par le télescope Hubble : pour s’en convaincre, il suffit de faire un saut sur le site officiel du télescope à l’adresse suivante : http://hubblesite.org/ et choisir de visualiser une des centaines d’images extraordinaires de la collection. L’astronome du siècle dernier Camille Flammarion (et bien d’autres) aurait certainement donné des années de sa vie pour voir ça !

 

 

Les temps changent

 

     Si tout va bien pour lui (et c’est bien le cas actuellement), le télescope spatial Hubble continuera à fonctionner sans problème majeur durant encore quelques années. Le temps que son successeur, actuellement en phase d’assemblage, soit lancé dans l’espace. Toutefois, celui-ci ne sera pas comparable à Hubble pour une raison très simple : depuis le lancement de notre télescope spatial, il y a un peu plus de vingt ans, les temps ont changé. En effet, les grands télescopes « terriens » sont devenus tout à fait compétitifs car l’avancée des techniques a pu combler leur principal défaut : malgré l’atmosphère, ils peuvent à présent voir aussi bien que Hubble ! C’est que, entretemps, l’informatique est passée par là : les nouveaux engins sont maintenant aidés par un ordinateur qui calcule les imprécisions engendrées par les turbulences de l’air et les corrige en temps réel. On parle alors « d’optique adaptative » qui consiste à braquer un faisceau laser dans la haute atmosphère, vers 90 km de hauteur, sur la mince pellicule d’atomes de sodium laissée par les météorites lors de leur entrée dans l’atmosphère. Du coup, ce sodium se met à briller et crée une telescope-VLT.jpgimage artificielle qui permet au système de calculer l’instabilité de l’air et d’adapter l’optique de l’instrument plus de mille fois par seconde… De ce fait, par exemple, bien que situé au sommet du Cerro Paranal (à 2600 m d’altitude), au Chili, le télescope VLT de l’agence européenne (4 miroirs de 8,20 m reliés) est deux fois plus précis que Hubble !

 

     Cette amélioration considérable des données fournies par les observatoires au sol explique pourquoi le successeur de Hubble ne sera pas « un Hubble amélioré ». Si l’on veut observer l’Univers en lumière visible, il est évident que, même dotés d’optiques adaptatives très performantes et donc onéreuses, les observatoires terriens reviennent nettement moins chers à construire et surtout à entretenir qu’un télescope spatial : on préférera consacrer l’argent ainsi économisé à construire des miroirs (ou des ensembles de miroirs) plus grands et entourés d’équipements encore plus performants.

 

     Reste que le successeur de Hubble qui porte le nom d’un autre homme célèbre,

observatoire spatial James Wzbb
télescope spatial James Webb lancé en décembre 2021

James Webb (un des principaux responsables du projet Apollo) étudie le cosmos dans une gamme d’optique qui échappe aux observatoires terrestres, l’infrarouge. Doté d’un miroir de 6,5 m (contre 2,4 pour Hubble), il peut collecter une image 9 fois plus rapidement que son prédécesseur. Il a été lancé avec succès le 25 décembre 2021 par un lanceur Ariane 5 sous le triple parrainage de la NASA, de l’Agence Spatiale Européenne et du CSA (Agence spatiale canadienne). De par sa position et contrairement à Hubble, il n’est prévu pour lui aucune mission d’entretien.

Ses premiers clichés, spectaculaires, ont ravi les scientifiques : ils sont résumés dans un article dédié ICI.

 

 

Il y a un avant et un après Hubble

 

     Le télescope spatial Hubble aura marqué un tournant en astronomie en permettant pour la première fois à l’humanité de s’affranchir des contraintes terrestres pour observer son environnement proche et lointain. Comme on l’a vu, Hubble a permis de réaliser d’énormes progrès dans la compréhension de notre univers. Un an après le lancement du télescope spatial James Webb, il était prévu de « mettre Hubble à la retraite » après 25 ans de bons et loyaux services. En réalité, puisqu’il n’est plus question pour des raisons techniques de prévoir des missions d’entretien, on voit mal les scientifiques se passer d’un outil pour peu qu’il fonctionne encore. On pouvait donc penser que Hubble continuerait tranquillement son observation du ciel. Et c'est bien ce qui se passe : le télescope spatial James Webb ayant été parfaitement positionné a commencé à nous envoyer des clichés époustouflants qui font le bonheur des scientifiques. C'est un deuxième tournant de l'astronomie observationnelle, certes, mais Hubble est toujours là qui nous gratifie de clichés tout à fait remarquables. En fait, les deux engins se complètent parfaitement

 

 

 

 

Sources

 1. fr.wikipedia.org

2. www.techno-science.net/

3. Encyclopaedia Britannica

4. hubblesite.org/

5. pgj.pagesperso-orange.fr/Hubble.htm

 

 

Images :

1. le télescope spatial Hubble (sources : solarsystem.nasa.gov/)

2. Lyman Spitzer (sources : spaceflightnow.com/)

3. la navette Discovery installant Hubble sur son orbite géostationnaire (sources : cdn.zmescience.com/)

4. la comète Shoemaker-Levy s'écrasant sur Jupiter (sources : hubblesite.org/)

5. étoiles de la galaxie d'Andromède individualisées par Hubble (sources : hubblesite.org/)

6. Hubble deep field (sources : hubblesite.org/)

7. le télescope VLT de l'ESA (sources : atacamaphoto.com/)

8. le télescope James webb (sources : spacetelescope.org/)

 (pour lire les légendes des illustrations, posser le pointeur de la souris sur l'image)

 

 

Mots-clés :  Edwyn Hubble - télescope du Mont Palomar - Hermann Oberth - Lyman Spitzer - Agence Spatiale Européenne ESA - navette Discovery - télescope spatial James Webb - comète Shoemaker-Levy - exoplanètes - Fred Zwicky - matière noire - optique adaptative

 (les mots en blanc renvoient à des sites d'information complémentaires)

 

 

Sujets apparentés sur le blog :

1. matière noire et énergie sombre

2. distance et durée des âges géologiques

3. les galaxies

4. Big bang et origine de l'Univers

5. Edwin Hubble, le découvreur

6. l'expansion de l'Univers

7. juste après le Big bang

8. planètes extrasolaires

9. premières photos du télescope spatial James Webb

 

 

 

Dernier sommaire général du blog : cliquer ICI

  

l'actualité du blog se trouve sur FACEBOOK

 

 

dernière mise à jour : 16 avril 2023

Voir les commentaires

<< < 1 2 3 4 5 6 7 8 9 10 20 > >>

copyrightfrance-logo17

Articles récents

 POUR REVENIR À LA PAGE D'ACCUEIL : CLIQUER SUR LE TITRE "LE BLOG DE CEPHEIDES" EN HAUT DE LA PAGE 

 

 

Sommaire général du blog : cliquer ICI

 

 

 

 

Fréquentation

à fin février 2025

 

Visiteurs uniques : 670 701

 

Pages/articles vus : 955 705

 

 

 

Du même auteur, en lecture libre :

 

Alcyon B, roman de science-fiction 

 

Viralité, roman 

 

Camille, roman

 

La mort et autres voyages, recueil de nouvelles (djeser2.over-blog.com)

 

 

 

Hébergé par Overblog