Overblog
Suivre ce blog Administration + Créer mon blog
Le blog de cepheides

Le blog de cepheides

articles de vulgarisation en astronomie et sur la théorie de l'Évolution

Publié le par cepheides
Publié dans : #physique, #paléontologie

 

 

 

nuage protosolaire    système solaire
formation du système solaire

 

 

 

      Aujourd’hui, toute personne s’intéressant quelque peu à l’astronomie ou à la paléontologie sait que la Terre est âgée d’environ 4,5 milliards d’années et qu’elle est née approximativement en même temps que son étoile, le Soleil. Il n’en fut pas toujours ainsi : vers le milieu du XIXème siècle, deux écoles de pensée s’opposaient sur l’âge véritable de notre planète et les congrès scientifiques sur cette question donnaient alors lieu à des disputes parfois violentes, voire à quelques empoignades mémorables ; en effet, les physiciens avançaient l’âge maximal de 50 millions d’années tandis que les géologues parlaient plutôt en termes de centaines de millions d’années (ce qui était également l’opinion de Darwin qui pensait – à juste titre – qu’il fallait beaucoup de temps pour que les espèces évoluent et se transforment). Sans oublier tous ceux qui, appliquant à la lettre les enseignements des textes bibliques – et il y avait parmi eux quelque savants –, ne démordaient pas d’une création de la Terre remontant à environ six mille ans. Cette querelle – il s’agissait effectivement plus d’une polémique et même d’une dispute que d’une simple controverse – dura un demi-siècle ! Ce fut probablement le désaccord le plus long et un des plus virulents ayant jamais opposé des scientifiques de premier ordre et il ne me semble pas inintéressant de revenir sur les arguments des uns et des autres.

 

 

Le point de départ : Charles Lyell

 

     Né en 1797, Charles Lyell se destinait en fait à une carrière de droit mais il était passionné par la géologie qu’il avait toujours plus ou moinsCharlesLyell pratiquée. En 1828, Lyell voyage en Italie et dans le sud de la France : à cette occasion, il étudie diverses couches géologiques et leur trouve une unité en ce sens que ces différentes strates peuvent toutes être classées selon les fossiles d’animaux marins qu’elles renferment. Il en déduit une notion de continuité dans le temps, un temps qui ne peut être que nécessairement assez long. Deux ans plus tard, il commence à publier ses « principes de géologie », un véritable « pavé dans la mare » du catastrophisme qui prévalait à l’époque.

 

     En ce temps-là, en effet, à la suite de Cuvier (et d’autres grands noms), on pensait que la Terre s’était créée très rapidement (en quelques milliers d’années) à cause d’événements violents, catastrophiques (d’où le nom de la théorie) comme, par exemple, le Déluge. Cette approche avait par ailleurs le gros avantage de ne pas brusquer les esprits religieux de ceux qui accordaient à la Bible le statut de témoignage authentique du passé. Lyell comprend qu’il remet en question bien des idées reçues mais il a une certitude : pour obtenir les couches géologiques qu’il a étudiées, il faut du temps et non des événements brutaux. Il redonne alors toute leur place aux idées de James Hutton, un géologue qui, quelques années plus tôt, avait avancé que la Terre s’était formée graduellement et que les éléments qui avaient permis cette création étaient encore présents et actifs. Pour Hutton, la Terre était « infiniment » vieille et il avait appelé sa théorie « uniformitarisme » (ou actualisme), expliquant que les transformations observées des roches et des océans en un endroit précis s’étendaient forcément sur une le déluge par Géricaultdurée de temps obligatoirement fort longue (on ne connaissait pas encore la tectonique des plaques) mais, à l’époque, il ne fut guère écouté. Lyell défendit donc cette approche aux dépens du catastrophisme ambiant et cela devait avoir une grande importance dans la suite des événements.

 

     En effet, quelques années plus tard, Charles Darwin croit reconnaître dans diverses espèces vivantes (mais également disparues) des ressemblances qui ne peuvent s’expliquer que parce que ces espèces dérivent les unes des autres (voir le sujet : les mécanismes de l’évolution). Darwin avait lu avec attention les principes de géologie de Lyell et avait compris ce qu’ils impliquaient : la transformation – ou plutôt l’évolution – des espèces devenait crédible s’il lui était accordé un laps de temps suffisant ce que précisément le catastrophisme ne pouvait pas lui offrir. Après avoir longtemps hésité, Darwin publie « l’origine des espèces » en 1859, non sans insister sur tout ce qu’il doit à Lyell, et le livre entraînera les remous que l’on sait. Darwin, se basant sur une évaluation empirique de l’érosion de la croute terrestre, se risque à avancer pour l’âge de la Terre une date qui lui paraît compatible avec la théorie qu’il défend : 300 millions d’années. Mais devant la levée de boucliers des catastrophistes, dans la seconde édition de son livre, il renonce à donner un chiffre tout en continuant à proclamer que Lyell a forcément raison, ce dernier étant d’ailleurs en retour un des premiers scientifiques de renom à le soutenir.

 

 

La contestation : Lord Kelvin

 

     William Thomson – plus connu sous le nom de Lord Kelvin – était un très célèbre physicien puisqu’il avait – entre autres - donné son nom à une échelle de température absolue : le kelvin (la température de 0 K est égale à -273,15 °C et correspond au zéro absolu). Or, il était très dubitatif quant à la théorie de Darwin et, plus encore, sur les échelles de temps défendues par Lyell : il chercha donc à démontrer que tous ces gens-là se Lord-Kelvintrompaient… Il entreprit de s’appuyer sur les lois de la thermodynamique pour évaluer l’âge de la Terre et, d’emblée, une certitude s’imposa à lui : la Terre et le Soleil devaient être relativement jeunes sinon les deux astres ne seraient plus – et depuis longtemps- que des corps froids et inhabitables ; il était impossible, selon Kelvin, que les géologues aient raison car les chiffres qu’ils proposaient – des centaines de millions d’années – étaient bien trop élevés et, pour tout dire, fantaisistes.

 

     La réputation mondiale de Lord Kelvin était alors telle que les géologues ne purent que s’incliner. Quelques années plus tard, en 1862, Kelvin publia le résultat de ses travaux sur la diffusion de la chaleur dans l’espace qui concluaient à un âge maximal de la Terre ne pouvant en aucun cas dépasser 100 millions d’années. C’était bien peu pour les géologues qui se demandèrent alors s’ils n’avaient pas sous-estimé les caractéristiques physiques de l’érosion de la croûte terrestre et très dérangeant pour un homme comme Darwin qui trouvait que 100 millions d’années, c’était décidément très insuffisant pour expliquer le long cheminement de l’Evolution, mais bon… Seul, Thomas Huxley, ami proche du naturaliste et grand vulgarisateur de la théorie de l’Evolution, n’accepta jamais les conclusions du physicien, estimant que celui-ci devait forcément se tromper quelque part mais sans pouvoir dire où, ni de quelle manière… Il demeura toutefois bien seul sur sa position et les chiffres de Kelvin finirent par s’imposer au point que même Lyell retira ses propres estimations de la réédition de ses « principes de géologie ». Darwin quant à lui rectifia, certes à contrecœur, certains passages de ses livres afin de prendre en compte une vitesse d’évolution des espèces bien plus rapide qu’il ne l’avait primitivement estimée.

 

     En 1897, lord Kelvin publia de nouveaux travaux avec des calculs plus affinés qui concluaient à des chiffres encore plus petits : 20 à 40 millions d’années pour l’âge de la Terre ! C’était assurément un démenti définitif aux chiffres avancés par les tenants de l’authenticité biblique mais qui était loin de faire le bonheur des géologues et des Darwiniens. L’affaire en resta là jusqu’au début du siècle suivant et, la chose est assez rare pour être signalée, c’est à un physicien que l’on devra la levée de l’interdit jeté par un autre physicien…

 

 

La solution : Ernest Rutherford

 

     C’est en effet un physicien qui va apporter les éléments de résolution Rutherford_1908.jpgde cette querelle entre les géologues (et naturalistes) et les représentants de sa discipline… en donnant raison au camp opposé !  Cet homme providentiel est un Néo-zélandais travaillant en Angleterre et s’appelant Ernest Rutherford. Aujourd’hui, Rutherford est reconnu comme le père de la physique nucléaire mais à cette époque il n’en était encore qu’au commencement de sa prodigieuse carrière.

 

     Nous sommes au tout début du XXème siècle et le Français Pierre Curie travaille depuis quelque temps sur le radium ; il se rend compte que, compte tenu de la petite taille des échantillons observés, ce corps dégage une chaleur sans commune mesure avec ce à quoi on aurait pu s’attendre. Rutherford arrive à la même conclusion quelques mois plus tard. Or, on savait que la Terre était très riche en ce type d’éléments ; dès lors, une évidence s’impose : notre planète possède le moyen de conserver sa chaleur et, contrairement à ce que défend Lord Kelvin depuis des années, elle ne se refroidit pas ou, en tout cas, seulement extrêmement lentement. Rutherford est à présent convaincu que la Terre est capable de conserver sa chaleur durant des millions d’années grâce à la radioactivité naturelle et, bien sûr, cela change tout ! Cet extraordinaire dégagement de chaleur, explique Rutherford, a une explication parfaitement logique puisqu’elle est la conséquence de la désintégration naturelle de certains atomes comme le thorium sur lequel il a longtemps travaillé et, bien sûr, le radium. Au début, cette découverte choque chimistes et physiciens pour lesquels, jusqu’à ce jour, il ne pouvait être question de destruction de la matière mais les travaux de Rutherford sont sans appel et, bientôt, tous se rendent à l’évidence (Pierre Curie mettra deux ans). En 1903, âgé seulement de 32 ans, Rutherford entre dans le cercle fermé des découvreurs de génie et reçoit une prestigieuse récompense, la médaille Rumford, décernée par la Royal Society.

 

     C’est donc tout naturellement que, l’année suivante, il se rend à Londres terre-coupe 2pour participer à un congrès sur l’âge de la Terre… en présence de Lord Kelvin en personne. Il n’a aucun mal à expliquer pourquoi le vieux physicien s’est trompé : ce dernier a tablé sur une dissipation progressive de la chaleur originelle sans savoir qu’il en existait une importante source au centre de la Terre : les lois de la thermodynamique ne peuvent donc pas s’appliquer telles quelles. Les géologues (et les partisans de la théorie de l’Evolution) avaient donc eu raison sans le savoir !

 

     Lord Kelvin assista à la démonstration de Rutherford et aux débats qui s’ensuivirent mais jamais il n’accepta l’idée que la Terre pouvait être aussi âgée que le démontrait son jeune confrère car c’était admettre l’ouverture tant recherchée par les évolutionnistes, or, à cela, Lord Kelvin ne pouvait se résoudre tant il détestait l’idée même des travaux de Darwin. Quelques scientifiques continuèrent à soutenir sa position, plus par respect pour leur vieux maître que par conviction véritable, mais à sa mort, en 1907, on oublia définitivement ses calculs sur l’âge de la Terre. Les géologues avaient enfin trouvé l’explication de ces superpositions de strates qui les avaient tant intrigués et les Darwiniens le support scientifique nécessaire à la transformation des espèces dont ils avaient toujours été certains sans pouvoir le prouver.

 

 

L’âge de la Terre aujourd’hui

 

     Les recherches sur l’âge réel de la Terre se sont poursuivies au fil des années. En 2002, des études portant sur des corps radioactifs rares comme l’hafnium et le tungstène ont encore repoussé l’origine de notre globe de quelques dizaines de millions d’années : on pense à présent que la Terre (et d’autres planètes) s’est constituée plus tôt et plus rapidement qu’on le croyait, probablement dans les 30 à 40 millions d’années du début du système solaire ce qui la fait arriver à un âge total de 4,6 milliards d’années, Soleil et planètes s’étant formées au quasi même moment. L’explication la plus probable est celle de l’explosion à cette époque d’une supernova proche dont l’onde de choc serait en quelque sorte venue « fertiliser » le nuage de gaz qui se trouvait à l’emplacement de notre système solaire actuel pour donner naissance, par agrégation progressive, à notre étoile, une naine jaune à longue durée de vie, et à son cortège de planètes. C’était il y a 4,6 milliards d’années et, pourtant, notre planète est toujours chaude comme en témoignent notamment les volcans qui, de temps à autre, viennent réveiller les consciences humaines. C’était il y a suffisamment longtemps pour que la Vie ait pu apparaître sur Terre, se diversifier et donner naissance au monde que nous connaissons aujourd’hui.

 

 

 

 

Images

 

1. du nuage protosolaire  au système solaire (sources : lamaisondalzaz.com)

2. Charles Lyell (1797-1875) (sources : cosmology.tistory.com)

3. le Déluge, par Géricault (musée du Louvre) (sources : lettres.ac-rouen.fr)

4. Lord Kelvin (1824-1907) (sources :  www.universitystory.gla.ac.uk)

5. Ernest Rutherford (1871-1937) (sources :   commons.wikimedia.org/wiki)

6. coupe de la Terre (sources :  geothermie.tpe.free.fr)

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

Mots-clés : Charles Lyell - catastrophisme - Georges Cuvier - James Hutton - uniformitarisme - tectonique des plaques - Charles Darwin - Lord Kelvin (William Thomson) - lois de la thermodynamique - Thomas Huxley - Ernest Rutherford - désintégration atomique 

(les mots en gris renvoient à des sites d'informations complémentaires)

 

 

Articles connexes sur le blog

1. les mécanismes de l'évolution

2. distances et durées des âges géologiques

3. le rythme de l'évolution des espèces

4. la dérive des continents ou tectonique des plaques

5. origine du système solaire

 

 

 Dernier sommaire général du blog : cliquer ICI

 

l'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 3 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #biologie

 

         

  

 

     Dans les années 20, un cataclysme considérable bouleversa le petit monde jusque là protégé de la physique fondamentale : l’irruption de la mécanique quantique. De quoi s’agissait-il ? Tout simplement de la remise en cause du caractère déterministe des phénomènes physiques avec l’introduction dans le domaine subatomique du hasard pur et dur. En d’autres termes, alors que dans le monde physique du visible (le nôtre de tous les jours) chaque action est connue pour être produite et déterminée par une action préalable, on affirmait tout à coup que dans le domaine de l’infiniment petit (à l’échelle de l’atome), c’était le seul hasard qui régissait la succession des événements… Impossible à croire ? Pourtant,  les équations étaient formelles et jamais la mécanique quantique n’a depuis été prise en défaut ; plus encore, elle a contribué à la réalisation d’extraordinaires outils tout en décryptant certains phénomènes jusque là inexplicables…  (voir le sujet : mécanique quantique). Aujourd’hui, plus aucun scientifique ne remet en cause cette physique bien particulière et cela même si on a du mal à l’accorder avec la théorie de la relativité générale d’Einstein.

 

     Or, en ce début de siècle (ou de nouveau millénaire, c’est comme on voudra), voilà que la question semble à son tour se poser… pour la biologie. Quoi, la science du vivant serait, elle aussi, sous le joug – au moins partiellement – du pur hasard ? Faut-il voir dans cette affirmation une provocation de quelques scientifiques en mal de notoriété ou, au contraire, d’une piste sérieuse pour expliquer les mécanismes régissant la Vie ? Explication.

 

 

Retour (rapide) sur la physique fondamentale

 

     C’est en 1927 que Heisenberg avance son « principe d’incertitude » (ou principe d’indétermination), c'est-à-dire l’affirmation selon laquelle on ne peut pas connaître en même temps la vitesse et la position d’une particule : dans le monde subatomique, on ne peut parler qu’en termes de probabilité, les objets ayant des comportements aléatoires, théoriquement imprévisibles à l’échelle de l’unité. Il s’agit là d’une notion bien difficile à comprendre : comment un objet ne peut-il « qu’éventuellement » être là ? Schrödinger utilisa une métaphore demeurée célèbre pour tenter de « visualiser » le concept, celle de son chat : on en trouvera une description en fin de l’article sur la physique quantique. Quoi qu’il en soit, les équations sont sans équivoque : à ce niveau d’organisation, c’est le hasard qui détermine la présence (ou l’absence) à un endroit donné de l’objet subatomique. Mais alors, me direz-vous, si c’est vrai,  comment se fait-il que ma main ne traverse pas la table sur laquelle je m’appuie car plus rien n’est possible si les particules se trouvent n’importe où ? La réponse tient dans la quantité : s’il est impossible de savoir si une particule est là plutôt qu’ailleurs, ce n’est plus vrai si l’on considère un nombre suffisant d’entre elles : en grande quantité, et bien qu’ayant une conduite individuelle aléatoire, il est possible de décrire un comportement statistique probabiliste de l’ensemble des particules : on ne peut pas savoir où se trouve une particule donnée (le hasard) mais on peut parfaitement définir la position d’un grand nombre d’entre elles (probabilité). En somme, on obtient l’ordre (le comportement de l’ensemble) à partir du désordre (le comportement au hasard de chacune des molécules prises isolément). Bon, mais que vient faire la biologie dans tout ça ?

 

     Eh bien, certains scientifiques se demandèrent aussitôt s’il était possible d’appliquer cette notion de « comportement aléatoire » aux molécules du vivant, ou plutôt à leurs constituants. Puis, après avoir bien réfléchi, tous conclurent que cela n’était pas possible parce que la génétique nous apprend qu’il n’existe, par exemple chez l’Homme, que 46 chromosomes, un nombre bien trop petit pour que des comportements « aléatoires » deviennent par la suite probabilistes… Quelques années passèrent… jusqu’à ce qu’on reconsidère la génétique cellulaire.

 

 

La compréhension de la génétique cellulaire progresse

  

     On comprend de mieux en mieux ce qui se passe, par exemple, au cours de l’embryogénèse, c'est-à-dire lors de la formation du fœtus. Bien sûr, à première vue, tout semble relever du déterminisme, c’est-à dire d’un programme préétabli avec un ordre immuable : on sait à présent qu’il existe sur les chromosomes des gènes régulateurs dont la fonction est de coder des protéines elles-mêmes régulatrices qui vont agir sur les cellules embryonnaires afin de leur faire quitter leur état indifférencié et les spécialiser, ici en cellules d’os, là en cellules du sang, là encore en cellule de pancréas, etc. Le fonctionnement de ces gènes est le suivant : des protéines régulatrices spécifiques vont se fixer sur un gène précis d’un chromosome et induire la formation d’enzymes qui vont copier ce gène sous la forme d’un transporteur (ARN-messager et ARN de transfert). Cette copie sort du noyau cellulaire et toute la petite machinerie cytoplasmique de la cellule va construire la protéine spécialisée qui n’aura plus qu’à agir sur son organe-cible. Impossible, semble-t-il, de faire plus déterministe !

 

     A y bien réfléchir, toutefois, la description de ce type d’action cellulaire est forcément déduite d’un ensemble de cellules puisque les techniques ne sont pas assez précises (du moins jusqu’à peu) pour examiner ce qui se passe dans une seule. De ce fait, ce que l’on observe est considéré comme représentatif de chacune des cellules auxquelles on attribue donc un mode d’action forcément identique mais est-ce bien la réalité ? Car, lorsqu’on examine avec attention les protéines régulatrices que l’on vient d’évoquer, on se rend compte qu’elles ne se déplacent que par leur seule diffusion, de façon désordonnée et aléatoire, et que, de plus, elles sont plutôt en nombre restreint : comment peuvent-elles bien rencontrer à chaque fois la copie du gène présente dans la cellule ? La réponse est simple : la rencontre – quand elle a lieu – relève du hasard ! Et pour une cellule donnée, impossible de prévoir ce qui va se passer : action complète, partielle ou pas d’action du tout… Pourtant, on sait bien que les actions biologiques ont lieu, que l’embryogénèse, pour reprendre cet exemple, suit un ordre bien précis, alors ? Nous revenons à ce que nous a appris la physique fondamentale : les cellules agissent de façon aléatoire à leur échelle individuelle mais leur très grand nombre rend parfaitement plausible la probabilité de l’action considérée… Mais… n’a-t-on pas dit, avec les physiciens, en début de sujet, que 46 chromosomes (pour l’Homme), c’était insuffisant pour permettre notre calcul probabiliste ? Voyons cela de plus près.

 

 

Richesse des constituants biologiques

 

     Comme pour la physique subatomique qui concerne des particules aussi nombreuses que variées, on peut décrire à présent un « infiniment petit » biologique également fort riche en entités diverses. C’est vrai, la cellule humaine ne contient dans son noyau que 46 chromosomes constitués d’ADN enroulé en double hélice. Toutefois, cet ADN est lui-même composé de corps simples appelés bases (puriques ou pyrimidiques) au nombre de quatre : cytosine, guanine, thymine et adénosine. Leur agencement et leur répétition dans un ordre précis va composer une espèce de code (le code génétique) qui, lu par des organites spécialisés tels que les ARN, va induire la formation de telle ou telle protéine. Chaque fragment indépendant de code est un gène. Soit mais encore ? Chez l’Homme, il existe environ 25 000 à 30 000 gènes actifs ce qui représente une moyenne d’un peu moins de 1000 gènes par chromosome (inégalement répartis en quantité puisque certains chromosomes sont plus gros que d’autres). On estime que ces gènes dits codants (puisqu’ils peuvent être « lus » et donc entraîner une action) représentent à peu près 3 à 5 % de l’ADN humain ; disons-le autrement : 95 % des chromosomes de l’Homme sont constitués de « gènes illisibles », les bases se succédant dans un désordre qui ne veut rien dire, en tout cas pour les cellules humaines présentes. Nous avons donc dit environ 25 000 gènes actifs susceptibles d’être codés par un ARN. Or, cet ARN peut subir à son tour un épissage (des remaniements) aboutissant à la fabrication de plusieurs ARN différents donc de plusieurs protéines… On le voit, au niveau cellulaire, beaucoup d’intervenants et beaucoup de mécanismes différents… et on s’étonne presque, si l’on est un déterministe farouche, qu’il n’y ait pas plus d’erreurs dans ces milliards de cellules qui vivent en symbiose.

 

 

Hasard et sélection naturelle

 

     C’est vrai : il est très difficile de s’imaginer que les mécanismes ultra précis et si élaborés de la vie cellulaire puissent relever du seul hasard… Et pourtant ! De plus en plus de scientifiques ont la certitude que c’est bien lui qui ordonne le domaine biologique de base. Comme pour les protéines inductrices déjà citées, l’essentiel des opérations biologiques se déroule au hasard, un hasard qui est partout présent au niveau moléculaire. Pourquoi ? Parce que les actions moléculaires dépendent de facteurs changeants et imprévisibles comme le cheminement des molécules au sein d’un milieu variable et dans des endroits divers, la modification des facteurs environnementaux, l’état général de l’organisme dans son ensemble, etc. Et, pensent certains, c’est la sélection naturelle qui va écarter ou retenir telle ou telle molécule en fonction du lieu, de son action favorable ou non, de la période de temps considérée, etc.

 

     Le hasard, donc, est ici omniprésent mais un hasard plus ou moins organisé selon le niveau où on l’observe : total pour la molécule individuelle… mais prédictible à l’échelon cellulaire. Et on pense réellement que c’est vraiment possible, ça ? Sans aucun doute. Je repense au célèbre exemple de la pièce de monnaie ; on la lance une fois en l’air et il est impossible de savoir avec certitude de quel côté elle tombera : vous aviez parié sur pile ? Eh bien, vous avez une chance sur deux de gagner… ou de vous tromper. A présent, lançons la pièce plusieurs centaines de fois et c’est tout l’inverse : on s’aperçoit qu’elle tombe à peu près 50% des fois sur pile et 50% des fois sur face, un phénomène parfaitement prévisible. Transposons-le, ce phénomène, en biologie : une molécule seule ne permet pas de savoir ce qui va se passer mais s’il existe beaucoup de molécules – comme dans une cellule – eh bien on peut deviner à quoi on peut s’attendre ! Fort bien mais a-t-on des preuves de tout ça ?

 

 

Que disent les observations récentes ?

 

     Depuis une vingtaine d’années, on commence à comprendre que le hasard intervient dans le fonctionnement cellulaire et de nombreux articles scientifiques s’en font l’écho. Par ailleurs, les observations de l’activité individuelle des cellules se multiplient parce que, à présent, nous possédons la technique qui les autorise. Or, les résultats sont formels : pour l’expression d’un gène donné, certaines cellules vont le synthétiser parfaitement, d’autres pas du tout et d’autres partiellement : en réalité, tous les intermédiaires existent… Le gène sera finalement actif si, à l’échelle de la population des cellules, l’action conjuguée de beaucoup d’entre elles atteint un certain seuil, le seuil de déclenchement.

 

 

Qu’en conclut la communauté scientifique ?

 

     Comme toujours – et j’oserai dire que c’est tant mieux – les scientifiques sont divisés : au fond, il n’y a finalement rien de pire qu’un avis unanimement partagé et que nul ne peut remettre en cause. Pour une majorité de biologistes, s’il est incontestable que le hasard intervient dans la grande machinerie du vivant, celui-ci reste pour eux finalement marginal. Il est vrai qu’il semble a priori difficile de remettre en cause le caractère déterministe des phénomènes biologiques. Pour d’autres, encore minoritaires, le hasard a une place

déterminisme = probabilisme lorsque probabilité de survenue = 1

bien plus importante qu’on veut bien le reconnaître et, pour eux, nombre de phénomènes en apparence parfaitement organisés sont plus le résultat d’actions probabilistes, la conséquence d’une sorte de hasard organisé.  Cette situation, en apparence contradictoire, n’est pas sans rappeler les années 1920 lorsque, comme je l’ai déjà mentionné, la mécanique quantique envahissait une partie de la physique fondamentale jusqu’alors terriblement déterministe… En réalité, les scientifiques ne sont peut-être pas si éloignés qu’ils le croient les uns des autres car si l’on y réfléchit vraiment, le fait qu’un événement se produise avec certitude (déterminisme) peut être également décrit comme une chance de probabilité toute proche de 1 : en pareil cas, le déterminisme ne serait qu’un cas particulier du probabilisme…

 

 

 

Images

 

1. table de roulette (sources :  www.animationcasino.com/)

2. le chat de Schrödinger (sources : www.astrosurf.com/)

3. duplication de l'ARN - image Wikipedia (sources :  www.colvir.net/)

4. cellule embryonnaire humaine se développant sur une couche de fibroblastes (sources :  www.maxisciences.com/)

5. calculer une probabilité : la machine de Babbage au XIXème siècle, ancêtre de l'ordinateur (sourvces :  impromptu.artblog.fr/)

6. le hasard... mais organisé ! (sources : sleemane-plat-tunisien.blogspot.com/)

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

Sources et documents

 

* Wikipedia France (http://www.wikipedia.fr/index.php)

* La Recherche (http://www.larecherche.fr/)

* Science & Vie (http://www.science-et-vie.com/)

* CNRS (http://www.cnrs.fr/)

* INSERM (www.inserm.fr/ )

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

Mots-clés : hasard - déterminisme - mécanique quantique - relativité générale - principe d'incertitude de Heisenberg - Erwin Schrödinger - ARN messager - cellule - bases puriques et pyrimidiques - gène codant - épissage - sélection naturelle - probabilisme scientifique

(les mots en gris renvoient à des sites d'informations complémentaires)

 

 

 

 Sujets apparentés sur le blog :

 

1. mécanique quantique

2. pour une définition de la Vie

3. les mécanismes du cancer

4. la mort est-elle indispensable ?

 

 

 

 Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 4 mars 2023

Voir les commentaires

copyrightfrance-logo17

Articles récents

 POUR REVENIR À LA PAGE D'ACCUEIL : CLIQUER SUR LE TITRE "LE BLOG DE CEPHEIDES" EN HAUT DE LA PAGE 

 

 

Sommaire général du blog : cliquer ICI

 

 

 

 

Fréquentation

à fin novembre 2024

 

Visiteurs uniques : 667 508

 

Pages/articles vus : 952 129

 

 

 

Du même auteur, en lecture libre :

 

Alcyon B, roman de science-fiction 

 

Viralité, roman 

 

Camille, roman

 

La mort et autres voyages, recueil de nouvelles (djeser2.over-blog.com)

 

 

 

Hébergé par Overblog