PROJET AUTOBLOG


Couleur science

Site original : Couleur science

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Le système solaire, une harmonie bordélique

mardi 19 février 2019 à 12:06

protaplanetary disk, artistic view
On dépeint parfois le système solaire et la mécanique céleste en général comme quelque chose de précis, rythmé, organisé, ou en un mot : « parfait », et arguant que ceci serait la preuve d’une origine « divine » de l’univers.

Si dans un sens certains phénomènes de résonance et de régularité peuvent laisser perplexe quant à leur beauté, ils sont également explicables par les lois de la physique les plus simples. Mais surtout, on oublie généralement de mentionner une autre facette du même système soleil : le chaos — au sens populaire — qui y règne !
Il suffit de prendre le temps de regarder d’un peu plus prêt les astres qui se trouvent dans le système solaire et on découvre très vite que rien n’est régulier.

En vrai, le système solaire est un foutoir !

Ce qu’on observe

Commençons par quelque chose de simple, voici leur distance au Soleil, autour duquel elle gravitent (les distances sont à l’échelle, pas les diamètres) :
système solaire à l’échelle
Si l’ensemble était régulier, les planètes seraient régulièrement espacées, non ? Ce n’est pas le cas, manifestement (sur une échelle log, en revanche, c’était bien plus régulier, même si pas exactement).

Maintenant leur masse (en bleu) et leur taille (en rouge) :
taille et masse des planètes
On peut déjà constater que l’ordre des planètes rangées par taille n’est pas le même ordre que le classement par masse : Neptune, plus massif qu‘Uranus, est plus petit que ce dernier. Ceci s’explique par la composition interne de Neptune, plus riche en métaux bien plus denses.

Et enfin, pour s’amuser, les corps (naturels) gravitant autour : lunes et anneaux :

lunes et anneaux des planètes
Même remarque que pour les masses : il n’y a pas vraiment de régularité non plus. Uranus a le plus d’anneaux mais n’a que peu de lunes connues. Saturne a plus de lunes que toutes les autres planètes réunies, et n’a que 7 anneaux : moins nombreux que d’autres, donc, mais largement plus grandes…

Du coup, si vous me parlez d’une « mécanique divine », je vous le demande : où est le « divine » dans tout ça ? Il n’y a aucune régularité, aucune harmonie !

Ensuite, les planètes ne sont pas organisées par masse ou par taille. Pas non plus par nombre de lunes.
Et même si on s’autorise à distinguer les planètes telluriques des planètes gazeuses, là encore les groupes ne se ressemblent pas ni ne sont organisés.

Chaque planète a plusieurs caractéristiques qui la rend unique par rapport à toutes les autres :

Pas d’organisation du tout !

Voyant ce qu’il y a ci-dessus, peut-on appeler ça réellement de l’organisation ? de la perfection ? J’en doute. Est-ce qu’un supposé créateur, créant quelque chose comme ça, peut être qualifié d’intelligent ? Ou au moins organisé, parfait, harmonique ?

Aussi, si on classe ces astres dans la catégorie de « planètes », on pourrait également toutes les classer dans une catégorie dédiée. Du coup, peut-être vraiment qualifier les planètes d’un seul ensemble ? Il y a plus de différences que de points communs dans leur caractéristiques.

En réalité, le classement d’astres dans la catégorie « planète » ne se fait pas sur leur caractéristiques physiques ou orbitales (taille, distance au Soleil…), mais surtout par rapport à l’effet de leur présence sur le reste des astres : une planète est une planète si elle sphérique, oui, mais aussi si elle est seule sur son orbite.

C’est ce dernier point, d’ailleurs, qui manque à Pluton. Si ça venait de la taille seulement, et si Pluton n’est pas une planète en comparaison de la Terre, alors la Terre en serait encore moins une en comparaison de Jupiter. Et puis la Lune, plus grande que Pluton, serait aussi une planète ?

Tout ceci est sans parler des astéroïdes (remplis d’or, évidemment), les comètes, les centaines de lunes et tout le reste composé de débris épars qui se pavanent dans l’espace inter-planétaires…

Si le système solaire était réellement organisé par une entité un tant soit peu rigoureuse, il aurait plus probablement été composé de planètes aux caractéristiques proches, voire identiques.

À la place, on explique très bien la position, la composition, la vitesse et les autres paramètres de chaque planète à l’aide des lois physiques de base.

En fin de vie des étoiles géantes, c’est à dire quand le cœur a consommé tout l’hydrogène et l’hélium après l’avoir transformé en carbone, oxygène, azote, etc., les autres couches de l’étoile (encore riches en hydrogène) s’effondrent et l’étoile explose, projetant toute sa matière dans l’espace.

La matière éjectée finit par s’accréter et former des astres. La matière restée au centre retombe et reforme une étoile. Notre Soleil existe grâce à cela.

Les éléments lourds (oxygène, silice, fer, nickel, carbone, calcium…) n’ont pas été projeté très loin de l’ancienne étoile. Quand ils s’accrètent, ils forment ainsi des planètes rocheuses et denses proche de l’étoile centrale.
Les éléments légers (hydrogène, hélium) sont éjectés bien plus loin. Ces éléments ont fini par former des paquets, plus tard devenus les géantes gazeuses.

Évidemment, une partie de la matière finit par échapper à cette accrétion, mais elle est minoritaire. Cette poussière est ce qui formera les petits astres lointains, comme Pluton, Éris et toute la ceinture de Kuiper (formée majoritairement de glaces de gaz congelés), au delà de Neptune. Ces objets, qui parfois se rapprochent du Soleil, sont les comètes, dont l’évaporation gazeuse forme la queue.

La ceinture d’astéroïde entre Mars et Jupiter est-elle formée de petits débris rocheux : on pense que c’est la masse conséquente de Jupiter qui a régulièrement déstabilisé la région et empêché la formation d’une planète à cet endroit.

Aucune organisation, vraiment ?

Si on regarde encore plus près, on peut tout de même observer des choses à l’allure régulière.

Car malgré les différences, ces planètes ont en commun une chose : les lois de la gravitation. Grâce à elles, il existe des phénomènes particulièrement réguliers.

Ainsi, quand la Terre fait exactement 8 révolutions autour du Soleil, Vénus en fait exactement 13. Et quand c’est Mars qui en fait 8, alors la Terre en fait 15. Le fait remarquable est qu’il existe un couple de nombre {A;B} tel quel A révolutions d’une planète corresponde exactement à B révolutions de l’autre. Ceci n’est absolument pas quelque chose de systématique : on peut très bien avoir deux orbites telles qu’elles ne soient pas du tout reliées de cette manière.

Dans le cas de la Terre et de Vénus, avec respectivement 8 et 13 révolutions pour retrouver une configuration planétaire identique, on dit qu’il y a une résonance 13:8.

Et pourtant, dans notre système solaire, toutes les planètes sont liées aux autres ainsi. Bien-sûr, les planètes les plus éloignées mettent beaucoup plus de temps à tourner autour du Soleil, mais globalement, on détecte une résonance entre toutes les planètes :

PlanètesRésonance
Vénus-Mercure9:23
Terre-Vénus8:13
Terre-Mercure7:29
Mars-Terre8:15
Mars-Vénus1:3
Saturne-Jupiter2:5
Uranus-Saturne≈1:3
Uranus-Jupiter1:7
Neptune-Uranus≈1:2
Neptune-Jupiter1:14
Neptune-Saturne5:28

Si on observe une planète (par exemple la Terre) du point de vue d’une autre planète (Vénus), alors on observe que ses trajectoires produisent des formes régulières :

kepler stars
Figures formées en observant une planète en maintenant une autre planète fixe (réalisé avec Orbital Simulator)

Ceci est dû aux influences gravitationnelles entre chaque couple de planète. Les deux astres sont sur des orbites différentes : par conséquent elles ont des périodes de rotation différentes. Forcément, il y a donc un moment où les deux planètes sont au plus proche l’une de l’autre et à un autre moment, ils sont au plus loin.

Quand elles sont au plus proche, les deux planètes s’attirent mutuellement : elles dévient très légèrement de leur orbite normale. Les planètes reprennent leur position normale quand les planètes s’éloignent l’une de l’autre. Une planète oscille donc sur son orbite au cours d’une révolution, grâce à l’attraction des autres planètes.

Si l’alternance « planètes proche / planète loin » est identique à la période d’oscillation de la planète sur son orbite (qui dépend de la masse des astres), alors les deux oscillations entrent en résonance : elles sont accentuées et l’ensemble des astres tendent à rester dans cette configuration oscillante.

Il s’agit clairement d’une résonance, comme celle d’une balançoire ou d’un circuit RLC. Le système solaire est donc le siège d’oscillations de planètes : des masses des milliards de tonnes oscillants avec des périodes se mesurant en années ou siècles !

Par ailleurs, ce principe est responsable d’autres choses dans le système solaire : ainsi, quand le massif Jupiter passe au plus près de petits astéroïdes, selon la période de révolution de l’astéroïde (donc selon son orbite), l’amplitude de la résonance des astéroïdes peut être telle que le rocher est éjecté de son orbite !

On observe donc, au sein de la vaste bande de la ceinture d’astéroïdes, des régions totalement vides : ce sont les zones où la résonance avec Jupiter est trop forte pour que l’orbite soit stable. Ces régions lacunaires sont appelées « lacunes de Kirkwood ».

Pour conclure…

En conclusion, le système solaire présente une désorganisation totale au regard de la distribution des planètes et de la masse, mais une organisation remarquable quand on fait intervenir la force de gravitation. La rotation de l’ensemble des astres est quelque chose que les mathématiques ne savent toujours pas modéliser de façon exacte, pourtant la nature le fait sans broncher : les planètes et les lunes résonnent entre-elles, agissant doucement l’une sur l’autre, et au contraire de déranger tout ça, ces oscillations ont plutôt tendance à stabiliser l’ensemble du système solaire.

Dans l’ensemble donc, quand on est une planète, peu importe son identité, sa taille, sa masse, ou le nombre de ses lunes : on est soumis à la même loi de la gravitation qui ordonne et coordonne cette danse céleste de façon régulière.

Enfin, une autre façon de voir ça est que si l’on observe une photo du système solaire, on ne verrait aucune régularité. Mais dès qu’on fait une vidéo (donc si on prend en compte le paramètre « temps », alors cette chorégraphie devient harmonieuse.

image d’en-tête de la Nasa

Ampèremètres et voltmètres

jeudi 7 février 2019 à 21:37

photo d’un voltmètre
En électricité, il y a deux grandeurs typiques à retenir : l’intensité du courant et la tension électrique. Ces deux paramètres sont au cœur de toute la théorie électrique et sont à prendre en compte dans tous les circuits électriques.

L’intensité du courant, mesurée en ampère (A), correspond au nombre d’électrons qui passent dans le circuit : il s’agit donc d’une mesure directe de la quantité de courant qui passe.
La tension se mesure en volt (V) et peut se traduire par la vitesse ou la pression des électrons traversant un circuit. Plus la tension est grande, plus les électrons sont poussés à travers le circuit.

Bien-sûr, il existe des appareils pour mesurer ces deux grandeurs électriques. Leur emploi est généralement vu à l’école, et l’on apprend alors qu’un ampèremètre se place en série dans le circuit alors qu’un voltmètre se place aux bornes du circuit.

Malheureusement, les explications s’arrêtent souvent ici et l’on ne dit donc pas pourquoi il faut brancher les instruments comme ça.
La réponse à ce pourquoi réside déjà dans la nature de ce qu’on mesure, et du coup également dans le fonctionnement de ces appareils.

Les ampèremètre et voltmètre numériques sont des versions électroniques des appareils analogiques à aiguille utilisés autrefois : c’est de ces vieux appareils que je veux parler ici, car ce sont ceux dont le fonctionnement est le plus facile à comprendre et est le plus intéressant.

L’ampèremètre

Les ampèremètre mesurent l’intensité du courant dans un circuit. Ils donnent une indication sur le nombre d’électrons qui passent à travers un fil donné. Or, pour voir ce qui passe dans le circuit, il faut l’ouvrir. Ceci explique pourquoi un ampèremètre doit être branché en série avec les autres composants : il doit faire parti du circuit. D’ailleurs, on dit qu’un ampèremètre mesure « le courant qui le traverse ».

Les ampèremètres, pour être de bonne qualité, doivent donc avoir une résistance interne la plus faible possible, pour ne pas bloquer le courant qu’il tente de mesurer et donc pas non plus influencer le reste du circuit. Si certains ampèremètres à fort calibre utilisent justement l’effet Joule (et donc la résistance interne de l’appareil) pour mesurer la déformation d’un ressort sous l’effet de la chaleur, la plupart des ampèremètres fonctionnent de façon magnétique.

On appelle parfois ces derniers des galvanomètre (en référence à Luigi Galvani, son inventeur). Dans un galvanomètre, on utilise le fait qu’un courant traversant un fil produit aussi un champ magnétique. Si vous avez déjà vu l’aiguille d’une boussole être dévié à proximité d’un fil électrique traversé par un courant, c’est de ça que je parle.

Le galvanomètre utilise exactement ce principe : l’importance de la déviation de l’aiguille de la boussole est directement liée à l’intensité du courant traversant le fil.

Le galvanomètre est alors une bobine bobine placée entre deux aimants et à laquelle on a fixé une aiguille. Le courant passe à travers la bobine, produit un champ magnétique et c’est la bobine qui tend à s’orienter dans le champ magnétique. Plus l’intensité du courant est important, plus le bobine s’incline en entraînant l’aiguille. Un ressort retient l’ensemble et permet de repositionner la bobine dans son orientation au repos.

On le voit très bien sur cette photo :

un galvanomètre
(photo, en grand)

En utilisant un fil de faible résistance pour la bobine, on réduit l’influence de l’ampèremètre dans le reste du circuit et on améliore la précision de la mesure.

Dans d’autres modèles, la bobine est fixe et c’est un morceau de ferrite monté sur ressort qui est mobile. En augmentant l’intensité su courant, ce ferrite est attiré d’autant plus par la bobine et il dévie l’aiguille de l’appareil.

L’ampèremètre permet ici de mesurer une intensité. Employé astucieusement, il permet aussi de mesurer… une tension ! C’est l’objet de ce qui suit.

Le voltmètre

Le voltmètre permet de mesurer la tension aux bornes d’un circuit ou d’une portion du circuit. Le voltmètre ne fait pas partie du circuit : il n’y a pas « tension traversant le circuit ». Les branchements du voltmètre fonctionnent plutôt comme une sonde que l’on place à deux endroit du circuit et qui permet de mesurer la tension entre ces deux points.

L’ampèremètre, qui est placé dans le circuit, doit avoir une résistance minimale afin de ne pas bloquer le courant qu’il tente de mesurer. Le voltmètre, branché en dérivation par rapport au circuit, doit au contraire avec une résistance la plus élevée possible : ceci pour ne pas permettre au courant de quitter le circuit principal.

En effet, si le courant traversait facilement le voltmètre, ce dernier se comporterait comme un fil. Or la tension aux bornes d’un fil et nulle et le voltmètre ne mesurerait pas de tension. Là encore, il s’agit donc de ne pas fausser sa propre mesure et de ne pas non plus altérer le fonctionnement du circuit principal.

Dans les voltmètres à aiguille, la résistance est de quelques centaines de kiloohms. C’est déjà pas mal, mais un voltmètre numérique récent comporte une résistance de l’ordre de 10 mégaohms, ce qui est assez conséquent : si on mesure la tension aux bornes d’une pile (1,5 V), le courant fuitant dans le voltmètre ne serait que de quelques nanoampères, ce qui serait totalement acceptable.

Pour leur fonctionnement, il faut qu’un petit courant traverse le voltmètre. Ce courant doit être faible, on l’a vu, mais il doit être là : en effet, c’est ce faible courant qui permet de faire la mesure et de déplacer l’aiguille.
Le problème devient alors de relier une intensité à une aiguille qui bouge, autrement dit… une mesure d’intensité ! Ceci est résolu avec un milliampèremètre.

Un voltmètre est donc tout simplement un ampèremètre très sensible en série avec une résistance de très grande valeur. Le résistance est là pour empêcher un courant trop fort de passer, et le milliampèremètre dévie l’aiguille. Si l’on connaît la valeur de la résistance et en mesurant l’intensité du courant qui passe à travers, alors une simple loi d’Ohm permet de donner la tension aux bornes du voltmètre.

Sur cette photo d’un voltmètre, on distingue très clairement les mêmes éléments que dans l’ampèremètre de la photo précédente :

un voltmètre
(photo )

Et les multimètres modernes ?

De nos jours, les appareils magnifiques ci-dessus ne sont plus utilisés.

On préfère utiliser des multimètres qui font à la fois voltmètre et ampèremètre (et bien plus) : plus compacts, précis, robustes, et avec une gamme de fonctionnement bien plus large, ils sont largement préférés. Les appareils analogiques sont alors relégués aux musées.

Dans ces appareils, la fonction ampèremètre est en réalité un voltmètre : l’intensité est alors obtenue par une loi d’Ohm sur une résistance de très faible valeur.
Si les vieux voltmètre sont en fait des ampèremètres en série avec une résistance, il est amusant de noter que les nouveaux ampèremètre sont en réalité des voltmètre avec une résistance très petite !

Ceci s’explique par le fait qu’il est simple de mesurer une intensité de façon magnétique avec une aiguille, mais plus simple de mesurer une tension de façon électronique.

Que ce soit en analogique ou en numérique, donc, on cherche à mesurer la grandeur qu’il est possible de mesurer, et ensuite de relier cette grandeur à celle que l’on souhaite mesurer, par l’intermédiaire d’un composant tiers (en l’occurrence, une résistance de valeur précisément connue).

Enfin, il existe également des pinces ampèremétriques : il suffit de passer la pince autour d’un câble et un afficheur vous donne l’intensité du courant. Ces pinces curieuses fonctionnent grâce à l’effet Hall, et feront l’objet d’un article à part sur ce blog.

image d’en-tête de Andrea Mignolo

Comment prouver que la Terre tourne ?

mardi 22 janvier 2019 à 04:56

le pendule de Foucault au Panthéon, à Paris
Lorsque l’on voit le Soleil se lever ou se coucher, on a tendance à dire que le Soleil tourne autour de la Terre. Et en un sens, c’est vrai : vu depuis la Terre, dans le référentiel terrestre, le Soleil tourne autour de la Terre. Si maintenant on se place dans le référentiel solaire, c’est la Terre qui lui gravite autour.

Alors quelle est la situation qui représente le mieux la réalité ?

Quand on a 5 ans, ou bien si l’on vit durant l’antiquité, alors on n’a pas encore la science ou les instruments adéquats pour répondre à sur cette question de façon juste. Il n’est donc pas absurde de croire ce que l’on voit, c’est à dire que le Soleil tourne autour de la Terre.

Mais ceci a changé lorsque Galilée inventa le télescope, et qu’il eut l’idée de pointer son instrument vers le ciel nocturne. C’est alors qu’il vit — entre autres choses — les lunes de Jupiter tourner autour de lui en décrivant des cercles.
Galilée comprit alors sur la Terre, comme toutes les planètes doivent décrire des cercles autour du Soleil : en effet, il n’y a que dans cette configuration que les astres ont des orbites circules (depuis la Terre, la trajectoire des planètes Mars, Mercure du Vénus sont étranges : elles avancent, reculent, ralentissent, bref font n’importe quoi).

Du coup… Si le Soleil ne tourne pas autour de la Terre (mais l’inverse), comment expliquer sa trajectoire apparente dans le ciel ? C’est un autre phénomène qui en est la cause : la rotation de la Terre sur elle-même. Mais comment le prouver ?

Comment prouver que la Terre tourne sur elle-même ?

De la déviation des pendules

Proposer une preuve pour la rotation de la planète n’est pas simple quand on est coincé sur ladite Terre et qu’on tourne avec elle : en effet, on ne la sent pas tourner. Pour nous, elle semble donc immobile.

Il existe pourtant une méthode, et elle est apparue en 1851, grâce à Léon Foucault.

Léon Foucault remarqua qu’un pendule oscillant assez longtemps voyait son axe dévier au fil des heures. Cette observation datait de 1660, mais l’origine en demeurait jusqu’alors toujours inconnue :

schéma de la déviation du pendule
Schématisation très exagérée de la déviation d’un pendule au fil du temps ↑

Foucault y voyait là la conséquence de la rotation de la Terre, et il entendait bien le prouver !

L’effet de Coriolis

Imaginez-vous être sur un manège en rotation lente. De votre point de vue, le manège est immobile et le reste du monde tourne.
Maintenant, vous sortez de votre poche une balle et vous l’envoyez devant vous sur le manège : la balle est déviée ! Comment expliquer ça ?

En fait, la balle réagit principalement à son inertie (l’impulsion de départ que vous lui donnez). Comme elle est ronde, elle peut rouler où elle veut et le manège n’a que peu d’effet sur elle. Le principe d’inertie dit qu’un objet qui se déplace va toujours en ligne droite tant qu’il ne rencontre pas de force opposé. Et c’est ce que la balle fait : elle va aller en ligne droite.
Or, elle se déplace en ligne droite indépendamment du manège : vu du manège en rotation, la balle — tout comme le décor — effectue une rotation :

Démonstration de la balle qui se déplace en cercle (source)

Cette effet est appelé « effet de Coriolis ». Elle apparaît quand on se trouve dans un référentiel lui-même en rotation.
La balle se déplace bien en ligne droite (on ignore les frottements) : les personnes qui ne sont pas sur le manège voient la balle aller en ligne droite ; mais sur le manège en rotation, on voit la balle faire un cercle.

Ce qu’il faut bien voir ici, c’est qu’aucune force n’agit sur la balle : il n’y a pas de ficelle ni de pente qui la pousserait à faire une trajectoire circulaire. L’effet de cercle est uniquement dû au fait que le manège et ses observateurs (la caméra qui filme) sont en rotation.

L’absence de force réelle me pousse d’ailleurs à employer le terme de « effet de Coriolis » comme en anglais, plutôt que « force de Coriolis ».

Prouver que la Terre tourne

Avec la manège ci-dessus, on a montré qu’un référentiel en rotation semble dévier les objets. Mais si l’on sait que c’est le manège qui tourne, on comprend que l’objet n’est pas dévié en réalité : il semble seulement faire ça.

L’idée de Léon Foucault est alors de faire l’inverse. Il voit que les pendule sont déviés sans qu’on n’y applique une quelconque force. Il en déduit donc que c’est le référentiel considéré qui est en rotation. Et le référentiel considéré ici est celui de la Terre !

Le pendule oscille donc normalement et c’est le référentiel terrestre qui tourne :

Le pendule semble dévié (à gauche) alors qu’en réalité c’est le référentiel qui est en rotation (à droite) (source)

Bien-sûr, il est déjà montré que la Terre est ronde (la circonférence de la Terre est connue depuis plus de 2 200 ans). Aussi, si le manège est plat et que la position de l’observateur n’importe pas, quand on parle de la Terre, la position de l’observateur est importante.

Ainsi, l’effet de Coriolis n’est pas la même si on est sur le pôle avec la surface perpendiculaire à l’axe de rotation, ou à l’équateur avec la surface parallèle à l’axe de rotation. L’effet de Coriolis est plus prononcé aux pôles et absent à l’équateur.

Au Panthéon à Paris, de latitude 48°52', le pendule est constamment dévié vers l’est, et cette déviation effectue un tour complet en environ 31 heures et 47 minutes (11°47' par heure). On appelle ça la durée du jour pendulaire.
Au pôles, le jour pendulaire est minimal (sa rotation est maximale) et est égal au jour sidéral. À l’équateur, le jour pendulaire est maximal et infini (sa rotation est nulle).

Entre les deux, on observe un effet intermédiaire : le jour pendulaire $J_p$ dépend de la latitude selon la relation :

$$J_p = \frac{J_s}{\sin(\theta)}$$

Où :

On retrouve ces résultats avec la démonstration mathématique, et il a donc été montré l’origine de la déviation des pendules comme étant la rotation de la Terre. Ceci constitue donc une preuve directe de la rotation de la Terre sur elle-même (et aussi, indirectement, qu’elle est ronde).

L’explication de Foucault permet d’expliquer précisément la déviation des pendules, observée depuis des siècles. Cette explication part de l’hypothèse que la Terre tourne et elle tient parfaitement la route : où que l’on se trouve sur Terre, la théorie de Léon Foucault fonctionne.
Ceci est suffisant pour valider son hypothèse de la rotation de la Terre.

Depuis, on peut venir « voir la Terre tourner » un peu partout dans le monde : des pendules de Foucault sont installés dans tous les grands musées. Le pendule original que Foucault utilisa était une boule de laiton de 28 kg suspendue à un câble de 67 mètres, au toit du Panthéon, à Paris.
De telles dimensions sont en effet nécessaires pour faire en sorte que le pendule oscille durant plusieurs heures, le temps nécessaire pour que la déviation soit perceptible.

photo d’en-tête de Beth Wilson

Quelques objets cosmiques les plus étranges de l’univers

lundi 14 janvier 2019 à 09:33

Vue d’artiste d’un trou noir
Une étoile, comme le Soleil, n’est pas une boule de gaz qui brûle. C’est une boule de plasma, dont le cœur, sous pression, est à une température telle que la matière se transforme fondamentalement. Bien plus fort qu’une simple réaction de combustion, où la matière se combine et se recombine, dans le Soleil, la matière est transformée par des réactions nucléaires.
L’énergie libérée par cette transformation permet de contrer l’effondrement gravitationnel de cet amas de plasma. Si l’effondrement gravitationnel augmente un instant, les réactions au cœur du Soleil sont plus nombreuses, ce qui libère plus d’énergie et donc compense l’effondrement d’autant plus.

Assez extraordinaire, en soi, le Soleil est donc un système à l’équilibre entre deux forces : l’effondrement gravitationnel compensée par une explosion nucléaire continue du cœur.

Ce processus n’a pas lieu dans les planètes : leur masse n’est pas suffisante pour élever suffisamment la température en leur cœur et rapprocher les atomes de telle sorte qu’ils puissent fusionner.

Il faut une masse d’environ 13 fois celle de Jupiter pour commencer à observer des réactions de fusion les plus simples (la fusion du deutérieum). On a alors à faire à une petite étoile de type naine brune. La fusion est lente et spécifique et il ne dure pas longtemps avant qu’une naine brune finisse par s’éteindre, par manque de deutérium.
Le Soleil est une étoile moyenne et déjà, son fonctionnement est assez complexe.

Si tout ceci vous semble déjà surprenant et intéressant, dans ce qui suit, vous trouverez une liste de quelques autres objets cosmiques encore plus étonnants et intrigants !

Le trou noir de lumière : le kugelblitz

« Kugelblitz » vient de l’allemand signifiant « éclair en boule ». Rien à voir avec le phénomène électrique cependant, il s’agit bien ici d’un objet cosmique, et en l’occurrence d’un type de trou noir.

Typiquement, un trou noir est une concentration de masse si intense qu’aucune force ne peut plus stopper l’effondrement gravitationnel. Même la fusion nucléaire ne dégage plus assez d’énergie pour contrer la force de gravité. L’effondrement de la matière est alors telle que toute la masse se rejoint en un point unique au centre d’un trou noir.

La masse accumulée reste cependant « active » gravitationnellement parlant : des planètes ou des étoiles peuvent orbiter autour d’un trou noir. La différence avec une étoile, c’est simplement que si on s’en approche trop, même se déplacer à la vitesse de la lumière ne suffira pas pour réussir à échapper à son attraction. En d’autres termes : même la lumière ne peut s’échapper d’un trou noir. C’est pour ça qu’on ne peut pas l’observer directement, et donc qu’il est noir.

Le kugelblitz, c’est la même chose, mais au lien de concentrer de la masse, on concentre de la lumière.

Imaginez une boîte composée de miroirs tournées vers l’intérieur : si ces miroirs sont parfaits, alors toute la lumière qui s’y trouve y reste indéfiniment. Si on y enferme une bougie, de plus en plus de lumière se trouve dans la boîte. Ceci constituerait une façon de concentrer et d’accumuler de la lumière. En réalité, des miroirs parfaits n’existent pas. Néanmoins, une concentration ou une accumulation de lumière n’est pas une idée absurde. Une simple lentille optique permet de concentrer de la lumière en un point.

Or, si on se rappelle, la lumière est une forme d’énergie. De plus, on sait depuis Einstein que la masse en est une également : masse et énergie sont reliées par la relation d’équivalence bien connue :

$$\text{Énergie} = \text{masse } \times c^2$$

Or, si la formation d’un trou noir se fait par la concentration de masse, on peut dire la même chose pour l’énergie, et donc aussi la lumière. Mais du coup… concentrer de la lumière devrait également pouvoir former un trou noir. C’est là l’idée derrière un kugelblitz.

Il faut cependant se rendre compte qu’il faudrait une quantité incroyablement importante de lumière pour former un trou noir comme ça.
Par exemple, il faudrait concentrer la masse totale de la Terre dans une bille de la taille d’un petit pois. Étant donné que le facteur de multiplication entre masse et énergie (donc la lumière) est de $c^2$, qui est un nombre à 16 chiffres, il faut d’autant plus de lumière qu’il ne faut de masse (et la quantité de lumière pouvant être mesurée en fonction de l’énergie qu’elle véhicule, donc en joules).

Une fois formé, un trou noir est un trou noir : qu’il se soit formé de matière solide ou de lumière.

Les kugelblitz sont juste une idée théorique, étant donné qu’un trou noir est un trou noir, que son origine soit due à de la matière ou de la lumière. L’idée n’est pas dénuée de fondements, c’est simplement qu’il faudrait tellement de lumière au même endroit (plusieurs fois la lumière émise par toute une galaxie) que la création d’un tel trou noir est peu réaliste.

Le blitzar

Prenons pour commencer un pulsar : c’est une étoile à neutron qui tourne rapidement sur elle-même (plusieurs dizaines de fois par seconde) en émettant des pulses d’ondes radio de façon régulière. Les pulses émis sont si régulières qu’on utilise une constellation de pulsars pour se repérer dans la galaxie.

Considérons également qu’une étoile à neutron qui finirait par accréter trop de matière se transformerait en trou noir sous l’effet de la gravité. La limite entre étoile à neutron et trou noir se situe, en termes de masse, autour de 2,1 masses solaires.

Il existe pourtant des pulsars plus massifs que ça. Dans leur cas, c’est la force centrifuge résultant de leur rotation qui suffit à empêcher l’effondrement en trou noir.

Ce type de pulsar cependant, voit son énergie diminuer au fur et à mesure qu’il la rayonne sous forme d’ondes radio. Sa vitesse de rotation diminue donc aussi, et avec elle la force centrifuge. Il vient alors un moment où le pulsar se transforme subitement en trou noir dans un flash d’ondes radio : on appelle ce phénomène des « blitzar ».

Le nom vient là aussi de l’allemand blitz pour « éclair » (suffixé de -ar), en référence au fait que les pulses radio laissent place à un « éclair » d’ondes radio : les sursauts radio rapides (ou FRB, pour fast radio bursts), au moment de leur passage d’état de pulsar à trou noir.

Si les FRB, les étoiles à neutron et les pulsars sont réels et observés, les blitzar ne sont pour le moment qu’une idée pour expliquer et lier tous ces phénomènes.

La quasi-étoile

Le nom peut laisser penser qu’il s’agit là d’un stade intermédiaire entre une grosse planète (type géante gazeuse) et une petite étoile (type naine brune). Il n’en est rien et en réalité, la quasi-étoile est bien plus étrange (et massive) que ça…

Normalement, une étoile est une boule de gaz dont la pression interne est suffisante pour fusionner les atomes entre eux. La fusion libère assez d’énergie pour contrebalancer les forces de gravitation. L’étoile conserve donc sa taille, mais fusionne de la matière en son centre.
Quand il n’y a plus rien de quoi fusionner au centre, ce dernier s’effondre et les couches externes tombent puis rebondissent dessus : c’est une supernova. D’énormes quantités d’énergie sont libérées lors d’une supernova : cette énergie permet de fusionner la matière au-delà de ce que permet la fusion au sein d’une étoile : c’est ainsi que sont formés les atomes d’or, de plomb ou d’uranium, par exemple. De l’énergie est également rayonnée sous forme de lumière : une étoile qui exploserait dans notre galaxie serait visible même en plein jour, tant la luminosité d’un tel phénomène est grande.

Les étoiles les plus grosses observées sont les hyper-géantes-rouges avec leur ~2 000 rayons solaires, mais ne sont pas les plus massives (seulement ~20 masses solaires). D’autres, de composition différente, comme les hyper-géantes-bleues, atteignent ~300 masses solaires mais sont plus petites (~100 rayons solaires « seulement »).

Les étoiles de type « quasi-étoile » ont-elles une masse atteignant 10 000 masses solaires et un rayon les 8 000 rayons solaires : elles sont aussi grandes que notre système solaire tout entier, s’étendant au-delà de l’orbite de Neptune.

De tels monstres auraient un cœur si dense que ces derniers ce seraient tout simplement transformé en trous noirs suite à une supernova ! Les quasi-étoiles sont des étoiles super-hyper géantes avec pour cœur un trou noir :

une quasi-étoile
Schématisation de l’intérieur d’une quasi-étoile (image)

Ce qui empêche alors l’effondrement complet serait les radiations émises quand les couches internes tombent dans le trou noir. Si, dans une étoile classique, la supernova souffle les couches externes et ne laisse derrière lui qu’un petit trou noir, ici, l’étoile est déjà tellement massive que la supernova ne suffit pas à tout souffler.

Le nuage de gaz autour du trou noir continue donc de tomber dessus. En accélérant, le gaz s’échauffe et rayonne. Ce rayonnement serait suffisant pour repousser, chauffer et illuminer les couches externes de l’amas de matière. La chute de matière dans le trou noir, continue et régulière, maintient l’étoile « en vie ».

Une quasi-étoile est donc un état d’équilibre entre l’effondrement gravitationnel de la matière et le rayonnement intense d’énergie par la matière qui accélère vers le trou noir.

Ce type de formation stellaire extrême n’existe plus — en considérant que ce fut un jour le cas — dans l’univers : elles n’ont pu exister qu’au début de l’univers, quand la quantité d’hydrogène était suffisante pour former des étoiles aussi grosses et aussi riche en hydrogène (et pauvre en éléments lourds issues de précédentes étoiles).

Ce type d’étoile a un mécanisme de formation qui est hypothétique, voulant dire par là qu’il ne soit pas impossible qu’il y ait existé de telles étoiles. Leur existence passée expliquerait la présence actuelle de trous noirs supermassifs (jusqu’à plusieurs dizaines de milliards de masses solaires), qui ne pourraient s’être formés à partir d’un petit trou noir de fin de vie d’une étoile, même géante, y compris après des milliards d’années passées à « manger » de la matière.

Néanmoins, n’est pas absurde : en effet, certains modèles proposent des étoiles géantes qui disposent en leur cœur non pas un trou noir, mais une étoile à neutron (qui est l’astre à un stade d’effondrement gravitationnel précédant le trou noir). Ce sont les objets de Thorne-Żytkow, qui se formeraient lors de la collision d’une étoile à neutron avec une étoile normale. Là aussi, ce modèle reste sujet à débat, mais certaines étoiles dans notre galaxie satisferaient à leur description.

Zetta-particule

Les zetta-particules, « rayon cosmique ultra énergétique » ne sont pas des astres, juste des particules, ordinaires qui plus est (comme un proton, ou un électron).

Leur étrangeté réside dans leur énergie cinétique : elle est de l’ordre du zetta-électron-volt, ou ZeV, soit $10^{21} \text{eV}$, ou environ 100 joules. C’est 40 000 000 de fois plus d’énergie que celle déployée au CERN dans le LHC. Elle correspond à la même énergie qu’une balle de tennis lancée à 100 km/h. Ces 100 joules sont alors contenus dans un seul proton, alors que la balle de Tennis en contient de l’ordre de $10^{25}$

Pour donner une idée, si notre balle de tennis avait la même vitesse que la zetta-particule, alors son énergie serait similaire à l’énergie cinétique de la Lune. Une balle de tennis à cette vitesse ferait alors autant de dégâts en percutant la Terre qu’un astéroïde de la taille de la Lune.

La plus célèbre de ces particules à ultra haute énergie est probablement la « particule Oh-My-God », détectée en 1991, et qui possédait 0,35 ZeV. Elle était alors vingt millions de fois plus énergétique que la plus puissante particule mesurée jusqu’alors, d’où le nom qu’on lui a donné.

Ces particules sont rares : le détecteur AGASA, au Japon, en a détecté que cinq, au cours des huit premières années de service, et on n’est pas encore sûr de savoir ce qui les produit réellement. D’autant plus que des particules voyageant à cette vitesse sur de longues distances devraient (théoriquement) être freinées par le rayonnement cosmique baignant l’univers.

Quelques hypothèses parlent de particules émises par des hypernovas (des supernovas géantes, super lumineuses), par des collisions de particules accélérées à proximité de trous noirs, ou par des étoiles à neutron.

Ceci montre que le plus grand accélérateur de particules reste l’univers, et que notre LHC sur Terre ne lui arrive pas encore à la cheville. Ceci dit, d’autres particules cosmiques sont très utiles, par exemple pour cartographier l’intérieur des pyramides ou des volcans.

L’Étoile étrange

Dans une étoile, les atomes sont pressés les uns contre les autres et ça chauffe. Les électrons se libèrent de leur noyau : cette matière, totalement ionisée et constituée d’une soupe d’électrons parsemée de noyaux atomiques est un plasma. Occasionnellement, des noyaux se choquent et restent collés : c’est la fusion nucléaire, libérant de l’énergie sous forme de rayonnement et de chaleur. Ce rayonnement, tant qu’il est produit, compense l’effondrement de l’étoile.
En fin de vie, l’étoile n’a plus rien à fusionner et elle s’effondre et forme une étoile à neutron.

Les étoiles à neutrons sont ce qu’on obtient quand l’effondrement est trop important pour les électrons : la répulsion des électrons ne suffit plus à maintenir les particules séparées. Du coup, les protons et les électrons fusionnent en neutrons. L’ensemble de l’espace occupé par une étoile à neutron est alors comblé par des neutrons et c’est l’interaction forte qui empêche les particules de s’effondrer davantage.

Il arrive que l’interaction forte ne suffise plus à son tour et les neutrons se scindent à leur tour. À ce moment, ce sont les composants des neutrons, les quarks, qui se retrouvent libérés les uns des autres, mais toujours sous pression. Ce qui empêche l’effondrement se trouve maintenant être l’interaction de couleur (propre aux quarks, et dont le nom ne désigne au passage rien de véritablement « coloré »).

Il existe plusieurs types de quark : up, down, charm, strange, top et bottom (oui, on sent que les physiciens étaient à court de noms). Dans le cas présent, ce sont les quarks strange qui composeraient ces étoiles. Vous l’aurez deviné : ce sont eux qui donnent leur nom à ces « étoiles étranges ».

Si une étoile mesure quelques centaines de milliers de kilomètres de diamètre, qu’une étoile à neutron mesure quelques dizaines de kilomètres, une étoile étrange est tellement compacte qu’elle mesure quelques kilomètres de diamètre seulement (et toujours avec la même masse !).

L’étoile étrange possède donc la masse (et l’influence gravitationnelle) d’une étoile et la taille d’un petit astéroïde. Si l’on considère que le quark est une particule fondamentale (et c’est le cas dans le modèle standard de l’univers), alors il n’existe pas d’étape entre l’effondrement d’une étoile à neutrons en étoile étrange et le stade de trou-noir.

Dans le trou noir, la matière est tellement effondrée qu’on imagine qu’il occupe seulement un point de l’espace : une singularité. Ce qu’on appelle « trou noir » n’est alors que la région entourant cette singularité et d’où il est impossible de sortir, même pour la lumière, à cause de l’accélération de la pesanteur si intense.

Le courant noir

Aux échelles intergalactiques, les distances sont de l’ordre du million d’années lumières voire plus. L’âge de l’univers étant supposé à 13,8 milliards d’années (ou giga-années, ou G-a), les photons que l’on détecte pour observer l’univers ne peuvent avoir voyagé plus longtemps que l’âge de l’univers. La limite de visibilité se situerait à 13,8 d’années lumière de distance. À cela, on doit ajouter une correction liée à l’expansion de l’univers : une source de photons qui émettait il y a 13,8 G-a peut s’être éloigné de nous entre temps, tout en restant visible grâce à ses photons. Considérant ça, la limite réelle de visibilité, appelée horizon cosmologique se situe en réalité à 45 milliards d’années-lumières.

Au-delà de l’horizon cosmologique, nous ne voyons rien : aucune lumière n’a encore eu le temps de venir jusqu’à nous. Cet horizon s’agrandit, par définition, de 1 année lumière par an, au fur et à mesure que de la lumière plus lointaine nous parvient. Cependant, au-delà d’une certaine distance de 61 milliards d’années-lumière, l’expansion de l’univers est telle qu’aucune lumière ou interaction de quelque nature que ce soit ne pourra jamais nous atteindre : une source de lumière très éloignée s’éloigne en effet de nous, et de plus en plus vite. À un moment donnée, son éloignement se fera plus rapidement que la lumière.

Il existe donc une zone où la lumière émise nous parvient pour le moment, mais qui ne nous parviendra plus à cause de l’accélération de l’expansion de l’univers. À terme, donc, l’horizon cosmologique se réduira.

Ceci étant dit, le courant noir maintenant…

Dans la même veine que la matière noire (une source de gravitation d’origine inconnue) et l’énergie noire (la source de l’accélération de l’expansion de l’univers, d’origine inconnue), on a nommé le « courant noir » : un déplacement relativement uniforme des amas de galaxies et des super-amas de galaxies, vers un même endroit.

Il faut savoir que lorsqu’on observe des galaxies lointaines, la lumière qui nous parvient d’elles est déformée, étirée : c’est le redshift, dû à l’expansion de l’univers. On parle également de l’effet Doppler relativiste (l’effet Doppler, mais appliqué à la lumière). En mesurant le redshift, on détermine la distance des galaxies ainsi que leur vitesse de déplacement par rapport à nous (de la même manière qu’un radar au bord de la route détermine la vitesse de votre voiture).

L’univers est considéré comme isotrope : c’est-à-dire que, où que l’on regarde dans le ciel, on observe statistiquement la même chose : il n’y a pas de régions de l’univers observable qui soit plus denses en galaxies que d’autres. Par ailleurs, globalement, les galaxies situées à une certaine distance de nous s’éloignent toutes de nous à la même vitesse (toujours à cause de l’expansion de l’univers).

Or, il a été détecté que les galaxies s’éloignaient très légèrement moins vite de nous d’un côté que de l’autre. Ceci signifierait que toutes ces galaxies, la nôtre comprise, seraient tous en mouvement vers un même endroit.
C’est ce déplacement à l’apparence uniforme au sein des galaxies dans tout l’univers observable qui est appelé « le courant noir ».

Son origine n’est pas connue. Il peut s’agir d’une région dense de l’univers qui fut jadis dans l’horizon cosmologique, mais qui ne s’y trouve plus désormais. Le mouvement acquis par les galaxies subsiste, lui, et il est donc possible que le courant noir ait une source qui nous sera, pour toujours, un mystère.

À noter : il existe un effet similaire au courant noir, mais à l’échelle plus petite de Laniakea, un trio de super-amas de galaxies dont la Voie Lactée fait partie. Les galaxies « locales » semblent toutes converger vers ce qu’on dénomme « le Grand Attracteur », qui aurait une masse de 10 millions de milliards de masses solaires, soit de l’ordre d’une centaine de milliers de fois la masse de la Voie Lactée.
Là aussi, on détecte une convergence des galaxies vers ce Grand Attracteur grâce à l’effet Doppler relativiste.

Si le phénomène lié au Grand Attracteur semble admis, celui du courant noir, qui est à une échelle plus grande que celle de l’univers observable, est parfois remis en question.

Le cerveau de Boltzmann

Rassurez-vous, je ne vais pas parler de la cervelle de Ludwig Boltzmann. Non, le cerveau de Boltzmann fait plutôt référence à une entité intelligente (le « cerveau ») créée simplement à partir des fluctuations des particules dans l’univers, en particulier à cause de l’entropie (d’où la référence à Boltzmann).

Un ensemble de particules ne reste pas en place. Laissé à lui et au temps, les particules vibrent, bougent, réagissent, et finissent par modifier le système tout entier. Plus le temps passe, plus le système est différent de son état initial : on dit que l’entropie augmente.

L’entropie est associée à la notion de désordre.
On peut prendre pour exemple un jeu de carte. Si les cartes sont rangées dans l’ordre, l’entropie est faible : le système est ordonné. Maintenant, prenons la première carte et plaçons-là au hasard dans le paquet puis répétons cette opération un grand nombre de fois : toutes les cartes vont finir par être mélangées. À ce moment-là, le système sera désordonné.

Pour un jeu de 52 cartes, il existe $8.066 \times 10^{67}$ arrangements possibles pour les cartes, dont une seulement est ordonnée. Le nombre d’arrangements est gigantesque : proche du nombre d’atomes dans la galaxie, et il faudrait un temps tout aussi colossale pour espérer obtenir un paquet de cartes bien ordonné en continuant de mélanger les cartes une par une. Ainsi, si on bouge une carte par seconde, il faudrait toujours $10^{60}$ années ; et encore, il ne s’agit là que de la probabilité de retrouver un paquet mélangé, pas une certitude.

Néanmoins… si on a l’hypothèse que le temps est infini, alors même $10^{60}$ ans n’est rien. On peut très bien parler du futur dans $10^{1000}$ ans.
À ce niveau, on est statistiquement certain d’obtenir un paquet de cartes bien ordonné et même d’y parvenir un très grand nombre de fois ! À ces échelles tout devient possible, du moment qu’il y ait une probabilité non-nulle que ça se produise.

Maintenant, l’entropie au sens physique n’est effectivement applicable qu’à des particules (pas à des jeux de carte), mais le principe reste le même. Ce sont les particules qui composent la matière, êtres vivants compris.
Si on applique le raisonnement précédent, alors il est hautement probable que n’importe quel ensemble d’atome finisse par produire n’importe quelle molécule, et par suite, n’importe quel ensemble de molécules et n’importe quel objet. L’entropie seule pourra créer des objets en faisant jouer le hasard.

Encore mieux : le vide, grâce aux fluctuations quantiques, peut produire toutes ces particules et donc ces objets. Si l’univers peut entamer la création de n’importe quoi, ceci inclut des créatures dotées d’intelligence : un cerveau, en somme !
Et même, si on pousse le raisonnement encore plus loin, on peut imaginer des civilisations entières composées de ces entités intelligentes !

Ce n’est pas de la fiction : juste le résultat de l’évolution d’un groupe de particules qui agissent de façons probabilistes et à qui l’on a donné un temps suffisamment long.

Bien-sûr, $10^{1000}$ ans constitue un temps absolument inimaginable : ça représente environ $10^{990}$ fois l’âge de l’univers. Si les fluctuations quantiques sont, elles, expliquées, des molécules entières produites par le vide n’ont encore jamais été observées. On suppose donc que pour observer des cerveaux des Boltzmann, on doit attendre encore… longtemps.

Cependant, si on applique les phénomènes de probabilité aux atomes directement, alors les choses vont plus vite : ce sont des phénomènes probabilistes qui engendrent les réactions chimiques. Ce sont aussi les réactions chimiques qui maintiennent tout ce qui se passe au sein du vivant. Si l’on se considère comme faisant partie d’une civilisation intelligente, et que la vie est née d’un phénomène chimique dont l’origine est le pur hasard, alors on peut considérer être un exemple de « cerveaux de Boltzmann ».
Nous serions, sous cette définition, nous-même le produit de l’entropie appliquée aux atomes, à qui l’on a donné 13,8 milliards d’années.

image d’en-tête de NASA/JPL-Caltech

Ah, la science… (13)

jeudi 3 janvier 2019 à 16:31

un tube de crookes
À nouveau, pour ce treizième épisode, voici trois chiffres étonnants à ressortir en soirée.
Les autres épisodes sont listés en bas de l’article.

0,1 micro-seconde

La durée nécessaires pour qu’un écran à tube cathodique affiche un seul pixel est de 0,1 µs, ou 100 nanosecondes.

Sur les télés à tube cathodique (ou CRT, pour cathode-ray tube), de la poudre phosphorescente colorée (rouge, vert, bleue) forme les pixels de l’écran. Un faisceau d’électrons extrêmement fin et précis vient taper sur les pixels et illuminer la poudre, donner la couleur voulu à ce pixel. En donnant les bonnes couleurs aux bons pixels, on reconstitue l’image à l’écran.

Le faisceau d’électrons parcourt chaque pixel d’une ligne, chaque ligne de l’écran, le tout 50 fois par secondes ! On peut faire un calcul si on veut, mais on peut aussi le filmer avec une caméra grande vitesse pour voir directement la progression du faisceau. C’est ce qu’ont fait les célèbres SlowMo Guys.

En montant à 28 500 images par seconde, on voit très nettement chaque ligne s’afficher l’une après l’autre sur l’écran. Et en montant à une cadence ridiculement élevée de 380 117 images par seconde, on observe la progression du faisceau sur une ligne. On peut déduire alors que chaque pixel n’est illuminé par le faisceau d’électrons que durant un bref instant de 100 nanosecondes environ.

Et le pire, c’est que ceci semble être filmé sur un petit écran (environ 40 cm de diamètre). Or certains écrans cathodiques font 120 cm de diamètre, soit environ 6 fois la surface. Sur ces écrans, chaque pixel n’est illuminé que durant 20 nanosecondes environ.

Le faisceau lui-même est émis par un canon à électrons : une électrode sous haute tension (10 000 V) d’où les électrons sont éjectés. Des champs magnétiques confinent ensuite tous les électrons dans un faisceau très fin et l’orientent ensuite sur le pixel que l’on veut éclairer.

Pour l’anecdote, s’il vous reste un tel écran, vous pouvez approcher un aimant puissant devant l’écran : l’image sera alors distordue. C’est l’aimant qui dévie les électrons. Plus connu, sûrement, vous vous souviendrez que ces écrans avaient la fâcheuse tendance à accumuler de la poussière : c’était là encore à cause des électrons. Certains électrons traversaient l’écran et ionisait l’air et la poussière. Les poussières ionisées positivement finissaient par se coller sur l’écran, qui lui est constamment bombardé d’électrons chargés négativement.

Aujourd’hui, les écrans LCD ou OLED n’ont plus de canon à électrons. Chaque pixel est contrôlé électroniquement grâce à un circuit électronique, le TFT : ce circuit active chaque pixel en mettant sous tension une ligne et une colonne de pixels sur l’écran. Successivement, chaque pixel est contrôlé et l’image est restitué. Ici aussi, il y a donc une progression du front de pixels contrôlés, et ça se fait à des vitesses encore plus rapides : chaque pixel est beaucoup plus petit sur les nouveaux écrans, qui en comptent par ailleurs nettement plus, à savoir 33 177 600 pour un écran 4K, contre 307 200 pour le VGA simple.

La photo d’en-tête de cet article est un tube de Crookes, précurseur du tube cathodique. La haute tension accélérèrent des électrons qui vont frapper la surface phosphorescente.

Une dizaine

Il naît à peu près une dizaines d’étoiles par an dans notre galaxie.
Le calcul repose sur une moyenne : si la voix lactée a entre 100 et 200 milliards d’étoiles, et que l’univers a 14 milliards d’années, il s’est en moyenne formé entre 7 et 15 étoiles par an.

Étonnement, ceci reste une bonne approximation, car toutes les étoiles ne vivent pas jusqu’au même âge : les grandes étoiles vivent bien moins moins longtemps que les petites. Une super-géante rouge ne vit que quelques millions d’années : son importante masse le force à fusionner son hydrogène beaucoup plus vite, tandis qu’une naine-rouge, elle, fusionne l’hydrogène à un rythme incroyablement lent : on estime à 10 000 milliards d’années la durée de vie de ces étoiles là !

Enfin, si les étoiles naissent, d’autres meurent, et les plus grosses (aussi les plus rares) finissent en supernova. On ne note alors que 2 ou 3 supernovas par millénaire dans notre galaxie. Les étoiles plus petites forment des nébuleuses de façon moins spectaculaire (pas d’explosion) ou s’éteignent relativement silencieusement (les naines n’explosent pas et meurent comme un amas de braises laissé à la merci du temps).

La majorité des étoiles dans la galaxie sont les naines rouges sus-cités : des petites étoiles, invisibles à l’œil nu, dont la durée de vie totale dépasse très largement l’âge de actuel de l’univers.

200 tonnes

C’est environ le « poids » de la lumière qui pèse sur la France.
La lumière, bien que n’ayant pas de masse, possède une énergie et une quantité de mouvement. Quand un photon heurte une surface, il transmet ce mouvement à cette surface. C’est donc comme si la lumière exerçait une pression.
On appelle ça la pression de radiation.

La pression radiative de la lumière est faible, mais si la surface d’exposition est grande, comme la surface d’un pays, on commence à avoir des forces conséquentes.
Pour la lumière du Soleil, au niveau de la Terre, avec un miroir supposé parfait orienté face au Soleil, la pression est de l’ordre de 9 µN/m², ou 9 micropascal.

Mon calcul donnant environ 200 tonnes tient compte de la latitude de la France métropolitaine (environ 45 °) et de la réflexion de la lumière par la Terre (environ 50 % est réfléchie au dessus d’un continent parsemé de nuages).

Cette force n’est pas vraiment exploitable sur Terre : elle est bien trop faible pour pouvoir produire de l’énergie. Si un radiomètre de Crookes tourne, ce n’est d’ailleurs même pas à cause de ça, mais à cause de la chaleur produite par la lumière.

En revanche, dans l’espace, où il n’y a aucun frottement et où des sondes spatiales sont exposées durant des mois voire des années, la pression de radiation peut être utilisée : il suffit d’utiliser des voiles solaires qui captent la lumière et en récupèrent la pression, poussant la sonde. À terme, il est fort probable que ce mode de propulsion devienne le mode de transport prépondérant pour un voyage interstellaire, vu qu’elle ne nécessite aucune source de carburant (avantage que même la propulsion ionique n’a pas).

(Épisode 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1.)

image d’en-tête de D-Kuru/Wikimedia Commons