PROJET AUTOBLOG


Couleur science

Site original : Couleur science

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Comment fonctionne l'assistance gravitationnelle ?

vendredi 25 septembre 2020 à 06:51

La Terre vue de la Lune.
Quand on envoie une sonde spatiale dans l’espace, en vue d’explorer une planète particulière, par exemple, on ne l’envoie pas directement en direction de cette planète.

Déjà, pendant la durée du voyage de la sonde (qui peut prendre plusieurs années), la planète aura bougé. Il faut donc viser non pas la position actuelle de la planète, mais la position de la planète lorsque la sonde arrivera sur son orbite.

Ensuite, une deuxième raison, il faut tenir compte de la difficulté d’envoyer une fusée vers un autre monde. Ce n’est pas aussi simple que de jeter un ballon de basket en direction du panier. Il faut plutôt le voir comme jeter un ballon autopropulsé depuis une voiture en mouvement vers un panier également en mouvement avec des joueurs munis de battes de baseball situées entre le panier et vous. L’exercice est donc difficile en soi et il s’agit de compenser tous les mouvements et interactions en présence pour atteindre sa cible, et de préférence du premier coup.

Enfin, une troisième raison, c’est que l’on souhaite rarement s’impliquer dans un projet scientifique si l’on sait qu’on ne pourra pas en voir l’aboutissement au cours de sa vie, voulant dire par là que la durée de la mission doit être réduite le plus possible afin que les scientifiques vivent assez longtemps pour voir la mission aboutir.
Quand il s’agit d’envoyer une sonde spatiale vers Saturne, Jupiter ou Pluton, le voyage en lui-même dure déjà 5, 10, voire 15 ans !

Les deux premiers problèmes sont facilement solvables. Pour le dernier, il faut réduire la durée du voyage de la sonde. Pour ça, il faut que la sonde aille plus vite.

Une solution pour cela est d’utiliser l’assistance gravitationnelle des autres planètes : la sonde va passer à proximité d’une planète tierce — pas celle que l’on veut étudier — et récupérer de la vitesse à ce moment-là.

Comment fonctionne l’assistance gravitationnelle ? C’est l’objet de ce billet.

Principe de la manœuvre

Le principe de base de l’assistance gravitationnelle, comme expliqué brièvement, c’est de passer à proximité d’une planète, puis de profiter de l’attraction gravitationnelle pour gagner de la vitesse, et enfin de repartir plus rapidement que l’on est arrivé.

Au premier abord, il peut sembler logique de se dire que la sonde qui arrive vers la planète accélère, mais ne devrait au mieux seulement repartir aussi vite qu’elle est arrivée.
Or, avec l’assistance gravitationnelle, on arrive à s’éloigner beaucoup plus vite que durant la phase d’approche. La sonde a donc bien gagné de la vitesse et donc de l’énergie.

Par exemple, la sonde Voyager 1 lancée en 1977 approchait Jupiter en 1979 avec une vitesse d’environ 15 km/s (54 000 km/h). À son plus proche de Jupiter, elle voyageait à une vitesse de 38 km/s (136 800 km/h). Mais quand elle s’en éloigna, elle le fit avec une vitesse d’environ 22 km/s (79 200 km/h). On voit donc que la sonde a fortement accéléré, puis a ralenti un peu, mais qu’au final, elle est repartie sensiblement plus vite qu’elle n’est arrivée, ce qui est le but recherché.

Comment est-ce possible ?

Un phénomène pas aussi trivial que ça

Comment peut-on partir plus vite qu’on est arrivé ? D’où provient l’énergie acquise par la sonde ?

Déjà, oui : en s’approchant de la planète, on gagne de la vitesse. Beaucoup de vitesse, et en partant, on en perd forcément… mais pas tout ! Il suffit de voir l’exemple avec Voyager 1 et Jupiter ci-dessus.

Pour comprendre, il ne faut pas oublier que Jupiter avance sur son orbite : il est en mouvement ! Quand on s’approche de lui, on est comme partiellement pris au piège par sa pesanteur.
Ainsi, si l’on pouvait se poser sur Jupiter, on partagerait toujours la vitesse de Jupiter lui-même ! Et celle-ci, cette vitesse, une fois qu’elle est acquise par la sonde, elle peut la conserver. La sonde reçoit donc bien une certaine quantité d’énergie cinétique simplement en « s’accrochant » à Jupiter (par la force de gravité) !

Une analogie peut-être de prendre l’exemple de Tarzan qui saute de branche en branche : s’il ne fait que sauter d’une branche à une autre, seule sa direction change, pas sa vitesse :

Tarzan 1.
En se balançant à une branche fixe, Tarzan ne gagne pas de vitesse : il change juste sa direction.

Mais si maintenant la branche est elle-même en mouvement, alors, quand Tarzan relâche la branche, il conserve la vitesse de déplacement de cette branche en plus de la sienne :

Tarzan 2.
Si la branche se déplace, Tarzan est entraîné avec et sa vitesse augmente, en plus de voir sa direction changer.

Il sautera alors beaucoup plus haut, et de plus en plus haut s’il peut sauter plusieurs fois de suite sur différentes branches en mouvement.

Ce principe est utilisé par les voltigeurs et acrobates dans un cirque : ces derniers utilisent la force et l’énergie d’un coéquipier pour augmenter leur propre inertie et gagner en vitesse ou en hauteur.
Même chose quand on fait de la balançoire : à chaque phase de descente et de montée, on replie ou étend les jambes pour modifier son moment d’inertie et pouvoir aller plus haut. Sans le savoir, en fait, quand on fait ça, on injecte de l’énergie dans notre mouvement : étirer ou rétracter ses jambes demande de l’énergie musculaire, et au final, cette énergie est convertie en énergie cinétique (vitesse) puis potentielle.

Idem pour Tarzan : il a fallu mettre la branche en mouvement ! l’énergie acquise par Tarzan provient de la source d’énergie qui a mis sa branche en mouvement. Elle ne sort donc pas de nulle part.

Pour en revenir à la planète, la sonde s’approchant d’elle par-derrière se « hisse » à la planète en mouvement sur son orbite pour gagner de l’énergie puis s’en éloigne pour repartir en conservant un maximum de cette énergie.
l’énergie captée par la sonde est obtenue au moment où la planète attire la sonde vers elle.

Maintenant, il ne faut pas non plus oublier que si la planète attire la sonde, la sonde attire également la planète ! La planète se dirige donc également un tout peu vers la sonde.
l’ensemble étant en mouvement orbital, c’est donc comme si la planète ralentissait très légèrement sur son orbite, alors que la sonde accélère !

Ce que la sonde gagne en vitesse, la planète, elle, le perd. La sonde vole donc de l’énergie orbitale à la planète.

Bien-sûr, la sonde est infiniment moins massive que la planète. La sonde peut donc accélérer de plus de 70 000 km/h, la vitesse perdue par la planète est absolument imperceptible.

Et avec un astre immobile, comme une étoile ?

L’assistance gravitationnelle telle que décrite ci-dessus consiste donc à dérober de l’énergie orbitale à une planète pour permettre à une sonde spatiale d’aller plus vite.

Si l’on essaye de faire la même chose avec un astre immobile (dans le référentiel considéré), l’astre n’a pas de vitesse orbitale et il ne sera pas possible de lui en voler. Par exemple, il n’est pas possible d’aller plus vite en envoyant une sonde vers le soleil pour en faire le tour et s’en éloigner plus vite.

Il y a néanmoins d’autres méthodes fonctionnant pour des astres immobiles.

Pour cela il faut se rendre compte que la force de gravité, quoi que très faible dans l’absolu, est immensément forte quand on considère la gravité produite par une planète ou une étoile, tout simplement parce que ces astres sont immensément massifs. Ceci pour dire qu’il faut donc énormément de carburant pour vaincre ces forces. Dans une fusée typique, la masse de carburant représente ainsi 90~95 % de la masse totale au décollage : seules les 5 % restants correspondent à la masse de la fusée et la masse de la charge utile.

Toute cette masse de carburant doit être mise en mouvement et suivre la fusée. Chaque litre de carburant ajouté demande donc un surplus de carburant rien que pour soulever ce litre de carburant, et ce surplus de carburant en demandera d’autant plus. Vous voyez le problème (solvable avec l’équation de Tsiolkovski) ?

Imaginons désormais un vaisseau spatial. Une fois dans l’espace, loin des planètes, le carburant à bord constitue une masse non négligeable qu’il faut également accélérer si le vaisseau souhaite aller plus vite.

C’est dans cette configuration que l’assistance gravitationnelle d’un astre, même immobile, peut devenir intéressante. Plutôt que de brûler du carburant pour aller plus vite, on va s’approcher d’un astre par gravité, et moteurs éteints. Cette gravité accélérera le vaisseau ainsi que le carburant du vaisseau ! Ensuite, quand on est au plus proche de l’astre et au plus rapide, on rallume les moteurs et on cherche à s’éloigner de l’astre en maintenant notre vitesse.

Le carburant produit toujours autant d’énergie, mais il se trouve qu’une fois brûlé et les gaz propulseurs éjectés, la répartition de l’énergie est différente.

Quand le vaisseau est initialement à l’arrêt, l’intégralité de l’énergie du moteur est transmise au gaz éjecté : le gaz est éjecté à très haute vitesse vers l’arrière mais le vaisseau n’a qu’une très faible vitesse. Au fur et à mesure de son accélération, de plus en plus d’énergie est transmise au vaisseau plutôt qu’aux gaz éjectés. Et plus le vaisseau va vite, plus la proportion d’énergie transmise au vaisseau est importante.

En effet, à haute vitesse, le vaisseau et le carburant sont déjà en mouvement et le carburant possède lui aussi son énergie cinétique. Dans ce cas-là, quand on allume les moteurs, une partie de l’énergie cinétique du carburant (en mouvement avec le vaisseau) est récupérée et captée par le vaisseau.

Si l'on résume, l'approche d'un astre va donner de l'énergie à la sonde plus à son carburant. L’ensemble aura donc une vitesse beaucoup plus grande. A ce moment là, on se débarrasse du carburant en récupérant son énergie cinétique, puis on s'éloigne de l'astre. L’éloignement se fait alors à haute vitesse et plus facilement, car il y a toute la masse de carburant en moins à accélérer.

On appelle cela la manœuvre d’Oberth, et elle permet ni plus ni moins d’optimiser l’extraction de l’énergie contenue dans le carburant en récupérant non seulement son énergie chimique grâce à la combustion, mais également une partie de son énergie cinétique, acquise « gratuitement » grâce à l’assistance gravitationnelle.

Cet effet est une des méthodes possible pour profiter de l’assistance gravitationnelle d’un trou noir, dont il n’est pas, a priori, possible d’extraire quoi que ce soit, mais qui reste un astre comme tout autre.

Pour résumer

l’assistance gravitationnelle telle qu’on l’entend normalement revient à voler de l’énergie cinétique orbitale à un astre pour la transmettre à une sonde spatiale en vue de la faire accélérer.
En pratique, en passant près d’une planète, la sonde gagne en vitesse et peut ensuite s’en éloigner nettement plus vite. L’énergie gagnée par la sonde est volée à la planète ou à l’astre, qui s’en trouve ralentie.

Bien-sûr, l’énergie cinétique de la planète étant immensément plus grande que celle de la sonde, sa baisse de vitesse est imperceptible.

Inversement, en passant de l’autre côté de la planète ou en arrivant de face, on peut s’en servir pour ralentir une sonde spatiale.

l’assistance gravitationnelle est quelque chose de très utilisée par les sondes spatiales et permettent à celles-ci d’atteindre leur objectif beaucoup plus rapidement.

Bien-sûr, l’assistance gravitationnelle permet aussi de dévier sa trajectoire par rapport à une ligne droite, ce qui est également parfois utile. C’est par exemple ainsi que les premières fusées Apollo (qui ne faisaient que survoler la Lune) contournaient la Lune pour se rediriger en direction de la Terre, simplement avec une manœuvre gravitationnelle.

Image d’en-tête de The New York Public Library

Comment fonctionnent les pinces à effet Hall ?

mercredi 16 septembre 2020 à 23:16

i
J’ai écrit un article sur les ampèremètres et les voltmètres et leur fonctionnement. On peut y lire que les ampèremètres utilisent le champ magnétique induit par un conducteur traversé par un courant. Si l’on place ce conducteur dans un champ magnétique fixe, alors les deux champs vont agir l’un sur l’autre par l’intermédiaire de la force magnétique. Cette force peut dévier une aiguille : c’est le principe de l’ampèremètre à aiguille.

L’ampèremètre à aiguille peut présenter certaines limitations.

La première est que par la nature de son fonctionnement, elle doit être placée en série dans le circuit électrique où l’on souhaite effectuer la mesure. Il faut donc ouvrir le circuit, brancher l’ampèremètre puis referme le circuit. Ceci n’est pas toujours acceptable, par exemple quand il s’agit de mesurer une intensité traversant une ligne haute tension EDF, ou encore celle traversant un cordon d’alimentation d’un appareil et que l’on ne souhaite pas couper juste pour une mesure.

La seconde est une limite liée à l’appareil : tous les appareils ont une gamme de fonctionnement et ne peuvent donner de lecteur précise en dehors. Les ampèremètres à aiguille peuvent généralement afficher des intensités de l’ordre de l’ampère, voire de la dizaine d’ampères. Au-delà, cela devient difficile, principalement à cause de l’échauffement induit par de forts courants électriques et qui sont néfastes pour les aimants de l’ampèremètre.

Idéalement, donc, il faudrait un appareil de mesure de l’intensité d’un courant qui puisse fonctionner sans avoir à ouvrir le circuit et sur de fortes intensités. Aujourd’hui, cet appareil existe : il s’agit de la pince ampèremétrique. Elle prend la forme d’une pince que l’on vient passer autour d’un conducteur électrique et qui affiche alors l’intensité traversant ce conducteur. Cette pince peut fonctionner même avec de très fortes intensités.

Cet appareil de mesure fonctionne à l’aide de l’effet Hall, qui est le sujet de l’article ici.

L’effet Hall

L’effet Hall décrit l’apparition d’une tension électrique transversale dans un conducteur sous tension placé dans un champ magnétique. L’effet se manifeste principalement avec un conducteur de section rectangulaire plutôt que rond.

En gros, on place un conducteur de section rectangulaire dans un champ magnétique et on fait passer un courant perpendiculairement au champ magnétique, alors il apparaît une tension électrique transversale — perpendiculaire à la fois au champ magnétique et au courant — dans le conducteur.

Schéma montrant l’apparition de l’effet Hall.
Dynamique de l’effet Hall (image)

Sur le schéma ci-dessus, l’effet Hall est responsable du « bourrelet » vers le haut sur la trajectoire des électrons, (1) en bleus, à travers le bloc conducteur, (2) en gris, lorsque l’on le place dans un champ magnétique, modélisé par les flèches (4) et les deux pôles magnétiques (3).

Si l’on fait passer un courant dans le bloc conducteur central, sans le placer dans le champ magnétique alors le courant aurait une trajectoire dirigée selon le sens des potentiels décroissants, donc rectiligne et sans de bourrelet.
Lorsque l’on applique un champ magnétique extérieur, perpendiculaire au bloc conducteur. Il en résulte l’apparition du bourrelet sur la trajectoire du courant dans le conducteur : les électrons étant donc situés d’un côté du bloc métallique, il apparaît une différence de potentiel au sein du bloc, dirigée selon l’axe haut-bas sur la figure.

Si l’on décrit ce qui se passe : sans le champ magnétique, les lignes de courant sont rectilignes. Les électrons occupent uniformément le métal. Il n’y a pas de différence de potentiel dans le bloc (seulement à ses bornes)
On applique maintenant le champ magnétique :

  1. le courant d’électrons est sensible au champ magnétique perpendiculaire : ils tendent à être mises en rotation autour des lignes de champ magnétique ;
  2. vu que le bloc métallique est fin et pas un énorme, les électrons, qui n’ont pas la possibilité de sortir du bloc, ne peuvent effectuer une rotation complète, et finissent par s’accumuler d’un côté ;
  3. cette accumulation de charges sur l’une des faces va y constituer une charge globalement négative. L’autre face subit, à l’inverse, une déplétion de charges, ce qui y constitue une charge globalement positive ;
  4. cette différence de charges électriques entre la face haute et la face basse (sur le schéma) constitue une tension électrique : c’est l’effet Hall, et cette tension est appelée tension de Hall.

Utilisation de l’effet Hall dans une sonde à effet Hall et une pince à effet Hall

Il est à noter que plus le champ magnétique est intense, plus les charges sont séparées entre les faces, et donc plus la tension de Hall est importante.

Les sondes à effet Hall mesurent cette tension de Hall et en déduisent alors la valeur de l’intensité du champ magnétique. Certains capteurs de champ magnétique fonctionnent de cette manière, notamment les capteurs « magnétomètres » dans les smartphones

Maintenant, si ce champ magnétique est lui-même induit par un courant électrique, alors l’intensité du champ magnétique va de plus dépendre de l’intensité du courant.
Dans ce cas, la mesure de la tension de Hall nous donne la valeur de l’intensité du courant que l’on souhaite mesurer, le tout sans avoir à ouvrir le circuit :

Vue en coupe d’une pince à effet Hall.
Vue en coupe d’une pince à effet Hall (image).

Les pinces ampèremétriques sont très pratiques et donnent une lecture d’une intensité très facilement et en toute sécurité sans manipulations sur des composants sous tension.

Si elles sont toutes désignées pour permettre des mesures de hautes intensité de courant, elles peuvent aussi servir à mesurer de plus faibles intensités. Il suffit pour cela de faire passer plusieurs fois le fil dans la pince, en l’enroulant sur un de mors. Ainsi, avec par exemple 10 spires du fil, on multiplie la sensibilité par 10, mais on devra diviser la valeur affichée également par 10.

À noter quand-même que la pince ne fonctionne que si l’on l’utilise sur un seul conducteur à la fois. Si l’on fait passer à la fois le fil apportant le courant dans un circuit et le fil de sortie du courant, alors les champs magnétiques vont s’annuler et la pince affichera une intensité nulle. Une pince ampèremétrique sur un câble d’alimentation avec plusieurs fils dedans ne fonctionnera probablement pas.

Pire, ceci pourrait donner l’impression d’avoir à faire à un conducteur qui ne soit pas sous tension (donnant une illusion de sécurité) alors que le câble est en réalité alimenté et dangereux.

Enfin, notons que les pinces à effet Hall fonctionnent à la fois pour des courants continus et pour des courants alternatifs. Ces pinces sont en réalité de mini-voltmètres qui mesurent des tensions de Hall (qui sont elles produites par le courant que l’on souhaite mesurer). Or on sait produire des voltmètres pour tensions alternatives, notamment par l’emploi d’un pont redresseur, ou pont à diodes.

Effet Hall quantique

Une petite note sur l’effet Hall quantique, dont on peut parfois entendre parler. Il s’agit du même principe global que l’effet Hall « classique » décrit juste au-dessus.

La différence est simplement qu’il peut arriver, pour de très faibles courants et des conducteurs très fins, de mesurer des tensions « par paliers », quand bien même l’intensité à mesurer évolue de façon continue.

Ces sauts sont là grâce aux effets de la physique quantique : l’effet Hall produit par de très faibles intensités dans certains matériaux n’est pas toujours suffisant pour déplacer les électrons dans le conducteur. Dans ce cas, ces derniers ne se déplaceront d’un cran vers le haut qu’à partir d’une certaine intensité dans le fil, et d’un cran suivant à partir d’un autre niveau d’intensité, et ainsi de suite.

Cette discontinuité dans les tensions de Hall rend directement compte des effets de la physique quantique — discontinue — dans la matière.

L’effet Hall quantique a par exemple servi dans la balance de Watt utilisée pour redéfinir le kilogramme.
En effet, la balance de Watt permet d’équilibre un poids, celui de l’étalon du kilogramme, avec un électroaimant. L’électroaimant étant caractérisé entre autres par l’intensité du courant qui le traverse, il a fallu mesurer cette intensité de façon très précise. Ceci a été rendu possible en mesurant l'effet Hall quantique dans des jonctions métalliques très fines en supra-conducteurs séparées par un isolant (appelées jonctions de Josephson). Or il se trouve que l’effet Hall quantique donne des mesures avec une précision extrêmement importante, ce qui rend la mesure très utile lors de la redéfinition du kilogramme, en 2019.

Conclusion

La pince ampèremétrique à effet Hall est un de ces éléments qui fonctionnent grâce à une cascade d’effets électromagnétiques qui s’appliquent sur les électrons en mouvement. Parmi d’autres appareils électromagnétiques (mais pas forcément liées à l’effet Hall) citons les plaques à induction, et pour un appareil thermique, on peut parler du ventilateur à effet Peltier pour poêle qui utilise lui aussi une longue cascade d’effets physiques pour fonctionner.

Les sondes à effet Hall (pour mesurer des champs magnétiques) sont utilisées partout de nos jours : dans nos smartphones, dans les wattmètres, et même dans nos voitures, pour chronométrer l’injection d’essence dans le moteur thermique ou pour mesurer la vitesse de rotation des roues.

Les propulseurs ioniques, utilisées par certaines sondes spatiales, sont également une application de l’effet Hall.

image d’en-tête de Grant Hutchingson

La tomate est-elle un fruit ou un légume ?

jeudi 3 septembre 2020 à 21:14

Photo de tomates.
Une question courante, quand on est enfant ou même adulte, et qui fait parfois débat, est de savoir si la tomate est un fruit ou un légume.

La réponse n’est en soi pas compliquée, mais il faut bien savoir ce quoi on parle.

Fruit ou légume ?

Le terme de « fruit » est absolument sans ambiguïté en botanique : il s’agit de la partie de plante résultant de la pollinisation du pistil et contenant les graines, destinées à la reproduction de plante.

Il s’agit d’un terme botanique désignant une partie précise d’une plante, au même titre que la racine, la tige, les feuilles, la fleur…

En cuisine, le « fruit » est plus ambigu et peut désigner ou non une même denrée selon la recette qui l’emploie. Généralement, un fruit est sucré, consommé en dehors des repas ou alors en dessert.

Une aubergine, qui est un fruit au sens botanique, n’est que rarement considéré comme tel en cuisine. À l’inverse, un jus de carotte entre dans la catégorie des « jus de fruits » bien que la carotte n’est pas un fruit au sens botanique (il s’agit d’une racine).

Le légume n’est pas un terme botanique. Il n’y a donc pas de partie de la plante qui soit le légume. Ce terme est exclusivement culinaire : il désigne une denrée végétale utilisée comme aliment principal ou secondaire d’une recette d’un plat, en excluant généralement les céréales.
Ainsi, le riz n’est pas toujours considéré comme un légume. La tomate ou le poivron sont des légumes pour le cuisinier (mais bien des fruits pour le botaniste).

En fait, les termes de fruit et de légumes ne sont pas contraires l’un de l’autre ni même en concurrence.
Pour une endive ou une asperge, la question ne se pose pas : ce sont des légumes sans être un fruit. Pour d’autres, comme la tomate ou le poivron, l’aliment peut être un légume et un fruit, parfois en fonction de la recette qui l’emploie.

Cas de la tomate

Justement parlons de la tomate.
Plus haut j’explique que le fruit est une définition botanique et que le légume est un terme culinaire.

Il n’est pas interdit d’être plus spécifique : un légume peut être un fruit ou bien autre chose.

C’est pour cela que généralement on précise : la tomate est un légume-fruit, où « légume » réfère à la cuisine et « fruit » désigne la partie de la plante qu’on utilise.

De façon analogue, l’endive et la laitue constituent des légumes-feuille. La carotte, le radis et la betterave sont des légumes-racine.
Il existe également des légumes-tige (asperge, rhubarbe), des légumes-bulbes (oignon, échalote), des légumes-graines (petits-pois, fèves), des légumes-tubercules (pomme de terre)…

Conclusion

Il n’y a pas besoin d’opposer les fruits et les légumes, tout comme il n’est pas nécessaire d’opposer les fruits et leur couleur.

Un légume définit l’usage en cuisine d’un élément d’une plante. Cet élément peut être sa feuille, sa tige, son fruit…

Dire qu’une tomate est un fruit, c’est vrai : c’est le fruit de la plante dont la tomate est issue.
Dire qu’une tomate est un légume, c’est vrai : c’est un aliment cuisiné comme un légume.

Dire qu’une tomate est un légume-fruit est vrai et c’est le plus précis que l’on puisse écrire.

On se permet parfois de dire que le jus de carotte est un jus de fruit, ou que la patate-douce est un fruit (en confiture ou en dessert). Si on peut accepter cette définition en cuisine, cela constitue une erreur en botanique.

Enfin, pour aller plus loin, on peut dire que la pomme, la fraise ou la mûre ne sont pas des fruits au sens botanique. En effet, elles ne sont pas issues du pistil de la plante : on parle alors de faux-fruits.
Ainsi, pour la pomme, le fruit est uniquement la partie centrale que l’on ne mange généralement pas et qui contient les pépins. Pour la fraise, les fruits sont les petites graines situées sur la fraise. Pour la mûre, chaque petite « perle » n’est en réalité qu’un carpelle qui s’est charnue après la pollinisation. Son fruit est seulement le pépin qui se trouve dans ces carpelles.

Image d’en-tête de Lars Blankers.

La phase supercritique de la matière

mercredi 26 août 2020 à 06:02

i
On parle des « trois états de la matière » que sont le solide, le liquide et le gaz. Il en existe pourtant d’autres : peut-être connaissez-vous le plasma ? Mais avez-vous déjà entendu parler de l’état supercritique (à ne pas confondre avec le superfluide, qui en est encore un autre) ?

L’état supercritique n’est pas rencontré dans la vie courante, mais il est fort possible que vous ayez des choses chez vous dont la fabrication ait impliqué des fluides supercritiques.

État supercritique

Si l’on observe le diagramme des phases d’un corps on note deux points remarquables : le point triple, qui est le point pression-température où ce corps peut exister à la fois sous sa forme solide, liquide et gazeuse, et le point critique :

Le diagrame de phase du CO2
Diagramme de phase du CO2, montrant les états physiques du CO2 en fonction de la température et de la pression. (image)

C’est le point critique qui nous intéresse, car si on le dépasse, le corps devient un fluide supercritique (super = « au-dessus », [du point] critique). Un fluide supercritique ne peut donc exister qu’à des hautes pressions et des hautes températures.

Pour expliquer ce qu’est un fluide supercritique et comment le produire, faisons une expérience de pensée.

Imaginez une bouteille que vous remplissez à moitié d’eau. À ce stade, la bouteille est remplie à moitié d’eau et moitié d’air. Pour notre expérience, il faut commencer par chasser l’air : pour cela, on branche la bouteille à une pompe à vide qui va chasser cet air.

On va supposer que la bouteille ne se déforme pas : on se retrouve alors avec une bouteille contenant 50 % d’eau et 50 % de vide au-dessus. Sauf que, la pression ayant baissé, l’eau va se mettre à bouillir et de l’eau gazeuse (eau sous sa forme de gaz, pas de l’eau gazéifiée et avec des bulles) va combler le vide. À ce moment, la bouteille ne contient que de l’eau dans les états liquides et gazeux.

Rappelons que dans un gaz, les molécules sont libres et espacées les unes des autres. Dans un liquide, les molécules sont toujours libres, mais rapprochées les unes des autres :

Création d'un fluide super critique 1.
Maintenant, on va chauffer la bouteille.

Sous l’effet de la température, une partie du liquide va s’évaporer et devenir du gaz. Comme il y a maintenant davantage de gaz, les molécules sont moins espacées : la pression augmente. La densité du gaz, au passage, augmente aussi.
Parallèlement, la température va dilater le liquide : les molécules dans le liquide vont s’agiter davantage et ces dernières vont prendre globalement plus de place :

Création d’un fluide super critique 2.
Si l’on chauffe suffisamment, la densité augmentant du gaz va rejoindre la densité diminuant du liquide : le gaz et le liquide obtiennent alors la même densité ! C’est à ce moment que la magie opère : les deux phases se mélangent et on obtient un fluide unique sans interface entre le gaz et le liquide ! On appelle ce fluide le fluide supercritique :

Création d’un fluide super critique 3.
Lorsque l’on avait du gaz et du liquide bien séparés, la gravité maintenait la phase liquide en bas et la phase gazeuse en haut. Si les deux phases sont de densités égales, l’interface disparaît. Il n’y a plus de liquide, il n’y a plus de gaz : tout n’est alors que fluide supercritique.

Pour obtenir un fluide supercritique en chauffant une bouteille fermée, il faut qu’il y ait assez de liquide dans la bouteille. Autrement, tout le liquide se transforme en gaz avant d’avoir atteint le point critique et on aurait simplement du gaz chaud. Il faut qu’à la température critique, il reste du liquide non évaporé. Le passage d’une situation liquide + gaz à une phase supercritique est très rapide, brusque même : en l’espace d’un instant, les deux phases disparaissent au profit d’une seule, transitant par un bref moment où les deux phases se troublent à cause des transferts de molécules d’une phase à l’autre.

Si l'on rabaisse la pression et la température, une partie du fluide va se contracter et redevenir liquide. Le liquide va retomber au fond de la bouteille et on observe de nouveau deux phases distinctes.

Cette phase supercritique pourrait correspondre à un gaz comprimé à l’extrême, ou un liquide super détendu, mais elle a quand-même des propriétés spécifiques qui la différencient de l’une comme de l’autre.

Propriétés d’un fluide supercritique

Les fluides supercritiques sont de densités intermédiaires entre le liquide et le gaz. Comme on le voit de plus sur les diagrammes de phase, ils sont situés à des températures et des pressions élevées. Pour l’eau, par exemple, il faut monter à 218 bars de pression et 374 °C ! Ce n’est donc pas dans la vie courante que l’on aura de l’eau sous sa forme supercritique.

L’eau supercritique est utilisée pour nettoyer ou désintégrer des déchets variés : les molécules d’eau réussissent à dégrader complètement les matières organiques en molécules plus petites et beaucoup moins toxiques.

Les fluides supercritiques ont généralement aussi des coefficients de viscosité plus faible : leur écoulement est moins sujet à des pertes mécaniques. Certains concepts de générateurs électriques — y compris nucléaires — prévoient l’usage d’eau supercritique pour faire tourner les turbines des réacteurs ou servir de caloporteur, offrant alors une amélioration très sensible du rendement énergétique.

Le dioxyde de carbone supercritique a également des applications dans l’industrie. Il est nettement plus facile à obtenir que l’eau, car il suffit seulement de 74 bars et 31 °C. En plus du nettoyage (à sec) comme pour l’eau et ses propriétés stérilisantes, il est utilisé comme solvant en remplacement avantageux des solvants organiques habituels. Le CO2 supercritique reste du simple CO2 gazeux aussitôt que l’on abaisse la pression et il s’évapore sans laisser de traces.

L’exemple typique est celui de l’extraction de la caféine du café, pour produire du café décaféiné (et de la caféine). La méthode traditionnelle employait des solvants organique, dont il pouvait subsister des traces dans le produit fini, ce qui n’était pas l’idéal. Même remarque dans l’extraction d’arômes et essences ou d’autres molécules végétales dans le domaine de la parfumerie ou celui de la pharmacie.

Inversement, on peut également diluer préalablement des pigments dans du CO2 supercritique en vue de teindre du textile par exemple : cette technologie apporte l’avantage de nécessiter beaucoup moins d’eau et de produits dangereux dans un secteur autrement particulièrement polluant et gourmand en eau.

Un dernier exemple de fluide supercritique, et c’est celui que l’on voit généralement dans les salles de classe ou les musées, c’est l’hexafluorure de soufre supercritique. On l’utilise pour les démonstrations « grand public » car il est très simple à obtenir : « seulement » 38 bar et 46 °C.

Notes

Bien que je parle ici d’obtenir du fluide supercritique dans une bouteille, ce n’est pas possible. En vrai, ce n’est clairement pas une bouteille que l’on utilise, mais des dispositifs spéciaux destinés à résister à des pressions de plusieurs centaines de bars. Les petites vitres pour pouvoir voir le fluide sont généralement en quartz ou en saphir très épais pour pouvoir voir sans que ça ne casse.
Pour info, un pneu de voiture, c’est 2 à 3 bars, une bouteille de soda ou une recharge de gaz 5-7 bars et un extincteur de l’ordre de 15 bars.

N’essayez donc pas de chauffer votre bouteille en verre à la maison : les conditions de pression et de température à obtenir sont beaucoup trop élevées. Vous risqueriez de faire exploser la bouteille et de mettre de l’eau brûlante partout.

image d’en-tête de Thomas Kinto

Comment fonctionne l’écran des ardoises numériques ?

jeudi 6 août 2020 à 05:44

Une tablette tactile.
Après vous avoir déjà parlé des affichage électrophorétiques à encre numérique « e-ink », des écrans tactiles ainsi que de l’écran 3D de la Nintendo 3DS, voici un autre article sur un autre type d’écran.

Ce sont les afficheurs utilisés par les ardoises électroniques : plutôt que d’utiliser une craie sur une plaque en ardoise, on utilise ici un stylet ou son doigt pour écrit sur un écran LCD un peu spécial. L’affichage est persistant et le message reste indéfiniment, le tout sans alimentation ni rétroéclairage.
Ces ardoises comportent bien une petite pile : cette pile sert uniquement à l’effaçage de l’ardoise. Quand on appuie sur le bouton de l’appareil, l’écran s’efface. La pile n’étant utilisée que pour cela, et donc uniquement durant l’instant où l’on appuie dessus, l’ardoise peut être utilisée plusieurs années sans qu’il soit nécessaire de changer la pile ou de la recharger.

Le fonctionnement de ces ardoises repose sur une autre technologie des cristaux liquides : leur agencement cholestérique.

Les cristaux liquides

Les cristaux liquides sont des matériaux à la structure cristalline, donc parfaitement ordonnée, tout en étant liquide.

Parmi leurs propriétés, on trouve leur réactivité à un champ électrique : soumis à un champ électrique, les cristaux liquides se déformant en réorientant leurs molécules au sein du liquide. Un peu à l’image d’un cristal piézoélectrique, qui se déforme sous l’action d’un champ électrique, sauf qu’ici c’est en phase liquide.

Macroscopiquement, ce sont surtout les propriétés optiques du cristal liquide qui changent : le liquide peut ainsi devenir plus ou moins transparent ou changer de couleur quand on lui impose une tension électrique.

Dans un écran LCD (écran à cristaux liquides), chaque pixel est contrôlé électroniquement. L’arrière du pixel est rétro-éclairé en permanence. En l’absence de champ électrique sur le pixel, les cristaux sont désordonnés au sein de leur phase liquide et la lumière est bloquée : le pixel apparaît noir.

Si l’on active le champ électrique sur le pixel, les cristaux liquides réagissent et s’organisent différemment, leur permettant de laisser passer la lumière : le pixel apparaît blanc.

En jouant sur l’intensité du champ électrique, on contrôle la quantité de lumière qui passe. En divisant le pixel en sous pixels colorés en rouge, bleu et vert, on contrôle les quantités de rouge, de bleu et de vert et ainsi on peut produire une large palette de couleurs.
Enfin, en créant une matrice de pixels, on obtient un écran sur lequel on peut alors afficher ce que l’on veut.

Les cristaux liquides cholestériques

Les cristaux liquides « normaux » sont activables à l’aide d’un champ électrique : on peut contrôler leurs propriétés optiques. Problème : l’affichage n’est pas persistant. Si l’on coupe le champ électrique, le cristal liquide retombe dans un état « par défaut », généralement opaque.

Certains cristaux liquides dits cholestériques ou nématiques hélicoïdaux possèdent plusieurs états stables, dans lequel ils peuvent rester aussi longtemps qu’on les laisse tranquilles dans ces états.

Parmi ces différents états, on trouve la structure héméotropique : les cristaux sont arrangés de façon longitudinale et la lumière peut les traverser pour être absorbés ; et la structure conique focale : sur laquelle la lumière peut se réfléchir :

Deux états des cristaux cholestériques.
Schéma des deux états et leurs propriétés optiques des cristaux cholestériques (source)

Dans le premier cas, la lumière traverse le cristal et peut ensuite être absorbé par une surface sombre. Dans le second cas, la lumière peut être réfléchie sur les différentes couches du cristal (par diffusion de Bragg, la même qui donne sa couleur métallique à une plume de paon).

L’astuce ici, c’est que ces micro-régions passent d’une structure homéotrope à une structure conique focale sous l’effet d’une pression mécanique : il suffit d’appuyer dessus pour organiser ces micro-régions dans le même sens. Cette structure ordonnée est maintenue même une fois la pression relevée.
Résultat : alors que l’écran est totalement sombre, on peut appuyer sur certains pixels pour les rendre réfléchissants.

Pour retourner à l’état homéotrope, et donc sombre, on peut appliquer une tension électrique au cristal : cristaux dans les pixels se déroulent alors immédiatement et s’alignent dans le sens du champ électrique.

Voilà donc comment on peut donc faire basculer ces pixels d’un état à un autre.

Utilisation des cristaux liquides cholestériques dans une ardoise électronique

Pour résumer la partie précédente : les cristaux cholestériques peuvent être dans deux configurations stable :

Le passage de l’état homéotrope à l’état conique focale se fait par une pression mécanique sur le cristal, et l’inverse se fait par application d’un champ électrique.

On voit ici comment peut fonctionner les ardoises électroniques : l’écran est rempli de cristaux liquides cholestérique à l’état homéotrope, et donc totalement noir.

Quand on dessine dessus, la pression du stylet suffit pour réarranger les cristaux en structure plane là où l’on a appuyé : ce sont les zones claires sur l’écran, qui correspondent au trait que l’on dessine et où les cristaux deviennent réfléchissants.

Quand on souhaite effacer l’afficheur, on appuie sur un bouton, qui va alors envoyer une impulsion électrique et faire une réinitialisation de tous les cristaux dans l’ensemble de l’écran, qui se mettent alors dans leur état homéotrope et tout noir : l’écran est effacé.

En résumé

Comme les écrans LCD, les afficheurs des ardoises magiques utilisent des cristaux liquides. Ces derniers sont des composés réactives aux champs électriques.
Généralement, la transparence des cristaux liquides est activement contrôlée pour laisser passer plus ou moins de lumière colorée sur chaque sous-pixel d’un écran et ainsi pouvoir contrôler l’imager reconstituée sur un écran entier.

Dans les ardoises magiques, la transparence, ou plutôt la réflectivité des pixels est contrôlée de façon passive : le pixel est brillant ou sombre même sans action extérieure, selon l’état microscopique dans lequel ils sont mis. Ils rejoignent ainsi les afficheurs à encre électrophorétique, ou à « encre électronique » (e-ink), qui n’ont eux non plus pas besoin d’énergie pour maintenir leur affichage dans un état spécifique.

Les ardoises possèdent ce comportement grâce aux cristaux liquides cholestériques, qui peut être brillant ou sombre selon l’état des cristaux : soit alignés (et transparents et sombres), soit tortillés (et réfléchissant, et donc brillant).

Le passage de l’état sombre à l’état brillant se fait par la pression à l’aide d’un stylet ou d’un doigt. Et l’effacement se fait avec une impulsion électrique donnée par une petite pile à l’aide d’un bouton.

Liens

Merci à @dimeao pour l’idée de l’article !
Et pour info, les ardoises numériques dont je parle sont celles-ci.

image d’en-tête de Kelly Sikkema