Les ondes gravitationnelles auraient bien rendu turbulent l’espace-temps du Big Bang

L’espace-temps n’est pas un milieu matériel, pourtant sa dynamique ressemble à celle des fluides. Comme eux, il aurait pu devenir turbulent, notamment au moment du Big Bang, quand il était parcouru par des ondes gravitationnelles. Des simulations numériques soutiennent l’existence de ce phénomène qui semble fournir une alternative au scénario d’inflation standard en cosmologie primordiale.

L’hydrodynamique est une science dont les débuts sont anciens et ce n’est pas étonnant étant donné que l’écoulement de l’eau ou le comportement des liquides ont de tout temps fasciné l’Homme et que les premiers ingénieurs, avant Archimède, cherchaient à maîtriser le transport de l’eau. Les dessins que Léonard de Vinci nous a laissés dans plusieurs de ces carnets sont une excellente illustration de cette fascination et de ces préoccupations.

Le regretté Michel Serres avait supposé un lien entre la contemplation du comportement tourbillonnaire de l’eau et la naissance de la physique atomique grecque décrite par le fameux poème du philosophe épicurien Lucrèce.

Mais il a fallu attendre les travaux d’Euler et de Bernoulli pour que des équations mathématiques puissantes commencent à rendre compte de ces phénomènes. Aujourd’hui, même si l’on pense que les équations de Navier-Stokes, jointes aux principes de la thermodynamique et aux équations de l’électromagnétisme, décrivent presque tous les phénomènes d’écoulement de fluides, il reste des mystères à percer en hydrodynamique.

Il y en a un qui a beaucoup préoccupé les physiciens et ingénieurs du XXe siècle (décrire le comportement des océans, de l’atmosphère et l’écoulement de l’air autour d’un avion ou d’une voiture nécessite in fine sa compréhension).

C’est celui de la turbulence (voir à ce sujet le cours du prix Nobel de Physique Kip Thorne).

Au point que des physiciens du calibre de Feynman et Landau s’y sont attaqués et que Heisenberg lui-même a passé sa thèse sur ce sujet sous la direction de Sommerfeld avant de s’illustrer par ses découvertes en physique quantique.

La turbulence quantique et classique de l’espace-temps du Big Bang
Aujourd’hui, comme Futura l’expliquait dans le précédent article ci-dessous, la physique de la turbulence inspire ceux qui cherchent à comprendre l’écume de l’espace-temps dont parle Jean-Pierre Luminet dans un de ses précédents livres. Il semble désormais que même les ondes gravitationnelles peuvent manifester un comportement qui est l’analogue de celui de la turbulence des fluides comme le physicien Sébastien Galtier le montre de plus en plus clairement avec des collègues.

Avec Jason Laurie et Sergey Nazarenko il a publié en 2020 un article où il est suggéré qu’un espace-temps turbulent pendant le Big Bang avec des minitrous noirs primordiaux en collision et émettant des ondes gravitationnelles alimentant cette turbulence aurait pu donner lieu à un phénomène similaire à celui de l’inflation généralement postulé comme résultant de l’effet d’un champ scalaire, l’inflaton, analogue au champ du boson de Brout-Englert-Higgs. Les premiers résultats montrent que cette hypothèse semble compatible avec les analyses des données du rayonnement fossile de la mission Planck.

Cette année, Sébastien Galtier et Sergey Nazarenko ont publié un autre travail dans lequel ils confirment par des simulations numériques ce que leurs calculs analytiques avaient montré en 2017 et dont Futura parlait dans le précédent article ci-dessous. C’est la première fois que ce genre de simulation montre qu’un comportement turbulent de l’espace-temps peut naître avec des ondes gravitationnelles, d’abord faibles puis qui deviennent ensuite fortes. C’est une motivation de plus pour explorer plus en avant le modèle d’inflation alternatif proposé en 2020 et qui repose sur ces phénomènes.

Source : https://www.futura-sciences.com/sciences/actualites/ondes-gravitationnelles-ondes-gravitationnelles-auraient-bien-rendu-turbulent-espace-temps-big-bang-69658/

La pollution lumineuse en France a augmenté de 94 % en 30 ans !

Depuis quand n’avez-vous pas eu le plaisir de voir la voûte étoilée ? En dehors de ce simple plaisir, la pollution lumineuse représente une réelle menace pour la biodiversité, d’autant que le phénomène est en constante progression dans des proportions inquiétantes.

Environ 85 % du territoire métropolitain français subit des pressions dues à la pollution lumineuse, dont plus de 20 % à de forts niveaux. Sans surprise, les zones urbaines sont les plus mauvaises élèves, mais le problème est bien plus vaste. Ce constat alarmant est celui de l’observatoire français de la biodiversité (OFB) qui vient de publier son bilan annuel de l’observatoire national de la biodiversité 2021. Le plus inquiétant, c’est que cette représentation ne donne à voir qu’une partie du problème : les données utilisées ne rendent compte que de la fraction de la pollution lumineuse qui est renvoyée vers le ciel, en cœur de nuit et par temps dégagé. Par exemple, par temps couvert, la lumière artificielle est réfléchie par les nuages, amplifiant le phénomène.

Une menace pour les rythmes biologiques et les comportements
En dehors du simple plaisir de pouvoir observer la voûte étoilée, cette pollution lumineuse, induite par les éclairages artificiels, représente un vrai danger pour de nombreuses espèces animales et végétales, sachant que près d’un tiers des vertébrés et de deux tiers des invertébrés sont nocturnes. Au niveau des insectes, la lumière artificielle est d’ailleurs la deuxième cause d’extinction après les pesticides. Ces nuisances ont notamment des conséquences majeures sur la production de mélatonine, l’hormone produite naturellement par l’organisme qui régule les rythmes biologiques. Elles modifient aussi sensiblement le comportement des espèces dans leur orientation, que ce soit pour les oiseaux migrateurs ou les batraciens qui ne parviennent plus à distinguer leurs proies. L’éclairage nocturne met aussi à mal les continuités écologiques avec une fragmentation des milieux naturels. Il constitue une sorte de barrière parfois infranchissable pour des espèces obligées de vivre dans des habitats plus petits et morcelés.

La quantité de lumière a augmenté de 94 % depuis 1990
Le phénomène a malheureusement tendance à s’amplifier. Selon l’association nationale pour la protection de la nuit (ANPCEN), le nombre de points lumineux de l’éclairage public a augmenté de 89 % depuis les années 1990 quand la quantité de lumière émise a, elle, connu une croissance infernale de 94 %. Et encore, ne sont pas pris en compte dans ces calculs les publicités lumineuses, les vitrines, les illuminations, les bureaux vides mais éclairés, les parkings… Désormais, pas moins de 11 millions de lampadaires et plus 3,5 millions d’enseignes de magasins s’allument chaque soir pour éclairer les étoiles jusqu’au petit matin. Bien entendu, les zones urbanisées connaissent des qualités de nuit particulièrement médiocres, ou au mieux moyennes, et génèrent des halos lumineux à très forte distance.

Les paysages nocturnes : un patrimoine de la Nation
Pour autant, les impacts de la pollution lumineuse, notamment sur la biodiversité, ont mis du temps à être pris en compte par le pouvoir législatif. Ce n’est qu’en 2009, avec l’article 41 de la loi du 3 août 2009 dite Grenelle 1 que des premières préconisations sont émises : « Les émissions de lumière artificielle de nature à présenter des dangers ou à causer un trouble excessif aux personnes, à la faune, à la flore, aux écosystèmes, entraînant un gaspillage énergétique ou empêchant l’observation du ciel nocturne feront l’objet de mesures de prévention, suppression ou de limitation. » En 2013, une première réglementation limite les durées d’éclairement superflu pour les façades, vitrines et bureaux non occupés. Des mesures qui seront ensuite étendues en 2018, avec un arrêté qui interdit par exemple l’éclairage en direction du ciel ou fixe des seuils de températures de couleur à respecter. Entretemps, les paysages nocturnes ont été reconnus, en 2016, comme « patrimoine de la Nation » dans la loi sur la reconquête de la biodiversité et des paysages.

La trame noire
En parallèle, de nombreuses pistes sont explorées pour lutter contre cette pollution lumineuse. Par exemple, la mise en place d’une « trame noire », sur le même modèle que ses sœurs bleue et verte pour une continuité écologique des espaces respectivement aquatique et terrestre afin d’enrayer le déclin de la biodiversité. La France est plutôt en avance sur le sujet, notamment grâce aux travaux de l’Office français de la biodiversité (OFB). De nombreuses organisations en France, comme à l’international, ont vu aussi le jour comme l’International Dark-Sky Association, qui œuvre en faveur de zones protégées de la pollution lumineuse, notamment le pic du Midi de Bigorre et le parc national du Mercantour, ou encore l’ANPCEN et son initiative de labels Villes et villages étoilés.

Source : https://www.futura-sciences.com/planete/actualites/pollution-pollution-lumineuse-france-augmente-94-30-ans-94682/

Les bords de mer deviennent de plus en plus sombres et cela est préoccupant

Sur les côtes, l’eau est de moins en moins claire. Chargée en matière organique, en boue ou en sédiments, elle ne laisse plus suffisamment passer la lumière, ce qui menace les organismes marins, notre santé et même le climat.

Vous ne l’avez peut-être pas remarqué lors de vos dernières vacances au bord de la mer, mais l’eau sur les côtes est de plus en plus sombre. Ce phénomène, appelé obscurcissement côtier, est dû notamment à la pollution par les engrais, qui entraîne une prolifération d’algues bloquant la lumière, ou aux bateaux qui remuent le limon lorsqu’ils se déplacent. Lors de fortes pluies, la matière organique du sol peut également pénétrer dans l’océan et causer son assombrissement. Or, le réchauffement climatique aboutit à une intensification des pluies, ce qui renforce le phénomène. Selon une étude de 2020, toute cette matière organique supplémentaire entraîne un assombrissement de l’eau pouvant atteindre 86 %. Parfois, ce sont les feuilles des arbres en bordure de mer qui en tombant couvrent la surface et empêchent le soleil de pénétrer dans l’eau. En Norvège par exemple, les efforts de reforestation ont paradoxalement abouti à l’assombrissement des eaux des fjords. Enfin, l’aggravation de l’érosion côtière contribue à la turbidité de l’eau en projetant du sable et des sédiments dans l’eau.

Des poissons aveuglés et incapables de se nourrir
Tout cela peut sembler anecdotique. L’assombrissement côtier a pourtant des conséquences très dommageables pour l’avenir de notre Planète. De nombreuses études ont ainsi mis en évidence la façon dont cette moindre luminosité affecte les organismes marins, et notamment le phytoplancton. L’étude de 2020 montre par exemple que la biomasse de phytoplancton diminue et change de composition lorsque la lumière disponible diminue. « Au fil du temps, l’obscurcissement des côtes pourrait avoir des effets bien au-delà des micro-organismes », prévient Oliver Zielinski, qui dirige le projet Coastal Ocean Darkening à l’université d’Oldenburg en Allemagne, sur le site du magazine Hakai. « Cela va par exemple profiter aux animaux qui ne dépendent pas de la vue pour chasser, tels que les méduses, et gêner des espèces telles que les poissons qui ont besoin d’une bonne visibilité pour trouver leur nourriture ».

Des algues qui fixent 4,7 fois de carbone en moins
Une autre étude de 2019 rapporte que le brunissement de l’eau sur les côtes a retardé de trois semaines l’efflorescence des algues durant le XXe siècle, ce qui là encore pourrait avoir des conséquences sur les poissons qui dépendent de cette ressource pour se reproduire à une période précise. Pire encore : il pourrait aggraver le réchauffement climatique en empêchant les algues de faire de la photosynthèse. « Une réduction de luminosité de 63 % diminue de 95 % la productivité des algues varech », explique ainsi Caitlin Blain, écologiste à l’université d’Auckland en Australie, dans une étude publiée en août 2021. Les algues situées dans les eaux claires fixent ainsi 4,7 fois plus de carbone que celles situées dans les zones assombries. Les forêts de varech, qui sont un puits de carbone majeur dans les océans, pourraient ainsi voir leur action largement entravée, préviennent les chercheurs. Enfin, la baisse de luminosité affecte aussi la composition de l’eau. Selon une étude du Norwegian Institute for Water Research (NIVA), le manque de lumière empêche le processus de décomposition chimique de certains polluants tels que le méthylmercure. « Au final, cela pourrait présenter un risque pour la santé humaine », mettent en garde les auteurs.

Comme on l’a vu, l’obscurcissement de l’eau est un phénomène complexe, lié à la fois à des causes naturelles et anthropiques contre lesquelles il est parfois difficile de lutter. Dans certaines régions, comme en Méditerranée, les eaux retrouvent cependant un peu de clarté grâce aux efforts pour limiter la quantité d’engrais et la pollution déversée dans la mer. L’interdiction du développement urbain à proximité des zones sensibles ou la lutte contre l’érosion côtière sont d’autres mesures possibles.

Source : https://www.futura-sciences.com/planete/actualites/ocean-bords-mer-deviennent-plus-plus-sombres-cela-preoccupant-94806/

Le rover Perseverance a creusé un nouveau disque dans la roche martienne

Le rover Perseverance a annoncé avoir creusé une partie d’une roche martienne. L’opération va permettre de savoir ce qu’il se cache à l’intérieur du sol de la planète.

Depuis son arrivée sur Mars, il y a déjà presque 9 mois, le rover de la Nasa a accompli plusieurs tâches très importantes. Perseverance a en effet déjà pris de nombreuses photos et extraits sonores, déployé le petit hélicoptère Ingenuity, et a même récupéré son premier échantillon martien. Et ce 9 novembre, la Nasa a indiqué qu’il venait de procéder à une nouvelle action en creusant un cercle dans de la roche martienne.

« J’ai pu voir de l’intérieur ce que personne n’avait jamais vu. J’ai érodé un petit bout de cette roche pour enlever la surface externe et jeter un coup d’oeil à ce qu’il se cache en dessous. Je me rapproche de ma prochaine cible pour #EchantillonerMars », a tweeté la Nasa depuis le compte dédié au rover.

REGARDER DE PLUS PRÈS L’INTÉRIEUR DES ROCHES MARTIENNES
Cette manoeuvre n’était pas comparable à cette utilisée pour récupérer le premier échantillon martien. Comme l’explique la NASA dans le tweet, le but de cette opération était de pouvoir regarder de plus près l’intérieur même de la roche martienne.

L’échantillon déjà récolté par le rover est stocké dans son ventre, où il restera jusqu’à ce qu’il soit récupéré et ramené sur Terre par une future mission. À en croire le tweet de la NASA, les équipes derrière le robot sont désormais à la recherche d’une nouvelle cible, choisie pour y extraire le prochain échantillon.

Il s’agit de la première mission du robot depuis la reprise des communications entre la NASA et Perseverance, à la fin du mois d’octobre. Une période de conjonction solaire avait en effet rendu impossible l’envoi des messages entre la Terre et Mars pendant quelque temps.

Depuis, l’hélicoptère Ingenuity avait repris ses activités et avait même réalisé son 14e vol sur la planète. Mais Perseverance avait moins communiqué sur ses faits et geste. On sait désormais à quoi le rover était occupé.

Source : https://www.numerama.com/sciences/754617-le-rover-perseverance-a-creuse-un-nouveau-disque-dans-la-roche-martienne.html

Découverte du premier astéroïde quadruple

(130) Électre était déjà connu pour être entouré de deux satellites. De nouvelles observations du système ont révélé un troisième compagnon, ce qui en fait l’astéroïde ayant le plus de satellites identifiés à ce jour.

(130) Électre est un astéroïde orbitant dans la partie externe de la ceinture principale, entre 370 et 566 millions de kilomètres du Soleil. Il a été découvert le 17 février 1873 par Christian Peters depuis l’observatoire Litchfield de l’Hamilton College, à Clinton, dans l’État de New York (États-Unis).

Ce petit corps à la forme assez irrégulière, nommé d’après le personnage homonyme de la mythologie grecque, mesure 262 × 205 × 164 kilomètres, ce qui en fait un des plus gros astéroïdes de la ceinture principale. Il a un spectre de type G et donc probablement une composition semblable à celle de Cérès. Des signatures spectrales de composés organiques ont été observées à la surface d’Électre et elle présente des signes d’altération aqueuse.

Un astéroïde déjà connu pour être accompagné
Plus de 400 planètes mineures (astéroïdes, transneptuniens et autres petits corps non cométaires) sont connues à ce jour pour avoir au moins un satellite.

Un premier satellite fut découvert autour d’Électre le 15 août 2003 par une équipe d’astronomes dirigée par William J. Merline à l’aide du télescope Keck II de l’observatoire du Mauna Kea à Hawaï. Ce petit compagnon, désigné provisoirement S/2003 (130) 1, est le plus grand et le plus externe d’Électre. Il mesure de l’ordre de six kilomètres et fait le tour de son hôte en 5,3 jours à une distance moyenne de 1.298 kilomètres.

Un deuxième satellite, S/2014 (130) 1, fut découvert autour d’Électre le 6 décembre 2014 par Bin Yang et ses collaborateurs en utilisant le système d’optique adaptative Sphere sur le télescope Melipal (UT3) du Very Large Telescope à Cerro Paranal, au Chili. Ce troisième membre du système mesure environ deux kilomètres et se trouve à 498 kilomètres d’Électre, autour duquel il orbite en 1,3 jour.

Des observations dans le proche infrarouge avaient montré que S/2003 (130) 1 et S/2014 (130) 1 présentent un spectre similaire à celui d’Électre. Ces observations soutiennent l’hypothèse que les satellites d’Électre seraient des fragments de l’astéroïde éjectés par une collision.

Jamais deux sans trois ?
D’autres observations avec VLT-SPHERE, effectuées entre le 9 et le 31 décembre 2014, viennent de révéler un troisième compagnon d’Électre, auquel n’a pas encore été attribué de désignation officielle (ce devrait normalement être S/2014 (130) 2). Ce nouveau satellite, dont la découverte a été annoncée le 6 novembre 2021 par les astronomes Anthony Berdeu, Maud Langlois et Frédéric Vachier, mesure 1,6 kilomètre de diamètre. Il orbite à 345 kilomètres d’Électre et en fait le tour en 0,7 jour.

Cette découverte fait d’Électre le premier système astéroïdal quadruple découvert et imagé dans la ceinture principale. Les seuls corps connus pour avoir plus de compagnons sont la planète naine Pluton, qui en a cinq, et les quatre planètes géantes, c’est-à-dire Jupiter, Saturne, Uranus et Neptune, dont on connaît respectivement 79, 82, 27 et 14 satellites.

Reste-t-il encore d’autres compagnons à découvrir autour d’Électre ? Seules des observations encore plus poussées, et pourquoi pas un jour une sonde spatiale, pourront nous le dire.

Source : https://www.futura-sciences.com/sciences/actualites/astronomie-decouverte-premier-asteroide-quadruple-94717/

De la pluie sur commande dans les déserts : quand l’Homme prend le contrôle de la météo

Transformation de la grêle en pluie, augmentation des précipitations par l’ensemencement des nuages : ces techniques de bouleversements météorologiques plus ou moins modernes se diversifient. Avancées technologiques ou portes ouvertes à l’incontrôlable ?

Partout dans le monde, les épisodes de sécheresse se multiplient. Les climats arides mettent à mal les productions agricoles. La grêle, quant à elle « détruit en quelques minutes le fruit d’un travail de plusieurs années » explique Claude Berthet, directrice de l’Anelfa, Association Nationale d’Étude et de Lutte contre les Fléaux Atmosphériques. Alors, les pays investissent, testent et pensent des solutions et des systèmes pour contrer les intempéries, les pénuries d’eau. Aujourd’hui, la porte est ouverte, ou plutôt entrouverte, à tous les possibles.

En France depuis 1951, l’Association Nationale d’Étude et de Lutte contre les Fléaux Atmosphériques, répond à une demande de terrain. La grêle est un fléau pour les cultures depuis les années 1950 et l’Anelfa en a fait son principal sujet de recherches. En travaillant en étroite collaboration avec des physiciens des nuages, docteurs et scientifiques, mais aussi agriculteurs et agronomes, l’association a mis au point un système de transformation de la grêle en pluie.

Utilisés depuis près de soixante-dix ans, les générateurs de l’Anelfa sont déjà mis en place dans plusieurs départements français. Claude Berthet, directrice de l’Anelfa, décrit « des appareils relativement simples et volontairement assez rustiques pour qu’ils puissent être installés chez des opérateurs bénévoles qui vont mettre en route ces dispositifs sur alertes météorologiques ».

TRANSFORMER LES NUAGES

La grêle est toujours produite par celui que l’on nomme « le roi des nuages », le « cumulonimbus ». « À l’intérieur de ces nuages, on peut trouver des températures positives et des températures négatives. Naturellement, l’eau quand elle est pure, même à température négative, peut se retrouver sous forme liquide. C’est ce que l’on appelle l’eau surfondue » souligne Claude Berthet.

« C’est la présence, à l’intérieur d’un nuage, d’eau surfondue et de certaines particules qui va permettre, par des échanges entre l’eau sous forme vapeur, l’eau sous forme liquide et l’eau sous forme solide, de former la grêle ». Les particules, sont « des noyaux de condensation, pour former des gouttelettes d’eau » et « des noyaux de congélation, qui vont former des particules glacées ».

Ces différents éléments s’allient et se mêlent pour créer l’ennemi des viticulteurs français. « On sait qu’un facteur favorable au grossissement de la grêle, c’est quand il y a peu de noyaux de congélation dans l’atmosphère ». Alors quelle solution pour réduire, voire éliminer la grêle ? Ajouter des noyaux de congélation artificiels.

Pour ce faire, l’Anelfa utilise de l’iodure d’argent. « À partir d’un gramme d’iodure d’argent, on est capable de fabriquer 200 milliards de particules par seconde, avec notre générateur. La technique s’est basée sur l’ensemencement des nuages. […] Nous, on a choisi de produire [les noyaux de congélation] au niveau du sol, parce que l’on sait qu’ensuite, un nuage d’orage va pomper la chaleur et l’humidité du sol. Donc, il va pomper les particules qui auront été produites » indique Claude Berthet.

Aux Émirats arabes unis, une technique d’ensemencement des nuages par drone est encore en phase de test. Le drone serait envoyé directement à la base du nuage pour mesurer différents facteurs tels que « les processus microphysiques, la force des courants ascendants et les mesures des gouttelettes de nuage » explique Alya Al Mazrouei, Directrice du programme de valorisation de la pluie des Émirats Arabe Unis. Les différents projets et investissement dans les technologies d’ensemencement de nuages permettent de prévenir des situations de sécheresse et de pénurie d’eau. Leur objectif est de « recharger les eaux souterraines et les aquifères. »

Andrea Flossmann, co-présidente du groupement d’experts de la modification du temps de l’Organisation météorologie mondiale (OMM) reste sceptique quant à la multiplication des systèmes de modification de la météo. « Le problème, c’est qu’en ce moment, il se passe tout et n’importe quoi. Certains pays ont reçu l’information comme quoi il suffirait de jeter un produit dans les nuages pour qu’il pleuve et que ça y est, ce soit le déluge. Cela ne marche pas comme ça. […] Les énergies associées à ces nuages ont l’ordre de grandeur des bombes atomiques ! C’est une énergie colossale. [Pour] les faire bouger, ce n’est pas en jetant une pierre ou un canon, […] il faut vraiment une intervention chirurgicale, si je puis dire, pour identifier les points faibles et attaquer ».

PRÉVENIR LES PÉNURIES D’EAU

À Abou Dabi, dans le Centre national de météorologie (CNM), l’atmosphère est surveillée toutes les heures pour contrôler l’avancée des opérations d’ensemencement des nuages, l’amélioration des précipitations. Le CNM est en charge du programme avec un budget de 1 295 000 euros sur trois ans afin de « présenter les propositions de recherche les plus innovantes au profit des générations futures qui risquent de manquer d’eau » indique Alya Al Mazrouei, directrice du programme de valorisation de la pluie des Émirats.

Andrea Flossmann indique qu’à ce jour, l’OMM a scientifiquement confirmé pour la première fois que les systèmes d’ensemencement fonctionnaient, particulièrement sur les nuages orographiques, notamment en Australie et aux États-Unis. « L’objectif, c’est d’augmenter les chutes de neige dans ces régions, qui sont aussi des réservoirs d’eau […] pour l’été. On a pu prouver scientifiquement que cela pouvait augmenter la progression nuageuse de 10 à 15 %. Ce n’est pas énorme, mais on a là un signal vérifiable scientifiquement ».

La question se pose quant aux produits utilisés et à l’impact qu’ils peuvent avoir sur l’environnement, la biodiversité et les sols.

« Pour l’instant, les recherches qui sont faites montrent que l’augmentation des précipitations [en France] est de l’ordre de 10 %. Dans la mesure où c’est pratiqué à l’instant où l’on manque de précipitations, l’impact est positif » répond Claude Berthet, directrice de l’Anelfa. « Toutes les études menées n’ont pas mis en évidence un effet significatif sur l’environnement. Les quantités diffusées sont relativement faibles, à l’échelle des surfaces concernées ». Alya Al Mazrouei abonde : « l’ensemencement des nuages n’a aucun impact négatif sur l’environnement, parce que les matériaux naturels dispersés dans les nuages sont adéquats dans l’atmosphère ».

Faut-il instaurer des contrôles, des lois ou bien des limites à la modification de la météo ? Selon Andrea Flossmann, des chartes de contrôle seraient les bienvenues. Aujourd’hui, des conflits entre pays voisins éclatent lorsque l’un d’eux annonce exercer des tests pour modifier son climat. Dès lors qu’apparaît une situation anormale, ils s’empressent d’accuser leurs homologues. « C’est déjà le cas avec l’Iran et la Palestine qui se plaignent de se faire voler leur eau par Israël. Même débat au Maroc, aux États-Unis, au Mexique, en Chine, en Espagne […]. Pourtant, ça n’est pas encore possible, les rendements ne sont pas assez importants pour voler l’eau de son voisin ». 

Source : https://www.nationalgeographic.fr/environnement/de-la-pluie-sur-commande-dans-les-deserts-quand-lhomme-prend-le-controle-de-la-meteo?fbclid=IwAR0EKKxEN4JlbiHeqp87QlneOW4nZ_Ux4njHk09SLQNEdttIPtf0fJH5hjI

Une méthode de détection des exoplanètes marche aussi pour les trous noirs extragalactiques

Les trous noirs en dehors de la Voie lactée sont souvent découverts par des émissions de rayons X produites par la matière qui tombe vers eux en produisant un disque d’accrétion. Mais pour la première fois, un trou noir en dehors de notre Galaxie a été découvert en utilisant l’une des méthodes permettant celle des exoplanètes, via les mouvements oscillants qu’il produit sur son étoile hôte.

Nous savons maintenant que les trous noirs sont des objets très communs dans le cosmos observable. On pouvait s’en douter dès les années 1960, notamment après la démonstration par le prix Nobel Roger Penrose de l’inévitabilité de l’effondrement vers une solution de type trou noir des équations de la relativité générale d’une étoile suffisamment massive ayant épuisé son carburant thermonucléaire.

Aujourd’hui, les meilleurs arguments pour la présence des trous noirs sont observationnels. Le tout dernier étant celui fourni par les observations de M87* par les membres de la collaboration Event Horizon Telescope. Mais celui qui est le plus convaincant, bien que la preuve ultime ne soit pas encore entre nos mains, c’est celui fourni par l’étude des ondes gravitationnelles.

Toutefois, auparavant, on avait découvert un certain nombre de candidats au titre de trou noir grâce à l’essor de l’astronomie des rayons X, montrant que des astres compacts ne pouvant être sur la séquence principale des étoiles et accrétant de la matière arrachée à une étoile compagne avaient bien une masse supérieure à celles autorisées par la théorie des naines blanches et des étoiles à neutrons.

L’étude des mouvements de certaines étoiles au centre de la Voie lactée donnait également des informations qui ne s’expliquaient bien qu’en supposant l’existence d’un objet compact contenant environ 4 millions de masses solaires et se comportant à bien des égards comme un trou noir.

Pour la première fois, c’est une méthode similaire qui livre une preuve de l’existence d’un trou noir en dehors de notre Voie lactée, comme le montre un article d’une équipe internationale d’astronomes, publié dans le prestigieux journal MNRAS. En fait, pour être précis, c’est un avatar de la méthode des vitesses radiales utilisée pour découvrir des exoplanètes. Sauf qu’ici c’est un trou noir qui est responsable des oscillations du mouvement de l’étoile hôte, oscillations qui se manifestent sous la forme d’un décalage Doppler périodique.

Un trou noir stellaire âgé de moins de 100 millions d’années
Tout comme dans le cas de la Voie lactée, c’est le Very Large Telescope de l’Observatoire européen austral (VLT de l’ESO) qui a rendu cette découverte possible en observant avec l’instrument Muse (Multi Unit Spectroscopic Explorer) NGC 1850, un amas ouvert de milliers d’étoiles situé à environ 160.000 années-lumière dans le Grand Nuage de Magellan, une galaxie voisine de la Voie lactée.

Rappelons que les amas ouverts existent aussi dans notre Galaxie. L’un des plus célèbres est celui des Pléiades (M45). Contrairement aux amas globulaires, comme Messier 9, qui sont âgés de plus de dix milliards d’années, ces amas contiennent de jeunes étoiles, de 100 à 1.000 environ. Elles sont nées dans de gigantesques nuages moléculaires situés dans le disque de notre Voie lactée. Mais, comme beaucoup de ces étoiles jeunes sont faiblement liées gravitationnellement, elles se dispersent rapidement, de sorte que la moitié des amas ont un âge inférieur à 200 millions d’années. Certains mettent plus de temps à se dissiper et on estime que moins de 1 % d’entre eux survivent pendant deux milliards d’années. Notre Soleil a très probablement des frères et des sœurs nés avec lui et qui sont maintenant dispersés dans la Galaxie.

« Muse nous a permis d’observer des zones très encombrées, comme les régions les plus internes des amas stellaires, en analysant la lumière de chaque étoile à proximité. Le résultat net est une information sur des milliers d’étoiles en une seule fois, au moins 10 fois plus qu’avec n’importe quel autre instrument », explique ainsi dans un communiqué de l’ESO l’astronome Sebastian Kamann. Lui et ses collègues ont d’abord repéré une étoile de 5 masses solaires dont le mouvement particulier semblait signaler la présence du trou noir stellaire. Cela a été confirmé par la combinaison des données de l’Optical Gravitational Lensing Experiment de l’université de Varsovie et du télescope spatial Hubble, combinaison qui a livré pour l’objet non lumineux responsable du mouvement de l’étoile une estimation de sa masse qui est de l’ordre de 11 masses solaires. Comme l’amas NGC 1850 est âgé de moins de 100 millions d’années, le trou noir détecté ne doit pas être plus vieux.

La méthode est prometteuse et devrait nous permettre de détecter et d’étudier des populations de trous noirs stellaires dans des galaxies et des amas globulaires proches, livrant bien des secrets sur la formation de ces populations dans les galaxies. Elle sera mise en pratique avec l’Extremely Large Telescope (ELT) de l’ESO au Chili.

Source : https://www.futura-sciences.com/sciences/actualites/trou-noir-methode-detection-exoplanetes-marche-aussi-trous-noirs-extragalactiques-86108/

Les ondes gravitationnelles éclairent l’énigme de l’accélération de l’expansion de l’Univers

La détermination exacte de la constante de Hubble-Lemaître liée à l’expansion de l’Univers observable et à la nature de l’énergie noire a toujours été problématique. L’essor de l’astronomie des ondes gravitationnelles devrait permettre d’y voir plus clair et les derniers résultats viennent de tomber à ce sujet avec des publications des collaborations Ligo et Virgo.

En 1917, Albert Einstein faisait d’une pierre deux coups en introduisant le premier modèle de cosmologie relativiste issu des équations de la relativité générale ainsi que sa fameuse constante cosmologique. L’année suivante, il publiait également un article fondateur sur une autre conséquence de ces équations, les ondes gravitationnelles (il avait déjà abordé le sujet en 1916). Ces trois découvertes d’Albert Einstein allaient rendre perplexes les chercheurs pendant des décennies. Le père de la théorie de la relativité se mettra, le premier, à douter tout à la fois de l’existence de ces ondes dans les années 1930 mais aussi de la pertinence en physique de la constante cosmologique.

Tout a bien changé depuis l’avènement d’une nouvelle astronomie, fort justement récompensé par le prix Nobel de physique 2017, celle des ondes gravitationnelles. Aujourd’hui, les membres des collaborations derrière les détecteurs Ligo et Virgo, ainsi que Kagra, viennent même de faire savoir que lors de la troisième campagne de détection de ces ondes s’étant tenue de novembre 2019 à mars 2020, 35 nouveaux événements ont été détectés portant à 90 le nombre de signaux d’ondes gravitationnelles observés à ce jour. Il s’agit principalement de collisions suivies de fusions entre deux trous noirs de masses stellaires faisant partie de systèmes binaires, mais aussi quelques collisions entre deux étoiles à neutrons et, plus rarement, entre un trou noir et une étoile à neutrons.

Rétrospectivement, on a donc un peu de peine à croire que dans les années 1950 encore, comme l’expliquent dans leur remarquable ouvrage Nathalie Deruelle et Jean-Pierre Lasota, la question de l’existence théorique des ondes gravitationnelles dans la théorie d’Einstein faisait encore débat avant d’être réglée sous plusieurs angles grâce aux travaux de la mathématicienne et physicienne française Yvonne Choquet-Bruhat et du physicien britannique Félix Pirani en tout premier lieu, et de Richard Feynman en second lieu (on tend généralement à ne retenir que la contribution de Feynman, à tort).

La question de la constante cosmologique reste encore largement ouverte. Il y a bien eu l’attribution d’un prix Nobel de physique en 2011 pour la découverte de l’accélération de l’expansion de l’Univers. L’existence de cette constante rend bien compte de cette accélération (on s’attendait à ce que la vitesse d’expansion soit toujours décroissante depuis le Big Bang alors qu’elle augmente depuis quelques milliards d’années), mais on ne comprend pas sa nature qui relève de différentes théories sur ce que l’on a appelé l’énergie noire. Or de sa détermination dépend très probablement celle du destin du cosmos observable. Il pourrait tout aussi bien continuer son expansion éternellement que, finalement, se contracter sur lui-même si l’énergie noire changeait de signe et de valeur dans un futur indéterminé, devenant attractive et non plus répulsive.

Pour tenter de le savoir, les cosmologistes cherchent à mesurer, de plus en plus précisément, la valeur dans le temps et l’espace de la vitesse d’expansion de l’univers observable, en espérant débusquer une loi de variation trahissant tout à la fois une constante cosmologique en réalité variable et enfin la loi et la physique gouvernant ses variations potentielles.

La problématique de l’échelle des distances cosmiques
L’entreprise n’est pas simple car il faut pouvoir mesurer des distances dans le cosmos et cela se fait en utilisant ce que l’on appelle l’échelle des distances en cosmologie (cosmic distance ladder, en anglais) qui consiste, en quelque sorte, à utiliser des astres pour mesurer des distances d’autres astres plus lointains, ce qui introduit des erreurs qui se propagent dans les mesures de distances et qui s’ajoutent en quelque sorte les unes aux autres. Cela commence par des mesures de parallaxes pour des étoiles dans la Voie lactée. Elles permettent de déterminer les distances des céphéides, des étoiles variables qui servent de chandelles standards pour définir les distances des galaxies proches qui servent alors à calibrer des chandelles standards beaucoup plus lumineuses, permettant de sonder le cosmos sur des milliards d’années-lumière, les supernovae SN Ia.

Précisions un peu de quoi il en retourne.

Pour mesurer des variations dans le temps de la vitesse d’expansion de l’Univers observable, il faut mesurer les distances et les décalages spectraux de certains objets pouvant être considérés comme des chandelles standards, ou peu s’en faut, c’est-à-dire des objets dont la luminosité absolue est connue et relativement constante. On a de bonnes raisons de penser que c’est le cas des SN Ia, ces supernovae qui sont des explosions liées à des naines blanches, puisqu’il s’agit d’objets compacts dont les masses devraient être de l’ordre de la fameuse masse de Chandrasekhar, ce qui limite l’énergie disponible pour le rayonnement émis, qu’il soit électromagnétique ou gravitationnel.

Si l’on utilise la métaphore du son pour décrire la propagation des ondes gravitationnelles dans le tissu de l’espace-temps, des collisions d’astres compacts, trous noirs ou/étoiles à neutrons devraient donc être des « sirènes standards », car on peut déduire l’amplitude des ondes gravitationnelles émises à partir de leurs caractéristiques observées. Le rapport entre l’amplitude émise et l’amplitude observée nous permet alors d’en déduire une distance, comme avec les SN Ia. Par analogie, plus une chandelle est loin, moins elle nous apparaît lumineuse ; plus une sirène est loin, moins elle nous semble puissante.

Or, on l’a dit avant l’avènement de l’astronomie gravitationnelle, les mesures de distance se faisaient et se font encore en s’appuyant sur une échelle de techniques qui commence par la mesure des parallaxes stellaires dans la Voie lactée et se poursuit avec les Céphéides extragalactiques jusqu’aux supernovae. Les erreurs propres à chaque technique s’accumulent et entachent d’incertitudes la mesure des distances dans l’Univers, desquelles on peut déterminer la vitesse d’expansion du cosmos observable.

Les ondes gravitationnelles et la constante de Hubble
Or, en 1986, un physicien relativiste états-unien réputé et désormais bien connu (notamment pour ses ouvrages sur la relativité générale), Bernard Schutz, s’est rendu compte que les ondes gravitationnelles permettaient de mesurer les distances en cosmologie avec plus de précision et notamment d’avoir des valeurs plus précises de la vitesse d’expansion du cosmos observable via la fameuse constante de Hubble-Lemaître.

Au lieu de mesurer les distances et le décalage spectral vers le rouge d’un grand nombre de supernovae SN Ia pour évaluer toujours plus précisément la constante de Hubble-Lemaître et donc la vitesse d’expansion de l’Univers observable, Schutz a montré qu’il pouvait être payant de détecter avec des instruments comme Ligo et Virgo les ondes gravitationnelles émises par au moins une dizaine de collisions d’astres compacts dans des systèmes binaires, à quelques centaines de millions de kilomètres de distance.

Selon lui, on pouvait alors évaluer cette constante à 3 %.

En effet, il se trouve que les changements de fréquence dans les ondes gravitationnelles émises par les deux astres compacts amorçant leur collision sont directement reliés à l’amplitude des ondes émises, et donc finalement à la luminosité sous forme gravitationnelle de la collision. Ainsi, connaissant la luminosité intrinsèque de ces binaires, on obtient directement une distance sans avoir besoin de passer par l’échelle précédente et donc en coupant court à la propagation des erreurs de mesure, d’où le gain de précision obtenu. Bien évidemment, comme pour les chandelles standards, moins l’amplitude des ondes détectées sur Terre est grande, moins le système binaire nous apparaît lumineux, ce qui nous donne bien une mesure de sa distance, connaissant sa luminosité intrinsèque.

Cette possibilité est d’autant plus importante que l’on sait que depuis quelques années il y a des discordances entre les mesures de la constante de Hubble-Lemaître faites en utilisant les SN IA et celles en utilisant le rayonnement fossile observé par la mission Planck.

Cela pourrait signaler une nouvelle physique mais l’une des méthodes utilisées pourrait aussi simplement souffrir d’un biais qui aurait échappé à la sagacité et à la rigueur des chercheurs des équipes engagées dans ces mesures.

Futura avait consacré un long article à ces questions lors de l’édito de Françoise Combes célébrant les 20 ans de Futura.

Source : https://www.futura-sciences.com/sciences/actualites/cosmologie-ondes-gravitationnelles-eclairent-enigme-acceleration-expansion-univers-94716/

Retour de Thomas Pesquet : Comment le corps de l’astronaute va-t-il se réadapter à la vie sur Terre ?

Après près de 200 jours en apesanteur dans la station spatiale internationale (ISS), les effets du retour sur terre sur le corps des astronautes sont nombreux

Thomas Pesquet est revenu sur Terre, avec trois autres astronautes, dans la nuit de lundi à ce mardi, à bord de la capsule Dragon de SpaceX.
L’astronaute de 43 ans a dirigé un séjour de six mois en orbite dans la Station spatiale internationale, une première pour un Français.
Mais après 199 jours en apesanteur, les effets du retour sur terre sur le corps des astronautes sont nombreux.

La fin d’un voyage et le début d’un périple physique. Accompagné du Japonais Akihiko Hoshide et des Américains Shane Kimbrough et Megan McArthur, le Français Thomas Pesquet a fait son grand retour sur Terre, dans la nuit de lundi à ce mardi, à bord de la capsule Dragon de SpaceX, qui a amerri au large des côtes de la Floride (Etats-Unis).

Les quatre héros de l’espace ont été extraits de la capsule sur des brancards, avant d’être ramenés en hélicoptère sur la terre ferme. Après de rapides tests médicaux, Thomas Pesquet a décollé des Etats-Unis pour rejoindre le Centre européen des astronautes à Cologne (Allemagne). Il y restera trois semaines, le temps d’effectuer une batterie de tests scientifiques, destinés à observer l’effet d’un séjour long en orbite sur le corps humain. Car après six mois en apesanteur, les effets du retour sur Terre sur les organes des astronautes sont nombreux. Petit passage en revue.

Pourquoi les astronautes ont-ils le « mal de terre » ?
A bord de la Station spatiale internationale (ISS), les astronautes restent en apesanteur. Pour le corps, c’est comme s’ils étaient « en position allongée 22 heures sur 24 », explique Guillemette Gauquelin-Koch, responsable des Sciences de la vie au Centre national d’études spatiales (Cnes). En revenant sur Terre, ils retrouvent la gravité terrestre, mais subissent des pertes d’équilibre avec malaises et vomissements. « C’est l’appareil vestibulaire, qui se trouve dans l’oreille interne, qui donne l’équilibre. Dans l’espace, cet organe ne fonctionne plus. Au retour sur Terre, le cerveau ne sait plus comment gérer l’équilibre », détaille Philippe Perrin, ancien astronaute, qui précise qu’il faut un ou deux jours pour que l’équilibre revienne complètement.

Ce n’est pas tout. En apesanteur, le sang reste massé dans la partie supérieure du corps humain. En revenant sur Terre, il retombe d’un coup dans la partie inférieure, provoquant une hypotension orthostatique, c’est-à-dire une baisse excessive de la pression artérielle. « Il faut que le cœur se remette au boulot, qu’il pompe et qu’il répartisse à nouveau le sang correctement, c’est pour ça qu’on les remet debout très progressivement », analyse Guillemette Gauquelin-Koch. Sans oublier qu’avec l’apesanteur, les muscles des pieds ne travaillent plus non plus. « Il y a plein de muscles dans les pieds qui font office de capteurs et qui jouent sur l’équilibre. Pour retrouver l’équilibre, il faut retrouver le contact de la voûte plantaire sur le sol », ajoute Philippe Perrin.

Pourquoi les astronautes sont-ils plus grands en revenant ?
En temps normal, la gravité terrestre attire nos corps vers le bas. Dans l’espace, c’est l’inverse. La pesanteur étant trop faible pour « tasser les corps » des astronautes, leur colonne vertébrale s’étire, augmentant de 4 ou 5 centimètres en moyenne. « Sur Terre, on gagne environ 1 centimètre par nuit, mais on les perd dans l’heure qui suit notre lever », explique Guillemette Gauquelin-Koch.

En revenant sur Terre, les spationautes retrouvent la pesanteur : « La colonne se retasse un peu pendant la descente vers la Terre, puis lorsque les astronautes se remettent debout, à cause du poids des disques vertébraux les uns sur les autres. Il faut être très vigilant pendant la remise de la colonne, il y a des risques de hernies discales », selon Philippe Perrin, qui précise que leur taille habituelle revient au bout de deux ou trois jours.

Pourquoi les astronautes semblent-ils plus minces au retour ?
Même si les astronautes font du sport deux ou trois heures par jour à bord de l’ISS, ils subissent une perte musculaire importante, due à « une inactivité physique extrême », note le Dr Gauquelin-Koch. « En apesanteur, on restitue un certain effort, mais ce n’est jamais comme sur Terre », indique Philippe Perrin.

Ajoutez à cela l’ostéoporose, c’est-à-dire la diminution de la densité de l’os et des modifications de sa micro-architecture. « Dans l’espace, il y a une décalcification des os. Cette perte de calcium revient au bout d’un an. Mais la micro-architecture osseuse, elle, ne revient jamais à la normale, cela peut provoquer des fractures par exemple », affirme Guillemette Gauquelin-Koch.

Les spationautes ont-ils la vue qui baisse ?
Si certains astronautes n’ont aucun problème à leur retour, d’autres ont évoqué une baisse de l’acuité visuelle, un phénomène qui peine à être expliqué par les scientifiques, selon la responsable des Sciences de la vie au Cnes : « L’apesanteur entraîne une nouvelle répartition du liquide céphalorachidien dans le cerveau, cette montée des liquides vers la tête peut exercer une pression sur l’arrière du globe oculaire. » Un effet malheureusement « irréversible », ajoute la spécialiste.

En combien de temps retrouvent-ils la forme physique ?
Fonctionnement du cœur, équilibre, vue, musculation… Au retour de l’espace, le corps est mis à rude épreuve. « Tout est perturbé, il n’y a pas un seul organe qui n’est pas touché », décrypte Philippe Perrin. Et pour cause, les scientifiques estiment qu’un voyage de six mois en apesanteur représente l’équivalent de dix ans pour certains organes. « On estime qu’il faut 3 semaines voire un mois pour retrouver son état physique normal, cela dépend de chaque astronaute. Mais plus le voyage est long, plus cela prend du temps. » Selon lui, Thomas Pesquet, « qui a une forme physique extraordinaire », devrait vite être remis sur pied.

Source : https://www.20minutes.fr/sciences/3168451-20211109-comment-corps-thomas-pesquet-va-readapter-vie-terre

35 nouvelles ondes gravitationnelles détectées par les astronomes : une prise record !

Les ondes gravitationnelles sont la marque laissée dans l’espace-temps d’événements cosmiques extrêmes. Des astronomes viennent d’ajouter pas moins de 35 détections de nouvelles ondes gravitationnelles à un catalogue qui en compte désormais 90. De quoi, peut-être, enfin percer les secrets d’objets aussi étranges et fascinants que les trous noirs et les étoiles à neutrons.

Lorsque des trous noirs ou des étoiles à neutrons entrent en collision, l’impact fait comme trembler jusqu’à l’espace-temps. Un peu comme lorsque l’on jette un gros caillou dans une flaque d’eau. Il se forme une onde. Une onde gravitationnelle. Un phénomène détecté pour la première fois il y a quelque cinq années maintenant. Et aujourd’hui, une équipe annonce avoir observé pas moins de 35 nouvelles de ces ondes gravitationnelles. Un record portant le nombre total des détections à 90 !

Les astronomes de l’OzGrav (ARC Centre of Excellence for Gravitational Wave Discovery) rapportent que les observations ont eu lieu entre novembre 2019 et mars 2020. Parmi ces ondes gravitationnelles, quelques-unes se font remarquer. GW191219_163120, par exemple, résulte de la collision entre un trou noir et l’une des étoiles à neutrons les moins massives jamais découverte. GW191204_171526 marque la fusion de deux trous noirs dont un tourne à la verticale. GW191129_134029, de son côté, est née de la rencontre de deux trous noirs dont la masse totale ne dépasse pas 18 fois celle de notre Soleil. Alors que GW200220_061928 s’est formée à partir de trous noirs d’une masse supérieure à 145 fois celle de notre Étoile.

Au total, les chercheurs ont dénombré 32 ondes gravitationnelles créées par des collisions de trous noirs et deux issues de collisions entre un trou noir et une étoile à neutrons. La dernière des 35 nouvelles observées reste encore un mystère. L’objet le plus léger de la collision qui lui a donné naissance, en effet, semble trop lourd pour être une étoile à neutrons, mais trop léger pour être un trou noir.

Percer les secrets des paires de trous noirs et d’étoiles à neutrons
« Un tel éventail de propriétés, c’est fascinant, remarque Isobel Romero-Shaw, chercheur à l’université Monash (Australie), dans un communiqué d’OzGrav. Des propriétés telles que les masses et les rotations de ces paires peuvent nous dire comment elles se forment — si les objets ont d’abord évolué séparément ou s’ils sont issus de paires d’étoiles, par exemple. La diversité de nos observations soulève des questions intéressantes sur l’origine de ces paires de trous noirs et d’étoiles à neutrons ».

D’autant que la multiplication des détections permet aux scientifiques non seulement d’examiner les propriétés individuelles des paires observées, mais aussi d’envisager maintenant d’étudier ces événements cosmiques en tant que population. De quoi commencer à comprendre les tendances et propriétés globales de ces objets extrêmes. Les chercheurs ont ainsi déjà analysé les distributions de masse et les caractéristiques de rotation pour tenter de les lier aux lieux de formation de ces paires d’objets extrêmes. « Il y a des caractéristiques que nous voyons dans ces distributions que nous ne pouvons pas encore expliquer, ouvrant des questions de recherche passionnantes à explorer à l’avenir », confie Shanika Galaudage, chercheur également à l’université Monach.

Les astronomes rappellent que rien de tout cela ne serait possible sans une coopération internationale de haut niveau et la mobilisation des observatoires Ligo (États-Unis), Virgo (Italie) et Kagra (Japon). Sans une amélioration continue des détecteurs aussi qui permet, au fil des mois, d’augmenter la sensibilité des instruments. Avec l’espoir, un jour, de capter les ondes gravitationnelles créées par des étoiles explosant en supernova. Une quatrième session d’observation devrait être lancée en août 2022. En attendant, les chercheurs continueront à travailler sur les données déjà recueillies avec pour objectif, entre autres, de peut-être découvrir de nouveaux types d’ondes gravitationnelles.

Source : https://www.futura-sciences.com/sciences/actualites/ondes-gravitationnelles-35-nouvelles-ondes-gravitationnelles-detectees-astronomes-prise-record-94730/