Arche interstellaire

Gilgamesh, 14 février 2007 in Philosophie

Autres langues :

Le thème du trajet vers les étoiles, de système planétaire à système planétaire, nous est à la fois tout à fait familier et totalement étranger. Familièrement, nous avons certainement tous en tête des histoires de science-fiction ayant pour cadre une galaxie (éventuellement lointaine, très lointaine…), dans laquelle les planètes jouent le rôle de nations ou de provinces d’empire. Les protagonistes se déplacent de l’une à l’autre dans des durées compatibles avec la tenue de la narration. Le trajet parait une formalité que les prochaines avancées d’une Physique Triomphante mettront à portée de main.

C’est ce que nous nommerons la stratégie “zéro” (S0) : on entend par là que le temps de trajet est “instantané”, à tout le moins inférieur à la durée d’une année terrestre, c’est à dire comparable aux trajets que nous effectuons à la surface de la Terre, aux trajets des missions lunaires et à ceux envisagés vers d’autres corps du système solaire, s’il s’agit de missions habitées.

Le trajet vers les étoiles nous devient par contre très étrange si nos envisageons qu’une telle avancée de la Physique pourrait bien ne pas avoir lieu, que la célèbre constante d’Einstein c, la vitesse de la lumière (3E8 m/s), représente un horizon de vitesse indépassable et même excessivement difficile à approcher, de sorte que l’espace deviendrait à nos yeux ce qu’il est déjà pour l’astronome : une immensité comparée à laquelle celle des océans terrestres n’est rien.

Ce n’est pas sans réticence que l’esprit s’approprie les dimensions réelles des espaces interstellaires. Et la déraison de ces distances n’est pas seule en cause. D’une certaine façon, on pourrait dire que la stratégie zéro s’enracine dans un désir enfantin d’espace. Non pas l’espace-distance, cet horrible espace nu, muet, impavide, mais l’espace-trésor et les mondes qui roulent au sein de son immensité. Tous ces mondes dont l’atteinte ne saurait souffrir aucun retard et à la découverte desquels s’active notre imaginaire.

Réalisme aidant et quittant avec un certain regret le vert paradis de stratégie zéro, nous pouvons toutefois envisager dans le cadre de la Relativité Restreinte une stratégie plus “adolescente” - si la première est enfantine - que nous nommerons stratégie courte ou SI, qui promet le trajet en une vie d’homme.

Stratégie courte : la fusée relativiste

Dans la SI, qui est spécifiquement relativiste, on tire parti du ralentissement du temps propre (\tau) du voyageur lorsque la vitesse approche c. Si t est le temps pour l’observateur au repos,

\gamma représente le facteur de Lorentz,

Quand v/c approche 1, \gamma tend vers l’infini et \tau tends vers 0. Autrement dit, en approchant le vitesse de la lumière, le temps du voyageur s’écoule de plus en plus lentement et une année-lumière peut être parcourue en moins d’une année de temps propre du voyageur. C’est le principe de la fusée relativiste. La seule limite au plan purement théorique dans ce cas est l’accélération qui doit rester dans des limites physiologiquement acceptables (soit 1 g, 9,81 m/s²).1

Le tableau ci-dessous donne quelques idées des temps et distances accessibles en fonction du ratio v/c atteint, avec une accélération de 1 g constante (condition extrêmement exigeante comme nous le verrons) :

al = années-lumière (1 al ~ 10 000 milliards de km)
1 g = accélération de 9,8 m/s par seconde, mesurée dans le référentiel du voyageur
\tau et t en années, d en années lumière, v/c et \gamma sans dimension

Ainsi, en la modeste durée de 12 années de temps propre (et 113 243 années du temps de l’observateur au repos), ce qui est long mais supportable dans un vaisseau confortable, on pourrait parcourir la Galaxie entière, dont le diamètre est de 100 000 années-lumière. Mais ceci à condition d’approcher incroyablement près de la vitesse de la lumière. Il faut ensuite considérer que si l’on veut arriver à vitesse nulle à destination, il faut inverser le sens de la poussée à mi-trajet pour ralentir ; le trajet est sensiblement deux fois plus long, ce qui reste raisonnable. Finalement le temps de trajet (temps propre du voyageur) pour arriver à vitesse nulle sur un objectif situé à d années lumière, en accélérant et décélerant au taux constant de 1g dans son référentiel est :

\tau = 1,94 arccosh(d/1,94 + 1) années

Pour d = 100 000 al (largeur de la Galaxie), \tau = 22,4 ans. Ainsi, sous l’angle de la durée, la SI permet l’atteinte d’objectifs aussi lointains que l’on veut en des durées qui n’excèdent pas une vie humaine. C’est sur la base de ce critère encadrant la durée de voyage que nous définirons cette stratégie : durée d’un trajet terrestre (1 an) < \tau < durée d'une vie humaine (moins de 100 ans).

Aspect énergétique

La difficulté à laquelle on est confronté pour la SI est énergétique. Tout se passe comme si on payait d’un côté (l’énergie) ce qu’on ne dépensait pas de l’autre (le temps). Considérons le cas le plus favorable. La propulsion est d’autant plus efficace qu’on éjecte derrière soi le projectile le plus léger possible à la vitesse la plus élevée possible. L’optimum absolu est donc atteint quand tout le carburant est converti en photons (masse nulle) bien collimatés derrière l’engin. La seule réaction permettant 100% de conversion du carburant en photons est la réaction matière-antimatière, photons qu’il faudrait ensuite concentrer en un faisceau de laser gamma (“graser”) dans l’idéal. Ni le carburant d’antimatière, ni sa combustion, ni la production d’un laser gamma ne sont actuellement à notre portée, mais ceci nous donne le maximum envisageable. Le ratio de la masse totale de carburant (matière + antimatière) M0 sur la masse de la structure M est dans ce cas :

avec a = 9,8 m.s-2 = 1,02 al.an-2
c = 3e8 m.s-1 = 1 al.an-1
\tau en années

Pour atteindre l’autre bout de la Galaxie (\tau = 22,4 ans) il faudrait embarquer 10 millions de tonnes de carburant pour chaque kilogramme de structure. Il s’agit là d’un minimum théorique absolu, basé sur un rendement de propulsion de 1 (et il ne peut l’être, la réaction produisant de neutrinos qui emportent une partie de l’impulsion en toutes directions) et qui ne prend pas en compte le coût énergétique de production d’antimatière. L’antimatière doit en effet être produite dans des faisceaux de particules qu’il faut accélérer par des moyens classiques. Pour des raisons fondamentales (conservation du nombre baryonique) le taux théorique maximal de conversion est de 1/2. Et en pratique il est beaucoup plus bas, de l’ordre de 4E-8 (soit la production d’une antiproton pour 400 millions de collisions) dans les accélérateurs actuels. On peut raisonnablement espérer gagner 3 voir 4 ordres de grandeurs en termes de rendement mais on n’entrevoit rien de plus au-delà de cet horizon technologique.

La SI qui est réaliste sur le plan temporel cesse rapidement de l’être au plan énergétique. Bien entendu, lorsqu’on envisagera la stratégie alternative dite longue (SII), il faudra garder à l’esprit que SI-SII forment en fait un continuum, et que ce qui est recherché c’est le point optimum entre ces deux stratégies. Notamment, on a examiné ci-dessus un cas limite que personne n’envisage d’atteindre, celui nécessitant une accélération constante de 1g tout au long du trajet, condition extrêmement dispendieuse en terme de carburant.

Si l’on se place dans le cas plus général où on s’accorde un temps de vol libre (sans accélération), avant de décélérer, et sans se placer forcément dans le cas optimal d’une éjection de photons, le ratio des masses de départ M0 (structure + carburant) sur masse d’arrivée M (structure seule) se calcule comme :

\frac{M_0}{M}= \left[\frac{1+\frac{v}{c}}{1-\frac{v}{c}}\right]^{\Large{{\frac{c}{v_e}}}

avec c la vitesse de la lumière
v la vitesse de vol libre qui est aussi la vitesse maximale
ve la vitesse d’éjection du carburant (ve < c)
La traduction de cet optimum devrait se manifester concrètement sous la forme d'un minimum énergétique permettant d'atteindre une cible stellaire potentielle ; ce minimum se raisonne en fonction de l'état d'avancement technologique et politique de l'humanité et il y a bien entendu une interaction possible entre le but et les acteurs. On peut supposer raisonnable que l'intérêt que manifeste l'espèce humaine pour son environnement galactique se traduira par un passage à l'acte dès qu'elle pensera pouvoir franchir la barrière énergétique en un point quelconque, au premier "col" qu'elle trouvera à sa portée au sein de cette barrière. Et ce, même si le temps de trajet à accomplir est fixé très grand. Car, contrairement à la barrière énergétique, qui ne connait pas de maximum, la barrière temporelle forme une sorte de plateau, dépassé une durée canonique que l'on peut fixer égale au siècle. Si un homme est capable d'envisager sans regret vivre sa vie entière dans la structure qui le transporte vers les étoiles, y engendrer et y mourir, alors le temps ne forme plus un obstacle et il ne reste que la contrainte de l'énergie nécessaire à la construction, la propulsion et l'entretien de la structure. C'est sur ce plateau temporel, permettant d'abaisser la barrière énergétique sur la base d'un temps de trajet multiséculaire que s'édifie la stratégie longue.

La rareté des systèmes planétaires

Un autre aspect que l’énergie doit également être pris en compte, qui relève non pas du pur domaine de l’astronautique (fusée, moteur…) mais du champs de l’astrophysique et de l’exobiologie. Il concerne la planète-cible ou plutôt le système stellaire cible, tout entier, incluant les petits corps gris (astéroïdes, comètes).

On ne peut accélérer que de petites structures à des vitesses relativistes, vu les ratios M0/M que réclame l’atteinte de telles vitesses. Petites structures qui devraient néanmoins abriter le minimum d’humains permettant d’assurer une diversité génétique suffisante, soit au moins 1000 personnes.

Il est possible de diminuer les exigences de structure dans le cas relativiste en faisant hiberner une fraction appréciable des partants.

Mais c’est avec l’exigence forte que la planète soit imédiatemment habitable “tête nue”, c’est à dire sans terraformation.

Sur au moins quelques centaines de km² contigus, il faudrait s’assurer de disposer des conditions d’existence minimales suivantes :
- Gravité : 0,5 - 2 g
- Dose annuelle de rayonnement : < 100 milliSievert
- Pression atmosphérique : 0,5 et 5 atm
- Pression partielle d'O2 : 0,1 - 0,5 atm
- Température : -50 et +50°C
- Présence d’eau en surface ou sub-surface
- Absence de gaz toxiques

Pour atteindre les “standards” de la Terre, il faudrait ajouter :
- systèmes climatiques diversifiés basés sur le cycle de l’eau
- océans d’eau liquide
- spectre stellaire à ~6000K
- écosystème accueillant
Or par ailleurs, envisager un stratégie courte pour rejoindre un corps très éloigné implique d’atteindre une cible qu’on ne connait qu’à distance. Car s’il s’agit d’envoyer des sondes automatiques pour explorer préalablement le système, il faut qu’elles-même se déplacent à des vitesses relativistes tandis que les futurs voyageurs se trouvent au repos, attendant que l’information leur revienne par émission radio. Dès lors que la cible se situe au-delà de quelques siècles-lumière, le temps d’attente (un millénaire pour une cible situé à 500 al) excède ce qu’il est possible d’atteindre sans attendre, en stratégie longue en choisissant un système plus proche, même s’il est moins viable, nous verrons pourquoi.

Concernant la fréquence des planètes habitables “tête nue” dans les systèmes stellaires, les prochaines décenies devraient nous en dire beaucoup, et c’est avec beaucoup d’impatience que nous l’attendons. Mais il ne me semble pas présomptueux de prédire que cette fréquence sera faible si l’on considère les exigences énumérées ci-dessus. Par conséquent qu’il y ait fort peu de chances d’en trouver une à proximité, disons à moins de 20 années-lumière.
Le nombre N d’étoiles situées à une distance R du Soleil est :

N = bR3
avec :
b ~ 0,017 étoile.al-3 pour R<250 al
R en années-lumière

Le type spectral de l'étoile (c'est à dire sa température de surface) ne doit pas être trop éloigné de celui du Soleil (G2), ce qui restreint les cibles potentielles aux types F, G ou K, qui représentent environ 20% des étoiles environnantes. Ajoutons à cela que la moitié des étoiles appartiennent à un système multiple ce qui ne constitue pas a priori un cas favorable pour l'établissement d'orbites planétaires stables même si ce n'est pas forcément rédhibitoire.

Fixons à 10% les systèmes FGK tolérant la présence d'une planète tellurique en orbite stable et à bonne distance de l'étoile.

Nhab = 0,1 N

Cela nous donne une série de valeurs illustratives de N et de Nhab pour des distances au Soleil croissantes :

5dbbc009e8d0e5a9cb26c831a4495cd9.gif

On voit par exemple que si moins de 1% des systèmes stellaires comprennent un corps planétaire de morphologie terrestre, il y a peu de chance d’en trouver un à moins de 40 al.

Et quoique l’astrophysique observationnelle fasse des progrès exponentiels, à quelle échéance peut-on s’attendre à ce que l’observation purement radioélectrique d’un système lointain, situé à des centaines, des milliers ou des dizaines de milliers d’années-lumière nous livre une information si totalement satisfaisante qu’elle autorise à prédire la possibilité de le coloniser “dès l’aterrissage” ? Notamment en ce qui concerne la nature de l’écosystème. Il y a sans doute peu à craindre du très gros (bêtes féroces…) ou du nano (virus, nécessitant un compatibilité des systèmes génétiques). Mais les mico-organismes de types bactériens ou fongiques ne nécessitent pour se développer que d’un substrat organique. En soi le risque reste raisonnable, mais il donne à voir sur le risque global encouru. Tout peut arriver, et tout sera envisagé par les partants de façon bien plus accrue que ne le peut cette réflexion. Une colonie réduite au minimum dans un vaisseau lui-même minimal est livrée pieds et poings liés au moindre imprévu, sans espoir d’aucun secours terrestre, même moral. Or peut-on imaginer plus fertile en imprévus que ce premier trajet hors du système solaire ? Que se passerait-il si les 20 ans prévus se traduisaient par 200 ans de vie confinée ?

De ces éléments, on peut conclure que l’humanité ne peut s’aventurer raisonnablement dans les espaces immenses qui l’entourent qu’en étant rigoureusement autonome et détachée de tout calendrier, sauf en ce qui concerne l’énergie.

La stratégie longue vise cette autonomie. L’énergie que représente la propulsion à ‘faible’ vitesse (0,015 c) et l’entretien d’une grande structure assimilable à un corps micro-planétaire autonome gigatonnique sur une durée proche du millénaire est comparable à celle nécessaire à la propulsion d’un corps dix mille fois moins massif en ordre de grandeur mais propulsé à une vitesse relativiste (0,9 c), ce qui suppose dans ce dernier cas une éjection de grande masse de carburant à une vitesse très proche de c (disons 0,99 c), ce qui nous situe aux frontières de l’horizon technologique. La stratégie longue constitue matériellement la plus “classique” des solutions. Donc a priori la moins exigeante au plan technologique. S0 se base sur des avancées théoriques, plus encore que technologiques, situées hors de l’horizon, si seulement ces solutions existent. Elle ne peut être ni évaluée, ni discutée. SI se base sur une physique relativiste bien établie, mais dont la mise en pratique réclame des sources d’énergie dont on ne dispose pas, si l’on vise un objectif très lointain en une vie d’homme. Technologiquement elle nécessite l’atteinte de vitesse d’éjection à la limite de l’horizon technologique. Elle implique de toute les façon une structure de petite taille ne permettant pas une autonomie de long terme. SII est à la fois sécurisante et située dans l’horizon du possible, même si cet horizon n’est pas de ce siècle.

Stratégie longue : l’Arche

La propulsion la plus efficace située à l’intérieur de notre horizon technologique est la fusion nucléaire. Le principe est de confiner des noyaux légers à très haute température pour les faire fusionner et produire un plasma très chaud ainsi que de l’énergie électrique permettant l’éjection du plasma dans une tuyère magnétique.

Les vitesses d’éjection que ce principe de propulsion permet d’envisager atteignent 20 000 km/s. Pour être utilisable comme source d’énergie, une réaction de fusion doit satisfaire plusieurs critères. Elle doit :

  • être exothermique ce qui limite les réactifs à la partie de la courbe des énergies de liaison correspondant aux noyaux légers, comportant peu de protons et fait de l’hélium-4 (plus rarement le deutérium et le tritium) le produit de réaction phare en raison de son énergie de liaison extrêmement forte,
  • impliquer des noyaux comportant peu de protons du fait de la nécessité de vaincre la répulsion coulombienne afin que les noyaux puissent se rapprocher suffisamment pour fusionner,
  • avoir au plus deux réactifs : à toutes les densités inférieures à celles des étoiles, la réalisation de trois collisions simultanées est par trop improbable. Il est à noter qu’en confinement inertiel, on dépasse à la fois les densités et les températures stellaires, ce qui permet de compenser la faiblesse du troisième paramètre du critère de Lawson, la très brève durée de confinement,
  • avoir au moins deux produits de réactions ce qui permet la conservation simultanée de l’énergie et de l’impulsion.
  • conserver à la fois les protons et les neutrons. Les sections efficaces pour l’interaction faible étant trop petites, la réaction p + p -> D, celle qui pourtant a lieu au sein de Soleil et nous dispense son flot d’énergie, est inutilisable. La demi-vie du proton (le temps que met en moyenne un proton à réagir avec un semblable pour former du deutérium, amorçant les chaines de réactions qui méneront à l’hélium-4) dans les conditions de température et de densités pourtant extrêmes du coeur de l’étoile (densité 150 g/cm3, température 13 millions de K) est de 10 milliards d’années. Ceci car la réaction nécessite une décroissance bêta, c’est à dire la conversion spontanée d’un des deux protons réactionnels en neutron (phénomène purement “faible”), et ce, au moment même de l’interaction p-p, pour se produire.

Les noyaux (ou isotopes) disponibles pour les réactions utiles sont :

(01) 1H ou p, l’hydrogène léger ou proton, le plus courant,
(02) 2H ou D, l’hydrogène lourd ou deutérium, présent en petite quantité (0,0015% dans l’eau terrestre soit 15 ppm), et à des taux peut être 10 fois plus élevés dans certains petits corps du système solaire, sous forme d’eau lourde HDO essentiellement),
(03) 3H ou T, le tritium, instable de période 12,3 ans, donc absent dans les matériaux naturels,
(04) 3He, He3, l’hélium-3 présent à l’état de trace dans le sol lunaire et dans l’atmosphère des planètes géantes,
(05) 6Li, Li6, le lithium-6,
(06) 7Li, Li7, le lithium-7,
(07) 11B, B11, le bore-11,
ces trois derniers éléments étant présent à l’état de trace (6-7 ppm estimé) dans les petits corps du systèmes solaires.

Les réactions de fusion intéressant ces isotopes sont :

n représente le neutron (en gras quand il peut surgénérer du deutérium).
1 MeV : 1 million d’électron-volt (eV). 1 eV = 1,602E-19 Joules

reactions.jpg

On y distingue deux genres de réactions :
- celles qui produisent des neutrons et du rayonnement gamma : (02), (04), (06), (07), (09). La réaction (12) produit un neutron mais doit être mise à part car endothermique. Toutefois le couplage des deux voies du Li-7 (11) + (12) reste exothermique (bilan : +2,2 MeV) et au total cette voie réactionnelle pourrait rester intéressante.
- celles qui ne produisent que des noyaux chargés : protons, deutons, particules alpha (4He) : (01), (03), (05), (08), (09), (10) (11), (13), (14), (15)

Les réactions du premier genre peuvent sembler désavantageuses en première approche car neutrons et photons gamma sont insensibles aux champs électromagnétiques et ne peuvent donc être éjectés par une tuyère : leur contribution à la propulsion est nulle alors qu’ils emportent la majeure partie de l’impulsion. En outre ils sont très agressifs et “activent” les structures métalliques. Par contre les noyaux réactifs sont relativement abondants : ces réactions impliquent le deutérium en (3). Les réactions du second genre sont idéales sur le plan propulsif mais le tritium n’existe pas à l’état naturel et hélium-3, lithium-6-7 et bore-11 sont beaucoup plus rares que le deutérium dans les petits corps du système solaire. Or les masses de carburants exigées sont considérables, près de 21 Gt (gigatonne, 1 Gt = 1 milliard de tonnes) dans l’hypothèse envisagée ci-après.

Une possibilité offerte est d’utiliser le neutron produit pour surgénérer du deutérium dans une couche fertile d’hydrogène 1H.

La réaction D-D possède deux voies équiprobables, (2) et (3). Dans la première, pn+pn produit pnn+p (un noyau de tritium et un proton), dans la seconde ppn + n (un noyau d’hélium-3 et un neutron). Le tritium produit est ensuite susceptible de réagir en (5) pnn+pnn -> ppnn + 2n (un noyau d’hélium-4 et 2 neutrons). Les deux neutrons produits par ce second étage de réaction peuvent à leur tour surgénérer du deutérium en réagissant avec la couche fertile d’hydrogène léger.

La grande difficulté technique consiste – entre autre - à ne pas “gaspiller” d’impulsion en passant du premier étage réactionnel (D-D) au second (T-T, voir He3-He3). La vitesse d’éjection constitue le paramètre clé de l’efficacité du moteur et elle est permise essentiellement par la température élevée des produits de réaction. Un proton à 20 000 km/s possède une énergie cinétique de 4 MeV environ, ce qui représente bien l’ordre de grandeur des réactions détaillées ci-dessus. La seconde réaction de fusion doit donc se produire au sein même du jet de plasma. Quelle qu’en soit la difficulté, une surgénération complète (au taux de 1:1), voire très légèrement excédentaire, représente un facteur absolument crucial pour juger de la faisabilité de l’entreprise. Les isotopes fusibles ne sont présents qu’à l’état de traces dans les petits corps. Une surgénération complète ne nécessite d’embarquer que de petites quantités initiales dès lors que chaque gramme qui fusionne surgénère un gramme dans la couche fertile. Si la surgénération n’est que partielle, il faut avant le départ distiller d’énormes masses d’hydrogène afin d’embarquer un carburant déjà fortement enrichi en deutérium ou autres noyaux fusibles. Les masses mobilisables pour fournir le carburant varient de 1 à 5000 entre les deux.

Un autre concept pouvant être intéressant considérant la surface considérable de moteur à manufacturer est celui de fusée de glace (ice rocket) :2 l’hydrogène et le deuterium congelés servent à la fois de réacteur, de tuyère de combustible et d’écran contre les produits de réaction.

Choix de la cible : des petits corps avant toutes choses

Paradoxalement, le fait de voyager dans un vaisseau-monde permet d’être beaucoup moins sélectif sur le choix de la cible stellaire et d’avoir plus de chance d’en trouver une à courte distance, à l’échelle astronomique. Il n’est pas en effet nécessaire de disposer d’une planète habitable “tête nue”, mais simplement d’un système comprenant une étoile d’un type spectral peu éloigné du type solaire (K, G ou F) et de petits corps en abondance. Bien entendu la présence d’une planète offrant une surface “praticable”, de type martien par exemple serait un plus très appréciable.

Parmi les systèmes proches, Epsilon Eridani (le système gravitant autours de l’étoile cotée epsilon dans la constellation de l’Eridan) est peut être le plus intéressant. Il a d’ailleurs fait l’objet de recherches avec le radiotélescope de Green Bank en 1960, pour y rechercher des signes de vie intelligente, avec des résultats négatifs bien entendu.

Le système est un des voisins proches du Soleil, ce qui constitue sa première condition d’élection. Il est situé à 10,5 années-lumière (3,2 parsec) seulement. Ironiquement, Eridan est le nom du fleuve dans lequel tomba Phaéton après sa désastreuse course trop près du Soleil. Souhaitons d’y tomber en nous en éloignant ! L’étoile de couleur orangée est d’un type assez proche du type solaire (0,82 masse solaire, type spectral K2 V).

Type spectral des étoiles les plus proches sur Soleil. La ligne pointillée indique le type spectral solaire (G2). Epsilon Eridani offre un bon compromis distance - qualité spectrale.
Cliquer l’image pour agrandir

Le satellite d’observation infra rouge IRAS a détecté beaucoup de poussières autour de l’étoile, une indication possible d’un système planétaire en formation. Il est donc très probable que le système regorge de petits corps. En août 2000, une planète de la taille de Jupiter a été détectée à une distance de 3,2 UA (480 millions km) de l’étoile, sur une orbite présentant une forte excentricité (e=0,702) qui la fait rentrer à l’intérieur de l’écosphère sur un peu plus de 10% de la période orbitale, qui est assez courte (2502 j).

Le système Epsilon Eridani, montrant sa planète jovienne et le disque de poussière.
Cliquer l’image pour agrandir

Si cette planète possède des satellites géants, comme Jupiter ou Saturne, ceux-ci pourraient constituer une “villégiature semi-habitable” pour les archonautes.3

Epsilon Eridani, vue d'artiste (© Fahad Sulehria) Epsilon Eridani et sa planète, vue d'artiste
Cliquer l’image pour agrandir

Énergie et durée du trajet : l’équation de Tsiolkovski

L’atteinte d’Epsilon Eridani servira de cas d’école à l’évaluation de la SII. On considère une vitesse d’éjection moyenne efficace de 15 000 km/s. L’équation fondamentale de Tsiolkovski dans sa version non relativiste (v/c<<1) nous donne le ratio de la masse de départ à la masse de structure nécessaire pour l'atteinte d'une vitesse v quand la vitesse d'éjection est ve :

\frac{M_0}{M}= e^{\Large{\frac{v}{v_e}}}

avec :
M0 : masse totale de départ.
M : masse “sèche” (sans carburant : structure et moteurs)
M0 = M + Mc, avec Mc la masse du carburant.
ve : vitesse d’éjection du carburant
v : vitesse atteinte en fin d’accélération

Après la phase d’accélération, on a une fraction de vol libre à vitesse constante, puis il faut décélérer pour arriver à vitesse nulle à destination. Cela implique un surcroit de carburant puisque qu’il faut accélérer dans un premier temps une masse de carburant qui ne sera consommé qu’au freinage, ce qui se traduit par la mise au carré de l’exponentiel :

\frac{M_0}{M}= e^{\Large{\frac{2v}{v_e}}}

La quantité de carburant détermine la vitesse finale et par là, la durée du trajet.

On note :
Da : les distances d’accélération et de freinage (cumulées)
Dl : la distance de vol libre

On définit k, le ratio masse carburant/masse totale :

On pose :

On a Ta, les durées d’accélération et de freinage (cumulées) :

Tl, la durée de vol libre :

On souhaite la durée d’accélération et de freinage la plus courte possible afin que l’essentiel du trajet se passe à la vitesse maximale. Mais par ailleurs une accélération intense implique une forte poussée ce qui implique des moteurs plus massifs et une structure renforcée pour résister à cette poussée sans se déformer.

Une technologie étant donnée, fixant la vitesse d’éjection du carburant (ve = 15 000 km/s) il reste deux paramètres libres pour le calcul de la durée du trajet (t), de l’accélération moyenne (a) et de la poussée (f) : la masse de carburant Mc et la distance d’accélération Da (on suppose que l’accélération et le freinage sont en tout point symétriques). Dans le graphique ci-dessous, on a représenté la variation des trois grandeurs de sortie (t, a, f ) en fonction des deux valeurs d’entrée (Mc et Da).

Variation de la durée de trajet, accélération moyenne et poussée en fonction de la masse de carburant et la distance d'accélération
Cliquer l’image pour agrandir

Nous ne pouvons pas encore réaliser de choix raisonné des valeurs d’entrées. On sait simplement que dans la mesure du possible il faut maximiser Mc et minimiser Da. Mc est constitué de substance fusible, un matériau rare (sans doute du deutérium pour l’essentiel). De tous les paramètres qui conditionnent la faisabilité matérielle d’une arche “gigatonnique”, la masse de carburant à extraire des petits corps est sans doute celui qui pose les problèmes les plus aigus. L’illustration ci-dessous représente une solution alternative, la voile photonique, permettant d’alléger la structure.4Propulsée par un laser posté de très grande puissance, par exemple depuis la Lune, l’Arche n’embarque que le carburant de freinage. Même avec l’immense surface représentée, l’insolation de la voile atteint plus de 1000 fois la constante solaire en orbite terrestre (1400 W/m²) : la surface doit être parfaitement réflechissante pour ne pas être évaporée par la puissance reçue. Et l’Arche dépend alors d’une source externe qu’elle ne contrôle pas.
Arche - Voile

Cliquer l’image pour agrandir

Pour la suite du propos, on retiendra la solution d’une accélération intégralement autonome et on prendra à simple titre illustratif le ratio M0/M nécessaire pour l’atteinte de 1,5% de c, soit 4500 km/s ce qui nécessite une masse totale de départ de 46 Gt (25 de structure + 21 de carburant). Pour une distance d’accélération + freinage cumulée de 0,5 al, on obtient un temps d’accélération de 67 ans (34 ans pour l’accélération et autant pour le freinage), une durée de vol libre de 667 ans, soit une durée totale de trajet de 734 ans, pour parcourir les 10,5 al nous séparant de Epsilon Eridani.

La structure de l’Arche, sa philosophie dans les grandes lignes

La stratégie longue se base sur l’édification d’une structure, l’Arche, au sein de laquelle une petite population, la Nation spatiale, pourrait vivre une existence indépendante. Cette structure doit permettre une vie à la fois totalement libre (vis-à-vis de la Terre), considèrant le plan de la nation entière et suffisament diversifiée sur tous les plans d’interaction sous lesquels nous envisageons l’existence, notion qui intéresse cette fois l’individu.

Lorsque l’on veut se représenter physiquement à quoi pourrait ressembler l’Arche trois contraintes préliminaires s’avèrent assez fortes pour en définir l’architecture générale.

a) La gravité artificielle
L’Arche doit permettre une vie normale, selon les standards terrestres et la première exigence concerne la gravité. L’accélération de la pesanteur résulte de la masse énorme de la Terre (5,97E24 kg) et il est évidemment hors de question de la recréer de cette manière. La seule solution alternative est d’accélérer circulairement une surface cylindrique à l’intérieur de laquelle prennent place les habitants. L’accélération ainsi crée g se calcule comme :

g = \omega^2R

avec :
g l’accélération de la pesanteur en m.s-2
\omega la vitesse angulaire de rotation en rad.-1
R le rayon du cylindre en m

L’accélération g est fixée égale à celle terrestre, soit 9,81 m/s². Le rayon de l’Arche, discuté ci-après, fait 5 km. Soit :

\omega = \sqrt{\frac{g}{R}}

\omega = 0,044 rad.-1, soit une période de révolution de 2 min 22 s.

La structure étant de dimension kilométrique, les masses en jeu, tant au plan de la masse sèche que du carburant nécessaire à sa propulsion seront considérables. Soumettre une masse à l’accélération de la pesanteur génère une force, ce qui nécessite de la renforcer afin qu’elle résiste à son propre poids. Concernant la structure habitable, il n’y a pas le choix, mais concernant le carburant et toute la partie moteur on a tout intérêt à ne pas les faire tourner avec la structure afin qu’ils restent en apesanteur. L’axe du cylindre offre naturellement un espace en apesanteur : l’accélération dépend linéairement de la distance au centre. Pour R=0, g=0. Toute la partie moteur devrait donc prendre place au centre, ou Moyeu du cylindre de l’Arche.

b) La surface de poussée
Toutefois, un calcul préliminaire de la surface de moteurs nécessaire, chaque moteur individuellement n’étant capable de fournir qu’une poussée finie et conçue petite, montre qu’elle doit être bien supérieure à la section d’un cylindre de 5 km. Au cylindre de l’Arche il faut donc coupler une très vaste surface propulsive qui ne doit pas être entrainée en rotation afin d’éviter un surpoids de structure, tout en transmettant sa poussée à l’ensemble.

Une première solution serait de placer cette corolle sous forme d’un vaste anneau à l’avant et de la relier par des câbles au moyeu du cylindre. Dans cette version approximative, l’Arche serait tractée comme la princesse Élisa par ses onzes frères transformés en cygnes dans le conte des “Cygnes Sauvages” d’Andersen.

Elisa tractée par ses frères, les Cygnes Sauvages dans le conte d'Andersen © Susan Jeffers

Cliquer l’image pour agrandir

Mais si les onzes frères avaient toutes les douceurs pour leur jeune soeur, il émane de la corolle un plasma soufflant à une dizaine de milliers de km/s ainsi qu’un flot abondant de photons gamma, toutes choses très agressives et qui seraient fort dommageables à une structure située sous le flux.

La corolle sera donc placée en poupe. On doit se figurer fondamentalement l’Arche comme formée d’un disque immobile, la corolle, relié à un cylindre tournant, la structure habitable, situé devant.

La difficulté architecturale est de transmettre la poussée du disque au cylindre sans que ce couplage n’entraine le disque en rotation. Sans également faire ‘danser’ le cylindre, ce qui se produit par effet gyroscopique si l’axe de poussée ne ne se confond pas strictement avec l’axe de révolution. Le couplage des deux éléments ne peut se faire que par un point, et ce point doit être situé au centre géométrique exact de l’Arche. L’application de la poussée en un point unique de surface réduite, la palier central (diamètre ~ 25 m), permet de limiter au minimum les frottements qui transmettraient insidieusement le mouvement de rotation du cylindre à la corolle.

S’ajoute à cela que le disque n’est pas formé d’élements très rigides. Il s’agit, pour l’essentiel, de masses de glaces d’hydrogène peu cohésives. Une telle surface ne peut travailler en cisaillement. Ce serait le cas si la corolle devait pousser directement le cylindre par son centre. Une structure doublant la corolle, assez rigide pour recueillir la poussée sur toute la surface et travailler directement en cisaillement devrait être extrêmement massive. La règle générale dans les structures de très longue portée c’est qu’un élément travaillant en compression (comme les murs d’une maison) est bien plus massif qu’un élément travaillant en traction (un cable), à contrainte égale. Et ceci d’autant plus que la portée augmente. C’est pourquoi il est difficile de construire des tours très hautes sur Terre. Ici, il n’y a donc d’autres choix que de faire travailler la corolle en traction, selon des points d’attaches régulièrement disposés le long de son périmètre et de ses rayons en la haubanant à une poutre qui transmettra la poussée au centre de l’Arche, via un palier. Cette poutre devient le seul élément à travailler en compression.

À mi-trajet, on se souvient qu’il faut inverser la poussée afin d’arriver à vitesse nulle à destination. Retourner une structure de cette taille est d’autant moins aisé que son moment d’inertie second (perpendiculaire à l’axe de rotation) est grand, ce qui est le cas. Il est plus simple de disposer d’une corolle symétrique à la première sur l’avant, le jet de freinage étant alors dirigé le moment venu vers la cible. L’épais matelas de glace d’hydrogène qui s’étalle alors à la poupe permet sans dépense additionnelle de prémunir l’Arche des collisions avec de petits corps interstellaires, perspective très improbable mais aux conséquences devastatrices à 4500 km/s.

Arche - Esquisse

Cliquer l’image pour agrandir

c) La masse de la structure
La masse sèche de l’Arche discutée dans le présent article représente quelques 25 Gt (gigatonnes) ou 2,5E13 kg. Il y aurait lieu bien entendu de discuter de ce qui fonde cette estimation et des paramètres qui peuvent intervenir pour la reconsidérer. Mais en tout état de cause, on pressent que pour une structure kilométrique sous tension il doive s’agir d’une masse “gigatonnique”. Faire décoller une telle structure de la Terre est fantaisiste : le puits gravitationnel est trop profond et le corps devrait être déraisonnablement renforcé pour résister à la poussée du départ. La construction devra donc se faire entièrement dans l’espace. Mais même l’apport des matériaux nécessaires à son édification est, sauf pour une part congrue, irréaliste venant de Terre, pour des raisons énergétiques. L’extraction se fera préférentiellement sur les petits corps du système solaire (astéroïdes et comètes), dont le puits de gravité est minuscule puis acheminé en orbite terrestre. La structure de l’Arche est bien plus grande et massive que n’importe quel artefact humain jamais envisagé, et c’est aussi celui qui devrait rester intègre sur la plus longue durée, avec une exigence absolue de résistance et d’étanchéité. Satisfaire un seul de ces deux impératifs nécessiterait une réflexion neuve. C’est a fortiori le cas lorsque les deux sont réunis. À quelques exceptions près, dont la structure des premiers aéronefs en bois et textiles, toutes les constructions aéronautiques sont métalliques. Il existe dans le système solaire une abondance assez grande de petits corps métalliques, les astéroïdes de type S qui représentent 17% des astéroïdes répertoriés : même si l’on se concentre sur les seuls éléments métalliques légers (Al, Mg, Ti…) l’abondance n’est pas un problème. Mais concevoir une telle structure entièrement faite de métaux par des moyens conventionnels est difficilement envisageable pour plusieurs raisons. Les métaux se présentent à l’état natif sous forme d’oxydes (état lié avec l’oxygène : XnOm) et leur réduction (pour les obtenir sous forme d’éléments purs) nécessite l’atteinte de hautes températures ou d’ampérages intenses ce qui réclame la production en masse d’énergie électrique. Leur mise en forme et leur assemblage sont eux-même coûteux en énergie et réclament beaucoup de soin. Ce sont des corps denses et qui offrent un ratio résistance en tension sur masse spécifique assez modeste. Ils sont soumis à un phénomène de “fatigue” (formation de dislocations dans le réseau cristallin) qui les rigidifient et aboutissent à la formation de fissures. Ils sont oxydables de diverses manières, alors même que l’intérieur de l’Arche est érosif (cycle atmosphérique saisonnier, air humide, couche océanique…).

Considérant par constraste que les éléments chimiques qui composent majoritairement les petits corps du système solaire sont plus légers que les métaux et que l’on recherche une structure légère, considérant par ailleurs que même si nous n’en sommes pas les auteurs, nous disposons grâce à l’Évolution des végétaux d’un immense savoir-faire naturel dans l’édification de structures fibreuses résistantes et auto-entretenues sur la base de ces atomes légers, tirant partie d’une énergie solaire dont on dispose en abondance, on en vient à imaginer que la structure de l’Arche puisse s’édifier par croissance naturelle plutôt que par construction, avec des parois de fibres végétales. Les éléments constitutifs en sont, on l’a dit, plus légers et plus abondants (CHON), elles offrent un excellent ratio résistance/poids et sont de conception très sécurisante (elles “préviennent” avant de céder). Surtout : elles se régénèrent, ce dont aucune structure classique n’est capable. Il peut sembler assez iconoclaste de faire pousser un ‘végétal’ dans le vide spatial. Pourtant, la seule chose à faire est d’isoler les cellules vivantes de ce vide, et là encore le fonctionnement biologique peut s’en charger avec production d’un épiderme cohésif de cellules mortes dans une matrice caoutchouteuse, sur quelques décimètres. L’autre avantage concerne la construction même : l’ingénierie se résume à nourrir une structure vivante en éléments simples prélevés sur les petits corps : H2O, CO2, azote, phosphore… La structure grandit sur une orbite intérieure en utilisant l’énergie solaire, depuis un stade embryonnaire jusqu’à sa dimension adulte kilométrique en deux ou trois siècles. Durant ce laps de temps, elle est habitable par ses hôtes bâtisseurs. Sur le trajet interstellaire, il faut ensuite assurer de l’énergie d’entretien sous forme lumineuse.

La biosphère de l’Arche est formée d’une pellicule océanique, d’une profondeur d’environ 25 m, sur laquelle flottent des caissons jointifs (ou ballast) supportant une mince couche de sol.

Arche - Coupe Arche - Moyeu Arche - Sol
Cliquer l’image pour agrandir

Une vie entière dans l’Arche ?

Peut-on sérieusement envisager une existence normale, accomplie sur tous les plans, au sein d’une structure artificielle éloignée de la Terre ? Le peut-on pour soi-même et peut-on imaginer sans frémir y voir se succéder la lignée dont nous serions l’ancêtre ? Cette perspective constitue sans doute le frein psychologique le plus immédiat, mais pas forcément le plus profond, que tout terrien normalement constitué opposera de prime abord à l’idée d’une vie dans l’Arche.

Pour aborder ce point central, nous userons d’une notion que l’on pourrait appeller l’horizon individuel qui se paramètre par son rayon défini comme la profondeur d’action de l’individu, sur le plan considéré que l’on pense essentiel à une existence méritant d’être vécue. Sur tous ces plans, on recherche le rayon minimum pour lequel ces exigences sont satisfaites, si ce n’est pleinement au moins en les combinant quand c’est possible.

Horizon d’espace visuel : Dimension dans laquelle s’exprime le rayon : l’étendue du paysage où porte le regard. Il s’agit de la première aperception sensible de l’espace offert, et il dimensionne à lui tout seul le projet. Sur Terre, quel est le rayon de notre horizon visuel ? De 1 à 10 km environ, en fonction du relief. Ceci fixe les dimensions typiques de l’Arche. Concrètement le regard porte suffisamment loin pour ne pas donner l’impression de se sentir à l’étroit où que l’on se trouve. Au sol, une épaisseur de 1 à 10 m de terre végétale et de roches-mères suffisent.

Horizon de circulation physique : Dimension du rayon : la surface ou le volume explorables par l’individu. Sur Terre le regard ne porte qu’à 1 à 10 km, mais nous disposons d’un espace qui va bien au delà pour nous déplacer. Le rayon de notre horizon de circulation physique atteint des milliers, voire des millions de km². Sur ce plan, il parait franchement impossible d’envisager reproduire ce que nous offre potentiellement la Terre entière. Toutefois ce que la Terre nous offre est un potentiel que bien peu de gens exploitent dans les faits au cours d’une seule existence. Pour une majorité d’humains, considérée dans l’espace-temps de l’historicité humaines, leur existence toute entière s’est déroulée dans un espace de quelques centaines de km².
On peut ajouter à ceci que le rayon de cet horizon se trouve sensiblement augmenté si le milieu offre une grande diversité. Mille km² de désert ne nous offrent pas le même rayon d’action, sur ce plan-là, que cent km² dans lesquels on trouverait une ville, une forêt, des champs, un cours d’eau et tout autre élément de diversité paysagère. On se propose de maximiser sur ce plan la diversité offerte par les milieux naturels de l’Arche en reproduisant l’essentiel des grands écosystèmes terrestres.

En outre, une structure artificielle comme l’Arche offre par sa conception même un développement sur plusieurs niveaux, en allant du centre vers la périphérie, tandis que la surface terrestre se présente comme purement bidimensionnelle, sans épaisseur explorable (exception faite des fonds marins et des cavités).Ces différents niveaux offrent une diversité de milieux totalement inédite sur Terre : espace de micro-pesanteur, balade dans l’espace sur la poutre centrale ou dans les volume percé de galeries des glaces d’hydrogène du carburant, fonds océaniques ainsi que d’autres surfaces ou volumes qui apparaitrons quand nous détaillerons la structure. Tous les milieux de l’Arche, en surface comme en volume, peuvent être conçus pour être accessibles à la simple promenade. Certains seront très diversifiés d’autres plutôt monotones. Ensemble, ils offrent un très grand rayon à l’horizon de circulation physique. Le rayon maximal de l’horizon d’espace visuel étant fixé à 10 km, on peut pour commencer envisager le module d’habitation sur cette base là. Il se présenterait comme une surface cylindrique de longueur L=10 km sur 10 km de diamètre (soit un rayon R=5 km). L’aire habitable A0 offerte est de :

A0 = 2πRL

Soit A0 = 314 km², qui représente le rayon primaire de l’horizon de circulation physique, quelque chose comme le ‘plancher des vaches’, offrant des conditions d’existence en tous points comparables aux standards terrestres. Il est difficile de quantifier rigoureusement ce que représentent les espaces développés sur la base de ce rayon primaire puisqu’ils s’y mèlent à la fois des surfaces et des volumes. Sans prétendre donner autre chose qu’un estimateur intuitif, on peut toutefois assurer que ce rayon sera décuplé. En ordre de grandeur, une Arche dont le rayon d’horizon d’espace visuel est fixé à 10 km offre un espace de circulation comparable à un département français de taille moyenne, espace historiquement dimensionné comme celui pouvant être parcouru à cheval dans l’espace d’une journée.

Bien sûr, même si on ne se sent pas exactement à l’étroit à l’intérieur d’un tel rayon de circulation physique, cela peut paraitre exigue dès lors que l’on se reporte par l’imagination – et comment ne pas le faire - aux immensités terrestres. Mais on confond alors deux plans. L’espace terrestre, redisons-le, ne nous est offert que potentiellement. Seule une infime minorité d’entre-nous le parcourt d’un pôle à l’autre ou sur tous ses fuseaux horaires. Et les grands voyageurs mêmes, n’explorent jamais, au fond, que la longueur de leur pas. Quand nous passons d’Europe en Chine, ce que nous explorons le mieux c’est le siège passager de l’avion qui nous y mène. Il serait spécieux d’affirmer que l’on a “traversé l’Afghanistan” parce qu’on l’a survolé à 10 000 mètres d’altitude. Et quand on a visité la Chine, le rayon réel de circulation physique qui fut le nôtre n’a nullement été assimilable à la taille de cette nation. Il s’est résumé aux quelques places visitées, aux quelques curiosités naturelles, à une ville ou deux et, au sein même de ces villes, à quelques lieux remarquables… remarquables… et à la chambre d’hôtel, sans doute le lieu le mieux exploré de tout le périple, ceci dit sans ironie aucune. L’espace réel de circulation n’est pas indexé à l’immensité terrestre mais au temps dont nous disposons. C’est là le véritable critère. Le fait de disposer potentiellement d’un monde immense qui nous tend les bras n’est pas du tout négligeable. Mais il s’agit d’un aspect moral qui doit être envisagé à part. Il peut nous sembler important de disposer d’un vaste monde où porter nos pas mais si l’on intègre sur notre vie entière les espaces au sein desquels on aura pu effectivement constater notre présence, il est probable qu’ils ne dépasseront pas le rayon de circulation physique envisagé pour l’Arche.

Horizon d’interaction sociale : Dimension du rayon : effectif et diversité de la population des archonautes. Le terme d’archonautes désigne les habitants de l’Arche. Pour atteindre le seuil de diversité minimal, il faut autrement dit que l’on puisse toute sa vie rencontrer des gens que l’on n’a jamais croisés auparavant. C’est aussi ce qu’on pourrait appeler le seuil d’anonymat : en se promenant dans la foule, on rencontre des inconnus en proportion au moins aussi grande que des connaissances. Cela correspond à ce qui se réalise dans une petite ville, soit une population comprise entre 10 000 et 100 000 habitants, avec une valeur moyenne fixée pour la commodité de l’exposé à 50 000 habitants.

Par rapport à la souche terrestre, l’Arche convoie une diversité humaine maximisée. Toutefois, il faut sans doute imaginer un peuplement qui se fasse essentiellement par croît naturel. Le peuplement initial, effectuant le trajet Terre-Arche pourrait ne comprendre que 2000 foyers (disons 5000 personnes) formés d’adultes (et de leur progénitures) compétants dans les domaines utiles à la construction puis a l’entretien de la structure et de la propulsion. Soit pour les lignées se succédant dans l’Arche une ascendance uniformément “méritocratique” c’est à dire formée de volontaires sélectionnés pour leur ultilité sociale dans le cadre du projet. Le temps d’acclimatation et d’équilibration démographique, comprenant la possibilité d’aller-retour vers la Terre sera sans doute supérieur au siècle.

Horizon d’activités sociales : Dimension du rayon : diversité et intensité des activités constituant la raison d’agir au plan collectif des individus. Une Arche menant un rameau d’humanité vers un système stellaire voisin, sur des durées séculaires, se structure autours de deux grandes fonctions : assurer la propulsion de l’engin et entretenir la vie à l’intérieur.

Propulsion : elle est constituée de deux phases symétriques, l’accélération et le freinage. Entre les deux, l’Arche est en vol libre, à vitesse maximale. Comme on souhaite effectuer le maximum du trajet à ce maximum de vitesse, afin de le raccourcir, on cherchera à réduire autant qu’il est possible la durée des phases d’accélération et de freinage et le vol libre devra en représenter la majeur partie. Aussi la fonction strictement propulsive ne devrait intéresser que les courts segments de quelques décennies suivant le départ et précédant l’arrivée. Toutefois, les compétences concernées par la fonction propulsive conservent une prérogative essentielle en phase de vol libre : fournir l’énergie nécessaire à l’entretien de la vie dans l’Arche, c’est à dire pour l’essentielle, l’énergie solaire (lorsque le terme ne portera pas à confusion, nous conserverons ce terme d’énergie solaire pour désigner l’énergie lumineuse) dispensée au sein de la structure et permettant la vie des écosystèmes ainsi que l’entretien de la “machine thermodynamique” régulant les climats de l’Arche. L’énergie utilisée par les activités anthropiques proprement dites (industrie, transport, activité domestique…) y est incluse, représentant un sous-total réellement négligeable. Physiquement, cette fonction s’accomplit au centre de l’Arche, dans ce que l’on désignera comme le Moyeu, dans une zone en micropesanteur ainsi que sur le poutre et au sein de la corolle, en pesanteur nulle (ou presque, la masse de l’ensemble créant une gravité naturelle de l’ordre d’un millionième de g). On inclut dans l’activité du Moyeu toutes les activités industrielles qu’il peut être intéressant de pratiquer en pesanteur faible.

Vie : il s’agit à la fois de l’écoystème intérieur de l’Arche (le contenu) et de ses parois (le contenant). L’Arche constitue un système clôt à cycle court par rapport à ce que nous connaissons sur Terre. Etant donné le rapport de causes à effets immédiat existant entre le fonctionnement global de l’Arche et l’existence de ses habitants on peut prédire que ceux-ci y acquerront des compétences particulièrement affûtées. L’Arche étant globalement, totalement, un être vivant, elle représente une source d’interaction constante pour ses habitants, qu’il s’agisse d’en prendre soin ou d’être ’soignés’ par elle. La nature du lien ‘propulsion-vie’ représente quelque-chose de philosophiquement stimulant, par la forme de mise en abyme de l’action qu’elle instaure. L’Arche abrite l’homme, l’homme injecte l’énergie permettant à l’Arche de vivre. Cela ressemble à l’endosymbiose qui réunit les cellules eucaryotes et les mitochondries. Il s’agit d’un rapport de total dépendance mutuelle sous une forme conscientisée chez l’une des deux parties (là est l’assymétrie qui instaure une responsabilité totale) qui scelle une unité de destin d’autant plus intensément ressentie qu’un être vivant se trouve totalement maître et totalement esclave d’un autre. Dialectique intéressante. Sur le plan de l’édification morale individuelle qui fonde les systèmes politiques, le faible effectif de la population constitue un atout pour développer une démocratie “à l’athénienne” sans corps représentatif au niveau politique, ce qui démultiplie la richesse d’interaction sociale de l’individu, dans la mesure où il exerce un pouvoir direct et non médié.

Horizon génésique : Dimension du rayon : la capacité d’engendrer. Une question très délicate de prime abord serait le contrôle démographique. L’Arche étant un monde clôt et largement optimisé, il n’est pas question de laisser le simple croît naturel gouverner la démographie. Il ne faut pas non plus s’exagérér l’intensité de la contrainte, la population pouvant sans aucun doute varier du simple au triple sans dommage conséquent. Toutefois, la question serait obligatoirement posée pour une durée si longue et il faut résoudre théoriquement l’équilibre que l’on souhaite instaurer entre la liberté individuelle et l’intérêt collectif. Dans un cadre démocratique on peut imaginer le pacte social suivant. Le premier enfant constituerait un droit indiscutable, que chaque femme pourrait concrétiser quand elle le voudrait, avec simplement le devoir de le déclarer pour permettre la planification démographique. L’extension de la famille à deux enfants ou plus serait ensuite soumis au tirage au sort en fonction de l’impératif d’équilibre formulé par les projections démographiques et des voeux à court et long terme formulés par chacune. Concrètement chaque année les femmes seraient amenées à déclarer leur “projet d’enfant”, un pour l’année (je désire ou pas un enfant pour cette année) et un pour l’ensemble de leur période féconde (en tout, j’aimerais 2, 3, 4… enfants). Ce serait une simple déclaration, révisable sans préavis et non contraignante. On en tirerait une projection démographique d’où résulterait un avis en retour, sous la forme d’un tirage au sort. Chaque cohorte de femmes (une cohorte est constituée d’individus du même âge) aurait droit à son tirage au sort. Les noms que l’on mettrait dans le chapeau dépendraient du souhait exprimé pour l’année (si une femme désir un enfant pour cette année-là, on y met son nom, sinon non) et chaque nom serait pondéré à proportion du projet parental déjà réalisé (une femme désirant 3 enfants et n’en n’ayant aucun aurait plus de droit qu’une femme désirant 4 enfants et en ayant déjà 3). La question qui reste ensuite en suspend, soumise à l’appréciation politique des archonautes, est de déterminer la contrainte applicable (ou pas) si une femme tombe enceinte alors que le tirage au sort ne lui avait accordé aucun enfant. Si les souhaits non réalisés dans la cohorte équilibrent ceci, tout va bien. La question prend un tour plus sensible dans le cas où l’indiscipline globale d’une cohorte grèveraient le droit procréateur des plus jeunes. Au pire on peut imaginer une sanction pénale, mais il est prévisible que, comme toute contrainte sociale qui a pour origine une nécessité bien compréhensible, l’éducation suffirait à ce que les choses se passent dans l’ordre, ou presque.

Horizon spirituel : Dimension du rayon : intensité et diversité de la vie spirituelle, entendue comme l’ensemble des activités mobilisant la cognition. Une façon de mesurer le rayon de cet horizon est d’évaluer la profondeur et la richesse du matériau a disposition de l’esprit pour réflechir sur le Réel et sur lui-même.

Par rapport à ce que peut livrer le Passé, l’Arche embarque l’ensemble de la mémoire terrestre ce qui devrait représenter quelques 1E20 octets, en ordre de grandeur, soit l’ensemble de ce qui est actuellement inscrit sur les supports papiers, magnétiques ou optiques, avec ou sans répétition, partout et dans toutes les langues. L’Arche aura également accès à un “Présent différé” grâce au lien radioélectrique avec la Terre, d’autant plus différé que l’Arche s’éloigne. On imagine un lien laser, afin de réduire la dispersion et dans le domaine infra-rouge, le moins bruité par l’émission de plasma de l’Arche. Pour une puissance d’émission laser de 1 MW à lambda = 1 micron, les débits échangés sont de l’ordre de 10 Mo/s à 1 al et de 100 ko/s à 10 al, soit l’équivallent d’un débit internet moyen.

Par rapport au Présent, l’horizon spirituel s’identifie à l’horizon d’activité sociale précédemment discuté. Les archonautes vivent une situation moralement neuve, dans le vécu comme dans les buts à long terme. Ils devraient développer une mentalité originale. La nécessité de s’entendre venant en premier plan. Le mot trajet renvoie à “transitoire”. Mais ce transitoire est une vie et une civilisation en soi ce qui fait que le but stellaire deviendra presque accessoire. La majorité des individus peuplant ce voyage appartiendra à une génération “non partante, non arrivante”. Pour cette majorité le terminus du voyage ne constituera qu’un futur lointain. Certes, en arrière fond, l’atteinte de l’objectif structurera la communauté, mais l’enjeu qui fait le bonheur de la vie de tous les jours restera comme c’est prévisible chez l’Homme, le présent.

Par rapport au Futur, l’objectif colonial va nécessiter une reflexion approfondie de ce qui devra se faire une fois arrivé à destination.

Soit la ou les planètes objectifs présentent des conditions d’existence permettant leur peuplement tête nu, soit elles nécessitent une terraformation. A la première occurence est associé une probabilité faible, comme on l’a précédemment exposé. Il faut donc plutôt imaginer une vie faite d’aller-retour orbitaux entre l’Arche qui forme un camp de base confortable et la vie de surface en conditions protégées. Une terraformation représente une oeuvre de longue haleine, dont l’échéance dépasse l’existence individuelle et les archonautes revivraient ce qu’on vécu leurs ancêtres qui ont bâtis l’Arche, à cette seule différence que pour les ancêtres la base était une planète et leur horizon futur l’Arche, tandis que pour les arrivants, la base sera l’Arche et l’horizon future, la planète qui devient progressivement habitable

À l’ampleur multiséculaire de la tâche, vient s’ajouter un réel problème éthique, qui se pose dans tout les cas où la planète objectif n’est pas dépourvue de vie : que faire de la vie autochtone ?

Bien entendu, on n’imagine pas coloniser une planètre peuplée d’êtres moralement équivalents à l’être humain. Mais si la planète est mûre pour recevoir une forme de vie basée sur la chimie du carbone, alors il est possible, a des degrés divers, que celle-ci ait déjà développé à sa surface ou en sub-surface une vie originale sans continuité avec les formes de vies terrestres que renferment l’Arche. L’idée de stériliser une biosphère apparait pour le moins monstrueuse. Dans cette hypothèse, il faut imaginer l’existence au sein d’un écosystème mixte.

En guise de conclusion

Le temps de trajet, plus de sept siècles dans l’hypothèse envisagée, constitue sans doute la caractéristique la plus frappante d’un trajet interstellaire conduit par des moyens classiques. L’objection la plus immédiate qui vient à l’esprit est qu’il serait peut-être plus sage d’attendre que la Physique fasse des progrès suffisants pour autoriser un trajet interstellaire dans des durées “décentes”. Et d’un certain côté l’histoire de la Physique semble nous y inciter. Peu de domaines de l’esprit ont en effet progressés a un rythme plus soutenu que ne l’a fait la Physique ces quatres derniers siècles.Mais d’un autre côté, ce sont précisément les progrès accomplis, cristallisés en un solide édifice qui nous font bien voir, et sans ambages, que la traversée des espaces immenses se paye cher, soit en temps, soit en énergie. Peut-être la Physique est elle assez mûre pour qu’il faille dès aujourd’hui la prendre au sérieux ? Abolir le temps en dépensant d’immenses quantités d’énergie ne coûte rien à l’imagination, mais rien n’y fait : l’énergie est un bien rare. Ne serait il pas temps de se décharger des rêves stériles pour envisager des rêves féconds ? C’est sur ce pari qu’a été mené cette réflexion. L’énergie est pour l’humanité un bien exogène qu’il faut arracher à l’Univers, une conquête. Avec l’énergie, comme le dit la fable “point de franche lipée, tout à la pointe de l’épée”. L’humanité par contre dispose de son temps. Elle se sécrète d’elle-même par le renouvellement des générations. Elle n’a besoin, pour durer sans effort, de rien d’autre que d’un environnement reconstitué et d’une énergie modeste pour l’entretenir. Et pourtant, même en stratégie longue, il en faut une quantité folle. 99% du carburant se disperse dans le Grand Extérieur et propulse l’Arche, 1% seulement alimente le soleil qui brille sur ce monde.

A l’échelle de ce XXIe siècle débutant, l’Arche représente un projet à la frontière du fantasmagorique. Tout y parait démesuré, que ce soit la quantité de carburant ou les dimensions de la structure. Mais fixer la hauteur réelle qu’il nous faut franchir, disposer des masses, des longueurs et des énergies, se figurer l’état d’avancement technologique qui devrait être celui des partants, dessiner les grandes lignes d’une société à venir, tout ceci, même si le futur ne devait rien en retenir, peut aider un futur à naître.


  1. Pour plus de détails voir https://math.ucr.edu/home/baez/physics/Relativity/SR/rocket.html []
  2. J. Post, “Hydrogen ice spacecraft“, AIAA, Space Programs and Technologies Conference, Huntsville, AL; (1990) []
  3. Une simulation du système est visible ici : https://media4.obspm.fr/exoplanetes/base/systeme.php?etoile=Epsilon+Eridani []
  4. G. A. Landis, “Small Laser-propelled Interstellar Probe“, Presented at the 46th International Astronautical Congress, Oslo, Norway (1995) []

157 Commentaires à “Arche interstellaire”

Voir les commentaires en: English (134) Italiano (5)

Pages : « 1 2 3 [4] 5 6 7 8 » Show All

  1. 61
    Acthpa

    En autant que l’Arche ne tourne pas comme Clarke l’a imaginée dans Rama, à savoir le chaos et l’anarchie car un seul homme a su dévoyer et contrôler une certaine partie d’entre eux pour tout simplement… l’éternel besoin de domination. D’ailleurs c’est la question que je m’étais posée en lisant cet article mais je n’avais pas osé soulever le problème.

    Ceci dit, cette modélisation est très “réaliste” par rapport à la description des livres, superbe même!

  2. 62
    Gilgamesh

    Merci Urbinou :)

    Rama est plus grande que l’Arche telle que présentée dans l’article : L = 50 km, R= 16 km au lieu de L = R = 10 km mais effectivement, le panoramique donne a voir le genre de paysage auquel il faut s’attendre.

    En outre, la subdivision de l’Arche se fait le long de son périmétre tandis que Rama est subdivisé dans la longueur.

    Pour l’apparence du sol, il faudrait apporter plusieurs correctifs. Le plancher de l’Arche est formé d’un grand nombre de caissons creux, en flottaison sur environ 30 m d’océan et recouverts d’une mince couche de sol végétal (de 1 à 10 m). Il ne peut pas y avoir de relief très accentué ni de bâtiments de type gratte ciel, sauf a prévoir un volume en flottaison spécifique juste pour le batiment. Par contre, pour les grandes structure creuse, type stade, c’est assez aisé à concevoir (le haut du batiment affleurant à la surface). Pour ne pas charger outre mesure la surface, l’habitat est pour l’essentiel composé de structures légères (bois, matériaux organique…) de plain pied.

    Il n’y a qu’une ville, a priori et ça n’a rien d’une grande métropole. 50 000 personnes, c’est peu et l’habitat est assez dispersé a priori. Donc plutôt une ville-jardin qu’une foret de gratte ciel. J’ai eu idée de la baptiser Kalouga, en hommage à Tsiolkovski :)

    Les rivières et les plans d’eau quand à eux reposent directement sur un voile transparent qui les séparent de l’eau océanique plus dense et dont la hauteur d’eau est maximal à cet endroit.

    Pour les déplacements, on peut gagner de la place au sol en aménageant un système de type téléphérique sur les 62 km de circonférence. Donc pas de route a grande circulation à prévoir, mais de simples chemins.

    Les zones climatiques principales (pôle froid, tempéré, equatorial) sont séparés par un relief, les plus élevé possible. Pour cela, on peut s’aider des flancs retombant de l’Arche pour porter des structure légère et creuse et monter ainsi une crête jusqu’a peut être plus de 1000 m.

    a+

  3. 63
    mother

    Bravo pour cet article très travaillé sur ce sujet passionnant.
    Voici quelques pistes qui me viennent à l’esprit :

    Energie :
    L’antimatière reste la voie la plus probable, pas si irréaliste que ça, mieux vaut attendre de bien progresser dans la production et le stockage de l’antimatière et faire un voyage en 10-20 ans que de partir pour 700 ans avec la fusion !! Après tout on arrive à en fabriquer et on sait maintenant la stocker. Certes les quantités sont infimes, mais on n’a jamais cherché à produire de l’antimatière en soit, c’est plutot la conséquence d’expériences dans les accélérateurs de particules.
    Si on arrive à maitriser la fusion controlée, ce qui est très probable même si très couteux, on aura une quantité d’energie illimitée sur Terre (d’un point de vue stock, mais pas d’un point de vue coût).
    Alors on pourra fabriquer suffisamment d’antimatière sur Terre pour un voyage interstellaire.

    Gravité :
    Pour la gravité il me semble plus facile/logique d’utiliser une accélération constante de 1g pour simuler la gravité que de faire tourner un cylindre.
    Pour entamer la phase de décélération, il suffit de faire une phase intermédiaire sans accelération (astronautes flottent dans le vaisseau pendant un laps de temps) pour retourner le vaisseau et entamer la phase de décélération.
    Pour atteindre Alpha Centauri avec une accélération/décélération de 1g il faut environ 11 ans.

    Terraformation :
    A mes yeux quasi impossible…peut etre possible dans un futur extrêmement lointain où l’industrie humaine sera déjà très developpée dans l’espace.

    Planètes habitables :
    La meilleure solution reste de trouver une planète déjà habitable …
    C’est peut etre moins improbable que l’on pourrait le croire … après tout on trouve de plus en plus de planètes extrasolaires, et encore on n’arrive à détecter que les géantes gazeuses.
    D’autre part le couple d’étoiles Alpha Centauri est finalement un bon quandidat depuis qu’on sait que les étoiles doubles (50% des etoiles je crois) n’empechent pas la présence de planètes malgré les “marées solaires”.

    Communication:
    Pourrait on envisager d’utiliser les couples de photons (spins de couples de photons créés en même temps puis séparés, représentant une même entité quantique bien que séparés) pour communiquer instantanément ? La recherche informatique travaille actuellement sur ce sujet. Ou est ce une élucubration ? :)

    Collisions :
    On peut imaginer un champs magnétique déviant déjà une partie des particules (métalliques, ions etc …) c’est déjà ça..
    Pour les grains de sable ça se complique, peut etre qu’avec une partie des ions produits par le réacteur on pourrait faire un bouclier qui détruirait ou dévierait les grains ?
    Indispensable à une telle vitesse, car je crois pas qu’aucun bouclier matériel pourrait tenir face à un grain de sable qui se déplacerait à 200 000 km/s (relativement).

    Sonde :
    Bien avant l’exploration humaine, on pourra déjà envoyer des sondes à antimatières, plus petites, qui se défieraient de l’accélération et du confort, dotées de mini observatoires astronomiques qui permetrait déjà de connaitre les systèmes stellaires proches de la Terre (planètes etc…), afin de détecter si planète habitable il y a, et si cela vaut le coup du déplacement.

  4. 64
    Gilgamesh

    Bonjour mother , and welcome :) . Merci pour tes réflexions.

    Si on veut atteindre une cible située à 10,4 al (ou 4,2) avec une fusée relativiste, cad avec une accélération de 1g on doit compter sur bien moins de 10 ou 20 ans.

    Pour d=4,2 (α-Centauri), la durée τ du voyage, en temps propre du voyageur est de 3,52 années à peine. Et pour aller à 10,4 al (ε-Eridani) il faut ajouter une petite année et demi (τ = 4,92 années).

    Vu comme ça, c’est assez tentant. Mais c’est le sujet de l’article : la masse de carburant à rassembler dans ces condition est délirante.

    En calculant au mieux, pour une masse d’antimatière pure, dont l’énergie est à 100% convertie en énergie cinétique (il n’est pas possible de faire mieux en théorie) : pour propulser 1 kg de masse utile à une accélération cte de 1 g et la faire arriver à vitesse nulle à destination, il faut :
    - 36 kg d’antimatière pour α-Centauri
    - 151 kg pour ε-Eridani.

    C’est à dire qu’il faut plus bien plus d’AM que de carburant “classique” dans un option de propulsion à fusion (il faut ici 0,82 kg pour propulser 1 kg).

    Mais le plus embêtant dans cette histoire, c’est bien sur que l’AM n’est pas une source d’énergie. Produire de l’AM nécessite bien (bien, bien…) plus d’énergie qu’elle n’en procure. Si tu as une source de 1 GJ sous la main, tu obtiendras peut être 1 Joule d’AM à l’arrivée, avec les moyens actuels. Et en tout état de cause tu n’obtiendras jamais plus de 50% comme taux de conversion pour des raisons qui touchent à la physique fondamentale.

    Donc, pour produire toute cette AM, il faudra une énergie qu’il faudra bien trouver quelque part. A priori dans la fusion thermonucléaire. Il vaut bien mieux employer directement cette énergie à propulser plutot que de la convertir à un taux extrêmement bas en AM.

    Pour ce qui est de propulser en permanence à 1g, la réponse est dans ce qui précède : c’est rédhibitoire énergétiquement parlant.

    Concernant la terraformation, c’est disons une entreprise de très long terme, qui ne peut s’envisager comme “portée à bout de bras” par une communauté humaine. Je dirais qu’en même temps qu’elle fait son nid sur une planète, et après l’avoir explorée, la communauté humaine en place disséminera tout ce qui peut la rendre “anthropisable”, comme tache de fond. Savoir si ça prend un siècle ou un millénaire…

    Trouver une planète déjà habitable : c’est évidemment un must. Mais s’il n’y a pas moyen de profiter de l’effet relativiste pour raccourcir le temps, alors il est difficile d’envisager d’allonger encore les siècles passés dans l’espace. Et trouver une planète à “moins de 1000 ans” de la Terre me semble très optimiste. Effectivement le couple des Centaure constituerait une cible intéressante (un des deux est une G2 !) mais encore faut il pouvoir poser le pieds quelque part ou du moins trouver des petits corps. Laissons l’avenir trancher, mais pour l’instant, ils ne semblent pas accompagnés.

    Une question intéressante, et non tranchée, et de déterminer où situer le compromis entre la distance de la cible et la qualité d’accueil qu’elle offrirait. La distance est un sacré critère, ça c’est certain…

    La communication utilisant des particules intriquées nécessite fondamentalement l’envoi de photons classiques, elle ne permet donc pas de communiquer “à plus de c”.

    Pour ce qui est de protéger l’Arche contre les collisions, j’ai rédigé un message de synthèse ici, avec pas mal de solutions envisagées :
    http://strangepaths.com/forum/viewtopic.php?p=911#p911

    Le champs magnétique n’en fait pas vraiment partie, bien que ça reste envisageable (voir souhaitable) contre le rayonnement cosmique, qui ne constitue pas à proprement parler une “collision” (plutot une irradiation). Les poussières intersidérales sont neutres, donc insensibles a priori aux champs électromagnétiques. Le bouclier est constitué par le carburant à l’avant. La vitesse de choc envisagée est celle de l’Arche (les vitesses propres des poussières spatiales sont au plus de qq centaines de km/s). C’est sur qu’a vitesse relativiste ou ultra-relativiste ça devient rédhibitoire.

    Enfin, l’idée d’envoyer des sondes auparavant est évidemment de bon sens. Et effectivement, on peut alors envisager des vitesses relativistes (>0,1 c) pour le temps de trajet. Pour une cible située à 10 al, le temps d’attente est de 1 siècle, soit, en ordre de grandeur, ce qu’il faut pour batir une arche. Disons… c’est l’idée.

    a+

  5. 65
    mother

    Merci pour ta réponse Gilgamesh.

    “C’est à dire qu’il faut plus bien plus d’AM que de carburant “classique” dans un option de propulsion à fusion (il faut ici 0,82 kg pour propulser 1 kg).”
    J’ai pas trop compris cela. La réaction matière/anti matière est la plus energétique qui soit, puisque 100% de la masse est convertie en energie.
    Comment la fusion qui est des milliers de fois moins energétique peut elle nécessiter moins de carburant ?
    Je parlais d’antimatière produite sur Terre et non pas dans le vaisseau.

    Ensuite je ne vois pas l’intérêt d’effectuer un voyage dans un nouveau système stellaire si il n’y a pas de planète habitable, c’est à dire avec une atmosphère très accueillante voire déjà la vie.
    Personne n’aurait la motivation ni de construire un vaisseau, ni de monter dedans, pour coloniser un caillou dans un autre système stellaire. Le système solaire contient déjà bien des caillous à “coloniser” pour ça. Si la colonisation voire la terraformation de ces mondes est possible, elle se fera d’abord sur Mars, les satellites de Jupiter ou Saturne, qui sont bien plus accessibles.

    Pour ce qui est de la vie sur les autres planètes, il y a une théorie qui prédit qu’à partir du moment où une planète réunit les mêmes conditions que la terre (cycle de l’eau), la vie doit probablement être présente. Car la vie permet de rééquilibrer le milieu chimiquement. C’est un cycle du carbone.
    Cette théorie prétend que si la vie était détruite sur Terre, elle réapparaitrait dès que les conditions climatiques seraient redevenues normales.
    Reste qu’on ne connait pas la proportion des planètes qui présentes ces caractéristiques, mais avec les progrès fait dans la recherche d’exoplanètes et l’envoi de prochains satellites/sondes pour en découvrir de nouvelles, on peut espérer d’ici quelques décenies voir plus clair sur la répartition des planètes telluriques dans l’espace.

    Après lecture de l’article et de tous les commentaires, on peut se demander si finalement le shéma le plus probable, est la concentration de la recherche sur :
    - la détection des planètes déjà habitables/qui possèdent déjà la vie, sur la quanité de systèmes dans la galaxie c’est mathématiquement très probable.
    - la capacité à construire un vaisseau relativiste

    Puis à faire des voyages relativistes habités, quitte à ce que ça soit très loin, au moins que ça en vaille la peine !

  6. 66
    Gilgamesh

    La différence provient du fait que dans le premier cas tu accélères constamment à 1g ce qui est absolument considérable et demande des quantités folles d’énergie, alors que dans le cas proposé pour l’article, tu accélères qq décennies, puis le mobile est en vol libre avant de décélérer. .

    Sur le pb spécifique du carburant à utiliser il y a deux problèmes à considérer séparément :

    1/ La source d’énergie : l’AM n’est pas une source d’énergie, mais une forme de stockage (la plus compacte envisageable). Pour produire cet AM il faudrait disposer de ressource d’énergies correspondantes. Et on consomme plus d’énergie à produire de l’AM pour que cet AM propulse le vaisseau qu’à utiliser directement ces ressources à propulser le vaisseau.

    2/ L’efficacité propulsive : les bases de l’astronautique c’est de s’embarquer avec le carburant le plus léger possible, à poussée égale. Bien qu’il y ait un cout élevé à produire de l’AM, on peut se demander si en embarquant ce carburant, théoriquement le plus efficace (c’est à dire le moins massif) on ne parviendrait pas à retourner le problème en sa faveur.

    L’impulsion spécifique de l’AM est de l’ordre de 10 fois plus élevée que celle procurée par un carburant à fusion cad que chaque kg de carburant procure 10 fois plus de poussée. Et en gos, ça permet, à masse égale, d’aller 10 fois plus vite (en vol libre), ou à vitesse équivallente de prendre 10 fois moins de carburant. Il faudrait donc atteindre un taux de conversion énergétique de 10% pour que ça devienne intéressant. Il est très inférieur à 1 milliardieme actuellement. Et en faisant abstraction du sucroit de masse nécessaire pour le stocker et du danger intrinseque que cela représente. Et encore, ça reste toujours théorique parce que l’AM produit des rayons gamma qui ne sont pas focalisables… Les solutions imaginées font appelle à des billes de plombs qui se volatilisent en produisant des rayons X (plus faciles à focaliser) mais ce n’est pas envisageable à l’échelle d’une mission interstellaire.

    1/ + 2/ : Pour l’instant, il est donc difficile de présenter l’AM comme une solution ne serait-ce qu’intéressante pour un trajet interstellaire (cad à très haute demande d’énergie très sure et à rendement maximum).

    Concernant la cible : effectivement, l’absence de planète a destination n’est pas très motivant… dans un raisonnement de terriens fasciné par la conquête spatiale. Mais si l’on dispose d’un monde tout entier dans lequel vivre, alors il faut se poser la question à la place des partants et non pas de notre point de vue, qui n’a rien à voir dans l’affaire. Si les durées sont longues, le but des partants n’est pas plus d’arriver quelque part que nous terrien nous nous soucions que la terre voyage et qu’elle nous mene quelque part.

    La seule différence - considérable - c’est que nous disposons du Soleil, alors qu’une Arche doit vivre sur ses réserves si elle décide de s’en éloigner. Dans ce cas, rejoindre le plus rapidement possible le système qui offrira une ressource énergétique le plus rapidement possible peut être plus motivant que de rejoindre le système qui permettra de sortir de l’Arche, ce dont personne ne se soucie, si l’Arche est ce qu’elle est, c’est à dire un vaisseau-génération. Car c’est un aspect important à considérer. La conquête en soi ne peut pas constituer un objectif d’intérêt autre que symbolique. Or l’Arche ne peut être construite que par une nation. Cette nation a pour objectif prioritaire la pérenissation du bien être collectif, comme toutes les nations, ma foi. L’idéal national, le But ultime, serait bien la conquête, mais ça pourra bien rester longtemps un bel idéal, comme toutes les nations s’en forgent et qui est nécessaire à leur unité. L’objectif concret, l’épée dans les reins, c’est l’autonomie par rapport à la Terre (sinon, rien n’est possible en toutes hypothèses). Et je ne dis pas qu’une fois rendu possible, la conquête planétaire ne constituerait pas un objectif concret très motivant, mais il faut balancer cela avec les objectifs prioritaires, qui sont énergétiques. Là où je te rejoins, c’est : pourquoi partir au fond, dans ce cas ? La dépense énergétique est faiblement dépendante de la distance : l’Arche accélère puis se freine de la même façon, et ce qui diffère c’est la durée du vol libre, c’est à dire la durée pendant laquelle il faudra procurer de l’énergie à l’habitacle. Pour un objectif de 700 ans de trajet à 4500 km/s, l’énergie d’entretien ne dépasse pas 1% de l’énergie de propulsion. J’opte donc pour un objectif planétaire, mais avec prudence. Peut être que 300 ans pour rejoindre le Centaure, dépourvu de planètes dans l’hypothèse actuelle, seront vus préférables à 700 ans pour se rendre à l’Eridan, qui offre le plus proche système planétaire à l’heure actuelle… Il y a une dizaines de système stellaire entre deux que j’ai exclu parce que formés d’étoiles de type K ou M et (a priori) dépourvues de planètes. Mais là encore, c’est peut être comme qui dirait présomptueux.

    En ce qui concerne la vie sur les autres planètes, il n’y a pas de doute que la présence d’eau liquide et de carbone constituerait un indice sérieux et prioritaire. Mais n’y a absolument pas à mêler cela à une nécessité de type finaliste et “cybernétique” (la planète “régulant” son équilibre chimique). Mars et Vénus n’ont pas “régulé” leur cycle de cette façon, par exemple. La vie est possible quand elle est possible, pas quand elle est “nécessaire”.

    Sinon, sur la proportion de planète habitable, l’avenir a beaucoup à nous apprendre, et dans peu de temps, c’est certain.

    a+

  7. 67
    mother

    1/Vaisseau génération
    Effectivement s’il faut entre 36 kg et 151 kg par kilo du vaisseau pour aller dans un système proche avec 1g d’accélération, c’est infaisable. On est donc obligé de passer par le système de vaisseau génération. Mais la masse d’AM nécessaire reste quand même 10 fois moins importante que le carburant de la fusion, et le temps de trajet environ dix fois plus court.

    2/Temps de trajet & carburant
    Imaginons qu’on envoie un vaisseau à fusion pour 700 ans vers un système quelconque. 200 ans plus tard on maitrise l’AM, et on peut envoyer un nouveau vaisseau en 70 ans seulement vers ce même sytème…
    On fait monter les colons de l’ancien vaisseau dans le nouveau et on leur explique qu’eux et leurs ancêtres ont perdus 200 ans pour rien ? :=/
    C’est un peu le problème d’un voyage très long, on est toujours tenté de supposer que bien des années/siècles plus tard, on pourra faire bien mieux…

    3/Fabrication de l’AM
    Je ne crois pas que l’energie que cela coûte sur terre soit un problème, bien sûr dans les conditions actuelles de productions de l’AM c’est impossible d’utiliser l’AM comme carburant. Mais si des progrès considérables sont faits dans ce domaine, et c’est très possible vu que pour l’instant on n’a pas encore tenté de fabriquer des “usines” à antimatière.
    Les USA pendant la deuxième guerre mondiale on construit d’énormes infrastructures qui couvraient plusieurs km2 dans plusieurs états pour séparer le plutoniom et fabriquer une bombe atomique. Ils sont fait un effort considérable tellement l’enjeu était important. Si on maitrise la fusion d’ici un siècle, rien ne nous empêche de construire plein de centrales à fusion pour fabriquer un peu d’antimatière et faire un vaisseau.
    Même si on atteignait un rendement de 1% pour la fabrication de l’AM, c’est à dire 10 fois moins rentables que la fusion, le fait que le vaisseau pourrait parcourir la même distance dix fois plus rapidement rendrait l’AM bien plus intéressante. Après tout c’est une conquête importante, peut importe le prix que cela coûte, l’important c’est que cela soit réalisable. Le fait de raccourcir x10 le temp de trajet change tout par rapport à un vaisseau à fusion :
    - la nature du projet (taille du vaisseau, envoyer 1Kg dans l’espace est très cher actuellement sans ascenseur spatial) pour une même cible
    - nombre de systèmes atteignables plus importants pour le même poids du vaisseau

    En revanche le problème de l’antimatière est qu’il faut la faire monter de la Terre vers l’espace, alors que si on prend un astéroide ou une comète comme carburant pour la fusion, pas besoin de monter tout cette masse dans l’espace.
    On a aussi la solution de fabriquer de l’AM à Partir d’une comète/astéroide, puis une fois le stock d’AM réalisé, détacher le vaisseau de l’astéroide et partir avec la petite quantité de carburant AM ainsi produit, et commencer proprement dit le voyage.

    4/Rayons gammas pour l’AM
    1cm de plomb absorbe 50% des rayons gamma.
    Une tuyère très epaisse en plomb qui se rongerait petit à petit sous l’action des rayons gamma pourrait etre une solution.

    5/Motivation
    Si l’objectif est de vivre dans l’espace dans une colonie, alors il serait plus motivant de partir juste plus près du soleil, ou de consrtuire une énorme station sur Mars… Le trajet serait de un an à peine. Le retour serait possible, le trajet moins long …
    Je suis pas sûr que l’intérêt d’aller coloniser un systeme stellaire sans planètes habitables suffise pour motiver des centaines de personnes à sacrifier leur vie pour que leur descendant puissent vivre dans un autre système.
    D’autant plus que le cout est démesuré et aucune nation ne voudrait financer ça. Et cela n’apporterait rien ou pas grand chose à ceux qui auraient initier le projet…ni aux colons qui y participeraient.

    Alors que coloniser une planète qui ressemblerait à la Terre … cela signifie rendre l’humanité quasi “immortelle” car vivant dans plusieurs systèmes et non plus sur une seule planète, à la merci d’une collision, de la transformation du Solei len géante rouge etc …
    Les colons seraient alors aptes à créer un monde nouveau, meilleur etc … Un peu comme l’état d’esprit des colons d’Amérique au 15e siècle.
    Les nations seraient alors pretes à déployer d’enorme financement.

  8. 68
    Gilgamesh

    Re !

    Mais la masse d’AM nécessaire reste quand même 10 fois moins importante que le carburant de la fusion, et le temps de trajet environ dix fois plus court.

    On emporte 10 fois moins de carburant ou on voyage 10 fois plus rapidement, mais pas les deux ensembles.

    Et ça, c’est en supposant que le carburant AM soit stocké dans des support matériel de masse nulle, ce qui n’est pas du tout réaliste. Il faut actuellement des dizaine de kg d’équipement, pour stocker qq 1013 antiproton, soit un ratio de 10-15… Voire en fin de post les solutions futuristes proposée pour améliorer ce taux.

    Des antiprotons produits au CERN peuvent être stockés dans une trappe de Penning comme celle-ci, et envoyés par voie de surface ou par avion dans un laboratoire industriel ou militaire. La plus grande partie de cette “bouteille'’ est un réservoir contenant de l’azote liquide destiné à refoidir la trappe de Penning proprement dite. Celle-ci se trouve au bas de l’équipement, à la hauteur du système d’injection/extraction des antiprotons.

    Et pour commencer, il faut produire cette antimatière, avec des rendement énergétique actuellement extrêmement bas.

    Or, pour propulser un très gros vaisseau, comme l’arche (20 Gt) il faut des quantités énormes d’énergies, donc des gigatonnes de carburant à extraire.

    Autant pour la croissance on peut utiliser l’énergie du Soleil, autant pour le carburant, il faut extraire des isotopes fusibles dans le système solaire (ou dans l’eau de mer). Et ça que ce soit pour l’utiliser directement dans un moteur à fusion ou pour produire de l’antimatière.

    On se trouve donc devant un problème plutot brutal d’énergie primaire d’une ampleur difficilement concevable dans notre référentiel terrestre actuel. On ne peut pas raisonner sans avoir quelques ordres de grandeur en tête.

    Les réserves mondiales prouvées de pétrole au 1e jan 2004 était de 140Gtep. Chaque tep représente une énergie de 42 GJ, soit un total énergétique de 5,9e21 J

    Pour propulser à v=4500 km/s puis ralentir une Arche de M=20 Gt avec un carburant dont la vitesse d’éjection est ve=15000 km/s on a besoin d’après l’équation de Tsiolkovski d’une masse de carburant de :
    Mc=M[1-exp(2v/ve] = 16 Gt.

    Prenons du deutérium (le plus abondant des isotopes fusibles naturel) dont la densité énergétique est de 5e14J/kg environ.

    Cela représente une énergie embarquée de 8,2.1027 J. Pour une Arche de 50 000 habitants, cela signifie que l’entreprise réclame une consommation d’énergie par tête qui représente 1,6.1023 J, soit 28 fois l’ensemble des réserves prouvées de pétrole. Cela répond à ton point 3 : bien sur que si, la quantité totale d’énergie à fournir est LE problème du trajet interstellaire. Et non, peu n’importe pas le prix de ça coute, dès lors que l’entreprise représente par elle même 1 million de fois les réserves de carburants fossiles actuels…

    Il est évident que la question de l’efficacité énergétique de la conversion matériau brut -> propulsion est première dans cette affaire.

    En outre, ce carburant doit être extrêmement sûr et facilement stockable sur des durée de plusieurs siècles. Ce n’est pas le cas de l’antimatière, il s’en faut de plusieurs dizaines d’ordres de grandeur à tous les niveaux (rendement de transformation * masse de stockage * durée de stockage). C’est un essai prospectif qui prend le partie pris d’être réaliste et je me détourne explicitement des solutions qui relèvent purement de la science fiction.

    Pour l’extraction du carburant on a le choix :

    * traiter de très grand volume d’eau de mer (de l’ordre de 1 million de km3, soit 1 millième de l’océan terrestre)

    * l’extraire des petits corps

    * l’extraire de l’atmosphère d’Uranus (le meilleurs compromis distance x abondance x gravité de surface) - on disposerait alors également d’He3 mais le problème est alors de le stocker en masse, car il n’est pas possible de le stocker sous forme de glace, comme le deutérium.

    Pour ce qui est de rattraper le vaisseau lent par un vaisseau rapide, ça n’a aucune importance. Ce n’est pas un sacrifice de vivre dans l’Arche, sinon ce n’en est pas une. Et si tu fais un raisonnement de ce genre, par récurrence on ne part jamais.

    Ce qui nous amène à la motivation de ce genre d’entreprise : il est d’abord évident qu’aucune nation terrestre n’est capable de mener à bien ce genre d’entreprise. Elle n’en retire rien. Et a ce niveau d’investissement, on ne peut pas se contenter du bénéfice symbolique. Les nations terrestres peuvent simplement offrir l’investissement pour permettre à une micro-nation, qq milliers d’individus au départ, à s’automiser dans l’espace. Et c’est cette nation qui construirait l’Arche, dont ce serait le territoire. Elle pourrait y vivre plusieurs générations dans le système solaire, en attendant de disposer du carburant disponible.

    Si cette entreprise est efficace et qu’on dispose de l’énergie alors pourquoi ne pas partir ? Au niveau des modes de vie, ça ne change rien. Par contre, l’idéal d’éternité du genre humain pourrait alors s’accomplir.

    a+

    Les antiprotons et les positrons seront très probablement les seules formes d’antimatière qu’il sera possible de produire en quantités substancielles dans les années à venir. Pour les fabriquer, on accélère des protons (ou d’autres particules) à des énergies telles que lorsqu’ils entrent en collision avec une cible, une partie de l’énergie se transforme en des paires particules-antiparticules. En pratique, si l’on utilise une cible fixe, la production des antiprotons est maximale (par rapport à l’énergie investie) lorsque les protons sont accélérés à une énergie de 120 GeV (giga électron-volts) environ [A]. Comme moins d’une collision sur trente produit un antiproton, et que la masse de l’antiproton ne correspond qu’à 0.94 GeV, le rendement énergétique est très mauvais. De ce point de vue, une meilleure solution serait d’utiliser un anneau-collisionneur dans lequel les antiprotons sont produits lors de la collision frontale de protons tournant en sens opposé [B]. Toutefois, en théorie, un rendement encore plus élevé pourrait être obtenu si l’on parvenait à recréer en laboratoire des conditions semblables au `Big-Bang’ originel, dans lesquelles la production de paires protons-antiprotons deviendrait spontanée. Il est possible que de telles conditions se retrouvent dans des plasmas de quarks et de gluons créés lors des collisions de ions lourds, lesquelles font aujourd’hui l’objet de recherches intensives [C].Une fois les antiprotons créés (avec tout un spectre de vitesses et de directions), l’étape suivante consiste à les capturer avant qu’ils n’interagissent avec la matière. Ce problème est bien plus difficile que celui de la production, et il a fallu près de 30 ans pour qu’on trouve, au CERN, une solution. Pour cela il a fallu inventer le `refroidissement stochastique’, une technique qui permet de réduire la largeur de la distribution des vitesses des antiprotons [Voir “La découverte des bosons intermédiaires” dans La Recherche d’avril 1984, p.508-510]. Il est alors possible de concentrer les antiprotons dans un très petit faisceau, de les accumuler dans des anneaux de stockage et, finalement, de les ralentir jusqu’à des énergies telles qu’on puisse les immobiliser dans des pièges électromagnétiques.

    Dans un piège de Penning, les particules sont confinées radialement par un champ magnétique et axialement par un champ électrostatique. C’est avec un piège cylindrique de ce type que l’on a pu garder en bouteille, à l’université de Washington, le même électron pendant plus de 10 mois [D], et que l’on vient de mettre “en boîte,” au CERN, des antiprotons pour la première fois. Pour conserver des antiprotons pendant des années, il faut encore s’assurer que le vide soit meilleur que 10-18 Torr, ce qui n’est possible qu’avec des enceintes fermées (après remplissage) et refroidies à la température de l’hélium liquide. Il est alors pratiquement impossible de mesurer la qualité du vide, si bien que seule l’expérience permettra de vérifier si la technique est bonne. En cas de succès, il sera possible de réaliser des bouteilles transportables d’une capacité de 1022 à 1013 antiprotons [E].

    Alors commencera la phase décisive pour les applications pratiques de l’antimatière : sera-t-il possible de développer des techniques de stockage qui soient à la fois suffisamment compactes et simples ? Pour cela, deux voies principales sont envisagées. La première consiste à faire de l’antihydrogène en combinant des antiprotons avec des positrons, puis à essayer de former des billes d’antihydrogène solide, que l’on pourrait manipuler et conserver à l’aide de diverses techniques de lévitation électromagnétique ou optique. On obtiendrait de la sorte des densités de stockage très élevées, mais uniquement dans des enceintes cryogéniques et des vides de très haute qualité.

    L’approche la plus séduisante serait de stocker les antiprotons dans de la matière ordinaire. En effet, si toute particule d’antimatière a tendance à s’annihiler spontanément au contact de la matière (que ce soit sous l’effet de l’attraction électromagnétique dans le cas des positrons et des antiprotons, ou des forces de van der Waals dans le cas de l’antihydrogène) l’existence d’états métastables d’antiprotons dans la matière condensée ne peut pas être exclue à priori [F]. Par exemple, diffusé à très basse énergie dans un solide, un atome d’antihydrogène se déplacera jusqu’au moment où son positron s’annihilera avec un électron. L’antiproton pourra alors prendre la place de cet électron et, sous certaines conditions, rester confiné dans certains points du réseau cristallin. On ne sait pas encore aujourd’hui quels types de matériaux utiliser, mais l’immense diversité des composés chimiques est à la disposition des chercheurs.

    D’autres possibilités moins évidentes au premier abord pourraient se présenter encore. Par exemple, tout comme les électrons, il est possible que les antiprotons forment dans l’hélium liquide une bulle au centre de laquelle ils subsisteraient indéfiniment [F]. De même, il n’est pas impossible que des antiprotons dans un métal y forment des paires de Cooper qui, telles les paires d’électrons responsables de la supraconductivité, seraient virtuellement incapables de perdre par choc de l’énergie cinétique, et donc de s’annihiler.

  9. 69
    Gilgamesh

    Un site
    résumant les 4 principaux concepts de propulsion utilisant l’antimatière.

    * Propulsion à fusion-fission par catalyse antimatière (ACMF: Antimatter Catalyzed Microfission/Fusion)

    * Propulsion a fusion initiée par antimatière (AIM : Antimatter Initiated Microfusion)

    * Propulsion à antimatière à chauffage plasma (Plasma Core, pure antimatter/matter)

    * Propulsion à antimatière à faisceau dirigé (Beamed Core, pure antimatter/matter)

  10. 70
    Arche interstellaire et moteurs à antimatière « Dr. Goulu

    […] Arche interstellaire et moteurs à antimatière Publié le 16 décembre 2007 par Dr. Goulu En février, Gilgamesh a publié sur Parcours Etranges un article culte : “Arche interstellaire“, dont je vous ai déjà parlé ici. “Culte” parce que cet article a reçu jusqu’ici plus de 200 commentaires, presque tous constructifs et intéressants, faisant parfois plusieurs pages bien documentées, et que l’on peut suivre facilement grâce au flux RSS de l’article. […]

  11. 71
    Jyhan_

    Bravo, je suis impressionné par votre post et toutes les connaissances nécessaires pour le faire. L’analyse et la synthèse des connaissances actuelles qui y sont décrites permettent de mieux appréhender le domaine du possible sur ces voyages (à notre niveau de connaissance).
    J’ai été surtout impressionné par l’idée du vaisseau “vivant”, une structure biologique semble effectivement offrir, mieux que toute structures inertes, les garanties d’autoréparations. Cependant cela implique une sérieuse avancée en science biogénétique mais bon au vu des progrès quasi exponentiels des 2 derniers siècles, cela ne semble pas irréaliste.

    Voici mes apports à ce forum :
    1) Avec l’avancée de la robotique et de l’IA (Intelligence Artificielle) ne pourrais t’on pas envisager que dans l’avenir la solution du terraforming de la planète cible serait résolue par l’application d’un principe de Turing : Envoi d’une usine automatisée et robotisée sur une planète avec comme directive de se multiplier (créer d’autres usines) avec l’énergie et les matières premières disponibles sur place. Cette phase d’expansion exponentielle (stratégie empruntée au monde du vivant ^^) permettra dans un temps relativement court d’avoir une main d’oeuvre gigantesque sur la planète. Au moment To toutes les machines modifient leurs programmations et s’occupent uniquement du Terraforming. Les principes de Terraformation (voici un travail d’étude intéressant : http://nintenball.ifrance.com/telechargements/tpe/la-terraformation-de-mars_v3.01.pdf ) pourraient alors être pourraient être appliqué à une toute autre échelle.
    Le but de cette remarque est que les conditions du voyage en seraient modifiées : effectivement, arriver sur une planète quasi habitable (tête presque nue ^^ ) ne nécessiterais plus d’avoir une arche d’habitation, une fois arrivé sur place.

    2) Je me pose en faux contre l’idée d’une société pérenne d’Archonautes sur une durée si longue (plusieurs générations). Les aléas sont trop importants, il suffit d’une personne (folie temporaire, envie d’autodestruction, terrorisme) pour mettre l’arche gravement en danger. Alors au vu des évolutions sociales que l’homme a vécu en seulement 100 ans (guerres, course au pouvoir, terrorismes, etc.), on peut difficilement croire que l’arche arrivera à destination.
    Mais, je ne veux pas dire “non” sans proposer une solution : je profite de l’avancée technologique en robotique, IA et biogénétique annoncé dans mon point précédent pour dire qu’il suffit d’envoyer des robots ainsi que des embryons congelé de divers animaux et également d’hommes. Dans le vaisseau, il y aurait également des utérus artificiels (non non ce n’est pas aussi farfelus que vous pensez). L’éducation des enfants serait faite par les robots. L’avantage est double : on apporte en une fois toute la biodiversité nécessaire et en grand nombre d’exemplaire et on laisse le travail ainsi la longue traversée au robots (et plus de problèmes d’aléas sociaux).

    3) Mon dernier point est une conclusion basée sur des réflexions et de la simple déduction.
    Pour cela voici 3 hypothèses / postulats de départ :
    - la vie existe ou a existé ailleurs que sur terre dans notre galaxie
    - l’intelligence est une évolution normale/possible de la vie
    - les extraterrestres ne sont jamais venus sur terre
    Si ces trois hypothèses sont vraies alors on en déduit :
    “Aussi avancé en technologie que l’on soit, il ne sera jamais possible de coloniser un autre système solaire !”
    La raison en est évidente : l’univers existe depuis 15 milliards d’années et il suffit de quelques millénaire pour générer une civilisation technologiquement avancée. Si une civilisation comme ça avait eu la possibilité de coloniser un autre système solaire elle l’aurait faite et après quelques millénaires, la nouvelle planète sera également capable d’essaimer ailleurs (la encore on vois une expansion exponentielle) Et en quelques millions d’années toutes les planètes terra-formables de la galaxie seront peuplées. Quelques millions d’années ce n’est rien sur la durée de l’univers. Hors, le troisième postulat indique que : non ! personne n’est venu à nous et même le programme SETI ne trouve rien. Donc la colonisation d’autres systèmes est impossible. Elémentaire mon cher Watson !

  12. 72
    Gilgamesh

    Jyhan a écrit:

    Bravo, je suis impressionné par votre post et toutes les connaissances nécessaires pour le faire. L’analyse et la synthèse des connaissances actuelles qui y sont décrites permettent de mieux appréhender le domaine du possible sur ces voyages (à notre niveau de connaissance).
    J’ai été surtout impressionné par l’idée du vaisseau “vivant”, une structure biologique semble effectivement offrir, mieux que toute structures inertes, les garanties d’autoréparations. Cependant cela implique une sérieuse avancée en science biogénétique mais bon au vu des progrès quasi exponentiels des 2 derniers siècles, cela ne semble pas irréaliste.

    Voici mes apports à ce forum :
    1) Avec l’avancée de la robotique et de l’IA (Intelligence Artificielle) ne pourrais t’on pas envisager que dans l’avenir la solution du terraforming de la planète cible serait résolue par l’application d’un principe de Turing : Envoi d’une usine automatisée et robotisée sur une planète avec comme directive de se multiplier (créer d’autres usines) avec l’énergie et les matières premières disponibles sur place. Cette phase d’expansion exponentielle (stratégie empruntée au monde du vivant ^^) permettra dans un temps relativement court d’avoir une main d’oeuvre gigantesque sur la planète. Au moment To toutes les machines modifient leurs programmations et s’occupent uniquement du Terraforming. Les principes de Terraformation (voici un travail d’étude intéressant : http://nintenball.ifrance.com/telechargements/tpe/la-terraformation-de-mars_v3.01.pdf ) pourraient alors être pourraient être appliqué à une toute autre échelle.
    Le but de cette remarque est que les conditions du voyage en seraient modifiées : effectivement, arriver sur une planète quasi habitable (tête presque nue ^^ ) ne nécessiterais plus d’avoir une arche d’habitation, une fois arrivé sur place.
    .

    C’est une autre stratégie, je suis d’accord.

    Pour la terraformation il me semble que le problème se résume à celui de l’oxygène étant entendu que serait écartées les planètes qui n’offrent pas la possibilité, après une évolution chimique de surface catalysée à donner une pression partielle d’oxygène ppO2~ 104 Pa. Je vois bien des cellules vivantes autotrophes pour cela, semées sur une planète océanique, plus qu’une usine autoreparatrice.

    La masse d’O2 à synthétiser serait de M = A • ppO2/g0 avec A la surface planétaire et g0 la gravité de surface. La production d’une mole d’O2 (32 g) par photosynthèse nécessite 1,7 kJ et le rendement de surface d’un ecosystème photosynthétique est compris entre 0,5 et 0,1%.

    Pour un planète de gravité g0 ~ 10 m/s2 et de surface 5 x 1014 m2, recevant un flux stellaire P = 350 W/m2 il faudrait synthétiser ~2.1019 mol d’O2 ce qui représente l’activité photosyntétique de 2 x 1014 m2 an, au rendement de 0,5%. Pour une surface productive représentant 1% de la surface, la ppO2 est produite en 50 ans, sans compter la phase d’expansion des écosystème (qui elle peut durer bien plus que cela…). Mais cela suppose que cet O2 se retrouve intégralement sous forme libre dans l’atmosphère, ce qui n’est pas très réaliste. Il va d’abord oxyder les minéraux de surface, les composés atmosphériques et être dissous dans l’eau océanique si la planète offre de grande surface d’eaux libre. Mais faut voire. Il faut trouver la planète favorable, avec une surface déjà largement oxydée (comme Mars) et des eaux de surface peu profondes…

    Or il me semble que ce genre de cible doive être en effectif très restreint dans des durées compatibles avec un voyage en SI. Je ne suis pas sur qu’on ait bien le choix. S’il y a 10 planètes de ce type accessibles à l’humanité depuis la Terre (en couple distance - terraformation potentielle) c’est déjà beau… Ce n’est que mon avis. En outre, il y a fort a parier que si une planète en ZH offre les conditions nécessaire à une terraformation foudroyante (qq siècle) c’est qu’elle dispose déjà une vie prolifique autochtone.

    Quel que soit le “proliférateur” utilisé (vivant, mécanique ou nano), il faut qu’il soit extremement bien ajusté aux conditions de surface, ou très adaptatif. Je vois mal comment faire sans envoyer d’abord une sonde pour régler les paramètre et une sonde pour vérifier que tout c’est bien passé, avant d’envoyer des hommes. Par ailleur autant je crois aux nanotechnologies pour créer de petite unités autonomes et fonctionnelles, autant j’ai du mal à me convaincre de la possibilité d’autoorganisation complexe vraiment autonome. Intuitivement, il me semble qu’on doive s’attendre à pas mal d’échecs.

    Jyhan a écrit:

    2) Je me pose en faux contre l’idée d’une société pérenne d’Archonautes sur une durée si longue (plusieurs générations). Les aléas sont trop importants, il suffit d’une personne (folie temporaire, envie d’autodestruction, terrorisme) pour mettre l’arche gravement en danger. Alors au vu des évolutions sociales que l’homme a vécu en seulement 100 ans (guerres, course au pouvoir, terrorismes, etc.), on peut difficilement croire que l’arche arrivera à destination.
    Mais, je ne veux pas dire “non” sans proposer une solution : je profite de l’avancée technologique en robotique, IA et biogénétique annoncé dans mon point précédent pour dire qu’il suffit d’envoyer des robots ainsi que des embryons congelé de divers animaux et également d’hommes. Dans le vaisseau, il y aurait également des utérus artificiels (non non ce n’est pas aussi farfelus que vous pensez). L’éducation des enfants serait faite par les robots. L’avantage est double : on apporte en une fois toute la biodiversité nécessaire et en grand nombre d’exemplaire et on laisse le travail ainsi la longue traversée au robots (et plus de problèmes d’aléas sociaux).

    La question de la stabilité de la société des archonautes m’a souvent été posée, ainsi que la question de la vie robotisée. Concretement et après réflexion, les choses se présentent mieux qu’on ne le pense. Non, il ne suffit pas d’un acte isolé pour remettre en cause la viabilité de l’Arche. Tous les éléments de sécurités sont redondants et il faudrait des charges de pls kilotonnes pour percer la paroi.

    La durée du trajet, inférieur au millénaire, reste dans l’ordre de grandeur de persistance des organisations humaines de type cités-états. C’est bien justement une caractéristique clé de l’espèce humaine que de pouvoir édifier des structures d’organisations collectives de durées multiséculaires.

    Et puis il y a des facteur propres qui me semble favorables par rapports au sociétés terrestres :

    Pour l’archonaute :

    1/ Il participe a un projet immense, prophétique, plus grand que tous ce que l’Homme a pu entreprendre. Il est porteur d’un espoir immense. Bref, y’a du souffle, c’est pas mesquin.

    2/ La perspective offerte pour la première fois dans l’histoire de l’humanité est à la fois très lointaine et exactement datée. En général ces deux termes s’excluent et il n’est pas étonnant dans ces conditions que les hommes se cherchent des objectifs au jour le jour et que la société avance en zig zag. Là c’est dès l’enfance que l’individu saura a quelle phase du trajet il participe. La société en permanence sera maintenu dans des devoirs très exacts.

    3/ Dans l’immédiat il n’y a rien a conquérir que collectivement, alors que la Terre pendant longtemps et encore un peu maintenant un individu pouvait se donner une ambition de conquérant.

    4/ Un individus seul ne peut imaginer faire “tourner” l’Arche, alors que sur Terre on n’a pas à ce préoccuper de faire tourner la machine Terre. La solidarité sociale n’est pas une option morale mais une nécessité naturelle.

    5/ C’est une société “en face à face”, comme une cité antique. Elle est donc unis par des lien souvent personnels et par une identité très forte de culture et de destin

    6/ C’est une société sans frontière à défendre ou à franchir pour voir si l’herbe est plus verte de l’autre côté. Elle ne craint aucun ennemis, ne s’en crée aucun.

    Concernant l’éducation par des robots : l’éducation est un processus par lequel le jeune humain apprend la valeur du monde au travers d’une interaction à dominante émotionnelle avec un adulte de son espèce. Un robot capable d’éduquer un humain devrait lui même ressentir les émotions qu’il inculque et au travers desquelle le petit homme apprend à se repérer. Ce robot serait donc aussi moralement vulnérable qu’un humain.

    Tout cela a été fort discuté ici, si tu veux approfondir les arguments employés de part et d’autres :
    http://forums.futura-sciences.com/thread38109-9.html

    Jyhan a écrit:

    3) Mon dernier point est une conclusion basée sur des réflexions et de la simple déduction.
    Pour cela voici 3 hypothèses / postulats de départ :
    - la vie existe ou a existé ailleurs que sur terre dans notre galaxie
    - l’intelligence est une évolution normale/possible de la vie
    - les extraterrestres ne sont jamais venus sur terre
    Si ces trois hypothèses sont vraies alors on en déduit :
    “Aussi avancé en technologie que l’on soit, il ne sera jamais possible de coloniser un autre système solaire !”
    La raison en est évidente : l’univers existe depuis 15 milliards d’années et il suffit de quelques millénaire pour générer une civilisation technologiquement avancée. Si une civilisation comme ça avait eu la possibilité de coloniser un autre système solaire elle l’aurait faite et après quelques millénaires, la nouvelle planète sera également capable d’essaimer ailleurs (la encore on vois une expansion exponentielle) Et en quelques millions d’années toutes les planètes terra-formables de la galaxie seront peuplées. Quelques millions d’années ce n’est rien sur la durée de l’univers. Hors, le troisième postulat indique que : non ! personne n’est venu à nous et même le programme SETI ne trouve rien. Donc la colonisation d’autres systèmes est impossible. Elémentaire mon cher Watson !

    Mon Dieu, tu viens de retrouver le paradoxe de Fermi, felicitation :)

    A ce sujet, j’écrivais dans le fil cité ci-dessus :

    1- ce fil, dont les calculs propulsifs de Lambda, “donne à revoir” le paradoxe de Fermi. Si les ET ne sont pas parmi nous, ce n’est peut être pas parce qu’ils snobent notre planète, depuis le temps, mais simplement que c’est sans doute extrêmement difficile d’accéder au niveau technologico-sociétal où le voyage interstellaire devient envisageable.

    2- Les choses apparaissent ainsi éclairé d’un point de vue lucide, mais ceci dit, Lambda, par rapport à l’ensemble de ce qui a été exposé, ce qui apparait formidable ne provient pas de la simple place à allouer aux moteurs… Envisager une simple structure de 100 Gt représente en soi une impossiblilité dans ce contexte réaliste-là.

    3- Le désir correspondant est malgrè tout tel et porté à des horizons historiques tels que je trouve hors de propos de conclure par une simple opinion (j’y crois ou j’y crois pas). Cet avenir-là ne nous appartiens pas.

    4- Il me semble que le but d’une telle discussion doit être plus honnêtement de rechercher à esquisser le cahier des charges d’une structure d’essaimage viable. Réalisable ou pas ? Dans l’ignorance de la réponse qu’en donnera l’avenir, il faut simplement viser au plus accessible, en terme massique, énergétique et sociétal. Ca représente déjà une ambition folle, a la limite de la fantaisie et pourtant rationnelle si on en reste a l’état actuel de l’art, c-a-d sans espérer de boulversements touchant aux fondamentaux de la physique, guidé en ceci par le paradoxe de Fermi.

    5- Car si le voyage dans l’espace etait réellement très commode passé un stade technologique quelconque, alors l’espace serait une ruche, vu les capacité de reproduction du vivant. Comme ce n’est pas le cas, on doit bien se figurer qu’il y a effectivement une difficultée majeure. Or nous sommes effectivement et dès aujourd’hui en présence de tout un bouquet de ce genre de difficulté : c est fini et fait pauvre figure face aux distances typique de l’Univers, voire simplement de la Galaxie. L’énergie disponible embarquable représente des masses considérables, les êtres vivants se développent dans des biosphères que tout oppose au vide spatial.

    6- Dans ce cadre, je trouve l’état de l’art finalement encourageant pour notre espèce, sur un long terme qui reste historique (disons : moins de 10 000 ans, c-a-d dans un terme qui ne fait que doubler l’histoire déroulée depuis le Néolithique). Pas si décourageant que ça, si on veut l’exprimer d’une autre manière. On a coutume en exobiologie de considérer de civilisation de niveau I à III (I : maitrise de l’énergie d’une planète, II : d’une étoile, III : d’une galaxie). Il suffirait d’accéder au niveau ‘1.01′ c-a-d à la maitrise des petit corps d’un système stellaire pour accéder à d’autres systèmes stellaires qui nous offriraient à leur tour des ressource permettant d’essaimer un périmètre plus loin, et par vagues successives, aussi loin que l’on veut.

  13. 73
    Pierre

    Bonjour Gigamesh,

    quelle épopée nous décrivez-vous là !!!

    Bravo pour la doc. Un peu déçu que le vol relativiste soit énergétiquement insoluble en l’état actuel, mais bon, le réel est ainsi.

  14. 74
    Tanaka

    Bonsoir à tous.

    Tous d’abord un grand MERCI à Gilgamesh pour cet article de qualitaÿ (hfr powaaa). Très intéressant et enrichissant. Les commentaires sont presqu’aussi intéressant que l’article en lui même :)

    D’où une petite question de ma part sur un commentaire fait par Gilgamesh à propos de cette image:

    Ce graphique signifie t-il qu’a des vitesses proche de la lumière on doit éjecter une quantité infinie de matière pour pouvoir augmenter sa vitesse d’un incrément infiniment petit?

    En effet le ratio M0/M augmente. Donc M diminue puisque M0 constant, si j’ai bien compris le graphique du moins.

    D’où ma seconde question, qui est probablement fort rhétorique (mais tous le monde n’a pas un doctorat en physique): quel principe physique sous jacent place l’asymptote verticale à v=c ?

    Pourquoi ne peut-t on pas allez plus vite que la vitesse de la lumière? (J’ai compris qu’il fallait une énergie infinie pour pouvoir augmenter notre vitesse d’un incrément infinitésimale mais pourquoi faut- il cette énergie infinie. Pourquoi la limite est-elle à c et plus généralement pourquoi y a t’il une limite?).

    J’ai conscience que mes questions dépassent le cadre de la discussion et j’espère qu’elles ne gêneront pas trop la continuité des propos échangé.

    Amicalement,

    Tanaka.

  15. 75
    Paganel

    Pourquoi la limite est-elle à c et plus généralement pourquoi y a t’il une limite?

    Jez crois me rappeler que ‘est une conséquence des 3 données d’observation introduites dans la Relativité, la troisième étant la constance de la vitesse de la lumière (apparemment) dans tout repère galiléen. La loi d’addition des vitesses devient alors différente de celle de Galilée (où elle était une simple somme), et il n’est plus possible à une vitesse de dépasser c. Si l’un des trois axiomes était inexact - par exemple que la vitesse de la lumière ne soit pas exactement la même dans tous ces repères, alors il resterait une chance pour que la théorie soit légèrement inexacte. Je ne crois pas cependant qu’on ait pu la prendre vraiment en défaut jusqu’à présent.

    Je crois aussi qu’on avait eu un petit espoir de ce côté-là avec l’”anomalie Pioneer”, mais je ne sais pas où en sont les choses…

  16. 76
    mother

    Parce que C est justement “l’infini” en terme de vitesse en physique relativiste.
    A C le temps s’arrête pour l’objet qui se déplace !

    C’est un horizon infranchissable.
    Imagine bien que le temps ralentisse pour l’objet qui se déplace au fur et à mesure qu’il accélère. Imagine les gens dans le vaisseau qui accélèrent encore leur vitesse. Certes pour eux l’accélération est réelle. Mais pour les observateurs extérieurs elle est infime. Et comme l’accélération a pour effet de raccourcir encore plus le temps dans le référentiel du vaisseau, c’est un cercle sans fin. Car l’écoulement du temps n’est pas le même.
    Pour simplifier, quand tu exprimes une vitesse en Km/h, que se passe t’il quand une heure ça n’est pas la même chose pour l’objet qui se déplace que pour les observateurs extérieurs ?

    Tu devrais consulter des articles sur la théorie de la relativité générale. Tu en a plein sur le net.
    Mais il faut en lire des tas avant d’apréhender ça de façon naturelle, tellement à priori cela peut sembler contre-nature pour un cerveau habitué à fonctionner en physique Newtonnienne.

    Na notion bien importante pour trouver ça “logique” est de comprendre que le temps est une dimension et ne s’écoule pas à la même vitesse partout.

  17. 77
    Paganel

    Parce que C est justement “l’infini” en terme de vitesse en physique relativiste.

    On peut en effet le présenter comme cela. Comme le dit le cycliste de “M. Tompkins” dans le monde où la vitesse de la lumière est ramenée à 30 km/h : « Il n’y a pas de limitation de vitesse. Je peux aller aussi vite que je veux », et de montrer l’heure à sa montre pour en témoigner. Il n’arrive néanmoins pas à temps à la gare,parce que son temps n’est plus celui de la gare.

    A C le temps s’arrête pour l’objet qui se déplace !

    Oui; mais, heureusement, pas longtemps ;-)

    Remarquons que tout est question de point de vue : pour l’objet en question, c’est tout l’univers qui se déplace, et qui s’est à la fois arrêté et aplati. On comprend que ça demande de l’énergie !

    Tu devrais consulter des articles sur la théorie de la relativité générale. Tu en a plein sur le net.

    Encore que pour comprendre cet exemple précis, la restreinte suffise amplement :-)

    “M. Tompkins”, de Gamow, reste ce que j’ai vu de mieux dans le genre, mais se procurer plutôt une ancienne édition que l’actuelle, qui a été réécrite de façon “politiquement correcte” et moins pittoresque (bien qu’en contrepartie complétée de considérations sur les quarks)

  18. 78
    Tanaka

    Merci pour vos deux réponses.

    J’ai bien conscience que le temps ralentit plus on va vite. (J’ai même compris cela à travers l’expérience du type qui laisse tombé sa balle dans le train qui va vite) Mais je me demandais pourquoi le temps “s’arrête” à la constance “c” et pas à une autre constante?

    D’après ce que j’ai compris de l’explication de Paganel, “c” est la constante car on a jamais pu la mettre en défaut??

    Donc si je dis que rien ne peut allez plus vite que c+1000km/s c’est bon aussi puisque rien ne va plus vite que cette vitesse. Et si on a jamais rien observé entre c et c+1000 c’est simplement car on a pas fait les bonnes expérience..

    Ce que je veux dire c’est que je me pose la question sur la raison qui permet d’être aussi catégorique. “Il est impossible d’allez plus vite que c”?

    Amicalement,

    Tanaka.

  19. 79
    mother

    Donc si je dis que rien ne peut allez plus vite que c+1000km/s c’est bon aussi puisque rien ne va plus vite que cette vitesse. Et si on a jamais rien observé entre c et c+1000 c’est simplement car on a pas fait les bonnes expérience..

    Ce que je veux dire c’est que je me pose la question sur la raison qui permet d’être aussi catégorique. “Il est impossible d’allez plus vite que c”?

    Amicalement,

    Non non attention ! Ce n’est pas juste par ce qu’on a rien trouvé qui aille plus vite. C’est un des conclusions de théories (donc formules mathématiques) qui ont été validés expérimentalement.

    Le temps ne s arrete pas net à C. Il ralentit progressivement en fonction que la vitesse augmente (validé expérimentalement & mathématiquement) ! Il est normal à ce moment là, que lorsque le temps est à “0″ on ne puisse plus aller plus vite.

  20. 80
    Paganel

    Tanaka, c’est juste la conséquence d’un calcul établi à partir de ce qu’on a pu observer, rien de plus, rien de moins. Ce qu’on a observé à donné 3 bases pour construire une mécanique, qui s’écartait un peu de celle de Galilée aux hautes vitesses, et beaucoup aux très hautes vitesses. Or, de la mécanique galiléenne à la RR, on modifie juste une des bases : le postulat galiléen selon lequel les vitesses s’additionnent est remplacé par un postulat déduit de l’observation (expérience de Michelson) selon lequel la vitesse de la lumière est observée partout constante, quelle que soit la vitesse du mobile observateur et sa direction. On tourne la manivelle à calculs symboliques et on en déduit qu’aucune vitesse ne pourra être plus grande que c (bien qu’on ait le droit de considérer l’existence hypothétique de particules nommées tachyons dont la vitesse ne pourrait pas, elle descendre plus bas que c; mais c’est une autre histoire et qui à ma connaissance n’a jamais débouché sur rien)

    Rien ne dit qu’il n’existera pas demain une troisième mécanique qui viendra prendre le relais en étant encore plus précise que la seconde, parce qu’elle tiendra compte des effets quantiques (ce que ne fait pas la RG). C’est même là-dessus que plein de gens travaillent en ce moment.

    Cela étant, aux grandes vitesses, la RR et la RG semblent pour le moment en excellent accord avec les observations; par exemple les particules instables à haute vitesse ont des trajectoires d’une longueur qui ne s’explique que par les effets relativistes sur leur temps propre; et les calculs de nos GPS doivent même tenir compte de la Relativité pour utiliser les informations fournies par les satellites. Si l’on découvre quelque chose de nouveau, des corrections à la théorie, ce seront plutôt là où elle ne s’accorde pas avec la MQ, donc dans les petits espaces, les petits temps, les petites énergies, je suppose : en Relativité tout est supposé continu alors qu’en MQ plein de choses sont au contraire discrètes.

Pages : « 1 2 3 [4] 5 6 7 8 » Show All

Ajoutez un commentaire

Vous pouvez utiliser ces tags :


Close
E-mail It