L'espace astronomique selon YB :
Citation de: YBEspace astronomique (1)
Je commence ici une série de réflexions sur l'espace avec, pour
thème, l'astronomie spatiale et terrestre, vue plus particulièrement
du côté de l'instrumentation.Pour l'essentiel, ce texte a été publié
sur Fr.sci.astronautique, mais peut intéresser les "astronomes".
Dès l'invention du télescope, il devint rapidement évident que la
turbulence atmosphérique posait un problème. Celui-ci n'a jamais
cessé.
En 1948, les Etats-Unis inaugurèrent le plus grand télescope du monde,
le Hale du Mont Palomar en Californie. Doté d'un miroir primaire de
5,08 m de diamètre, construit avec une structure en nids d'abeilles
pour gagner en poids et inertie thermique, il était un chef-d'œuvre
qui paraissait impossible à surpasser. Ses concepteurs savaient par
exemple qu'un télescope plus grand aurait une inertie thermique telle
qu'il ne pourrait jamais être mis convenablement en température, ce
qui provoquerait des mouvements de convexion atmosphérique près du
miroir, ce qui dégraderait les images.
Plus d'un quart de siècle plus tard, les bureaucrates soviétiques
décidèrent de passer outre et de construire pour la gloriole le plus
grand télescope du monde : Le Zelentchouk de 6m de diamètre avec un
miroir massif. Le premier miroir cassa lors du polissage car on avait
oublier de mélanger du TritonX (un puissant détergent très toxique) au
liquide servant de solvant à l'abrasif. Ils utilisaient de l'eau
déminéralisée au lieu de kérosène additionné de TritonX, la poussière
de verre s'accumulât alors dans les rayures du verre, ce qui finit par
provoquer une tension de surface suffisante pour casser le disque de
verre.
Le second miroir fut traité plus correctement et arriva jusqu'à la
finition, mais son inertie thermique ne lui permit jamais, sur un site
de qualité douteuse, d'obtenir de bon résultats. La démonstration
était faite, rien ne pouvait surpasser le Mont Palomar. Et pourtant,
ce télescope, avec son pouvoir collecteur de lumière unique au monde,
n'avait pas une capacité de séparation optique supérieure à celle d'un
bon 20 cm amateur !
Evidemment, tous les astronomes le savaient, mais ils savait aussi qu'il
n'y avait pas de solution au problème... A moins d'aller dans l'espace,
au-dessus de l'atmosphère.
A Londres, dès 1944, sous les bombes des V2, certains se réjouirent de
ce qui arrivait : Ils savaient la fin de la guerre proche, quelques
mois, un ou deux ans tout au plus. Ils savaient aussi que leur camp
gagnerait et pourrait bénéficier de la technologie de l'adversaire, en
particulier ces bombes lancées par fusée qui arrivaient plus vite que
le son. Quelques calculs rapides leur montrait que les fusées qui
lançaient ces bombes devait atteindre 70 km d'altitude, presque la
limite de l'espace. Un autre calcul du type « dos d'enveloppe » leur
montrait qu'avec la technique des étages multiples, il serait possible
d'atteindre la vitesse orbitale et donc de créer un satellite
artificiel de la Terre. De là à y mettre un télescope, il n'y avait
qu'un pas.
Y.B.
Citation de: YBEspace astronomique (2).
A la fin des années 40 et pendant les années 50, la situation était
claire : Avec le télescope du Mont Palomar, le plus puissant engin
possible avait été construit, on ne ferait jamais mieux, les calculs
montraient qu'un télescope plus gros serait en fait moins performant
en raison des problèmes de mise en température du miroir et de flexion
de la monture.
Par contre, la technique des fusées rendait possible la conception
d'observatoires spatiaux. Le rêve était alors de mettre les «
demoiselles des téléphones » en orbite à bord d'une station spatiale,
on disait alors une lune artificielle, pour qu'elles puissent brancher
les communications téléphoniques intercontinentales. Les chefs
militaires, dans une autre section de la même mini-Lune, équipés de
puissantes jumelles devaient observer les batailles et donner des
ordres en direct. Encore une autre partie de la station et là les
météorologues pouvaient voir le déplacement des nuages et prédire le
temps une semaine à l'avance. Il ne restait plus qu'à rajouter une
section pour les astronomes et leur télescope spatial. On était en
plein dans les histoires de Tom Swift de Victor Appleton, le
pseudonyme d'un groupe d'auteurs dont certains avec un bon bagage
scientifique.
On sait ce qu'il est advenu des demoiselles du téléphone et des
satcoms, un marché inimaginable à l'époque. L'électronique à laissé
les militaires au sol, comme les météorologues d'ailleurs. Les
astronomes ne vont guère dans l'espace pour l'instant, ce qui
n'empêche pas les satellites astronomiques. Ainsi, l'idée à survécu.
Vers 1955, le développement des fusées, pour les besoins militaires,
rendait évident la prochaine réalisation d'un satellite artificiel de
la Terre, ce n'était plus un rêve, mais un programme dont l'échéance
était fixé à 1958, déclarée année géophysique internationale. Entre
temps, les astronomes s'étaient rendu compte qu'un satellite
astronomique avec des hommes à bord n'était guère concevable : les
mouvements à l'intérieur de l'appareil détruirait immanquablement
toute tentative de pointage un peu précis. L'idée était donc qu'un
satellite astronomique devait être automatique, ce qui dispensait
d'attendre jusqu'à ce que l'homme puisse aller dans l'espace. Le
projet devenait d'autant plus crédible.
Pendant cette période de réflexion, le domaine encore inexistant de
l'astronomie spatiale s'étendit considérablement. Il ne s'agissait
plus seulement de se débarrasser du trouble de l'atmosphère terrestre,
mais aussi d'observer dans des domaines impossibles au sol.
L'atmosphère est opaque à la majorité des longueurs d'ondes, elle ne
laisse passer que la lumière et une partie des ondes radio. Rien dans
le domaine de l'ultraviolet, rien pour les rayons X, rien pour les
gammas, rien ou presque, pour l'infrarouge. On ne parlait pas des
ondes millimétriques, car on ne savait pas les détecter.
Les physiciens des particules détectaient les rayons cosmiques, ou du
moins ce qu'il en restait, au sommet de hautes montagnes. Eux aussi
souhaitaient mettre leurs détecteurs dans l'espace. Ils rejoignaient
les astronomes sur les domaines et gamma, mais en ajoutant les
particules matérielles de haute énergie.
Lorsque vint le temps de choisir la charge utile du premier satellite
américain, la suggestion retenue fut de placer à bord un détecteur de
particules, cela ne nécessitait pas de pointages précis comme un
télescope et un compteur Geiger était un instrument plus simple qu'un
observatoire automatique. C'est ainsi que le Pr. Van Allen découvrit
les ceintures de radiations qui portent maintenant son nom.
Y.B.
Citation de: YBEspace astronomique (3).
Pour les impatients, voilà la suite du sujet, il est assez vaste pour
une analyse en profondeur qui nécessite plus que quelques messages:
Le Hale du Mont Palomar, avec son miroir de 5,08 m de diamètre, soit
200 pouces, régna sans partage pendant plus de 40 ans, son concurrent
russe de Zelentchouk, construit dans les années 70, soit 30 ans après,
ne fit que confirmer que l'engin californien était le meilleurs
possible et restait de fait insurpassable.
Le seul chemin restant ouvert était l'espace. Dès les années 60, les
satellites astronomiques se succédèrent, le premier, dans le domaine
optique aux USA fut OAO : Orbital Astronomical Observatory. Il fut
suivi par beaucoup d'autres, la série culminant avec le Hubble Space
Telescope, devenu une mascotte qu'il devient impossible d'arrêter pour
des raisons morales : On ne tue pas un ami que tout le monde connaît !
Le service de public relations du HST Hubble à été à la mesure de ses
résultats : gigantesques. Pour le monde entier, Hubble est LE
télescope, l'emblème de l'astronomie. A ce jour, il n'a pas de
successeur dans le domaine visible. Le James Webb Space Telescope
(JWST), prévu pour 2013 exploitera l'infrarouge, Herschel
l'ultraviolet, mais rien n'est prévu dans la fenêtre optique. Dans
l'IR comme l'UV, rien n'est encore en place d'ailleurs.
Au cour des années 60, l'astronomie des particules de haute énergie
passa du petit détecteur d'Explorer 1, mis en place par van Allen, au
géant de 13 t soviétique lancé par une nouvelle fusée. Comme le
détecteur avait pour mission d'observer les protons de haute énergie,
le satellite fut baptisé Proton. Le nom fut pris également pour la
fusée, qui devint pour tout le monde « La » Proton. 40 ans plus tard,
le lanceur Proton continue sa carrière sous ce nom.
En 2008, les télescopes spatiaux ont fait beaucoup de progrès depuis
les années 60, ils ont grossi comme l'avait fait avant eux leurs
prédécesseurs au sol. Ils atteignent maintenant environ 2,5 m de
diamètre. C'est beaucoup et peu à la fois, ce n'est que la moitié de
ce qu'offre le Mont Palomar, juste 60 ans après celui-ci. Le progrès a
été beaucoup plus lent que prévu. Le prix de l'astronomie spatiale, la
volonté de « super-technologie » et le diamètre des lanceurs, tout à
contribué à une progression lente.
Dans ces circonstances, on se prend à se demander pourquoi ne pas
avoir cherché à développer les techniques au sol, nettement moins
chères, même si leur productivité est moindre. Il faut analyser un peu
plus l'état de la technologie des années 50 pour comprendre le barrage
qui s'est instauré dans les esprits à cette époque.
Y.B.
Citation de: YBEspace astronomique (4).
Au 19ème siècle, les astronomes étaient l'œil rivé à l'oculaire de
leur lunette, comme on les représentent encore dans les bandes
dessinées, les auteurs littéraires n'ayant pas évolué depuis 150 ans.
Au début de 20ème siècle, la plaque photographie remplaça l'œil, le
crayon et le papier. A la fin des années 40, cette technique était à
son sommet.
Le télescope Hale permettait de prendre des cliché de 30 cm de large à
son foyer primaire. La maîtrise photographique n'avait plus grand
chose à découvrir. La gélatine des plaques, imprégnée de cristaux
d'iodure d'argent n'avait plus de secret.
On savait par exemple qu'il était nécessaire d'absorber un certain
nombre de photons par cristal pour permettre de déclencher une
réaction catalytique autorisant le développement. Plus les cristaux
étaient petits, meilleure était la finesse de l'image, mais plus il
était nécessaire d'avoir de lumière pour les impressionner. Les
émulsions à gros grain étaient donc les plus sensibles, mais donnaient
la plus basse définition. Pour voir des détails fins en astronomie, il
restait la solution d'augmenter le grossissement, ce qui permettait de
voir des objets rapprochés avec des émulsion à gros grains.
Evidemment, on perdait en champ de vision. Ce n'était pas grave pour
voir une objet particulier, par contre cela devenait fâcheux pour des
opérations de « survey » devant photographier une large part du ciel.
On savait aussi que lors des longues poses, les derniers photons
arrivés étaient plus efficaces que les premiers, la « mémoire » des
grains d'iodure d'argent étant faible. Une solution connue à ce
problème de perte de sensibilité avec le temps était de refroidir la
plaque à la température de la glace carbonique, soit –79°C.
évidemment, il était nécessaire de placer l'ensemble dans une boîte
étanche remplie de gaz sec, car à cette température, l'humidité de
l'air aurait vite fait de couvrir la plaque d'une couche de givre.
On savait aussi augmenter l'instabilité des cristaux de l'émulsion,
donc leur sensibilité à la lumière, par un traitement chimique avec
des gaz. On savait aussi pré-voiler les plaques, pour que les cristaux
d'iodure d'argent aient une dose de photons juste en dessous de ce qui
était nécessaire pour permettre leur révélation. Ainsi, il suffisait
de très peu de photons venus des étoiles pour former une image. Bref,
on connaissait tout de la photo, Kodak avait même préparé un type
spécial d'émulsion adapté à la photo astronomique, il ne restait plus
rien à découvrir.
Un gros défaut de la photo, est qu'elle n'est pas du tout linéaire,
deux fois plus de photons ne produisent pas deux fois plus de grains
sensibilisés. Il est donc impossible d'ajouter des photos les unes aux
autres, on sature très vite les objets donnant une image, quant à ceux
un peu plus faible qui ne franchissent pas le seuil, il ne sert à rien
d'ajouter des sensibilités nulles. On ne peut pas non plus soustraire
la luminosité de fond du ciel et récupérer l'image d'objets bien moins
lumineux que ce fond. Le seul moyen de se débarrasser de ce problème,
c'est d'avoir cette luminosité atmosphérique au-dessous de soit, donc
d'être dans l'espace.
Ainsi, au début des années 50, on savait tout sur la construction des
télescopes et sur les techniques photographiques pour les exploiter.
Non seulement on savait, mais on avait réalisé, les seuls avancées
possibles demandaient le nouveau domaine qui allait s'ouvrir :
l'espace.
Y.B.
Citation de: YBEspace astronomique (5).
Le développement de l'astronomie spatiale a été bien plus lent que
prévu, on peut en dire autant de tout ce qui touche à l'astronautique,
les politiques, les militaires et les « autorités morales » s'étant
liguées pour étouffer ce domaine.
Les progrès sont venus non pas de l'espace, mais de l'électronique. A
la fin des années 60 est apparu le CCD ou Charged Coupled Device. Au
début, les surfaces étaient minimes et le nombre de points de l'image
ou pixels (picture element) limité. Par contre, le CCD avait deux
qualités extraordinaires : Il était linéaire et sa sensibilité
dépassait de loin celle des plaques photographiques. Dès les années
80, le bruit de fond électronique était tombé à quelques électrons par
seconde et la sensibilité atteignait 80%. Sur 10 photons, 8 étaient
détectés, contre 1 ou 2 sur 100 pour la photo. D'un seul coup, la
sensibilité des télescopes augmentait d'un facteur au moins 50.
La linéarité permettait aussi d'accumuler des centaines d'images, dont
les pauses pouvaient se répartir sur plusieurs nuits. La linéarité
permettait aussi de soustraire tout ce qui était continu comme la
luminosité de fond du ciel ou qui relevait du hasard comme le bruit
électronique. Il suffisait de multiplier le nombre d'images accumulées
pour améliorer le rapport signal sur bruit d'un facteur égal à la
racine carré du nombre d'images. Le seul défaut des CCD était leur
petite taille de quelques millimètres quand les plaques
photographiques atteignaient 30 cm.
Mais là aussi la loi de Moore se fit sentir et l'on passa de quelques
centaines de pixels à des milliers, des centaines de milliers, des
dizaines de millions,...Les dernières caméra astronomiques assemblent
une mosaïque de circuits et dépassent le milliard d'éléments, soit une
surface sensible d'environ 30 cm de côté, donc équivalente à celle des
anciennes plaques photos. La photographie argentique en astronomie
n'est plus qu'une activité historique ou amateur. Ces derniers sont
d'ailleurs presque tous reconvertis au CCD.
La monté en puissance des CCD permit à l'astronomie terrestre de
gagner énormément en puissance. Elle était toutefois toujours
tributaire, pour son pouvoir séparateur, de la turbulence
atmosphérique.
La première tentative sérieuse pour s'en affranchir sans aller dans
l'espace fut la spectrométrie des tavelures qu'expérimenta son
inventeur, Antoine Labeyrie, au Mont Palomar. L'idée était la
suivante : Il se forme dans l'atmosphère des cellules de convection
d'une vingtaine de centimètres de diamètre qui agissent comme autant
de lentilles indépendantes. Quand le diamètre d'un télescope dépasse
celui des cellules de convection, il voit simultanément plusieurs
images du même objet : Une image pour chaque cellule. Bien entendu,
ces cellules sont portées par le vent et défilent donc devant
l'ouverture du miroir primaire du télescope. Le raisonnement d'A.
Labeyrie était donc le suivant : Si on réalisait des pauses assez
courtes, de l'ordre du centième de seconde, on pourrait « geler » le
défilement des cellules. Avec un très fort grossissement, chaque
cellule individuelle pourrait être séparée des autres au lieu d'avoir
une image brouillée superposant toutes les images élémentaires.
Il ne reste plus alors qu'à superposer toutes ces images minuscules
pour produire une seule image débarrassée de la turbulence
atmosphérique. Cette superposition se réalise avec une transformation
de Fourier. On peut l'effectuer par le calcul sur ordinateur après
avoir numérisé l'image ou, mettre une plaque photo avec les tavelures
au foyer d'une lentille convergente et illuminer avec un faisceau de
lumière parallèle. De l'autre côté de la lentille, au foyer de celle-
ci, un écran recueille l'image par transformée de Fourier, c'est
simple !
La technique marche, mais elle a deux défauts : La nécessité de «
geler » les tavelure ne permet d'enregistrer que des objets brillants
susceptibles de laisser une trace photographique en un centième de
seconde. De plus, le très fort grossissement réduit énormément le
champ de vision.
Pour ces raisons, cette technique a été abandonnée. Elle pourrait
néanmoins revenir dans quelques années comme on le verra
ultérieurement.
Y.B.
Citation de: YBEspace astronomique (6).
Dans les années 80, l'establishment militaire étas-unien poussa pour
un programme anti-missile basé en partie sur de puissants lasers
capables d'abattre un missile offensif dans l'espace. La technique
n'était pas au point et la « Guerre des étoiles » de Reagan fut un
flop. Le projet revient maintenant, avec des objectifs moins
ambitieux.
Une des raisons de pousser cette technologie à l'époque, était une
invention secrète, monopole des laboratoires militaires : Le contrôle
dynamique de phase. Lorsque le dispositif fut réinventé dans le
domaine civil, mais seulement décrit comme une possibilité théorique,
un foisonnement de texte démontrant l'impossibilité du concept s'en
suivi. Les chercheurs militaires ne dirent rien, eux, savaient que
c'était possible, ils avaient mêmes des prototypes.
J'ai dit précédemment, qu'une image des tavelures placée au foyer
d'une lentille convergente donnait une image unique, on dit
déconvoluée, au second foyer. Cette image unique étant la transformée
de Fourier de celle des tavelures. La proposition théorique des
astronomes était de remplacer la lentille convergente par un miroir.
Le système était constitué des éléments suivants : Au lieu de
recueillir l'image des tavelures sur une plaque photographique comme
l'avait fait Antoine Labeyrie, l'idée était d'employer le procédé plus
moderne d'un capteur CCD. L'image électronique produite par les CCD
était alors traité par un ordinateur qui en produisait la transformée
de Fourrier par un moyen mathématique.
On pouvait en tirer une image unique, mais surtout, le contraire des
lentilles qui avaient engendré les tavelures à partir d'une image
originellement unique. Ainsi, on avait les déformations d'un miroir
plan permettant de compenser les déformations optiques induites par
l'atmosphère.
Avec ce dispositif, les militaires résolvait leur problème, par
contre, les astronomes n'étaient pas au bout du chemin. Pour l'armée,
la première difficulté était de localiser très précisément dans
l'espace la position d'une charge nucléaire offensive. Les radars
n'offraient pas une précision suffisante pour une attaque par laser,
il était donc nécessaire d'employer un télescope. Mais une tête
nucléaire à des centaines de kilomètres de distance est juste un point
lumineux éclairé par des lasers guidés vers leur cible par des radars.
Cette illumination de la cible ne demande pas une grande précision,
les radars sont donc suffisant à ce stade, comme le pointage des
lasers. Mais détruire la cible est une autre affaire, là, il faut une
grande puissance laser très concentrée.
Un laser en orbite dans l'espace ou porté par un avion à haute
altitude n'était pas assez puissant, compte tenu des contraintes de
masse pour abattre la cible. Un laser au sol pouvait avoir une taille
suffisante, mais il devait vaincre la turbulence atmosphérique. Il
devait même la vaincre deux fois : une pour localiser précisément sa
cible à quelques centimètres près et donc savoir où tirer et une pour
éviter la dispersion de son faisceau avant qu'il n'atteigne son
objectif.
Observer les tavelures de la cible, calculer l'image unique par
ordinateur, cela répondait au premier objectif de localisation.
Restait la question d'empêcher la dispersion du rayon destructif.
C'est là qu'intervenait le miroir déformable : Il déformait à
l'origine, donc à la sortie du laser, le rayon de façon à avoir le
contraire de la déformation atmosphérique sur le trajet vers la cible.
L'atmosphère détruisait alors la déformation initiale et produisait
finalement un faisceau parfaitement collimaté, capable d'abattre la
charge attaquante.
Grâce à l'illumination par les lasers, la cible était un objectif
assez lumineux, par contre, pour la suivre à la vitesse de plus de 6
km/s, il était nécessaire de réagir très vite, donc d'effectuer les
calculs de correction atmosphérique le long de la trajectoire en un
temps particulièrement court, de l'ordre du dix millième de seconde.
Les astronomes, eux, pouvaient se contenter du centième de seconde,
mais ils avaient d'autres problèmes.
Y.B.
Citation de: YBEspace astronomique (7).
Allez, encore une petite louche pour nos banquiers:
Bien que le diamètre des miroirs utilisés dans les systèmes d'armes
laser soient un secret, on sait d'après certaines photos générales,
qu'ils sont de l'ordre du mètre. Comme les cellules de convexion
atmosphériques mesurent une vingtaine de centimètres de diamètre, il
en va cinq dans un diamètre de miroir. En gros, il faut donc corriger
environ 25 cellules pour couvrir le miroir. Si l'on compte trois
actuateur pour déformer le miroir par cellule, cela donne un total de
75 actuateurs à commander. A noter que le système agit sur un grand
miroir métrique, ce qui ne sera pas le cas en astronomie.
Pour les astronomes, la situation est plus favorable au niveau de la
vitesse de réaction : 100 corrections par seconde sont suffisantes et
même moins si l'on se contente de travailler dans l'infrarouge où
l'effet de la turbulence est moindre du fait de la plus faible
dispersion de l' indice de réfraction. Les télescopes astronomiques ne
se heurtent pas à des questions comme la puissance par centimètre
carré qui exige d'effectuer la correction sur une grande surface pour
les dispositifs militaires. Le miroir correcteur en astronomie est
donc limité à quelques centimètres de diamètre ou un peu plus, même si
le miroir primaire atteint plusieurs mètres, 8 ou 10.
Par contre, le grand diamètre du miroir primaire implique qu'il « voit
» un grand nombre de cellules de convection, environ 1600 pour 8m de
diamètre. C'est donc près de 5000 actuateurs qu'il faut envisager sur
ces systèmes. La génération des 30 m contemplée actuellement en
nécessitera 16 fois plus, soit 80 000 ! Pour l'instant, cette
technologie encore récente en est à quelques centaines d'actuateurs,
c'est dire que la correction des télescopes existants est loin d'être
parfaite. En réalité, elle n'est acceptable que dans le domaine
infrarouge pour l'instant.
Une autre limitation des premiers systèmes a été de trouver dans le
champ de vision une étoile assez brillante pour mesurer à l'échelle du
centième de seconde la correction à effectuer. Comme on l'a vu
précédemment, la première étape de l'analyse consiste à obtenir une
image des tavelures produites par la turbulence. Or, cela exige un
très fort grossissement, donc une longue focale car le grossissement
est le quotient de la focale du primaire par celle de « l'oculaire ».
Evidemment, il n'y a pas à proprement parler d'oculaire ici, mais il y
a un dispositif optique qui joue le même rôle. Le résultat de cette
exigence de fort grossissement est que l'on a un champ réduit. Trouver
dans ces conditions une étoile assez brillante ne va pas de soit,
seule environ 1% du ciel répond à cette exigence et peut donc être
traité par ces systèmes de correction adaptative.
L'évolution suivante a été de créer des « étoiles artificielles » avec
des lasers produisant une fluorescence des atomes de sodium de la
haute atmosphère vers 80 km d'altitude. La lumière renvoyée vers le
sol par ces dispositifs est faible et correspond à une étoile de
magnitude 8 tout au plus (6,25 fois moins lumineuse que les plus
faibles visibles à l'œil nu). Toutefois, cela suffit pour les CCD,
ainsi la totalité du ciel devient observable. Par contre, le champ
reste réduit. La dernière évolution en date consiste à tirer plusieurs
faisceaux lasers et à observer la turbulence avec autant de
dispositifs de correction dans des directions un peu différentes afin
de couvrir un champ plus grand.
On part d'un champ très étroit d'une fraction de minute d'arc (le
diamètre apparent de la Lune est de 30 minutes en comparaison) il faut
donc un très grand nombre de dispositifs pour gagner plusieurs minutes
voir plusieurs degrés. Or, justement, ce qui est intéressant sur les
gros télescopes, ce sont les études statistiques sur des objets
lointains et nombreux. Il faut donc de grands champs, ce qui est loin
d'être le cas actuellement.
Ainsi, les télescopes au sol de grand diamètre, nettement plus grand
que celui du Mont Palomar sont possibles, mais ils peuvent aussi
s'affranchir de la turbulence atmosphérique avec toutefois deux
limitations : l'angle du champ observable et le domaine spectral
limité pour l'instant à l'infrarouge. Tout n'est pas possible au sol
mais pour certaines observations, celles visant un objet particulier,
« l'offre au sol » est plus compétitive que celle de l'espace. Par
contre, pour les grands champs en spectre visible et ultraviolet,
l'espace n'a pas de concurrence actuellement.
Y.B.
Citation de: YBEspace astronomique (8).
Les dispositifs militaires demandent de grandes surfaces correctrices,
une grande vitesse d'action, mais peuvent se contenter de l'infrarouge
moins exigeant que le domaine optique. La luminosité de la cible n'est
pas non plus pour eux un facteur limitatif, puisque l'illumination par
les lasers donne autant de brillance que l'on peut en souhaiter ou
presque.
L'astronomie, pour sa part, est moins exigeante en terme de vitesse et
de surface active de correction, mais beaucoup plus en ce qui concerne
le nombre d'actuateurs, le domaine spectrale à couvrir et le champ
d'observation. Si, après une vingtaine d'années d'efforts les
exigences du secteur militaire semblent en voie d'être satisfaites, il
n'en va pas de même pour l'astronomie qui a encore de gros progrès à
accomplir pour tirer le parti maximum des télescopes de la génération
des 8 m. Or, la course est entamée pour l'étape suivante, celle des 30
m avec les télescopes Magellan, Moore et OWL.
Le dernier projet en matière de 8m est un instrument de « survey »
avec un champ de 7 degrés, ce qui est énorme. A ce niveau, il est
impossible d'éviter les déformations de l'image. Les télescopes
d'amateurs ont généralement un miroir parabolique ou sphérique si le
rapport focale sur diamètre dépasse 7 ou 8 pour 20 cm de diamètre. En
effet, dans ces conditions, il n'y a plus de différence significative
entre calotte sphérique et parabole. Toutefois, ces télescopes
souffrent d'un défaut optique : l'aberration de coma (ou chevelure)
qui montre les objets ponctuels comme les étoiles, à la périphérie du
champ sous forme de « comètes ».
En réalité, ce n'est pas un défaut du miroir primaire parabolique,
mais du capteur. Le plan focal n'est pas un plan, mais une surface
courbe. Si l'on insiste pour avoir un capteur fonctionnant dans un
plan, plus on s'écarte de l'axe de l'instrument, plus l'écart entre le
« plan focal » et la surface focale réelle devient grand. C'est cet
écart qui crée l'aberration de coma. Les télescopes professionnels
exploitent des miroirs primaires plus complexes : les Ritchey-
Chrétient avec des surfaces hyperboliques aussi bien au primaire qu'au
secondaire. Le but est d'avoir une surface focale plus plane et donc
de pouvoir exploiter un plus grand diamètre à peu près plan dans le
secteur. Plus le diamètre exploitable est grand, plus le champ est
grand. Pour augmenter le champ, il faut réduire le rapport focale/
diamètre du miroir primaire en le creusant plus. C'est devenu
techniquement acceptable avec le « spin cast » ou moulage rotatif des
miroirs, mais plus le rapport F/D diminue, plus la surface focale
devient courbe et génère des aberrations. La technologie optique pour
limiter cet effet devient de plus en plus difficile.
Au temps des plaques photographiques, les astronomes avaient pris
l'habitude de déformer quelque peu leurs plaques quand c'était
possible ( Si les distances angulaires n'étaient pas de première
importance, donc si l'on pouvait se passer d'un support rigide plan en
verre). Cela permettait de gagner en champ utile. Dans ce domaine, les
CCD n'ont pas été un progrès : fabriqués à partir de tranches de
monocristaux de silicium, leur rigidité est extrêmement élevée, de
plus le silicium est cassant et ne peut être courbé . La technique du
découpage en tranche du cristal initial interdit la production de
surfaces courbes.
Donc, même si l'on dispose de CCD aussi grands que l'on veut, le champ
d'un télescope donné est plus faible pour les CCD que pour la photo.
Cette situation est du moins valable pour l'image brute. Actuellement,
la puissance de calcul des ordinateurs a changé quelque peu la
situation : Même si l'image CCD dépasse le domaine sans grandes
aberrations, la déconvolution des images permet de récupérer une image
nette. Cela se fait toutefois avec une certaine baisse de sensibilité,
les détails les plus faibles sont perdus. On peut donc avoir de
grandes images nettes avec les CCD, mais elles perdent en sensibilité
sur le bord, tout se passe comme si le diamètre du télescope diminuait
près du bord de l'image. On voit ici un autre compromis à réaliser
avec les instruments actuels. Cette situation s'impose aussi bien pour
les appareils au sol que dans l'espace.
Y.B.
--
Allez, une lampée pour nos politiciens, une!
Citation de: YBEspace astronomique (9).
Nous en sommes, au sol, à la génération des 8 m. Quatre technologies
ont été mises en œuvre pour ces télescopes, chacune ayant permis de
dépasser la limite que l'on croyait infranchissable du Hale au Mont
Palomar :
La première à été celle des multi-miroirs avec un plan focal commun,
c'est, historiquement la première à avoir été mise en œuvre. Le seul
télescope construit à ce jour sur ce modèle à été le MMT ou Multi
Mirrors Telescope comportant 6 miroirs circulaires donnant une surface
totale égale à celle d'un miroir unique de 6 m. Depuis, ces miroirs
ont été remplacés par un miroir unique de 6m en nids d'abeilles
produit par spin cast au laboratoire d'optique de l'université
d'Arizona. La technique du MMT a été la première à mettre en œuvre le
positionnement dynamique des miroirs pour garder un plan focal commun
à une fraction de longueur d'onde près. Cette technique est maintenant
reprise dans le projet Magellan avec des miroirs élémentaires de 8 m.
La seconde technique, reprend les miroirs en nids d'abeilles du Hale
avec un seul miroir en verre borosilicate. L'ancienne limite provenait
du fait que le disque brut était moulé au repos, sa surface était
plane et il était donc nécessaire de le creuser. Evidemment, au
centre, à la profondeur maximum, on ne devait pas dépasser l'épaisseur
de la partie compacte. La partie évidée en nids d'abeilles ne pouvait
commencer qu'en dessous. Même au centre, on devait garder une bonne
épaisseur compacte pour assurer la rigidité et éviter trop de
déformation. Sur les bords, on retrouvait donc le maximum d'épaisseur
et ainsi la plus grande masse et la plus grande inertie thermique.
C'est cette inertie thermique qui limitait la taille du miroir comme
on l'a vu pour le 6m de Zelentchouk.
L'idée de Robert Angel de l'Université d'Arizona a été de fabriquer le
disque initial dans un four tournant, la force centrifuge imposant une
surface parabolique. Il devenait possible de « suivre » cette courbure
avec les nids d'abeilles et donc de maintenir une épaisseur compacte
identique du centre vers les bords. Le miroir était plus léger, il
n'était plus nécessaire de le creuser à l'ébauchage et surtout, son
inertie thermique était réduite. A priori, on aurait pu couler un
disque de surface plane avec des nids d'abeilles de différentes
hauteur du centre vers les bords, mais on n'évitait pas ainsi le
creusement à l'ébauchage qui en retirant une grande masse de verre
aurait libéré des contraintes amenant presque sûrement la casse du
miroir trop fragile pour supporter cette opération.
La troisième technique a été d'employer un nouveau matériau à très
faible coefficient de dilatation thermique, la céramique. Il existe
plusieurs produits similaires plus ou moins connus sous leur nom
commercial, le plus célèbre étant le Zerodur (qui est une marque
enregistrée, comme Frigidaire de GM, mais qui sert souvent de nom
commun). Le Zerodur et assimilé ne peut être produit actuellement en
grandes surface, la dimension maximum est de l'ordre de 2m de
diamètre. L'idée à donc été de découper ces disques en hexagones et de
les assembler à chaud dans un four tournant pour, là aussi, donner la
forme initiale du miroir sans avoir à le creuser. La technique à été
employée par Schott en Allemagne pour les disques des miroirs des
télescopes du Paranal. Leur épaisseur est très faible pour leur
diamètre : Une vingtaine de centimètres pour des disques de 8m. Malgré
la rigidité des céramiques, ils se déforment considérablement suivant
leur position. Ce type de miroirs n'est donc possible qu'avec une
monture dynamique corrigeant continuellement les déformations.
La quatrième technique est celle des miroirs mosaïque formés
d'hexagones de moins de 2 m en général. Là, il faut assurer à la fois
un plan focal commun comme dans la première version du MMT, mais aussi
compenser les déformations dynamiques et statiques comme dans les
miroirs fins en céramique. C'est donc la solution techniquement la
plus avancée et celle qui demande le plus de puissance de calcul et de
précision dans les actuateurs mécaniques. La mise au point de la
version civile a demandé quelques années, mais les deux Keck de Hawaï
construits sur ce principe sont maintenant pleinement opérationnels.
Les moyens de transport ne permettent pas de déplacer des miroirs
nettement plus grands que la génération des 8m actuels, seuls donc les
miroirs mosaïques et les multimiroirs comme le MMT permettent d'aller
plus loin.
La différence essentielle entre ces télescopes de 8 – 10 m actuels et
le Hale est que la génération actuelle est perçue non comme une fin,
mais comme les prototypes de télescopes beaucoup plus grands. La
planification actuelle est celle de la génération des 30 m.
L'astronomie au sol n'est donc pas au terme de son évolution.
Y.B.
Suite (et j'ignore toujours qui est Y.B. !) :
Citation de: YBEspace astronomique (16) Instrumentation des 30m
La nouvelle génération des télescopes au sol, qui devrait apparaître
juste avant les années 2020, va nécessiter de nouveaux instruments. Il
est évident que ces engins vont être conçu avec un champ important
pour avoir une rentabilité scientifique maximum. Je pense que l'on
peut estimer le diamètre de leur surface focale à 10% de celui du
miroir primaire, soit 3 m pour un 30 m comme le « télescope Moore »,
le Thirty Meter Telescope.
Avec des CCD dotés de pixels de 3 microns, cela donne un million de
pixels dans le diamètre d'une caméra couvrant la surface focale. Il
faut donc compter quelques 7,5 trillions de pixels pour la surface
entière. C'est 8 000 fois ce qui se construit actuellement, donc, avec
la loi de Moore (que l'on retrouve ici) 13 périodes de doublement. En
comptant un temps de doublement de 2 ans, cela met ce type de caméra
26 ans dans l'avenir au minimum. En effet, une caméra franchissant le
milliard de pixel ne devrait pas entrer en service avant 2014.
Cette génération de télescope va donc entrer en service une bonne
vingtaine d'années avant qu'une instrumentation adaptée soit
disponible. Encore, le choix des pixels de 3 microns reflète la taille
actuelle de ces éléments sur les téléphones portables alors que la R&D
vise les 1,8 micron, ce qui demanderait donc pratiquement deux
générations de plus de circuits électroniques. On atteindrait alors 30
ans. Le TMT pourrait alors donner sa pleine capacité vers 2050. il en
va de même pour les autres projets similaires.
Mais pourquoi tant de pixels ? pourquoi réduire à ce point leurs
dimensions ? La réponse tient dans les techniques de compensation de
la turbulence atmosphérique. J'ai dit que ce procédé consistait à
créer une étoile artificielle dans la haute atmosphère par la
fluorescence des atomes de sodium vers 80 km d'altitude excités par un
laser. Il existe une autre technique basée sur la diffusion vers 30
km, mais cela ne change rien au principe. Pour corriger les
distorsions du front d'onde, il faut pouvoir voir les « speckles » ou
tavelures que produit l'étoile artificielle et cela nécessite un très
fort grossissement, donc un faible champ.
Réduire la taille des pixels des CCD de détection augmente la finesse
de l'image, ce qui permet de réduire le grossissement pour voir un
détail donné. Moins de grossissement se traduit par plus de champ.
Plus les pixels sont petits, plus le champ d'observation augmente, ce
qui permet de visualiser des objets plus étendus ou plus nombreux. Le
TMT va disposer de 6 lasers formant autant d'étoiles de référence pour
6 dispositifs de correction. Un seul ne pouvant et de loin, couvrir
tout le champ du télescope. Même avec ses – lasers, le TMT ne pourra
corriger qu'un champ de l'ordre de quelques minutes d'arc alors qu'il
pourrait atteindre plusieurs degrés d'un simple point de vue optique.
Un autre progrès à attendre est l'imagerie bolométrique, un bolomètre
ne mesure pas les cravates comme on pourrait le penser, mais l'énergie
des radiations reçues qu'il convertit en chaleur. La nouveauté dans ce
domaine est qu'il devient possible de mesurer assez précisément
l'énergie d'un seul photon sur un pixel d'une caméra. Lorsqu'un photon
arrive sur un tel pixel, il ne donne pas simplement une information «
arrivée d'un photon », mais une mesure de son énergie, donc de sa
couleur. La caméra est donc « en couleur » et plus que cela : elle
agit comme un spectrographe pour chaque objet dans son champ. Les
premières réalisations seront certainement plus proches de l'analyse
des bandes photométriques que de la spectrographie haute résolution.
On a coutume de penser que les progrès de l'électronique sont
fulgurants, pourtant, dans le domaine astronomique, ce sont les
instruments de détection électronique qui sont en retard par rapport
aux possibilités optiques et mécaniques. A tel point que si l'on avait
actuellement les financements pour un télescope de la génération des
cent mètres de diamètre, qui est techniquement réalisable, cela ne
servirait pas à grand chose, car l'instrumentation serait incapable de
suivre.
Y.B.
Citation de: YBEspace astronomique (17) Corriger la turbulence.
J'ai parlé des possibilités techniques de construction de très grands
télescopes, aussi bien au niveau du miroir primaire que de la monture,
des solutions existent, même en se limitant aux actuelles montures «
sans vibrations ». J'ai parlé aussi de l'instrumentation
d'observation, les capacités actuelles de l'électronique ne permettent
guère d'aller au-delà de 30 m de diamètre, mais les perspectives dans
ce secteur ne sont pas non plus limitées. Il reste à voir les systèmes
de correction de la turbulence atmosphérique dont il a été question au
plan qualitatif. Voici donc le côté quantitatif.
Admettons que l'on ne soit ni aux pôles ni proche de l'équateur. On
doit donc tenir compte de la turbulence induite par les courants jets.
Le scintillement des étoiles, tel qu'il est vu à l'œil nu est
essentiellement lié à la turbulence de basse altitude, dans la bande
des 300 m. Du fait de leur diamètre, les télescopes y sont peu
sensibles.
En général, les télescopes sont placés en hauteur sur des sommets de
montagnes pour limiter la turbulence de moyenne altitude. Ce qui
reste, c'est donc les perturbations apportées par les courants jets.
La vitesse de ces vents est de plusieurs centaines de km/h, les
cellules de convection mesurent, dans le domaine optique, entre 10 et
20 cm. Trois cent km/h, cela représente 100 m/s, pour des cellules de
20 cm, il faut donc des temps de pose de l'ordre de la milli-seconde
afin de les « figer ». Comme les temps de pause actuels sont de
l'ordre de 10 ms, il est pour le moins « difficile » de s'affranchir
de ces perturbations dans le domaine optique, c'est pourquoi les
réalisations actuelles concernent essentiellement l'infrarouge où les
cellules sont plus grandes, de l'ordre du mètre.
Ces cellules défilent à environ 12 000m d'altitude. Pour avoir un
champ d'observation corrigé de un degré à cette distance, il faut
considérer un cercle de 200 m de diamètre (1° vaut sensiblement
1/60ème de radiant, le champ vaut donc 12 000 /60 = 200m). Dans cette
longueur, il y a place pour 2000 cellules de 10cm. Si, pour
simplifier, on considère un carré de 200 m de côté, il y a 4 millions
de cellules présentes à chaque instant dans le champ.
Admettons que le miroir déformable correcteur consacre 100 microns à
chaque cellule, il devra avoir un diamètre de 20 cm. Cela ne paraît
pas énorme, mais en raison de trois actuateurs de déformation par
cellule présente, il en faut 12 millions. Les réalisations actuelles
sont loin de ce chiffre, il y a donc beaucoup de progrès à réaliser en
ce domaine. Comme je l'ai dit, les réalisations présentes se
concentrent sur l'infrarouge qui divise ce chiffre par 25 et l'on se
contente de champs bien plus restreint que le degré. Avec 1200
actuateurs, on peut corriger 400 cellules, donc un carré de 20 x 20,
soit 20 m de côté à 12 000 m ou 0,1 degré d'angle.
En optique on en serait à 2 m de champ soit un centième de degré, en
gros, une demi minute d'arc ou 2% du diamètre de la Lune ! Un autre
problème est que si le champ devient plus petit que le diamètre du
miroir du télescope, il y a un gros effet de parallaxe entre les bords
opposés du miroir : Ils ne voient pas le même champ. Il faut alors
multiplier les systèmes de correction, comme c'est le cas du TMT avec
6 « étoiles artificielles ».
Trois actuateurs par cellule de convection permettent tout juste une
compensation en tout ou rien. Si l'on veut agir au niveau du dixième
de longueur d'onde, il faut aussi agir à une échelle dix fois plus
petite et donc avec cent fois plus d'actuateurs. Il en faut maintenant
trois par micron carré et au total, quelque 1,2 milliards. Ce n'est
évidemment pas possible si l'on doit les assembler un par un comme des
systèmes mécaniques macroscopiques, par contre, c'est envisageable
pour des leviers produits par photolithographie sur une plaque de
silicium. Les « dies » actuels de silicium atteignent 35 cm de
diamètre, un panneau d'actuateurs de 20 cm de diamètre est donc
envisageable. Sa commande ressemblerait à celle d'un écran TFT
d'ordinateur ou, compte tenu de la taille élémentaire des composants,
à celle d'un CCD.
En assemblant une centaine de modules indépendants, une telle
réalisation semble possible, elle existe peut-être déjà au niveau
militaire. Un dernier problème est celui de la vitesse de réaction :
Il faut calculer la correction et l'appliquer pour 1,2 milliards
d'éléments en moins d'une milli-seconde. Au bas mot, la puissance de
calcul nécessaire se situe donc dans les téraflops. Je vais y revenir...
Y.B.
Citation de: YBContrôleur de La Poste retraité, syndicaliste, je fais du conseil
juridique prud'homal, astronome amateur, j'étudie l'économie, le
marxisme et Bakounine, ce qui ne plait pas à tout le monde.
YB
Citation de: YBEspace astronomique (18) Corriger la turbulence.
Dans un système minimum de correction de la turbulence, le champ est
zéro : on ne corrige qu'un point. Dans ce cas, le nombre de cellules
de convexion à compenser est égal à ce qu'il faut pour couvrir la
surface du miroir primaire. Pour un 8m, soit 50m², il faut compter
6250 cellules. Le champ n'est pas réellement nul, car la turbulence ne
se situe pas à l'infini, elle est à 12 000m (pour une visée
verticale). A cette distance, un disque de 8 m est vu sous un angle de
2,4 minutes d'arc. C'est le champ minimum d'observation, une condition
qui est vérifiée par les systèmes actuels de correction.
Comme je l'ai calculé dans l'épisode précédent, il faut corriger
beaucoup plus de cellules pour avoir un champ important. J'avais basé
mon exemple précédent sur un degré. On devait alors corriger les
perturbations sur un disque de 200 m de diamètre. Pour l'instant, de
tels performances sont inaccessibles pour plusieurs raisons :
- Impossibilité de lire assez vite un capteur CCD de la dimension
requise.
- Impossibilité de transmettre les informations.
- Impossibilité de les traiter en temps réel.
- Impossibilité de trouver sur le marché un miroir déformable de
correction avec assez d'éléments.
Ce sont ces différents point que je veux étudier ici. Je vais faire
l'hypothèse que l'on s'est débarrassé de la turbulence de basse
altitude et que celle de moyenne altitude est relativement
négligeable. En moyenne altitude, on a souvent des vents de direction
différente suivant l'altitude, ici on supposera que cette
configuration ne se produit pas : il n'existe qu'une turbulence liée
aux courants-jets avec une direction et une vitesse bien définie. Les
cellules de convexions défilent donc comme sur un tapis. Leur durée de
vie est grande par rapport à leur temps de passage dans le champ du
télescope.
Ce dernier élément permet de concevoir un type d'instrument jamais
proposé à ce jour : la paire de télescopes couplés. C'est ce que fait
le binocular telescope du Mont Graham, mais pas pour de
l'interférométrie. Il s'agit d'aligner les télescopes dans le sens du
vent et de se servir du premier pour mesurer la turbulence qui sera
corrigée sur le second.
Admettons que les télescopes soient distant de 10 m, avec des courants-
jets lancés à 300 km/h, la vitesse de défilement de la turbulence est
de 100 m/s. Il faut donc un dixième de seconde pour passer d'un
télescope à l'autre. Pour un ordinateur qui effectue le calcul de la
transformée de Fourier de l'image du premier instrument pour
l'appliquer au correcteur du second, c'est une durée considérable.
Si la turbulence défile en ne venant que d'une direction, il n'est
plus nécessaire de prendre une image chaque milliseconde. Il suffit
d'avoir un CCD en une dimension qui mesure cette turbulence à son
entrée dans le champ. Pour 200 m de largeur d'observation à 12 000 m
cela représente 2 000 pixels sur la barrette pour une résolution de 10
cm, soit deux pixels par cellule de 20 cm. Cela satisfait le théorème
de Shannon sur la digitalisation d'un signal sans perte. Or, on trouve
commercialement de telles barrettes CCD dans le commerce actuellement.
On peut même accepter d'en mettre 4 ou 5 bout à bout pour augmenter la
résolution. Le temps de déchargement de ces barrettes est bien dans le
domaine de la milliseconde, ce qui résout la question de la rapidité
de collecte de l'information.
En admettant un codage sur deux bytes (octets) de l'information de
chaque pixel, on a 4 000 bytes à décharger à chaque séquence, soit 32
Kb. Il faut multiplier ce chiffre par mille pour avoir le débit par
seconde, soit 32 Mo/s. Pour mémoire, les liaisons Ethernet standard
sont actuellement à 100 Mb/s et il en existe à 1 Gb/s. La transmission
des informations par les réseaux informatiques actuels ne pose donc
aucune difficulté.
Reste la puissance de calcul qui doit prendre en compte mille fois par
seconde la totalité du champ soit au moins 12 millions d'actuateurs
comme dit précédemment. C'est donc 12 milliards de points qu'il faut
calculer par seconde. En admettant que l'on a 100 flops par point, le
calculateur doit avoir une puissance de 1,2 tera flops. On trouve
depuis peu sur le marché des processeurs 300 fois plus rapides que les
Itanium de Intel, le « processeur d'avenir » qui a fait un « flop »
commercial depuis deux ou trois ans. Les cartes les plus performantes
sur le marché permettent d'assembler deux processeurs de ce type,
chacun avec une puissance de calcul soutenu de 450 Giga flops. On
annonce pour la fin de l'année des processeurs à 1Tera flops, avec des
cartes en comportant jusqu'à 4. La puissance de calcul est donc en
passe d'être résolue, à la limite, on pourrait avoir la mise en réseau
de deux ordinateurs, chacun avec 900 Giga flops de puissance de
calcul, même en tenant compte d'une perte de puissance globale dans
cette configuration, on atteindrait 1,2 tera flops.
Il reste à réaliser le miroir déformable, qui ne se trouve pas dans le
commerce. Il n'est pas près de s'y trouver en raison de ses
applications dans les armes lasers. Il faut donc le faire fabriquer
spécialement. Employer des pièces mécaniques, même en nano-mécanique,
ne paraît pas constituer une bonne solution. Il semble plus
intéressant de reprendre les idées des années 60 concernant la photo
électronique avec des membranes électriquement déformable. L'idée
d'origine était de déformer une feuille de plastique avec des charges
apportées par un pinceau d'électron comme dans les tubes vidicons des
caméras TV de l'époque. Actuellement, on prendrait plutôt des réseaux
TFT similaires à ceux des écrans plats pour charger des « grilles »
agissant sur une membrane souple aluminisée dotée d'électrets
(composants à charges électrique statique).
Il serait ainsi possible de réaliser des télescopes au sol avec une
correction sur un champ d'un degré ou plus dans le domaine optique.
Y.B.