Physique de la lumière - Université Paris 7

22 novembre 2010

Cours n°9 et 10 – Instruments d’optique

(Note : ce résumé fusionne les deux derniers cours, et son déroulement ne correspond donc pas à celui donné en amphi, mais tous les instruments étudiés y sont évoqués)

Les cours précédents ont permis de comprendre la notion d’image, réelle ou virtuelle, ainsi que le fonctionnement des lentilles convergentes et divergentes. Dans la vie de tous les jours, ce sont souvent des combinaisons de lentilles qui sont utilisées pour réaliser les instruments d’optique qui nous entourent. Nous nous intéresserons ici aux plus communs d’entre eux, en faisant la distinction entre les deux types d’instruments :

  • Les instruments qui produisent une image réelle des objets observés, image directement récupérée sur une pellicule ou sur une matrice de détecteurs, comme par exemple les appareils photos, les caméras, ou les télescopes modernes. L’œil humain n’intervient pas dans le processus, et les rayons lumineux ne sortent pas de l’instrument puisqu’ils sont absorbés par la matrice de capteurs.

  • Les instruments qui produisent seulement une image virtuelle des objets observés, comme par exemple les jumelles et lunettes astronomiques, les loupes ou les microscopes... Un œil humain est requis pour observer l’image virtuelle produite. Cet œil doit être correctement positionné pour récupérer les rayons lumineux sortants de l’instrument.

Pour caractériser les objets et les images observées, on utilise beaucoup la notion de « taille apparente » (parfois dénommée « taille angulaire »), qui correspond à l’angle sous lequel un objet est vu. Pour un objet dont les deux extrémités sont A et B, et pour un observateur placé en O, la taille apparente est donc donnée par α=angle(OA,OB) comme sur la figure ci–dessous à gauche. La taille apparente dépend de la taille de l’objet AB mais également de sa distance. Un exemple typique est la Lune, qui vue depuis la Terre présente toujours un angle apparent de 0.52°. Dans un tel cas, c'est-à-dire lorsque l’objet observé est de forme sphérique, on parle parfois de diamètre apparent ou encore de diamètre angulaire.

Fig_taille_apparente

Dans le cas des instruments produisant et enregistrant une image réelle, on s’intéressera aux caractéristiques suivantes :

  • Le grandissement de l’image réelle A’B’ par rapport à l’objet correspondant AB. Ce grandissement est simplement défini comme γ=A’B’/AB.

  • La résolution angulaire du système, est la taille apparente minimale que l’instrument permet de distinguer (de l’ordre de 1/100 de degré pour un appareil photo numérique standard, mais la résolution angulaire peut être meilleure si un « zoom » important est utilisé). Pour qu’on objet apparaisse de façon nette sur l’image photographiée, il faut que sa taille apparente soit significativement supérieure à la résolution angulaire de l’appareil.

  • Le champ de vision, qui désigne la taille apparente maximale que l’instrument permet d’observer (de l’ordre de 50 degrés pour un appareil photo numérique standard, mais moins si un « zoom » important est utilisé). Dans le cas de la photographie ci-dessus à droite, le champ de vision est justement de 0.52 degrés, ce qui permet d’observer la Lune en très gros plan.

Remarquons que l’œil humain réalise également une image réelle des objets observés sur la rétine, et que les définitions de résolution angulaire et de champ de vision peuvent lui être appliquées. La résolution angulaire de l’œil (on parle parfois d’acuité visuelle) est de l’ordre de 1/60ème de degré pour un œil normal. Quant au champ de vision d’un œil humain (on parle parfois de champ visuel), il est de l’ordre de 60-80 degrés, mais la vision n’est réellement nette que pour les objets situés en face de l’œil (contrairement à une photographie où toute la zone observée peut apparaître nette).

L’appareil photographique le plus simple, illustré ci-dessous, est constitué d’une unique lentille de distance focale f, appelée « l’objectif », placée devant une matrice de capteurs semiconducteurs. Un diaphragme placé juste derrière la lentille, dont nous notons le diamètre D, fixe la quantité de lumière qui peut-être récupérée par l’appareil photographique. La taille de la matrice de capteurs est notée T et la taille d’un unique pixel est notée e (distance qui correspond également à l’espacement entre deux pixels voisins). La matrice de pixels semiconducteurs est positionnée à une distance L qui peut-être réglable pour permettre la mise au point. On prendra par exemple L=f pour faire l’image nette d’un objet lointain, et L>f (comme sur la figure ci-dessous) pour faire l’image nette d’un objet proche.

Fig_app_photo

Les caractéristiques de la photographie qui sera prise dépendent de ces différents paramètres, et notamment des rapports suivants:

  • Le rapport e/f  détermine la résolution angulaire de la photographie.

  • Le rapport T/f détermine le champ de vision de la photographie.

  • Le rapport D/f détermine l’ouverture angulaire de l’appareil, qui influence à la fois la luminosité et la profondeur de champ de la photographie.

On remarque qu’il est possible de prendre exactement la même photographie avec des lentilles de focales tout à fait différentes, à condition que les rapports e/f, T/f, et D/f soient égaux. On peut donc réaliser des appareils photos miniatures, avec de très petites distances focales, comme ceux qui sont couramment insérés dans les téléphones portables.

En considérant une lentille idéale, et dans le cas d’un objet lointain, la figure ci-dessous permet de calculer très rapidement la résolution angulaire et le champ de vision de la photographie. La résolution angulaire est la taille apparente minimale visible, α_min : elle correspond à des points-objets A et B dont les images A’ et B’ sont sur des pixels voisins, séparés par la distance e. Le champ de vision est la taille maximale visible α_max, correspondant à des images A’ et B’ les plus éloignées possibles, séparées par la distance T. Un peu de trigonométrie permet de montrer que α_min=2Arctan(e/2f) et que α_max=2Arctan(T/2f). Pour le premier cas on peut évidemment se placer dans l’approximation des petits angles, ce qui nous donne tout simplement α_min=e/f, à condition que l’angle α soit exprimé en radians.

Fig_resolution_champ_vision

A l’époque de la photographie argentique, c'est-à-dire sur pellicule, presque toutes les pellicules avaient la même taille (24x36 mm) et connaître la distance focale permettait à coup sûr de deviner le champ de vision d’une photographie. De nos jours, on caractérise encore le champ de vision d’une photographie par la focale équivalente, c'est-à-dire la focale qu’il faudrait utiliser pour prendre la même photographie avec un capteur 24x36 mm. La figure ci-dessous présente la même scène photographiée avec différentes focales équivalentes.

Fig_focale_equivalente

Effectuer un zoom sur un appareil photo consiste à diminuer son champ de vision en augmentant sa focale équivalente, ce qui n’est pas possible avec une seule lentille. Le zoom devient possible lorsqu’on utilise deux lentilles, une convergente et une divergente, à condition de pouvoir ajuster soigneusement la distance séparant les lentilles entre elles ainsi que la distance entre les lentilles et la matrice de capteurs. Comme le montre la figure ci-dessous, la taille de l’image finale A’’B’’ dépend de la distance relative entre les lentilles. Plus l’image A’’B’’ sur le capteur est grande, plus l’objet apparaîtra en gros plan sur la photographie finale.

Fig_zoom

En plus du zoom, un appareil photographique un peu perfectionné permet de régler le rapport D/f, c'est-à-dire l’ouverture angulaire de l’appareil, qui a également une importance sur l’allure de la photographie qui sera prise. On peut montrer que la luminosité reçue par chaque pixel est proportionnelle à (D/f)², donc si l’on cherche à prendre une photo dans un intérieur mal éclairé on a tout intérêt à ajuster le diamètre du diaphragme sur sa valeur maximale. Mais, comme mentionné plus haut, l’ajustement du diaphragme a également une importance sur la profondeur de champ de la photographie, c'est-à-dire la plage de distances pour lesquelles les objets paraîtront nets. Par exemple, si l’on met au point sur un objet situé à 4 m et que la profondeur de champ est grande, on verra également nets des objets situés entre 2 m et 20 m de distance. Mais si l’on fait la même chose avec une faible profondeur de champ, on ne verra nettement que les objets situés entre 3 m et 5m de distance, et les objets situés plus loin ou plus près paraîtront flous. On peut montrer qu’une augmentation du rapport D/f impose une diminution de la profondeur de champ, tandis qu’une diminution de D/f augmente la profondeur de champ.

Les photographies ci-dessous, par exemple, ont été prises dans les mêmes conditions mais avec un rapport D/f égal à 1/4 pour la photographie de gauche et à 1/8 pour la photographie de droite. La mise au point a été effectuée sur les tulipes, qui apparaissent donc nettes dans les deux cas, mais les rochers lointains apparaissent légèrement flous dans le cas de la faible profondeur de champ (à gauche) et plutôt nets dans le cas de la forte profondeur de champ (à droite).

Fig_photos_prof_champ

On s’intéresse maintenant aux instruments produisant une image virtuelle d’un objet AB. Il devient alors nécessaire de distinguer entre deux tailles apparentes, comme illustré sur la figure ci-dessous :

  • La taille apparente de l’objet AB observé en l’absence d’instrument, que nous noterons comme précédemment α=angle(OA,OB) avec O la position de l’observateur.

  • La taille apparente de l’image virtuelle A’B’ observée à travers l’instrument, que nous noterons β=angle(OA’,OB’). Bien entendu, un instrument d’optique n’a souvent d’intérêt que si l’image virtuelle apparaît plus grosse que l’objet réel, c'est-à-dire si β > α.

Fig_taille_apparente_objet_image

Pour décrire un tel instrument d’optique on utilise donc les caractéristiques suivantes:

  • Le grossissement, qui est le rapport G=β/α.

  • Le champ de vision réel, qui est la taille apparente du plus grand objet observable à travers l’instrument d’optique, c'est-à-dire max(α), et que nous noterons α_max. Pour pouvoir observer la Lune en entier il faut un instrument dont le champ de vision réel α_max  soit plus grand que 0.52 degrés; si le champ de vision réel est plus faible on ne pourra en voir qu’une portion.

  • Le champ de vision apparent est la taille apparente de la plus grande image observable à travers l’instrument d’optique, c'est-à-dire max(β), et que nous noterons β_max. Les angles β_max et α_max sont reliés par le grossissement G selon β_max = G α_max.

Notons que β_max est une caractéristique importante puisque cet angle détermine le confort visuel de l’instrument d’optique. En effet, l’œil humain observe à travers l’instrument une zone lumineuse de taille angulaire β_max, mais tout le reste du champ visuel apparaît noir. Si β_max est de l’ordre de 60 degrés le confort visuel est très bon car la zone noire est située à l’extrême bord de notre champ visuel, comme illustré sur la figure ci-dessous à gauche. Si l’angle β_max est petit devant 60 degrés la zone noire couvre la majeure partie de notre champ visuel et l’observation est moins confortable.

Fig_champ_vision_apparent_red

Les instruments les plus connus réalisant une image virtuelle sont les jumelles et les lunettes astronomiques, qui fonctionnent sur le même principe : à partir d’un objet lointain, l’instrument produit une image virtuelle lointaine de taille apparente plus importante. Pour construire un tel instrument, il faut réaliser un système optique afocal : des rayons parallèles en entrée resteront parallèles à la sortie. Ceci peut-être obtenu en utilisant deux lentilles convergentes (lunette de Kepler) ou bien une lentille convergente couplée à une lentille divergente (lunette de Galilée), à condition d’ajuster très précisément la distance entre les deux lentilles. Dans les deux cas, la première lentille réalise une image A’B’ de l’objet AB, et la seconde lentille produit une image virtuelle lointaine A’’B’’ ; l’œil croit alors voir l’objet en A’’B’’ avec une taille apparente β. La position de ces images et le tracé de quelques rayons lumineux caractéristiques sont illustrés sur la figure ci-dessous.

Fig_jumelles

Comme on peut le voir, la lunette de Kepler conduit à un renversement de l’image, renversement qui peut être compensé à l’aide de prismes adaptés; c’est sur ce principe que sont réalisées la plupart des jumelles modernes. A l’époque, par contre, et malgré sa mauvaise qualité relative, c’est la lunette de Galilée qui a convaincu la communauté des astronomes et des scientifiques. Le système inventé par Kepler, du fait de son image inversée, était au contraire accueilli avec un profond scepticisme.

La loupe, quant à elle, est une simple lentille convergente que nous utilisons pour observer un objet proche; nous souhaitons de préférence réaliser une image virtuelle lointaine de cet objet, ce qui nous évitera la fatigue de l’accommodation. En l’absence de loupe, si nous souhaitons observer l’objet proche, nous ne pouvons pas nous approcher plus qu’une distance minimale caractéristique de chacun : le « punctum proximum ». Si nous nous approchons plus près que cette distance, notre œil n’est plus capable d’accommoder et l’objet nous apparaît flou. Dans le meilleur des cas, en l’absence de loupe, l’objet AB nous apparaît avec une taille apparente α = AB / PP, ou PP désigne le punctum proximum de notre œil.

En présence d’une loupe, nous n’avons plus de problème d’accommodation si nous plaçons l’objet AB à la distance f de la lentille, et notre œil de l’autre coté : comme l’indique la figure ci-dessous, la lentille convergente réalise alors une image virtuelle lointaine A’B’ qui nous apparaît avec un angle apparent β = AB / f. Le grossissement de la loupe est donné par G = β / α = PP / f : ce sont donc les personnes âgées, dont le punctum proximum est généralement plus élevé que la moyenne, qui bénéficient le plus de l’utilisation des loupes. Dans le commerce et l’industrie, le grossissement d’un instrument d’optique tel que la loupe est défini en prenant comme valeur standard PP = 25 cm.

Fig_loupe

Si l’on souhaite obtenir un plus fort grossissement, afin d’observer des objets encore plus petits, il est nécessaire d’utiliser un microscope. Le principe du microscope s’inspire de celui de la loupe, à ceci près que la lumière est manipulée en deux étapes, comme illustré sur la figure ci-dessous. Une première lentille convergente appelée « l’objectif » sert à réaliser une image réelle A’B’ fortement agrandie de l’objet AB. Pour cela, on utilise un objectif de très courte focale f1 (de l’ordre de quelques millimètres), et on approche fortement l’objet AB de l’objectif : l’image A’B’, située à environ 15-20 cm de l’objectif, peut ainsi se trouver agrandie d’un facteur 100 par rapport à l’objet AB. Une deuxième lentille convergente, appelée « l’oculaire », sert ensuite de loupe pour créer une image virtuelle lointaine A’’B'' à partir de l’image intermédiaire A’B’. Pour cela, on utilise typiquement un oculaire de focale f2 = 2.5 cm, ce qui correspond à une loupe de grossissement PP / f2 = 10. La combinaison des deux effets permet ainsi de voir des objets mille fois plus petits que ceux couramment observables à l’œil nu.

Fig_microscope

Une version imprimable de ce résumé de cours peut-être téléchargée en cliquant sur ce lien.

Posté par llanco à 19:13 - Commentaires [0] - Permalien [#]


08 novembre 2010

Cours n°8 – Lentilles

 

Du fait de leur capacité à manipuler les images, les lentilles sont des systèmes optiques particulièrement courants dans notre vie quotidienne : appareils photos et caméras, jumelles et longues-vues, loupes et microscopes, lunettes de vue et lentilles de contact, etc… Nous nous intéresserons aux applications des lentilles à l’occasion des cours suivants; il nous faut commencer par comprendre leur fonctionnement, c'est-à-dire la manière dont elles agissent sur les rayons lumineux. Nous avons commencé par étudier la lentille la plus simple et la plus commune, la lentille plan-convexe. Le lecteur intéressé par une étude détaillée est invité à résoudre le problème ci-dessous:

Examen du 23 juin 2009 : la lentille plan-convexe

Les études qui suivent se placent dans l’approximation des petits angles, qui est la condition clé pour qu’une lentille fonctionne proprement : sin i = tan i = i, à condition que l’angle i soit exprimé en radians (et non en degrés!) et qu’il soit « suffisamment petit ». La marge de validité de cette approximation est heureusement assez grande : par exemple, l’approximation sin i = i reste valable à mieux que 1% près tant qu’on utilise des angles inférieurs à 0,24 radians (14 degrés). L’approximation des petits angles n’est qu’un cas particulier de développement limité au premier ordre, appliqué aux fonctions sinus et tangente, en prenant comme point de référence l’angle nul i0=0. Une introduction plus générale aux développements limités est disponible ci-dessous :

Introduction aux développements limités

Dans cette approximation des petits angles, on peut tout d’abord montrer que des rayons lumineux parallèles à l’axe de symétrie de la lentille (son axe optique) seront tous focalisés en un même point F’, appelé le foyer image de la lentille. Par définition, ce foyer est l’image réelle d’un point situé sur l’axe optique mais « à l’infini », c'est-à-dire extrêmement lointain. Le foyer image est situé après la lentille à une distance f appelée distance focale et donnée par f = R/(n-1) avec R le rayon de courbure du verre et n son indice. Pour parvenir à ce résultat il est recommandé de poser le problème avec soin : dessin  du système, définitions (points, distances, et angles), approximations utilisables, détermination des paramètres et des inconnues, et enfin relations physiques entre toutes ces quantités. Être capable de poser un problème de façon autonome est la principale compétence attendue des étudiants de premier cycle universitaire.

Fig_lentille_conv_foyer

De façon générale,, une lentille convergente permet de réaliser l’image réelle d’un objet lointain AB, cette image A’B’ étant située dans le plan focal image de la lentille (c'est-à-dire le plan perpendiculaire à l’axe optique et passant par le foyer image F’ de la lentille). Il faut pour cela que l’approximation des petits angles reste valable, donc que le point B ne soit pas situé trop à l’écart de l’axe optique.

Fig_lentille_conv_plan_focal

La photographie ci-dessous montre une lentille réalisant l’image réelle d’un objet lointain (un paysage à travers une fenêtre). L’image réelle est observée grâce à un écran placé juste au bon endroit (c'est-à-dire dans le plan focal image de la lentille). En pratique on ajuste la distance entre la lentille et l’écran jusqu’à obtenir une image nette sur l’écran. La distance obtenue, facilement mesurable, n’est autre que la distance focale f de la lentille.

Fig_projection_image_mur_reduc

Dans le cas d’une lentille suffisamment mince, et pour des angles suffisamment petits, une lentille convergente peut-être considérée comme un système optique d’épaisseur négligeable et agissant sur les rayons lumineux selon deux règles très simples :

  • Un rayon passant par le centre de la lentille n’est pas dévié
  • Des rayons incidents parallèles entre eux convergeront dans le plan focal image

Ce modèle est le modèle de la lentille mince, ou lentille idéale, illustré sur la figure ci-dessous. Attention au fait que ce modèle fait intervenir plusieurs ingrédients: la lentille elle-même, mais également son axe optique et son plan focal image situé à la distance f. On retrouve également la notion de foyer image F’, qui est le point où convergeront des rayons parallèles à l’axe optique.

Fig_lentille_conv_modele_1

On note également que, du fait de la symétrie de ce système optique, un point objet B situé à la distance f de la lentille émettra des rayons qui ressortiront parallèlement entre eux, comme illustré sur la figure ci-dessous. On dit dans un tel cas que B est situé dans le plan focal objet de la lentille (cf cours n°7). L’intersection entre le plan focal objet et l’axe optique est le foyer objet F, qui est le point pour lequel un objet produira des rayons parallèles à l’axe optique. Ainsi, dans le cas d’une lentille idéale, le plan focal objet et le plan focal image sont positionnés symétriquement, tous les deux à la distance f de la lentille.

Fig_lentille_conv_modele_2

Sur la base de ce modèle, on peut montrer qu’une lentille idéale réalise une image réelle même pour un objet proche. La figure ci-dessous (à gauche) montre comment l’on prédit « à la main » la position de l’image B’ pour un point objet B situé hors de l’axe optique, à l’aide des règles suivantes :

  • Le rayon passant par le centre O de la lentille n’est pas dévié.
  • Le rayon émis parallèlement à l’axe optique passera par le foyer image F’
  • Le rayon passant par le foyer objet F ressort parallèlement à l’axe optique.

Il est possible de montrer que n’importe quel autre rayon émis par B se dirigera également vers B’, qui est donc bien l’image réelle de B.

Fig_lentille_conv_image_reelle

On remarque qu’il n’est pas possible de prédire de cette manière la position de l’image A’ d’un point A situé sur l’axe optique. Nous pouvons toutefois utiliser une règle très générale qui nous indique que, si A est situé à la verticale de B, l’image A’ sera également située à la verticale de B’. La distance de l’objet l et la distance de l’image réelle l’ par rapport à la lentille vérifient la relation 1/ l + 1/ l’ = 1/ f, comme indiqué ci-dessus (figure de droite). Si l tend vers l’infini alors l’ tend vers f (image dans le plan focal image), tandis que si l tend vers f alors l’ tend vers l’infini (image lointaine).

Dans le cas où l’objet est à une distance l inférieure à f, la lentille n’est pas suffisamment focalisante pour permettre la réalisation d’une image réelle : les rayons en sortie de lentille divergent. Comme illustré sur la figure ci-dessous, on peut déterminer « à la main » la position de l’image virtuelle B’, pour un point objet B situé en dehors de l’axe optique, à l’aide des même règles que précédemment :

  • Le rayon passant par le centre O de la lentille n’est pas dévié.
  • Le rayon émis parallèlement à l’axe optique passera par le foyer image F’
  • Le rayon semblant provenir du foyer objet F ressort parallèlement à l’axe optique.

La distance de l’objet l et la distance de l’image virtuelle l’ vérifient cette fois la relation 1/ l - 1/ l’ = 1/ f. Si l tend vers 0, alors l’ tend aussi vers 0 (pas de déviation des rayons lumineux), tandis que si l tend vers f alors l’ tend vers l’infini (image virtuelle lointaine).

Fig_lentille_conv_image_virtuelle

 

Un autre cas intéressant est celui de la lentille divergente, dont la lentille plan-concave est l’exemple le plus simple; une telle lentille produit naturellement l’image virtuelle d’un objet. On peut montrer que des rayons incidents parallèles à l’axe optique divergeront en sortie de lentille, et sembleront donc tous provenir d’un même point F’, le foyer image, situé cette fois avant la lentille. Par définition, ce foyer image est le lieu ou sera située l’image (virtuelle cette fois) d’un point situé sur l’axe optique mais « à l’infini ». Le foyer image est situé à une distance f nommée distance focale par analogie avec la lentille convergente, bien qu’il n’y ait pas de focalisation des rayons lumineux. De même, le plan perpendiculaire à l’axe optique et passant par F’ est nommé le plan focal image : c’est le plan où sera située l’image virtuelle d’un objet lointain. Comme précédemment, dans le cas d’une lentille suffisamment mince et pour des angles suffisamment petits, nous pouvons utiliser le modèle de la lentille divergente idéale, illustré sur la figure ci-dessous. Deux règles gouvernent là encore le trajet des rayons lumineux à la traversée d’une telle lentille :

  • Un rayon passant par le centre de la lentille n’est pas dévié.
  • Des rayons incidents parallèles entre eux divergeront comme s’ils provenaient d’un point situé dans le plan focal image.

Fig_lentille_div_modele

A l’aide d’un tel modèle nous pouvons prédire le trajet de n’importe quel rayon lumineux; en particulier nous pouvons tracer à la main, pour un point B situé en dehors de l’axe optique, son image virtuelle B’, comme illustré sur la figure ci-dessous. La distance de l’objet l et la distance de l’image virtuelle l’ vérifient cette fois la relation 1/ l’ - 1/ l = 1/f. Si l tend vers 0, alors l’ tend aussi vers 0 (pas de déviation des rayons lumineux), tandis que si l tend vers l’infini alors l’ tend vers f (image virtuelle dans le plan focal image).

Fig_lentille_div_image_virtuelle

Se familiariser avec ces différentes relations objet-image demande du temps et de l’entraînement, le lecteur étant invité à refaire par lui-même les figures dans différentes configurations. Il est important de noter, toutefois, que toutes ces relations peuvent être résumées en une seule formule. Si on appelle O le centre de la lentille, F’ son foyer image, A un point objet situé sur l’axe optique et A’ son image réelle ou virtuelle (sur l’axe optique également), on a pour toute lentille la relation suivante :

Fig_formule

Comme on peut le voir, cette relation fait intervenir des grandeurs algébriques, qui  peuvent être soit positives (pour les points situés à droite de la lentille) soit négatives (pour les points situés à gauche de la lentille). Si l’on préfère raisonner en utilisant les distances l, l’ et f (distances toujours positives), on voit que l’on retrouve bien les relations exprimées précédemment pour des lentilles convergentes ou divergentes, pour des images réelles comme pour des images virtuelles.

Une version imprimable de ce résumé de cours peut-être téléchargée en cliquant sur ce lien.

Posté par llanco à 21:19 - Commentaires [0] - Permalien [#]

27 octobre 2010

Cours n°7 - Images

Pour pouvoir voir les objets qui nous entourent, que ce soit par l’intermédiaire de l’œil ou d’un objectif d’appareil photo, il est nécessaire de récupérer la lumière qui nous parvient et d’en extraire un très grand nombre d’informations : nous avons besoin de savoir quel objet est à quel endroit, quelle est sa forme, s’il est plutôt sombre ou lumineux, quelle est sa couleur, etc…

La difficulté provient du fait que les objets nous envoient souvent de la lumière de façon complexe. Qu’il s’agisse de sources primaires (directement productrices d’énergie lumineuse) ou de sources secondaires (qui se contentent de diffuser la lumière reçue), les objets que nous observons ont un point commun : chaque point de l’objet envoie des rayons dans presque toutes les directions de l’espace. Ainsi, si l’on éclaire un mur avec la flamme d’une bougie, la tache projetée ne nous renseigne pas sur la forme de la flamme, car chaque point lumineux contribue à éclairer toute une partie du mur :

Fig_bougie

Un moyen de récupérer l’information sur la forme de la flamme est d’utiliser un sténopé, c'est-à-dire un petit trou percé dans une boite hermétique à la lumière (figure ci-dessous). Dans un tel cas les seuls rayons lumineux qui peuvent atteindre le fond de la boite sont ceux qui se sont propagés en ligne droite en passant par le trou. Ainsi, sur un écran ou sur une pellicule placée au fond de la boîte, on observe une tache lumineuse ayant conservée la forme de la flamme (bien qu’elle soit inversée par rapport à la flamme réelle).

 

Fig_stenope

 

Ce procédé, qui a permis la réalisation des premiers appareils photographiques, souffre toutefois de plusieurs inconvénients. Premièrement, on ne peut pas utiliser un trou trop petit, car sinon la forme projetée sur l’écran serait trop peu lumineuse par rapport à l’objet qu’on observe. Mais du fait de la taille finie du trou, il y a toujours plusieurs rayons lumineux qui peuvent partir d’un même point et passer à travers le trou pour atteindre l’écran : chaque point de l’objet forme donc une petite tache lumineuse sur l’écran, et la forme projetée au final manque de netteté.
   
Pour réaliser une photographie nette, il est nécessaire d’aller plus loin en récupérant la lumière émise par chaque point de l’objet et en la renvoyant vers un unique point-image. Ceci peut-être obtenu en utilisant un système optique (c'est-à-dire un dispositif manipulant les rayons lumineux) qui focalise les rayons émis par chaque point, comme sur la figure ci-dessous. Les rayons émis par le point A sont focalisés en un point A’, ceux émis par un autre point B sont focalisés en B’, et ainsi de suite, de façon à réaliser une bijection entre les points-objets (A, B, C...) et les points-images correspondants (A’, B’, C’…).

 

Fig_image_reelle

Nous utiliserons régulièrement dans les cours prochains les définitions suivantes :

  • L’image réelle d’un point est le lieu où convergent les rayons issus de ce point.
  • L’image réelle d’un objet est l’ensemble des différents points-images associés aux différents points de l’objet.

Dans la figure ci-dessus A’ est donc l’image réelle de A, B’ l’image réelle de B, et A’B’ l’image réelle de l’objet AB. L’adjectif « réel » est ajouté pour préciser que les rayons lumineux convergent réellement vers les points A’, B’, etc…, contrairement aux images « virtuelles » que nous étudierons plus loin.

L’intérêt de réaliser une image réelle apparaît si l’on emploie des détecteurs pour enregistrer l’image. Dans le cas d’un appareil photo numérique, c’est une matrice composée de millions de détecteurs (les « pixels ») qui est positionnée à l’endroit ou se forme l’image : le pixel placé en A’ reçoit la lumière émise par A, tandis que le pixel placé en B’ reçoit la lumière émise par B, etc... Si les proportions sont respectées (c'est-à-dire si la distance A’B’ entre deux points-images est bien proportionnelle à la distance AB entre les points-objets), on obtient sur la matrice de détecteurs une reproduction fidèle de l’objet original.

Notons que la position de l’image réelle A’B’ dépend fortement de la distance entre l’objet AB et le système optique : à un objet lointain correspondra une image proche, et réciproquement, à un objet proche correspondra une image lointaine. Nous utiliserons régulièrement dans les cours prochains les deux définitions suivantes, correspondant à deux cas limites :

  • Lorsque un objet est situé « à l’infini », l’image correspondante est située dans le plan focal image
  • Lorsqu’une image est située « à l’infini », l’objet correspondant est situé dans le plan focal objet

Ces définitions abstraites prennent sens en étudiant les quatre figures ci-dessous. La figure 1 correspond au premier cas limite où le point objet A est situé à l’infini, c'est-à-dire tellement loin que les rayons qu’il émet arrivent parallèles entre eux. Le point image A’ est alors situé dans le plan focal image, d’après la définition ci-dessus. La figure 2 correspond à un point objet A plus proche, qui conduit à un point image A’ plus éloigné que le plan focal image: le système optique refocalise en effet moins facilement des rayons qui sont déjà divergents au départ. La figure 3 illustre le cas limite où l’objet est précisément situé dans le plan focal objet; dans une telle situation le système optique ne parvient à réaliser une image qu’à l’infini, c’est à dire que les rayons issus de A ne convergeront qu’en un point A’ extrêmement lointain. La figure 4 correspond à un objet encore plus proche que le plan focal objet, et donc à des rayons tellement divergents que le système optique ne parvient plus du tout à les refocaliser. Dans un tel cas aucune image réelle n’est produite.

Fig_pouvoir_focalisant

Chaque fois que l’on réalise ou que l’on étudie un instrument d’optique, nous devons donc répondre à la question suivante : où est l’image ? Dans le cas d’un appareil photographique, par exemple, il est important de positionner la matrice de détecteurs exactement au bon endroit, pour récupérer une image nette de l’objet photographié: c’est ce que l’on appelle le processus de mise au point.

Dans l'œil, la cornée et le cristallin constituent un système optique qui forme l'image du monde observé sur les récepteurs de la rétine : les cônes et les bâtonnets (cf cours n°5). La fovéa est la zone centrale de la rétine très dense en cônes, qui permet une vision précise pour les objets situés en face de l’oeil, tandis que le reste de la rétine est associé à la vision périphérique. Le diamètre de la pupille est ajustable par l’intermédiaire de l’iris, qui sert de diaphragme pour régler la quantité de lumière pénétrant dans l’œil.

Fig_schema_oeil_vision

La figure ci-dessus est réalisée dans le cas limite où les rayons sont issus de points lointains A et B, situés très à gauche du dessin, émettant des rayons quasiment parallèles entre eux. Les rayons sont alors focalisés sur la rétine aux points-images A’ et B’, grâce à la forme incurvée du cristallin. Lorsque l’on observe un objet proche, par contre, les rayons arrivants dans l’oeil sont plus divergents et donc plus difficiles à focaliser; l’œil doit alors augmenter son pouvoir focalisant pour que l’image A’B’ soit quand même formée sur la rétine. Cet ajustement du pouvoir focalisant de l’œil se fait en contractant les muscles qui entourent le cristallin, pour modifier sa courbure: on dit dans un tel cas que l’œil fait un effort d’accommodation. Les défauts de l’œil les plus fréquents proviennent de difficultés à focaliser précisément sur la rétine l’image réelle de l’objet observé : on parle de myopie lorsque le cristallin est trop focalisant, d’hypermétropie lorsqu’il ne l’est pas assez, et de presbytie lorsque l’œil, avec l’âge, a de plus en plus de mal à accommoder.

La notion de stigmatisme/astigmatisme correspond quant à elle à un concept plus général, valable pour n’importe quel système optique imageur et pas seulement pour l’oeil. On parle de stigmatisme idéal lorsque tous les rayons émis par A sont effectivement focalisés en un unique point A’. Dans le cas où la grande majorité des rayons est focalisé en A’, mais pas tous, on parle de stigmatisme approché : c’est cette dernière situation que l’on rencontre le plus fréquemment. Une personne astigmate est gênée dans sa vision, parce que la forme de son cristallin ne permet de focaliser qu’une partie des rayons lumineux au bon endroit, les autres rayons étant dispersés ailleurs sur la rétine.

La notion d’image apparaît également dans un autre contexte que pour les images réelles : lorsque l’on croit voir un objet à un endroit alors qu’il est en réalité ailleurs. Comme le montre la figure ci-dessous, il faut pour cela qu’un système optique dévie les rayons émis par un point A, mais sans les refocaliser, et de façon telle que les rayons sortants semblent provenir d’un autre point A’. On parle dans un tel cas d’image « virtuelle », car les rayons lumineux ne convergent pas vers A’ mais au contraire semblent diverger depuis A’. Bien entendu, pour réaliser l’image virtuelle d’un objet (et pas seulement d’un point) il faut qu’il y ait une bijection entre les points de l’objet (A, B, C...) et les points-images correspondants (A’, B’, C’…). On utilisera donc dans les cours prochains les définitions suivantes :

  • L’image virtuelle d’un point est le lieu d’où semblent diverger les rayons issus de ce point.
  • L’image virtuelle d’un objet est l’ensemble des différents points-images associés aux différents points de l’objet.

 

Fig_image_virtuelle

De nombreux systèmes permettent de réaliser une image virtuelle des objets qui nous entourent : un miroir plan, une lentille (comme nous le verrons dans le cours suivant), ou simplement une interface entre deux milieux... Ainsi, lorsque l’on regarde un poisson dans l’eau, on observe en réalité une image virtuelle du poisson, comme l’illustre la figure ci-dessous. Les rayons lumineux émis par la tête du poisson (point A) semble provenir d’un point A’ plus proche de la surface, et il en est de même pour les rayons lumineux émis par le point B à l’autre extrémité du poisson. L’image virtuelle observée, A’B’, donne l’illusion d’un poisson plus proche de la surface qu’il ne l’est réellement.

Fig_image_virtuelle_poisson

Une version imprimable de ce résumé peut être téléchargée en cliquant sur ce lien.

 

Posté par llanco à 21:15 - Commentaires [0] - Permalien [#]

22 octobre 2010

Cours n°6 - La couleur

La couleur est une sensation qui se construit dans l’œil et le cerveau, à partir du spectre de la lumière reçue. Elle ne correspond pas simplement à une longueur d'onde : par exemple, il n'y a pas de longueur d'onde rose, marron, kaki, noire ou blanche. Les spectres lumineux possibles sont infiniment variés, comme l’illustrent les spectres des trois sources d’éclairage ci-dessous : un lampadaire à vapeur de sodium pour l’éclairage des rues la nuit, un tube fluorescent (improprement appelé « tube néon »), et une ampoule électrique standard composé d’un filament de tungstène incandescent. La première source produit une lumière presque monochromatique, les deux autres des spectres recouvrant toute la gamme visible (400-700 nm). Des spectres totalement différents seraient obtenus avec d’autres sources lumineuses : la lumière du soleil, un pointeur laser, une diode électroluminescente, un écran de télévision ou d’ordinateur, etc…

Fig_exemples_spectres

A cette diversité des sources d’éclairage s’ajoute la diversité encore plus grande des matériaux qui nous entourent, et qui interagissent avec la lumière. Ainsi, lorsque la lumière est diffusée par un objet, son spectre peut être très différent de celui de la lumière incidente, suivant que l’objet diffuse préférentiellement telles ou telles longueurs d’onde.

Dans l’œil, l’image du monde observé est formée sur la rétine, une matrice de nombreux petits capteurs appelés cônes et bâtonnets; ce sont les cônes, en particulier, qui produisent la sensation de couleur. Toutefois, de l’immense variété des spectres lumineux possibles, l’œil humain ne récupère qu’une petite quantité d’information. Il existe en effet trois sortes de cônes dans la rétine, qui absorbent plutôt la lumière rouge, verte ou bleue, respectivement. La figure ci-dessous présente les réponses spectrales des trois types de cônes, ainsi que la réponse spectrale des bâtonnets. Notons qu’il n’y a que des cônes et pas de bâtonnets au centre de la rétine (c'est-à-dire dans la zone qui permet une vision nette et très riche en information, au contraire de la vision périphérique beaucoup plus floue). C’est pourquoi les bâtonnets ne jouent qu’un rôle secondaire dans la sensation de couleur.

Fig_reponse_cones

Ainsi, la sensation colorée est construite à partir de trois données seulement : R, V et B (intensité d’excitation des cônes rouges, verts et bleus). Cela implique que la sensation colorée est un phénomène inscrit dans un espace à trois dimensions.  Si on excite les cônes rouges, verts et bleus, en même temps, avec une forte intensité, la rétine est excitée sur la totalité de son domaine spectral de sensibilité. Le cerveau voit alors du blanc, si bien que l'on peut écrire : Blanc = R + V + B. De la même manière, si l’on excite fortement les cônes rouge et vert, mais pas le bleu, on obtient une nouvelle sensation de couleur qui est le jaune. Si l’on excite seulement les cônes bleu et vert, on obtient une autre sensation, celle de la couleur cyan. Enfin, si l’on excite les cônes bleu et rouge seulement, on obtient la sensation de magenta.

Fig_synthese_additive

De façon générale, on parle de synthèse additive pour décrire l’apparition de nouvelles sensations de couleur lorsqu’on superpose des lumières colorées. Ainsi, en éclairant un mur blanc avec un faisceau vert et un faisceau rouge, on observe la couleur jaune; en éclairant ce mur avec un rayonnement monochromatique de longueur d’onde 580 nm, on obtient du jaune également. Il existe bien sûr une grande différence physique entre une lumière de longueur d'onde 580 nm et un mélange de lumières rouge et verte. Cependant, ces deux phénomènes stimulent les cellules de l'œil de façon semblable, ce qui fait que l'on ne perçoit pas la différence : dans les deux cas les cônes R et V sont excités simultanément. La synthèse additive, utilisée dans tous les écrans de télévision ou d’ordinateur, permet de reproduire la plupart des sensations de couleur à partir de trois types de pixels seulement : rouge, vert, et bleu. Vous pourrez le vérifier par vous-même en cliquant sur le lien ci-dessous :

http://nte-serveur.univ-lyon1.fr/tribollet-old/SiteCouleurs/EDUCNET/ecrantv.htm

La synthèse additive se produit lorsqu’on superpose des sources lumineuses, c'est-à-dire lorsqu’on ajoute de la lumière à la lumière. Mais nous sommes également entourés d’objets qui absorbent la lumière au lieu d’en émettre, et les règles de composition des couleurs ne sont plus les mêmes. Par exemple, si l'on place des filtres colorés successifs sur le trajet de la lumière, chaque filtre absorbera une partie du spectre, et modifiera la couleur observée. Un filtre de couleur jaune est un filtre qui absorbe le bleu mais laisse passer le rouge et le vert; un filtre de couleur magenta absorbe seulement le vert; enfin, un filtre de couleur cyan n’absorbe que le rouge. On peut donc obtenir des lumières vertes, rouges ou bleues en combinant deux filtres, comme sur la figure ci-dessous : chaque filtre retranche une composante spectrale à partir de la lumière blanche initiale.

Fig_synthese_soustractive

 

De façon générale, on parle de synthèse soustractive pour décrire l’apparition de nouvelles sensations de couleur lorsqu’un superpose des absorbants colorés, comme dans le cas des filtres ci-dessus. Mais la synthèse soustractive est également à la base de nombreux arts graphiques, en premier lieu la peinture. Un pigment jaune, par exemple, a la propriété d’absorber le bleu; un pigment de couleur cyan a au contraire la propriété d’absorber le rouge. Si l’on mélange de la peinture jaune a de la peinture cyan, on obtient un mélange qui absorbe à la fois le rouge et le bleu : ce mélange nous apparaît donc de couleur verte. La synthèse soustractive est également utilisée dans toutes les imprimantes pour reproduire n’importe quelle sensation de couleur à partir de trois encres colorées : jaune, cyan, et magenta :

Fig_quadrichromie_reduc

Même si la couleur n’est qu’une sensation créée par la lumière, le langage commun considère souvent la couleur comme une propriété des objets : une « voiture rouge », une « chemise bleue », etc… En réalité, pour définir la « couleur d’un objet », il faut préciser les conditions d’observation : la couleur perçue ne sera pas la même sous le soleil de midi ou sous un éclairage artificiel, et la voiture rouge pourra apparaître jaune sous l’éclairage du lampadaire à vapeur de sodium. Il existe également de nombreux cas particuliers qui font relativiser la notion de couleur: la couleur d’un verre dichroïque, par exemple, dépend de l’angle d’observation et de l’angle avec lequel il est éclairé. Un objet fluorescent semblera luire s’il est au soleil, ou s’il est éclairé avec de la lumière ultra-violette, mais restera terne sous l’éclairage d’une ampoule à incandescence.

Un des outils de base de la colorimétrie, la science de la couleur, est le diagramme de chromaticité présenté ci-dessous. Il s’agit d’un diagramme répertoriant l’ensemble des couleurs possibles pour une même luminosité apparente : les couleurs sombres comme le kaki, l’ocre, ou le marron, n’y sont donc pas visibles. Ce diagramme a pour propriété fondamentale que le mélange de deux couleurs (représentées par deux points A et B) donne une couleur au barycentre de A et B. Les couleurs de l’arc-en-ciel, qui correspondent à des longueurs d’onde uniques et sont donc des couleurs pures, constituent les bords du diagramme (les chiffres des longueurs d’onde sont indiqués ci-dessous en nanomètres). Toutes les autres couleurs sont obtenues par superposition de différentes longueurs d’onde, et sont donc situées à l’intérieur du diagramme. Le blanc est logiquement situé au milieu du diagramme, au barycentre de toutes les longueurs d’onde visibles.

CIExy1931

Source: Hangkwang, Wikipedia, 2009

 

En colorimétrie, on définit la saturation d’une couleur comme sa distance par rapport au centre du diagramme. Le blanc correspond à une saturation de 0, et une couleur spectralement pure, monochromatique, correspond à une saturation de 1. Entre les deux, on trouve des couleurs ayant une couleur dominante (que l’on appelle la teinte) mais plus ou moins mélangé avec du blanc. Un rouge vif et un rose pâle sont donc des couleurs de la même teinte (rouge), mais avec des saturations très différentes: le rouge vif est une couleur saturée tandis que le rose pâle est très désaturé, mélangé avec beaucoup de blanc.

En jouant sur la teinte, la saturation, et bien sûr la luminosité, on peut en principe  recréer l’ensemble des sensations colorées possibles, mais cela reste très compliqué à réaliser: il faudrait disposer de très nombreuses sources monochromatiques avec une grande gamme de longueurs d’onde accessibles. En pratique, un écran d’ordinateur ou de télévision se contente de réaliser des mélanges de trois couleurs seulement (pixels R, V, et B). Ceci ne permet de reproduire que les mélanges de R, V, et B, c'est-à-dire les couleurs qui sont situés à l’intérieur du triangle ci-dessous, et pas les autres. Cela a deux conséquences : premièrement, toute représentation du diagramme de chromaticité sur un écran est forcément fausse pour tout ce qui concerne les couleurs à l’extérieur du triangle (puisqu’il s’agit de couleurs que votre moniteur d’ordinateur ne peut pas synthétiser!); deuxièmement, l'ensemble des couleurs que l'on voit sur un écran est très pauvre dans l'espace des couleurs en général. A la télévision, vous n'avez jamais vu la vraie couleur d'un laser, d’un bouton d'or, du bleu d'Yves Klein ou de Fra Angelico, les turquoises de certaines faïences égyptiennes. Cette dernière remarque encourage à aller à la rencontre des couleurs, et en particulier à fréquenter les musées.

CIExy1931_srgb_gamut

Source: Hangkwang, Wikipedia, 2009


Notons enfin que la science des couleurs est rendue plus complexe encore par le traitement de l’information à l’intérieur de l’œil, avant même d’arriver au cerveau par l’intermédiaire du nerf optique. Il y a en effet plus de 100 millions de cônes et bâtonnets, mais seulement un million de fibres nerveuses dans le nerf optique, ce qui implique une compression de l’information, et donc une perte de données. Ceci peut donner lieu à des illusions d’optique comme celle ci-dessous, où la case contenant la lettre A et celle contenant la lettre B sont exactement de la même couleur (comme le démontre le copier-coller en bas à droite), bien qu’elles nous semblent très différentes. Cette illusion provient du fait que l’œil évalue la couleur par comparaison avec les couleurs adjacentes, et se trouve trompé par le contraste progressif entre les cases. Le cerveau ne parvient à interpréter l’illusion qu’en se référant à un objet bien connu: un échiquier qui alternerait les cases claires et les cases sombres.

Fig_illusion

Une version imprimable de ce résumé de cours est disponible en cliquant sur ce lien.

 

 

Posté par llanco à 19:20 - Commentaires [0] - Permalien [#]

15 octobre 2010

Cours n°5 – Rayonnement thermique

Imaginons que l’on place un morceau de charbon au soleil. Il est noir, ce qui veut dire qu’il absorbe toute la lumière du soleil qu’il reçoit. Il chauffe, mais il ne fond pas; cela signifie qu'il a un moyen de se débarrasser d'une partie de l'énergie qu'il reçoit du soleil. Ce moyen est le rayonnement thermique: un rayonnement émis par les objets du simple fait de leur température.

Dans le cas d’objets à température ambiante, ce rayonnement reste invisible à nos yeux car il est constitué de longueurs d’onde plus grande que les longueurs d’onde visibles: il s’agit d’un rayonnement infrarouge, qui ne peut-être observé qu’avec des caméras spéciales. La photographie ci dessous montre une image prise avec une telle caméra infrarouge: le petit verre contient une bougie, le grand un cocktail froid. Sur la table, on observe la trace de la présence passée de la main, qui a réchauffé la table à son contact. Les endroits chauds apparaissent plus lumineux, car le rayonnement thermique est d’autant plus intense que les objets ont une température élevée.

Fig_image_thermique

Crédits photo : UF CCI-Paris 7, DVD Infra-Blues

 

Du point de vue microscopique, le rayonnement thermique peut-être compris comme un ensemble d’ondes électromagnétiques émises par les objets, du fait de l’agitation désordonnée des électrons qui les constituent. De façon plus moderne, on dit qu’un électron dans un état excité va pouvoir se débarrasser de son énergie excédentaire en émettant un ‘photon’, c'est-à-dire un quantum de lumière (voir cours n°3). De manière symétrique, un photon peut être absorbé par un objet : cela implique que le photon disparaît en transférant son énergie à un électron. Certains objets peuvent très aisément convertir une énergie lumineuse en énergie d’agitation thermique, et vice-versa: ce sont des bons absorbants, mais également des bons émetteurs de rayonnement thermique

Un corps noir est, par définition, un absorbant idéal : il ne réfléchit ni ne transmet aucune lumière, se contentant d’absorber tout du fait de son interaction lumière-matière très forte. Par conséquent, un corps noir est également un émetteur idéal de rayonnement thermique. Le spectre d’émission d’un corps noir à une température de 300 K est présenté sur la figure ci-dessous; on remarque l’absence de rayonnement aux longueurs d’onde visibles, et un pic d’intensité autour de la longueur d’onde de 10 µm.

Fig_loi_Planck

Plus un objet est chaud, plus il émet un rayonnement dans des longueurs d'onde courtes. Le maximum d'émission se situe à la longueur d'onde λ =2898/T  (loi de Wien), ou T désigne la température en Kelvins et λ la longueur d’onde en microns. C'est ainsi que le soleil (T=6000 K) émet une grande partie de son rayonnement dans le visible (autour de 0.5 µm).  Les objets usuels ou les êtres vivants (T=300 K) émettent dans l’infrarouge moyen, comme indiqué sur la courbe ci-dessus. Un objet chaud émet également beaucoup plus qu’un objet froid, puisque la puissante totale rayonnée par un corps noir est proportionnelle à la puissance 4ème de sa température (loi de Stefan). Ceci explique que vous ayez si vite chaud en plaçant votre main à l’intérieur d’un four. Même si vous avez laissé la porte ouverte pendant plusieurs minutes, pour que l’air interne se refroidisse, votre main se trouve néanmoins soumise au rayonnement infrarouge très intense émis par les parois brûlantes du four.

De nombreux objets ne sont pas des corps noirs. Par exemple, les corps transparents ou les corps réfléchissants sont incapables d’absorber les photons, ils sont donc également incapables d’en émettre. Il existe également de nombreux corps gris, qui n’absorbent que partiellement la lumière du fait d’une interaction lumière-matière peu intense; ces corps sont également des émetteurs partiels, c'est-à-dire qu’ils émettent moins que ce qu’émettrait un corps noir.  On peut montrer que de façon très générale le pouvoir d’absorption d’un objet est simplement égal à son pouvoir d’émission (loi de Kirchhoff).

Il faut faire très attention, toutefois, à comparer ce qui est comparable, c'est-à-dire pour une même longueur d’onde. Un bon absorbant dans l’infrarouge sera un bon émetteur dans l’infrarouge, un mauvais absorbant dans le visible sera un mauvais émetteur dans le visible, etc…  Le verre, ou l’eau, sont des exemples de corps transparents dans le visible mais  absorbants dans l’infrarouge. Ainsi, si la neige fond si lentement, c’est qu’elle diffuse/réfléchit les rayons visibles émis par le soleil, mais aussi qu’elle se débarrasse efficacement de son énergie thermique par rayonnement. La neige est donc un bon corps noir dans l’infrarouge, indépendamment de son aspect blanc dans le visible.

L’atmosphère, dont le spectre de transmission est présenté ci-dessous, illustre bien  la complexité des propriétés optiques des matériaux : elle absorbe certaines longueurs d’onde et d’autres pas, et son absorption dépend de sa concentration en gaz (en vapeur d’eau par exemple, mais également en CO2/méthane/ozone/etc…). L’atmosphère étant plus transparente dans le visible que dans l’infrarouge moyen, elle laisse aisément passer la lumière du Soleil. Par contre, elle laisse moins bien passer le rayonnement thermique émis par la Terre, ce rayonnement qui permet à notre planète de se refroidir. La présence de l’atmosphère tend donc à réchauffer la Terre de façon très significative : c’est le phénomène d’effet de serre. L’augmentation de 30% de la concentration en CO2, au cours du dernier siècle, est ainsi la principale cause du réchauffement climatique actuel.

Fig_atmosphere

Le rayonnement du Soleil est un exemple caractéristique de rayonnement thermique, dont le spectre est présenté ci-dessous. Il correspond à une température de surface de 5250 degrés Celsius. Bien sûr, il y a encore énormément d’hydrogène et d’hélium au-delà de la « surface » du Soleil, mais simplement sous forme gazeuse et donc transparente : le rayonnement thermique peut donc passer. En dessous de la « surface », par contre, les noyaux et les électrons se trouvent sous forme de plasma ionisé, donc absorbant, donc émetteur de rayonnement thermique. On ne peut pas voir les photons émis par le centre du Soleil (qui sont pourtant extrêmement nombreux, la température au centre du Soleil étant de 15 millions de degrés!) car ils sont tous absorbés dans l’étoile. Les seules photons qui s’échappent sont ceux émis à la « surface du Soleil », c'est-à-dire à la transition entre le plasma ionisé (corps noir) et la zone gazeuse (corps transparent / non-émetteur). La température de cette zone de transition dépend de la composition de l’étoile en hydrogène, hélium, etc : c’est pour cela qu’il y a des étoiles de couleurs plus bleue (surface « chaude »)  et d’autres de couleurs plus rouge (surface « froide »)  que notre soleil.

Fig_spectre_solaire

Un corps  noir que l’on pourrait qualifier d’idéal a existé il y a environ 13,7 milliards d’années : l’Univers primordial. A cette époque en effet, l’Univers  n’était qu’un immense plasma opaque, composé d’électrons et de protons (ie, noyaux d’hydrogène), et bien sûr d’innombrables photons (qui se retrouvent absorbés à peine sont-ils émis). Ce plasma, soumis à la dilatation de l’espace, s’est progressivement refroidi jusqu’à une température d’environ 3000K. A cet instant (environ 300 000 ans après le Big-Bang) les protons se sont recombinés avec les électrons pour former un simple gaz d’hydrogène: l’Univers opaque est subitement devenu transparent

Les photons émis par l’Univers primordial, une fois libérés, se sont simplement propagés dans l’espace et peuvent être observés de nos jours. Le spectre de ce rayonnement fossile, appelé fond de rayonnement cosmologique, est présenté ci-dessous; il s’agit d’un résultat expérimental d’une précision extrême qui correspond parfaitement à un rayonnement de corps noir théorique…  à la température de 2.7K, c'est-à-dire avec des longueurs d’onde de l’ordre du millimètre (domaine du rayonnement micro-onde).

Fig_Firas_data

Comment se fait-il que des photons visibles ou très proche infrarouge (longueur d’onde de l’ordre du micron), émis par un Univers à 3000K, soient devenus des photons micro-ondes ? Ils ne se sont pas  « refroidis », ils se sont simplement dilatés en même temps que le reste de l’Univers, leur longueur d’onde augmentant progressivement jusqu’à être multipliée par un facteur supérieur à 1000. Cette expérience cosmologique illustre bien le fait que les quanta de lumière sont délocalisés et caractérisés par un processus ondulatoire : on peut donc parler de « la longueur d’onde du photon », expression qui paraîtrait aberrante dans le cadre de la physique classique.

Notons que ces expériences ont permis de mesurer, pour chaque point du ciel, la température du plasma primordial à l’époque de la libération des photons, et d’en déduire des informations très précises sur la géométrie et la composition de l’Univers. Ces expériences ont fait l’objet du prix Nobel de Physique, reçu par John C. Matter et Georges Smoot en 2006. Georges Smoot travaille depuis 2009 comme professeur à l’Université Paris 7 au sein du laboratoire « Astroparticules et Cosmologie ».

Une version imprimable de ce résumé peut-être téléchargée en cliquant sur ce lien.

Posté par llanco à 16:55 - Commentaires [0] - Permalien [#]