Diaporamas et résumés
2013/03/22 : Observatoire de Nice 2012/11/13 : Association du planétarium Valeri (Nice) L’histoire de la vie sur Terre a été marquée par quelques phases d’extinction massive. L’extinction K-T a été la plus étudiée et médiatisée, car associée à la disparation des dinosaures. Dès 1980 Luiz et Walter Alvarez proposent un scénario catastrophique basé sur la chute d’un astéroïde. Ce scénario est à la base du paradigme actuel sur cette catastrophe. Pour l’extinction la plus importante, celle du Permien-Trias, le scénario météoritique est aussi le plus crédible. Pour les autres catastrophes, le débat reste très ouvert. Nous ferons le point sur le bombardement de la Terre, avec les risques réels d’impact. Nous discuterons de l’origine des géocroiseurs. La mise en évidence d’une périodicité dans les extinctions a conduit dans un premier temps à faire l’hypothèse d’un compagnon obscur du Soleil venant régulièrement perturber le nuage de Oort, réservoir des comètes. Des travaux récents ont conduit à proposer que cette périodicité pouvait être due aux traversées du Soleil dans les grands nuages moléculaires (GNM). Cet environnement galactique avait été aussi envisagé pour l’extinction entre l’Ordovicien et le Silurien, par une explosion proche d’une supernova ayant entraîné un sursaut gamma. Cette hypothèse sera aussi discutée. Nous conclurons sur l’intérêt de la future mission Gaia pour apporter des réponses pertinentes au scénario basé sur les passages du Soleil dans le plan galactique. |
2012/07/25 : Observatoire de Haute-Provence 2011/12/10 : Association des Centraliens de la Côte d’Azur (Sophia-Antipolis) 2011/06/16 : Association Aquila (Université de Nice Sophia Antipolis, Parc Valrose) 2011/03/14 : Printemps des poètes (C.U.M., Nice) En 1990 nous avons assisté au lancement du télescope spatial Hubble (HST). Depuis Ses caméras ont fourni des images parmi les plus remarquables du ciel, bouleversant notre connaissance sur de nombreux phénomènes cosmiques. Avec l’apparition des détecteurs à transfert de charges (CCD) au début des années 80, la photographie astronomique a été totalement transformée. Grâce à une acquisition aisée sur ordinateur, la manipulation des images a permis de nouvelles visualisations des sources cosmiques de lumière et de mieux révéler les phénomènes physiques sous-jacents. Acquises avec le plus grand télescope dans l’espace, dans un ciel dégagé de toute lumière, sans l’agitation atmosphérique troublant la vision au sol, les images du HST ont pu révéler des informations essentielles sur la création, l’évolution et la mort des astres. Après une petite promenade dans la remarquable galerie d’images du HST accessible par internet par le grand public, je me focaliserai sur l’analyse d’une image particulière, celle d’un amas de galaxies montrant des arcs d’Einstein.Cela illustrera le fait qu’on ne peut pas séparer l’admiration d’une image scientifique, de son analyse associée aux différents phénomènes physiques concernés. |
2010/04/30 Palais des Sciences de Monastir 2009/10/08 Association Aquila (Université de Nice Sophia Antipolis, Parc Valrose) 2008/06/20 Fondation Sophia-Antipolis Depuis l’aube de l’Histoire, les astronomes construisent des cartes du ciel. La première carte photographique du ciel a commencé à être réalisée à partir de 1887. Ce fut une aventure scientifique, impliquant 18 observatoires. Malheureusement, l’analyse des 22000 clichés correspondants et la réduction des données ne furent terminés qu’en 1958. Le relais fut pris vers 1950 par les astronomes du Mont-Palomar, grâce à la mise en œuvre d’un télescope de Schmidt très performant. Des observatoires spécifiques, au sol ou spatiaux, permettent de faire des grands relevés, des rayons gamma jusqu’aux ondes radio. C’est, sans doute, le télescope spatial Hubble (HST) qui a conduit à la plus belle collection d’images du ciel. De nombreuses découvertes, dans tous les domaines de l’astronomie, résultent quotidiennement de l’acquisition et du traitement numérique des images. De nouveaux projets, remarquables sur le plan technique, comme la mission Gaia, le projet ALMA, le télescope James Webb, l’E-ELT, permettront aux astronomes de poursuivre l’exploration de l’Univers. |
2009/06/09 Association de Planétarium Valeri André Lallemand joua un rôle fondamental dans le développement des détecteurs électroniques de lumière en astronomie. Élève du physicien André Weiss, il passe sa thèse en 1928, puis participe à l’expédition de Poulo-Condor pour observer une éclipse du Soleil. Ceci permet d’obtenir la première image en infrarouge de la couronne solaire. L’analyse des images le conduit à s’investir dans la photométrie astronomique. En 1934, il a l’idée du télescope électronique, qu’il commence à réaliser avant 1939. Il reprend après la guerre ses travaux avec Maurice Duchesne pour construire une caméra électronique. Parallèlement, il conçoit des photomultiplicateurs grâce auxquels de nombreux astronomes, français et étrangers, peuvent obtenir des mesures de très grandes qualités. L’installation de la caméra électronique à l’observatoire Lick permet en 1959 la découverte de la rotation différentielle du centre de M31. Directeur de l’Institut d’Astrophysique de Paris, professeur au Collège de France, membre de l’Académie des Sciences, André Lallemand joue alors un rôle considérable dans le développement de l’instrumentation astronomique française et européenne. À la fin des années 1960, jusqu’à sa mort en 1978, il s’investit avec Bernard Sivan et Louis Renard dans la conception et la réalisation d’une nouvelle caméra électronique à grand champ. Gérard Wlérick la met en œuvre, en particulier au CFHT. Cela a conduit à quelques résultats importants, par exemple sur les jets de M87 et de 3C120 et sur les populations de M33. |
2008/06/13 Association SPICA (Cagnes/Mer) Avec le développement de la radioastronomie, l’existence d’astres très puissants émetteurs en radio et d’un diamètre angulaire très faible a pu être mis en évidence au début des années 60. Ces astres, appelés QUASi StellARs objects, soit quasars par contraction, se sont révélés rapidement comme étant des noyaux actifs de galaxies (NAG). Aujourd’hui encore la valeur de leur diamètre angulaire reste hypothétique. Ils émettent une énergie considérable et variable, parfois supérieure à celle de la galaxie associée, avec un spectre d’énergie montrant l’origine non thermique de l’émission. Différentes classes de NAG ont été identifiées. Les jets radio, parfois identifiés en optique, sont l’une de composantes de ces astres. Les NAG seraient des trous noirs massifs, pouvant avoir une masse autour du milliard de masse solaire. L’émission d’énergie résulterait de l’accrétion de matière située sur un disque périphérique. Dans la théorie de Blanford-Znajek, le trou noir tourne très rapidement. Il est entouré d’une magnétosphère puissante. L’énergie gravitationnelle de la matière accrétée est convertie en courant électrique dans des jets situés aux pôles du trou noir. Les électrons émettent leur énergie sous forme d’émission synchrotron. Dans le modèle unifié des NAG, c’est l’orientation du jet émis par rapport à l’observateur qui détermine la classe de l’objet. Des mouvements superluminiques ont été mis en évidence dans le jet, confortant cette théorie. Les observations de 3C120 en radio et en rayons X, ont permis de faire le lien entre l’accrétion de matière et l’émission d’énergie. Le pic de densité de présence des quasars est autour de z=0.4, indiquant l’existence d’une évolution mal comprise De nombreuses questions ont été posées quant à la formation des trous noirs massifs, à la pertinence des théories actuelles et au rôle de l’environnement. |
2008/02/05 Association du Planétarium Valéri Depuis la nuit des temps l’Homme est fasciné par le ciel et observe des événements astronomiques. L’astronomie moderne doit beaucoup à la civilisation mésopotamienne, avec son calendrier lunaire et ses observations astronomiques. Les travaux étaient effectués dans le cadre des structures religieuses, les phénomènes célestes étant sensés être liés aux événements passés, présents ou futurs. Le Calendrier restait l’objectif primordial Dans la société grecque est apparue une singularité : les écoles de philosophie. La partie observationnelle était du ressort des temples, alors que les philosophes construisaient les premières théories scientifiques. Après la chute de l’empire romain, les astronomes arabes poursuivent l’œuvre des astronomes grecs. La chanoine, médecin, mathématicien, astronome, Nicolas Copernic amène un bouleversement avec sa théorie héliocentrique. L’astronome Tycho-Brahé développe ses observations grâce au mécénat. C’est aussi grâce au mécénat que Jean Kepler a pu faire ses découvertes. L’observatoire de Paris a été créé en 1667 dans le but d’établir des cartes et d’aider à la navigation maritime. Les premiers postes d’astronome professionnelle ont été ainsi créés. Au cours des 17e et 18e siècles ses astronomes effectuent les premières expéditions à caractère scientifique, le plus souvent dans des conditions périlleuses. Herschel a vécu du bénévolat royal. Les anglais se dotent d’un bureau des longitudes. À la Révolution, un bureau des longitudes, à l’image de celui des anglais, prend en charge l’astronomie française. Le Verrier sépare l’Observatoire de Paris du Bureau des Longitudes. La Carte du ciel est le premier grand projet international. Le CNRS décide en 1936 la création de l’Observatoire de Haute Provence. L’Observatoire Européen Austral (ESO) est créé en 1962. Progressivement de nombreuses institutions internationales sont créées. Aujourd’hui les 230 astronomes français ont un emploi dans une structure datant de 1936. Parallèlement des enseignements chercheurs (170), des chercheurs du CNRS (400) et du CEA (30) poursuivent des travaux de recherche en astronomie. Les thèmes de recherche dont l’objet de débat dans le cadre des prospectives INSU et CNRS. Les activités sont diverses (recherche, enseignement, diffusion de la culture scientifique et technique, gestion de la recherche, tâches de service, etc). Si la structure de base est le laboratoire, les astronomes ont accès à des moyens internationaux. Des moyens spécifiques leur sont alloués sur projet. Les facettes du métier d’astronome sont très diverses, avec des interactions avec d’autres disciplines scientifiques. Après une formation initiale conclue par un master, l’aspirant chercheur prépare une thèse dans un laboratoire. Après soutenance, il effectue un post-doc dans un laboratoire étranger, il obtient un poste par concours en présentant un dossier solide. Entré dans le cadre B, il doit obtenir une habilitation à diriger les recherches pour candidater à un poste de cadre A. Le métier devra demain être de plus en plus spécialisé, avec des interactions internationales permanentes. |
2005/01/13 Colloquium Morgenstern, INRIA, Sophia Antipolis La cosmologie est abordée sous l’angle du traitement du signal. La première étape pour l’émergence des concepts a été celle de l’identification et le comptage des galaxies. L’étude de leur distribution a conduit à introduire des processus statistiques hiérarchiques, avec une fonction de corrélation en loi de puissance. Après une revue historique sur le concept d’Univers, la cosmologie moderne est présentée dans le cadre de la théorie du Big-Bang. Il existe une hiérarchie de structures, liée au spectre d’énergie des fluctuations de température au moment du découplage de la matière et du rayonnement. Avec le modèle actuel, l’énergie de l’Univers résiderait dans la matière noire et l’énergie noire. Pour interpréter les observations, des simulations numériques sont réalisées. Leurs résultats sont comparés aux observations via des indicateurs statistiques. Ainsi, des relations étroites en astrophysiciens et analystes de données ont permis de progresser dans la connaissance de l’Univers. |
2004/03/12 Association du planétarium Valeri (Nice) 2003/02/18 Observatoire de Nice 2002/11/02 Société d’astronomie de la Côte d’Azur de Cannes La théorie de la relativité est souvent introduite en partant du résultat négatif de l’expérience de Michelson. Einstein en aurait déduit la constance de la vitesse de la lumière. Qu’est ce que l’expérience de Michelson ? Quelles sont les raisons qui ont amené à la construire ? Pourquoi son résultat négatif mettait en cause la mécanique de Galilée ? Pourquoi la constance de la vitesse de la lumière s’est imposée comme la seule interprétation correcte ? Pour répondre à ces questions il est indispensable de partir de la théorie de l’héliocentrisme introduite par Copernic, qui impliquait l’existence de parallaxes stellaires. Au lieu de cela, les astronomes mirent en évidence l’aberration annuelle, que Bradley interpréta comme due à la composition de la vitesse de la Terre avec celle de la lumière stellaire. Pour tester la validité de la théorie particulaire de la lumière de Newton, Arago mit en œuvre une expérience en 1809, qui conduisit à un résultat négatif, on ne pouvait pas mettre en évidence le mouvement de la Terre par rapport à la lumière. En 1816, Fresnel interpréta ce résultat, dans le cadre de la théorie ondulatoire de la lumière, comme dû à un entraînement partiel de l’éther dans un milieu réfringent. Mascart reprit l’expérience d’Arago et montra qu’il s’agissait d’un résultat général, valable aussi dans un milieu non réfringent. Michelson en 1882 imagina une expérience interférométrique permettant de montrer l’impossibilité de composer la vitesse de l’observateur avec celle de la lumière. Une nouvelle mécanique était nécessaire, initiée par Lorentz, puis développée par Poincaré et finalisée par Einstein. |
Journée Arago, Bureau des longitudes, 11 juin 2003. Le rôle de François Arago dans le développement de l’optique et dans la compréhension de la nature de la lumière est en partie méconnu. Les biographes d’Arago mettent souvent en avant son rôle de propagandiste de la théorie ondulatoire de la lumière. Cette vision est très réductrice. Si Arago n’a pas comme Fresnel développé une nouvelle théorie, il a été un acteur essentiel dans le développement de l’optique physique. Avec la polarisation chromatique et de la polarisation rotatoire, il a découvert deux phénomènes qu’il a su exploiter pour l’observation astronomique. Il est l’auteur de plusieurs expériences essentielles d’optique ondulatoire. L’absence de franges d’interférences dans le cas de lumières différemment polarisées a conduit au développement à la théorie transverse des ondes lumineuses. Ses travaux d’interférométrie lui ont inspiré un cadre correct pour l’interprétation de la scintillation des étoiles. Il a conçu de nombreux instruments, qui lui ont permis de faire des mesures astronomiques pertinentes : diamètre des planètes, rapport de flux lumineux d’étoiles, taux de polarisation des mers lunaires. Grâce à sa vision très large de l’optique, il a conçu des instruments originaux et pertinents tout au long de sa carrière. Mais c’est sans doute sur le thème de la vitesse de la lumière que l’apport d’Arago a été le plus important. Dès 1806, Arago avait démontré que la lumière se meut avec la même vitesse, quels que soient les corps dont elle émane Son expérience de détermination de la vitesse de la lumière en laboratoire pu aboutir grâce à Fizeau et à Foucault. |
Conférence donnée à la Sorbonne dans le cadre de la cérémonie organisée pour le 150e anniversaire de sa mort.par l’Observatoire de Paris Né en 1786, Arago entre en 1803 à l’École Polytechnique, puis à l’Observatoire de Paris en 1805, sous la responsabilité de Biot, avec qui il effectue des travaux sur la réfraction des gaz. En 1806, il s’intéresse à l’aberration annuelle des étoiles. Il est conduit à admettre la constance de la vitesse quelle que soit la source. Puis, il introduit un prisme afin d’étudier l’effet de la réfraction. D’après les théories de la lumière un effet, qu’il ne trouve pas, devait être détecté. Après un long périple, lié à l’extension de la méridienne de Paris, Arago reprenant des travaux de Newton sur les lames minces, découvre en 1811 les phénomènes de polarisation chromatique et de polarisation rotatoire. Ceci lui permet de construire un polariscope avec lequel il va découvrir la polarisation des halos de la Lune et du Soleil, l’existence de points neutres dans la polarisation du ciel, la polarisation des mers lunaires et la polarisation des queues des comètes. Il a l’idée d’examiner la polarisation des gaz, des liquides et des solides sur leur bord, et montre ainsi en 1814 la nature gazeuse du Soleil, À partir de 1816, Arago et Fresnel collaborent d’une manière extrêmement fructueuse, en montant des expériences nouvelles d’interférométrie. Ils aboutissent à une importante expérience, l’absence d’interférences dans le cas de la lumière polarisée. Fresnel en déduit la nature transverse de la lumière. Fresnel interprète dans le cadre ondulatoire l’expérience d’aberration des étoiles avec un prisme comme due à entraînement partiel de l’éther par le prisme. En 1819, Arago s’investit dans le domaine de l’électromagnétisme. Avec Ampère, ils inventent l’électro-aimant. En 1823 il découvre le magnétisme de rotation. Engagé sur des problèmes de géomagnétisme depuis 1810, Arago mesure journellement jusqu’en 1835 le champ magnétique terrestre. Ces informations allaient lui permettre d’une part d’établir des relations entre le magnétisme en des lieux différents, et d’autre part d’améliorer sensiblement la compréhension des phénomènes liés au magnétisme terrestre. Arago conçoit de nombreux instruments d’observation, polarimètre, photomètre, cyanomètre, micromètres. À partir de 1833, Directeur des observations et d’Administrateur de l’Observatoire de Paris, Arago s’implique dans le renouvellement des instruments de cet institut. En 1838 Arago propose un montage pour mesurer la vitesse de la lumière en laboratoire. En 1848, Arago laisse deux jeunes savants, Armand Fizeau et Léon Foucault reprendre son expérience. Fizeau, en 1849, aboutit à la mesure tant souhaitée. À partir des 1830, Arago est secrétaire perpétuel de l’Académie des Sciences. Député, il joue un rôle important pour la modernisation de la France. En 1848, Ministre de la Marine, il signe le décret provisoire de l’abolition de l’esclavage. À sa mort, en 1853, il laisse un très grand héritage scientifique et culturel. |
Explor’Espace, Mandelieu, 8 novembre 2003, organisé par l’AFA. La texture de l’Univers est examinée à la lumière des découvertes de la cosmologie moderne. L’histoire du concept d’Univers est racontée depuis Platon jusqu’à Olbers. Hubble identifie en 1923 des nébuleuses comme objets indépendants de notre galaxie. La théorie du Big-Bang, développée après la découverte de la fuite des galaxies, est le cadre actuel pour la cosmologie. Les galaxies semblent distribuées d’une manière hiérarchisée, comme une structure fractale. En 1965, le fond micro-onde est identifié comme due une lumière émise il y a 380 000 ans, au moment du découplage entre la matière et le rayonnement. Après avoir mis en évidence le mouvement du Soleil par rapport à ce fond, les fluctuations initiales ont été détectées avec COBE puis avec WMAP. La composition de l’Univers a pu être déterminée, par ajustement avec des modèles. Outre la matière baryonique, l’Univers comprendrait de la matière noire et de l’énergie noire. Les simulations, partant des paramètres cosmologiques, montrent une formation hiérarchique des différentes structures formant la texture de l’Univers.. |
Société Astronomique de Cannes 14 novembre 2001. Le lien entre les astronomes et les mathématiciens a toujours été très étroit. Les mathématiques sont un outil essentiel pour l’interprétation. Cela concerne la géométrie différentielle pour la cosmologie, la théorie du chaos pour la planétologie dynamique, l’analyse spectrale pour les phénomènes turbulents ou les mathématiques appliquées pour la simulation. Cela concerne aussi l’analyse des données, avec la statistique par exemple pour la classification, le traitement du signal, par exemple pour l’analyse de Fourier et l’analyse des images pour l’identification des sources. Aujourd’hui, les mathématiques les plus récentes sont exploitées dans les logiciels de simulation et d’analyse pour interpréter les phénomènes célestes. |
Conférence à l’ASTRORAMA 28 Août 1998. Observatoire de Nice 9 Février 1999. OCA-Grasse 5 Mai 1999. Société astronomique de la Côte d’Azur 10 janvier 2001. Association du Planétarium Valeri de Nice, 7 décembre 2001. Les astronomes ont mis en évidence à la fin du 20e siècle l’existence d’une matière noire, aujourd’hui non identifiée. L’historique de cette découverte est parcouru. Pour comprendre la nature de cette matière, les différentes composantes de la matière connue sont examinées, atomes, particules élémentaires et unification des forces. La théorie du Big-Bang est examinée dans ce contexte. Les observations actuelles conduisent à une répartition de l’énergie, incluant un part important d’énergie inconnue, la matière noire et l’énergie noire. La théorie du chaos quantique permettrait de créer l’Univers à partir du vide. Dans ce cadre, des Univers parallèles au notre pourraient exister. |
Centre Universitaire Méditerranéen, 21 Juillet 1999. Depuis le lancement du satellite Spoutnik le 4 Octobre 1957, de très nombreux objets, de taille de plus en plus importante, ont été lancés. Cela a permis de faire des progrès essentiels dans de très nombreux domaines, scientifiques ou non. Parallèlement à l’exploration de l’espace, l’homme a exploité l’espace pour mieux voir la Terre et l’Univers, pour transmettre ses communications, pour se localiser, pour faire de nombreuses expériences. Une pollution importante de l’environnement de Terre en a résulté avec les différents débris issus des objets satellisés. Ces débris présentent un danger potentiel pour les spationautes et pour les instruments en orbite. Ces débris issus souvent de collisions sont rapidement disséminés. Leurs retombées peuvent être spectaculaires. Leur surveillance est devenue indispensable. Des projets sont développés par toutes les agences spatiales pour identifier les objets les plus dangereux. Un tel projet a été développé à l’OCA en collaboration avec le CNES. Le télescope de Schmidt du plateau du Calern a été équipé d’une caméra CCD pour faciliter la détection et le suivi des débris. Le nettoyage de l’espace est une question posée. |