PIC


ESPACES FIBRÉS

et

CONNEXIONS

Une introduction aux géométries

classiques et quantiques

de la physique théorique

Robert Coquereaux
Centre de Physique Théorique
Luminy - Marseille

A mes enfants Valérie, Eric et Raphaël

Espaces fibrés
et
Connexions

Robert Coquereaux

Version 3.0*

* Version 1.00 disponible sur le web le 1/5/97. Version 2.00 (mai 1998) : Ajout d’un dernier chapitre consacré à la géométrie non commutative. Version 3.00 (mai 2002) : améliorations mineures. Corrections et recompilation LaTeX en septembre 2016.

Table des matières

Préface
Introduction
 Modèles mathématiques et réalité
 Du classique au quantique
 Guide de lecture, autocritique et perspectives

1 Variétés différentiables
 1.1 Variétés topologiques
  1.1.1 Définition
  1.1.2 Variétés à bord
  1.1.3 Contre-exemples
 1.2 Variétés différentiables
  1.2.1 Variétés, cartes, atlas
  1.2.2 Atlas maximal
  1.2.3 Variétés et calcul différentiel “intrinsèque”
 1.3 Applications différentiables, difféomorphismes
  1.3.1 Définition
  1.3.2 Difféomorphismes et changements de coordonnées
  1.3.3 Fonctions différentiables
 1.4 Champs de vecteurs
  1.4.1 Notions élémentaires et intuitives
  1.4.2 Vecteurs, espace tangent et champs de vecteurs
  1.4.3 Règle de Leibniz
  1.4.4 Crochet de deux champs de vecteurs
  1.4.5 Repère naturel associé à une carte
  1.4.6 Changement de carte
  1.4.7 Repères mobiles (repères quelconques)
 1.5 Tenseurs et formes extérieures
  1.5.1 Algèbre tensorielle d’un espace vectoriel
  1.5.2 Algèbre extérieure d’un espace vectoriel. Produit extérieur
  1.5.3 Produit intérieur d’une forme par un vecteur
  1.5.4 Transformation du produit extérieur et du produit intérieur par endomorphismes
 1.6 Formes différentielles
  1.6.1 Définition
  1.6.2 La différentielle extérieure d
  1.6.3 L’équation de Maurer-Cartan pour un repère mobile
  1.6.4 Produit intérieur d’une forme par un champ ou vecteurs
 1.7 Application tangente et cotangente
 1.8 Dérivées de Lie
 1.9 Flots
 1.10 Orientation et intégration
  1.10.1 Orientation – Partition de l’unité
 1.11 Variétés riemanniennes (propriétés élémentaires)
 1.12 Divers
  1.12.1 Compléments sur les dérivations d’algèbre
  1.12.2 Cohomologie de De Rham
  1.12.3 Homologie de De Rham
  1.12.4 Espace des p-vecteurs
  1.12.5 Espace des courants de De Rham
  1.12.6 Les algèbres de Frölicher – Nijenhuis et de Nijenhuis–Richardson
2 Groupes de Lie et espaces homogènes
 2.1 Généralités sur les groupes de Lie
  2.1.1 Généralités et définitions élémentaires
  2.1.2 Exemples élémentaires de groupes classiques
 2.2 Généralités sur les algèbres de Lie
  2.2.1 Application exponentielle et algèbres de Lie
  2.2.2 Correspondance entre groupes et algèbres de Lie
  2.2.3 Classification des groupes et algèbres de Lie. Généralités.
  2.2.4 Message
 2.3 Actions de groupes et représentations
  2.3.1 Généralités
  2.3.2 Groupe G opérant à gauche sur un ensemble E
  2.3.3 Action à droite (anti-action)
  2.3.4 Passage de la droite à la gauche (et inversement)
  2.3.5 Orbites, espace quotient
  2.3.6 Efficacité
  2.3.7 Liberté et stabilisateur
  2.3.8 Transitivité
  2.3.9 Action d’un sous-groupe H sur un groupe G, normalisateur, centralisateur
  2.3.10 Stratification
  2.3.11 Remarques
 2.4 Champs de vecteurs fondamentaux
  2.4.1 Cas d’un groupe de Lie agissant sur une variété
  2.4.2 Exemple : le groupe euclidien agissant sur le plan 2
  2.4.3 Un cas particulier fondamental : le groupe G agissant sur lui-même par translations à gauche et à droite
  2.4.4 L’action adjointe de G
  2.4.5 Exemple : l’algèbre de Lie du groupe euclidien
  2.4.6 Exemple : champs invariants sur SU(2)
  2.4.7 Une remarque sur les constantes de structure
  2.4.8 La forme de Maurer-Cartan
 2.5 Représentations
 2.6 Espaces homogènes
 2.7 Algèbres de Clifford et groupes Spin
  2.7.1 Définitions générales
  2.7.2 Le groupe Spin
  2.7.3 Structure des algèbres de Clifford réelles
  2.7.4 La structure des algèbres de Clifford complexes
  2.7.5 Type des représentations
  2.7.6 Spineurs
3 Espaces Fibrés
 3.1 Généralités
  3.1.1 Le langage des fibrés
  3.1.2 Fibrations. Fibrés différentiables localement triviaux
 3.2 Espaces fibrés principaux
  3.2.1 La structure d’espace fibré principal
  3.2.2 Sections locales et trivialisations locales
  3.2.3 Exemple fondamental : le fibré des repères linéaires
  3.2.4 Sous-espace des vecteurs verticaux en un point z d’un espace fibré
  3.2.5 Fibré principal trivial
  3.2.6 Formes basiques, invariantes et horizontales
  3.2.7 Exemples
 3.3 Fibrés associés
  3.3.1 Introduction
  3.3.2 Espaces fibrés associés généraux
  3.3.3 Espaces fibrés en espaces homogènes, associés à un fibré principal de groupe structural G
  3.3.4 Fibration principale relative à un fibré quotient
  3.3.5 Espaces fibrés en espaces fibrés
  3.3.6 Le fibré adjoint E = AdP
  3.3.7 Le rôle du normalisateur
  3.3.8 Les espaces fibrés vectoriels
  3.3.9 Trivialité des fibrés vectoriels, variétés parallélisables
  3.3.10 Sections de fibrés associés et champs
 3.4 Elargissement et réduction
  3.4.1 Définitions
  3.4.2 Elargissement (passage de H à G avec H G)
  3.4.3 Réduction (passage de G à H avec H G)
 3.5 Extension et quotient
  3.5.1 Extension (passage de G à ^ G avec G ~ ^ G|H)
  3.5.2 Quotient (passage de G à K avec K ~ G|H, H sous-groupe distingué de G)
 3.6 Groupe des automorphismes. Groupe de jauge
  3.6.1 Remarque terminologique
  3.6.2 Automorphismes verticaux d’un espace fibré principal (définition)
  3.6.3 Ecriture locale des transformations de jauge
  3.6.4 Deux autres définitions des transformations de jauge
  3.6.5 Automorphismes quelconques d’un espace fibré principal
  3.6.6 Action des automorphismes sur les espaces fibrés associés
  3.6.7 Le cas des espaces vectoriels (un cas trivial mais instructif !)
4 Connexions
 4.1 Connexions dans un fibré principal
  4.1.1 Motivations
  4.1.2 Distributions horizontales équivariantes
  4.1.3 Relèvement horizontal
  4.1.4 Forme de connexion
  4.1.5 Ecriture locale de la forme de connexion: le potentiel de jauge
 4.2 Connexions dans les fibrés vectoriels associés
  4.2.1 Matrice de connexion Aji, coefficients de connexion A i
  4.2.2 Différentielle covariante des sections , dérivée covariante μ, parallélisme
  4.2.3 Remarques concernant les notations
  4.2.4 Loi de transformation des coefficients de connexion
  4.2.5 Dérivation covariante des sections du fibré dual
  4.2.6 Dérivation covariante dans les puissances tensorielles d’un fibré vectoriel
  4.2.7 L’opérateur D
  4.2.8 Différentielle extérieure covariante d
  4.2.9 Différentielles et dérivées covariantes généralisées 
 4.3 Courbure
  4.3.1 Linéarité de (d)2
  4.3.2 Expression de l’opérateur de courbure dans les fibrés vectoriels associes
  4.3.3 Equation de structure pour la courbure
  4.3.4 Identité de Bianchi pour la courbure
  4.3.5 Transformation de jauge pour la courbure
  4.3.6 Forme de connexion, différentielle covariante et courbure dans les fibrés principaux (compléments)
  4.3.7 Ecritures diverses de la courbure F (récapitulatif)
  4.3.8 Connexions et opérations de Cartan
  4.3.9 Groupe d’holonomie d’une connexion, fibré d’holonomie
  4.3.10 Réduction des connexions
 4.4 Cas particulier des connexions linéaires
  4.4.1 Définition et généralités
  4.4.2 Potentiel de jauge et courbure des connexions linéaires
  4.4.3 Différentielle extérieure covariante (cas des connexions linéaires)
  4.4.4 Forme canonique (ou forme de soudure)
  4.4.5 Torsion
  4.4.6 Equation de structure pour la torsion
  4.4.7 Identités de Bianchi pour les connexions linéaires
  4.4.8 Dérivées covariantes secondes, hessien et identités de Ricci
  4.4.9 Tenseur de Ricci
  4.4.10 Courbes autoparallèles
  4.4.11 Connexions linéaires sur les groupes et espaces homogènes
 4.5 Connexions métriques
  4.5.1 La métrique
  4.5.2 Compatibilité avec la métrique
  4.5.3 Calcul des coefficients de connexion
  4.5.4 Compléments sur le tenseur de Riemann. Propriétés de symétrie.
  4.5.5 Equation des géodésiques
  4.5.6 Tenseur de Ricci, courbure scalaire et tenseur d’Einstein, courbures sectionelles
  4.5.7 Dualité de Hodge et laplaciens
  4.5.8 Connexions spinorielles et opérateur de Dirac
  4.5.9 Métriques sur les groupes et espaces homogènes
5 Un saut dans l’infini
  5.0.1 Action du groupe de jauge sur l’espace des connexions
  5.0.2 L’espace des orbites
  5.0.3 Conclusion
6 Calcul différentiel pour algèbres non commutatives
 6.1 Remarques philosophico-mathématiques sur les espaces non commutatifs
 6.2 Calculs différentiels
  6.2.1 Remarques
  6.2.2 L’algèbre différentielle des formes universelles ΩA
  6.2.3 L’algèbre différentielle ΩDerA
  6.2.4 Algèbres différentielles pour espaces non connexes
  6.2.5 L’algèbre différentielle ΩDA
 6.3 Excursion au pays des mathématiques non commutatives
  6.3.1 Remarques et présentation générale
  6.3.2 Topologie non commutative et théorie de la mesure non commutative
  6.3.3 Calcul différentiel non commutatif
  6.3.4 Espaces fibrés non commutatifs et modules projectifs
  6.3.5 Connections généralisées en geometrie non commutative
  6.3.6 Cohomologie des espaces non commutatifs
  6.3.7 Remarque finale

Préface

Il est quelquefois plus facile de présenter un livre en disant ce qu’il n’est pas et en dressant une liste des motivations de l’auteur qu’en essayant d’en expliciter le contenu.

Ce livre, bien qu’il contienne un exposé de géométrie différentielle (avec un accent particulier mis sur les groupes de Lie, la théorie des espaces fibrés, la théorie des connexions et la géométrie riemannienne) n’est certainement pas un cours de mathématiques traditionnel. En général les mathématiciens cultivent la précision du style et la concision du discours, alors que l’exposé qui suit essaye de présenter les idées importantes en faisant souvent appel à l’intuition, en effectuant de nombreux retours en arrière et en ne négligeant pas les clins d’oeil à la physique. On peut donc espérer que la lecture de l’ouvrage présent sera un peu moins aride que celle d’un traité traditionnel.

Ce livre n’est pas non plus un cours de physique théorique. Il y manque beaucoup trop d’informations ! Celui ou celle qui souhaite se lancer à la découverte de l’Espace-Temps et déchiffrer certains des mystères de notre univers devrait s’attaquer à de saines lectures (par exemple [5]). L’ouvrage présent ressemble plus à un cours de mathématiques qu’à un cours de physique ; la physique n’est cependant pas absente, au contraire : des idées physiques sont cachées derrière chaque paragraphe, et ce sont elles qui sont, la plupart du temps, à l’origine des notions “abstraites” que nous allons présenter.

Bien qu’il ne s’agisse pas là d’un ouvrage de vulgarisation sur la physique théorique ou les mathématiques, j’ai pourtant rédigé de nombreux paragraphes en pensant à certains de mes amis ayant une culture mathématique relativement modeste mais néanmoins dotés d’un esprit curieux et aimant vagabonder de temps à autres sur des terrains situés au confluent de l’infiniment petit, de l’infiniment grand, des mathématiques et de la métaphysique. Je dois dire, en relisant l’ouvrage après coup, que, de ce point de vue, j’ai peur d’avoir echoué : le contenu présenté ressemble plus à un cours de troisième cycle spécialisé qu‘à un ouvrage de vulgarisation Cela dit, je pense — et j’espère — qu’à la condition de commencer la lecture à la première page sans essayer de démarrer en plein milieu, l’ouvrage reste accessible à tout lecteur disposant d’un bagage mathématique équivalent à celui qu’on est censé acquérir à l’issue d’un premier cycle universitaire, ou d’une classe de Mathématiques Spéciales. A propos de motivations, je dois aussi signaler que d’autres de mes amis, dotés d’une culture mathématique plus que respectable n’ont malheureusement jamais eu le temps ou la patience de traduire le jargon quelquefois flou des physiciens dans la langue bourbakiste qu’ils affectionnent. Le présent ouvrage, bien que résolument peu bourbakiste dans le style, est également écrit pour eux. Finalement, ce livre est également —et probablement surtout— écrit pour les étudiants en mathématiques ou en physique, mais qu’on ne vienne pas me demander “De quelle année ?” ! En effet, certains des thèmes qui seront abordés peuvent être rencontrés dans un cours de maîtrise de mathématiques (ou de DEA) et on les trouvera souvent incorporés à un enseignement de troisième cycle de physique théorique ou de géométrie différentielle, mais d’autres thèmes, probablement aussi intéressants, et quelquefois même fondamentaux, risquent fort de ne figurer dans le programme d’aucun enseignement universitaire. L’étudiant, physicien ou mathématicien, trouvera peut-être, dans cet ouvrage, ce qu’il cherche (en utilisant l’index et la table des matières) et le non-spécialiste y trouvera peut-être ce qu’il ne cherchait pas

Enfin, ce livre n’est pas un ouvrage de philosophie ou de métaphysique (Dieu m’en garde !) bien que certaines réflexions de nature éminemment philosophiques ne soient pas absentes des pages qui suivent, surtout dans la section Introduction.

La partie “géométrie différentielle” de ce travail est issue d’un cours de troisième cycle que j’ai eu l’occasion de donner pendant plusieurs années au sein du Diplôme d’Etudes Approfondies (DEA) de Physique Théorique, organisé au Centre de Physique Théorique, à Luminy (Marseille) ainsi qu’en 1997, dans le DEA de Physique Théorique organisé à l’Ecole Normale Supérieure de Lyon. La partie “non commutative” (la dernière section) est un court extrait d’une série de cours que j’ai donnés dans les universités de Rio de Janeiro (URJ, UFRJ et CBPF), de Saragosse et de La Plata ainsi qu’à San Carlos de Bariloche, en 1996 et 1997. L’ouvrage a également servi de support à un cours semestriel de l’IMPA, Rio de Janeiro, en 2012 (Pós-Graduação em Matemática, curso de Doutorado).

Introduction

Modèles mathématiques et réalité

Qu’est ce que la “Réalité” ? Existe-t-elle seulement ? Que signifie le verbe “exister” de la proposition interrogative précédente ? Que le lecteur allergique aux discussions philosophiques se rassure, nous n’allons pas continuer longtemps dans cette direction. Cependant, pour ne pas nous enliser dans de faux problèmes sémantiques et pour bien apprécier en quel sens nous comprenons ou prétendons comprendre les phénomènes naturels (y en a-t-il qui ne le soient pas ?) il nous faut apporter une réponse pragmatique aux questions précédentes et tenter de définir les mots eux-mêmes que nous utilisons.

Le point de vue adopté par l’auteur est le suivant :

Il est impossible de donner une signification quelconque à la phrase suivante : La Réalité est. L’auteur croit cependant en l’existence d’une réalité objective dont la nature est indépendante de l’analyse qui peut en être faite. Malheureusement, il s’avère également impossible de donner un sens raisonnable à l’assertion précédente. La croyance de l’auteur est donc un acte de foi au sens métaphysique du terme. On pourra donc utiliser le mot “phénomène” comme synonyme du mot “réalité”, le vocable en question étant lui-même non défini.

La description d’un phénomène, quel qu’il soit, fait toujours appel aux mathématiques, même si le spectateur n’en est pas conscient. Ainsi, déclarer que deux individus font partie de la même lignée (au sens héréditaire du terme) signifie qu’on assimile –peut être inconsciemment– les individus en question aux éléments d’un ensemble sur lequel on a défini une relation d’ordre partiel. De la même façon, la traversée d’un terrain par un ballon de foot-ball est un phénomène admettant une description (en fait plusieurs) dont la nature est essentiellement mathématique. Par exemple, on peut considérer la trajectoire d’un point traversant un rectangle en ligne droite. Il existe cependant une description du même phénomène ou le ballon n’est plus un point mais une sphère et ou le terrain n’est plus assimilé à un rectangle mais une figure géométrique plus complexe (coins plus ou moins arrondis, côtés plus ou moins parallèles etc.) On peut d’ailleurs continuer dans ce sens et tenir en compte l’existence de creux et de bosses sur la surface du ballon, de la couleur etc. Les humains n’ont pas besoin de suivre des cours de mathématiques supérieures pour apprécier un match de foot-ball, mais il est important de constater l’aptitude de l’esprit à créer inconsciemment des modèles mathématiques relativement élaborés pour analyser l’expérience quotidienne. Notons enfin qu’un phénomène donné possède d’ordinaire plusieurs descriptions mathématiques (et même une infinité).

La croyance en l’existence d’une réalité objective n’a aucune importance pratique ; seule compte l’ensemble de ses descriptions mathématiques. En effet, lors de l’analyse d’un phénomène (la traversée de la cour par un ballon de foot-ball), nous pouvons adopter les deux points de vue suivants. 1) La traversée de la dite cour par le ballon en question est un phénomène “réel” dont nous pouvons donner une quantité de descriptions mathématiques compatibles, et il est d’ailleurs possible de préciser la notion de compatibilité des descriptions. 2) La traversée de la dite cour par le ballon en question est en fait définie par un ensemble (infini) de descriptions mathématiques compatibles. Peu importe que nous adoptions l’un ou l’autre de ces deux points de vue, car si un aspect d’un phénomène n’est pas mathématiquement modèlisable, cet aspect relève –presque par définition– de la métaphysique et il n’est pas clair qu’on puisse y attribuer un sens (même si on a envie de croire sans comprendre). On peut se convaincre du fait que l’exercice classique de méditation sur le thème de la chaise (Quelle est cette chaise ? Quelle est sa fonction ? Quelle est sa nature ? Quelle est son histoire ? etc.) est complètement modèlisable en termes mathématiques...

Pour nous, un phénomène est donc défini par l’ensemble de ses descriptions mathématiques. Du point de vue linguistique, on devrait peut-être distinguer en général le phénomène lui-même (concept assez flou) de sa description mathématique – ou plutôt, de ses descriptions mathématiques. On peut alors parler de modélisation du phénomène, mais il faut bien voir que c’est la modélisation elle-même qui rend le phénomène accessible à l’analyse. Le modèle mathématique, qu’il soit choisi consciemment (par un physicien, par exemple) ou inconsciemment (par exemple, par un spectateur du match) apporte avec lui son propre langage, c’est à dire les mots qui permettent à l’observateur de se poser des questions à propos du phénomène qu’il contemple. Chacun de ces mots est censé être susceptible d’une traduction mathématique précise dans un cadre formel — que l’observateur ne défini pas nécessairement — faute de quoi, les mots en question sont simplement vides de sens. Il faut bien être conscient du fait que la phrase “mais que se passe-t-il vraiment ?” posée par le profane repose sur la croyance en une réalité objective, réalité qui, de notre point de vue, échappe à toute analyse scientifique.

Qu’en est-il donc de la distinction entre physique et mathématiques ? Pour nous, dire qu’une figure dessinée sur une feuille de papier est un triangle, c’est “faire de la physique” : le triangle est une notion abstraite appartenant au monde des mathématiques, associer cette notion au dessin qu’on a sous les yeux est un travail de physicien. Dans un genre différent, supposons qu’on fabrique des “choses” avec un canon à électrons qu’est ce donc qu’un électron ? On peut dire que c’est une petite boule, on peut dire que c’est une fonction (complexe) –une onde !–, on peut dire que c’est une section d’un certain espace fibré vectoriel (un “champ de Dirac”) ou que c’est un élément d’un module projectif de type fini sur une algèbre non nécessairement commutative Toutes ces descriptions sont mathématiques et la première (la boule) est la plus simple du point de vue du bagage mathématique utilisé mais toutes ces descriptions sont également “vraies” et apportent avec elles leur propre langage. Il y a des questions qu’on ne peut poser qu’après avoir choisi une certaine description. C’est ainsi que les mathématiques sont nécessaires à la description de ce que nous appelons les phénomènes naturels (conséquence immédiate : si vous avez des difficultés en physique, c’est que vous n’avez pas proprement assimilé les mathématiques nécessaires !). La physique consiste essentiellement à habiller le phénomène de notre choix avec des mathématiques appropriées et c’est cet habillage qui rend les choses accessibles au discours. C’est là quelque chose qu’il ne faut pas oublier mais il faut avouer qu’il est néanmoins commode de vivre en faisant “comme si” on croyait à l’existence d’une réalité objective ! On pourrait aussi passer au cran supérieur et se demander si les mathématiques elles-mêmes “existent”. Il n’est pas clair que la phrase ait un sens mais il est certain que, de la même façon qu’il est commode de croire en l’existence d’une réalité physique objective, il est également commode de croire en l’existence d’une réalité mathématique qu’il s’agit pour nous de découvrir (comme un explorateur dans la jungle ou comme un physicien expérimentateur). Les chapitres qui suivent présentent des concepts mathématiques. Indépendamment de la beauté ou de l’élégance intrinsèque des concepts en question, nous voulons attirer l’attention du lecteur (même s’il n’est pas physicien) sur le fait que ces concepts jouent un rôle majeur dans l’“habillage” contemporain des théories physiques, et que, dans de nombreux cas, ces concepts sont eux-mêmes issus de considérations relevant de la physique théorique.

Du classique au quantique : mathématiques commutatives et non commutatives

Avant d’arrêter là ces considérations épistémologiques pour passer à notre premier chapitre consacré à l’étude des variétés différentiables, nous voulons dire un mot sur la distinction entre physique classique et physique quantique, en parallèle avec la distinction entre “mathématiques commutatives” et “mathématiques non commutatives”. Cette remarque risque de n’être comprise que par les lecteurs ayant déjà une certaine familiarité avec les sujets mentionnés mais le lecteur intéressé pourra peut-être relire ce commentaire en y revenant un peu plus tard. Les mathématiques commutatives (la géométrie commutative en particulier) s’occupe des propriétés mathématiques des “espaces” (théorie de la mesure, espaces topologiques, différentiables, riemanniens, homogènes, possédant une structure de groupe) Pour le physicien, ces espaces fournissent un modèle mathématique concernant le système qu’il a choisi d’étudier et toutes les quantités qui l’intéressent peuvent être décrites à l’aide d’une classe appropriée de fonctions définies sur de tels espaces. Il se trouve que les propriétés des espaces en question peuvent elles-mêmes être codées en termes des propriétés de ces algèbres de fonctions ; il s’agit là d’un résultat profond dont l’expression précise est due à Gelfand (voir chapitre 6). Le vocable “mathématiques commutative” vient du fait que toutes ces algèbres sont des algèbres commutatives pour les lois d’addition et de multiplication des fonctions. Attention, de ce point de vue, la théorie des groupes de Lie (voir plus loin) –groupes qui ne sont pas, en général, commutatifs– fait partie des “mathématiques commutatives” car l’algèbre des fonctions (à valeurs réelles ou complexes) définie sur un groupe est une algèbre commutative ! Les “mathématiques non commutatives”, au contraire, s’occupent des propriétés d’algèbres qui ne sont pas commutatives et des objets qui généralisent les constructions usuelles lorsqu’on remplace les algèbres de fonctions (et les “espaces” eux-mêmes) par des algèbres d’opérateurs. Les quantités qui intéressent le physicien ne sont plus alors codées par des fonctions numériques mais, typiquement, par des opérateurs agissant dans des espaces hilbertiens. Il est inutile d’en dire plus à ce niveau mais nous effectuerons deux remarques. La première est terminologique : un physicien dit qu’il fait de la physique classique lorsqu’il utilise des mathématiques commutatives pour décrire un phénomène (ce qui, philosophiquement, revient à le définir ! Voir la discussion précédente) et de la physique quantique lorsqu’il utilise des mathématiques non commutatives (idem). La seconde remarque a trait au contenu de cet ouvrage : il traite de géométrie, et la plupart du temps de géométrie utilisée en physique fondamentale, cependant il s’agira presque toujours de géométrie commutative, vocable englobant d’ailleurs toute la géométrie, au sens usuel du terme, qu’elle soit euclidienne ou non. Du point de vue de la physique, nos constructions correspondront donc à des constructions de théorie classique des champs (même s’il nous arrive de parler de quarks ou d’électrons de Dirac) et non de théorie quantique des champs.

Le dernier chapitre est une introduction aux “mathématiques non commutatives” (un point de vue assez particulier sur la théorie des algèbres associatives) et présente quelques notions fondamentales relevant de le géométrie différentielle non commutative. Ce dernier chapitre pourrait donc aussi s’intituler : Introduction à la géométrie quantique.

Guide de lecture, autocritique et perspectives

Le lecteur ne connaissant rien au sujet et désirant “se faire une idée”, peut dans un premier temps, parcourir les sections 1.1, 1.2, 2.1, 2.2.1, ainsi que 3.1, (3.2.1 3.2.5), 3.3.1, 3.3.2, (4.1.1 4.1.4) et (4.4.1, 5.6.1, 6.1, 6.2.1, 6.3.1) dont le contenu, à peu près exempt de formules, fait appel à l’intuition et ne suppose que très peu de connaissances préalables.

Les autres sections sont assez inégales ; certaines présentent un matériel qui fait ou devrait faire partie du bagage mathématique standard de tout mathématicien ou physicien théoricien, certaines autres sont d’un niveau plus avancé et peuvent contenir des informations qui ne sont pas nécessairement disponibles ailleurs (sauf peut-être dans quelques articles spécialisés). En fait, comme le titre l’indique, le but initial de ce travail était de fournir une présentation — si possible pédagogique — des espaces fibrés et de la théorie des connexions. Il se trouve que certains lecteurs potentiellement intéressés, en particulier les étudiants de troisième cycle de physique théorique, n’ont souvent pas, au départ, les bases mathématiques nécessaires pour attaquer, de front, un cours relativement complet sur les espaces fibrés : il leur manque souvent un cours préalable de calcul différentiel sur les variétés et un cours sur les groupes de Lie. C’est la raison d’être des parties 1 et 2 de cet ouvrage. On a essayé d’y présenter les notions indispensables à la lecture des chapitres 3 et 4 consacrés aux espaces fibrés et à la théorie des connections. Nous suggérons donc à ceux qui ont déjà acquis une formation raisonnable en ce qui concerne les variétés différentiables (par exemple en lisant le premier volume de [13] et les groupes de Lie, de jeter d’abord un coup d’œil au sommaire, puis de sauter les deux premiers chapitres — qui ne leur apprendront sans doute pas grand chose — et d’entamer directement la lecture de cet ouvrage au chapitre 3. Pour les autres il vaudrait peut-être mieux s’astreindre à lire les différentes parties dans l’ordre. Comme nous l’avons mentionné dans la préface, l’ensemble de l’ouvrage devrait être lisible par quelqu’un ne disposant pas d’un bagage mathématique supérieur à celui qu’on acquiert d’ordinaire, ou qu’on est sensé acquérir, en premier cycle. Son contenu, néanmoins, serait plutôt d’un niveau 3èmecycle.

Le plan et la structure de ce livre répond à la préoccupation suivante : faire du lecteur un “honnête homme” en géométrie différentielle classique en présentant un certain nombre de notions qui sont fréquemment utilisées en physique théorique ou en mathématiques. Savoir si le but sera atteint est une autre histoire Enfin, et au risque de faire hurler certains mathématiciens, il nous semble plus important, tout au moins dans un premier temps, de se familiariser avec les idées fondamentales ainsi qu’avec de nombreux exemples, que de connaître le détail de toutes les démonstrations relatives aux propositions et théorèmes cités.

Le style adopté dans ce livre étant volontairement informel, il peut être parfois difficile au lecteur de retrouver la définition précise de tel ou tel concept. Pour cette raison, il peut être utile de consulter l’index situé en fin d’ouvrage, et, bien entendu, la table des matières.

Notre présentation est bien, sur, incomplète. Certains aspects ne sont qu’effleurés, d’autres sont totalement absents et bien qu’il ne s’agisse pas ici, loin s’en faut, d’une tentative encyclopédique, voici quelques têtes de chapitres dont on pourra déplorer l’absence : compléments de géométrie différentielle élémentaire en basse dimension (la liste serait longue), géométrie symplectique et mécanique, opérateurs différentiels, pseudo-différentiels, symboles etc., étude des équations de Yang-Mills, instantons etc., classification des espaces fibrés, fibrés universels et espaces classifiants, K-théorie, classes caractéristiques (et classes caractéristiques secondaires), géométries sur les groupes de Lie et les espaces homogènes, applications harmoniques, aspects conformes, métriques et connexions invariantes (symétries, isométries), variétés complexes, hypercomplexes etc., géométrie de l’espace des orbites des connexions, géométrie de l’espace des métriques, etc.

Par ailleurs, l’auteur aurait aimé insérer, à la fin de chaque chapitre, une section consacrée aux généralisations des idées rencontrées, lorsqu’on passe de la géométrie commutative à la géométrie non commutative, c’est à dire lorsqu’on passe du classique au quantique 1 . Il est sans doute dommage de devoir parler au conditionnel passé mais il fallait bien mettre fin à la rédaction ! De fait, faisant suite à une première version de cet ouvrage, rendue disponible sur Internet, en format html, en mai 1997, la dernière section (section 6), consacrée à une présentation générale des mathématiques non commutatives et au calcul différentiel sur les algèbres non commutatives, a été rajoutée en mars 1998. Ce rajout répond donc, en partie, à la préoccupation mentionnée plus haut.

Bien entendu, toutes les remarques permettant d’améliorer ce document, voire de corriger certaines sections si besoin est, sont les bienvenues : envoyer un courrier à l’auteur ou un courriel à coque at cpt.univ-mrs.fr.

On aura compris que ce livre a été rédigé en français. Certes, il eut été préférable, pour rassembler un plus large lectorat, de rédiger directement l’ouvrage en anglais. L’usage de la langue anglaise, et en particulier la lecture de l’anglais, sont devenus obligatoires dans notre société, et il est certain que l’enseignement de cette langue a fait des progrès considérables en France ; il n’en demeure pas moins que la lecture de textes en anglais, même de textes scientifiques, pose toujours à nos étudiants ainsi qu’à certains de leurs aînés, des difficultés. Il en va d’ailleurs de même pour une vaste partie du monde francophone, où le français n’est parfois qu’une deuxième langue (l’anglais venant en troisiìeme position). Il n’est pas certain que le présent ouvrage devienne un livre de chevet ( !) mais pour faciliter sa lecture sans rajouter une difficulté linguistique, l’auteur a décidé de rédiger ce livre directement en français. Ces notes sont donc dédiées aux étudiants et aux chercheurs de la francophonie, et à tous les esprits curieux qui souhaitent acquérir un certain nombre de notions géométriques des mathématiques contemporaines avant de s’embarquer eux-mêmes dans l’aventure de la recherche, que ce soit en Physique ou en Mathématique, ou qui souhaitent tout simplement satisfaire leur curiosité intellectuelle. Une version anglaise serait la bienvenue mais l’auteur n’a pas eu, jusqu’à présent, le courage de s’atteler à cette tâche.

Disponibilité

L’ensemble du document (sa dernière version) est accessible, via internet, en version html ou pdf sur http://www.cpt.univ-mrs.fr/~coque/.

Bibliographie

On trouvera assez peu de références mentionnées dans cet ouvrage. Il existait évidemment la tentation de citer tous les livres traitant, de près ou de loin, de géométrie différentielle, d’espaces fibrés, de connexions, de géométrie riemannienne etc . Un tel effort bibliographique semble évidemment, dès le départ, voué à l’échec. Une autre solution eût été de ne citer que les ouvrages élémentaires. Malheureusement, les ouvrages en question ne recouvrent pas nécessairement tous les sujets qui sont abordés ici. Enfin, on rappelle que la première rédaction de ces notes, avant leur mise à disposition sur internet, date de 1996 ; plusieurs ouvrages d’enseignement sur des sujets voisins sont apparus depuis. L’attitude que nous avons choisi d’adopter est de ne citer que les livres et autres travaux pour lesquels l’auteur a conscience d’avoir subi une influence possible ou certaine. Les documents en question sont assez variés : certains sont des ouvrages de référence, d’autres sont des monographies spécialisées, d’autres encore, des articles de recherche. L’auteur n’a pas cherché à suivre tel ou tel traité et a essayé de rédiger ces notes de façon originale certains pourront peut-être s’en plaindre ! Tout ceci explique la raison du petit nombre de références, que voici.

Bibliographie

[1]   A. Besse. Einstein manifolds. Springer-Verlag, 1966.

[2]   A. Connes. Noncommutative differential geometry. Publ. Math. IHES 62, 1985.

[3]   A. Connes. Noncommutative geometry. Academic Press, 1994.

[4]   R. Coquereaux and A. Jadczyk. Fiber bundles, Kaluza-Klein theories and all that. World Scientific, 1988.

[5]   C.W.Misner, K.S.Thorne, and J.A. Wheeler. Gravitation. Freeman, 1973.

[6]   M. Dubois-Violette. Dérivations et calcul differérentiel non commutatif. C.R. Acad. Sci. Paris 307, Ser. I, 403-408, 1988.

[7]   M. Dubois-Violette and P. Michor. A common generalization of the Frolicher-Nijenhuis bracket and the Schouten bracket. Preprint LPTHE-Orsay 94/05, ESI 70, 1994.

[8]   D. Husemoller. Fiber bundles. Springer-Verlag, 1966.

[9]   S. Kobayashi and K. Nomizu. Foundations of differential geometry, VolI/III. Interscience, 1963.

[10]   R. Kerner, M. Dubois-Violette and J. Madore. Classical bosons in a non-commutative geometry. Class. Quant. Grav. 6, 1709, 1989.

[11]   G. Esposito Farese, R. Coquereaux and G. Vaillant. Higgs fields as Yang mills fields and discrete symmetries. Nucl. Phys. B 353, 689-706, 1991.

[12]   R. Haussling, R. Coquereaux and F. Scheck. Algebraic connections on parallel universes. Int J. Mod. Phys. A, vol. 10, PP 89-98, 1995.

[13]   Spivak. Differential Geometry. Publish or Perish, 1979.

Chapitre 1
Variétés différentiables

1.1 Variétés topologiques

1.1.1 Définition

Une variété topologique est tout d’abord un espace topologique, mais on suppose, de surcroît, que chacun de ses points possède un voisinage homéomorphe à un ouvert de n. On dit alors que cet espace est une variété topologique de dimension n.

Intuitivement, une variété topologique de dimension 2 est un espace qui, localement, c’est à dire si on ne regarde pas trop loin, ressemble à un petit morceau de feuille de papier qu’on aurait pu découper avec des ciseaux après en avoir tracé le pourtour au crayon (on peut d’ailleurs froisser le bout de papier en question). La structure globale de cet espace peut être évidemment assez différente puisque la variété elle-même est obtenue par recollement de tous ces petits morceaux de papier. Ainsi, un pneu de bicyclette, éventuellement dégonflé, plié et “froissé” fournit un exemple d’objet physique qu’on peut modéliser à l’aide d’une variété topologique de dimension 2 : un tore.

1.1.2 Variétés à bord

Les variétés dont il vient d’être question n’ont pas de bord (au sens intuitif du terme). En effet, si nous nous transformons en êtres plats, rampant sur la surface d’un ballon – ou d’un pneu – nous ne sommes jamais arrêtés par une quelconque barrière. Cela ne serait pas le cas si nous nous déplacions sur la surface d’un quartier d’orange ou d’un pneu crevé (nous nous arrêterions au bord du trou !). Sans se transformer en êtres plats, cela ne serait pas le cas non plus si nous nous déplacions à l’intérieur d’une boule fermée. De façon générale, il est possible de fabriquer des “variétés à bord” en effectuant un ou plusieurs trous dans une variété sans bord (à l’aide d’une petite cuillère multi-dimensionelle !) ; la partie enlevée, comme la partie qui reste, devient une variété topologique à bord.

Pour préciser cette notion, il nous faut élargir la définition de variété que nous avons donné plus haut puisque certains des points (ceux du bord) ont un voisinage non pas homéomorphe à un ouvert de n mais à un voisinage de +n (le fermé de n formé des points dont la dernière composante est positive ou nulle).

Attention : si nous nous promenons dans une boule ouverte, nous ne pourrons jamais atteindre aucun bord... par définition d’une boule ouverte ! Une boule ouverte est une variété sans bord de dimension 3 qui est d’ailleurs homéomorphe à 3. Par contre, une boule fermée est une variété à bord de dimension 3, les points du bords sont ceux de la sphère (une variété de dimension 2) et ils possèdent – dans la boule fermée – des voisinages particuliers. Le disque ouvert (la boule de dimension 2) est aussi une variété sans bord et le disque fermé est une variété à bord (son bord est constitué d’un cercle qu’on peut appeler également “sphère de dimension 1”. Dans le même genre, un intervalle ouvert est une variété sans bord (la boule de dimension 1) et un intervalle fermé est une variété à bord (son bord est constitué de deux points dont la réunion constitue ce qu’on peut appeler la sphère de dimension 0. Les exemples qui précèdent sont généralisables en toutes dimensions.

Terminologie : Si on ne précise pas davantage, une variété topologique est censée être une variété sans bord.

1.1.3 Contre-exemples

La plupart des objets mathématiques auxquels nous avons tendance à penser de prime abord sont des exemples de variétés topologiques (avec ou sans bord), et, pour cette raison, il est bon de donner quelques exemples d’espaces topologiques qui ne sont pas des variétés. Considérez par exemple une croix (réunion de deux segments d’intersection réduite à un point) ; ce n’est pas une variété car le point situé à l’intersection des deux segments possède des voisinages en forme de croix, et une croix n’est jamais homéomorphe à un ouvert de = 1. Le globe impérial est un objet qu’on pourrait penser à modéliser mathématiquement par une sphère (variété de dimension 2) sur laquelle on aurait collé une croix (réunion de deux segments) Cet espace n’est pas une variété pour deux raisons. La première vient du point d’intersection des deux branches de la croix (déjà vu) et la deuxième est analogue puisque le point ou on a collé la croix sur la sphère possède des voisinages qui ne sont homéomorphes ni à des ouverts de 1 ni à des ouverts de 2.

Ces derniers exemples ne sont pas des variétés mais sont néanmoins obtenus par recollement de variétés... (CW complexes) Ils ne possèdent pas une dimension déterminée mais ont néanmoins une structure assez simple. On peut cependant faire bien pire... Les exemples d’espaces topologiques qui ne sont pas des variétés abondent (prenez par exemple des espaces topologiques qui ne sont pas de Haussdorf, c’est à dire qui possèdent des points qu’on ne peut pas séparer à l’aide d’ouverts disjoints). Il ne faudrait pas croire que les espaces qui ne sont pas des variétés n’ont pas d’intérêt mathématique ou physique, bien au contraire. En fait, la géométrie non commutative (dont nous ne parlerons pratiquement pas dans cet ouvrage) s’est développée en grande partie pour forger des outils permettant de “calculer” dans de tels espaces, espaces qui sont en fait complètement décrits par des algèbres associatives mais généralement non commutatives Par ailleurs, on sait que la description mathématique de la mécanique quantique repose sur l’utilisation des algèbres d’opérateurs, ce qui explique la raison pour laquelle les phénomènes physiques relevant de cette mécanique soient si peu intuitifs puisqu’il nous faut, dans ce cas, abandonner nos notions familières de géométrie “commutative”. C’est à l’étude de cette géométrie commutative qu’est consacrée le présent ouvrage. Attention à la terminologie (mise en garde destinée au lecteur trop savant) : l’expression classique des théories de jauge non abéliennes ainsi que l’étude des groupes de Lie (en général non commutatifs), relèvent de la géométrie commutative ! Le calcul différentiel – et la physique classique – se sont développés dans le cadre des variétés et c’est pourquoi nous commençons par là. La structure de variété topologique est d’ailleurs elle-même insuffisante pour pouvoir travailler dans de bonnes conditions : Il nous faudra pouvoir différentier les fonctions un nombre de fois suffisant. Pour ce faire il nous faudra supposer que les variétés (en anglais manifolds) considérées ne sont pas “froissées” : elles doivent être “lisses” (bien repassées !). Ce sont les variétés différentiables (en anglais smooth manifolds).

1.2 Variétés différentiables

1.2.1 Variétés, cartes, atlas

Intuitivement, on peut considérer une variété différentiable comme une variété topologique (voir exemples supra) qui soit “lisse”, c’est à dire sans plis, sans coins etc. Une variété différentiable M de dimension n est donc avant tout une variété topologique. Nous définissons tout s’abord la notion de carte qui généralise la notion usuelle de carte géographique. Une carte consiste en la donnée d’un ouvert Ui de M ainsi que d’une application x : PUi M x
-→(xμ(P)) n avec μ ∈{1n}. Il importe de bien établir une distinction entre le point P lui-même et ce qu’on appelle ses coordonnées xμ(P) dans la carte choisie. On suppose, de plus, que l’application x est bijective et bi-continue de Ui sur son image.

Mis à part le cas relativement trivial où M est homéomorphe à n, il nous faut plusieurs cartes pour recouvrir la variété M. On appellera atlas (sous-entendu différentiable) la donnée d’un ensemble de cartes (Ui,x) qui recouvrent M c’est à dire telles que iUi = M et telles que les changements de cartes ϕij soient des bijections différentiables, ainsi que leurs inverses. Précisons ce dernier point. Supposons que PUi Uj M, on peut donc représenter P par un point xμ(P) de n dans la carte (U i,x) ou par un autre point yμ(P) de n dans la carte (U j,y). On note ϕij le changement de cartes (encore appelé transformation de coordonnées) ; c’est une application de l’ouvert x(Ui) de n dans l’ouvert y(U j) de n. On sait ce que signifie “différentiable” pour une application de n dans n : les dérivées partielles, par rapport à chacune des variables, doivent exister. On impose donc à ϕij d’être une application différentiable. On lui impose également d’être bijective (donc inversible) et on impose à son inverse ϕji = ϕij-1 d’être également différentiable. Bien entendu, il faut préciser un peu plus ce qu’on entend par différentiable : suivant qu’on impose aux applications ϕij d’être une seule fois différentiable, r fois différentiables ou infiniment différentiables, on parle d’atlas de classe C1, Cr ou C. Dans la suite de l’ouvrage et sauf mention explicite du contraire, c’est de classe C qu’il s’agira. La première façon de définir une variété différentiable est de se donner une variété topologique ainsi qu’un atlas différentiable. Du pont de vue des notations, il n’est pas très commode de faire figurer l’indice i qui se rapporte à la carte, sur le système de coordonnées x ; dans le cas où on en considère deux (par exemple x et y) on écrira les formules de changement de carte (l’application ϕij) sans introduire de nouvelle notation en écrivant simplement yμ comme une fonction de xν, c’est à dire yμ = yμ(xν).

1.2.2 Atlas maximal

En géographie ordinaire (celle du globe terrestre) il est bien connu qu’il nous faut au moins deux cartes pour décrire la Terre. Par contre, rien ne nous interdit d’en utiliser trois ou plus . Si on réunit les cartes d’un atlas avec celles d’un atlas différent (concernant la même variété topologique), on peut s’attendre à fabriquer ainsi un atlas plus grand, un peu redondant, certes, mais néanmoins utile. Il faut cependant prendre la précaution d’imposer aux cartes d’être compatibles, c’est à dire telles que les formules de changements de cartes, d’un atlas à l’autre, puissent s’exprimer en terme de transformations différentiables de n. Cette précaution n’est pas inutile et peut conduire à des surprises. Rien ne nous empêche alors de considérer l’ensemble (assez gros il est vrai !) de tous les atlas compatibles possibles d’une variété donnée et de les réunir en un unique atlas maximal. Bien qu’un seul atlas suffise à caractériser complètement la variété, il peut être très utile de considérer la variété M équipée d’un tel atlas maximal contenant toutes les cartes compatibles possibles. En d’autres termes, on peut complètement caractériser une variété différentiable par la donnée d’une variété topologique et d’un atlas maximal. Il se trouve que, dans certains cas, une variété topologique donnée possède plusieurs structures différentiables (plusieurs atlas maximaux distincts). C’est le cas pour 4 (le seul, parmi les espaces numériques n à posséder des structures différentiables “exotiques”) et c’est aussi le cas pour les sphères Sn lorsque n 7. Nous ne nous intéresserons pas à ces phénomènes dans le cadre de cet ouvrage.

1.2.3 Variétés et calcul différentiel “intrinsèque”

En mathématiques élémentaires, on définit souvent les espaces géométriques intéressants (par exemple une sphère) comme sous espace d’un espace affine n. L’idée fondamentale du calcul sur les variétés (calcul différentiel intrinsèque comme on l’appelait autrefois) est de faire abstraction du fait que la variété qui nous intéresse est, ou non, plongée dans un espace n “plus grand” et de développer un calcul qui soit totalement indépendant du plongement en question. Les motivations physiques sont analogues. Par exemple, l’expérience quotidienne nous montre que tout événement de l’univers sensible (whatever it means) peut se décrire à l’aide de quatre nombres spécifiant sa position (trois nombres) et sa date (un nombre). Mais pourquoi supposer, a priori que l’ensemble de ces événements doive être décrit à l’aide d’un un espace 4 ? Pourquoi pas une hyper-sphère (ou n’importe quoi d’autre ?) Mais alors, si on décide d’utiliser une hyper-sphère de dimension 4 pour décrire notre espace-temps, ou, comme dans certains modèles cosmologiques, comme le produit d’une hyper-sphère (gonflable) de dimension 3 par une droite ou une demi-droite, pourquoi supposer que notre variété est plongée dans un espace de dimension 5 ou plus dont les points sont sans signification physique ? Puisque c’est possible, autant travailler dans la variété qui nous intéresse sans chercher à en “sortir”.

L’idée la plus fondamentale et la plus simple du calcul différentiel sur les variétés est la suivante. Grâce à l’existence locale des cartes, on peut toujours faire “comme si” on était sur n et développer des outils et des méthodes de calcul sans se soucier – dans un premier temps – de leur globalisation, quitte à vérifier, par la suite, que tout se recolle comme il faut lorsqu’on passe d’une carte à l’autre. C’est ainsi que l’essentiel des notions qui suivent sont en fait des notions qui peuvent être définies dans un espace n et dont la généralisation, au cas des variétés, est quasi-immédiate. Nous ne supposons pas que le lecteur est déjà familier des notions en question ; c’est la raison d’être des paragraphes qui suivent.

1.3 Applications différentiables, difféomorphismes

1.3.1 Définition

Soient M et N deux variétés différentiables de dimensions respectives m et n. Une application différentiable ϕ de M dans N est une application qui peut s’écrire localement à l’aide d’une application différentiable (encore notée ϕ) de m dans n. En d’autres termes, si on a Q N = ϕ(P) avec P M, alors, grâce au choix de cartes P Ui M xμ(P) m et Q V i N yν(Q) n, on pourra écrire (et on écrira !) y = ϕ(x) ce qui signifie, en fait yν(Q) = ϕ(xμ(P)). L’ensemble des applications différentiables de M dans N se note C(M,N).

Petite parenthèse sur le problème des notations en mathématiques : Il est important de comprendre la signification de ce qu’on écrit, mais il est (de l’avis de l’auteur) absurde de vouloir que la notation utilisée nous rappelle à tout moment les différents abus d’écriture commis depuis le chapitre 1 du tome 1 de Bourbaki et sans lesquels il n’est pas de calcul possible !

L’application ϕ (celle qui va de M dans N) est donc caractérisée – les cartes étant choisies – par n fonctions différentiables yν de m variables xμ. Il est alors naturel de considérer la matrice jacobienne de cette application, c’est à dire la matrice rectangulaire m × n des dérivées partielles ∂yν ∂xμ. Nous en reparlerons un peu plus tard.

1.3.2 Difféomorphismes et changements de coordonnées

Il existe deux cas particuliers particulièrement intéressants.

Le premier est celui où M et N coïncident. Dans ce cas, il peut se faire que l’application différentiable ϕ soit non seulement différentiable mais encore bijective et que son inverse soit également différentiable. On dit alors que ϕ est un difféomorphisme. Notons qu’une application différentiable est automatiquement continue et que, par conséquent, un difféomorphisme est automatiquement un homéomorphisme. Il est facile de vérifier que l’ensemble des difféomorphismes d’une variété différentiable M constitue un groupe pour la composition des applications. On note ce groupe Diff(M) C(M,M) ; c’est un sous groupe de l’ensemble Hom(M) C0(M,M) des homéomorphismes de M. Notons qu’il existe une correspondance assez subtile entre difféomorphismes d’une part – qui sont des transformations que l’on appelait autrefois “actives” car elles transforment les points de M en d’autres points de M – et changements de coordonnées – qui sont des transformations que l’on appelait autrefois “passives” car elles ne transforment pas les points de M mais résultent seulement d’un changement de carte.

Il est à peu près évident que ces deux notions coïncident dans le cas où M est l’espace n lui-même (muni de la structure différentiable définie par une unique carte canonique, l’application identique). Examinons de plus près le cas général. Les cartes étant elles-mêmes des difféomorphismes locaux entre ouverts de M et ouverts de n, effectuer un changement de carte (changement de système de coordonnées) se traduit par un difféomorphisme local y(x) de n. Par contre, un difféomorphisme de M est, par définition, une notion globale qui se traduit elle-aussi, après choix de cartes, par un difféomorphisme local de n. L’équivalence des points de vue “actifs” et “passifs” n’existe donc que pour n et il semble préférable d’éviter cette terminologie. Une idée physique fondamentale, à la base de la théorie de la relativité générale est que les équations de la physique doivent pouvoir s’écrire de façon tout à fait indépendante de l’observateur, quelle que soit l’état de mouvement de ce dernier. Traduite en termes de coordonnées, ce “Principe de Relativité Générale” a souvent été exprimé de par le passé comme affirmant l’indépendance des lois de la physique par rapport aux changements de systèmes de coordonnées. Une telle affirmation manque de précision, dès lors qu’on travaille sur une variété quelconque et non sur un espace numérique. Il semble d’ailleurs qu’A. Einstein lui-même n’ait jamais pu exprimer correctement ce principe de façon vraiment précise et moderne (cela n’enlève rien à son génie !). Le principe en question peut s’énoncer ainsi : l’espace-temps étant décrit par une variété différentiable, les lois de la physique doivent être invariantes sous l’action du groupe des difféomorphismes de cette variété.

1.3.3 Fonctions différentiables

La deuxième classe de cas particuliers intéressants est celle où l’application différentiable considérée ϕ, de M dans N est définie sur une variété quelconque M, mais ou N coïncide avec l’ensemble des nombres réels. Les applications différentiables en question sont désignées sous le nom de fonctions différentiables sur M  ; l’utilisation du mot “fonction” est en accord avec les habitudes terminologiques anglaises, où les applications quelconques sont des “maps” , mais où les applications à valeurs réelles (ou complexes) sont des “functions”. L’ensemble des fonctions différentiables sur M se note C(M) = C(M, ).

Remarque : l’ensemble des fonctions différentiables C(M) est une algèbre pour l’addition des fonctions [f + g](x) = f(x) + g(x), la multiplication des fonctions définie (ponctuellement) par [fg](x) = f(x)g(x) et l’opération externe de multiplication par un nombre réel. C’est une sous-algèbre de l’algèbre commutative C0(M).

Le lecteur peut s’étonner de la présence et de la signification de l’indice supérieur 0 ou dans les notations C0(M) ou C(M). Cet indice se réfère à l’ordre de différentiabilité supposé des fonctions appartenant à l’ensemble considéré. On pourrait bien entendu considérer des ensembles tels que Cp(M) constitués de fonctions qui sont, au moins, p fois différentiables. Dans la suite de cet ouvrage, cependant, nous nous limiterons aux cas p = 0, c’est à dire les fonctions continues (qui peuvent évidemment être différentiables ou non) et p = , c’est à dire les fonctions infiniment différentiables.

1.4 Champs de vecteurs

1.4.1 Notions élémentaires et intuitives

Avant de donner une définition générale des vecteurs et champs de vecteurs, définition qui pourrait sembler assez abstraite de prime abord, nous souhaitons motiver quelque peu cette définition. Le lecteur est déjà supposé être familier de la notion élémentaire de vecteur, à savoir une classe d’équivalence de bi-points parallèles et de même sens, dans l’espace affine n. Un champ de vecteurs de n, au sens élémentaire du terme, est donc une application qui, à tout point de n – considéré comme espace affine – associe un vecteur de n –considéré comme espace vectoriel. Intuitivement, on a une “flèche” en tout point ; on peut penser à l’exemple du champ des vitesses d’un solide en mouvement, mais on peut aussi penser au champ magnétique en tout point de l’espace, etc. En physique – mais aussi, comme nous allons le voir, en mathématiques – un vecteur peut être considéré comme un “petit déplacement”. Soit M une variété différentiable, f une fonction différentiable ainsi que P et Q deux points de M. Si M était un espace affine (comme n), cela aurait un sens de considérer la différence de Q et de P, puisque cette différence définirait simplement le vecteur -→
P Q = Q - P. On pourrait aussi (mais on peut de toutes façons) considérer la différence f(Q) - f(P) des valeurs prises par f en Q et P. Dans le cas de M = n et lorsque Q (coordonnées x) tend vers P (coordonnées x), le théorème des accroissement finis (ou celui de Taylor) nous dit que 1 f(x) - f(x) = (x′- x)i∂∕∂xif(x) + = vi∂∕∂xif(x) + où les nombres vi = (x′-x)i ne sont autres que les composantes du vecteur -→
P Q = Q-P dans le repère où P et Q ont des composantes xi et xi. Dans le cas des variétés, l’expression (x′- x)i∂∕∂xif(x) a encore un sens. En effet, choisissons tout d’abord une carte, et notons v la quantité v = vi∂∕∂xi. Si x(P) sont les coordonnées de P dans le domaine de la carte x, on pourra considérer la quantité

|-----------------|
|v[f] = vi-∂if(x) |
----------∂x------
qui nous décrit la variation - au premier ordre – de f dans ce que nous avons envie d’appeler la direction v. La quantité précédente v[f] est elle-même une fonction, qui, lorsqu’elle est évaluée au point P nous fournit un nombre v[f](P).

1.4.2 Vecteurs, espace tangent et champs de vecteurs

Dans le cas des variétés, il est clair que les vecteurs ne peuvent pas être définis comme des bi-points (ou des classes d’équivalences de bi-points), par contre, rien ne nous empêche d’utiliser leur propriété de machine-à-fabriquer-des-dérivées-partielles pour les définir de façon générale. Dans le domaine d’une carte x, un champ de vecteurs sera donc défini comme un opérateur de différentiation d’ordre 1 à savoir

       ∂
v = vi---i
      ∂x
Cet opérateur agit sur les fonctions f C(M) pour donner d’autres fonctions (puisque v[f] C(M)). Le champ de vecteurs v ainsi défini est indépendant de la carte choisie.

L’opérateur différentiel d’ordre 1 noté v = vi∂∕∂xi est un champ de vecteurs car les vi sont des fonctions sur M alors que v(P) = vi(P)∂∕∂xi est un vecteur au point P, de composantes vi(P).

En géométrie élémentaire des courbes, la tangente en P à une courbe (différentiable) est définie comme limite des sécantes PQ lorsque Q tends vers P ; cela signifie que les vecteurs -P →Q tendent vers un vecteur tangent à la courbe. En géométrie des variétés différentiables, on pourrait faire de même, à condition de plonger notre variété (par exemple la sphère usuelle S2) dans un espace plus grand (par exemple 3) et voir ainsi, un vecteur de S2 comme un vecteur tangent à la sphère (et donc “sortant” de celle-ci) ; mais une telle contrainte serait précisément contraire à l’idée même du calcul intrinsèque sur les variétés, calcul qui se veut, justement, indépendant de l’existence de plongements possibles. La définition adoptée précédemment est bien indépendante de la présence d’un espace affine ambiant, mais il est néanmoins commode, pour l’intuition, de visualiser nos vecteurs de façon élémentaire et d’adopter une terminologie qui nous rappelle des situations bien connues. Pour ces raisons, un vecteur de la variété M en un point P est souvent appelé vecteur tangent en P, l’ensemble de ces vecteurs se note T(M,P) ou encore TP M et est désigné sous le nom de espace tangent à M en P ; on a donc un espace tangent en chaque point de la variété. L’ensemble des vecteurs eux-mêmes (tous les vecteurs), se note T(M) ou simplement TM et est appelé l’espace tangent à M ou encore, pour une raison qu’on expliquera ultérieurement le fibré tangent à M (“tangent bundle”). Un élément de TM est donc la donnée (P,u) d’un point de M et d’un vecteur en ce point. Attention, il faut bien distinguer les notions de vecteur en un point et de champs de vecteurs (mais nous allons très souvent oublier cette distinction). L’ensemble des champs de vecteurs se note ΓTM. Notons que cet espace est un espace vectoriel (de dimension infinie), et T(M,P) est un espace vectoriel de dimension n (supposant que M est elle-même de dimension n), alors que TM n’est pas un espace vectoriel du tout (on ne peut pas additionner un vecteur en P avec un vecteur en Q !). On verra que TM, que l’on peut considérer comme une collection d’espaces vectoriels paramètrisés par les points de M, possède la structure d’espace fibré vectoriel (cette structure sera définie et étudiée plus loin). Notons que l’espace TM est lui-même une variété différentiable. Supposons que M soit une variété de dimension n, un point P de M est en effet caractérisé (dans une certaine carte) par n composantes xμ et un “point” (c’est à dire un élément) de TM consistera en la donnée d’un couple (P,u) M × T(M,P) c’est à dire 2n nombres (n nombres xμ et n composantes du vecteur u dans une base choisie de l’espace vectoriel T(M,P). Ainsi TM est une variété de dimension 2n. Intuitivement, on peut se représenter par exemple TS2 comme la donnée d’une infinité de plans tangents collés à la sphère ; il s’agit, dans ce cas d’une variété de dimension 4.

1.4.3 Règle de Leibniz

Soit v un champ de vecteurs. Il pourra donc s’écrire localement (c’est à dire dans une certaine carte) v = vμ∂∕∂xμ. Si f et g désignent deux fonctions sur M, il est clair que

-∂-[fg ] =--∂-[f]g + f--∂-[g]
∂xμ       ∂x μ        ∂x μ
Par conséquent on aura plus généralement :
|---------------------|
-v[fg] =-v[f-]g-+-f-v[g-]|
On retrouve la règle usuelle de dérivation d’un produit. De façon générale, si A est une algèbre associative, on dit que v est une dérivation, lorsque v est une application linéaire (un “opérateur”) de A dans A telle que v[fg] = v[f]g + fv[g] avec f,g A. Les champs de vecteurs sont des dérivations de l’algèbre associative (et commutative) C(M). On pourrait d’ailleurs les définir directement par cette propriété. En d’autres termes, ΓTM = DerC(M).

1.4.4 Crochet de deux champs de vecteurs

Notons que le produit de deux vecteurs n’est pas un vecteur (produit défini par composition de l’action des vecteurs sur les fonctions) mais un opérateur différentiel d’ordre 2. En effet, soient v = vμ∂∕∂xμ et w = wν∂∕∂xν deux champs de vecteurs (attention les vμ est les wν n’ont aucune raison d’être constants dans la carte choisie). Alors, (vw)[f] = v[w[f]] = v[wν∂∕∂xν[f]] = vμ∂∕∂xμ[wν∂∕∂xν[f]] = vμ∂∕∂xμ[wν]∂∕∂xν[f]+vμwν2∕∂xμ∂xν[f] Par contre, le commutateur (notation crochet) de deux champs de vecteurs, défini par

|-----------------|
-[v,-w] =-vw---wv--|
est un champ de vecteurs. Pour s’en convaincre, il suffit de vérifier que c’est bien un opérateur différentiel d’ordre un. Le petit calcul précédent montre immédiatement que les dérivées secondes disparaissent lorsqu’on calcule la différence et qu’il reste
                                 μ ∂    ν  ∂      μ  ∂   ν  ∂
[v, w][f ] = (vw )[f] - (wv )[f] = (v--μ-[w  ]--ν--  w ---μ[v ]---ν)[f ]
                                  ∂x      ∂x       ∂x      ∂x
La définition précédente du crochet [v,w] = vw - wv de deux champs de vecteurs implique de façon immédiate les deux propriétés suivantes :

Antisymétrie

|---------------|
|[u,v] = - [v,u]|
----------------
Identité de Jacobi
|-----------------------------------|
[u,[v,w-]] +-[v,[w,-u]] +-[w,[u,v]] =-0
Une algèbre (évidemment non associative) où les éléments vérifient ces deux identités est appelée une algèbre de Lie. Notons qu’une algèbre de Lie est, en particulier, un espace vectoriel. Nous pouvons donc conclure ce paragraphe en disant “l’ensemble des champs de vecteurs est une algèbre de Lie (de dimension infinie)”.

1.4.5 Repère naturel associé à une carte

On appelle repère sur U M, la donnée, en chaque point P U, d’une base de l’espace vectoriel tangent en P. Un repère est en général “local”, c’est à dire qu’on n’essaye pas, ou qu’on ne peut pas choisir U = M. Si xμ(P) désignent les composantes de P dans une carte locale (U,x), on a déjà vu que des vecteurs quelconques en P ou dans un voisinage de P peuvent se décomposer sur les vecteurs ∂∕∂xμ. En d’autres termes, l’ensemble des

|-------------|
eμ = { ∂∕∂x μ}|
---------------
fournit un repère. Ce repère est appelé repère naturel associé à la carte x ou aux coordonnées xμ (“coordinate frame”). Par suite de la propriété de commutativité des dérivées partielles, il est évident que 2∕∂xμ∂xν - 2∕∂xν∂xμ = 0. En d’autres termes, si {eμ} désigne le repère naturel associé à la carte xμ, on a
[eμ,e ν] = 0
Une telle propriété caractérise, en fait, les repères naturels.

1.4.6 Changement de carte

Soit P M y(P) n un nouveau système de coordonnées. Si x désigne l’ancien système, on notera également y : n↦→n les fonctions de changement de carte, on écrira donc y(P) = y(x(P)). Le repère naturel associé aux coordonnées x est eμ = {∂∕∂xμ}, celui associé aux coordonnées y est e μ = {∂∕∂yμ}. Nous savons (depuis le secondaire) comment calculer la dérivée d’une fonction composée, et donc

|--------ν----|
|∂∂xμ = ∂∂yxμ∂∂yν |
--------------
ce qui, avec d’autres notations, s’écrit
      ∂yν  ′
eμ =  --μ-eν
      ∂x
Notation

Il est souvent commode de noter tout simplement μ les vecteurs du repère naturel {eμ = ∂∕∂xμ} associés à la carte xμ. La décomposition d’un vecteur quelconque v suivant ce repère s’écrit v = vμ μ, où les vμ sont des nombres réels.

1.4.7 Repères mobiles (repères quelconques)

Dans un espace vectoriel, nous savons que les changements de base sont décrits par des matrices “de passage” qui ne sont autres que des matrices inversibles Λαμ quelconques. En géométrie différentielle, nous pouvons bien entendu faire de même, à ceci près que la matrice Λαμ peut maintenant dépendre du point de la variété. En d’autres termes, on a des matrices de passage dont les éléments sont des fonctions sur la variété. Supposons que nous nous trouvons dans le domaine d’une carte et que {μ} désigne le repère naturel associé. Ce repère, au point P, constitue une base de l’espace tangent en P. Mais rien ne nous empêche de choisir une autre base au même point. Si Λαμ désigne une matrice inversible en P, alors la famille de vecteurs {eα = Λαμ μ} est une autre base de l’espace tangent TpM, c’est à dire un repère au point P. Un tel repère est couramment désigné sous le nom de repère mobile. Notons qu’il n’y a aucune raison, a priori, pour que ce repère coïncide avec le repère naturellement associé à une autre carte que celle des xμ ; pour que cela soit le cas, il faudrait qu’on puisse trouver une solution locale yα au système d’équations ∂yα∕∂xμ = (Λ-1) μα) où Λ-1 désigne la matrice inverse de la matrice Λ. Le théorème garantissant l’existence de solutions pour une équation différentielle aux dérivées partielles nous assure seulement l’existence d’une telle solution yμ(xν)) le long d’une ligne, mais pas dans un voisinage ouvert de la variété.

Soit {eα} un repère mobile. Nous avons déjà vu que le crochet (commutateur) de deux champs de vecteurs est un champ de vecteurs. En particulier [eα,eβ] est un champ de vecteurs qui, évalué au point P, appartient à l’espace tangent en ce point et peut donc se décomposer sur une base de l’espace tangent en P. On écrira donc

               γ
[eα,eβ](P ) = f αβ(P )eγ(P )
ou, plus simplement
|---------------|
|[eα,eβ ] = fγ eγ|
-----------αβ----
où les fαβγ sont des fonctions sur la variété qu’on appelle fonctions de structure du repère mobile (on ne doit pas les appeler constantes de structure car, précisément, elles ne sont pas constantes en général !).

Par ailleurs, on posera souvent α = eα même s’il n’existe pas de système de coordonnées {yα} tel que α soit le repère naturel associé. Le lecteur doit donc se méfier de cet abus d’écriture pourtant commode : il est des cas où α et β ne commutent pas !

1.5 Tenseurs et formes extérieures sur les espaces vectoriels

Avant de passer au cas des variétés, il convient d’effectuer quelques rappels d’algèbre linéaire puisque le passage du cas vectoriel au cas des variétés s’effectue essentiellement en remplaçant un espace vectoriel unique par une famille d’espaces vectoriels “de même nature”, paramètrisée par les points de la variété.

1.5.1 Algèbre tensorielle d’un espace vectoriel

Soit E un espace vectoriel de dimension finie n sur un corps K. On note E* son dual, c’est à dire l’ensemble des formes K-linéaires sur E (applications linéaires sur E à valeurs dans le corps de base, qu’on suppose commutatif). En terme de composantes, soit {eμ} une base de E, et {eμ} la base duale correspondante de E*, on a

eμ[e ν] = δμν
δνμ désigne le symbole de Kronecker (1 si μ = ν et 0 si μν).

L’espace vectoriel E de référence étant choisi, on écrira (comme le font toujours les physiciens) les vecteurs de base avec des “indices en bas” et les composantes avec des “indices en haut”. Bien entendu, la convention est opposée pour ce qui concerne l’espace vectoriel dual. Par ailleurs nous adoptons également la “convention d’Einstein”, c’est à dire que nous effectuons toujours une sommation (le signe somme étant sous-entendu) sur les indices répétés, lorsque l’un des indices est en position haute et l’autre en position basse. Nous avons déjà utilisé cette convention dans les sous-sections précédentes. Cette convention allège considérablement l’écriture des formules.

Nous n’adopterons pas, dans cet ouvrage, la notation dyadique chère à Dirac utilisant des bra et des ket car elle est peu usuelle en géométrie mais il est peut-être utile d’y consacrer quelques lignes. Avec cette notation, les éléments d’un certain espace vectoriel E choisi une fois pour toutes sont notés avec des “kets”, par exemple |vet les éléments du dual avec des “bras”, par exemple σ|. L’évaluation d’une forme sur un vecteur se note ainsi naturellement sous forme de “bracket” σ|v. La relation précédente caractérisant la dualité entre une base de E et une base de E* s’écrira donc

  μ        μ
⟨e |eν⟩ = δν
On évalue ici une forme sur un vecteur et on obtient donc un nombre.

Par contre, la quantité |eν⟩⟨eμ| désigne une application linéaire de E dans E puisque |eν⟩⟨eμ|e ρ= |eνδρμ = |e ρ. Ainsi, en prenant |v= vρ|e ρ, on obtient |eν⟩⟨eμ|v= vμ|e ν. Pour les mêmes raisons, l’écriture |v⟩⟨σ| désigne un opérateur (alors que σ|vdésigne un nombre).

L’identification des vecteurs de E avec des applications de K dans E v E on associe l’application λ K λv E) permet de bien comprendre cette dualité et l’intérêt de la notation dyadique.

Si on se souvient “qui est qui”, et si on fait attention à l’ordre des termes, on peut simplifier les notations à l’extrême et ne noter ni les produits tensoriels, ni les symboles | ou |. On écrira ainsi parfois de façon un peu provocante les éléments de E sous la forme

       μ
v = eμv
(avec vμ ) et les composantes à droite des vecteurs. On écrira parfois de même les éléments du dual E* sous la forme
σ = σμeμ
(avec σμ ) et les composantes à gauche des formes linéaires. Si on ne note explicitement ni les produits tensoriels ni les évaluations des formes sur les vecteurs, on voit que σv = σμ(eμe ν)vν = σ μδνμvν = σ μvμ est un nombre. Par contre est un opérateur (on pourrait l’écrire v σ E E*), plus précisément = eμ(vμσ ν)eν.

L’ordre adopté ci-dessus (le fait d’écrire les composantes —qui sont pourtant des nombres !— à droite des vecteurs, etc) est particulièrement adapté aux généralisations non commutatives de la géométrie différentielle – cela vient du fait qu’en Occident, nous écrivons de gauche à droite !– mais rappelons nous que, bien entendu, en géométrie ordinaire “commutative” (celle qui nous intéresse ici), on peut toujours écrire v = eμvμ = vμe μ. Un dernier mot de mise en garde : lorsqu’on veut insister sur le fait que le vecteur eμ désigne une dérivation μ, il est préférable – pour ne pas se tromper ! – d’écrire les composantes du côté gauche. Il en va de même en géométrie non commutative où champs de vecteurs et dérivations d’algèbre sont de toute façon des concepts différents puisque les premiers forment un module sur l’algèbre associative des “fonctions” alors que les dérivations ne forment un module que sur le centre de cette algèbre. Aucune ambiguïté n’est donc possible dans ce cadre plus général.

On note E l’algèbre tensorielle sur E c’est à dire la somme directe p=0EpEp désigne la puissance tensorielle d’ordre p de E, c’est à dire encore l’ensemble des applications multilinéaires d’ordre p sur E*. Soit T Ep alors on peut écrire

T = T μ1μ2...μpe  ⊗ e   ⊗ ...⊗ e
              μ1   μ2          μp
Les éléments de E sont encore appelés tenseurs contravariants (d’ordre p s’ils appartiennent à Ep). Bien entendu, cet ensemble est non seulement un espace vectoriel (de dimension infinie, les Ep étant de dimension (dimE)p mais encore une algèbre pour le produit tensoriel. On peut ne pas écrire le symbole explicitement dans l’expression précédente du tenseur T, car “what else could it be ?”, auquel cas,
       μ1μ2...μp
T  = T       e μ1eμ2 ...eμp
De la même façon, on note E* l’algèbre tensorielle sur E* c’est à dire la somme directe p=0E*pE*p désigne la puissance tensorielle d’ordre p de E*, c’est à dire encore l’ensemble des applications multilinéaires d’ordre p sur E. Soit T E*p alors on peut écrire
             μ1 μ2     μp
T = T μ1μ2...μpe  e  ...e
Les éléments de E* sont encore appelés tenseurs covariants (d’ordre p s’ils appartiennent à E*p).

Bien entendu, nous pourrons considérer des tenseurs p-fois contravariants et q-fois covariants (éléments T de Ep E*q) et pour rester cohérents avec nos notations, nous écrirons les produits tensoriels des vecteurs de E à gauche de ceux de E*, c’est à dire

      μ μ...μ              ν  ν     ν
T = T ν11ν22...νqpeμ1eμ2 ...eμpe 1e2 ...eq
ou même encore
                  μ1μ2...μp ν1 ν2     νq
T = eμ1eμ2 ...e μpT ν1ν2...νq e e  ...e
On pose E*0 = E0 = .

1.5.2 Algèbre extérieure d’un espace vectoriel. Produit extérieur

On notera Λk(E*) l’espace vectoriel des formes k-linéaires alternées sur E. Rappelons que T E*k est alternée lorsque T(v 1,,vi,vj,,vk) = 0 dès que vi = vj,ij. Il est équivalent de dire (si le corps de base n’est pas de caractéristique 2) que T est antisymétrique, c’est à dire que T(v1,,vi,vj,,vk) = -T(v1,,vj,vi,,vk). On dit aussi que T est une forme extérieure d’ordre k et que Λ(E*) est l’algèbre extérieure construite sur E*.

L’antisymétriseur Alt

Le groupe symétrique Sk des substitutions sur k éléments opère de façon évidente sur les k-uplets de vecteurs. Soit s Sk

s.(v1,v2,...,vk) = (vs(1),vs(2),...,vs(k))
Grâce à cette action, on peut définir un opérateur Alt qui projette les tenseurs covariants d’ordre k sur les formes k-linéaires antisymétriques
|--------1-∑-----------|
|AltT =  k!  s∈Sk ϵsT os
------------------------
ϵ désigne la parité de la substitution s. On peut vérifier les propriétés suivantes du projecteur Alt. Tout d’abord, c’est effectivement un projecteur de E*p sur Λp(E*), par ailleurs, si ω,η et θ désignent trois tenseurs de E, alors Alt(Alt(ω η) θ) = Alt(ω Alt(η θ) et on peut donc écrire cette quantité sous la forme Alt(ω η θ). La présence du k! dans la définition de Alt est indispensable pour que la propriété précédente d’associativité soit vérifiée.
Le produit extérieur

Soient ω Λk(E*) et η Λp(E*). On définit Le produit extérieur ,

|------------------------------------|
|ω ∧ η = (k+p)!Alt(ω ⊗  η) ∈ Λk+p (E *)
----------k!p!-----------------------

Propriétés :

est associatif et distributif à droite et à gauche sur +

η = ω = a(ω η) avec a

ω η = (-1)(pk)η ω En particulier, si ω est impaire, ω ω = 0

Ces propriétés font de Λ(E*) = k=0nΛk(E*) une algèbre super-commutative (une algèbre commutative 2-graduée).

De plus, si ω Λk(E*), η Λp(E*) et θ Λq(E*), alors

            (k + p + q)!
ω ∧ η ∧ θ = -----------Alt (ω ⊗  η ⊗ θ)
               k!p!q!

La présence des diverses factorielles dans les expressions ci-dessus, aussi bien dans la définition de Alt que dans celle du produit extérieur, disparaît dans bien des cas ; par exemple, le lecteur pourra se convaincre que si {θμ} désigne une base de 1-formes, les définitions précédentes conduisent aux expressions suivantes :

 1   2    1    2    2    1
θ ∧ θ  = θ  ⊗ θ  - θ ⊗  θ
et
θ1 ∧ θ2 ∧ θ3 = θ1 ⊗ θ2 ⊗ θ3 + θ2 ⊗ θ3 ⊗ θ1 + θ3 ⊗ θ1 ⊗ θ2
               - θ2 ⊗ θ1 ⊗ θ3 - θ1 ⊗ θ3 ⊗ θ2 - θ3 ⊗ θ2 ⊗ θ1

Il faut signaler ici qu’il existe une autre définition du produit extérieur où les membres de droite des expressions précédentes sont respectivement multipliés par 12! et 13! La définition adoptée ici est telle que si {eμ} désigne une base de l’espace vectoriel considéré et {θμ} la base duale correspondante, nous avons

θ1 ∧ θ2 ∧ ...∧ θn(e1,e2,...,en) = 1
Dépendance et indépendance linéaire des formes extérieures

Désignons par {θμ} μ∈{1,2n} une base de E*. Considérons un monôme tel que θμ1 θμ2 θμk. Par suite de l’antisymétrie du produit extérieur, il est clair qu’une telle expression est nulle dès qu’un vecteur de base est répété deux fois (c’est une autre façon de dire qu’un tenseur complètement antisymétrique est nul dès que deux indices sont répétés). Par ailleurs, deux monômes de ce type qui ne diffèrent que par l’ordre des termes sont soit égaux, soit opposés. On peut donc supposer que les indices sont ordonnés de la façon suivante : 1 μ1 < μ2 < < μk n. Enfin, il est facile de voir que toute forme extérieure d’ordre k, c’est à dire tout élément de Λk(E*) peut se décomposer sur des monômes de ce type. La dimension de l’espace vectoriel Λk(E*) est donc ( kn). Bien entendu, lorsque k > n, toute forme extérieure est nulle (deux indices sont alors automatiquement répétés !). La dimension de l’algèbre extérieure est donc Σk=0n kn = 2n. Pour conclure ce paragraphe, citons sans démonstration (mais elle est facile) le petit résultat bien utile suivant : Les formes linéaires ω12,p sont indépendantes si et seulement si leur produit extérieur ω1 ω2 ωp est non nul.

Ecriture des formes extérieures

Une forme extérieure ω d’ordre k peut s’écrire de trois façons possibles. Tout d’abord, on peut la considérer comme un tenseur k fois covariant, et , à ce titre, on peut la décomposer (existence et unicité) sur la base des tenseurs d’ordre k. On peut donc écrire

|---------------------------------|
ω =  ω       θμ1 ⊗ θμ1 ⊗ ...⊗ θμk |
------μ1μ2...μk---------------------
On peut aussi la décomposer sur la base des formes extérieures θμ1 θμ2 θμk, à condition d’ordonner les indices (sinon, la famille précédente est génératrice mais n’est pas libre et donc n’est pas une base !).
ω =      ∑      ω       θμ1 ∧ θμ2 ∧ ...∧ θμk
                 μ1μ2...μk
     μ1<μ2<...< μkμ     μ         μ
  =  ω|μ1μ2...μk|θ 1 ∧ θ 2 ∧ ...∧ θ k
La deuxième égalité utilise une notation || qui signifie que non seulement on utilise la convention d’Einstein (sommation sur les indices répétés) mais qu’on décide d’ordonner les indices.

La troisième écriture — de loin, la plus utilisée — est celle où on décompose la forme ω (toujours la même) sur la famille génératrice des formes extérieures θμ1 θμ1 θμk mais sans ordonner les indices ! Bien entendu, pour un ensemble d’indices donnés (pour un ensemble de vecteurs de base donné), k! des monômes précédents vont être égaux (ou opposés) et il faudra “corriger” le développement de ω en rajoutant un 1∕k! devant l’expression. Ainsi donc,

|--------------------------------------|
|    -1              μ1   μ2         μk|
-ω-=-k!--ω-μ1μ2...μk---θ--∧-θ---∧-...∧-θ---
Notons que la première écriture contient nk termes (et il y a unicité de la décomposition), la seconde contient n! ____ k!(n-k)! termes (et il y a unicité de la décomposition), la troisième contient nk termes (mais il n’y a pas unicité de la décomposition). Il est quelquefois utile, pour alléger les notations, d’introduire des multi-indices M = (μ1μ2μk). Alors, les deux décompositions précédentes s’écrivent
               ω
ω =  ω|M|θM =  -M-θM
                k!

1.5.3 Produit intérieur d’une forme par un vecteur

Soit E un espace vectoriel et Λ(E*) l’algèbre extérieure sur son dual. Nous avons défini précédemment le produit extérieur, qui est une loi de composition interne à l’algèbre extérieure. Au contraire, l’opération que nous allons maintenant définir, le produit intérieur n’est pas un produit au sens usuel du terme, en effet, il associe, à la donnée d’une forme extérieure ω d’ordre k (un élément de Λk(E*)) et d’un vecteur v (un élément de E) une autre forme différentielle, mais maintenant d’ordre k - 1, c’est à dire un élément de Λk-1(E*). Cette nouvelle forme est simplement obtenue en “contractant” ω et v, plus précisément, en écrivant

|-------------------------------------------|
-[ivω](v1,v2,...,vk-1)-=-ω(v,v1,v2,...,vk--1)-
c’est à dire encore, en terme de composantes et en notant α = ivω,
α μ1,μ2,...,μk-1 = vμωμ,μ1,μ2,...,μk-1
Cette opération est quelquefois notée vω au lieu de ivω.

Il résulte de l’antisymétrie des formes extérieures que deux opérations iv et iw anticommutent, en particulier, le carré de l’opération iv est nul :iviwω = -iwivω et ivivω = 0, ce qu’on écrit simplement

|---------------------------|
-iviw-=--- iwiv-et---iviv-=-0-|
Le produit intérieur est une antidérivation de l’algèbre extérieure, c’est à dire que pour ω1 Λk1(E*) et ω 2 Λk2(E*), nous avons un analogue 2-gradué de la règle de Leibniz
|---------------------------------------------|
|                                k1            |
-iv(ω1 ∧-ω2-) =-iv(ω1-) ∧-ω2-+-(--1)-ω1-∧-iv(ω2)
En particulier, si v = eμi est un vecteur de base et si ω est égal au produit extérieur d’un certain nombre de vecteurs de la base duale, l’expression précédente donne simplement :
      μ1         μj         μk        j-1 μ1         μ        μk
i(eμi)σ   ∧ ...∧ σ   ∧ ⋅⋅⋅ ∧ σ  = (- 1)   σ   ∧ ...∧ ^σ j ∧ ...σ    si  i = j
                               = 0   si  i ⁄∈ {μ1, μ2,...,μk}
où le symbole ^ désigne l’omission du symbole au dessus duquel il est situé.

1.5.4 Transformation du produit extérieur et du produit intérieur par endomorphismes

Soit f~ un endomorphisme de l’espace vectoriel E et soit f~ l’endomorphisme dual (aussi appelé transposé). Rappelons ce que cela signifie : f~ est une application linéaire de E dans E et f~ est une application linéaire du dual E* dans lui-même définie comme suit : soient v E et θ E*, alors f~(θ)(v) = θ(f ~(v)), c’est à dire encore f~(θ) = θof ~. On peut alors vérifier aisément que

f~(ω ∧ η) = f ~(ω) ∧ f~(η )
et que
if~(v)(ω ) = ivf ~(ω )
Remarque sur les notations : celle utilisant * et non ~ est beaucoup plus utilisée ; cela dit, le symbole * est “trop” utilisé et peut quelquefois prêter à confusion puisqu’il peut aussi bien désigner la conjugaison complexe, la dualité de Hodge, qu’une involution quelconque... Par ailleurs le “tilde” est sous-employé (il désigne traditionnellement l’expression matricielle de f~), il en va de même de la “flèche”. Dans le cadre de cet ouvrage, nous écrirons indifféremment f* = f~ = -→
 f et f* = f~ = ←-
f. Notons pour finir que la notation f ~ est en général inutile dans le cas des espaces vectoriels puisqu’on peut écrire tout simplement f = f~, mais dans le cas des variétés, nous verrons que ff~f~ !

1.6 Formes différentielles

1.6.1 Définition

Nous avons déjà défini la notion de vecteur au point P d’une variété différentiable M ainsi que la notion de champ de vecteurs. L’ensemble des vecteurs au point P se notant TP M, l’ensemble de tous les vecteurs (le fibré tangent) se notant TM et l’ensemble des champs de vecteurs se notant ΓTM, on obtient, par dualité, les notions qui suivent. Tout d’abord l’espace vectoriel dual de TP M se note TP *M ; ses éléments sont donc des formes extérieures de degré 1, ou plus simplement, des “1-formes” . L’ensemble T*M, baptisé fibré cotangent, est l’ensemble de toutes les 1-formes, lorsque le point P décrit M, c’est-à-dire T*M = pMTP *M.

Une forme différentielle (en degré un) est tout simplement un champ de formes extérieures, c’est-à-dire une application qui à tout point P M associe une forme extérieure en ce point. Nous verrons un peu plus loin la raison d’être de cette terminologie. L’ensemble des formes différentielles de degré 1 peut se noter ΓT*M ou Ω1M.

Toutes les constructions algébriques du paragraphe précédent (tenseurs et formes extérieures sur un espace vectoriel) sont en particulier valables ici puisqu’on peut choisir comme espace vectoriel, l’espace vectoriel tangent au point P, c’est-à-dire TP M. Les tenseurs p fois contravariants, q fois covariants au point P sont donc des éléments de (TP M)p (T P *M)q. Si on considère tous les tenseurs de ce type (c’est-à-dire qu’on effectue la réunion de ces espaces lorsque P décrit M) on obtient (TM)p (T*M)q et on peut bien entendu considérer des champs de tenseurs de ce type, dont l’ensemble constitue Γ((TM)p (T*M)q).

Le cas particulier des tenseurs complètement antisymétriques est particulièrement intéressant. On notera Λ(TP M)* = kΛk(T P M)* l’algèbre extérieure sur le dual de l’espace vectoriel TP M et Λ(T*M) = pMΛ(TP M)*.

Les formes différentielles de degré q sont des “sections” de Λq(T*M) c’est-à-dire des champs de formes extérieures de degré q. Leur ensemble peut se noter, bien entendu, ΓΛq(T*M). Lorsque q = 1, on a Λ1(T*M) = T*M. Pour alléger la notation, on décide de poser Ωq(M) = ΓΛq(T*M). On sait que q ne peut pas être trop grand ; plus précisément 0 q n avec n = dim M. Attention, ne pas confondre la dimensionalité de Λ(TP M)* – qui est 2n – et celle de ΩM = q=0nΩqM, qui est infinie. Notons que les éléments de ΩM sont simplement les fonctions sur M c’est-à-dire Ω0M = C(M). Nous avons déjà étudié les propriétés du produit extérieur et il n’y a rien à rajouter ici : le produit extérieur α β de deux formes différentielles α et β est obtenu en “globalisant” la définition déjà connue pour chaque point P de M.

ΩM, munie des opérations de multiplication par un scalaire, d’addition et de produit extérieur, devient ainsi une algèbre. Cette algèbre n’est pas commutative mais elle est commutative graduée puisque αβ = (-1)#α#ββ α où #α désigne le degré de α. On appelle cette algèbre algèbre de De Rham des formes différentielles.

Pour ce qui est de l’écriture locale d’une forme différentielle, il n’y a pas grand-chose à rajouter non plus puisque nous savons déjà décomposer une forme extérieure sur une base de l’espace vectoriel TP *M. Le seul problème qui se pose est de savoir comment la base en question varie avec le point P.

Soient xμ(P) les coordonnées de P dans une carte locale. On sait que l’ensemble des vecteurs eμ = __ ∂xμ fournit le repère naturel associé à cette carte, c’est-à-dire que {eμ} est une base de l’espace tangent en tout point d’un voisinage de P.

On désignera par {dxμ} la base duale correspondante et on écrira avec des indices “en haut” {eμ = dxμ}. On peut, si on veut, “visualiser” dxμ par “un petit accroissement” , mais ceci présente un intérêt purement psychologique ; en effet dxμ est défini par dualité et donc par la relation dxμ,  __ ∂xν= δνμ. De la même façon qu’on avait un repère naturel (-∂-)
 ∂xμ associé aux coordonnées xμ, on a donc aussi un corepère naturel {dxμ}.

Dans le cas de l’espace tangent, nous avons défini la notion de repère mobile {eα} (qui était issu de __ ∂xμ par changement de base arbitraire), nous aurons donc aussi un corepère mobile {eα} défini, en chaque point P de la carte, comme la base duale de {eα}, c’est-à-dire eα, e β= δβα.

Venons-en maintenant à la notion de différentielle proprement dite. Pour ce qui est des fonctions (0-formes), on pose bien entendu

|-------------|
|df = ∂∂xfμdx μ |
--------------

La 1-forme df peut être évaluée sur le champ de vecteurs v = vμ __ ∂xμ. On obtient

          -∂f-  μ       ν-∂--    ∂f-- ν   μ  -∂--    ∂f-- ν μ    μ-∂f-
⟨df,v⟩ = ⟨∂x μdx ,v =  v ∂x ν⟩ = ∂x μv ⟨dx , ∂xν⟩ =  ∂xμv  δν = v ∂x μ
On voit que le membre de droite n’est autre que v[f]. Ainsi donc,
|-------------|
|⟨df, v⟩ = v[f ]|
---------------
On notera souvent df(v) au lieu de df,v, l’évaluation de la forme df sur le vecteur v.

La règle de Leibniz usuelle pour la différentielle d’un produit de deux fonctions, à savoir

|-------------------|
|d(fg) = df g + f dg|
--------------------
résulte immédiatement de la propriété, pour les champs de vecteurs, d’être des dérivations de l’algèbre des fonctions.

Nous allons généraliser aussi bien la définition de d que la règle de Leibniz à des formes différentielles de degré supérieur.

1.6.2 La différentielle extérieure d

Soit ω une k-forme différentielle ; on va définir un opérateur d qui, appliqué à ω, crée une (k + 1)-forme. Cet opérateur est désigné sous le nom de différentielle extérieure ou différentielle de De Rham.

Définition 1. La forme différentielle peut se définir directement par son action sur tout (k + 1)-uplet {v1,v2,,vk+1} de champs de vecteurs, en posant

                      k+1
                      ∑       i+1
dω (v1,v2,...,vk+1 ) =    (- 1)  vi[ω(v1,...,^vi,...,vk+1)]
                      i=1 ∑
                      +         (- 1)i+jω([vi,vj],v1,...,^vi,...,^vj,...,vk+1)
                        i≤i≤j≤k+1
où le symbole^désigne l’omission de l’argument correspondant.

Cette définition possède un intérêt pratique certain. Pour se rappeler des signes, on peut signaler le moyen mnémotechnique suivant : le premier type de termes s’obtient en faisant passer les vecteurs vi devant ω et en comptant un signe “-” chaque fois que vi “traverse” un des autres vecteurs ; le second type de terme s’obtient en choisissant une paire vi,vj et en la faisant passer en position 1 et 2 de la forme ω, tout en utilisant l’antisymétrie de ω lorsqu’on effectue des transpositions. On remplace alors la paire (vi,vj) par son crochet [vi,vj] et on multiplie le tout par un signe -1.

Exemple 1 : Soit f une 0-forme, c’est à dire une fonction sur M. La définition ci-dessus conduit à

df(v) = v[f]
ce qu’on savait déjà.

Exemple 2 : Soit ω, une 1-forme, alors

d ω(u,v) = u (ω (v)) - v (ω(u)) - ω([u,v])
Si u = __ ∂xμ et v = __ ∂xν, on trouve simplement que les composantes de F = sont données par Fμν = μων - νωμ.

Le lecteur aura reconnu, dans le cas de la dimension 4, l’expression du champ électromagnétique (le tenseur F ) en terme du (quadri) potentiel vecteur ω. Soit dit en passant, il faut incorporer le troisième terme (l’évaluation de ω sur le commutateur [u,v]) lorsqu’on veut exprimer le champ F = dans un repère quelconque.

Exemple 3 : Soit ω, une 2-forme, alors

dω(x,y, z) = x(ω (y, z)) - y(ω (x,z)) + z(ω(x,y))

             - ω([x,y],z) - ω([y, z],x ) + ω ([x, z],y )

En utilisant la définition de d, donnée ci-dessus, on montre immédiatement que, si ω1 Ωk1 et ω 2 Ωk2, alors

|---------------------------------------|
-d(ω1 ∧-ω2-) =-dω1-∧-ω2 +-(- 1-)k1ω1-∧-dω2

De la même façon, on montre que

--------
| 2     |
-d--=-0-|

Les deux propriétés ci-dessus sont absolument fondamentales et peuvent même servir à définir l’opérateur d lui même.

Définition 2. d est l’unique opérateur (application linéaire) de ΩkM dans Ωk+1M tel que, pour tout k, ω 1 Ωk1, ω 2 Ωk2, k = k 1 + k2, on ait d(ω1 ω2) = 1 ω2 + (-1)k1ω 1 2 et d2 = 0. En d’autre terme d étend la définition usuelle de différentiation des fonctions en une dérivation graduée de carré nul de l’algèbre ΩM. En physique, si ω désigne le quadri-potentiel vecteur, alors, F = obéit automatiquement à l’équation dF = 0, puisque d2 = 0. Ceci nous donne donc la moitié des équations de Maxwell (les équations sans source).

Il existe une troisième définition possible de l’opérateur d, définition qui est également d’un intérêt pratique certain. La voici :

Définition 3. Relativement à un choix de coordonnées on peut écrire ω = ωIdxI, où I est un multi-indice et ωI est une 0-forme, c’est-à-dire une fonction. On définit d’abord d sur les fonctions I = ∂ωI ∂xμdxμ. Ensuite, plus généralement, on pose = I dxI.

Nous venons de voir trois définitions équivalentes possibles de l’opérateur d. Toutes les trois sont utiles et nous laissons au lecteur le soin de démontrer l’équivalence des définitions.

Terminons par un petit calcul élémentaire (clin d’œil au cours d’électromagnétisme). Soit A = Aμdxμ une 1-forme (le quadri-potentiel vecteur). Le champ de Maxwell est défini par

|-----------------------------------------|
|F = dA  = 12F μνdxμ ∧ dxν = F μνdxμ ⊗ dxν |
-------------------------------------------
Or
                     ∂A               1  ∂A              ∂A
dA  = d(A μ) ∧ dx μ =---μν dx ν ∧ dx μ =-(--νμdxν ∧ dxμ + ---μν-dxν ∧ dxμ)
                     ∂x               2  ∂x               ∂x
    = 1-(∂A-ν - ∂A-μ)dx μ ∧ dx ν
      2  ∂x μ   ∂x ν

Ainsi

|-------∂A-ν---∂Aμ-|
-Fμν-=--∂xμ----∂xν-|

1.6.3 L’équation de Maurer-Cartan pour un repère mobile

Soit {eα} un repère mobile et fβγα les fonctions de structure correspondantes, c’est-à-dire que ce repère vérifie l’équation de structure : [eβ,eγ] = fβγαe α.

Soit {eα} le co-repère mobile correspondant défini, comme on l’a vu, par dualité. Le co-repère vérifie également une équation de structure (souvent désignée sous le nom d’équation de Maurer-Cartan)

|---------------------|
de α + 1fα eβ ∧ e γ = 0
-------2-βγ------------
La façon la plus simple de démontrer cette identité est de la vérifier en l’évaluant sur un couple (eδ,eϵ) de vecteurs du repère mobile. D’une part, en effet,
de α(e ,e) = e (eα(e )) - e(eα(e )) - eα([e ,e ])
      δ  ϵ     δ α  ϵ     αϵ    δγ α       δ  ϵ
           = e δ(δϵ ) - eϵ(δδ ) - fδϵe (eγ)
           = 0 - 0 - f γδα = - fα
                      δϵ γ      δϵ
Les deux premiers termes sont nuls puisqu’on dérive des constantes !

D’autre part

                                                          (            )
1fα eβ ∧ eγ(e ,e) =  1fα (eβ ⊗ eγ - eγ ⊗ eβ)(e,e ) = 1-fα   δβδγ-  δγδβ
2 βγ         δ  ϵ    2 βγ                     δ ϵ    2  βγ   δ ϵ    δ ϵ
                     1-α    1-α    1- α   1- α    α
                  =  2fδϵ - 2fϵδ = 2fδϵ + 2fδϵ = fδϵ
D’où le résultat.

1.6.4 Produit intérieur d’une forme par un champ ou vecteurs

Cette opération généralise celle étudiée précédemment (produit intérieur d’une forme extérieure par un vecteur). On associe, à une k forme ω et un vecteur v une k - 1 forme notée ivω. La définition en est très simple : pour une 1-forme, c’est tout simplement l’évaluation. C’est-à-dire ivω = ω(v) = ω,v. Pour une k-forme, on généralise simplement en contractant l’indice du vecteur v avec le premier indice de la forme ω ; en d’autres termes (et sans utiliser d’indices) ivω est la k - 1 forme définie par

|-----------------------------------------|
ivω(v1,v2,...,vk- 1) = ω (v,v1,v2,...,vk-1)|
-------------------------------------------
Si α = ivω on a évidemment αμ12,k-1 = vνω νμ12,k-1. Il s’agit d’une opération très élémentaire généralisant l’évaluation d’une forme sur un vecteur. L’opération iv, de ΩkM dans Ωk-1M est, comme l’opération d, une dérivation graduée et de carré nul de l’algèbre extérieure. La propriété d’être de carré nul est une conséquence immédiate du fait que les formes différentielles sont des objets antisymétriques et donc s’annulent dès que deux arguments sont égaux. La propriété d’anti-dérivation, c’est-à-dire
|-------------------------------------------|
iv(ω1-∧-ω2)-=-(ivω1) ∧-ω2-+-(--1)kω1-∧-(ivω2-)
k est le degré de ω1 est également une conséquence immédiate de la définition. La différence essentielle entre l’opération d et l’opération iv est que ces deux opérations vont dans des sens différents (iv fait baisser le degré d’une unité alors que d l’élève). Notons que la définition de iv dépend du choix du vecteur v.

1.7 Application tangente et cotangente

Soit f un difféomorphisme de la variété M, ou, plus généralement, une application différentiable de M (de dimension m) dans N (de dimension n). En coordonnées locales, f s’écrit à l’aide de n fonctions fα de m variables yα = fα(xμ). La matrice jacobienne de cette application est la matrice (n,m) des éléments ∂yα∕∂xμ. Une telle matrice définit une application linéaire de l’espace vectoriel tangent à M au point P dans l’espace tangent à N au point f(P). Soit {μ} un repère naturel de M défini dans un voisinage de P et {α} un repère naturel de N défini dans un voisinage de f(P). Soit v TP (M), on peut écrire v = vμ μ. On obtient un vecteur w Tf(P)(N) en écrivant w = wα α avec

|--α----(∂yα)---μ-|
(w--)-=--∂xμ--(v-)-

Cette application, dite application linéaire tangente (ou “push forward”) se note, suivant les auteurs f*, Tf, f~, ou même -→
 f et on dit que w = -→
 f(v) est l’image directe de v. On peut bien entendu définir directement -→
 f sans utiliser de systèmes coordonnés. De façon générale, à toute application différentiable f : M N, on associe une application linéaire tangente -→
 f : TM TN, et si v TP M, alors -→
 f[v] Tf(P)M. Remarque : on peut toujours prendre l’image d’un vecteur tangent par l’application tangente, mais l’image d’un champ de vecteurs v sur M ne définit pas nécessairement un champ de vecteur sur N ; d’une part, en effet, rien ne prouve qu’un point Q quelconque de N soit nécessairement dans l’image de f, et par ailleurs, même si f est surjective, rien ne dit, dans le cas où deux points distincts P1 et P2 seraient tels que f(P1) = f(P2) que l’image par -→
 f du vecteur v(P1) coïncide avec l’image par -→
f du vecteur v(P2). En fait, pour une application differentiable surjective f : M N donnée, il est commode d’introduire la notion de champ de vecteurs projetable  : v Γ(TM) est dit projetable (par f) si, pour tout Q N et pour toute paire (P1,P2) de points de M tels que Q = f(P1) = f(P2) on ait -→
 f[v(P1)] = -→
 f[v(P2)] ; dans ce cas on obtient bien un champ de vecteur sur N. La même matrice jacobienne (∂yα∕∂xμ) définit également une application linéaire de l’espace cotangent à N au point f(P) dans l’espace cotangent à M au point P. En effet, soit τ Tf(P)*N, alors τ = τ αdyα. L’image de la forme τ est la forme σ TP *M, avec σ = σ μdxμ et

|-------(--α)-----|
|(σμ) =  ∂∂yxμ  (τα) |
------------------

Cette application, qu’on pourrait appeler application linéaire cotangente , (ou “pull back”) et noter f*, T*f, f~, ou même ←-
 f n’est donc autre que la transposée de l’application linéaire tangente -→
 f au point P M : elle envoie les co-vecteurs de N au point f(P) (i.e. les 1-formes de N au point f(P) ) dans les co-vecteurs de M au point P. Si τ Tf(P)*N, alors ←-
 f(τ) = τ -→
f TP *M. Cette application de T f(P)*N dans T P *M ne peut manifestement pas, en général, se généraliser à une application de T*N dans T*M ; la situation n’est donc pas tout à fait analogue à celle de l’application tangente, qui, elle, est bien définie, comme application de TM dans TN. Par contre, si ω est une 1-forme differentielle sur N, c’est à dire un champ de co-vecteurs, on peut toujours considérer son image par ←-
 f ; en effet, dans ce cas, si v est un vecteur quelconque en P M, alors -→f(P) est un vecteur en Q = f(P) N et le nombre ωQ[-→
f(P)] est bien défini. On obtient ainsi une 1-forme differentielle sur M qu’on notera f*ω ou ←-
 f(ω). On l’appelle en général “pull back” de ω par f. Quelques remarques sur les notations : on peut trouver commode d’utiliser de nouveau le symbole df et d’écrire tout simplement (en un point P donné, non explicitement indiqué par la notation)

|-----(∂fα)--∂------μ-|
|df =  ∂xμ  ∂yα ⊗ dx  |
----------------------
et donc de considérer df comme un élément de Tf(P)N TP *M. La matrice (∂fα∕∂xμ) est la matrice jacobienne de l’application f. Attention, df, ici, n’est pas une 1-forme puisque f n’est pas une fonction à valeurs dans le corps des scalaires mais une application entre deux variétés. Il ne semble pas nécessairement utile de vouloir à tout crin introduire de nouvelles notations chaque fois qu’une fonction de plusieurs variables donne naissance à des applications différentes lorsqu’on décide de geler l’un ou l’autre de ses arguments ! La notation “différentielle” précédente est une généralisation directe de la notation désignant la différentielle d’une fonction à valeurs réelles. Ici, df doit être considérée comme une application bilinéaire qu’on peut noter (.,df,.) dont l’ une des restrictions coïncide avec -→
 f et l’autre avec ←-
f. Si on choisit τ Tf(P)*N et v T P M, on voit que
    ←-                                     -→
σ = f (τ) = (τ,df,⋅) ∈ T *PM     et    w  = f (v) = (⋅,df, v) ∈ Tf (P )N

La notation suivante est également très commode :

⟨σ| = ⟨τ |df     et    |w ⟩ = df |v⟩

Si on choisit un repère mobile e^α = Λα^β β dans N et un co-repère mobile e^μ = L ν^μdxν dans M, on pourra écrire également

        -1 ^β∂f α  - 1μ           ^ν
df = (Λ   )α∂x-μ(L   )ν^    e^β ⊗ e
et considérer la quantité f^ν^β = (Λ-1) α^β(∂fα∕∂xμ)(L-1)^νμ comme les éléments de la matrice jacobienne de f par rapport au choix de deux repères mobiles.

Nous venons de voir que les 1-formes de N peuvent être “rappelées” sur M à l’aide de ←-f :

←-       -→
f ω =  ωf
Il en va de même des p-formes et on définit, pour ω ΩpN, la p-forme ←-
f(ω) ΩpM par l’égalité
←-                     -→    -→        -→
f ω (v1,v2,...,vp) = ω (f v1,f v2,...,f vp)
avec v1,v2,,vp TM.

Nous laissons au lecteur le soin de démontrer les propriétés suivantes :

←-           ←-       ←-
 f (ω ∧ η ) = f (ω) ∧ f (n )

    ←-       ←-
  ivf (ω ) = f (i-→   ω)
                 f(v)
     ←-        ←-
     f dω =  df ω

1.8 Dérivées de Lie

La notion usuelle de dérivée d’une fonction numérique f nous permet de préciser la notion de variation locale de cette fonction lorsque son argument croît ou décroît. Lorsque l’argument se déplace sur une variété de dimension supérieure à 1, la variation ne sera définie que si on précise dans quelle direction se déplace le point (l’argument). En d’autres termes, la généralisation de la notion de dérivée invoque obligatoirement la notion de vecteur tangent. La dérivée d’une fonction f : M par rapport à un champ de vecteurs X se note LXf et est tout simplement définie par l’égalité

LX f = df[X ]  =  X [f ]
Ainsi, la différentielle de f “code” toutes les variations possibles, alors que la dérivée de f dans la direction X est obtenue en évaluant la différentielle de f sur le vecteur X.

Cette notion de dérivée se généralise au cas où f n’est plus une fonction sur M à valeurs réelles mais un champ t de tenseurs quelconques (ou même, comme on le verra plus tard, une section d’un fibré quelconque au-dessus de M). On a envie de donner un sens à la limite de t(x+ϵX)-t(x) ϵ lorsque ϵ tend vers 0. La quantité correspondante se note toujours LXt et s’appelle dérivée de Lie du tenseur t par rapport au champ de vecteurs X. C’est un tenseur de même type que t. On veut que LX soit une dérivation de l’algèbre tensorielle, c’est-à-dire qu’on impose

|-----------------------------------|
LX-(t1 ⊗-t2)-=-LX-t1-⊗-t2 +-t1-⊗-LX-t2
t1 et t2 sont des tenseurs quelconques. Pour définir complètement LX il suffit de préciser la valeur de LXY lorsque Y est un champ de vecteurs (contravariants) et de LXω lorsque ω est une 1-forme (champ de vecteurs covariants). Dans le premier cas on pose
LX Y  = [X, Y]
Par exemple,
          ν
Le ρeμ = fρμeν
Dans le second cas (action de L sur les 1-formes), on définit LXω par la relation
[LX ω ](Y ) = X (ω(Y )) - ω ([X, Y ])
Y est, comme X, un champ de vecteurs sur M. Nous laissons le soin au lecteur de démontrer que cette définition, ainsi que la propriété de dérivation, conduit à la relation suivante caractérisant l’action de LX sur les formes différentielles :
|----------------|
|LX  = diX + iX d|
------------------
Cette dernière propriété peut d’ailleurs servir de définition. Il est alors immédiat de vérifier que LX est une dérivation de l’algèbre des formes différentielles puisque d et iX sont des dérivations graduées. LX est une “vraie” dérivation et non une dérivation graduée : le signe (-1) potentiel, dans la règle de Leibniz, disparaît.
|-------------------------------------|
-LX-(α-∧-β)-=-LX-(α)-∧-β-+-α-∧-LX-(β)-|
De plus LX ne modifie pas le degré des formes puisque d et iX agissent en sens contraires. La relation précédente conduit immédiatement à la formule explicite
                                          k
                                         ∑
LX ω (X1,...,Xk ) = X (ω (X1, ...,Xk )) -    ω (X1,...,[X, Xi],...,Xk )
                                         i=1

Le cas particulier où ω est une 1-forme se retrouve aussi aisément. Notons que, dans ce dernier cas, si eμ et eμ désignent deux repères duaux l’un de l’autre (un repère mobile et le co-repère mobile dual), on a

LX eμ = eμ([eν,X ])eν
et en particulier
|----μ----μ--ν|
Le-ρe-=--fνρe--
En coordonnées locales, lorqu’on choisit un repère naturel, on peut écrire ω = 1∕k!ωμ1μkdxμ1 dxμk et on obtient
|----------------------------------------------------------------------------|
|LX ω = -1(X ρ-∂-ωμ ...μ  + ωρμ ...μ  ∂Xμρ-+ ...+  ωμ ...μ   ρ ∂Xρμ-)dxμ1 ∧ ... ∧ dxμk
--------k!----∂xρ--1--k------2--k-∂x-1-----------1--k-1-∂x-k------------------

Dans le cas des formes, la définition de la dérivée de Lie implique immédiatement que LX commute avec d (car d2 = 0), ainsi qu’avec i X (puisque iviv = 0), et que, par ailleurs

   i[X,Y] = LX iY - iYLX
[LX ,LY ] = L [X,Y]

Enfin, si f est une application différentiable et ω une forme différentielle, on voit que

L  ←-f ω = ←-f L-→  ω
  X           fX

Nous terminons ce paragraphe en montrant que la dérivée de Lie du tenseur de Kronecker δ = eμ eμ est nulle dans toutes les directions. En effet

Leρδ = Le ρeμ ⊗ eμ + eμ ⊗ Le ρeμ
                  μ         μ ν
     = [eρ,eμ] ⊗ e + eμ ⊗ fνρe
     = f σe  ⊗ eμ + f μe  ⊗ eν = 0
         ρμ σ         νρ μ

1.9 Flots

Un flot sur la variété M est un sous-groupe differentiable à un paramètre {ϕt} de difféomorphismes de M : on suppose que pour tout t réel, l’application t ↦→ϕt Diff(M) est un homomorphisme de groupe et que l’application (t,P) × M↦→ϕt(P) M est différentiable.

La trajectoire du flot aussi appelée courbe intégrale du flot passant par le point P M est la courbe t↦→ϕt(P). L’application linéaire tangente à cette courbe associe au vecteur unité 1 de R (identifié avec son espace tangent en 0) un vecteur tangent en Q = ϕt(P) T(M,Q). Ce vecteur tangent en Q ne dépend que du flot. En effet, les propriétés d’homomorphisme ϕt1+t2 = ϕt1 ϕt2, et de bijectivité de ϕf , montrent que si deux trajectoires passent par le même point Q, c’est à dire si ϕt(P1) = ϕt2(P2), avec t t2 par exemple, on peut poser t1 = t-t2 et P2 = ϕt1(P1), ce qui montre que les vecteurs tangents en Q à ces deux trajectoires coïncident. Le vecteur tangent obtenu, notons le X(Q), définit un champ de vecteurs X quelquefois désigné sous le nom de champ des vitesses du flot.

Puisque le flot choisi définit un champ des vitesses, il définit également une dérivée de Lie par rapport à ce champ de vecteurs.

On peut démontrer qu’inversement, un champ de vecteurs sur une variété définit un flot local, c’est à dire qu’il ne sera en général défini que sur un ouvert strictement inclus dans × M ; si cette inclusion devient une égalité, le champ de vecteur est dit “complet” et il engendre un flot : les diffeomorphismes ϕt sont alors définis quel que soit t.

1.10 Orientation – Elément de volume
Déterminant – Intégration

En géométrie élémentaire, l’orientation d’un espace vectoriel réel est spécifiée par le choix d’une base B (choix ordonné d’un système libre et générateur). Le choix d’une autre base B détermine un isomorphisme g qui envoie les vecteurs de B sur les vecteurs de B. On dit que g préserve l’orientation si det g > 0 et renverse l’orientation si det g < 0. Dans le premier cas on dit que B et B ont la même orientation ; dans le second cas, B et B ont des orientations opposées. On peut alors répartir les bases de l’espace vectoriel en question en deux classes d’équivalence correspondant aux deux orientations possibles. Afin de généraliser cette discussion au cadre des variétés, il est utile de reformuler ce qui précède en terme de formes extérieures. Nous allons donc travailler avec les bases duales et poser eμ = f(eμ).

Soit B* = {e1,e2,,en} et ω = e1 e2 ⋅⋅⋅en.

Soit B* = {e1,e2,,en} avec eμ = f(eμ) et ω= f(e1) f(e2) ⋅ ⋅⋅f(en). L’espace des formes extérieures de degré n sur un espace vectoriel de dimension n est un espace vectoriel de dimension 1. Les formes ω et ωsont donc proportionnelles et le coefficient de proportionnalité n’est autre que le déterminant de f : ω= (det f)ω. Nous laissons au lecteur le soin de retrouver la définition élémentaire des déterminants en écrivant eμ = Λ μμeμ.

L’orientation de l’espace vectoriel qui était définie par le choix de B peut tout aussi bien se définir par le choix de la n-forme ω. Deux n-formes ω et ω (obligatoirement proportionnelles) définissent la même orientation si le coefficient de proportionnalité est positif et deux orientations de sens contraire si le coefficient en question est négatif. Nous pouvons maintenant passer au cas des variétés. Nous venons de voir que l’orientation, en chaque point P de M, de l’espace tangent TP M, est équivalente au (ou définie par le) choix d’une n-forme extérieure en ce point. On pourrait donc naïvement penser que, pour définir une orientation globale de la variété M, il suffit de choisir une n-forme différentiable ω. Le problème est que, si ω s’annule en un point, l’orientation cesse d’être définie en ce point ! Pour pouvoir parler d’orientation de façon globale, il faut donc qu’il soit possible de choisir une n-forme différentielle sur M qui ne s’annule nulle part. Ceci n’est pas toujours possible : on dit que la variété est orientable ou non orientable suivant les cas. Tout le monde connaît l’exemple fameux du ruban de Moebius ou de la bouteille de Klein.

On appelle “élément de volume” sur M le choix d’une n-forme ω sur M qui ne s’annule nulle part (ce qui suppose, par définition, que M soit orientable). On note [ω] l’ensemble des éléments de volume proportionnels à ω, avec un coefficient de proportionnalité positif et [-ω] l’ensemble des éléments de volume proportionnels à ω, avec un coefficient de proportionnalité négatif. Une variété orientable possède donc deux orientations possibles, l’une quelconque d’entre elles étant caractérisée par le choix d’un élément de volume appartenant à l’une des deux classes possibles. Soient maintenant M et N deux variétés différentiables de même dimension n et f un difféomorphisme de M dans N ; on suppose M et N orientables et orientées par le choix des éléments de volume ωM et ωN. On dit que f préserve l’orientation si et seulement si ←-
 f(ωN) [ωM] et renverse l’orientation si ←-
f(ωN) [-ωM].

1.10.1 Orientation – Partition de l’unité

Notre but, dans ce paragraphe, est d’introduire la notion d’intégration des formes différentielles. Comme d’habitude, on va commencer par définir cette notion pour l’espace numérique n, puis, grâce à un système de cartes, on va pouvoir généraliser la construction au cas des variétés. On suppose le lecteur familier avec la notion d’intégrale (de Riemann) sur n. Soit f une fonction (numérique) c’est-à-dire une fonction – que nous supposons différentiable – de n à valeurs réelles. Nous supposons, de plus, que f est à support compact. Son intégrale est notée nf ou nf(x)dnx, comme d’habitude. Choisissons maintenant une orientation sur n et considérons la n-forme

            1     2          n
ω =  f(x)dx  ∧ dx  ∧ ⋅⋅⋅ ∧ dx
dx1 dx2 ⋅⋅⋅dxn est une n-forme positive pour l’orientation choisie. On pose simplement
∫      ∫
   ω =     fdnx
         ℝn
Notons que la définition du membre de gauche dépend de l’orientation choisie ; en d’autres termes, on peut identifier les deux notations et concepts en posant
dnx = dx1 ∧ dx2 ∧ ⋅⋅⋅ ∧ dxn
mais il faut bien noter que l’identification des notations dépend du choix d’une orientation car l’intégrale d’une n-forme dépend de l’ordre x1,x2,,xn alors que l’intégrale de Riemann d’une fonction f n’en dépend pas. Soit T un difféomorphisme de n, c’est-à-dire un changement de variables xμ T
→yμ.

Notre étude générale des formes différentielles implique en particulier

dx1 ∧ dx2 ∧ ⋅⋅⋅ ∧ dxn = J (T)dy1 ∧ dy2 ∧ ⋅⋅⋅ ∧ dyn
J(T) = det(∂xμ∕∂yν) est le jacobien (le déterminant de la matrice jacobienne) de l’application T. On a donc
∫                       ∫
         1          n          -1           1          n
   f(x)dx  ∧ ⋅⋅⋅ ∧ dx =    f (T   (y))J(T )dy  ∧ ⋅⋅⋅ ∧ dy
Mais on sait bien que
∫             ∫
   f(x)dnx =    f (T- 1(y ))|J(T )|dny
Donc si ←-
Tω désigne l’image réciproque de ω, on voit que ←-
Tω = ± ω suivant que T préserve ou non l’orientation : l’intégrale d’une n-forme est invariante sous le groupe des difféomorphismes qui préservent l’orientation. Passons maintenant au cas des variétés. Soit M une variété de dimension n et ω une n-forme à support compact. Supposant la variété orientable, on choisit une orientation [M] et une partition de l’unité {ρα}αI subordonnée à un atlas {(Uαα)}αI, c’est-à-dire qu’on se donne une famille de fonctions différentielles non négatives ρα telles que le support de ρα soit contenu dans Uα et telles que ρα = 1 (chaque point de M doit posséder un voisinage dans lequel la somme précédente est une somme finie). L’existence d’une telle partition de l’unité, pour une variété différentiable, est un théorème (que nous ne démontrons pas) qui permet, dans de nombreux cas, de passer des résultats locaux (valables dans une carte) aux résultats globaux (valables pour toute la variété M). On définit l’intégrale de ω sur [M] par l’égalité
∫        ∑  ∫
    ω =         ρ  ω
 [M]          Uα α
          α
où la quantité Uαραω signifie en fait n(φα-1)*(ρ αω) pour une trivialisation locale φα : Uα n préservant l’orientation. On se ramène ainsi au cas de n.

L’orientation étant choisie une fois pour toutes, on note M et non plus [M] l’intégrale correspondante. Il reste alors à démontrer que la définition adoptée ne dépend pas des cartes choisies. . .

On appelle élément de volume sur M (de dimension n) ou forme volume un élément quelconque ϵ de ΩnM. Le volume de M, supposée compacte, est alors égal, par définition, à Mϵ. Il faut bien noter que sur une variété quelconque (orientée), on intègre des n-formes, et non des fonctions, à moins, précisément, d’avoir choisi un élément de volume ϵ une fois pour toutes, auquel cas on peut évidemment poser Mf = Mf C(M). Un cas particulièrement important à considérer est celui où la forme volume est associée canoniquement au choix d’une structure riemannienne (voir section 1.11) sur la variété en question.

1.11 Variétés riemanniennes (propriétés élémentaires)

En toute logique, cette section ne devrait pas se trouver dans ce premier chapitre consacré aux variétés différentielles. En effet, la définition de la structure de variété riemannienne est liée à un cas particulier de restriction d’espace fibré (les espaces fibrés font l’objet du chapitre 4). Cela dit, pour des raisons à la fois historiques et pédagogiques, il est sans doute préférable que le lecteur se familiarise d’ores et déjà avec certaines propriétés des variétés riemanniennes.

En géométrie élémentaire, on étudie d’abord les propriétés linéaires et affines et on passe, ensuite, aux notions métriques. Il en va de même dans l’étude des variétés. Une variété différentiable est encore un objet flasque et mou. . . la donnée d’une métrique rigidifie l’espace considéré et permet, d’une part, de parler de norme des vecteurs tangents et, d’autre part, de parler de distances entre points. La définition élémentaire d’une métrique g, sur une variété différentiable M, est la suivante : c’est un champ de tenseurs covariants symétriques de degré deux (en général on impose également une condition de non dégénérescence). Si {xμ} désigne un système de coordonnées locales, on écrira

|-----------------|
|g = gμνdxμ ⊗ dxν |
-------------------
La métrique g est quelquefois notée ds2 = g μνdxμdxν et appelée “élément de longueur” ou tenseur métrique. Si {eα} est un co-repère mobile, on pourra écrire également g = gαβeα eβ. En tout point P de M on a donc un produit scalaire gP défini sur TP M et permettant de calculer le produit scalaire gP (v,w) de deux vecteurs quelconques v et w appartenant à l’espace tangent en ce point. On a déjà dit que g devait être symétrique (c’est-à-dire gμv = gνμ, ou gP (v,w) = gP (w,v)). Dans la plupart des cas, on impose également à g d’être non dégénérée : le déterminant de la matrice (gμv) est supposé non nul en tout point P et on peut donc inverser cette matrice. On obtient ainsi (gμν) avec gμνg νρ = δρμ. Cela définit un produit scalaire sur l’espace cotangent qu’on pourra noter ♯g (et quelquefois g-1) et même parfois g s’il n’y a pas d’ambiguïté) :
|-----------------|
|g = gμν∂∂xμ ⊗ ∂∂xν |
------------------

Une variété différentiable munie d’une métrique (non dégénérée) est, par définition, une variété riemannienne. Nous n’avons pas imposé au produit scalaire défini par (gμv) d’être positif et nous ne l’imposerons pas. En général, une forme bilinéaire symétrique est caractérisée par sa signature (p,q) – le nombre de signes +(p) et de signes -(q) obtenus lorsqu’on la diagonalise. Si on tient à préciser que la signature est de type (p, 0) ou (0,p), on dira que la variété est proprement riemannienne. Si on tient à préciser que la signature est de type (p, 1) ou (1,p), on dira que la variété est lorentzienne (on dit aussi, dans ce dernier cas, que la signature est hyperbolique). Les cas riemanniens et lorentziens sont particulièrement importants en physique mais nous n’avons pas besoin de nous restreindre à ce cadre pour l’essentiel de ce qui suit.

Pour une variété riemannienne (M,g) orientée, on peut définir une forme de volume canonique de la façon suivante. Soit {e^α} un repère mobile orthonormal, c’est-à-dire g(e^α,e^β) = η^α^β, avec η^α^β = ±δ^α^β, le signe ± dépendant de la signature de la métrique. Pour l’instant nons pouvons supposer que l’espace est proprement riemannien, et orienté, mais à la fin de cette section, nous verrons comment compléter les propriétés qui suivent lorsque la signature de la métrique est quelconque, et plus particulièrement lorsqu’elle est hyperbolique. Désignant par {eα^} le co-repère dual du repère mobile choisi, l’élément de volume riemannien est

|---------------------|
-ϵ =-e^1 ∧-e^2-∧-⋅⋅⋅ ∧-e^n

Soit {σα} un autre repère, non nécessairement orthonormal, et Λα^α la matrice de passage, c’est-à-dire σα = Λα^αe^α. Alors gαβ = Λα^αΛ β^βg^αβ^, ce qui implique

det(g  ) = [det(Λ^α)]2det(g  ) et donc det (Λ ^α) = |detgαβ-|1∕2
     αβ          α        ^αβ^               α     detg^αβ^
mais | det(g^α^β)| = 1 puisqu’on a supposé la base {e^α} orthonormale et donc
det(Λ^αα) = |det(gαβ)|1∕2 = [det((Λ -1)α^α)]-1
Or
ϵ = e^1 ∧ e^2 ∧ ⋅⋅⋅ ∧ e^n = Λ ^1 Λ^2 ...Λ ^n σα1 ∧ σα2 ∧ ⋅⋅⋅ ∧ σαn
                         α1 α2     αn
ϵ = det(Λ^αα) ⋅ σ1 ∧ σ2 ∧ ⋅⋅⋅ ∧ σn
    ∘ ----------
ϵ =   |det(gαβ)|σ1 ∧ σ2 ∧ ⋅⋅⋅ ∧ σn = ϵα1α2...αnσα1 ∧ σα2 ∧ ⋅⋅⋅ ∧ σαn
Ainsi 2
|----------∘--------------------|
ϵα1α2...αn =    |det(gαβ)|δ1α2.α..n...αn |
-------------------------1-2-----
où le symbole δα1α2αn12n désigne ± suivant que α 1α2αn est une permutation paire ou impaire de 1, 2, 3n et il est égal à zéro dans les autres cas.

En particulier, si {σα} désigne un repère naturel { __ ∂xμ}, on a g = gμνdxμ dxν et

|----∘-------------1----------n-|
-ϵ =---|det(gμv)|dx-∧-⋅⋅⋅-∧-dx--|
Notons également que, dans un repère orthonormé, la racine carrée précédente vaut 1 et donc ϵα1α2αn = δα1α2αn12n En particulier ϵ 12n = 1.

La métrique g permet également d’établir un isomorphisme canonique entre l’espace tangent TM et l’espace cotangent T*M. Cette propriété est évidente puisqu’en chaque point, l’existence d’un produit scalaire permet d’identifier les espaces vectoriels TP M avec TP *M. En d’autres termes, on peut “monter” et “descendre” les indices à l’aide de la métrique : au vecteur v = vμe μ on associe la 1-forme bv = v μeμ définie par v μ = gμνvν ( {eμ} désignant la base duale de {eμ}). Inversement, à la 1-forme σ = σμeμ on associe le vecteur ♯σ = σμe μ avec σμ = gμvσ ν. On peut écrire bv 1,v2= g(v1,v2) et σ, ,♯σ2= (σ12). Les isomorphismes et sont appelés isomorphismes musicaux (pour des raisons évidentes !).Cela dit, les physiciens choisissent en général une métrique une fois pour toutes et décident donc de passer sous silence ces isomorphismes musicaux. En d’autres termes, ils identifient v et ♭v ainsi que σ et ♯σ et écrivent tout simplement v = vμe μ = vμeμ ou σ = σ μeμ = σμe μ. Pour des raisons analogues ils écrivent g = gμveμ eν = gμve μ ev (mais il faut bien entendu se rappeler que (gμv) est la matrice inverse de (gμv). Les isomorphismes musicaux permettent, de la même façon, d’identifier les tenseurs covariants et contravariants de même rang . Attention, lorsqu’on n’utilise pas de métrique pour monter ou baisser les indices, il n’y a pas de raison de faire attention à la position relative des indices covariants et contravariants (par exemple, on peut parler de Tνρμ sans dire s’il s’agit de Tμ νρ, de Tνρμ ou de Tνμ ρ). Les trois types de composantes correspondent d’ailleurs à des objets différents puisque on travaille, suivant les cas, dans TM T*M T*M, T*M T*M TM ou T*M TM T*M. Par contre, si on utilise la métrique pour procéder à des identifications, il faut faire attention aux positions relatives des indices haut et bas ! Ainsi, par exemple, Tμνρ désignera gμμTμ νρ. Tout ceci est assez trivial, mais peut être fallait-il le dire une fois ?

Lorsqu’on a choisi une métrique, on écrira donc abusivement (sans utiliser la notation et ), par exemple T = Tμvρeμ ev eρ = T μνρeμ e v eρ = Tμvρe μ ev eρ =

Les isomorphismes musicaux sont quelquefois simplement désignés par le même symbole g que la métrique elle même, le nombre d’arguments permettant de décider si on parle des isomorphismes en question ou de la métrique. Par exemple, on peut noter g(eμ) = gμveν et g(eμ) = gμve ν. Ceci est en accord avec les notations précédentes puisque par exemple g(v) = g(vμe μ) = vμg(e μ) = vμg μveν = v veν.

Avec ces notations, nous avons alors g(v,w) = g(v),w= g(w),v= g(w,v).

L’existence d’une métrique permet non seulement de calculer le produit scalaire de deux vecteurs (ou de deux 1-formes) mais de contracter n’importe quel tenseur d’ordre k covariant, contravariant ou partiellement covariant et contravariant avec n’importe quel autre tenseur d’ordre k. On utilisera encore la notation |pour écrire ces contractions de type assez général. Plutôt que de décrire les différents cas, il suffit de dire, en termes imagés, qu’on “monte” tous les indices du premier à l’aide de la métrique, qu’on “descend” tous les indices du second et qu’on contracte complètement les objets obtenus. Par exemple, si S = Sμνρeμ eν e ρ et T = Tμνρeμ e ν eρ on fabrique Sμvρ = gρρSμvρ et Tμνρ = gμμT μνρ. On peut alors calculer S,T= SμνρT μνρ. En particulier, si {φ12,k} désignent une famille de 1-formes et {ψ12,k} en désigne une autre, on peut vérifier que cette définition conduit à

  1    2         k    1    2         k            i   i
⟨φ  ∧ φ  ∧ ⋅⋅⋅ ∧ φ , ψ ∧ ψ  ∧ ⋅⋅⋅ ∧ ψ ⟩ = k!det(⟨φ ,ψ ⟩)
Dans le sous-cas particulier où ces deux familles coïncident et où on suppose la famille {φk} orthonormée, il vient
  μ1         μk   ν1         νk       μ1μ2...μk
⟨φ   ∧ ⋅⋅⋅ ∧ φ  , φ  ∧ ⋅⋅⋅ ∧ φ  ⟩ = k!δν1ν2...νk

Lorsque la signature de la métrique n’est pas proprement riemannienne, c’est à dire lorsqu’elle est de type (p,q), il faut supposer que la variété admet une orientation temporelle et qu’elle est temporellement orientée. Dans le cas usuel de l’espace-temps de la physique (signature (3, 1)), on utilisera des indices 0, 1, 2, 3, comme c’est l’usage, plutôt que 1, 2, 3, 4 ; on posera alors

ϵ = e^0 ∧ e^1 ∧ e^2 ∧ e^3
La différence avec le cas proprement euclidien vient du fait qu’il faut faire attention aux signes lorsqu’on “monte” les indices. Par ailleurs, det(g^α^β) = (-1)q. Les formules précédentes restent donc valables et on aura toujours, par exemple,
ϵ    = 1
 ^0^1^2^3
mais par contre
 ^^^^
ϵ0123 = - 1
Plus généralement, nous avons vu que ϵα1α2αn = ∘ ---------
  |det gαβ|δα1α2αn12n, mais si on “monte” ces indices (à l’aide de la métrique) le résultat va dépendre de la signature, plus particulièrement du nombre q de signes “-” dans la métrique. On obtient donc
                   q
ϵα1α2...αn = ∘--(--1)---δα1α2...αn = (- 1)q∘ |det-gαβ|δα1α2...αn
              |detgαβ| 12...n                        12...n
Citons quelques contractions utiles :
q!δαγ1......γαpμ1...μq= δαγ1......γαpβ1...βqδμ1...μq
   1  p+q        1  p+q    β1...βq
Lorsque la variété est lorentzienne, avec une signature de type (3, 1), on obtient en particulier
 αβγ
δμνλ = - ϵαβγρϵμνλρ

       1         1
δαμβν =  -δαμβνγγ = - -ϵαβλρϵμνλρ
       2         2

     1       1         1
δαμ = --δμαββ=  -δαμββλλ = - --ϵαβλρϵμβλρ
     3       6         6

Pour terminer, notons que l’existence d’une métrique permet d’associer à la différentielle df d’une fonction f, un champ de vecteurs, le gradient de f défini par gradf = ♯df. Ainsi, dans un repère naturel, on écrira

          μν -∂f- -∂--
gradf  = g  (∂x μ)∂x ν

Encore une fois, la présente section consacrée aux variétés riemanniennes n’est destinée qu’à introduire certaines notations utiles et quelques notions élémentaires. Nous reviendrons plus en détail sur les variétés riemanniennes à la fin du chapitre consacré aux connexions.

1.12 Divers

Nous regroupons dans ce paragraphe un certain nombre de notions et de commentaires qui peuvent être considérés comme un peu moins élémentaires que ce qui précède ; cela ne signifie pas qu’ils sont moins “importants” mais simplement que nous utiliserons peu ou pas ces concepts dans la suite de l’ouvrage. On se contente donc ici de présenter quelques définitions de façon à suggérer au lecteur des lectures plus approfondies et à donner quelques idées intuitives.

1.12.1 Compléments sur les dérivations d’algèbre

L’ensemble des dérivations de l’algèbre associative A se note DerA. Rappelons qu’une dérivation est une application linéaire v de A dans A telle que v[fg] = v[f]g + fv[g] avec f,g A. Il est facile de voir que la somme de deux dérivations est une dérivation, par contre le produit de deux dérivations n’est pas une dérivation (dans les cas où on peut le définir, c’est un opérateur du “second ordre” ). Il est intéressant de savoir si l’opérateur w défini par w = hv avec h A et v DerA est, ou non, une dérivation. En d’autres termes, on veut savoir si l’espace DerA est stable lorsqu’on multiplie (à gauche) ses éléments par des éléments de A. Dans l’affirmative, on dit que DerA est un module sur A. La réponse est oui, mais seulement dans le cas où A est commutative. En effet, prenons f et g dans A. Alors, (hv)[fg] = h(v[fg]) = h(v[f]g + fv[g]) = hv[f]g + hfv[g] mais (hv)[f]g + f(hv)[g] = hv[f]g + fhv[g]. Ces deux expressions ne coïncident que si hf = fh.

Conclusion : L’ensemble des dérivations d’une algèbre associative n’est pas, en général, un module sur cette algèbre, sauf si cette cette dernière est commutative. Il est facile de voir que DerA est un module sur le centre de A, centre qui peut être assez petit...

Par contre, l’ensemble des dérivations est toujours une algèbre de Lie : on peut y définir une loi de composition interne (notée [, ]) non associative et anti-commutative ([u,v] = -[v,u]), qui vérifie l’identité suivante (l’identité de Jacobi) :

[u,[v,w ]] + [v,[w, u]] + [w,[u,v]] = 0

Rappelons que l’ensemble des champs de vecteurs sur une variété n’est autre que l’algèbre de Lie DerC(M).

Le fait que l’ensemble des dérivations de A soit un module sur A lorsque A est commutative admet une généralisation supersymétrique. Supposons que A soit une algèbre 2-graduée. Chaque élément a de A peut donc s’écrire comme somme d’un élément pair (#a = 0) et d’un élément impair (#a = 1). On définit les dérivations graduées (ou super-dérivations ) des algèbres 2-graduées comme les dérivations usuelles, mais en introduisant un signe. On dit qu’une super-dérivation est paire si c’est une dérivation, au sens usuel du terme. On dit qu’une super-dérivation est impaire si c’est une application linéaire de A dans A telle que v[fg] = v[f]g + (-1)#ffv[g]. On introduit donc alors une 2 graduation pour les super-dérivations et on réunit les deux types de formules de la façon suivante :

|-----------------------------|-
v[fg] = v[f]g + (- 1 )#v#f fv[g]
--------------------------------
avec f,g A. En pratique, il suffit d’utiliser la règle dite “Règle de Milnor” disant qu’il faut introduire un signe “-” chaque fois qu’on doit commuter deux éléments impairs.

L’ensemble des super-dérivations d’une algèbre A ne constitue pas, en général, un module sur A, sauf lorsque A est commutative graduée (on dit aussi super-commutative ), c’est à dire lorsque fg = (-1)#f#ggf. Par contre l’ensemble des dérivations graduées constitue toujours un module sur le super-centre de A (l’ensemble des éléments de A qui commute – au signe près – avec A) et il constitue également une super-algèbre de Lie , c’est à dire que les dérivations graduées super-anticommutent :

|-----------------------|
[v,w-] =---(--)#v#w-[w,-v]
et vérifient l’identité de Jacobi graduée
|-------------------------------------------------------------|
|(- )#u#w [u,[v,w ]] + (- )#w#v [w,[u,v]] + (- )#v#u[v,[w, u]] = 0
--------------------------------------------------------------

1.12.2 Cohomologie de De Rham

Nous avons vu que l’opérateur d satisfait d2 = 0 et envoie ΩkM dans Ωk+1M. Soit Zk le noyau de d, c’est-à-dire Zk = {ω ΩkM tq dω = 0}. Les éléments de Zk sont appelés cocycles de De Rham de degré k (ou formes fermées). Soit Bk l’image par d de Ωk-1M dans ΩkM, c’est-à-dire Bk = {ω ΩkM tq τ Ωk-1 avec ω = }. Les éléments de Bk sont les cobords de De Rham de degré k ou formes exactes . Le fait que d2 = 0 implique l’inclusion Bk Zk.

Il résulte de la linéarité de d que Zk et Bk sont stables par addition, ce sont donc des groupes abéliens ; on peut alors considérer le groupe quotient Hk = Zk∕Bk qu’on appelle groupe de cohomologie (de De Rham) de degré k. On peut calculer, pour toute variété, les groupes H0,H1,,Hn. Ces groupes fournissent, en quelque sorte une “mesure” de la non-trivialité de la topologie de la variété M. En effet, tous ces groupes sont triviaux (se réduisent à l’élément neutre 0) dans le cas de l’espace numérique n, ce que le lecteur sait déjà puisque, dans un autre contexte, celui de la théorie des équations différentielles sur n, on montre de façon élémentaire que, pour résoudre une équation df = 0, il faut poser f = dg (Lemme de Poincaré).

1.12.3 Homologie de De Rham

La définition de l’homologie de De Rham est plus délicate que celle de la cohomologie. De façon à en donner une image intuitive, disons qu’on s’intéresse à des “morceaux” de la variété M (comptés possiblement avec multiplicité). Un tel morceau C (techniquement une chaîne ) peut avoir un bord (le bord d’un disque est un cercle) ou pas de bord (le bord d’un cercle est nul). On peut formellement additionner les chaînes (avec des coefficients réels, dans le cas présent). On définit alors un opérateur bord , de carré nul lui aussi (2 = 0, le bord d’un bord est nul) et on peut considérer les cycles (chaînes C dont le bord ∂C est nul) et les bords (chaînes C qui sont le bord de quelque chose C = ∂D).

Tous les bords étant des cycles, on peut là aussi considérer les cycles Zk de dimension k modulo les bords Bk et définir les groupes d’homologie Hk = Zk∕Bk. De façon générale, on parle de cohomologie lorsqu’on a un opérateur de carré nul (tel d) dont l’action sur un espace vectoriel -gradué fait croître le degré d’une unité et d’homologie lorsqu’on a un opérateur de carré nul (tel ) dont l’action fait décroître le degré.

Paradoxalement, la définition de d est plus simple que celle de (nous avons passé cette dernière sous silence) alors que l’action de est plus intuitive, plus “visuelle” que celle de d. Le lien entre les deux est fournit par le théorème de Stokes : de façon générale on peut intégrer les k-formes sur les k-chaînes et on a la propriété

---------------
∫       ∫     |
-∂C-ω-=--C-dω--
qui généralise la relation bien connue des physiciens de première année de nos universités Σ-→
E.d-→s = V div-→
 Eoù la surface Σ est le bord du volume V et où l’intégrale représente le “flux sortant” du champ électrique -→
E. La dualité entre homologie et cohomologie s’écrit très simplement dans le cas des variétés compactes ; dans ce cas, on démontre que Hk est isomorphe à Hn-kn est la dimension de la variété. Le support visuel intuitif suffit, en dimension 2, pour calculer l’homologie (et donc la cohomologie) de quelques variétés très simples. C’est ainsi que, pour la sphère S2 on a H0(S2) = H 2(S2) = et H 1(S2) = 0 (tout cercle tracé sur la sphère est le bord de quelque chose), alors que pour le tore T2, on a H 0(T2) = H 2(T2) = mais H1(T2) =  : les deux générateurs de H 1(T2) correspondent respectivement aux deux types de cercles qu’on peut tracer sur un tore et qui ne “bordent” rien, c’est-à-dire “ceux qui font un tour”. On appelle nombres de Betti de la variété M, la dimension bp de Hp(M) considéré comme espace vectoriel.

1.12.4 Espace des p-vecteurs

Nous avons choisi de développer la notion de produit extérieur en partant du fibré cotangent , c’est-à-dire que nous avons considéré des produits tensoriels complètement antisymétriques de vecteurs covariants. Ceci nous a amené au concept de forme différentielle. Nous aurions pu faire de même en partant des vecteurs contravariants. Le formalisme est très semblable et les objets contravariants Ωp(M) correspondant aux formes différentielles Ωp(M) sont simplement baptisées “p-vecteurs”. On peut alors bien entendu évaluer une p-forme sur un p-vecteur, le résultat étant une fonction sur M.

1.12.5 Espace des courants de De Rham

Le lecteur est sans doute déjà familier avec la notion de distribution. Pour les fonctions numériques sur un compact de n les distributions sont définies comme dual des fonctions infiniment différentiables. Cet espace contient d’une part des éléments “réguliers” mais aussi toutes les mesures (en particulier la mesure de Dirac) et même des objets encore plus singuliers (les dérivées de la distribution de Dirac par exemple). On peut généraliser la théorie des distributions aux formes différentielles  de degré quelconque sur une variété ; on définit ce qu’on appelle l’espace des courants de De Rham comme dual (sur ) des formes différentielles. L’évaluation d’un courant C sur une forme ω est donc un nombre C,ω. Si la variété M est compacte et si ω est une k-forme, un élément “régulier” peut être représenté par une n - k forme σ puisque l’évaluation de l’intégrale Mσ ω est bien une fonctionnelle linéaire. L’intégration d’une forme sur une chaîne (théorie de l’homologie), l’évaluation d’un p-vecteur sur une p-forme suivie de l’intégration sur M de la fonction obtenue, fournissent aussi des exemples de courants de De Rham. La théorie de l’homologie de De Rham (opérateur ) se généralise d’ailleurs au cadre des courants et le théorème de Stokes s’écrit dans ce cas ∂C,ω= C,dω.

1.12.6 Les algèbres de Frölicher – Nijenhuis et de Nijenhuis–Richardson

Nous savons que l’algèbre de De Rham Ω(M), munie du produit extérieur, est une algèbre commutative graduée.

Nous savons aussi que l’ensemble des dérivations graduées d’une algèbre commutative graduée constitue une super-algèbre de Lie pour laquelle le crochet de Lie est donnée par le commutateur (gradué) que nous noterons simplement [.,.].

En conséquence Der(Ω(M)) est une algèbre de Lie graduée. Reste à identifier explicitement les éléments de cette algèbre.

Tout d’abord, puisque Ω(M) est -graduée, on dira qu’une dérivation est de degré p (qui peut être positif, négatif ou nul) si elle fait passer de Ωk(M) à Ωk+p(M). On notera Der p(Ω(M)) l’espace des dérivations de degré p. La dérivée extérieure est elle-même un élément de Der1(Ω(M).

Soit Ω(M,TM) l’espace des formes différentielles sur M à valeurs dans le fibré tangent, c’est à dire Ωk(M,TM) = Γ(ΛkT*M TM). Une k-forme K à valeurs vectorielles s’écrira, dans un repère naturel,

                                       ∂
K  = K νμ1μ2...μkdxμ1 ∧ dxμ2 ... ∧ dxμk ⊗----
                                      ∂x ν

Un résultat du à Richardson et Nijenhuis montre que l’algèbre de Lie graduée des dérivations (graduées) de l’algèbre de De Rham Ω(M) peut s’identifier à deux copies de Ω(M,TM) munies de deux crochets différents, connus respectivement sous le nom de crochet de Nijenhuis-Richardson et crochet de Frölicher-Nijenhuis. Plus précisément, pour tout toute dérivation D, de degré k de l’algèbre Ω(M) on peut trouver un unique K Ωk(M,TM) et un unique L Ωk+1(M,TM) tels que

|-------------|
|D =  L  + i  |
-------K----L--
LK et iL définissent des dérivations que nous allons caractériser un peu plus loin. Nous ne démontrerons pas le théorème de Richardson et Nijenhuis mais définirons seulement les dérivations dont il vient d’être question (voir [7].

Il se trouve que les éléments de Ω(M,TM) peuvent en effet agir par dérivation sur Ω(M), et ce, de deux façons distinctes.

La première consiste en une généralisation du produit intérieur. Au lieu de considérer le produit intérieur d’une forme par un vecteur, on remplace le vecteur par une k-forme à valeurs vectorielles. En effet, soit K Ωk(M,TM), L Ωl(M,TM) et ω une forme différentielle de degré q sur M. On va définir i Kω, qui sera une forme différentielle de degré k + (q - 1) (la partie “champ de vecteurs” présente dans K fait passer de q à q - 1 mais les k indices de forme demeurent). Soient Xi i ∈{1, 2,,k + (q - 1) des champs de vecteurs. On pose

                                     ∑
iKω (X1,X2, ...,Xk+q -1) = ----1-----    ϵσω(K (X σ1,...,X σk),X σ(k+1),...)
                           k!(q - 1)! σ
Notons que, agissant sur une fonction (un élément de Ω0(M)), i K donne zéro. On peut vérifier que iK défini bien une dérivation. Celle-ci est d’ailleurs de degré k - 1 ; ainsi iK Derk-1Ω(M). On peut démontrer que toute dérivation de l’algèbre de De Rham dont la restriction aux fonctions est nulle est de cette forme. Le commutateur gradué (dans Der(Ω(M)) de deux dérivations de ce type est une dérivation du même type. Plus précisément,
|-----------------|
-[iK-,iL-] =-i[K,L]NR|
où la forme à valeur vectorielle [K,L]NR est égale à
[K, L ]NR  = iKL -  (- 1)(k-1)(l-1)iLK
et où on généralise l’action de iK sur Ω(M) à une action sur Ω(M,TM) en posant iK(α X) = iK(α) X, avec α Ω(M) et X un champ de vecteurs. Le crochet [,., ] porte le nom de crochet de Nijenhuis-Richardson.

La deuxième façon d’agir consiste en une généralisation de la dérivée de Lie. Soit encore K Ωk(M,TM). On définit L K par

                          k-1
LK  = [iK ,d] = iK d - (- 1)   diK
On peut vérifier que cet opérateur fournit bien une dérivation de l’algèbre Ω(M). Cette dérivation est de degré k : LK Derk(Ω(M) (dans le cas particulier k = 0 on retrouve un résultat connu). On peut démontrer que
---------------------
|                   |
[LK-,LL-] =-L[K,L]FN--
pour une forme à valeurs vectorielles bien déterminée notée [K,L]FN qu’on appelle crochet de Frölicher-Nijenhuis. Pour des éléments décomposés, on a la formule de Michor
[α ⊗  X, β ⊗ Y ]FN  = α ∧ β ⊗ [X, Y ] + α ∧ LX β ⊗ Y
                    - L  α ∧ β ⊗ X  + (- 1)#α(dα ∧ i β ⊗  Y + i α ∧ dβ ⊗  X )
                        Y                           X          Y
Avant de conclure ce paragraphe, il est utile de définir la notion suivante. Soit J Ω1(M,TM), alors le carré gradué de J, pour le crochet de Frölicher-Nijenhuis, est un élément [J,J]FN de Ω2(M,TM) appelé torsion de Nijenjuis du vecteur-1-forme J. Pour justifier l’intérêt porté à cette notion, citons seulement le résultat suivant (nous n’étudierons pas les variétés complexes dans cet ouvrage) : lorsque J, qui peut s’interpréter géométriquement comme un champ d’endomorphismes du fibré tangent, est une structure presque complexe (J2 = -1), l’annulation de sa torsion de Nijenhuis fourni une condition nécessaire et suffisante pour l’intégrabilité de cette structure (c’est à dire que, dans ce cas, la structure presque-complexe est en fait, complexe).

Chapitre 2
Groupes de Lie et espaces homogènes

2.1 Généralités sur les groupes de Lie

2.1.1 Généralités et définitions élémentaires

Les groupes de Lie et les espaces homogènes fournissent une multitude d’exemples particulièrement simples de variétés différentiables et c’est une des raisons pour lesquelles nous leur consacrons une section de cet ouvrage. Une autre raison importante est que les groupes de Lie vont être utilisés comme “outils” dans les chapitres suivants.

Chacun est censé être déjà familier avec la notion de structure de groupe. L’introduction aux groupes et leur utilisation dans toutes les branches de la physique est un thème présenté et étudié, suivant les années et les réformes de l’enseignement secondaire, entre la classe de quatrième et les années de Licence... Rappelons donc qu’un groupe est un ensemble (fini ou infini) muni d’une loi de composition interne associative, possédant un élément neutre, et tel que tout élément possède un symétrique pour la loi en question. Du point de vue du calcul, notons que, dans un groupe, il est toujours possible de résoudre une équation du premier degré (du type ax = b, la solution étant x = a-1b). Les exemples les plus simples habituellement présentés aux élèves de nos lycées sont les suivants : Le groupe (, +) des entiers relatifs, les groupes (additif et multiplicatif) de nombres rationnels (Q, +) et (Q -{0},×) ainsi que leurs généralisations réelles et complexes, les groupes de congruence p = ∕p, les groupes de symétrie des solides platoniques, les groupes de transformations linéaires, affines ou projectives et les groupes de substitutions. Les groupes ne sont pas nécessairement commutatifs, comme les derniers exemples le montrent clairement. Les groupes peuvent être finis (comme ∕p), infinis mais discrets (comme ) ou infinis et “continus” (comme ou comme le groupe U(1) des rotations autour d’un axe). Regardons ce dernier exemple d’un peu plus près. Toute rotation autour d’un axe est parfaitement caractérisée par un angle θ compris entre 0 et 2π ; de surcroît, les rotations d’angle 0 et 2π sont identiques. En d’autres termes, on peut considérer les rotations en question comme les différents points d’un cercle S1 de rayon quelconque, l’élément neutre (c’est à dire la rotation d’angle nul) étant un point marqué de ce cercle S1. Ceci nous fournit un image “visuelle” de ce groupe U(1), image qui peut nous faire oublier momentanément la structure algébrique proprement dite de cet ensemble (un groupe) mais qui attire notre attention sur sa structure topologique ou même différentiable (un cercle). La notion de groupe de Lie généralise ce dernier exemple en juxtaposant de façon axiomatique la structure de groupe et celles de variété.

Par définition, un groupe de Lie G est donc une variété différentiable munie d’une structure de groupe, de façon à ce que les deux structures soient compatibles, c’est à dire de façon à ce que la multiplication 1 et le passage à l’inverse soient des applications différentiables. Notons que la multiplication est une application de G×G dans G alors que le passage à l’inverse est une application de G dans G. Le lecteur pourra visuellement se représenter un groupe de Lie comme un “patatoïde” avec multiplication (entre points) et origine marquée (voir 2.1).



Figure 2.1: Un groupe de Lie


La dimension d’un groupe de Lie est, par définition, sa dimension en tant que variété (nous verrons de nombreux exemples un peu plus loin) ; notons dès à présent que le groupe U(1) présenté plus haut est de dimension 1.

2.1.2 Exemples élémentaires de groupes classiques

On désigne par M(n, ) l’algèbre (de dimension complexe n2) des matrices carrées d’ordre n à coefficients complexes et par a l’adjointe d’une matrice a de M(n, ) (si a = (aij), alors a = (a ji)). L’ensemble précédent n’est certes pas un groupe pour la loi de multiplication des matrices puisqu’il contient de nombreux éléments non inversibles (toutes les matrices de déterminant nul) mais il contient plusieurs sous-ensembles intéressants qui, eux, sont bien des groupes multiplicatifs, comme on pourra le vérifier aisément.

Notons que les éléments de U(n) ont automatiquement un déterminant (un nombre complexe) de module 1, puisque deta = deta = 1∕deta, mais pas nécessairement égal à 1.

Les groupes précédents sont définis comme groupes de matrices ; les entrées de ces matrices (les “éléments de matrice”) sont des nombres qui peuvent être réels mais sont généralement complexes. Si on impose à ces éléments de matrice d’être réels, on obtient de nouveaux groupes. Soit M(n, ) l’algèbre (de dimension réelle n2) des matrices carrées d’ordre n à coefficients réels. Cet ensemble, comme M(n, ) est une algèbre associative mais n’est pas un groupe multiplicatif. On définit

Les éléments du groupe unitaire ayant un déterminant de module 1, ceux de O(n, ) auront un déterminant égal à -1 ou à 1 ; ceux pour lesquels il est précisément égal à 1 constituent le groupe SO(n, ). On désigne par ^a la transposée d’une matrice a de M(n, ).

2.2 Généralités sur les algèbres de Lie

2.2.1 Application exponentielle et algèbres de Lie

Définition

Une algèbre de Lie 𝔤 sur un corps commutatif K est un ensemble qui est, d’une part un espace vectoriel sur K (sa loi de groupe abélien est notée + et sa loi externe sur K est notée multiplicativement), de dimension finie ou non, et qui, d’autre part, est muni d’une loi de composition interne –non associative– généralement notée [,] vérifiant les propriétés suivantes

Anticommutativité
X,Y 𝔤 [X,Y ] = -[Y,X]
Identité de Jacobi
X,Y,Z 𝔤 [X, [Y,Z]] + [Z, [X,Y ]] + [Y, [Z,X]] =  0

On suppose également vérifiée la linéarité par rapport aux scalaires, c’est à dire [αX,Y ] = [X,αY ] = α[X,Y ] si α K. La loi [,] est généralement désignée sous le nom de “crochet de Lie”. Dans toute la suite, le corps K coïncidera avec le corps des nombres complexes.

Exemple fondamental

Soit A une algèbre associative ; on peut lui associer canoniquement une algèbre de Lie en définissant le crochet de Lie de la façon suivante (auquel cas le crochet de Lie peut également être désigné sous le nom de commutateur) :

X, Y ∈ A  →  [X, Y ] = XY  - Y X
Le crochet obtenu est généralement non nul, sauf évidemment si X et Y commutent. Par ailleurs on vérifie aisément que les propriétés d’anticommutativité du crochet ainsi que l’identité de Jacobi sont automatiquement satisfaites. Les ensembles de matrices M(n, ) et M(n, ) sont donc automatiquement des algèbres de Lie.

Constantes de structure d’une algèbre de Lie 𝔤

Supposons que 𝔤, en tant qu’espace vectoriel sur le corps des complexes soit de dimension finie n et soit {Xα}α∈{1n} une base de 𝔤. Le crochet de Lie [Xα,Xβ] de deux vecteurs de base est a priori un élément de 𝔤 et peut donc se développer sur la base choisie :

             γ
[X α,X β] = C αβX γ
Les n3 nombres C αβγ sont les constantes de structure de 𝔤 par rapport à la base choisie.

Application exponentielle dans M(n, )

On désigne par exp : α p=0αp∕p! l’application exponentielle définie sur M(n, ). Posons g = eA. Il est facile de voir que

        T rA
detg = e
Cette relation est évidente si A est diagonalisable (puisque eλ1eλp = eλ1++λp). Si ce n’est pas le cas, on utilise pour démontrer cette propriété générale le fait que l’ensemble des matrices diagonalisables sur est dense. Cette relation est à la base d’une quantité de résultats dont voici le premier : si A M(n, ), alors g = eA GL(n, ) ; en effet, detg n’est jamais nul puisque la fonction z ez ne s’annule pas.

ATTENTION : On n’a pas dit que tout élément de GL(n, ) pouvait être atteint par la fonction exp (c’est faux !).

Cas des groupes de matrices : Correspondance entre groupes et algèbres de Lie

Soit G un groupe de Lie défini comme sous-ensemble de M(n, ). On définit son algèbre de Lie notée 𝔤 ou LieG comme suit,

                                 tA
LieG  = {A ∈  Mn (ℂ) | ∀t ∈ ℝ,  e  ∈ G }
De façon un peu imagée, on peut dire que l’algèbre de Lie d’un groupe G, c’est son logarithme ! De fait, l’utilisation de l’algèbre de Lie de G permet de linéariser les propriétés des groupes, c’est à dire de transformer les multiplications en additions etc .

La définition ci-dessus de l’algèbre de Lie d’un groupe G semble un peu restrictive en ce sens qu’elle semble ne pouvoir s’appliquer qu’aux groupes de matrices, mais il existe une définition plus abstraite de la notion d’algèbre de Lie d’un groupe de Lie, définition ne faisant pas l’hypothèse d’une réalisation matricielle ; nous y reviendrons plus loin.

Soient g et h deux éléments de G et supposons qu’on puisse écrire g = etA et h = etB avec A,B 𝔤. Tout d’abord, notons que g-1 = e-tA. On peut alors considérer le commutateur de g et h au sens de la théorie des groupes, c’est à dire l’élément c = ghg-1h-1 de G. Au second ordre en t, il vient

     tA tB -tA - tB
c = e  e  e   e
  = (1 + tA + t2A2∕2! + ...)(1 + tB +  t2B2 ∕2! + ...)
                      2 2                    2  2
           (1 - tA + t A ∕2! + ...)(1 - tB +  tB  ∕2! + ...)
  = 1 + 0t + t2[A, B ] + O (t3)
Il ne faudrait pas trop hâtivement en déduire que le commutateur dans G est égal à l’exponentielle du commutateur dans LieG, mais c’est “presque” vrai, comme on vient de le voir (c  ~
t→0 1 + t2[A,B]). De plus, on peut démontrer que
 t2[A,B]         tA∕n tB ∕n -tA∕n -tB ∕n n2
e      = nli→m∞(e    e    e     e     )
C’est à l’aide de ces relations qu’on peut s’assurer que l’algèbre de Lie d’un groupe de Lie est bien une algèbre de Lie (l’ensemble est bien stable par le commutateur).

Soit g G et supposons qu’on puisse écrire g = eA ; alors, en utilisant la structure d’espace vectoriel de LieG, on voit qu’on peut décomposer A sur une base {Xα} ;ainsi, A = aαX α. Les n nombres aα permettent donc de définir sur G un système de coordonnées (une carte). Ceci montre également que la dimension de G, en tant que variété, est égale à celle de LieG, considéré comme espace vectoriel.

2.2.2 Correspondance entre groupes et algèbres de Lie

Algèbres de Lie des groupes classiques

Notons d’abord que, pour les groupes unitaires,

 A               A A†                †
e  ∈ U (n) ⇐ ⇒  e e   = 1 ⇐ ⇒  A + A  =  0
ainsi la matrice A est anti-hermitienne.

Nous avons déjà rencontré la relation deteA = eTrA ; il s’ensuit que, si le déterminant de g = eA est égal à 1, la trace de A est nulle. Ainsi,

  A                     †
e  ∈  SU (n) ⇐⇒  [A + A   = 0 et T rA = 0]
Dans le cas des groupes orthogonaux, la définition implique immédiatement
                     t
eA ∈ O (n) ⇐ ⇒ [eAeA  = 1 et A r´eel] ⇐ ⇒ [A  + At = 0 et A r´eel]
Les matrices A de l’algèbre correspondante sont donc antisymétriques réelles, ce qui, en particulier, implique la nullité des éléments de matrice diagonaux et donc de la trace ; mais le seul fait que trA = 0 implique deteA = 1 et donc eA SO(n). Y aurait-il une contradiction ? Comment donc obtenir une matrice orthogonale de déterminant différent de 1 ? Il est pourtant bien évident que la définition de O(n) est différente de celle de SO(n) ! La seule conclusion possible est la suivante : les éléments de O(n) qui ne sont pas dans SO(n) ne sont pas atteints par la fonction exp (voir la remarque à la fin du présent paragraphe).

Pour calculer la dimension des groupes de Lie, le plus simple est en général de calculer la dimension des algèbres de Lie correspondantes. Voici un exemple que lecteur pourra généraliser sans peine : “Fabriquons” une matrice carrée antihermitienne. Une matrice n × n dépend, a priori, de n2 paramètres complexes ; nous enlevons d’abord la diagonale (donc il reste n2 - n paramètres), puis nous fabriquons une matrice triangulaire inférieure stricte (donc (n2 - n)2 paramètres) ; la partie triangulaire supérieure est alors complètement déterminée par la condition d’anti-hermiticité ; finalement, cette même condition implique que les éléments diagonaux sont imaginaires purs : il nous faut donc rajouter n paramètres réels. Au total, on a donc 2(n2 - n)2 + n = n2paramètres réels. Ainsi donc dimRU(n) = dimRLieU(n) = n2.

Le lecteur pourra sans doute ainsi retrouver sans difficulté la dimension des algèbres de Lie suivantes. Remarque : La notation Sp(n) utilisée ci-dessous désigne le groupe unitaire-quaternionique (voir “remarques diverses” en fin de section 2 concernant les groupes symplectiques) ; les matrices de l’algèbre de Lie correspondante sont du type (         )
   A    B
  - B† - ^A avec A = -A et B^ = B.

G LieG dimG



GL(n, ) M(n, ) 2n2
GL(n, ) M(n, ) n2
U(n) Matrices anti-hermitiennes n2
SU(n) Matrices anti-hermitiennes de trace nulle n2 - 1
SO(n) Matrices antisymétriques réelles n(n- 1)
--2---
Sp(n) Voir ci-dessus 2n(2n2+1)

Remarques

Isomorphisme local : comparaison entre SU(2) et SO(3)

Nous avons déjà vu (dans le cas du groupe orthogonal O(n)) que les éléments d’un groupe n’appartenant pas à la composante connexe de l’identité ne pouvaient pas être atteints par la fonction exponentielle. Pour cette raison, nous supposerons que tous les groupes de Lie considérés dans la présente sous-section sont connexes (cas de SO(n)). Nous nous intéressons en effet ici à des phénomènes plus fins que la connexité.

2.2.3 Classification des groupes et algèbres de Lie. Généralités.

Un peu de terminologie

On a bien entendu une terminologie analogue au niveau des groupes.

Idées fondamentales de la classification

Remarques diverses

2.2.4 Message

Un tout dernier mot : passer en revue “l’essentiel” de la théorie des groupes de Lie en une seule section – même en se limitant aux généralités et aux problèmes de classification – est certainement une tâche impossible. Un ouvrage entier serait d’ailleurs insuffisant. Nous n’avons fait qu’aborder le sujet. Vouloir dresser la liste de ce qui n’a pas été effleuré serait à la fois inutile et incomplet ! Voici donc le message le plus important destiné à notre lecteur néophyte : La section qui s’achève ici ne doit pas être considérée comme un résumé, mais comme une invitation au voyage

2.3 Actions de groupes et représentations

2.3.1 Généralités

L’étude des groupes pour eux-mêmes ne devrait pas nous faire oublier un fait essentiel : un groupe sert surtout à agir sur “quelque chose”. Historiquement, d’ailleurs, on définissait le plus souvent les groupes comme “groupes de transformations”, pour s’apercevoir, après coup, du fait que deux groupes de transformations pouvant sembler très différents de prime abord, ne constituaient, en fait, qu’un seul et même groupe “abstrait”, agissant de deux façons différentes sur deux espaces différents. Pour préciser cette notion d’action ainsi que pour décrire la façon dont un groupe G agit sur un ensemble M, il est utile d’introduire un vocabulaire approprié.

2.3.2 Groupe G opérant à gauche sur un ensemble E

A tout élément g de G et à tout élément x (on dira “point”) de E, on associe un point y de E qu’on appelera image de x par la transformation g. On écrira

y = gx
On veut que (g1g2)x = g1(g2x) afin de pouvoir oublier les parenthèses. Plus précisément, une action (à gauche) de G sur E est la donnée d’un homomorphisme L du groupe G dans le groupe des substitutions de E (l’ensemble des bijections de E dans E). L’image de g G est noté Lg. L’application Lg est donc une bijection de E dans lui-même. Puisque L est un homomorphisme, on a Lg1g2 = Lg1Lg2. Par abus de langage, il est d’usage de noter y = gx au lieu de y = Lg(x). Le lecteur aura compris que le symbole L vient de Left.

Pour définir une action quelconque, nous avons simplement supposé que Lg était une bijection, mais on peut contraindre davantage la situation en imposant à Lg d’être un homéomorphisme (E étant alors supposé muni d’une topologie), un difféomorphisme (E étant une variété différentiable), etc . On parle alors d’action continue, différentiable, etc .

2.3.3 Action à droite (anti-action)

On dit que G agit à droite sur E si on se donne un anti-homomorphisme R de G dans l’ensemble des substitutions de E. En d’autres termes, on remplace la condition Lg1g2 = Lg1Lg2 par la condition Rg1g2 = Rg2Rg1. Une action à droite n’est donc pas une action, au sens strict du terme, mais une anti-action. De façon à pouvoir se débarrasser du symbole R, mis pour Right, on notera y = xg au lieu de y = Rg(x). L’écriture de g, à droite de x permet de composer correctement les transformations sans qu’il y ait besoin de parenthèses : Rg1g2(x) = Rg2Rg1(x) implique en effet x(g1g2) = (xg1)g2.

2.3.4 Passage de la droite à la gauche (et inversement)

Supposons donnée une action à droite R de G sur E ; on peut canoniquement lui associer une action à gauche L en définissant Lgx = Rg-1x ; c’est à dire encore, avec des notations plus dépouillées, gx = xg-1. On peut ainsi toujours passer de la droite à la gauche et inversement. Cela dit, il est, quelquefois, dangereux d’effectuer ce passage sans notations protectrices En effet, prenons par exemple E = G lui-même ; on n’a alors certainement pas g.k = k.g-1 dans le groupe G ! Une telle expression devrait donc s’écrire g × k = k.g-1 et s’interpréterait, non comme une égalité dans G mais comme une expression définissant, à partir de la multiplication “.” une nouvelle multiplication “×” (qu’on appelle dailleurs la “multiplication opposée”).

2.3.5 Orbites, espace quotient

2.3.6 Efficacité

2.3.7 Liberté et stabilisateur

2.3.8 Transitivité

L’action de G sur E est dite transitive s’il n’existe qu’une seule orbite, en d’autres termes, s’il est possible de passer de n’importe quel point de E à n’importe quel autre point à l’aide d’un élément de G.

2.3.9 Action d’un sous-groupe H sur un groupe G, normalisateur, centralisateur

2.3.10 Stratification

Dans toute cette sous-section on considère un groupe G agissant sur E de façon fidèle.

2.3.11 Remarques

Afin de se familiariser avec les concepts qui précèdent ainsi qu’avec la terminologie correspondante, nous suggérons très fortement au lecteur de revoir toute la géométrie élémentaire (celle étudiée dans les classes secondaires) en ces termes, c’est à dire en utilisant l’action des groupes de translations, rotations, homothéties, etc . Il pourra être également extrêmement utile de revoir la cinématique classique (puis la cinématique relativiste) sous cet angle, en étudiant l’action du groupe Euclidien, celle du groupe de Galilée, du groupe de Lorentz etc .

2.4 Champs de vecteurs fondamentaux

2.4.1 Cas d’un groupe de Lie agissant sur une variété

2.4.2 Exemple : le groupe euclidien agissant sur le plan 2

Le groupe euclidien E(2) agit sur le plan affine M = 2 par composition de translations et de rotations autour de l’origine (c’est un produit semi-direct du groupe des rotations U(1) par le groupe des translations 2). Une carte (qui est d’ailleurs globale) de 2 est définie par les coordonnées (x,y) relatives à un repère du plan. L’action du groupe euclidien s’écrit

         (  )    (  ′                     )
(θ,a, b) ⋅ x  =   x ′= x cosθ - y sin θ + a
           y       y = x sin θ + y cosθ + b
Noter qu’un élément g du groupe euclidien peut s’écrire à l’aide de la carte g (θ,a,b) 3 ; G est un groupe de Lie de dimension 3. La différentielle de l’application
                           (  ′)
g = (θ,a,b) L↦-P→  gP =  P ′ =  x
                             y′
s’écrit
               (   ′       ′      ′   )
[dLP ]g= (θ,a,b) =   ∂x′∕∂θ ∂x ∕′∂a  ∂x′∕∂b
                 ∂y ∕∂θ ∂y ∕∂a  ∂y ∕∂b
En prenant g = e = (0, 0, 0), il vient [dLP ]e = (        )
   y  1 0
  - x 0 1 . Grâce à l’utilisation de quelques abus de notations évidents, nous voyons que

2.4.3 Un cas particulier fondamental : le groupe G agissant sur lui-même par translations à gauche et à droite

A titre d’exercice (ou d’illustration), vérifions ces propriétés générales dans le cadre de SL(2, ).

Les générateurs (représentation fondamentale) sont donnés par

X+ = (  0 1 )

   0 0 ,X- = ( 0 0)

  1 0 ,X3 = ( 1  0 )

  0 - 1

les actions à droite et à gauche sont données par :

X+(    )
  a b
  c d = (    )
  c d
  0 0 , (    )
  a b
  c dX+ = (    )
  0 a
  0 c
X-(    )
  a b
  c d = (    )
  0 0
  a b , (    )
  a b
  c dX- = (    )
  b 0
  d 0
X3( a b)

  c d = (  a  b )

  - c - d,( a b)

  c dX3 = ( a - b)

  c - d

Notez que les générateurs X± et X3 agissent par dérivations. En effet, les actions classiques (droite et gauche) ci-dessus peuvent aussi être écrites à l’aide des opérateurs différentiels suivants :

X+L = c _ ∂a + d _ ∂b , X+R = a _ ∂b + c _ ∂d
X-L = a _ ∂c + b _ ∂d , X-R = b _ ∂a + d _ ∂c
X3L = a _ ∂a + b _ ∂b - c _ ∂c - d _ ∂d,X3R = a _ ∂a - b _ ∂b + c _ ∂c - d _ ∂d

Il est alors facile de vérifier explicitement que, par exemple,

[X  ,X  ] = +2X   ,  [X R ,X R] = +2X  R, [X L,X L ] = - 2X R
-3- -+-       +--   --3  --+       --+   --3 --+       --+

2.4.4 L’action adjointe de G

Le groupe G agit sur lui-même par multiplications à droite et à gauche, comme nous l’avons vu plus haut, mais également par l’application adjointe. Soit g un élément de G, on définit :

Adg  :   k ∈ G →  Adg (k ) = gkg-1 ∈ G
Cette action n’est pas fidèle en général car les éléments du centre C n’agissent pas. Le groupe G|C qu’on désigne sous le nom de groupe adjoint ou groupe des automorphismes intérieurs agit, bien sur, de façon fidèle. L’application tangente à Adg, au point k, envoie T(G,k) dans T(G,gkg-1). Si on prend alors k = e (l’élément neutre), on voit que l’application tangente, notée adg = (d(Adg))k=e envoie T(G,e) dans T(G,gg-1 = e), c’est à dire Lie(G) dans Lie(G). Posant k(t) = etX, on voit que ad g(X) = d dt(getXg-1) |t=0 et donc
ad (X ) = gXg -1
  g

2.4.5 Exemple : l’algèbre de Lie du groupe euclidien

Nous avons déjà fait agir le groupe euclidien G (éléments g = (θ,a,b)) sur l’espace affine 2. Nous allons maintenant faire agir G sur lui-même, à droite.

Soit P G. On considère l’application

(               )
     RP
  G ↦- →  M  = G
  g ↦-→  Q  = P g
ce qui, avec des coordonnées, s’écrit
(θQ,aQ, bQ ) = (θP,aP, bP )(θg,ag,bg)
soit, explicitement

( θ)     ( 1    0     0  θ )  ( θ )
|  |     |                 |  |   |
| a|   = | 0  cosθ  sinθ a |  | a |
( b)     ( 0 - sinθ cos θ b)  ( b )
  1  Q     0    0     0  1   P  1   g
La différentielle de RP , c’est à direl’application tangente est égale à
        ( ∂θQ ∂θQ ∂θQ )
          ∂θg ∂ag -∂bg
dRP  =  |( ∂aQg-∂aQg-∂aQg-|)
          ∂∂θbQ ∂∂abQ ∂∂bbQ
          ∂θg ∂ag  ∂bg
On choisit, comme base de T(G,e) la base Xθ(e) = ∂-
∂θ, Xa(e) = ∂-
∂a, Xb(e) = ∂-
∂b.

On calcule dRP (  )
  1
( 0)

  0 = (  )
  1
( 0)

  0 , dRP (   )
  0
( 1 )

  0 = (        )
     0
(  cos θ )

  -  sin θ , dRP (  )
  0
( 0)

  1 = (     )
    0
( sinθ)

  cosθ .

La base correspondante de LieG ΓG(TG) est donc

X θ(P ) = ∂-,Xa (P ) = cosθ-∂- - sin θ-∂-etXb(P ) = sin θ-∂-+  cosθ-∂-
          ∂θ               ∂a        ∂b                ∂a        ∂b

Nous laissons au lecteur le soin de vérifier les relations de commutation

[X θ,Xa ] = - Xb,     [Xθ,Xb ] = +Xa       et     [Xa, Xb ] = 0

2.4.6 Exemple : champs invariants sur SU(2)

Le groupe SU(2) est difféomorphe à la sphère S3. Pour le voir, il suffit d’écrire un élément g de SU(2) comme une matrice (        )
   α   β
  - β * α * , obéissant à la condition g = g-1. Alors, detgg = 1, c’est à dire

   2         2        2         2
Re (α ) + Im (α ) + Re (β) + Im  (β) = 1
On obtient ainsi l’équation cartésienne d’une 3-sphère. On peut donc se représenter visuellement SU(2) comme une sphère dotée d’une structure multiplicative (non commutative d’ailleurs). Attention, il ne faudrait pas se laisser abuser par cet exemple : seules les sphères S0 = 2, S1 = U(1) et S3 = SU(2) sont des groupes (et S7 est “presque” un groupe). Ces particularités des dimensions 0, 1, 3, 7 sont liées à l’existence des algèbres de division suivantes : les corps (les réels), (les complexes), (les quaternions) et les octaves de Cayley (octonions) O.

Revenons à la sphère S3 qu’on peut donc identifier avec le groupe de Lie SU(2). Posons Xi = i∕2σi, où les σi sont les matrices de Pauli (section 2.2.2). On peut paramétriser un point quelconque g par trois angles d’Euler ψ,θ,ϕ en écrivant

g = R3 (ψ)R1 (θ )R3 (ϕ),  0 < ψ  ≤ 4π,0 <  θ ≤ π,0 ≤ ϕ ≤  2π
Ri(x) = exp(tXi) est une rotation d’angle x autour de l’axe i. On considère, dans SU(2) les courbes obtenues par translation à droite, Di(t) = gRi(t) et nous notons XiR(g) les champs fondamentaux à droite correspondants (les champs invariants à gauche). En terme du repère naturel associé aux coordonnées d’Euler, on obtient le repère mobile :
(     )      (  ∂ )
  XR1           ∂θ-
( XR2 ) =  N ( ∂∂ψ-)
  XR           -∂
    3          ∂ϕ
avec
     (        sinϕ-            )
       cosϕ   sinθ  - sin ϕ cotθ
N  = ( sinϕ  - csionsθϕ cosϕ cotθ )
         0     0        1
Les relations de commutation s’écrivent
[XR1 ,XR2 ] = - XR3  etc
Le corepère mobile correspondant {XiR} (le dual du repère mobile {X iR}) est donné par
   1R    2R   3R                 -1
(X   ,X   ,X   ) = (dθ,dψ, dϕ)N

On peut aussi considérer les courbes Gi(t) = Ri(t)g obtenues par translation à gauche. L’expression des champs de vecteurs invariants à droite XiL (et des formes correspondantes XiL) s’exprime à l’aide des formules précédentes en interchangeant simplement partout les coordonnées ϕ et ψ. Les relations de commutation s’écrivent alors

[XL1 ,XL2 ] = +XL3   etc
et on vérifie que
[XRi ,XLj ] = 0

2.4.7 Une remarque sur les constantes de structure

Soit G un groupe de Lie et choisissons une base Xα dans son algèbre de Lie, ensemble que nous identifions, en tant qu’espace vectoriel, avec l’espace tangent T(G,e). Les vecteurs Xα déterminent, comme nous l’avons vu, des champs de vecteurs invariants à gauche Xα(). L’espace de ces champs de vecteurs étant, comme on le sait, de dimension finie et étant lui-même identifiable à l’algèbre de Lie de G, on peut écrire, en tout point P de G,

[X α(⋅),X β(⋅)](P) = fαγβ(P )X γ(P)
On voit qu’on a ainsi obtenu un repère mobile global (les {Xα(P)}) pour lequel les fonctions de structure sont les fαβγ(P). En fait, ces f αβγ(P) sont des constantes : elles ne dépendent pas de P G. Ceci résulte du fait que le commutateur de deux champs invariants à gauche est lui-même un champ invariant à gauche.

Rappelons que, pour une variété différentiable quelconque, les fonctions de structure d’un repère mobile dépendent généralement du point où elles sont évaluées ; par contre, on voit ici que, lorsque cette variété est un groupe de Lie et que le repère mobile choisi est un champ de vecteurs invariant à gauche, ces fonctions de structure fαβγ sont des constantes de structure : elles ne dépendent que de la base choisie dans T(G,e) et non du point P où elles sont calculées.

En utilisant des champs invariants à droite, on pourrait mener une discussion analogue, c’est à dire, en particulier, associer à toute base {Xα} de T(G,e) un repère mobile global constitué de champs invariants à droite XL(g) = Xg et obtenir des constantes de structure gαβγ = -f αβγ.

2.4.8 La forme de Maurer-Cartan

2.5 Action d’un groupe sur un espace vectoriel : la théorie des représentations

Une représentation L d’un groupe G dans un espace vectoriel E (sur le corps K) est un cas particulier de la notion d’action. L’espace E n’étant pas quelconque mais doté d’une structure d’espace vectoriel, on impose à l’action Lg d’être linéaire. En d’autres termes, à tout élément g de G, on associe un automorphisme Lg de E (une transformation linéaire bijective de E sur lui-même). Si E est de dimension finie p, moyennant un choix de bases, on peut écrire l’automorphisme Lg à l’aide d’une matrice inversible p × p encore désignée par Lg. On peut donc définir une représentation L comme un homomorphisme du groupe G dans le groupe GL(p,K). On dit qu’une représentation est fidèle lorsque l’homomorphisme L ci-dessus est injectif.

La théorie des représentations est un chapitre essentiel de la théorie des groupes et est également d’une importance capitale dans pratiquement toutes les branches de la physique. Les différents aspects de la théorie des représentations ne seront pas étudiés dans cet ouvrage.

2.6 Espaces homogènes

Soit G un groupe et H un sous-groupe. On définit la relation d’équivalence g1 ~ g2 si et seulement si g1 g2H. L’ensemble des classes d’équivalence, c’est à dire l’ensemble quotient G∕ ~ se note G∕H. On dit que cet ensemble est un espace homogène pour le groupe G. Le vocable “homogène” vient du fait que les propriétés algébriques de G∕H sont les mêmes en tous ses points puisqu’on peut passer de l’un à l’autre par action de G.

On démontre, lorsque G est topologique, que H doit être fermé pour que le quotient ait une topologie séparée (propriété de Haussdorf). C’est toujours ce que nous supposerons.

Lorsque G est un groupe de Lie et H un sous groupe de Lie, G∕H est une variété différentiable. Les espaces homogènes fournissent donc une quantité d’exemples intéressants de variétés. Ce sont les variétés les plus “simples” qui soient (les groupes de Lie eux-mêmes étant des cas particuliers d’espaces homogènes). Nous aurons de nombreuses fois l’occasion d’y revenir lors de notre étude des espaces fibrés. Attention, une variété donnée peut parfois s’écrire de diverses façons comme espace homogène de groupes de Lie. En d’autres termes, deux quotients G1∕H1 et G2∕H2 peuvent très bien être difféomorphes, même si G1G2 (par exemple SU(3)∕SU(2) et SO(6)∕SO(5) sont tous deux difféomorphes à la sphère S5). Ainsi, deux groupes différents peuvent agir transitivement sur le même espace.

Les résultats concernant la théorie des espaces homogènes (en particulier tout ce qui concerne les espaces symétriques) sont d’un usage constant dans de nombreuses branches des mathématiques et de la physique théorique. Là encore, comme pour la théorie des représentations, que nous n’avons fait que mentionner nous conseillons vivement au lecteur de se cultiver sur le sujet en consultant les ouvrages appropriés.

2.7 Algèbres de Clifford et groupes Spin

2.7.1 Définitions générales

Bien connaître la structure des algèbres de Clifford est une chose essentielle, aussi bien pour les géomètres que pour les physiciens des particules, ou plus généralement pour les physiciens théoriciens. Cette section est bien trop courte pour couvrir tous leurs aspects. Nous nous contenterons de donner leur définition, de discuter leur structure générale, et de montrer comment se servir de ces algèbres pour obtenir une description explicite des groupes Spin.

L’algèbre de Clifford réelle C(p,q) est l’algèbre associative unitaire engendrée sur par n = p + q symboles γμ soumis aux relations (γμ)2 = 1 pour μ ∈{1, 2,,p}, (γν)2 = -1 pour ν ∈{p + 1,p + 2,,p + q}, et

γμγ ν + γ νγμ = 0
quand μν.

Il est utile d’introduire une matrice diagonale η = diag(11,-1, - 1) et d’écrire les relations précédentes à l’aide d’un anticommutateur ({,}) sous la forme {γμν,} = 2ημν

Soit E un espace vectoriel de dimension n sur muni d’un produit scalaire non dégénérée g (la métrique), de signature (p,q). Soit {eμ} une base orthonormée et {eμ} la base duale. On a encore une métrique de composantes gμν sur le dual. On peut associer, à tout vecteur v = vμeμ du dual, un élément Cliff(v) = vμγμ de l’algèbre de Clifford C(p,q). Abus de notations : Nous noterons v = Cliff(v). Les physiciens des particules utilisent en général la notation “slash” de Feynmann. De cette façon nous obtenons la relation uv + vu = 2g(u,v) pour tout couple de vecteurs du dual.

Une base vectorielle de C(p,q) peut être choisie comme suit :

{1,γ μ,γμγν,γ μγνγρ,...}
avec μ < ν < ρ < . La dimension (réelle) de C(p,q) est donc
    n     n          n
1 + (1) + (2) + ...= 2

L’adjectif réel est important : Par exemple, en dimension (3, 1), l’élément γ5 = 0γ1γ2γ3 n’est pas un élément de C(p,q) mais un élément de l’algèbre complexifiée C = C(p,q) .

L’algèbre C(p,q) n’est généralement pas isomorphe à C(q,p). Il faut se rappeler que (p,q) = (p+,q-).

Puisque l’algèbre de Clifford C = C(p,q) et l’algèbre extérieure Λ(E) ont même dimension, ils sont isomorphes en tant qu’espaces vectoriels. La correspondance entre les deux lois d’algèbre est la suivante : pour u,v E*, on peut directement définir le produit de Clifford uv = u v + g(u,v).

Soit C0 la partie paire de C, c’est à dire la sous-algèbre linéairement engendrée par les produits d’un nombre pair de générateurs γ.

Soit

|-----0-1-----n-|
-ϵ-=-γ-γ--...γ--|
l’opérateur d’orientation. On doit choisir un ordre sur les générateurs. La définition de ϵ n’est pas ambiguŒ si on a choisi une orientation de E (sinon, il n’est défini qu’au signe près).

Soit Z le centre de C et Z0 le centre de C0.

2.7.2 Le groupe Spin

Le groupe des rotations O(n) possède, comme nous l’avons vu, deux composantes connexes, mais lorsqu’on autorise une signature pseudo-euclidienne (p,q), le groupe des rotations correspondant, noté L = O(p,q) en possède en général quatre.

L =  L↑+ ∪ L ↓+ ∪ L↑- ∪ L↓-
Le signe ± fait référence au signe du déterminant (transformations qui changent, ou non, l’orientation totale) et le signe ou fait référence aux transformations qui changent, ou non, l’orientation temporelle. On dit généralement, pour une signature (p,q), que la métrique possède min(p,q) dimensions de temps et max(p,q) dimensions d’espace. On considère les groupes et sous-groupes suivants
L = O (p,q),  SO  (p,q) = L↑ ∪ L ↓,  SO ↑(p,q) = L ↑
                           +     -                 +

Aucune des composantes connexes de L n’est simplement connexe. Il est donc naturel de considérer, pour chacun des groupes mentionné leur groupe de recouvrement universel. On note Pin, Spin et Spin les groupes simplement connexes correspondant à O, SO et SO.

Le groupe de Clifford Γ est défini comme l’ensemble de tous les éléments s de l’algèbre de Clifford C = C(p,q) qui sont inversibles et satisfont à la propriété :

           - 1
∀x ∈ E, sxs   ∈ E
E désigne ici l’espace vectoriel (pseudo) euclidien, de signature (p,q) auquel l’algèbre C est associée. Attention, l’algèbre de Clifford, comme toute algèbre associative, est stable par le crochet de Lie défini comme le commutateur, C est donc aussi une algèbre de Lie mais cette algèbre de Lie n’est pas (n’est jamais) l’algèbre de Lie du groupe de Clifford. Il est évident que tout élément inversible de E appartient au groupe de Clifford (on plonge E dans C en associant à v = vμeμ l’élément v = v μγμ). En effet
         1        1
vxv- 1 = -2vxv =  -2(- vvx + 2g (v, x)) = - x + 2g (v,x)v∕v2
         v        v
La transformation x↦→vxv-1 est donc l’opposée de la symétrie par rapport à l’hyperplan conjugué à v. Plus généralement, pour s Γ, la transformation
χ (s) : x ∈ E → sxs- 1
appartient au groupe orthogonal O(p,q) en vertu d’une propriété élémentaire connue disant que les groupes de rotations peuvent être engendrés par produit de symétries par rapport à des hyperplans.

L’application χ définit manifestement une représentation du groupe de Clifford, mais cette représentation n’est pas fidèle puisque s et 3s, par exemple, déterminent la même rotation. On va obtenir le groupe Spin à partir du groupe de Clifford en introduisant une condition de normalisation. Notons tout d’abord avec une “barre”, placée au dessus d’un symbole, l’involution principale de C, définie par γμ = γμ, c’est à dire

----------
γ1γ2...γp =  γp...γ2γ1
On voit que
                 --
s ∈ Γ →  N (s) = ss ∈ ℝ
On définit alors
P in =  {s ∈ Γ tels que |N (s)| = 1}
Spin = P in ∩ C0
Spin ↑ = {s ∈ Spintels queN (s) = 1}
La représentation χ du groupe de Clifford est encore une représentation des groupes ci-dessus. Le lecteur pourra se convaincre du fait que
                                 ↑
χ(Spin ) = L+   et  χ(Spin ↑) = L+
Plus précisément, tout élément de Pin peut s’écrire comme un produit u1u2uk où les ui sont des (co)-vecteurs de E :
          --                   ↑
  kpair etss > 0 ⇐ ⇒  χ (s) ∈ L +
  kpair etss < 0 ⇐ ⇒  χ (s) ∈ L ↓
          --                   +↑
kimpair etss > 0 ⇐ ⇒  χ (s) ∈ L -
kimpair etss < 0 ⇐ ⇒  χ (s) ∈ L ↓
                               -
Par ailleurs, si s Spin, alors -s Spin, et χ(s) = χ(-s). En fait Ker(χ) = {-1, +1} ce qui montre que Spin recouvre bien L + avec un noyau 2.

On peut non seulement décrire le groupe Spin(p,q) comme un sous ensemble de l’algèbre de Clifford C(p,q) mais aussi l’algèbre de Lie correspondante. Soient x,y,z E, alors [xy,z] E. En effet, [xy,z] = xyz -zxy = 2(xg(y,z) -g(x,z)y). En développant l’exponentielle, on obtient ainsi exp(txy)zexp(-txy) E, donc exp(txy) appartient au groupe de Clifford et xy appartient à l’algèbre de Lie du groupe de Clifford. On peut aussi, en développant l’exponentielle, montrer que exp(s) = exp(s).

Ces remarques montrent que l’algèbre de Lie du groupe de Clifford est engendrée par 1 et les produits xy lorsque x,y E. Cette algèbre de Lie est un peut trop “grosse”, celle de Spin est plus intéressante. En effet, soient x et y deux (co)-vecteurs, alors

                ↑
exp (xy) ∈ Spin  ⇔  N (exp(xy )) = 1
                 ⇔  exp (xy )exp(xy) = 1
                 ⇔  exp (yx +  xy) = 1 ⇔  xy + yx = 0

                 ⇔  g(x,y ) = 0
Ainsi, z C(p,q) appartient à Lie(Spin) si et seulement si il peut être écrit comme une combinaison linéaire de produits xy x et y sont orthogonaux, c’est à dire par les produits γμγν. On retrouve bien le fait que dim(Lie(Spin(p,q)))|n=p+q = n(n - 1)2.

Exemple. Prenons (p = 3,q = 1). Le groupe des rotations correspondant est le groupe de Lorentz de la physique relativiste. Soit β un réel quelconque. Alors β 2 γ0γ1 Lie(Spin) et s = exp(β 2 γ0γ1) Spin. Un calcul facile (développer l’exponentielle) montre alors que

s = cosh β-+ γ0γ1 sinh  β-
         2             2
et que
  0 -1     0          1
sγ s   = γ  cosh β + γ sinh β
sγ1s-1 = γ0 sinh β + γ1 cosh β
  i -1     i
sγ s   = γ pouri =  2,3
Notons que s peut s’écrire aussi
     0    0     β-    1     β-
s = γ (- γ cosh 2 +  γ sinh 2)

Ceci montre donc que la transformation de Lorentz χ(s) est un “boost” (rotation hyperbolique) le long de l’axe des x. Plus généralement, si

|-------------------|
|        β 0 -→  -→   |
s-=-exp-(2γ-(-v .γ-))
χ(s) désigne un boost de paramètre β le long de la direction -→
v et si
|---------------|
s = exp (θ-→n .-→γ )|
---------2-------
χ(s) désigne une rotation d’angle θ autour de la direction -→
n avec (|n|2 = 1). Notons pour finir que Spin(p,q) C0(p,q) = C0(q,p), mais que C(p,q)C(q,p) en général. L’inclusion est évidente au vu de la définition du groupe Spin. Les égalités (ou inégalités) entre ces ensembles résultent de l’étude générale qui suit.

2.7.3 Structure des algèbres de Clifford réelles

Pour voir si C ou C0 sont des algèbres simples, il faut voir si on peut, ou non, fabriquer un projecteur non trivial P (P2 = P) qui commute avec C (ou C0). Un tel projecteur peut, dans certains cas, se fabriquer à l’aide de ϵ.

La discussion est très différente suivant que la dimension n est paire ou impaire (ϵ appartiendra, suivant les cas, au centre de C, ou seulement au centre de C0).

Cas n = p + q pair

Dans ce cas, l’opérateur d’orientation ϵ commute avec les éléments pairs de C mais anticommute avec les éléments impairs (démonstration immédiate en utilisant les relations de commutation des générateurs γμ). Le centre de C 0 est en fait engendré, dans ce cas par 1 et par ϵ.

La discussion dépend alors du carré de ϵ. Si ϵ2 = 1 on peut fabriquer deux projecteurs PR = 1+ϵ 2 et PL = 1-ϵ 2 permettant de “couper” la sous-algèbre C0 en deux composantes simples (on voit immédiatement que PL2 = P L et PR2 = P R).

La discussion peut se résumer comme suit :

C est une algèbre simple pour n pair.

                       2
   C0 est simple   ⇔  ϵ =  - 1 ⇔ p - q = 2 mod4  ⇔  Z0 ~ ℂ
C0n ’est pas simple  ⇔  ϵ2 = +1 ⇔  p - q = 0 mod4  ⇔  Z0 ~ ℝ  ⊕ ℝ

                         dans ce dernier cas  C0 = PLC0  ⊕ PRC0

Remarque : dans le cas de l’algèbre de Dirac (nom donné à l’algèbre de Clifford dans le cas (p = 3,q = 1)), ϵ2 = -1. La sous algèbre paire C 0 est simple. Pour pouvoir la casser en deux, il faut introduire le nombre complexe i et fabriquer un projecteur (1 ± γ5)2 à l’aide de γ5 = iϵ, mais cela ne peut évidemment se faire qu’en autorisant des coefficients complexes, c’est à dire en complexifiant l’algèbre C.

Cas n = p + q impair

Dans ce cas, l’opérateur d’orientation ϵ commute avec les éléments impairs de C et commute aussi avec les éléments impairs (démonstration immédiate en utilisant les relations de commutation des générateurs γμ). Le centre de C est en fait engendré, dans ce cas par 1 et par ϵ.

La discussion dépend encore alors, comme précédemment du carré de ϵ. Si ϵ2 = 1 on peut fabriquer deux projecteurs 1+ϵ 2 et 1-ϵ 2 permettant de “couper” l’algèbre de Clifford C en deux composantes simples.

La discussion peut se résumer comme suit :

C0 est une algèbre simple.

                      2
   Cest simple    ⇔  ϵ  = - 1 ⇔ p - q = 3 mod4  ⇔  Z  ~ ℂ
Cn ’est pas simple ⇔ ϵ2 = +1 ⇔  p - q = 1 mod4  ⇔  Z ~  ℝ ⊕ ℝ
                                                  1 - ϵ     1 - ϵ
                        dans  ce dernier cas C  = -----C ⊕  -----C
                                                    2         2

De plus, C = C0 C0ϵ.

Structure des algèbres de Clifford réelles et périodicité modulo 8

La discussion qui précède pourrait laisser croire que la structure des algèbres de Clifford sur dépend de (p - q) modulo 4. En fait une analyse plus fine montre qu’elle dépend de (p - q) modulo 8. L’idée est la suivante : on commence par étudier explicitement la structure de quelques algèbres de Clifford de basse dimension, puis on construit les autres par produits tensoriels.

Un théorème de réduction dimensionelle
Soit F un espace vectoriel muni d’un produit scalaire g et E F un sous espace vectoriel de dimension paire tel que la restriction de g à E ne soit pas singulière. Soit E le complément orthogonal de E dans F. Alors
C (F,g) = C (E, gE) ⊗ C (E ⊥, ϵ2EgE ⊥)
ϵE est l’opérateur d’orientation de E La démonstration est immédiate et s’appuie sur les relations suivantes. Soient γμ les générateurs associés à (E,gE) et γα les générateurs associés à E. On fabrique alors les générateurs Γα = ϵγα et Γμ = γμ1. On vérifie que les générateurs Γ vérifient bien les relations de définitions pour C(F,g).

Ce théorème permet d’obtenir immédiatement les résultats suivants : Soit E un espace vectoriel de dimension 2. Soit ϵ = γ1γ2 son opérateur d’orientation.

Algèbres de Clifford de basse dimension
En regardant les relations de commutation des générateurs γμ en basse dimension, on voit facilement que
C (1,0) = ℂ, C(0,1 ) = ℝ ⊕ ℝ, C(2,0) = M  (2,ℝ)
C (1,1) = M (2,ℝ )etC(0,2 ) = ℍ
Dans ce dernier cas, on rappelle que les éléments du corps non commutatif des quaternions peuvent s’écrire (a - id ib + c)

 ib - c a + id
Produit tensoriel des algèbres
, et On utilise ensuite les isomorphismes suivants (seuls ceux mettant en jeu les quaternions ne sont pas évidents et on peut s’assurer du résultat en représentant les quaternions par des matrices 2 × 2 complexes du type précédent et en effectuant des produits tensoriels de matrices).
M (n,ℝ ) ⊗ M (m, ℝ ) = M (nm, ℝ )   ℂ  ⊗ ℂ = ℂ  ⊕ ℂ
         M (n,ℝ ) ⊗ ℂ = M  (n,ℂ )   ℍ  ⊗ ℂ =  M (2,ℂ )
         M (n,ℝ ) ⊗ ℍ = M  (n,ℍ )   ℍ  ⊗ ℍ =  M (4,ℝ )
Le théorème de périodicité
Les résultats précédents impliquent immédiatement :
C (n + 8,0) = C (2,0) ⊗ C (0, n + 6)
            = C (2,0) ⊗ C (0, 2) ⊗ C (n + 4,4)

            = C (2,0) ⊗ C (0, 2) ⊗ C (2,0) ⊗ C (0, n + 2)
            = C (2,0) ⊗ C (0, 2) ⊗ C (2,0) ⊗ C (0, 2) ⊗ C (n,0)
            = M  (2, ℝ) ⊗ ℍ ⊗  M (2,ℝ ) ⊗ ℍ ⊗ C (n, 0)

            = M  (4, ℝ) ⊗ M (4,ℝ ) ⊗ C(n, 0)
            = M  (16, ℝ) ⊗ C (n,0)
Le résultat final montre que l’algèbre C(n + 8, 0) est de même type que C(n, 0), les dimensions sont, bien sûr, différentes (il faut tensorialiser par les matrices réelles 16 × 16) mais la structure est la même. De la même façon, nous obtenons (supposons q < p) :
C (p,q) = C (1,1) ⊗ C(p - 1,q - 1)
        = C (1,1) ⊗ C(1,1 ) ⊗ ...⊗ C(p - q,0)
        = M  (2q,ℝ ) ⊗ C (p - q,0)
Les deux résultats
C (n + 8,0) = M  (16,ℝ) ⊗ C (n,0)
et
C (p, q) = M (2q,ℝ) ⊗ C (p - q,0)
montre qu’il suffit d’étudier le cas purement euclidien et que la classification ne dépend que de (p - q)modulo8.
La classification des C(p,q).
Il suffit d’étudier la structure des huit premiers C(n, 0). Cela se fait sans difficulté en utilisant les résultats rappelés plus haut sur les produits tensoriels de matrices dans les corps , et . Par exemple,
C (5,0) = C (2,0) ⊗ C(0,3 ) = C (2,0) ⊗ C (0,2) ⊗ C(1,0)
        = M  (2, ℝ) ⊗ ℍ ⊗ (ℝ ⊕  ℝ) = M  (2,ℍ) ⊕ M  (2, ℍ)

Les théorèmes de périodicité montrent alors que

C (p,q) = M  (2 n-21-1) ⊕ M (2n-21-1)lorsquep - q = 5mod8
On peut résumer tous les résultats dans la table suivante (n = p + q).






p - qmod8 0 1 2 3





C(p,q) M(2n∕2, ) M(2n-1 2 , ) M(2n-1 2 , ) M(2n∕2, ) M(2n-1 2 , )










p - qmod8 4 5 6 7





C(p,q) M(2n 2 -1, )M(2n-1 2 , ) M(2n-1 2 , )M(2n 2 -1, )M(2n-1 2 , )





Le lecteur pourra faire usage des deux tables suivantes (qui se déduisent de la précédente) où on étudie explicitement le cas particulier d’une signature euclidenne (n, 0) ou (0,n) et d’une signature hyperbolique (n- 1, 1) ou (1,n- 1), pour les huit cas n = 411.

Cas euclidien (de n = 4 à n = 11).
Pour réduire la taille de la table, on a noté M(d,K) sous la forme (d,K).







n C C(n, 0) C(0,n) C0(n, 0) θ






4 (4, ) (2, ) (2, ) ϵ
5 (4, ) (4, ) (2, ) (2, ) (4, ) (2, )
6 (8, ) (4, ) (8, ) (4, )
7 (8, ) (8, ) (8, ) (8, ) (8, ) (8, )
8 (16, ) (16, ) (16, ) (8, ) (8, )ϵ
9 (16, ) (16, )(16, ) (16, ) (16, ) (16, )
10 (32, ) (32, ) (16, ) (16, )
11(32, ) (32, ) (32, ) (16, ) (16, ) (16, )






Cas hyperbolique (de n = 4 à n = 11).
Pour réduire la taille de la table, on a noté M(d,K) sous la forme (d,K).







n C C(n - 1, 1) C(1,n - 1) C0(n - 1, 1) θ






4 (4, ) (4, ) (2, ) (2, )
5 (4, ) (4, ) (4, ) (2, ) (2, ) (2, )
6 (8, ) (4, ) (4, ) (2, ) (2, ) ϵ
7 (8, ) (8, ) (4, ) (4, ) (8, ) (4, )
8 (16, ) (8, ) (16, ) (8, )
9 (16, ) (16, ) (16, ) (16, ) (16, ) (16, )
10 (32, ) (32, ) (32, ) (16, ) (16, )ϵ
11(32, ) (32, )(32, ) (32, ) (32, ) (32, )






Remarque : en observant ces tables, on voit que

C (0, n) ⁄= C (n -  1,1) mais C (n,0) = C (1,n - 1)
On voit aussi que
C0(n, 0) = C0(0,n) = C (0,n - 1)
et que
C (n - 1, 1) = C (1,n - 1) = C (1,n - 2)
  0             0

Ces dernières égalités constituent un cas particulier de la relation générale (conséquence directe des relations de périodicité) :

C0 (p,q) = C (p,q - 1) = C(q,p - 1) = C0 (q,p)

On sait que le groupe Spin(p,q) est inclus dans la sous-algèbre de Clifford paire C0(p,q). Les tables ci-dessus permettent donc aussi de trouver les inclusions de Spin(p,q) dans les groupes SL(n,K) où K = , , . Dans les cas de plus basse dimension, les inclusions peuvent être des égalités. Par exemple Spin(5) = SL(2, ), Spin(10) SL(16, ), Spin(6, 1) SL(4, ) etc.

2.7.4 La structure des algèbres de Clifford complexes

Si on complexifie l’algèbre de Clifford réelle C, c’est à dire si on autorise les scalaires de l’algèbre à appartenir au corps des nombres complexes, on peut alors toujours fabriquer, à l’aide de ϵ, un opérateur de carré un. Cet opérateur est appelé opérateur de chiralité et noté traditionnellement γ5. Si ϵ est déjà de carré égal à 1, il n’y a plus rien à faire et on pose simplement γ5 = ϵ. Sinon, on le multiplie par i et on pose γ5 = . A l’aide de cet opérateur de carré 1 on peut alors toujours fabriquer 2 projecteurs 1±γ5 2 à l’aide desquels on pourra décomposer C0 en deux composantes simples lorsque n est pair et C en deux composantes simples lorsque n est impair. La discussion se résume par :

             ℂ
 n pair     C  est simple
             ℂ    1 --γ5  ℂ   1-+-γ5  ℂ
            C0 =    2   C 0 ⊕   2   C 0 n’est pas simple
n impair    Cℂ est simple
             0
            Cℂ =  1 --γ5C ℂ ⊕ 1-+-γ5C ℂ n’est pas simple
                    2           2

Remarque : Lorsque n est impair, on dit parfois que γ5 n’existe pas Il faut préciser ce qu’on entend par là : l’opérateur que nous venons de définir et de noter γ5 existe dans tous les cas. Cela dit, dans le cas impair, il ne peut pas servir à décomposer C0 en deux, précisément parce que, dans ce cas C0 est simple ! En d’autre termes, lorsque n est impair, on ne peut pas écrire un spineur de Dirac comme somme de deux spineurs de Weyl (terminologie précisée un peu plus bas).

2.7.5 Type des représentations

On dit qu’une représentation d’une K-algèbre associative A sur le K-espace vectoriel V est de type F si l’ensemble des automorphismes de V qui commutent avec l’action de A est égal à F. On démontre que F = GLA(V ) est un corps et que K est un sous-corps de F. Lorsque la représentation est irréductible et K = , les seules possibilités pour F sont , ou . Les tables qui précèdent illustrent ce phénomène. En effet, lorsqu’on écrit, par exemple C(1, 3) = M(2, ), c’est qu’il existe, entre ces deux objets, un isomorphisme d’algèbre associative réelle. En d’autres termes, il existe une représentation fidèle ρ de la -algèbre C(1, 3) sur l’espace vectoriel 2 considéré comme espace vectoriel réel de dimension 8. Les générateurs γμ sont alors représentés par des matrices 2 × 2 notées ρ(γμ) à coefficients dans . Il est évident que si ψ 2 et si k , alors (ρ(γμ)ψ)k = ρ(γμ)(ψk), ce qui montre que le commutant de la représentation ρ est bien égal à  : ρ est de type . Bien entendu, si on se donne explicitement la représentation ρ par la donnée de matrices ρ(γμ), on peut fabriquer une infinité de représentations équivalentes en changeant simplement de base. Attention, l’algèbre de Clifford C(p,q) est définie par des générateurs γμ particuliers obéissant aux relations de Clifford, alors que ce n’est pas le cas a priori pour une algèbre de matrices donnée. Il est bon de garder à l’esprit la distinction entre ces algèbres de Clifford “abstraites” et les algèbres de matrices qui les représentent fidèlement, algèbres qui sont données par les tables précédentes. On parlera cependant abusivement du type de l’algèbre C(p,q).

Dans le cas n pair, on voit, en consultant la table, que le type est toujours, soit réel, soit quaternionique.

Dans le cas n impair, les trois types peuvent exister mais on peut noter que si C(p,q) est de type complexe, alors C(q,p) est de type réel ou de type quaternionique (on n’a jamais deux types complexes en même temps pour des signatures opposées).

On peut aussi changer de point de vue et partir d’une représentation complexe de l’algèbre de Clifford C(n) avec n = p + q. On veut alors retrouver les représentations des formes réelles C(p,q) à partir de celle(s) de C (cette dernière est d’ailleurs unique, à équivalence près, dans le cas pair, puisque l’algèbre est simple). De façon générale, à une forme réelle correspond une involution (une “étoile”) * qui doit satisfaire aux relations *(ab) = *(b) * (a) et ** = 1. Les éléments “réels” sont ceux qui sont hermitiens pour cette involution, c’est à dire, qui sont tels que *a = a. Ainsi, par exemple M(2, ) est l’ensemble des éléments hermitiens de M(4, ) pour une étoile particulière.

Au niveau de l’espace vectoriel support d’une représentation de l’algèbre complexifiée, l’existence des trois types de représentations est liée à l’existence, ou non, d’un opérateur c, appelé (en physique surtout) un opérateur de conjugaison de charge, qui est défini comme un opérateur antilinéaire de carré ±1, commutant avec les générateurs γμ de C. En d’autres termes c doit être un C-isomorphisme de l’espace vectoriel complexe EDirac sur l’espace vectoriel conjugué EDirac (le même espace vectoriel muni de la loi externe conjuguée). Il existe trois cas : Premier cas : c existe et c2 = -1. Dans ce cas le type est quaternionique. L’opérateur c (qui n’est pas unique) correspond à la conjugaison complexe dans le commutant, suivie de la multiplication par un des trois générateurs quaternioniques. Deuxième cas : il n’existe pas de conjugaison de carré -1 mais il existe une conjugaison c de carré 1. Dans ce cas, le type est réel et c correspond à la conjugaison complexe du commutant. Troisième cas : lorsqu’il n’existe pas de conjugaison, le type est complexe.

2.7.6 Spineurs

Spineurs de Dirac
Les spineurs de Dirac sont les éléments d’un espace vectoriel complexe EDirac sur lequel est représenté, de façon irréductible, l’algèbre de Clifford complexifiée C = C(p,q).

Si n = p + q est pair, il n’existe qu’une seule représentation de Dirac, puisque C est simple.

Si n est impair, nous en avons deux, puisque C est somme de deux algèbres simples, mais ces deux représentations ne sont pas fidèles (la somme des deux l’est).

Dans tous les cas, EDirac = ff = 2[n∕2], [n∕2] désignant la partie entière de n∕2. Ceci résulte immédiatement du fait que dimC = 2n.

Spineurs de Weyl
Si n est pair, la restriction de la représentation de Dirac à la sous algèbre paire C0 devient réductible : EDirac = EWeylL E WeylR. Les spineurs de Weyl gauche et droit sont définis par
  L                   1---γ5
E W eyl = {ψ ∈ EDirac|(   2  ψ  = ψ ⇔  γ5ψ =  - ψ }
ERW eyl = {ψ ∈ EDirac|(1-+-γ5ψ =  ψ ⇔  γ5ψ =  ψ}
                         2
On peut donc toujours décomposer ψ EDirac : ψ = ψL + ψR avec ψL = (1-γ5 2 )ψ et ψR = (1+γ5 2 )ψ.

Si n est impair, la restriction de la représentation de Dirac à la sous algèbre C0 reste irréductible puisque C0 est simple. L’opérateur γ5 ne permet pas de décomposer un spineur de Dirac (on a déjà γ5ψ = ±1).

Rappelons que Pin(p,q) et Spin(p,q) (le recouvrement de SO(p,q)) sont respectivement obtenus comme sous-ensembles des algèbres C(p,q) et C0(p,q). Les spineurs de Dirac et de Weyl fournissent également des représentations irréductibles des groupes correspondants.

Spineurs de Majorana

Etant donné une dimension n et un couple d’entiers (p,q) avec n = p + q, on dit qu’il existe des spineurs de Majorana si l’une des deux algèbres C(p,q) ou C(q,p) est de type réel.

L’existence de spineurs de Majorana se lit sur les tables précédentes :

Dans le cas n pair, on a des spineurs de Majorana lorsque la signature (p,q) est telle que p-q = 0, 2ou6modulo8. Exemple : En dimension 4, lorsque la signature est proprement euclidienne, on n’a pas de spineurs de Majorana. Par contre, toujours avec n = 4, on a des spineurs de Majorana, aussi bien lorsque la signature est hyperbolique (un seul temps) que dans le cas neutre (cas (2, 2)).

Dans le cas impair, on a des spineurs de Majorana lorsque p - q = 1ou7modulo8. Ces représentations (cas impair) ne sont pas fidèles.

Soit EDirac l’espace des spineurs de Dirac. Dans le cas n pair, il n’y a pas d’ambiguïté. Dans le cas impair, on peut supposer ϵ2 = 1 (si ce n’est pas le cas, on remplace C(p,q) par C(q,p)). Avec cette dernière hypothèse, on peut toujours trouver un opérateur antilinéaire c. Lorsque c2 = 1, on définit l’espace vectoriel des spineurs de Majorana par

EMajorana =  {ψ ∈ EDirac|  cψ = ψ }
Il est bien évident qu’un opérateur pour lequel c2 = -1 ne peut pas avoir de vecteurs propres non nuls (= ψ implique c2ψ = -ψ = ψ).
Spineurs de Weyl-Majorana
Dans le cas où n est pair et où on peut donc parler de spineurs de Weyl, on peut se demander si les deux conditions de Weyl et de Majorana peuvent être compatibles : peut-on avoir des spineurs qui sont à la fois réels et (par exemple) de chiralité gauche ? Pour cela il faut que γ5 et c commutent. Sachant que c est un opérateur antilinéaire, il est il est évident que c et γ5 commutent lorsque γ5 = ϵ mais anti-commutent lorsque γ5 = .

Lorsque (p - q) = 0modulo8, γ5c = cγ5, on peut donc définir les spineurs de Weyl-Majorana de chiralités gauche et droite :

EL        =  {ψ ∈ EL    |  cψ = ψ }
  Majorana          W eyl
  R                 R
E Majorana = {ψ ∈ E W eyl|  cψ = ψ }
On peut alors décomposer un spineur de Majorana quelconque en une partie droite et une partie gauche : EMajorana = EMajoranaL EMajoranaR. Cela se produit donc, avec une signature proprement euclidienne, lorsque n = 8, 16, 24 et, avec une signature hyperbolique, lorsque n = 2, 10, 18

Lorsque cette décomposition est impossible, c’est à dire lorsque γ5c = -cγ5, il faut noter que si ψ EWeylL, alors c(ψ) E WeylR

Remarques

Il existe de nombreuses façons d’écrire les générateurs γμ de C(p,q) sous forme matricielle. En général il n’est pas indispensable d’effectuer un choix quelconque pour faire des calculs : la manipulation formelle des générateurs suffit. Si on tient absolument à utiliser des matrices, il faut noter que l’expression de l’opérateur c, lorsque ce dernier existe, dépend elle aussi de la représentation choisie. Cet opérateur, étant antilinéaire, s’écrira toujours comme la composée de la conjugaison complexe, dont la définition dépend de la représentation, et d’une matrice généralement notée C, dont l’expression dépend aussi de la représentation choisie.

En physique des particules, les spineurs décrivent les particules élémentaires fermioniques les plus “fondamentales” : celles de spin 12. Les spineurs de Dirac décrivent les particules chargées (type électron). L’opérateur de conjugaison de charge associe, à toute particule décrite par le spineur ψ, une autre particule (l’anti-particule de la première) décrite par le spineur c(ψ). Dans le cadre du modèle standard des interactions électrofaibles, les neutrinos sont décrits par des spineurs de Weyl de chiralité gauche (et les anti-neutrinos, bien évidemment, par des spineurs de Weyl de chiralité droite). La nature n’est pas invariante par parité : les neutrinos droits ne semblent pas exister (et, même s’ils existent, ils ont des propriétés très différentes de leurs homologues gauches). Rappelons qu’il n’existe pas de spineurs de Weyl-Majorana en dimension 4 lorsque la signature est euclidienne ou hyperbolique. Il faudrait utiliser une signature (2, 2) ! Par ailleurs, bien que les spineurs de Majorana soient mathématiquement disponibles en dimension (3, 1), ils n’entrent pas dans la formulation du modèle standard décrivant les particules fondamentales connues.

Chapitre 3
Espaces Fibrés

3.1 Généralités

3.1.1 Le langage des fibrés

Avant d’introduire la notion d’espace fibré, nous allons montrer comment “le langage des fibrés” permet d’analyser de manière originale un aspect bien connu de la théorie des ensembles, à savoir la notion d’application d’un ensemble dans un autre, tout en y apportant un nouvel éclairage.

Soit π une application quelconque de P (espace de départ) dans M (espace d’arrivée). L’application π n’ayant aucune raison d’être injective, notons Fx = π-1(x) l’ensemble des antécédents de x M par π. Lorsque x décrit M, les ensembles Fx sont, bien entendu, distincts, puisque π est une application (il n’en serait pas nécessairement ainsi dans le cas où π serait une simple correspondance). En général aussi, la cardinalité de Fx, ou même sa structure topologique peut varier avec x.

Utiliser “le langage des fibrés” consiste à effectuer le changement de vocabulaire suivant :

Espace de départ P -→Espace total P
Espace d’arrivée M -→Base M
Application π -→Projection π
Ensemble Fx des antécédents de x-→Fibre Fx au dessus de x

et schématiser la situation par le dessin 3.1.



Figure 3.1: Un espace fibré


On peut toujours supposer π surjective, au besoin en dégonflant l’espace d’arrivée M, mais π ne sera pas, en général, injective (en d’autres termes, card(Fx) est, en général, plus grand que 1). Choisissons donc, pour chaque x de M, un certain antécédent, c’est à dire un élément de Fx. Nous noterons σ(x) l’antécédent choisi. Par construction, σ est une application de M dans P telle que π σ = 1 l, où le 1 l du membre de droite désigne l’application identique de M. Une telle application σ est, par définition, une section de l’application P π
↦→M. Le mot “section” vient du fait qu’intuitivement, on définit σ en découpant avec des ciseaux la figure 3.1 le long du pointillé. Le fait que π ne soit pas injective montre qu’il existe généralement de nombreuses sections σ différentes (notons que nous n’avons, pour le moment, rien imposé sur l’application σ). Chacune de ces sections définit donc un inverse (à droite) pour l’application π ; encore une fois, il nous faut insister sur le fait qu’il existe en général plusieurs sections et que le choix d’une telle section résulte d’un choix ! Lorsque M est muni d’une topologie, le choix d’une section au dessus d’un ouvert U M est désigné sous le nom de “choix d’une section locale pour l’application π”.

Le vocabulaire précédent est tellement général qu’il est utilisable pour des applications entre ensembles quelconques. Le lecteur pourra donc s’amuser à “repenser”, en ces termes, certaines de ses applications favorites.

Considérons, à titre d’exemple, l’application suivante qui, à tout point de la sphère unité, associe sa projection sur l’axe Oz :

Espace de départ
(espace total) P : la sphère S2 de centre O et de rayon 1 incluse dans 2.
Espace d’arrivée
(base) M : le segment {(0, 0,z)tel quez [-1, +1]}
Application
π : (x,y,z) S2↦→(0, 0,z) M

La fibre au dessus d’un point quelconque intérieur au segment M est un cercle de S2 parallèle à l’équateur xOy. Lorsque le point de M choisi coïncide avec l’un des deux pôles {0, 0,±1}, la fibre correspondante se réduit à un point (cercle de rayon nul).

De la même façon, l’analyse de la fonction exponentielle P = i↦→e M = S1 en utilisant le langage des fibrés revient à “regarder” la figure 3.2



Figure 3.2: La fonction exponentielle e


Dans le cas présent, la fibre au dessus de n’importe quel point xθ = e du cercle S1 est un ensemble F θ = {θ + 2 tel que k } qu’on peut mettre en bijection avec l’ensemble des entiers . Toute section définit un inverse pour l’exponentielle, c’est à dire une détermination du logarithme : exp Loge = e ; en pratique, on veut que ces déterminations soient des fonctions continues, ce qui impose des conditions supplémentaires sur les sections correspondantes.

3.1.2 Fibrations. Fibrés différentiables localement triviaux

Fibration

Comme nous venons de le voir, toute application peut être décrite dans le “langage des fibrés”, mais toute application n’est pas une fibration : dans le cadre de cet ouvrage, nous travaillons dans la catégorie des variétés différentiables et nous dirons qu’une application π : P M est une fibration si toutes les fibres π-1(x), x M sont difféomorphes (on suppose ici que P et M sont des variétés et que π est différentiable). Plus généralement, même dans le cas où les fibres sont discrètes, on dira qu’on a affaire à une fibration si toutes les fibres ont même cardinalité.

Puisque toutes les fibres sont difféomorphes, on dira que la fibre type est F lorsque toutes les fibres sont “de type F”, ce qui signifie : difféomorphes à F.

Fibré localement trivial

Soit P M une fibration et U M un ouvert de M appartenant à l’atlas définissant la structure différentiable de M. On a envie, intuitivement, de se représenter l’ensemble des antécédents π-1(U) comme un cylindre “au dessus de U” (voir figure 3.3).



Figure 3.3: Les points au dessus de l’ouvert U


On appelle espace fibré localement trivial la donnée d’une fibration (P,M,π) telle que, pour tout ouvert U de M, l’ensemble π-1(U) soit difféomorphe à U × F F est la fibre type de la fibration. La condition de trivialité locale est souvent sous-entendue, et on parle alors simplement d’espace fibré.

Remarques

Fibré trivial

Dire que (P,M,π) est localement trivial consiste à affirmer, comme nous l’avons vu, que localement, l’espace total P ressemble à un produit : c’est la propriété π-1(U) U × F. Cependant, le fait que P M × F n’est pas une propriété imposée. Lorsque tel est le cas, on dit que P est un fibré trivial. Bien qu’utilisable en toute généralité, la théorie des espaces fibrés est surtout intéressante lorsque P est seulement localement trivial, mais n’est pas trivial. Nous rencontrerons une multitude de tels exemples dans ce qui suit.

Trivialisations locales

Lorsque U est un ouvert de M, dire que π-1(U) est difféomorphe à U ×F revient à dire qu’il existe un difféomorphisme ψU entre les deux ensembles :

z ∈ π-1(U ) ⊂ P ↦→  ψU (z) = (x,g) ∈ U × F    avec   x = π(z)
L’application ψU prend le nom de trivialisation locale relative à l’ouvert U. Bien entendu, une telle trivialisation est loin d’être unique puisque la composée (1 lM × ϕ) ψU de ψU avec (1 lM × ϕ), ϕ désignant un difféomorphisme quelconque de la fibre type F, fournit une autre trivialisation.

La trivialisation ψU(z) = (x = π(z),g) est parfaitement caractérisée par l’application gU : π-1(U) F définie par g U(z) = g ; en d’autres termes, le point z de P est caractérisé par le point x = π(z) sur M et le point g = gU(z) sur F. Seul le point x est canoniquement défini par la fibration ; l’élément g de F, au contraire, résulte du choix d’une trivialisation locale. Pour que ces deux composantes (les deux points (x,g) M × F) deviennent des coordonnées (des nombres), il suffit de choisir un repère local sur M et sur F. On pourra schématiser la situation par la figure 3.4.



Figure 3.4: Trivialisation locale d’un espace fibré


Sous-fibrés

Soient (P,M,π) et (P,M) deux espaces fibrés. On dira que le premier est un sous-fibré du second si P (respectivement M) est une sous-variété de P (respectivement M) et si π coïncide avec la restriction correspondante de π.

3.2 Espaces fibrés principaux

3.2.1 La structure d’espace fibré principal

Une fibration (P,M,π) est un espace fibré principal lorsque les trois conditions suivantes sont satisfaites :

  1. (P,M,π) est un espace fibré localement trivial.
  2. Un groupe de Lie G agit (à droite) sur P, et ce, de façon transitive dans chaque fibre.
  3. Toutes les fibres sont homéomorphes à G.

Les trois conditions ci-dessus sont obligatoires pour qu’on puisse parler de fibré principal car nous verrons un peu plus loin des exemples où (1) et (2) sont vérifiées (mais pas (3)) et des exemples où (1) et (3) sont vérifiées (mais pas (2)).

En général, on considère des espaces fibrés principaux à droite, comme ci-dessus, mais il est bien évident qu’on peut également considérer des espaces fibrés principaux à gauche.

Le groupe G (la fibre type) est généralement désigné sous le nom de groupe structural du fibré considéré. Afin d’alléger les notations, nous noterons très simplement l’action de G sur P : Soient z1 P et g G, l’image z2 de z1 sous l’action de g sera notée z2 = z1g, ce qui peut être décrit, de façon imagée, par la figure 3.5.



Figure 3.5: Action du groupe structural sur un espace fibré principal


Attention : Parce que G agit sur P, de nombreux physiciens désignent ces transformations de P dans P (du type z P↦→z = zg,g G) sous le nom de transformations de jauge globales et désignent également G lui même sous le nom de groupe de jauge  ; cependant nous réserverons ce dernier vocable (groupe de jauge) pour le groupe des transformations de jauge locales que nous définirons un peu plus loin.

La relation z2 = z1g est formellement très semblable à la relation élémentaire A2 = A1 + -→
VA1 et A2 désignent deux points d’un espace affine et où -→
 V désigne un vecteur de l’espace vectoriel sous-jacent. Les élèves de nos lycées savent bien qu’on peut “soustraire” deux points en écrivant -→V = A2 -A1 (on n’a pas le droit d’“additionner” deux points !). De la même façon, on pourra écrire ici g = z1-1z 2, puisque z1g = z2 et que g est bien déterminé par la donnée de z1 et de z2. Notons enfin que l’analogue de la célèbre “relation de Chasles” s’écrit z1-1z 2 = (z1-1z 3)(z3-1z 2).

3.2.2 Sections locales et trivialisations locales

Dans le cas d’un fibré principal, chaque fibre Gx au dessus de x, élément de M est une “copie” du groupe G, mais il s’agit d’une copie au sens topologique (ou différentiable) du terme car l’origine du groupe G (l’élément neutre) est connue mais celle de la fibre Gx ne l’est pas ! Afin de mieux faire sentir le sens de cette importante remarque, considérons l’exemple suivant 3.6



Figure 3.6: L’origine de la fibre (copie du cercle U(1)) au dessus de x est marquée par la section σ


Dans le cas présent, P est un cylindre fini P = M ×S1M est un intervalle et S1 désigne le cercle de rayon 1 ; la fibre au dessus de x est un cercle, et ce cercle, comme tous les cercles, est homéomorphe au groupe U(1). Sur ce cercle, tous les points “se valent” et on ne sait pas multiplier un point par un autre. Par contre, si le cercle est marqué par une origine, il devient isomorphe au groupe U(1) et on sait alors multiplier les points (ee = ei(θ+α)). Le groupe U(1) agit bien sur l’ensemble P ci-dessus en faisant tourner un point quelconque z P d’un angle θ.

Revenons au cas général d’un fibré principal (P,M,π) de groupe structural G. Le choix d’une section locale x U M↦→σ(x) P permet de “marquer une origine” sur chacune des fibres Gx situées au dessus de l’ouvert U. En d’autres termes, le choix d’une section locale σ permet d’identifier la fibre Gx avec le groupe G lui-même. La façon la plus simple d’exprimer ceci de façon algébrique consiste à montrer qu’à la section locale σ on peut associer une trivialisation locale ψU définie comme suit : soit z P, alors ψU(z) = (x; gσ) où x = π(z) et où gσ désigne l’unique élément de G défini par z = σ(x)gσ. En effet, z et σ(x) étant dans la même fibre, il existe un et un seul élément gσ de G permettant de passer de σ(x) à z ; l’existence et l’unicité de cet élément gσ résulte des axiomes (2) et (3) de la structure de fibré principal. Une section locale σ définit donc également une application — que nous noterons encore gσ — de P dans G ; en d’autres termes, les “composantes” de z P sont x = π(z) M et gσ = gσ(z) G. La composante x est canoniquement définie par la structure fibrée et la composante gσ résulte du choix d’une section locale σ.

Il faut enfin noter que le choix d’une section locale permet de définir localement l’action à gauche du groupe G sur P ; en effet, en plus de l’action à droite z P,k G zk = (x; gσ)k = (x; gσk) P qui ne dépend pas de σ et qui est globalement définie puisqu’elle résulte de la structure d’espace fibré principal, on peut définir localement une action à gauche z P,k G (kz)σ = (x; kgσ) P, qui dépend de σ.

Supposons que nous ayons fait le choix d’une section locale σ au dessus de l’ouvert U et d’une section locale τ au dessus de l’ouvert V  ; si on fait un choix de z P tel que la projection π(z) appartienne à l’intersection U V , on peut écrire aussi bien z =σ (x; gσ) que z =τ (x; gτ). Il existe donc un élément gστ du groupe G (et en fait une fonction gστ(x) définie sur U V ) tel que gσ = gστgτ. Cette fonction porte le nom de fonction de transition . Ces fonctions de transition permettent en fait de reconstruire le fibré principal lui-même. On montre qu’étant donnés un atlas de M et une famille de fonctions de transition obéissant à une certaine propriété (dite de cocycle) sur les triples intersections, il est possible de reconstruire l’espace fibré dont on est parti.

3.2.3 Exemple fondamental : le fibré des repères linéaires

L’exemple qui suit est fondamental, non seulement parce qu’il est mathématiquement important — il est d’ailleurs à l’origine de toute la théorie des espaces fibrés — mais aussi parce qu’il permet de fournir un support à notre intuition géométrique, en particulier dans le cas où l’on s’intéresse à des fibrés principaux (P,M,π) quelconques. L’exemple fondamental étudié ici nous permettra de développer les analogies suivantes :

Soit M une variété différentiable de dimension n. En chaque point x de M nous avons un espace tangent T(M,x) et nous pouvons considérer l’ensemble Gx de tous les repères en x. Un point z de Gx est donc un repère en x, c’est à dire la donnée de n vecteurs indépendants de T(M,x). Soit P = xMGx l’ensemble de tous les repères de M. Notons π l’application qui, à un repère centré sur x, associe l’origine x elle-même ; il est facile de voir que (P,M,π) est un espace fibré principal de groupe structural GL(n). Il est clair, en effet, que le groupe linéaire GL(n) agit transitivement sur chaque fibre de P : la fibre Gx au dessus de x n’est autre que l’ensemble des repères en x et il est bien évident qu’on peut toujours passer d’un repère z = (zi)i∈{1n} à un repère z = (zj) au même point x à l’aide d’un élément g = (gji) de GL(n) : (z j = zigji). Par ailleurs, le fait que l’ensemble G x des repères en x soit homéomorphe à GL(n) peut se voir de la façon suivante : marquons (choisissons) un repère de référence σ = (σ)i en x ; alors, tout élément g de GL(n) définit un nouveau repère z = σg au même point, mais réciproquement, tout nouveau repère z détermine un et un seul élément g de GL(n) tel que z = σg. On obtient donc une correspondance bi-univoque entre repères en x et éléments de GL(n) ; bien entendu, cette correspondance dépend du choix du repère de référence σ. Il resterait à montrer que cette application est bel et bien continue et à vérifier les conditions de trivialité locale. Le fibré principal P ainsi construit se note parfois FM (pour “Frame bundle of M”) et s’appelle le fibré des repères linéaires sur M. Nous invitons le lecteur à relire la sous-section précédente avec cet exemple en tête ; il est alors clair qu’une section locale n’est autre qu’un repère mobile choisi dans le domaine d’un ouvert et qu’une fonction de transition n’est autre qu’un changement de repère mobile.

3.2.4 Sous-espace des vecteurs verticaux en un point z d’un espace fibré

3.2.5 Fibré principal trivial

Un fibré principal (P,M,π) de groupe structural G est trivial si, par définition, P est homéomorphe au produit cartésien M ×G (la projection π étant la projection sur le premier facteur). dans ce cas, il existe plusieurs (en général une infinité de) sections globales puisque toute application différentiable de M dans G définit une section globale : considérer par exemple l’application constante qui, à tout point de M associe l’identité de G. Réciproquement, supposons qu’un fibré principal possède une section globale σ, on peut alors considérer l’application de P dans M × G définie par z (x,g) avec x = π(z) et g tel que z = σ(x)g ; on fabrique ainsi un homéomorphisme entre P et M × G.

En conclusion, un fibré principal est trivial si et seulement s’il possède une section globale. Lorsque P est trivial, son identification avec M × G résulte, comme on vient de le voir, du choix de la section globale σ ; on écrira simplement P = M × G si cela ne prête pas à confusion. Noter que, dans un tel cas, les champs fondamentaux à droite ϵα et à gauche σe α sont tous deux globalement définis.

Attention : pour des fibrés non principaux (voir plus loin), le fait de posséder une section globale n’est pas suffisant pour assurer la trivialité.

Nous n’aborderons pas le problème de la classification des espaces fibrés, le lecteur interessé devrait consulter [8].

3.2.6 Formes basiques, invariantes et horizontales

Formes basiques
L’existence de l’application de projection π : P↦→M permet, comme nous le savons, de projeter les vecteurs de TP sur les vecteurs de TM, en utilisant l’application tangente π* ; l’application cotangente, π*, permet, quant à elle, de faire voyager les formes dans l’autre sens. L’image, par π* d’une forme différentielle sur M est une forme particulière sur P qu’on appelle une forme basique. On obtient un homomorphisme injectif d’algèbres différentielles
  *
π  : Ω(M ) ↦→  Ω (P )
On peut donc identifier l’algèbre Ω(M) avec la sous-algèbre des formes basiques π*(Ω(M)) Ω(P).
Formes horizontales
Une forme sur P est horizontale, par définition, si elle s’annule sur les vecteurs verticaux. Etant donné que l’espace tangent vertical en un point z de P est engendré par les champs de vecteurs fondamentaux Xα(z), avec Xα Lie(G), il suffit de tester l’annulation sur les champs en question. En d’autres termes, soit X Lie(G) et désignons iX le produit intérieur d’une forme par le champ X(z) ; la forme ω Ω(P) est donc une forme horizontale si et seulement si, pour tout X,
i ω =  0
 X
Formes invariantes
Puisque le groupe G agit sur P, on peut s’intéresser à son action infinitésimale sur les formes décrite par la dérivée de Lie LX = diX + iXd. On dit qu’une forme ω est une forme invariante si et seulement si, pour tout X,
LX ω  = 0
Formes basiques (bis)
Le fait qu’une forme basique soit à la fois invariante et horizontale est assez intuitif. Formellement cette propriété découle immédiatement de l’invariance π(zg) = π(z) lorsque g G. Retenons : La forme ω est une forme basique si et seulement si, pour tout X,
LX ω = 0etiXω =  0
c’est à dire si et seulement si ω et sont horizontales.
Remarque : Opération de Cartan
Nous nous servirons assez peu de ces notions de formes basiques, de formes invariantes ou de formes horizontales, dans la suite de cet ouvrage. Cela dit, il faut bien noter que les notions qui viennent d’être discutées fournissent une formulation algébrique assez compacte de la notion d’espace fibré principal (nous n’avons rien utilisé d’autre !) On peut, de fait, utiliser ces propriétés pour définir la notion d’opération (de Cartan) d’une algèbre de Lie, 𝔤, sur une algèbre différentielle commutative graduée Ω (c’est bien le cas de l’algèbre des formes différentielles sur une variété). On dit qu’on a une opération de Cartan lorsqu’à tout X 𝔊, on associe une anti-dérivation iX (de degré -1) et une dérivation LX = diX + iXd (de degré 0) telles que, X,Y 𝔊, on ait L[X,Y ] = LXLY - LY LX et i[X,Y ] = LXiY - iY LX. La donnée d’un fibré principal P fournit automatiquement une opération de Cartan de Lie(G) sur Ω(P) mais il est certain que la notion d’opération de Cartan est plus générale. Dans ce cadre plus général, on définit encore les sous espaces , et 𝔅 = des formes horizontales, invariantes et basiques, et on montre aisément que ces trois sous-espaces de Ω sont des sous-algèbres différentielles graduées de Ω.
Remarque : Champs de vecteurs projetables
Nous rappelons ici la définition des champs de vecteurs projetables par une application différentiable (dans ce cas, il s’agit de la projection π : P↦→M du fibré considéré), notion générale déjà introduite au chapitre 1. Ici l’ensemble des antécédents de x M par π n’est autre que la fibre au dessus du point x. Un champ de vecteurs V ΓTP est donc dit projetable si et seulement si π*V z = π*V zg pour tout g G.

Plusieurs propriétés des espaces fibrés (et des connexions) pourraient s’enoncer en utilisant cette notion, que nous n’utiliserons pas explicitement dans la suite.

3.2.7 Exemples

Le fibré des repères linéaires

Nous avons déjà étudié cet exemple en détail en 3.2.3 et nous verrons un peu plus loin divers exemples analogues.

Fibration d’un groupe G en sous groupes H au dessus de G∕H

Fibration d’un espace homogène G∕H1 en groupes H2 au dessus de G∕(H1 × H2)

Soit H un sous groupe de Lie d’un groupe de Lie G et supposons que H soit isomorphe au produit H1 × H2 de deux groupes de Lie. On peut alors considérer H1 (en fait H1 × Identité) comme sous groupe de G et on a une projection G∕H1↦→G∕(H1 × H2) de fibre H2. L’action de H2 (à droite) sur G∕H1 est bien définie car H1 et H2 commutent, et donc (gH1)h2 = (gh2)H1 lorsque h2 appartient à H2. Vu la diversité des cas à considérer nous n’énoncerons aucun résultat précis dans ce cas. Néanmoins nous énoncerons les trois remarques suivantes :

  1. “En général” la situation précédente conduit à un fibré principal H2-→G∕H1-→G∕(H1 × H2) de groupe structural H2.
  2. Bien souvent, et en particulier lorsque G est un groupe simple, le sous groupe H considéré n’est pas isomorphe au produit H1 ×H2 de deux groupes de Lie, mais au quotient d’un tel produit par un groupe discret (on a donc LieH = LieH1 LieH2 au niveau des algèbres de Lie). Dans ce cas, le résultat “général” précédent est valable à condition de quotienter correctement par le groupe discret approprié.
  3. Le lecteur pourrait être également tenté de considérer des doubles classes K\G∕H H et K sont deux sous groupes de G. Attention : la projection G∕H↦→K\G∕H ne définit en général pas une fibration principale, ni même une fibration, car le type topologique des fibres (ou même la cardinalité) peut varier d’un point à l’autre de la base.

Afin de conclure cette sous section consacrée aux exemples par un théorème précis concernant les fibrations principales d’espaces homogènes, nous considérons maintenant le cas suivant.

Fibration principale de G∕H en groupes N|H au dessus de G∕N, N étant le normalisateur de H dans G

Soit H un sous groupe de Lie du groupe de Lie G et soit N son normalisateur dans G. On rappelle que N = {n G|nH = Hn} ;end’autrestermes, N est le plus grand sous groupe de G dans lequel H est un sous groupe normal (on dit aussi sous groupe distingué). H étant normal dans N, il s’ensuit que les classes à gauche et à droite de N par rapport à H coïncident (voir ci-dessus la définition de N) et que l’espace homogène N|H = N∕H = H\N possède une structure de groupe. Par ailleurs, N agit à droite sur G∕H : soit gH G∕H et n N ; alors gHn = gnH G∕H. Cette action n’est pas fidèle car les éléments de H lui-même n’agissent pas : si h H, alors gHh = gH. Le fait de quotienter N par H rend précisément cette action fidèle. On peut se représenter les actions de G à gauche de G∕H et de N|H, à droite de G∕H par le schéma :

G  -→  G ∕H  ← - N |H
En utilisant seulement l’action à droite, on obtient ainsi une fibration principale dont l’espace total est G∕H et le groupe structural est N|H, il est facile de voir que la base de la fibration est l’espace homogène G∕N (voir figure 3.11).


Figure 3.11: Fibration principale associée à l’action du groupe N|H sur l’espace homogène G∕H


Ce type de fibration principale est également à l’origine d’une multitude d’exemples. Les fibrations de Hopf des sphères au dessus des espaces projectifs réels, complexes ou quaternioniques sont d’ailleurs de ce type. En effet, on a

G = SO(n)H = SO(n - 1)N = SO(n - 1) × 2N|H = 2
G∕H = Sn-1G∕N = Pn
G = SU(n)H = SU(n - 1)N = SU(n - 1) × U(1)N|H = U(1)
G∕H = S2n-1G∕N = Pn-1
G = Sp(n)H = Sp(n - 1)N = Sp(n - 1) × SU(2)N|H = SU(2)
G∕H = S4n-1G∕N = Pn

et on peut illustrer les fibrations correspondantes par la figure 3.12



Figure 3.12: Fibrations de Hopf des sphères


On se souvient aussi que Z2 S0, U(1) S1 et SU(2) S3 ; ainsi les trois fibres types représentées sur la figure 3.12 sont non seulement des groupes, mais aussi des sphères.

Le lecteur pourra fabriquer aisément d’autres exemples de ce type en choisissant, pour tout groupe G donné, un sous groupe H qui ne soit pas trop “gros” (de façon à ce que N|H ne soit pas trop trivial). Voici un dernier exemple de ce type qui utilise les groupes de Lie exceptionnels : G = E8, H = E6 , N = (E6 × SU(3))3, N|H = SU(3)3.

Fibrations exceptionnelles des sphères et des espaces projectifs

Il existe des fibrations exceptionnelles des sphères et des espaces projectifs qui ne sont pas liées aux inclusions de groupes unitaires, orthogonaux ou symplectiques (forme compacte) c’est à dire aux structures réelles, complexes ou quaternioniques. Certaines de ces fibrations sont liées à l’existence de l’“algèbre” non-associative des octaves de Cayley O (octonions). On sait que pour n = 1, 2, 4, 8 (et ce sont les seules valeurs possibles), il existe une opération bilinéaire n × n↦→n sans diviseurs de zéro (c’est à dire que a × b = 0 a = 0oub = 0), conduisant à la définition des corps , , et des octaves O.

Certaines des fibrations mentionnées ici ne sont pas des fibrations principales (en particulier la fibre type n’est pas un groupe) mais elles y ressemblent beaucoup (on sait que la sphère S7, par exemple, est presque un groupe) Nous donnons ici une liste de fibrations qui sont à la fois intéressantes et célèbres (la fibration de Hopf exceptionnelle de S15 !) bien qu’elles ne s’inscrivent pas logiquement toutes dans cette section puisqu’il ne s’agit pas toujours de fibrations principales. Nous ne les utiliserons pas dans la suite et ne les mentionnons que pour des raisons culturelles, en espérant que le lecteur pourra y retourner (soit-dit en passant, il reste à étudier de nombreux problèmes intéressants concernant ces objets).

   fibre   - →  espace total - → base

    S7    - →      S15     - →   S8
 Spin (7) - →    Spin (9 )  - →  S15
  SU (3)  - →      G2      - →   S6
   1     2          2n+1           n
ℂP   = S  - →    ℂP        - →  ℍP 2
 Spin (9) - →      F4      - →  OP

3.3 Fibrés associés

3.3.1 Introduction

Comme nous l’avons vu précédemment, à une variété différentiable donnée, on peut attacher l’ensemble de tous les repères, et cet ensemble, qu’on désigne sous le nom de fibré des repères possède une structure d’espace fibré principal. Il est d’autres ensembles qu’on peut attacher à une variété donnée, par exemple, l’ensemble de tous ses vecteurs tangents, ou l’ensemble de tous ses tenseurs de type donné. Ces différents ensembles sont, d’une façon que nous allons rendre précise, “associés” au fibré des repères, en ce sens que le groupe structural — le groupe linéaire dans ce cas — agit également sur les composantes des vecteurs, tenseurs etc 

Plus généralement, nous allons définir des fibrés associés en “remplaçant” le groupe structural d’un fibré principal par un ensemble sur lequel ce groupe opère. D’un certain point de vue, on peut dire que les groupes eux-mêmes n’ont un intérêt que parce qu’ils agissent (opèrent) sur des ensembles bien choisis et cette théorie des actions de groupe — que nous avons sommairement décrite dans la deuxième partie de cet ouvrage — est particulièrement riche lorsqu’il s’agit d’une action linéaire sur un espace vectoriel (théorie des représentations). Les groupes sont donc des “machines à agir sur des espaces”. D’une façon analogue, nous allons considérer les fibrés principaux comme des “machines à fabriquer des fibrés associés” et la théorie sera particulièrement riche lorsque ces fibrés associés seront fabriqués à l’aide d’une représentation de groupe sur un espace vectoriel (théorie des fibrés vectoriels).

3.3.2 Espaces fibrés associés généraux

Soit P π
↦→M un espace fibré principal (à droite), de groupe structural G, et soit ρ une action (à gauche) de G sur un ensemble F. On obtient alors une relation d’équivalence sur P × F en disant que (z,f) P × F est équivalent à (z,f) P × F s’il existe un élément g de G qui soit tel que z = zg et f = ρ(g-1)f. L’ensemble quotient E = P × GF prend le nom de fibré associé à P via l’action de G sur F. En d’autres termes, on identifie (z,f) avec (zg,ρ(g-1f)). Cette définition un peu abstraite ne devrait pas rebuter le lecteur, en effet elle correspond à une situation bien connue : supposons l’action ρ fixée une fois pour toutes et notons g-1f l’objet que nous notions un peu plus haut ρ(g-1)f ; par ailleurs, désignons par z.f la classe de (z,f) ; l’élément u = z.f de E n’est donc rien d’autre que l’objet géométrique qui possède les “composantes” f dans le “repère” z et les “composantes” g-1.f dans le “repère” zg, en effet, u = z.f = zg.g-1f. On voit donc ici que u généralise la notion classique et élémentaire de “vecteur”. Nous verrons un peu plus loin comment récupérer la notion déjà introduite de vecteur tangent à une variété par cette construction.

L’espace E est bien un espace fibré et on a une projection, encore notée π, de E sur M, définie par π(z.f) = π(z) où le π du membre de droite se réfère à la projection dans le fibré principal correspondant. Il est bien clair que cette définition ne dépend pas du choix du représentant choisi (puisque les différents z possibles sont tous dans la même fibre !) On se souvient, par ailleurs, qu’il est parfaitement légitime et non ambigu de noter le point x = π(z) de M sous la forme x = zG puisqu’il existe une correspondance bi-univoque entre points de M et fibres de P. Par ailleurs, la fibre de la nouvelle projection π (dans E) étant, par construction, homéomorphe à F, on a donc, de fait, “remplacé” G par F, ce qui justifie de représenter cette construction, associant E à P, par la figure suivante (fig. 3.13) :



Figure 3.13: Passage d’un fibré principal à un fibré associé


On dit que G est le groupe structural du fibré associé E (attention, dans le cas des fibrés associés, le groupe structural G n’a aucune raison d’être difféomorphe à la fibre type F). Notons enfin que dimE = dimM + dimF.

Avant de donner quelques exemples de tels espaces, il importe de noter que, sauf exceptions, le groupe structural G n’agit pas sur le fibré associé E puisque E est précisément obtenu via un quotient de l’action simultanée de G sur P (c’est à dire sur les “repères”) et sur F (c’est à dire les “composantes”).

Une situation familière, bien connue du lecteur, nous est fournie par l’exemple des espaces vectoriels :

Soit E un espace vectoriel de dimension n ; les éléments de E sont nos vecteurs familiers ; il faut bien voir que le groupe linéaire GL(n, ), défini comme groupe de matrices, ne sait pas comment agir sur les vecteurs si aucune base n’a été choisie. Par contre, il sait agir sur les bases de E (il fait passer d’une base à l’autre) et, une base étant choisie, il sait également agir sur les composantes des vecteurs de E. Il existe bien un groupe qui sait agir sur les vecteurs eux-mêmes, c’est le groupe AutE des automorphismes de E, mais ce groupe ne peut s’identifier à GL(n,, ) que moyennant le choix d’une base. Un espace vectoriel usuel n’est autre chose qu’un espace fibré sur un point (la base est un point et la fibre s’identifie à l’espace vectoriel lui-même). Après quelques moments de réflexion passés à examiner ce cas assez trivial, mais instructif, le lecteur pourra sans doute se demander quel est l’objet généralisant AutE lorsqu’on passe de la situation bien connue évoquée ci-dessus au cas des espaces fibrés plus généraux où la base est, en général, une variété. Il se trouve que ce groupe AutE admet une généralisation, c’est à dire qu’il existe bien un groupe qui agit sur E : c’est un objet désigné sous le nom de groupe de jauge et son étude fera l’objet de la section 3.6.2. Nous verrons qu’il est, en général, de dimension infinie.

Une des conclusions que nous voulons tirer de la présente discussion est la suivante : le groupe structural G d’un fibré associé n’agit pas sur l’espace fibré associé en question ; il y a bien un groupe AutE qui agit sur E, mais ce groupe ne coïncide pas avec G.

3.3.3 Espaces fibrés en espaces homogènes, associés à un fibré principal de groupe structural G

Soit P = P(M,G) un fibré principal et H un sous groupe de Lie du groupe structural G. On considère l’action à gauche de G sur l’espace homogène F = G∕H et on construit, en suivant la méthode de construction générale des fibrés associés, l’ensemble E = P ×GG∕H. Les fibres de E sont difféomorphes à l’espace homogènes G∕H et la base est toujours M. La dimension de E est donc égale à dimM + dimG∕H = dimM + dimG - dimH et on peut représenter E à l’aide de la figure suivante (fig. 3.14) :



Figure 3.14: Fibré associé en espaces homogènes


On peut noter E = PmodH ou simplement E = P∕H.

A l’aide de cette méthode générale et des exemples de fibrés principaux donnés précédemment, on peut ainsi fabriquer une foule de nouveaux espaces. En voici quelques exemples :



Figure 3.15: Exemples de fibrés associés en espaces homogènes


3.3.4 Fibration principale relative à un fibré quotient

La figure ci-dessous (3.16), le fait que dimP = dimE + dimH et le fait que G soit lui-même un H-fibré principal au dessus de G∕H, suggèrent que l’espace total P du fibré principal P(M,G) dont on est parti peut également être considéré comme fibré principal P(E,H) de fibre H au-dessus du fibré associé E = P ×GG∕H. Il en est effectivement ainsi.

Soit z P(M,G), on considère l’application p : P↦→E = P ×GG∕H = PmodH définie par p(z) = (z,eH), où e désigne l’élément neutre du groupe G. La fibre passant par z de cette application est simplement zH puisque

∀h  ∈ H, p(zh) = (zh,eH ) = (z,heH  ) = (z, eH ) = p(z)
On obtient donc ainsi un nouveau fibré principal Q(E,H) possédant le même espace total que P(M,G) mais cette fois-ci avec une base E = PmodH et un groupe structural H. Pour tout choix d’un sous groupe H de G, on obtient ainsi une deuxième fibration principale de l’espace P représentée par la figure (3.16).


Figure 3.16: Deuxième fibration principale de P : les espaces P(M,G) et P(E,H)


3.3.5 Espaces fibrés en espaces fibrés

Voici une famille d’exemples assez surprenante : on se donne P1 = P1(M1,G) et P2(M2,G), deux espaces fibrés principaux possédant le même groupe structural. On supposera, de plus, que P1 est un espace fibré à droite —comme d’habitude— mais que P2 est un espace fibré à gauche, ce qui n’est pas vraiment une restriction puisqu’on peut toujours passer d’une action à droite à une action à gauche (voir le chapitre sur les actions de groupes). On va alors fabriquer un fibré associé en choisissant P = P1, F = P2 et en suivant la méthode générale de construction des fibrés associés. On obtient ainsi un espace E = P1 ×GP2 dont la base est M1 et dont la fibre type est P2.

Voici un exemple de cette construction. Soit P1 = G = P1(G∕H,H), un groupe de Lie fibré en sous groupes de type H au dessus de G∕H et P2 = K = P2(H\K,H), un autre groupe de Lie fibré en sous groupe de type H au dessus de H\K ; on fabrique alors E = G ×HK qui a pour base G∕H et pour fibre type K. Une situation encore plus particulière correspond au choix G = K.

3.3.6 Le fibré adjoint E = AdP

Soit P = P(M,G) un fibré principal. On peut faire agir G sur lui-même via l’action adjointe g G,Ad(g)k = gkg-1. On choisit alors F = G, ρ = Ad, et on construit E = P ×AdG, fibré noté habituellement AdP. Cet espace fibré associé a ceci de particulier que sa fibre type est un groupe de Lie —c’est le groupe structural lui-même— et donc, au niveau du “dessin”, rien ne le distingue de P, puisqu’ils ont tous deux même base M et même fibre type G. En revanche, G opère, comme il se doit, sur le fibré principal P, alors qu’il ne sait pas agir sur AdP. Cet exemple illustre bien la nécessité d’imposer la condition 2 dans la définition des fibrés principaux (voir section 3.2.1). A tout fibré principal P, on peut donc associer un fibré en groupes AdP, dont l’importance s’avérera essentielle (nous verrons plus tard que les sections de AdP sont les transformations de jauge) . Notons pour terminer que G agit non seulement sur lui-même par l’action adjointe Ad mais aussi sur Lie(G) par l’action adjointe ad définie par ad(g)X = gXg-1, où X appartient à l’algèbre de Lie de G. La construction générale peut encore être effectuée dans ce cas, et on fabrique ainsi le fibré associé adP = P ×GLie(G) qui est un fibré en algèbres de Lie, de base M.

3.3.7 Le rôle du normalisateur

3.3.8 Les espaces fibrés vectoriels

“A tout seigneur, tout honneur”, voici les espaces fibrés vectoriels, espaces qui tiennent une place de choix dans la théorie des espaces fibrés, et dont l’étude peut se faire (et se fait souvent) de façon indépendante de la notion de fibré principal. Dans notre approche, cependant, les fibrés vectoriels sont des espaces fibrés associés comme les autres, à cette différence près que la fibre F choisie est un espace vectoriel (n ou n) et que l’action ρ de G sur F est une représentation de G sur cet espace vectoriel. Nous devons donc nous répéter : soit P = P(M,G) un fibré vectoriel et ρ une représentation de G sur l’espace vectoriel F ; on construit le fibré vectoriel E = P ×GF. Les éléments -→v de E sont vraiment ici des “vecteurs” (gardons la flèche pour le moment) et on pourra sans danger —et avec profit— utiliser une notation “avec des indices”. Comme on l’a vu en section 3.3.2, l’élément -→v de E peut s’écrire -→v = (ϵ).(v) = (ϵg).(ρ(g-1v)), avec ϵ P et v F, ce qui se lit “-→v possède les composantes (v) dans le repère (ϵ) et les composantes (ρ(g-1v)) dans le repère (ϵg)”. Si on introduit des indices, on écrira -→v = ϵivi où les vi sont des nombres réels ou complexes et où {ϵi} désigne un élément de P, c’est à dire un repère généralisé au point x, repère qui peut, dans les cas simples (cas où ρ désigne une représentation fondamentale de G, par exemple) être considéré comme base de la fibre au point x. Schématiquement, on a la figure 3.17



Figure 3.17: Espace fibré vectoriel

Le fibré vectoriel est dit réel ou complexe suivant que F = n ou n et on pourra écrire E = E(M,F). Le lecteur aura deviné que la notation utilisée ici permet de nommer la base, la fibre et l’espace total correspondant.

L’exemple fondamental est celui fourni par le fibré tangent à une variété M. Nous avons déjà défini cet espace de façon élémentaire au premier chapitre. Il s’introduit ici de façon parfaitement naturelle : Soit P = FM le fibré principal des repères linéaires sur M ; le groupe structural est G = GL(m, ) avec m = dimM. On considère la représentation fondamentale de G sur m et on construit le fibré tangent TM = FM ×GL(m,)m comme fibré associé à FM. Les éléments de TM sont, par définition, des vecteurs tangents qu’on note v = ϵμ.vμ, où ϵ μ désigne un élément de FM, c’est à dire aussi une base de T(M,x), l’espace tangent en x, c’est à dire la fibre de TM au dessus de x M. On décide également de ne plus mettre de flèche sur les vecteurs. Noter que nous écrivons les composantes vμ de v à droite de la base ϵμ de façon à rester compatible avec la notation générale que nous avons introduite précédemment pour les espaces fibrés associés. Soit Λ = (Λμν) une matrice de GL(m, ), on retrouve alors la propriété bien connue

v = ϵ vμ = (ϵ Λ ν)(Λ -1μvρ)
     μ       ν  μ     ρ

Les tenseurs contravariants et covariants de tous ordres, qui ne sont autres que les éléments de (TM)p (T*M)q déjà introduits au premier chapitre s’interprètent ici comme des éléments des espaces fibrés vectoriels FM ×GF F désigne la puissance tensorielle appropriée de m et où GL(m, ) agit sur F par la représentation tensorielle correspondante.

Les exemples qui précèdent sont d’une utilisation courante en physique de l’espace-temps (théorie de la gravitation) mais il faut bien voir qu’il n’y a pas grande différence conceptuelle entre vecteurs de l’espace temps et quarks ! En effet, en théorie des interactions fortes, par exemple, on considère un fibré principal P de groupe structural SU(3) au dessus de l’espace-temps M, on choisit alors l’action de SU(3) sur 3 et on construit le fibré vectoriel associé P ×SU(3)3 ; un quark au point x est alors décrit par un élément de ce fibré vectoriel. Nous reviendrons plus loin sur ces exemples utilisés en physique.

3.3.9 Trivialité des fibrés vectoriels, variétés parallélisables

Revenons un peu sur la notion de trivialité déjà étudiée, dans le cas des fibrés principaux, en section 3.2.5. On se souvient qu’une condition nécessaire et suffisante, pour assurer la trivialité d’un fibré principal P, est l’existence d’une section globale. Contrairement au cas des fibrés principaux, l’existence, pour un fibré vectoriel, de sections globales, est une propriété évidente : tout fibré vectoriel, trivial ou non, possède des sections globales, par exemple la section nulle. Ce n’est donc pas ainsi qu’on détecte la trivialité. Par contre, nous avons vu que, d’une certaine façon, on pouvait considérer un élément du fibré principal P comme une base dans une certaine fibre du fibré associé E. L’existence pour P d’une section globale équivaut donc, pour E, à l’existence de n sections indépendantes en tout point de M (n désignant ici la dimension de la fibre type). On dit qu’une variété est parallélisable si son fibré tangent est trivial. De façon générale, les groupes de Lie sont des variétés parallélisables. En effet la donnée d’une base dans l’algèbre de Lie 𝔤 du groupe G détermine n = dim(G) champs de vecteurs indépendants en tous points de G (les champs invariants à gauche associés). On voit ainsi que le fibré tangent TG possède n sections indépendantes (il est donc trivial), et que, ce qui revient au même, le fibré principal FG (le fibré principal des repères sur la variété G, fibré dont le groupe structural est GL(n)) possède une section globale. Les groupes ne sont pas les seules variétés parallélisables ; l’exemple le plus célèbre de variété ne possédant pas de structure de groupe mais étant néanmoins parallélisable est sans doute celui de la sphère S7 (seules les sphères S0, S1 et S3 possèdent une structure de groupe). La démonstration de cette propriété repose sur l’utilisation du produit de Cayley dans R8 (l’“algèbre” des octonions). Les sphères Sn de dimension n = 0, 1, 3, 7 sont les seules sphères à être parallélisables. Signalons sans démonstration quelques autres exemples de variétés parallélisables : les variétés de Stiefel complexes SU(n)∕SU(k) (en excluant les sphères, c’est à dire en supposant kn - 1), les espaces homogènes qui sont des quotients de SU(n) par des sous-groupes du type SU(2) × × SU(2) (à condition d’exclure une seule exception, la sphère S5 = SU(3)∕SU(2)), les quotients du type Sp(n)∕SU(2), l’espace homogène SU(4)∕H H est le sous-groupe de SU(4) isomorphe à SU(2) constitué des matrices du type (     )
  A  0
  0 A , avec A SU(2).

3.3.10 Sections de fibrés associés et champs

3.4 Changement de groupe structural dans les fibrés principaux : élargissement et réduction

3.4.1 Définitions

On considère la situation où nous avons deux fibrés principaux Q(M,H) et P(M,G) avec H G et f, un difféomorphisme de Q sur f(Q) P tel que z Q,s H,f(zs) = f(z)s. En pratique il s’agira souvent d’une inclusion Q P, f n’étant autre que l’identité.

Dans une telle situation, on dit que P est un élargissement (ou un prolongement) de Q et que Q est une réduction de P.

Comme nous allons le voir, il est toujours possible d’élargir mais il n’est pas nécessairement possible de réduire.

3.4.2 Elargissement (passage de H à G avec H G)

Soit Q = Q(M,H) un fibré principal. On veut “agrandir” le fibré Q sans modifier la base M mais en agrandissant la fibre, c’est à dire en remplaçant le groupe de Lie H par un groupe G “plus grand”. La construction est la suivante : on se choisit un groupe de Lie G tel que H G et on construit le fibré P associé à Q défini par P = Q ×HG H agit sur G par multiplication à gauche. Les actions de H à droite de Q et à gauche de G s’annihilent, mais il est évident que l’espace P = P(M,G) est un G-fibré principal puisque G agit à droite de P via (z.k)k = z.kk, avec z Q et k,kG. Par ailleurs, le difféomorphisme de Q sur f(Q) recherché est défini, pour z Q, par f(z) = z.e (e désignant l’élément neutre de G) et on notera simplement f(z) = z.

En conclusion, le passage de Q(M,H) à P(M,G) avec H G est toujours possible. On dit que P est obtenu à partir de Q par élargissement du groupe structural et que Q lui-même est une réduction de P. Notons que les représentations de G sont toujours des représentations de H, mais que le contraire n’est pas nécessairement vrai (ainsi, il faut, en général, prendre la somme directe de plusieurs représentations de H pour construire une représentation de G) ; les fibrés associés à Q ne sont donc pas forcément toujours des fibrés associés à un élargissement P.

3.4.3 Réduction (passage de G à H avec H G)

Méthode

Soit P = P(M,G) un fibré principal. On veut diminuer la taille de P sans modifier la base M mais en “raccourcissant” la fibre, c’est à dire en remplaçant G par un groupe “plus petit”. En d’autres termes, si on considère les éléments de P comme des repères généralisés, on veut s’intéresser uniquement à une sous-classe particulière de repères, sous-classe qui soit stable sous l’action d’un sous-groupe H de G. La méthode du paragraphe précédent ne s’applique pas car le groupe H(G) n’est pas stable lorsqu’on le multiplie à gauche par des éléments de G.

Enonçons (et retenons) le résultat suivant que nous démontrerons un peu plus bas :

Le choix d’une réduction du fibré principal P = P(M,G) à un sous-fibré Q = Q(M,H) de groupe structural H, lorsqu’il existe, n’est pas en général unique, et est caractérisé par le choix d’une section globale dans un fibré en espaces homogènes associé à P, en l’occurrence le fibré associé P ×GG∕H.

Ce théorème est d’une importance fondamentale car il permet, comme nous allons le voir, de donner un sens précis à l’idée intuitive de “choix d’une géométrie” pour la variété différentiable M.

Preuve. Soit σ une section globale de E = PmodH. Un théorème précédemment discuté (voir les diverses manières de considérer les sections de fibré associé) nous dit qu’on peut associer à σ une application -→σ du fibré principal P dans la fibre type G∕H, qui soit équivariante (-→
σ(ys) = s-1-→
 σ(y)). Définissons Q = -→
 σ-1(eH) P. La projection π : Q↦→M n’est autre, par définition, que la restriction à Q de la projection π de P. Considérons deux points y1 et y2 de la même fibre de Q, c’est à dire π(y1) = π(y2) ; nous savons qu’il existe s Gtel quey2 = y1s. Nous allons montrer qu’en fait, cet élément s appartient au sous-groupe H. En effet,

y1,y2 ∈ Q ⇒  -→σ (y1) = eHet -→σ (y2) = eH
mais -→σ(y2) = -→σ(y1s) = s-1-→σ(y 1) et donc, eH = s-1(eH), ce qui montre que s H. Ainsi Q P est un fibré principal de groupe structural H. Réciproquement, donnons nous H G et une réduction Q = Q(M,H) P = P(M,G). Définissons -→σ : P↦→G∕H par y Q P,-→
 σ(y) = eH G∕H. La fonction -→
σ est ainsi constante sur les fibres de Q. Soient maintenant deux points y0 Q et y P que nous prenons dans la même fibre de P mais nous supposons que y n’appartient pas nécessairement à Q. Il existe donc un élément g de G tel que y = y0g, alors -→
σ(y) = -→
 σ(y0g) = g-1-→
σ(y 0) = g-1eH = g-1H G∕H. On a ainsi construit une application -→σ : P↦→G∕H équivariante sous l’action de G. Cela détermine, en vertu du théorème énoncé au 2 du 3.3.10 une section globale de E(M,G∕H) = PmodH.
Réduction de GL(n, ) à SO(n) : structures riemanniennes
 
On peut rattacher canoniquement à une variété différentiable M son fibré FM des repères linéaires. C’est un fibré principal de groupe structural GL(n, ). Choisissons maintenant une réduction à un sous-fibré de groupe structural SO(n). Choisir une telle réduction consiste à sélectionner une certaine classe de repères, que nous appellerons orthonormés, telle que l’un quelconque d’entre eux puisse s’obtenir à partir de n’importe quel autre à l’aide d’une matrice du groupe orthogonal SO(n). Par définition, une variété riemannienne (M en l’occurrence) est une variété différentiable de dimension n pour laquelle on a choisi une réduction du fibré FM des repères linéaires à un sous-fibré de groupe structural SO(n). Le sous-fibré en question se note alors OFM (“Orthogonal Frame Bundle”) et prend le nom de fibré des repères orthonormés. Le lecteur peut se demander où est la métrique dans cette approche La réponse est la suivante : le tenseur métrique s’identifie précisément avec la section globale du fibré en espaces homogènes GL(n)∕SO(n) qui définit la réduction (nous oublions momentanément les problèmes liés à des exigences de non dégénérescence, de positivité etc ). Noter que la dimension de cet espace homogène est égale à dim(GL(n)) - dim(SO(n)) = n2 - n(n - 1)2 = n(n + 1)2, et ses éléments peuvent donc s’identifier, comme il se doit, à des tenseurs de rang deux complètement symétriques. Intuitivement, choisir une structure riemannienne revient à conférer une “forme géométrique” à une variété différentiable ; c’est ainsi que c’est le choix de la métrique qui fait la différence entre un ballon de foot, un ballon de rugby et une bouteille de vin (bouchée !) et la multiplicité des réductions possibles coïncide avec la multiplicité des métriques riemanniennes qu’on peut choisir, pour une variété différentiable donnée. Vu l’importance de cette notion, nous y reviendrons abondamment dans le chapitre suivant.
Réduction de GL(2n, ) à GL(n, ) : structures presque-complexes

L’idée est essentiellement la même que dans l’exemple précédent, à ceci près que M est supposé être de dimension paire et qu’on choisit maintenant une réduction du fibré des repères linéaires à un sous-fibré dont le groupe orthogonal doit être SU(n). Les variétés pour lesquelles on a effectué un tel choix se nomment variétés presque-complexes et l’analogue de la métrique est ici la donnée, en chaque espace tangent T(M,x) d’un endomorphisme j de carré égal à -1. Cet opérateur peut encore s’identifier à une section globale d’un fibré en espaces homogènes GL(2n, )∕GL(n, ). Le lecteur peut sans doute se demander pourquoi on parle ici de variétés presque-complexes et non, tout simplement, de variétés complexes. Il se trouve que ces deux notions sont de nature assez différentes (et la terminologie est désormais consacrée) : la notion de structure presque-complexe est, comme on vient de le voir, analogue à la notion de structure riemannienne et est associée au choix d’une réduction du fibré des repères pour une variété différentiable ; la notion de structure complexe est, quant à elle, analogue à la notion de structure de variété topologique, de variété linéaire par morceaux ou analogue à la notion de structure différentiable elle-même (on choisit des cartes à valeur dans n et non plus dans n et on impose aux fonctions de transitions d’être holomorphes). Nous n’aurons pas le loisir, dans cet ouvrage, d’étudier la géométrie des variétés complexes ; notons simplement que la terminologie vient du fait qu’une variété complexe donnée fournit une variété différentiable qui se trouve automatiquement munie d’une structure presque-complexe (l’endomorphisme j de carré égal à -1 provenant tout simplement de la multiplication par le nombre complexe i). Le passage inverse, celui d’une structure presque-complexe à une structure complexe, n’est pas automatique car il nécessite la vérification d’une certaine condition d’intégrabilité.

On peut aussi parler de variétés presque-hermitiennes lorsque la réduction du groupe structural va de GL(2n, ) à U(n) = O(2n) GL(n, ). Dans ce cas, il existe une métrique h compatible avec la structure presque-complexe, en ce sens que h(v1,v2) = h(jv1,jv2). On peut alors construire une forme hermitienne H(v1,v2) = 1 2(h(v1,v2)- ih(jv1,v2)) et une forme presque-Kählerienne ω(v1,v2) = h(jv1,v2).

Réduction de GL(4,n) à Sp(n) : structures presque-quaternioniques

L’histoire est la même que dans le cas précédent et les commentaires sont analogues. La section globale du fibré en espaces homogènes GL(4n, )∕Sp(n) caractérisant la réduction peut s’identifier à la donnée, en chaque espace tangent T(M,x) de trois opérateurs j1, j2, j3, tous trois de carré égal à moins l’identité, et satisfaisant aux relations j1j2 = -j2j1 = j3, j2j3 = -j3j2 = j1 et j3j1 = -j1j3 = j2. La raison du “presque” dans le presque-quaternionique est analogue celle donnée dans le paragraphe précédent à condition toutefois de remplacer nombres complexes par quaternions. Ici Sp(n) désigne le groupe compact des unitaires quaternioniques, quelquefois désigné par U(n, ). Nous n’aurons pas le loisir de revenir sur ce sujet dans le cadre de cet ouvrage.

Remarques

Avant de quitter cette partie consacrée aux réductions de fibrés principaux, notons que les représentations d’un groupe G sont aussi des représentations de tout sous-groupe H de G. Ainsi donc, les fibrés associés à P(M,G) sont aussi associés à tout sous-fibré Q(M,H) avec H G. Il est rassurant de savoir que le fibré tangent TM défini à partir du fibré des repères linéaires FM coïncide avec celui qu’on peut définir à partir du fibré OFM des repères orthonormés !

3.5 Changement de groupe structural dans les fibrés principaux : extension et quotient

Les deux sous-sections précédentes étaient, en quelque sorte, complémentaires, les deux qui suivent le seront aussi.

3.5.1 Extension (passage de G à ^G avec G ~G^|H)

Méthode générale

Le problème est le suivant : on part d’un espace fibré P = P(M,G) et on veut remplacer le groupe structural G par un groupe  ^
G tel que G soit isomorphe à G^∕H H est un sous-groupe distingué de ^G. Le cas le plus fréquent est celui où G est un groupe qui n’est pas simplement connexe et où on veut le remplacer par son groupe de recouvrement universel ^
G. H est alors un sous-groupe discret du centre de G^ et s’identifie au groupe d’homotopie π1(G) (voir le chapitre sur les groupes). Pour illustrer cette situation, voici un exemple dont l’importance physique est importante. La variété différentiable M est un modèle pour l’espace-temps et P désigne le fibré des repères orthonormés correspondant au choix d’une certaine métrique sur M. Certains champs de matière vont être représentés par des sections de fibrés associés à P. Ces fibrés seront construits à partir de représentations du groupe SO(n) (en physique quadri-dimensionelle, généralement SO(3, 1) ou SO(4)). Dans bien des cas, cependant, les champs de matière qui nous intéressent ne correspondent pas vraiment à des représentations de SO(n) mais à des représentations de son groupe de recouvrement universel Spin(n) c’est à dire Spin(3, 1) = SL(2, ) si G = SO(3, 1) et Spin(4) = SU(2) ×SU(2) si G = SO(4). On se souvient en effet que les représentations de G peuvent également être considérées comme des représentations de ^
G mais que certaines représentations de ^G ne correspondent à aucune représentation de G (ainsi, les spins demi-entiers correspondent à des représentations de SU(2) mais pas à des représentations de SO(3)). Lorsque la topologie de M et triviale, le fait de “considérer des spineurs” n’offre aucune difficulté ; les choses changent lorsque M cesse d’être trivial : en d’autre termes, il existe des espaces qui n’admettent pas de spineurs ! A l’opposé, il existe des espaces qui admettent plusieurs types de spineurs. Nous discuterons de nouveau de ces problèmes un peu plus loin.

Revenons à un cadre plus général. On se donne G = Ĝ∕H. On a donc un homomorphisme (surjectif) de groupe  ^
Gλ
↦→G de noyau H = Kerλ. On appellera “extension de fibré principal P = P(M,G) à un fibré de groupe structural ^G” la donnée d’un fibré principal P^ = ^P(M,^G) et d’un homomorphisme de fibré ^
λ :  ^
P↦→P qui soit compatible avec les actions respectives de G et  ^
G et avec l’homomorphisme de groupe λ ; en d’autres termes, ^λ doit préserver les fibres (c’est un homomorphisme de fibré) et être tel que

^λ(^z^k) = zk  o`u ^z ∈ P^,^k ∈ ^G, z = ^λ(z) et k = λ (^k )
L’existence d’une ou de plusieurs extensions correspondant à une situation donnée (c’est à dire le fibré P, le groupe G, etc ) dépend bien entendu de la situation considérée

Le problème de l’extension d’un fibré principal (passage de G à ^G avec G = G^∕H) peut être décrit de façon imagée par la figure suivante (3.18).



Figure 3.18: Extension d’un fibré principal


On voit que P^ est aussi un H-fibré principal au dessus de P (voir également la discussion menée en section 3.3.4) et que P ~^P∕H.

Structures spinorielles

Dans le cas particulier où P = OFM désigne le fibré des repères orthonormés d’une variété riemannienne M, le groupe structural est G = SO(n) et G^ = Spin(n). On dit que la variété M est une variété spinorielle s’il existe une extension ^P = P^(M,Spin(n)). Choisir une structure spinorielle pour une variété riemannienne donnée M consiste à choisir une extension  ^
P (s’il en existe une). Le fibré ^
P, s’il existe, est alors désigné sous le nom de fibré des repères spinoriels ou, tout simplement fibré de spin et dénoté O^FM. Dans les bons cas (“bon” signifiant qu’on peut ne pas se soucier du problème !), ^
OFM existe et est unique, à isomorphisme près. Notons encore que le choix d’une structure spinorielle est tributaire du choix d’une structure riemannienne (on choisit d’abord P = P(M,SO(n)), puis ^P = ^P(M,Spin(n)), mais on doit se souvenir que deux métriques distinctes définissent des fibrés P(M,SO(n)) différents. On sait que la représentation fondamentale de SO(n) agissant sur n permet de fabriquer le fibré tangent TM = P ×SO(n)n comme fibré associé à P et de définir l’ensemble des champs de vecteurs ΓTM comme ensemble des sections de TM. De la même façon, la représentation fondamentale de Spin(n) agissant sur s avec s = 2[n∕2], [n∕2] désignant la partie entière de n∕2, permet de fabriquer le fibré des spineurs SM = ^P ×Spin(n)s comme fibré associé à ^P et de définir l’ensemble des champs de spineurs ΓSM comme ensemble des sections de SM.

Pour ce qui est des rappels concernant la représentation fondamentale de Spin(n), les algèbres de Clifford, etc , voir la fin du chapitre précédent.

On montre que l’existence d’une structure spinorielle, pour une variété donnée, est liée à l’annulation d’une certaine classe caractéristique (la deuxième classe de Stiefel-Whitney). Mis à part une courte remarque du même type à la fin de cette section, ce phénomène ne sera pas discuté dans le cadre de notre ouvrage.

Bosons et fermions

En physique théorique, on montre que, dans le cadre de la théorie quantique des champs, et en dimension égale à 4, les particules obéissant à une statistique de Fermi-Dirac (les fermions) sont des particules de spin demi-entier, alors que celles obéissant à une statistique de Bose-Einstein (les bosons) sont des particules de spin entier. Nous n’expliquerons pas ici la signification de ce résultat célèbre (le théorème spin-statistique) puisque nous n’aborderons pas la théorie quantique des champs dans le cadre de cet ouvrage. Cependant, le résultat en question (qui n’est vraiment bien compris et démontré qu’en dimension 4) nous permet d’introduire la terminologie suivante en dimension quelconque : nous dirons qu’un champ est un champ bosonique s’il s’agit d’une section d’un fibré vectoriel associable au fibré des repères orthonormés d’une variété riemannienne M ; nous dirons que c’est un champ fermionique s’il s’agit d’une section d’un fibré vectoriel associable au fibré des repères spinoriels d’une variété riemannienne M, qui soit telle que la représentation correspondante (celle qui définit le fibré associé) soit une représentation de Spin(n) qui ne puisse pas être considérée comme une représentation du groupe SO(n) mais seulement comme une représentation de Spin(n).

Notons que, bien que moins proche de notre intuition, les champs spinoriels (sections de SM) sont plus “fondamentaux” que les champs vectoriels (sections de TM). Ceci est déjà évident au niveau de la théorie des représentations de SU(2) : on peut construire n’importe quelle représentation de ce groupe à partir de la fondamentale (qui est spinorielle ). Cette dernière est de dimension 2 et correspond physiquement à ce qu’on appelle un champ de spin 12. Par ailleurs, il est facile de voir qu’on peut construire un champ de vecteurs à partir de (deux) champs de spineurs, mais pas le contraire

Structure quarkique

Nous venons de discuter le cas particulier de G = SO(n) = Spin(n)2 mais nous aurions pu également considérer le cas de fibrés avec groupe structural G = SU(3)3 : le fait qu’il soit, ou non, possible, de définir des “champs de quarks” (associés à la représentation fondamentale de SU(3), ou plus généralement des champs associés à des représentations dont la trialité est différente de zéro) pour une variété M considérée comme base d’un fibré principal P(M,SU(3)3) n’est pas quelque chose d’automatique. On pourrait alors parler de “structure quarkique” !

Structure encordée

Il ne faudrait pas croire que le groupe H, tel que G = G^∕H dont il a été question dans ce chapitre consacré aux extensions d’espaces fibrés soit nécessairement discret. C’est ainsi qu’en théorie des cordes, la variété M est remplacée par LM (le “loopspace” de M), c’est à dire l’ensemble des applications de S1 dans M, G est, de la même façon remplacé par LG et P par LP. L’ensemble LG est naturellement un groupe (de dimension infinie) et LP est fibré en LG au dessus de LM. Dans ce cas, toutefois, ce ne sont pas tant les représentations de LG qui nous intéressent, mais celles d’une extension centrale L^G de LG (on a Lie(^LG) = Lie(LG) ). Dans ce cas, H = U(1) et la question se pose de savoir si LP peut être étendu à un fibré ^LP de groupe structural ^LG. Là encore, l’existence n’est pas assurée, et, en cas d’existence, l’unicité non plus. Lorsque ^LP existe, on dit que le fibré en boucles LP possède une structure encordée (“a string structure for a loop bundle” ).

Interprétation cohomologique

L’existence et l’unicité (ou non) des extensions de fibrés peuvent se décrire de façon cohomologique. Cette interprétation dépasse le cadre que nous nous sommes fixés. Mentionnons seulement que l’existence de ^P peut être lié à l’annulation d’une certaine classe de cohomologie appartenant à H2(M,H). Dans le cas des structures spinorielles, H = 2 et la classe en question, dont l’annulation fournit une condition nécessaire et suffisante à l’existence de ^
P, s’appelle deuxième classe de Stiefel-Whitney . Dans le cas des structures encordées, il faut considérer H2(LM,U(1)) puisque LM est la base du fibré considéré, ce groupe de cohomologie (de LM) peut alors être relié à H3(M, ) et ceci est une autre histoire.

3.5.2 Quotient (passage de G à K avec K ~ G|H, H sous-groupe distingué de G)

On part de P = P(M,G), on se choisit un sous-groupe distingué H de G et on veut remplacer P par Q = Q(M,K), avec K = G|H. Cette opération est, en un sens, inverse de celle précédemment considérée. La méthode est simple puisqu’il s’agit de “diviser” P par H en considérant l’ensemble quotient Q = P∕H où l’action de H sur P est obtenue par restriction de celle de G. Il est évident que ce type de changement de groupe structural n’offre aucune difficulté, contrairement à la situation inverse décrite au paragraphe précédent. Il faut évidemment veiller à ce que H soit distingué dans G, de façon à ce que le quotient G|H soit bien un groupe. Nous n’en dirons pas plus sur ce sujet puisque la discussion résulte simplement des analyses déjà effectuées dans les sections précédentes. En particulier, P est un H-fibré principal au dessus du fibré quotient Q, lequel se trouve être, également, dans ce cas particulier, un fibré principal.

3.6 Groupe des automorphismes. Groupe de jauge

3.6.1 Remarque terminologique

Nous utiliserons souvent l’expression “repère en x” —sans mettre les guillemets !— pour parler d’un point z de P = P(M,G) se projetant au point x, même si le fibré considéré n’est pas un sous-fibré de l’espace des repères mais un fibré principal quelconque au dessus de M, avec groupe de structure G. Le contexte devrait suffire à préciser s’il s’agit d’un repère de l’“espace interne” —comme disent les physiciens— c’est à dire un élément d’un fibré principal quelconque non relié au fibré FM des repères linéaires, ou, au contraire, d’un repère de l’“espace externe”, c’est à dire un élément de FM (ou de OFM, ou d’un autre sous-fibré de FM).

3.6.2 Automorphismes verticaux d’un espace fibré principal (définition)

3.6.3 Ecriture locale des transformations de jauge

Soit Φ une transformation de jauge, z un élément de P et σ une section locale au voisinage de x = π(z) M. Le repère Φ(σ(x)) étant dans la même fibre (au même point !) que le repère mobile σ(x), il doit être possible d’atteindre le premier à partir du second par l’action d’un élément approprié de G que nous noterons g(x), puisque G est transitif sur les fibres. Cet élément est donc défini par l’équation Φ(σ(x)) = σ(x)g(x) c’est à dire encore par

g(x) = σ (x )-1Φ(σ (x )),
en utilisant la notation introduite en fin de section 3.2.1. Notons que g(x) dépend non seulement de Φ mais aussi de la section σ choisie ; on pourrait utiliser la notation un peu lourde σg(x) pour désigner cet élément.

Lorsque P est trivial, on sait qu’il existe des sections globales. Soit σ une telle section, alors, l’équation précédente définit une application de M dans G ; réciproquement, la donnée d’une application g(x) de M dans G permet, lorsque le fibré principal est trivial, de définir, via le choix d’une section globale σ, une transformation de jauge Φ par la même équation. Lorsque P est trivial, on peut donc identifier le groupe de jauge 𝔊 avec le groupe Ω0(M,G) des applications différentiables de M dans G. La correspondance n’est cependant pas canonique puisqu’elle dépend du choix d’une section globale σ. Cette identification “explique” pourquoi les automorphismes verticaux sont désignés par les physiciens (des particules) sous le nom de “transformations de jauge locales”, le mot “local” se référant ici à la dépendance “en x” car la transformation g(.) elle-même est globalement définie lorsque P est trivial.

3.6.4 Deux autres définitions des transformations de jauge

3.6.5 Automorphismes quelconques d’un espace fibré principal

Soit P = P(M,G) un fibré principal et 𝔊 son groupe d’automorphismes verticaux (groupe de jauge). Nous allons à présent considérer des automorphismes plus généraux que ceux considérés dans les sous-sections précédentes. Jusqu’à présent, nos automorphismes étaient verticaux, en ce sens que l’image Φ(z) de z par Φ était dans la même fibre que z. Nous allons garder les conditions 1 et 3 données dans la définition du groupe de jauge (section 3.6.2) mais atténuer la deuxième condition ; les automorphismes devront préserver les fibres au sens suivant : l’image d’une fibre devra être une fibre, mais on n’imposera pas le fait qu’image et antécédent appartiennent à la même fibre ! En d’autres termes, si x désigne un point de M, l’ensemble Φ(π-1(x)), image de la fibre au dessus de x par Φ doit être une fibre de P. Cette fibre image se projette en un certain point y de M. L’action d’un tel automorphisme Φ définit donc également une application de M dans M x on associe le point y tel que y = π(Φ(π-1(x)))). Cette application est, par construction, un difféomorphisme. On obtient donc de cette façon une projection du groupe AutP des automorphismes de P (le groupe engendré par les automorphismes que nous venons de définir) sur le groupe DiffM des difféomorphismes de M. Deux automorphismes de P se projetant sur le même difféomorphisme de M diffèrent manifestement (au sens de la composition des morphismes) par un automorphisme ne changeant pas le point de base, c’est à dire par un automorphisme vertical. Localement, ces “symétries de jauge” (nom qu’on donne quelquefois aux éléments de AutP) sont donc codées à l’aide d’un difféomorphisme de M et d’une transformation de jauge. Plus précisément, on a la fibration principale 𝔊↦→AutP↦→DiffM (noter que 𝔊 est un groupe de dimension infinie) qu’on peut représenter par la figure 3.19



Figure 3.19: Automorphismes de fibrés principaux


3.6.6 Action des automorphismes sur les espaces fibrés associés

3.6.7 Le cas des espaces vectoriels (un cas trivial mais instructif !)

Un fibré vectoriel n’est autre, intuitivement, qu’une famille Ex d’espaces vectoriels de même dimension, “collés” ensemble, et paramétrisés par une variété (x M). Lorsque M se réduit à un seul point, on n’a qu’une seule fibre et donc un seul espace vectoriel. On peut donc considérer un espace vectoriel E comme un fibré vectoriel au dessus d’un point ! Ce fibré vectoriel particulièrement trivial est associé à un fibré principal également constitué d’une seule fibre, fibre qui n’est autre que l’ensemble P des bases de l’espace vectoriel E. Si on suppose que E est isomorphe à n, on voit que cette fibre est difféomorphe au groupe GL(n, ). Si on choisit une base σ = {σμ} de référence (une section !), on obtient une correspondance bi-univoque entre bases (éléments de P) et matrices inversibles (éléments du groupe GL(n, )). L’identification de P avec GL(n, ) dépend de la base σ choisie. Le groupe matriciel GL(n, ) agit sur P ; cette action ne dépend pas du choix de σ. En effet, si e = (eμ) P et Λ = (Λνμ) GL(n, ), on obtient e= eΛ P via eν= eμΛνμ. Les vecteurs u de l’espace vectoriel E sont des classes d’équivalence u = eμ.uμ avec e = {e μ}∈ P et uμ n, la relation d’équivalence identifiant eμ.uμ avec e νΛμν.-1) ρμuρ. Le groupe GL(n, ) n’agit donc pas sur E (il n’agit que sur les composantes des vecteurs de E). Par contre, l’espace vectoriel E possède un groupe d’automorphismes AutE (les applications linéaires bijectives). Si u E et Φ AutE alors Φu E ; les automorphismes Φ agissent aussi sur les bases e = {eμ}, l’action en question résultant de l’action sur chacun des vecteurs de base. Il faut bien voir que les groupes AutE et GL(n, ) sont différents ! Cependant, si on se choisit une base σ = σμ de référence, on peut, de façon élémentaire —voir cours de Terminale de nos lycées— associer, à tout élément Φ de AutE, une matrice Λ de GL(n, ). Dans le cas d’un espace vectoriel, donc, le groupe structural et le groupe des automorphismes (qui, dans ce cas, sont nécessairement verticaux), bien que conceptuellement distincts, sont identifiables dès qu’on se choisit une base de référence (c’est à dire une section de ce fibré !). En particulier, lorsque E est de dimension finie, ces deux groupes sont de dimension finie. Dès qu’on passe au cas de fibrés vectoriels au dessus d’une variété M non réduite à un point, l’identification n’est plus possible : G = GL(n, ) reste ce qu’il était mais 𝔊 = AutV P devient un groupe de dimension infinie qu’on peut se représenter intuitivement comme une famille de groupe d’automorphismes d’espaces vectoriels (les fibres de E) paramétrisés par les points de la base M.

Chapitre 4
Connexions

4.1 Connexions dans un fibré principal

4.1.1 Motivations

On veut donner un sens à l’idée de vouloir “garder un repère fixe” ou de “transporter son repère avec soi” ; il s’agit là d’une notion intuitive qui n’a, a priori, pas de sens lorsqu’on se déplace sur une variété différentiable quelconque munie de sa seule structure de variété. Intuitivement, on souhaite disposer d’un moyen d’assujettir le déplacement d’un repère choisi (déplacement qui a donc lieu dans l’ensemble des repères) lorsqu’on déplace l’origine de ce repère dans l’espace qui nous intéresse. Puisque nous avons maintenant à notre disposition la notion d’espace fibré, nous nous plaçons dans le fibré des repères correspondant à une variété M (la base du fibré en question) et nous souhaitons donc pouvoir disposer d’une méthode nous permettant d’associer, à tout chemin allant du point P au point Q sur la base, et à tout repère au point P, un certain chemin dans l’espace des repères. Choisir d’une telle méthode revient précisément à choisir ce qu’on appelle une connexion dans le fibré principal des repères linéaires. Le mot “connexion” – en anglais “connection”– est bien choisi puisqu’il nous permet effectivement de connecter (de comparer) des vecteurs (plus généralement des éléments d’un fibré associé) situés en des points différents de la variété. Le cas de l’espace affine Rn est très particulier puisqu’on peut disposer là de repères globaux permettant de comparer des vecteurs situés en des points différents ; il existe d’autres variétés pour lesquelles cette propriété est également valable et où le choix d’un repère mobile global est possible : ce sont les variétés parallèlisables déjà mentionnées dans le chapitre précédent. Nous allons, dans un premier temps, définir la notion de connexion de façon infinitésimale, comme étant un moyen d’associer un déplacement infinitésimal dans l’espace des repères à un déplacement infinitésimal du point de base (c’est à dire du point où le repère est situé). En fait, la seule structure utilisée dans la définition de la notion de connexion est celle de fibré principal et tout ce qu’on écrira aura encore un sens si on remplace le fibré des repères par un fibré principal quelconque (cela dit, il est bien commode de visualiser les choses en utilisant des repères, nous nous permettrons donc d’utiliser le mot “repère” pour désigner un élément d’un espace fibré principal quelconque).

4.1.2 Distributions horizontales équivariantes

Soit P le fibré principal des repères linéaires de la variété M, avec groupe structural GL(n). Soit e P un repère au point PM (attention e ne désigne pas l’élément neutre de G !). L’espace tangent T(P,e), tangent à P en e est, intuitivement, l’ensemble des déplacements infinitésimaux de repères, issus du repère e. Nous savons déjà nous déplacer dans la direction verticale puisque cela correspond à un déplacement infinitésimal induit par l’action du groupe GL(n) : on fait “tourner” le repère e sans faire bouger le point P. Le sous espace vertical V (P,e) est donc déjà bien défini. Une connexion sera caractérisée par le choix d’un sous-espace supplémentaire à V (P,e) dans T(P,e), sous-espace qui sera bien évidemment qualifié d’“horizontal” et noté H(P,e). Par ailleurs, on veut que ce choix puisse être effectué, de façon continue et différentiable, pour tout repère, c’est à dire en tout point e de P. Enfin, on veut que ce choix soit également équivariant sous l’action du groupe structural : nous savons que GL(n) opère transitivement sur les fibres (par exemple sur les repères au point P), l’image du repère e sous l’action d’ un élément g du groupe structural est un repère e.g de la même fibre (Rg(e) = e.g) et l’application tangente dRg (Rg)* en e envoie donc l’espace tangent T(P,e) dans l’espace tangent T(P,e.g). Il est commode de noter simplement T(P,e)g = (Rg)*T(P,e) T(P,eg) puisque, formellement (ge)∕∂e = g. La propriété d’équivariance requise signifie simplement ceci : on veut que le choix de l’espace horizontal H(P,e.g) en e.g puisse également être obtenu en utilisant l’action du groupe structural sur les fibres, en d’autres termes on impose H(P,e.g) = H(P,e).g

Noter que la discussion qui précède ne dépend pas du type particulier de fibré principal considéré et le lecteur est invité à remplacer partout le groupe GL(n) par un groupe de Lie quelconque (et le mot “repère” par les mots “élément du fibré principal P”). Le choix, en tout point e d’un fibré principal P, d’un tel espace vectoriel H(P,e) supplémentaire à V (P,e), c’est à dire, T(P,e) = V (P,e) H(P,e), est désigné sous le nom de distribution horizontale  ; noter que le sens de ce mot “distribution” n’a ici aucun rapport avec celui utilisé en théorie de la mesure (la théorie des distributions !). Notre première définition d’une connexion principale est donc la suivante : c ’est la donnée, dans un fibré principal P, d’une distribution horizontale équivariante sous l’action du groupe structural.

4.1.3 Relèvement horizontal

Soit P = P(M,G) un fibré principal, on dispose donc d’une projection π : P M et donc également de son application tangente π*. Cette application linéaire envoie l’espace tangent T(P,e) sur l’espace tangent T(M,π(e)) ; en d’autres termes, elle nous permet d’associer, à tout déplacement infinitésimal d’un repère e dans l’espace des repères, le déplacement infinitésimal correspondant du point x = π(e) dans la variété M (x est le point où le repère est centré). Comme nous l’avons remarqué à plusieurs reprises, étant donnée une application d’une variété dans une autre, nous pouvons faire “voyager” les vecteurs dans la même direction –il s’agit d’un “push-forward”– et les formes dans la direction opposée (“pull-back”)

De façon générale, soit γ(t) une courbe dans M, on dira qu’une courbe Γ(t) dans P est un relèvement de γ(t) si Γ se projette sur γ (intuitivement “on” –un voyageur qui se promène sur M– s’est choisi un repère mobile quelconque en tout point du chemin qu’il suit). Supposons maintenant que nous nous sommes donnés une connexion (au sens donné dans la sous section précédente) dans le fibré principal P, nous savons donc définir l’horizontalité des vecteurs de TP ; on dira qu’un relèvement est horizontal si les vecteurs tangents au relèvement sont horizontaux. Considérons une courbe γ(t) dans M allant de P0 = γ(0) à