Espace Euclidien Flashcards

(150 cards)

1
Q

Définir un produit scalaire

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Donner un exemple de produit scalaire sur :

  • IRn
  • Mn,1(IR)
  • Mn(IR)
  • C0([a,b],IR)
  • IR[X]
A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Montrer la convergence

A

Et faire avant le cas : P=0 ou Q=0, car dans ce cas on ne peut pas faire l’équivalent.

Alors on a juste l’intégrale qui converge et vaut 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Montrer le caractère défini positif de ce produit scalaire sur IR[X]

A

Première implication : car P²(t)e-t ≥ 0, donc l’intégrale jusqu’à A est supérieure à 0 et inférieur à l’intégrale jusqu’à +∞

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Comment définir une norme à partir d’un produit scalaire ?
Justif

A

C’est ce qu’on appelle une norme euclidienne

Pour le 3 : on regarde ||x+y||² puis on utilise Cauchy-Schwarz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Rappeler Cauchy-Schwarz
Justif

A

Cas d’égalité : x et y colinéaires

Car égalité ⇔ Δ = 0 ⇔ ∃λ, ||x + λy||=0 ⇔ ∃λ, x + λ.y = 0 ⇔ ∃λ’, x = λ’.y (def de x et y colinéaires)

|<x|y>| ≤ √(<x|x>) × √(<y|y>)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Qu’est-ce que l’identité de polarité ?
Quelle est la conséquence ?

A

Donc, si on connait la norme on peut remonter au produit scalaire (si celle-ci est une norme préhilbertienne)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Définir deux vecteurs orthogonaux

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Définir l’orthogonal d’un espace

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Qu’est-ce que le théorème de Pythagore ?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q
A

On veut juste trouver une fonction qui appartient à F, qui est positive et ne s’annule qu’en 0, pour avoir f.g qui appartient toujours à F (car g ne peut pas diverger en 0, puisque continue), donc f.g² = 0 en tout point, donc g = 0 en tout point sauf 0, donc g = 0 en tout point par continuité. On peut prendre f : x → x par exemple.

Refaire comme ça, ça sera beaucoup plus simple

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Qu’est-ce que le théorème de Gram-Schmidt ?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Montrer que les polynômes de Tchebychev définissent une famille orthonormée sur ce produit scalaire et l’exhiber

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Montrer que les polynômes de Legendre définissent une famille orthonormée sur ce produit scalaire et l’exhiber

∫<-1 → 1>*

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Qu’est-ce que le théorème de la projection ?

A
  • la distance à un espace de dimension finie n’est pas un inf mais un min (donc il existe un point qui vérifie cette distance minimale)
  • le point qui est à ce minimum de distance de F est unique : il existe un point «le plus proche» de F
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Qu’appelle-t-on un espace euclidien ? un espace préhilbertien ?

A

Un espace euclidien est un IR-ev de dimension finie muni d’un produit scalaire.

Un espace préhilbertien est un IR ou ℂ espace vectoriel (de dimension quelconque) muni d’un produit scalaire.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Qu’est-ce que la généralisation du théorème de Pythagore ?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Que peut-on dire de F et F⊥ ?

A

Ils sont toujours en somme directe, et ils sont supplémentaires en dimension finie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Comment montrer que deux vecteurs sont égaux grace à un produit scalaire ?

Justif

A

Car x-y orthogonal à tout vecteur

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

En dimension finie, montrer que F ⊕ F = E et exprimer le projeté orthogonal de x sur F

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Qu’est-ce que le théorème de la base orthonormée incomplète ?

A

Si E est de dimension finie.

Toute famille (e1, …, en) orthonormée peut être complétée en une base orthonormée de E : il suffit de la compléter par une base de F⊥, où F = Vect(e1, …, en) (car F ⊕ F⊥ en dimension finie)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Donner l’expression des coordonnées d’un vecteur et du produit scalaire de deux vecteurs à partir d’une base orthonormée.
Justif

A

Pour montrer l’expression de x :

  • x s’exprime comme la somme des xi × ei, car les ei sont une base
  • soit j€[|1,n|], <x|ej> = …, on exprime x avec ses coordonnées, on utilise la bilinéarité et le fait que les ei forment une base orthonormée

Pour montrer l’expression du produit scalaire :

  • on remplace x et y par la forme expliquée juste avant
  • on utilise la bilinéarité du produit scalaire, sa symétrie et le fait que les ei forment une base orthonormée
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Comment caractériser F⊥ en dimension finie ?

A

C’est le seul supplémentaire de F orthogonal à F (appelée le supplémentaire orthogonal)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Définir la projection orthogonale sur F, donner son expression en fonction d’une base de F puis en fonction d’une base de F⊥.

A

Car F et F⊥ sont supplémentaires en dimension finie

de p+1 à n la deuxième somme*

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Exprimer le projeté de x sur une droite vectorielle D = a.IR, puis sur un de ses hyperplans
Parce que ça fait /IIaII² × a = × u, avec u = a/IIaII : u est un vecteur directeur unitaire de D
26
27
Exprimer x€E selon une base orthonormée de E
28
Définir une isométrie
29
Remontrer que Ker(s + Id) ⊕ Ker(s - Id) = E, si s est une symétrie
30
Définir une symétrie orthogonale
31
Qu’est-ce qu’une symétrie orthogonale a de particulier ? Justif
32
Définir une réflexion
C’est une symétrie orthogonale telle que Ker(s - Id) est un hyperplan
33
Que peut-on dire d’une isométrie ? Justif
C’est donc un type de bijection particulier, adapté aux espaces euclidien
34
L’ensemble des isométries est-il un espace vectoriel ? Justif
L’ensemble des isométries n’est pas un espace vectoriel : 3.u n’est pas une isométrie
35
Comment note-t-on l’ensemble des isométries ?
36
Que peut-on dire de la composée d’isométries ? Justif
37
Quel est le lien entre isométrie et produit scalaire ? Justif
38
Quel est le lien entre isométrie et bases ? Justif
C’est un cas particulier de bijection « adaptée » à l’espace euclidien
39
Quel est le lien entre isométrie et espace orthogonal ? Justif
40
Caractériser les isométries diagonalisables dans IR. Justif
Les seules isométries diagonalisables dans IR sont les symétries orthogonales
41
Caractériser matriciellement une isométrie. Justif
C’est juste parce que le produit scalaire sur les vecteurs (somme des produits des coordonnées) est le même que le produit scalaire sur les matrices qui les représentent (At•B), donc dire que (A1, …, An) est une BON de Mn,1(IK) revient à dire que (u(e1), …, u(en)) est une BON de E.
42
Qu’appelle-t-on On(IR) ?
43
Comment caractériser On(IR) ? Justif
44
Écrire en termes ensemblistes la caractérisation des matrices de On(IR) par leur inverse
45
Qu’appelle-t-on un « endomorphisme orthogonal » ?
Endomorphisme orthogonal = isométrie
46
Que peut-on dire du déterminant d’une matrice orthogonale ? Justif
Soit A€On(IR), At × A = Id ⇒ det(A)² = 1 Donc det(A) = +-1
47
Définir le groupe spécial orthogonal. Comment l’appelle-t-on ?
48
Définir une base orthonormée directe/indirecte
Donc base directe ssi sa matrice dans une BON est une matrice de rotation
49
Caractériser les matrices de O2(IR) puis justifier
Savoir donner : - les formes - les formes en fonction du déterminant associé (a et b appartiennent à [-1,1], sinon on ne pourrait pas avoir l’égalité, et cos est surjective sur [-1,1], donc il existe θ et φ tels que …)
50
Que peut-on dire des matrices de O2(IR) diagonalisables et de déterminant 1 ? Justif Connaissant déjà la forme générale des matrices de O2(IR) de déterminant 1
On a montré que Sp(A) ⊂ {-1,1}, or le déterminant est égal à 1 mais est aussi égal au produit des valeurs propres, on a donc Sp(A) ⊂ {-1} ou Sp(A) ⊂ {1}. Donc si A est diagonalisable, A admet au moins une valeur propre et A = I ou A = -I
51
Que peut-on dire des matrices de O2(IR) diagonalisables et de déterminant -1 ? Justif Connaissant déjà la forme générale des matrices de O2(IR) de déterminant -1
Attention : -Id est de déterminant 1, car il y a deux lignes donc on multiplie deux fois par -
52
Au vu de leur forme, comment qualifier les matrices O2(IR) de déterminant 1 ? Justif
Ce sont des rotations d’angle θ
53
Définir un endomorphisme auto-adjoint
54
Caractériser matriciellement les endomorphismes auto-adjoints Justif
Pour le sens retour : on peut juste dire que = (A.X)t*Y = Xt.At.Y = Xt.A.Y, car A est symétrique =
55
À quoi revient cette question ?
⇔ existe-t-il un produit scalaire tel que la matrice soit symétrique ?
56
Qu’appelle-t-on un « endomorphisme symétrique » ?
Endomorphise auto-adjoint = symétrique
57
Qu’est-ce que le théorème spectral pour les endomorphismes ? Pour les matrices ?
Le fait qu’une matrice symétrique n’admet que des valeurs propres réelles n’est pas une conséquence du théorème spectral mais une étape de sa démonstration
58
Définir une matrice symétrique positive et une matrice définie positive. Qu’est-ce que ça signifie ?
Ça veut dire que, si on appelle u l’endomorphisme associé à A, (=(S.X)t.X = Xt.St.X = Xt.S.X ≥ 0) est positif et donc que dès qu’on applique u ou A à x ou X, Ça pointe dans le même sens que le vecteur x ou X initial.
59
Comment caractériser les matrices symétriques positives et celles strictement positives ? Justif
60
Quel encadrement donnent les valeurs propres d’un endomorphisme auto-adjoint ? Justif Comment montrer que cet encadrement est atteint ?
Directement : - on veut regarder donc on le fait - on veut faire intervenir les valeurs propres et u est auto-adjoint : - réflexe pour un auto-adjoint, surtout pour faire intervenir les valeurs propres : M =P.D.Pt - du coup on traduit matriciellement Pour montrer que c’est atteint, il suffit d’ordonner les λi par ordre croissant et de prendre X = P.(1 0 … 0) ou X = P.(0 … 0 1)
61
Qu’appelle-t-on la décomposition O.S de GLn(IR) ? Justifier l’existence de cette décomposition
Ot.O = In plutôt On peut partir de la synthèse pour trouver l’idée : on veut ça, donc on veut étudier At.A et on veut que ça fasse S², donc on regarde At.A et on sait que si ça s’exprime comme S², avec S€Sn++(IR) c’est gagné. C’est plus logique
62
Monter que l’inverse d’une matrice symétrique (inversible) est symétrique
63
Définir un endomorphisme anti-symétrique
64
Caractériser matriciellement un endomorphisme anti-symétrique Justif
65
Pour un endomorphisme anti-symétrique, quelle est la propriété équivalente à la propriété matricielle suivante : « la diagonale d’une matrice anti-symétrique est nulle » ? Justif
66
Que peut-on dire du spectre réel d’un endomorphisme anti-symétrique ? Justif
Si on voulait le montrer sur les matrices on dire que pour tout i, EiT.A.Ei = Aii = 0 (diagonale d’une matrice symétrique nulle), donc que pour tout X, XT.A.X = 0. Donc si λ est une valeur propre et X un vecteur propre associé … (C’est la même chose)
67
Donner un exemple de matrice antisymétrique n’admettant pas de valeur propre réelle
68
Que peut-on dire du sprectre réel d’une matrice anti-symétrique ? De son spectre complexe ? Justif
- SpIR(A) ⊂ {0} - Sp(A) ⊂ i.IR Juste écrire la def de valeur propre et multiplier par X\t
69
Définir une matrice de Gram. Pourquoi en parle-t-on ? Justif
Remarque : M = I pour une BON Généralise l’expression matricielle du produit scalaire vectoriel à une base non orthonormée : Permet d’écrire = Xt.M.Y, avec X et Y les matrices dans la base (ε1, …, εn)
70
Montrer qu’une matrice de Gram est inversible
71
Que peut-on dire lorsqu’on applique Gram-Schmidt à la base canonique des polynômes avec un produit scalaire définit par une intégrale à poids ? Justif
Ça donne des polynômes scindés à racines simples sur I <•|•> = 0, car l’autre est combinaison linéaire des (P0, —, Pk) (car vect(P0, —, Pk) = vect(1, —, Kk) = IRk) donc par bilinéarité du produit scalaire
72
Comment faire Gram-Schmidt en pratique ?
73
Quelle est la méthode pour calculer la distance d’un vecteur x à un espace F de dimension finie ?
En pratique, on n’a F que de dimension 2, 3 ou 4
74
Quelle est la seconde méthode, qui peut parfois être plus rapide, pour calculer la distance d’un vecteur x à un espace F de dimension finie, lorsqu’on connait une base orthonormale (ε1 — εf) de F ?
On fait la méthode classique mais on sait que p(x, F) = Σ.εi, ce qui peut permettre de calculer ses coordonnées plus rapidement
75
Rappeler les critères à vérifier pour être un produit scalaire
- positif + défini positif - symétrique - bilinéaire
76
Rappeler les critères à vérifier pour être une norme
- positif + défini positif - norme de λ.x = |λ| norme de x - inégalité triangulaire
77
Faire un récapitulatif de tout ce qu’il y a à savoir sur les isométries
Savoir : - définir une isométrie - qu’une symétrie orthogonale est une isométrie - qu’une isométrie est bijective - que l’ensemble des isométries n’est pas un espace vectoriel - que O(E) désigne l’ensemble des isométries de E - qu’une composée d’isométries est une isométrie - que la "propriété d’isométrie" s’étend au produit scalaire de deux vecteurs quelconques - qu’une isométrie est caractérisée comme un endomorphisme qui transforme toute BON en BON - que si F est stable par u alors son orthogonal l’est aussi - caractériser matriciellement une isométrie - que On(IR) désigne l’ensemble des matrices d’isométries, de taille n et à coefficients réels - que l’ensemble des matrices d’isométries (On(IR)) est l’ensemble des matrices dont l’inverse est la transposée - qu’un endomorphisme orthogonal désigne une isométrie - que le déterminant d’une isométrie vaut +-1 - définir SOn(IR), le groupe spécial orthogonal - que le spectre d’une isométrie est inclus dans {-1,1} - qu’une isométrie diagonalisable est soit I, soit -I, soit la matrice d’une symétrie orthogonale - donner les formes des matrices de O2(IR) - quelles matrices diagonalisables de O2(IR) sont de déterminant 1 (Id et -Id) et lesquelles sont de déterminant -1 (matrices d’une symétrie orthogonale) - que de manière générale, les matrices de O2(IR) de déterminant 1 sont des matrices de rotation
78
Est-ce que la matrice d’une symétrie est une matrice symétrique ?
Non ! Une matrice symétrique est une matrice associée à un endomorphisme symétrique, c’est-à-dire auto-adjoint, qui n’est pas la même chose qu’une symétrie
79
Parmi les matrices diagonalisables de O2(IR), lesquelles sont de déterminant 1 et lesquelles sont des déterminant -1 ?
Soit A€O2(IR), il existe un endomorphisme u, isométrique et diagonalisable, qui lui est associé. On a montré que si un endomorphisme isométrique était diagonalisable, c’était soit Id, soit -Id, soit une symétrie orthogonale : - si le déterminant de la matrice A est 1, elle est In ou - In et u = Id ou u = -Id - si le déterminant de la matrice A est -1, elle est la matrice d’une isométrie orthogonale (u est une isométrie orthogonale)
80
Qu’est-ce que l’équivalence entre norme matricielle et vectorielle ? Justif
Attention ! Il faut bien que (e1, …, en) soit une BON pour le produit scalaire considéré !
81
Qu’est-ce que l’équivalence entre produit scalaire matriciel et vectoriel ? Justif
Attention ! Il faut bien que (e1, …, en) soit une BON pour le produit scalaire considéré !
82
À quoi faut-il faire attention lorsqu’on associe les vecteurs à leurs matrices, qu’on dit que leurs normes sont égales etc… ?
On ne regarde pas les mêmes produits scalaires !!! Si X est la matrice de x dans la base B, la norme de X selon le produit scalaire de Mn,1(IK) (c’est-à-dire XT.X) vaut la norme de x selon le produit scalaire de IKⁿ (c’est-à-dire la somme de ses coefficients dans la base B). On ne parle pas du même produit scalaire, donc pas de la même norme non plus, avec les deux !
83
Exprimer ça matriciellement. Justif
84
Que peut-on dire des valeurs propres d’une isométrie ? Justif
Si u est une isométrie, Sp(u) ⊂ {-1,1}
85
À quoi faut-il faire attention avec la définition du produit scalaire que l’on utilise et le produit scalaire matriciel associé At.A ?
Ce sont des produits scalaires dans IRⁿ, pas dans IKⁿ (donc pas dans ℂⁿ !, on aurait notamment un problème pour le caractère défini positif : une somme nulle des complexes au carré n’implique pas forcément qu’ils soient tous nul, car il n’y a pas de signe dans ℂ, il faut donc avec une somme de modules au carré, que l’on obtient avec le complémentaire). Si on voulait faire un produit scalaire dans ℂⁿ, il faudrait faire A\\t.A, mais ce n’est pas au programme
86
Que peut-on dire du spectre d’une matrice symétrique réelle ?
87
Rappeler ce qu’on peut dire des spectres d’une matrice symétrique/antisymétrique réelle. Commenter
Interprétation géométrique : - une matrice symétrique représente une transformation qui ne fait pas tourner les vecteurs, elle les étire ou les contracte uniquement dans certaines directions - une matrice antisymétrique représente une transformation qui ne fait que tourner les vecteurs, elle ne modifie pas leur norme
88
Quelles sont les méthodes pour montrer qu’une matrice est inversible ?
- son déterminant est non nul - (son rang vaut la taille de la matrice) - son noyau est réduit à 0 - pour un cas pratique : utiliser la méthode de Gauss - montrer que 0 n’est pas valeur propre - montrer que c’est un produit de matrices inversibles - cas particuliers pour des formes particulières de matrices (par exemple une matrice triangulaire est inversible ssi tous ses éléments diagonaux sont non nuls)
89
Comment relier la matrice de Gram et le théorème de Gram-Schmidt ? Commenter
Cf. démonstration de l’inversibilité d’une matrice de Gram pour la démonstration
90
Si P est inversible, la multiplication de A par P et son inverse P-1 (P.A.P-1) correspond vectoriellement à un changement de base, à quoi correspond vectoriellement la multiplication de A par P et sa transposée Pt (P.A.Pt) ?
Cela correspond aussi à un changement de base. Alors que la multiplication par P-1 est utile pour les endomorphismes car elle effectue le même changement de base pour l’espace de départ est d’arrivée, la multiplication par Pt est souvent utile pour passer d’un produit scalaire, d’une structure euclidienne à un autre.
91
Si s est une réflexion par rapport à l’hyperplan a, comment exprimer s(x), pour x€E ?
92
Que peut-on dire de u(F⊥) si u€O(E) ? Justif
Égalité des dimensions car u est une isométrie donc u est bijectif, donc u est injecitf sur F⊥donc u est bijectif car le sous espace F ⊥ est de dimension finie. Donc u(F⊥) et F⊥ sont de même dimension. De même pour F et u(F)
93
Rappeler les trois caractérisation d’une matrice orthogonale
94
Qu’est-ce que la décomposition d’Iwasawa ? Justif
95
Que peut-on dire d’une matrice réelle trigonalisable ?
96
Une isométrie est-elle aussi bijective en dimension infinie ? Justif
Non, elle est seulement injective (cf. la démo en dimension finie) Par exemple, sur IR[X] muni du produit scalaire qui associe à P et Q la somme infinie des pk.qk, f : P → X.P est une isométrie mais n’est pas surjective
97
Rappeler la dimension de Sn(IR)
n.(n+1)/2 : n² est le nombre de coefficients, n² - n = n(n-1) est le nombre de coefficient hors diagonale, n(n-1)/2 est le nombre de coefficients dans le triangle supérieur de la matrice (ou triangle inférieur), donc la dimension de An(IR) (on sait que la diagonale est nulle et fixer un triangle fixe l’autre par transposée), si on ajoute finalement la diagonale, on obtient n(n+1)/2
98
Quelle est la limite d’application du théorème spectral ?
Il n’est vrai que pour les matrices symétriques réelles !
99
Comment déterminer l’expression d’une borne inférieure (notamment si elle fait intervenir une intégrale) par les produits scalaires ?
On essaye d’exprimer ce qu’il y a à l’intérieur de la borne inférieure comme la norme de : ((un vecteur) - (un autre, ce qui varie dans l’inf)). Pour cela on introduit un espace général auquel appartient notre vecteur, un sous-espace qui est l’ensemble dans lequel peut varier l’autre, on pose le produit scalaire qui permet d’exprimer ça comme une norme, et on se ramène ainsi à un calcul de distance.
100
Donner l’expression de la distance d’un vecteur à H, si H est un hyperplan de vecteur normal n, puis le justifier
101
Comment justifier que le produit scalaire de deux vecteurs colinéaires et le produit de leurs normes ?
C’est le cas d’égalité de Cauchy-Schwarz
102
Si H est un hyperplan de vecteur normal n, si x€E, x = λ.n + xH, que vaut λ ? Justif
On veut l’expression d’un coefficient donc on fait scalaire l’élément de la base associé
103
Qu’est-ce que le théorème de Riesz ? Démo
E → E*, v → est une bijection : Pour toute forme linéaire φ, il existe un unique v€E tel que φ = : on peut exprimer de manière unique toute forme linéaire comme un produit scalaire. Démo : E → E*, v → est linéaire et injectif (si = 0, en particulier = 0, donc v = 0), donc est bijectif car dim finie)
104
À quoi faut-il faire attention si on manipule des inf, des sup, des min et des max ?
Il faut toujours commencer par montrer l’existence
105
Quels sont les différents type de positionnements possibles entre deux droites dans l’espace ?
106
Comment montrer que deux droites de IR³ ne sont pas coplanaires ?
On montre qu’elles ne sont ni sécantes ni parallèles
107
Comment montrer que deux droites ne sont pas parallèles ?
On montre que leurs vecteurs directeurs ne le sont pas : on suppose par l’absurde qu’il le sont
108
Comment montrer que deux droites ne sont pas sécantes ?
On suppose par l’absurde qu’elles le sont et donc qu’il existe un point telle que toutes les coordonnées selon les deux droites soient égales
109
Si A est une matrice réelle, que peut-on dire de Ker(AT.A) et Im(A.AT) ? Justif
- Ker(AT.A) = Ker(A) - Im(A.AT) = Im(A)
110
111
Rappeler la définition de la norme triple
112
En admettant la décomposition Q.R, montrer l’inégalité de Hadamard pour une matrice inversible
Si ||*|| désigne la norme 1. U c’est Q ||Ci|| = Σ||, donc || ≤ ||Ci||, pas besoin d’utiliser Cauchy-Schwarz
113
Expliquer comment faire
114
Montrer que le déterminant de Gram d’une famille orthonormale vaut 1 et que celui d’une famille liée vaut 0
115
116
On admet toutes les questions, juste si on cherche concrètement l’adjoint d’une application linéaire, comment faire ?
- On prend x et y dans l’ensemble sur lequel est définie l’application linéaire - On applique le produit scalaire de l’espace sur lequel est définie l’application linéaire - On développe tout et on essaye de le remettre sous la forme de
117
Qu’appelle-t-on une forme linéaire représentable ? (HP)
118
Que dit le théorème de Riesz en termes de représentabilité ?
119
Que peut-on dire d’une forme linéaire représentable dans un espace préhilbertien réel ? Justif
Et puisqu’elle est linéaire, elle est donc continue
120
À quelle condition la notion de projection orthogonale par rapport à un espace F a-t-elle un sens ?
À condition d’avoir F ⊕ F = E
121
Que donne Cauchy-Schwarz sur les intégrales ?
122
De quoi a-t-on en fait besoin pour avoir l’inégalité de Cauchy-Schwarz ?
Il faut juste une application : - positive - symétrique - bilinéaire Le caractère défini positif ne sert que dans le cas d’égalité
123
Montrer le théorème de Riesz
124
Quelle est la conséquence du théorème de Riesz sur une forme linéaire de Mn(IR) ? Justif
125
Lorsqu’on a besoin d’un contre-exemple pour des applications sur l’espace des polynômes en dimension infinie, que faut-il d’abord essayer de considérer ?
f : P → X.P
126
Comment montrer qu’une application linéaire f de E dans F n’est pas continue ?
Il suffit de trouver une suite (xn) d’éléments de E telle que xn tende vers 0 mais f(xn) ne tende pas vers 0 (donc minorée)
127
Comment s’exprime la distance d’un vecteur x à un hyperplan H de vecteur normal n ? Justif
128
Que peut-on dire de u-1 si u est une isométrie ? Justif
u-1 l’est aussi : on a juste à appliquer ||u(X)|| = ||X|| en X = u-1(x)
129
Que peut-on dire en termes topologiques de On(IR) ? Justif
Pour la norme 2
130
Que représentent les matrices de SO2(IR) et celles de O2\SO2(IR) ?
131
Quel est le produit scalaire sur les variables aléatoires ? Justif
132
Rappeler ce qu’on appelle symétrie, symétrie orthogonale et réflexion
Pour être une isométrie, il faut au moins être une symétrie orthogonale
133
À quoi faut-il penser si on essaye de faire passer une propriété de la norme au produit scalaire ?
Essayer l’identité de polarité
134
Rappeler ce qu’on peut dire des spectres de : - une matrice symétrique réelle - une matrice symétrique réelle positive - une matrice symétrique réelle définie positive - une matrice antisymétrique
135
Comment montrer que pour toute matrice A de Mn(IR), |tr(A)| ≤ √(n) × √(tr(AT.A)) ?
Cauchy-Schwarz appliqué à In et A
136
Comment montrer que le spectre d’une matrice symétrique réelle est réel ? que le spectre d’une matrice anti-symétrique réelle est imaginaire pur ?
- prendre une matrice M dans l’ensemble des matrice symétriques (ou anti-symétriques) - traduire λ€Sp(M) avec un vecteur propre - multiplier à gauche par X\\T pour faire apparaitre un produit scalaire Hermitien à droite - regrouper à gauche comme une transposée - conjuguer pour faire ré apparaitre du M.X (car M\\ = M puisque M est réelle) - en déduire que λ = λ\ ou λ = - λ\
137
Que peut-on dire de particulier pour le noyau et l’image d’une matrice anti-symétrique réelle ? Justif
On a **Ker(A) ⊕⊥ Im(A) = E** ! - on montre facilement que Ker(A) ⊂ Im(A) - on montre l’égalité par égalité de dimensions (théorème du rang à A + dim(Im(A)) + dim(Im(A)) = n)
138
Que peut-on dire de particulier pour le noyau et l’image d’une matrice symétrique réelle ? Justif
On a **Ker(A) ⊕⊥ Im(A) = E** ! Cf. démo pour anti-symétrique
139
Que peut-on dire de particulier pour le noyau et l’image d’un endomorphisme auto-adjoint ? Justif
On a **Ker(A) ⊕⊥ Im(A) = E** ! (C’est la traduction en endomorphisme de la propriété pour les matrices symétriques)
140
Que peut-on dire de particulier pour le noyau et l’image d’un endomorphisme antisymétrique ? Justif
On a **Ker(A) ⊕⊥ Im(A) = E** ! (C’est la traduction en endomorphisme de la propriété pour les matrices antisymétriques)
141
Comment « accéder » au valeurs propres d’une matrice M si elle est sous la forme M = P.D.P-1 ?
Puisque P est inversible, il existe X tel que P-1.X = (1 0 … 0) (c’est d’ailleurs P.(1 0 … 0)). En multipliant à gauche par Xt et à droite par X, on ne garde que λ1 à droite, qui vaut donc Xt.M.X. On accède ainsi à λ1. On peut faire pareil pour toutes.
142
Que peut-on dire de sup() avec ||x|| = 1 si u est auto-adjoint ? Comment le montrer ? (sup() pour M symétrique)
C’est la plus grande des valeurs propre. Pour le montrer : - on montre qu’il lui est inférieur, comme dans le cours - on montre qu’il est atteint en décomposant M selon le théorème spectrale et en « accédant » à la valeur propre maximale
143
Comment faire ?
On dit que M = P.D.P-1 d’après le théorème spectrale et on prend pour vi les colonnes de P. On montre que ça marche.
144
Comment déterminer les valeurs propres d’une matrice symétrique 2x2 réelle (λ h h μ) quelconque ?
On prend les discriminant du polynôme caractéristique et on en déduit les racines
145
À quoi doit-on penser directement si on voit une somme de valeurs propres ?
Essayer de prendre la trace de la matrice !
146
À quoi doit-on penser directement si on voit une somme de valeurs propres ?
Essayer de prendre le déterminant de la matrice !
147
Quel est le lien entre et les valeurs propres de M ?
Si λ est une valeur propre de M, on prend un vecteur propre de M associé à λ, de norme 1 et : = λ. peut renvoyer chaque valeur propre en prenant un bon vecteur.
148
Si A est une matrice, comment exprimer a11 par un produit scalaire ?
a11 = , comme on pourrait faire pour n’importe quel élément de la matrice
149
Que veut dire en particulier cette propriété ?
En particulier, pour tout i, car ||e1|| = 1, on peut écrire l’encadrement pour sii = , donc tous les éléments diagonaux sont compris entre les valeurs propres
150
Que peut-on dire d’un espace stable de dimension 1 ?
Il vaut Vect(a), donc la stabilité se traduit par u(a) = λ.a : a doit être un vecteur propre