Composantes d'un vecteur dans un espace géométrique à trois dimensions, x, y et z. Dans le cas du concept géométrique classique de vecteur, il existe une identification complète entre ses « composantes » et les « coordonnées » qui le représentent. Cependant, il existe d'autres types d'espaces vectoriels (comme, par exemple, l'ensemble des polynômes d'ordre n), dans lesquels le concept de coordonnée n'a pas la généralité de l'idée de composante.
En algèbre linéaire , les composantes d'un vecteur d'un K -espace vectoriel , dans une base donnée , sont une représentation explicite de ce vecteur par une famille de scalaires . Lorsque l'espace est de dimension n sur le corps K , les composantes forment un élément de l'espace vectoriel Kn .
Les composantes des vecteurs (d'un espace vectoriel de dimension finie ) permettent de ramener des calculs vectoriels à des calculs sur des tableaux de nombres (n -uplets , matrices , vecteurs colonnes ) qui peuvent être effectués explicitement.
Soit E un K -espace vectoriel de dimension n et soit
B
=
(
b
1
,
b
2
,
…
,
b
n
)
{\displaystyle {\mathcal {B}}=\left(b_{1},b_{2},\ldots ,b_{n}\right)}
une base de E .
Alors pour tout vecteur
v
{\displaystyle v}
de E , il existe une unique combinaison linéaire des vecteurs de la base, égale à
v
{\displaystyle v}
:
v
=
α
1
b
1
+
α
2
b
2
+
⋯
+
α
n
b
n
,
{\displaystyle v=\alpha _{1}b_{1}+\alpha _{2}b_{2}+\cdots +\alpha _{n}b_{n},}
c'est-à-dire que les scalaires
α
i
{\displaystyle \alpha _{i}}
où
i
∈
{
1
,
…
,
n
}
{\displaystyle i\in \{1,\ldots ,n\}}
sont déterminés de façon unique par
v
{\displaystyle v}
et
B
{\displaystyle {\mathcal {B}}}
.
Maintenant, les composantes (ou les coordonnées) de
v
{\displaystyle v}
dans la base
B
{\displaystyle {\mathcal {B}}}
ou relativement à la base
B
{\displaystyle {\mathcal {B}}}
, sont par définition la famille
(
α
1
,
…
,
α
n
)
{\displaystyle \left(\alpha _{1},\ldots ,\alpha _{n}\right)}
.
Les composantes peuvent aussi être représentées en colonne sous forme d'une matrice :
(
α
1
⋮
α
n
)
.
{\displaystyle {\begin{pmatrix}\alpha _{1}\\\vdots \\\alpha _{n}\end{pmatrix}}.}
.
La matrice est appelée matrice colonne — ou vecteur colonne — des composantes — ou des coordonnées — de
v
{\displaystyle v}
dans la base
B
{\displaystyle {\mathcal {B}}}
.
Cette matrice est parfois notée
M
B
(
v
)
{\displaystyle M_{\mathcal {B}}(v)}
,
M
a
t
B
(
v
)
{\displaystyle Mat_{\mathcal {B}}(v)}
ou encore
[
v
]
B
{\displaystyle [v]_{\mathcal {B}}}
.
Pour
i
∈
{
1
,
…
,
n
}
{\displaystyle i\in \{1,\ldots ,n\}}
, le scalaire
α
i
{\displaystyle \alpha _{i}}
est appelé la
i
{\displaystyle i}
-ème composante — ou
i
{\displaystyle i}
-ème coordonnée — du vecteur
v
{\displaystyle v}
dans la base
B
{\displaystyle {\mathcal {B}}}
.
Le mécanisme précédent, qui à un vecteur
v
{\displaystyle v}
de E qui fait correspondre ses composantes dans la base
B
{\displaystyle {\mathcal {B}}}
, peut être décrit par l'application
φ
B
{\displaystyle \varphi _{\mathcal {B}}}
, définie par
∀
v
∈
E
,
φ
B
(
v
)
=
(
α
1
,
…
,
α
n
)
,
{\displaystyle \forall v\in E,\varphi _{\mathcal {B}}(v)=\left(\alpha _{1},\ldots ,\alpha _{n}\right),}
où
α
1
,
…
,
α
n
{\displaystyle \alpha _{1},\ldots ,\alpha _{n}}
appartiennent à
K
{\displaystyle K}
et vérifient
v
=
α
1
b
1
+
⋯
+
α
n
b
n
.
{\displaystyle v=\alpha _{1}b_{1}+\cdots +\alpha _{n}b_{n}.}
Alors
φ
B
{\displaystyle \varphi _{\mathcal {B}}}
est une application linéaire de E dans Kn .
C'est même un isomorphisme : sa réciproque
φ
B
−
1
:
K
n
→
E
{\displaystyle \varphi _{\mathcal {B}}^{-1}:K^{n}\to E}
est définie par
∀
(
α
1
,
…
,
α
n
)
∈
K
n
,
φ
B
−
1
(
α
1
,
…
,
α
n
)
=
α
1
b
1
+
⋯
+
α
n
b
n
.
{\displaystyle \forall (\alpha _{1},\ldots ,\alpha _{n})\in K^{n},\varphi _{\mathcal {B}}^{-1}(\alpha _{1},\ldots ,\alpha _{n})=\alpha _{1}b_{1}+\cdots +\alpha _{n}b_{n}.}
Il est aussi possible de commencer par définir cette application
φ
B
−
1
{\displaystyle \varphi _{\mathcal {B}}^{-1}}
, de constater que c'est un isomorphisme, puis de définir
φ
B
{\displaystyle \varphi _{\mathcal {B}}}
comme l'isomorphisme réciproque.
Soit
R
3
[
x
]
{\displaystyle \mathbb {R} _{3}[x]}
l'espace vectoriel des polynômes de degré inférieur ou égal à 3. Cet espace est engendré par
{
1
,
x
,
x
2
,
x
3
}
{\displaystyle \{1,x,x^{2},x^{3}\}}
et la famille
B
=
(
1
,
x
,
x
2
,
x
3
)
{\displaystyle {\mathcal {B}}=(1,x,x^{2},x^{3})}
est une base de cet espace.
La matrice colonne des composantes, dans cette base, du polynôme
p
(
x
)
=
a
0
+
a
1
x
+
a
2
x
2
+
a
3
x
3
,
{\displaystyle p\left(x\right)=a_{0}+a_{1}x+a_{2}x^{2}+a_{3}x^{3},}
s'écrit
(
a
0
a
1
a
2
a
3
)
.
{\displaystyle {\begin{pmatrix}a_{0}\\a_{1}\\a_{2}\\a_{3}\end{pmatrix}}.}
Relativement à cette base, l'opérateur de dérivation
D
{\displaystyle D}
, qui à
p
{\displaystyle p}
associe
D
p
=
p
′
{\displaystyle Dp=p'}
, est représenté par la matrice
M
a
t
B
(
D
)
=
(
0
1
0
0
0
0
2
0
0
0
0
3
0
0
0
0
)
.
{\displaystyle Mat_{\mathcal {B}}(D)={\begin{pmatrix}0&1&0&0\\0&0&2&0\\0&0&0&3\\0&0&0&0\\\end{pmatrix}}.}
En utilisant cette représentation, il est aisé de déterminer les propriétés de l'opérateur, comme l'inversibilité , s'il est hermitien ou anti-hermitien ou rien du tout, son spectre / ses valeurs propres , etc.
Les matrices de Pauli représentent l'opérateur spin lorsque les vecteurs propres correspondant à l'état de spin sont transformés en coordonnées.