Un sistema dinamico stazionario discreto è un sistema discreto i cui parametri non dipendono dal tempo:
x
(
n
+
1
)
=
f
(
x
0
,
n
0
,
u
(
n
)
)
{\displaystyle x(n+1)=f(x_{0},n_{0},u(n))}
y
(
n
)
=
h
(
x
0
,
n
0
,
u
(
n
)
)
{\displaystyle y(n)=h(x_{0},n_{0},u(n))}
dove
x
(
n
)
{\displaystyle x(n)}
sono le variabili di stato al tempo
n
{\displaystyle n}
,
x
0
{\displaystyle x_{0}}
le variabili di stato al tempo
n
=
0
{\displaystyle n=0}
,
u
(
n
)
{\displaystyle u(n)}
e
y
(
n
)
{\displaystyle y(n)}
le variabili di ingresso e uscita al tempo
n
{\displaystyle n}
.
Un sistema è lineare quando dipende linearmente dalle variabili di stato e dalle variabili di ingresso, ed in tal caso si può escrivere in forma matriciale
x
(
n
+
1
)
=
A
(
n
)
x
(
n
)
+
B
(
n
)
u
(
n
)
{\displaystyle x(n+1)=A(n)x(n)+B(n)u(n)}
y
(
n
)
=
C
(
n
)
x
(
n
)
+
D
(
n
)
u
(
n
)
{\displaystyle y(n)=C(n)x(n)+D(n)u(n)}
dove
A
{\displaystyle A}
,
B
{\displaystyle B}
,
C
{\displaystyle C}
e
D
{\displaystyle D}
sono matrici di dimensioni opportune che premoltiplicano
x
(
n
)
{\displaystyle x(n)}
e
u
(
n
)
{\displaystyle u(n)}
.
Un processo lineare stazionario (LTI) è quindi descritto da equazioni matriciali:
{
x
(
n
+
1
)
=
A
x
(
n
)
+
B
u
(
n
)
y
(
n
)
=
C
x
(
n
)
+
D
u
(
n
)
{\displaystyle \left\{{\begin{array}{c}x(n+1)=Ax(n)+Bu(n)\\y(n)=Cx(n)+Du(n)\end{array}}\right.}
dove le matrici sono costanti.
Un sistema a tempo discreto trasforma la successione in ingresso
{
x
}
{\displaystyle \{x\}}
in un'altra successione
{
y
}
{\displaystyle \{y\}}
, data dalla convoluzione discreta con la risposta
h
{\displaystyle h}
alla delta di Kronecker :
y
[
n
]
=
∑
k
=
−
∞
∞
x
[
k
]
⋅
h
[
n
−
k
]
=
∑
k
=
−
∞
∞
x
[
n
−
k
]
⋅
h
[
k
]
{\displaystyle y[n]=\sum _{k=-\infty }^{\infty }x[k]\cdot h[n-k]=\sum _{k=-\infty }^{\infty }x[n-k]\cdot h[k]}
Gli elementi di
{
y
}
{\displaystyle \{y\}}
possono dipendere da ogni elemento di
{
x
}
{\displaystyle \{x\}}
. Solitamente
y
[
n
]
{\displaystyle y[n]}
dipende maggiormente dagli elementi in prossimità del tempo
n
{\displaystyle n}
.
La maggior parte dei segnali a tempo discreto sono ottenuti da un segnale a tempo continuo considerandone il valore assunto in precisi istanti di tempo, solitamente separati da un intervallo temporale fisso
T
{\displaystyle T}
. La procedura che permette di ottenere un segnale discreto a partire da uno continuo è detta campionamento , ed è alla base della conversione analogico-digitale (ADC). Essa trasforma una funzione continua
x
(
t
)
{\displaystyle x(t)}
nel segnale discreto:
x
[
n
]
=
def
x
(
n
T
)
∀
n
∈
Z
{\displaystyle x[n]\ {\stackrel {\text{def}}{=}}\ x(nT)\qquad \forall \,n\in \mathbb {Z} }
con
1
/
T
{\displaystyle 1/T}
la frequenza di campionamento . Il teorema del campionamento pone un limite alla massima frequenza del segnale continuo, che non può essere superiore ad
1
/
(
2
T
)
{\displaystyle 1/(2T)}
se si vuole evitare perdita di informazione (fenomeno di aliasing ).
Come nel caso di sistemi a tempo continuo, se
O
{\displaystyle O}
è l'operatore di trasformazione al tempo n :
y
[
n
]
=
def
O
n
{
x
}
{\displaystyle y[n]\ {\stackrel {\text{def}}{=}}\ O_{n}\{x\}}
la successione:
h
[
n
]
=
def
O
n
{
δ
[
m
]
}
{\displaystyle h[n]\ {\stackrel {\text{def}}{=}}\ O_{n}\{\delta [m]\}}
caratterizza completamente il sistema. Per mostrare questo, dato che vale l'identità:
x
[
m
]
≡
∑
k
=
−
∞
∞
x
[
k
]
⋅
δ
[
m
−
k
]
{\displaystyle x[m]\equiv \sum _{k=-\infty }^{\infty }x[k]\cdot \delta [m-k]}
si ha:
y
[
n
]
=
O
n
{
x
}
=
O
n
{
∑
k
=
−
∞
∞
x
[
k
]
⋅
δ
[
m
−
k
]
}
=
∑
k
=
−
∞
∞
x
[
k
]
⋅
O
n
{
δ
[
m
−
k
]
}
=
∑
k
=
−
∞
∞
x
[
k
]
⋅
O
n
−
k
{
δ
[
m
]
}
=
∑
k
=
−
∞
∞
x
[
k
]
⋅
h
[
n
−
k
]
{\displaystyle y[n]=O_{n}\{x\}=O_{n}\left\{\sum _{k=-\infty }^{\infty }x[k]\cdot \delta [m-k]\right\}=\sum _{k=-\infty }^{\infty }x[k]\cdot O_{n}\{\delta [m-k]\}=\sum _{k=-\infty }^{\infty }x[k]\cdot O_{n-k}\{\delta [m]\}=\sum _{k=-\infty }^{\infty }x[k]\cdot h[n-k]}
L'operatore
O
n
{\displaystyle O_{n}}
restituisce un'uscita proporzionale alla media pesata di
x
[
k
]
{\displaystyle x[k]}
con funzione peso data da
h
[
−
k
]
{\displaystyle h[-k]}
. Se
h
[
k
]
=
0
{\displaystyle h[k]=0}
per valori di
k
{\displaystyle k}
negativi il sistema è causale.
Gli esponenziali del tipo
z
n
=
e
s
T
n
{\displaystyle z^{n}=e^{sTn}}
, con
n
∈
Z
{\displaystyle n\in \mathbb {Z} }
, sono autofunzioni di un operatore lineare tempo-invariante. Infatti, detto
T
∈
R
{\displaystyle T\in \mathbb {R} }
il periodo di campionamento e
z
=
e
s
T
{\displaystyle z=e^{sT}}
, con
z
,
s
∈
C
{\displaystyle z,s\in \mathbb {C} }
, si supponga
x
[
n
]
=
z
n
{\displaystyle x[n]=\,\!z^{n}}
l'ingresso del sistema. Se
h
[
n
]
{\displaystyle h[n]}
è la risposta impulsiva , si ha:
y
[
n
]
=
∑
m
=
−
∞
∞
h
[
n
−
m
]
z
m
=
∑
m
=
−
∞
∞
h
[
m
]
z
(
n
−
m
)
=
z
n
∑
m
=
−
∞
∞
h
[
m
]
z
−
m
=
z
n
H
(
z
)
{\displaystyle y[n]=\sum _{m=-\infty }^{\infty }h[n-m]\,z^{m}=\sum _{m=-\infty }^{\infty }h[m]\,z^{(n-m)}=z^{n}\sum _{m=-\infty }^{\infty }h[m]\,z^{-m}=z^{n}H(z)}
La funzione:
H
(
z
)
=
def
∑
m
=
−
∞
∞
h
[
m
]
z
−
m
{\displaystyle H(z)\ {\stackrel {\text{def}}{=}}\ \sum _{m=-\infty }^{\infty }h[m]z^{-m}}
dipende solo dal parametro z , ed è l'autovalore associato all'autovettore (autofunzione)
z
n
{\displaystyle z^{n}}
del sistema LTI.
La trasformata zeta :
H
(
z
)
=
Z
{
h
[
n
]
}
=
∑
n
=
−
∞
∞
h
[
n
]
z
−
n
{\displaystyle H(z)={\mathcal {Z}}\{h[n]\}=\sum _{n=-\infty }^{\infty }h[n]z^{-n}}
è la funzione di trasferimento del sistema. Di particolare interesse è il caso in cui le autofunzioni siano sinusoidi pure
e
j
ω
n
{\displaystyle e^{j\omega n}}
, con
ω
∈
R
{\displaystyle \omega \in \mathbb {R} }
, che possono essere scritte come
z
n
{\displaystyle z^{n}}
, dove
z
=
e
j
ω
{\displaystyle z=e^{j\omega }}
. Per funzioni di questo tipo la funzione di trasferimento è data dalla trasformata di Fourier a tempo discreto :
H
(
e
j
ω
)
=
F
{
h
[
n
]
}
{\displaystyle H(e^{j\omega })={\mathcal {F}}\{h[n]\}}
Grazie alle proprietà della convoluzione, nel dominio della trasformata si ottiene una moltiplicazione:
y
[
n
]
=
(
h
∗
x
)
[
n
]
=
∑
m
=
−
∞
∞
h
[
n
−
m
]
x
[
m
]
=
Z
−
1
{
H
(
z
)
X
(
z
)
}
{\displaystyle y[n]=(h*x)[n]=\sum _{m=-\infty }^{\infty }h[n-m]x[m]={\mathcal {Z}}^{-1}\{H(z)X(z)\}}
Soluzione dell'equazione matriciale
modifica
Si vuole risolvere l'equazione:
{
x
(
n
+
1
)
=
A
x
(
n
)
+
B
u
(
n
)
y
(
n
)
=
C
x
(
n
)
+
D
u
(
n
)
{\displaystyle \left\{{\begin{array}{c}x(n+1)=Ax(n)+Bu(n)\\y(n)=Cx(n)+Du(n)\end{array}}\right.}
Si deve valutare per
n
=
0
,
1
,
2
,
…
{\displaystyle n=0,1,2,\dots }
e pertanto si ha:
x
(
1
)
=
A
x
(
0
)
+
B
u
(
0
)
{\displaystyle x(1)=Ax(0)+Bu(0)\ }
x
(
2
)
=
A
x
(
1
)
+
B
u
(
1
)
=
A
2
x
(
0
)
+
A
B
u
(
0
)
+
B
u
(
1
)
{\displaystyle x(2)=Ax(1)+Bu(1)=A^{2}x(0)+ABu(0)+Bu(1)\ }
x
(
3
)
=
A
x
(
2
)
+
B
u
(
2
)
=
A
3
x
(
0
)
+
A
2
B
u
(
0
)
+
A
B
u
(
1
)
+
B
u
(
2
)
{\displaystyle x(3)=Ax(2)+Bu(2)=A^{3}x(0)+A^{2}Bu(0)+ABu(1)+Bu(2)\ }
x
(
n
)
=
A
n
x
(
0
)
+
A
n
−
1
B
u
(
0
)
+
A
n
−
2
B
u
(
1
)
+
.
.
.
+
B
u
(
n
−
1
)
{\displaystyle x(n)=A^{n}x(0)+A^{n-1}Bu(0)+A^{n-2}Bu(1)+...+Bu(n-1)\ }
Si ottiene:
x
(
n
)
=
A
n
x
(
0
)
+
∑
m
=
0
n
−
1
A
m
B
u
(
n
−
m
−
1
)
{\displaystyle x(n)=A^{n}x(0)+\sum _{m=0}^{n-1}A^{m}Bu(n-m-1)\ }
Posto
l
=
n
−
m
−
1
{\displaystyle l=n-m-1}
si ha
m
=
n
−
l
−
1
{\displaystyle m=n-l-1}
, e quindi la soluzione dell'equazione matriciale alle differenze è:
x
(
n
)
=
A
n
x
(
0
)
+
∑
l
=
0
n
−
1
A
n
−
l
−
1
B
u
(
l
)
{\displaystyle x(n)=A^{n}x(0)+\sum _{l=0}^{n-1}A^{n-l-1}Bu(l)}
Occorre distinguere i seguenti casi:
A
{\displaystyle A}
ammette soltanto autovalori reali con molteplicità algebrica uguale alla molteplicità geometrica per ogni autovalore.
A
{\displaystyle A}
ammette soltanto autovalori complessi coniugati .
A
{\displaystyle A}
ammette sia autovalori reali che complessi coniugati.
A
{\displaystyle A}
non è diagonalizzabile .
Autovalori reali e molteplicità algebriche e geometriche coincidenti
modifica
In tal caso considerata la matrice
P
{\displaystyle P}
, n per n , le cui colonne sono gli autovettori di
A
{\displaystyle A}
linearmente indipendenti che generano ciascun autospazio relativo ad ogni autovalore si ottiene, dalla teoria della diagonalizzazione delle matrici:
P
−
1
A
P
=
Λ
{\displaystyle P^{-1}AP=\Lambda \ }
dove
Λ
{\displaystyle \Lambda }
è la matrice diagonale in cui sulla diagonale principale vi sono gli autovalori di
A
{\displaystyle A}
ripetuti eventualmente ciascuno con la propria molteplicità. In particolare, se gli autovalori di
A
{\displaystyle A}
sono reali e distinti sulla matrice diagonale
Λ
{\displaystyle \Lambda }
vi saranno gli n autovalori distinti di
A
{\displaystyle A}
. Essendo
A
=
P
Λ
P
−
1
{\displaystyle A=P\Lambda P^{-1}}
allora:
A
n
=
(
P
Λ
P
−
1
)
(
P
Λ
P
−
1
)
.
.
.
(
P
Λ
P
−
1
)
=
P
Λ
n
P
−
1
{\displaystyle A^{n}=(P\Lambda P^{-1})(P\Lambda P^{-1})...(P\Lambda P^{-1})=P\Lambda ^{n}P^{-1}\ }
pertanto, la soluzione dell'equazione matriciale alle differenzè è:
x
(
n
)
=
P
Λ
n
P
−
1
x
(
0
)
+
∑
l
=
0
n
−
1
P
Λ
n
−
l
−
1
P
−
1
B
u
(
l
)
{\displaystyle x(n)=P\Lambda ^{n}P^{-1}x(0)+\sum _{l=0}^{n-1}P\Lambda ^{n-l-1}P^{-1}Bu(l)\ }
Si nota che la risposta libera nello stato ottenuta ponendo
u
(
t
)
=
0
{\displaystyle u(t)=0}
è:
x
l
(
n
)
=
P
Λ
n
P
−
1
x
(
0
)
{\displaystyle x_{l}(n)=P\Lambda ^{n}P^{-1}x(0)\ }
mentre la risposta forzata nello stato , ottenuta ponendo
x
(
0
)
=
0
{\displaystyle x(0)=0}
, è:
x
f
(
n
)
=
∑
l
=
0
n
−
1
P
Λ
n
−
l
−
1
P
−
1
B
u
(
l
)
{\displaystyle x_{f}(n)=\sum _{l=0}^{n-1}P\Lambda ^{n-l-1}P^{-1}Bu(l)\ }
Inoltre la risposta libera nell'uscita per
u
(
l
)
=
0
{\displaystyle u(l)=0}
è:
y
l
(
n
)
=
C
P
Λ
n
P
−
1
x
(
0
)
{\displaystyle y_{l}(n)=CP\Lambda ^{n}P^{-1}x(0)\ }
mentre la risposta forzata nell'uscita' per
x
(
0
)
=
0
{\displaystyle x(0)=0}
è:
y
f
(
n
)
=
∑
l
=
0
n
−
1
C
P
Λ
n
−
l
−
1
P
−
1
B
u
(
l
)
+
D
u
(
n
)
{\displaystyle y_{f}(n)=\sum _{l=0}^{n-1}CP\Lambda ^{n-l-1}P^{-1}Bu(l)+Du(n)\ }
Volendo analizzare il caso in cui
A
{\displaystyle A}
ammette soltanto autovalori complessi coniugati, supponiamo che
A
{\displaystyle A}
sia una matrice 2 per 2 e siano
α
+
j
ω
{\displaystyle \alpha +j\omega }
(
j
{\displaystyle j}
è l'unità immaginaria ),
α
−
j
ω
{\displaystyle \alpha -j\omega }
i due autovalori complessi coniugati di
A
{\displaystyle A}
, e siano
u
a
+
j
u
b
{\displaystyle u_{a}+ju_{b}}
,
u
a
−
j
u
b
{\displaystyle u_{a}-ju_{b}}
i due autovettori complessi coniugati corrispondenti. Allora, applicando la definizione di autovalore e di autovettore si ha la seguente equazione algebrica:
(
A
−
(
α
+
j
ω
)
I
)
(
(
u
a
+
j
u
b
)
=
0
{\displaystyle (A-(\alpha +j\omega )I)((u_{a}+ju_{b})=0\ }
dove
I
{\displaystyle I}
è la matrice identica di dimensione 2, che si può scrivere separando parte reale e parte immaginaria nella forma:
(
(
A
−
α
I
)
u
a
+
ω
u
b
)
+
j
(
(
A
−
α
I
)
u
b
+
ω
u
a
)
)
=
0
{\displaystyle ((A-\alpha I)u_{a}+\omega u_{b})+j((A-\alpha I)u_{b}+\omega u_{a}))=0\ }
Affinché l'equazione sia vera è necessario che parte reale e parte immaginaria si annullino entrambe pertanto si ha il sistema:
(
A
−
α
I
)
u
a
+
ω
u
b
=
0
(
A
−
α
I
)
u
b
+
ω
u
a
=
0
{\displaystyle {\begin{array}{c}(A-\alpha I)u_{a}+\omega u_{b}=0\\(A-\alpha I)u_{b}+\omega u_{a}=0\end{array}}\ }
che può essere posto nella forma:
A
(
u
a
u
b
)
=
(
u
a
u
b
)
(
α
ω
−
ω
α
)
{\displaystyle A(u_{a}u_{b})=(u_{a}u_{b})\left({\begin{array}{cc}\alpha &\omega \\-\omega &\alpha \end{array}}\right)}
Pertanto se si pone
T
−
1
{\displaystyle T^{-1}}
uguale alla matrice le cui colonne sono la parte reale e immaginaria dei due autovettori complessi coniugati si ha che:
T
A
T
−
1
=
(
α
ω
−
ω
α
)
{\displaystyle TAT^{-1}=\left({\begin{array}{cc}\alpha &\omega \\-\omega &\alpha \end{array}}\right)}
Rappresentando il numero complesso
u
a
+
j
u
b
{\displaystyle u_{a}+ju_{b}}
nel piano di Gauss se
λ
{\displaystyle \lambda }
è il modulo e
β
{\displaystyle \beta }
l'argomento si ha:
α
=
λ
cos
β
{\displaystyle \alpha =\lambda \cos \beta }
e
ω
=
λ
s
e
n
β
{\displaystyle \omega =\lambda \;\mathrm {sen} \,\beta }
pertanto:
A
=
T
−
1
λ
(
cos
β
s
e
n
β
−
s
e
n
β
cos
β
)
T
{\displaystyle A=T^{-1}\lambda \left({\begin{array}{cc}\cos \beta &\;\mathrm {sen} \,\beta \\-\;\mathrm {sen} \,\beta &\cos \beta \end{array}}\right)T}
Si dimostra per induzione che:
A
n
=
T
−
1
λ
n
(
cos
n
β
s
e
n
n
β
−
s
e
n
n
β
cos
n
β
)
T
{\displaystyle A^{n}=T^{-1}\lambda ^{n}\left({\begin{array}{cc}\cos n\beta &\;\mathrm {sen} \,n\beta \\-\;\mathrm {sen} \,n\beta &\cos n\beta \end{array}}\right)T}
Pertanto la soluzione dell'equazione matriciale alle differenze è:
x
(
n
)
=
T
−
1
λ
n
(
cos
n
β
s
e
n
n
β
−
s
e
n
n
β
cos
n
β
)
T
x
(
0
)
+
∑
l
=
0
n
−
1
T
−
1
λ
n
(
cos
(
n
−
l
−
1
)
β
s
e
n
(
n
−
l
−
1
)
β
−
s
e
n
(
n
−
l
−
1
)
β
cos
(
n
−
l
−
1
)
β
)
T
B
u
(
l
)
{\displaystyle x(n)=T^{-1}\lambda ^{n}\left({\begin{array}{cc}\cos n\beta &\;\mathrm {sen} \,n\beta \\-\;\mathrm {sen} \,n\beta &\cos n\beta \end{array}}\right)Tx(0)+\sum _{l=0}^{n-1}T^{-1}\lambda ^{n}\left({\begin{array}{cc}\cos(n-l-1)\beta &\;\mathrm {sen} (n-l-1)\beta \\-\;\mathrm {sen} (n-l-1)\beta &\cos(n-l-1)\beta \end{array}}\right)TBu(l)}
Autovalori reali e autovalori complessi coniugati
modifica
Si supponga che la matrice
A
{\displaystyle A}
di ordine n ammetta
k
{\displaystyle k}
autovalori reali distinti
λ
1
,
λ
2
,
.
.
.
,
λ
k
{\displaystyle \lambda _{1},\lambda _{2},...,\lambda _{k}}
a cui corrispondono
k
{\displaystyle k}
autovettori distinti
v
1
,
v
2
,
.
.
.
,
v
k
{\displaystyle v_{1},v_{2},...,v_{k}}
allora si hanno le seguenti equazioni:
A
v
1
=
λ
1
v
1
A
v
2
=
λ
2
v
2
.
.
.
A
v
k
=
λ
k
v
k
{\displaystyle {\begin{array}{c}Av_{1}=\lambda _{1}v_{1}\\Av_{2}=\lambda _{2}v_{2}\\...\\Av_{k}=\lambda _{k}v_{k}\end{array}}}
Si supponga inoltre che la matrice
A
{\displaystyle A}
ammetta
p
{\displaystyle p}
coppie di autovalori complessi coniugati la cui p -esima coppia è:
α
p
+
j
ω
p
{\displaystyle \alpha _{p}+j\omega _{p}}
e
α
p
−
j
ω
p
{\displaystyle \alpha _{p}-j\omega _{p}}
a cui corrisponde la coppia di autovettori complessi coniugati
u
a
p
+
j
u
b
p
{\displaystyle u_{a_{p}}+ju_{b_{p}}}
e
u
a
p
−
j
u
b
p
{\displaystyle u_{a_{p}}-ju_{b_{p}}}
allora per quanto visto nel caso precedente per la p-esima coppia, se
τ
p
{\displaystyle \tau _{p}}
è il modulo dell'autovalore p-esimo e
β
{\displaystyle \beta }
il suo argomento si ha:
A
(
u
a
p
u
b
p
)
=
(
u
a
p
u
b
p
)
τ
p
(
cos
β
p
s
e
n
β
p
−
s
e
n
β
p
cos
β
p
)
{\displaystyle A(u_{a_{p}}u_{b_{p}})=(u_{a_{p}}u_{b_{p}})\tau _{p}\left({\begin{array}{cc}\cos \beta _{p}&\;\mathrm {sen} \,\beta _{p}\\-\;\mathrm {sen} \,\beta _{p}&\cos \beta _{p}\end{array}}\right)}
Ora posto
T
−
1
{\displaystyle T^{-1}}
uguale alla matrice le cui colonne sono i
k
{\displaystyle k}
autovettori corrispondenti agli autovalori reali e le parti reali e immaginarie delle
p
{\displaystyle p}
coppie di autovettori complessi coniugati, cioè:
T
−
1
=
(
v
1
,
v
2
,
.
.
.
,
v
k
,
u
a
1
,
u
b
1
,
u
a
2
,
u
b
2
,
.
.
.
,
u
a
p
,
u
b
p
)
{\displaystyle T^{-1}=(v_{1},v_{2},...,v_{k},u_{a_{1}},u_{b_{1}},u_{a_{2}},u_{b_{2}},...,u_{a_{p}},u_{b_{p}})}
allora dalle precedenti equazioni si ha la matrice diagonale a blocchi :
T
A
T
−
1
=
diag
(
λ
1
,
λ
2
,
.
.
.
,
λ
k
,
τ
p
(
cos
β
1
s
e
n
β
1
−
s
e
n
β
1
cos
β
1
)
,
.
.
.
,
τ
p
(
cos
β
p
s
e
n
β
p
−
s
e
n
β
p
cos
β
p
)
)
{\displaystyle TAT^{-1}={\mbox{diag}}\left(\lambda _{1},\lambda _{2},...,\lambda _{k},\tau _{p}\left({\begin{array}{cc}\cos \beta _{1}&\;\mathrm {sen} \,\beta _{1}\\-\;\mathrm {sen} \,\beta _{1}&\cos \beta _{1}\end{array}}\right),...,\tau _{p}\left({\begin{array}{cc}\cos \beta _{p}&\;\mathrm {sen} \,\beta _{p}\\-\;\mathrm {sen} \,\beta _{p}&\cos \beta _{p}\end{array}}\right)\right)}
pertanto:
x
l
(
t
)
=
T
−
1
diag
(
λ
1
n
,
λ
2
n
,
.
.
.
,
λ
k
n
,
τ
p
n
(
cos
n
β
1
s
e
n
n
β
1
−
s
e
n
n
β
1
cos
n
β
1
)
,
.
.
.
,
τ
p
n
(
cos
n
β
p
s
e
n
n
β
p
−
s
e
n
n
β
p
cos
n
β
p
)
)
T
x
(
0
)
{\displaystyle x_{l}(t)=T^{-1}{\mbox{diag}}\left(\lambda _{1}^{n},\lambda _{2}^{n},...,\lambda _{k}^{n},\tau _{p}^{n}\left({\begin{array}{cc}\cos n\beta _{1}&\;\mathrm {sen} \,n\beta _{1}\\-\;\mathrm {sen} \,n\beta _{1}&\cos n\beta _{1}\end{array}}\right),...,\tau _{p}^{n}\left({\begin{array}{cc}\cos n\beta _{p}&\;\mathrm {sen} \,n\beta _{p}\\-\;\mathrm {sen} \,n\beta _{p}&\cos n\beta _{p}\end{array}}\right)\right)Tx(0)}
E. Fornasini, G. Marchesini, Appunti di Teoria dei Sistemi , Edizioni Libreria Progetto, Padova, 2003.
A. Ruberti, S. Monaco, Teoria dei Sistemi - Appunti dalle lezioni , Pitagora Editrice, Bologna, 1998.
O.M. Grasselli, Proprietà strutturali dei sistemi lineari e stazionari , Pitagora Editrice, Bologna, 1978