Fondamenti di automatica/Sistemi lineari tempoinvarianti

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:Fondamenti di automatica

Descrizione con equazioni differenziali

Si può creare un modello matematico di molti sistemi per mezzo delle equazioni differenziali [1] Trattiamo solo sistemi modellizzabili con equazioni differenziali lineari a coefficienti costanti [2]

In generale un sistema lineare tempoinvariante SISO rappresentato con equazioni differenziali avrà uno stato interno descritto da equazioni del tipo x(n)(t)+an1x(n1)(t)++a1x(t)+a0x(t)=bu(t) dove x(t) è la funzione di stato, i coefficienti a0..n sono numeri reali e u(t) è la funzione di ingresso. L'uscita del sistema è data in generale come funzione lineare dello stato e dell'ingresso y(t)=cn1x(n1)(t)++c1x(t)+c0(t)+du(t)

Il polinomio caratteristico dell'equazione è PC(x)=xn+an1xn1++a1x+a0

La soluzione generale dell'equazione sarà composta da una componente data dalla soluzione dell'equazione omogenea associata (dove u(t)=0) più una componente detta soluzione particolare che sarà dello stesso tipo di u(t)

Per ottenere una soluzione unica, è necessario conoscere tante condizioni (n) su x(t) o sulle sue derivate pari al grado dell'equazione

Sistemi di equazioni differenziali

È possibile scomporre sempre una o più equazioni differenziali in un sistema di equazioni differenziali del primo ordine [3] del tipo x(t)=ax(t)+bu(t) dove a e b sono scalari reali che ha soluzione [4]

x(t)=ea(tt0)+t0tea(tk)bu(k)dk

Diagramma analogico

È possibile rappresentare un sistema in una forma a blocchi detta diagramma analogico [5] utilizzando blocchi che rappresentano sistemi semplici:

  • Amplificatore con guadagno k: G(s)=k
  • Integratore G(s)=1/s
  • Sommatore

Esistono due (???) strutture standard

Se si considera l'equazione differenziale che descrive il sistema espressa come

x(n)(t)=an1x(n1)(t)a1x(t)a0x(t)+bnu(n)(t)++b1u(t)+b0u(t) è possibile utilizzare un sommatore per ottenere x(n)(t), n integratori in serie per ottenere x(n11) e x(t), dei guadagni an1a0 e bnb0 per ottenere i termini a secondo membro dell'equazione; si porta nel sommatore le uscite degli integratori moltiplicate per i relativi coefficienti e si manda l'ingresso u(t) nel sommatore (anch'esso moltiplicato per i suoi coefficienti)

L'uscita del sistema si ottiene sommando le uscite degli integratori, appositamente moltiplicate

Un sistema rappresentato in questo modo, portato in variabili di stato, viene ad essere espresso in forma canonica di controllabilità. Per ricavare rapidamente il diagramma dall'equazione differenziale, si esprimono le derivate f(i)(t) con sif(t), quindi si divide per s più volte per portarle tutte a denominatore, si raccoglie 1/s e si ottiene un'equazione che rappresenta la struttura del circuito

Variabili di stato

Un sistema MIMO lineare tempoinvariante si descrive facilmente utilizzando le matrici

Un sistema può essere descritto da un'equazione differenziale o da un sistema di equazioni differenziali in cui le funzioni incognite x1(t)xnx(t) sono dette variabili di stato e sono il minimo numero di variabili tali che la conoscenza di queste ad un istante t0 è sufficiente a determinare lo stato del sistema per ogni istante successivo

i valori x1(t0)xnx(t0) rappresentano le condizioni iniziali del sistema

Un sistema lineare può essere espresso utilizzando le matrici

{x(t)=Ax(t)+Bu(t)y(t)=Cx(t)+Du(t)

dove le matrici A,B,C,D sono tali che Anx×nx, Bnx×nu, Cny×nx, Dny×nu; la matrice A è detta matrice di stato.

Lo stato in funzione del tempo (o movimento dello stato) [6] [7] è in generale

x(t)=eA(tt0)x(t0)+t0teA(tk)Bu(k)dk dove Φ=eA(tt0) è la matrice di transizione dello stato di un sistema lineare.

L'uscita del sistema è

y(t)=CeA(tt0)x(t0)+Ct0teA(tk)Bu(k)dk+Du(t)

Gli stati di equilibrio di un sistema lineare in variabili di stato [8] sono le soluzioni dell'equazione Axe+Bu=0 quando l'ingresso è costante.

Se la matrice A è invertibile allora lo stato di equilibrio è unico e corrisponde allo stato e all'uscita

{xe=A1Buye=(CA1B+D)u

la matrice DCA1B rappresenta il guadagno statico del sistema [9] che nel caso di sistemi SISO si indica con ρ e costituisce il rapporto tra l'uscita e l'ingresso quanto tutte le variabili del sistema, ingresso e stato, sono costanti

Soluzione del sistema in variabili di stato

L'unico passo non banale nella soluzione di un sistema in variabili di stato consiste nella valutazione della matrice di transizione dello stato Φ=eA(tt0) [10] che è possibile risolvere utilizzando la trasformata di Laplace o portando la matrice A in forma diagonale.

Se consideriamo il sistema a ingresso nullo x(t)=Ax(t) e trasformiamo entrambi i membri, si ottiene sX(s)x(t0)=AX(s), ovvero X(s)=(sIA)1x(t0); e quindi antitrasformando si trova che

x(t)=1{(sIA)1}x(t0)

Se consideriamo il sistema con ingresso non nullo, con lo stesso metodo, otteniamo

x(t)=1{(sIA)1}x(t0)+1{(sIA)1BU(s)}

Utilizzando le trasformazioni lineari e portando la matrice di stato in forma diagonale o a blocchi di Jordan, la valutazione di eA(tt0) è più semplice.

Matrici

Alcuni richiami sulle matrici ...[11]

Gli autovalori di una matrice A sono le radici λi dell'equazione

|λIA|=0

radici multiple corrispondono ad autovalori con molteplicità algebrica maggiore di uno.

Ad ogni autovalore λi corrisponde un autovettore vi tale che

(λiA)vi=0

Per ogni autovalore di molteplicità algebrica n>1 esistono n1 autovettori generalizzati che si determinano ripetendo n1 volte l'equazione precedente sostituendo a 0 l'opposto dell'ultimo autovettore trovato.

(λiA)vi=vi1

Si dice molteplicità geometrica di un autovalore il numero di autovettori linearmente indipendenti ad esso associati corrispondenti alla dimensione del nullo di A (N(A)) (?)

Il rango di una matrice r{A} è pari al numero di righe linearmente indipendenti, valgono le seguenti proprietà:

  • r{A} è uguale al numero di colonne o righe linearmente indipendenti
  • r{A} è uguale al rango della matrice trasposta di A: r{A}=r{AT}
  • r{A} è minore del numero di colonne e del numero di righe della matrice
  • se la matrice è quadrata (AMn×n) e il suo rango è massimo (r{A}=n), allora è invertibile
  • il rango è inveriante rispetto a pre o post moltiplicazioni per matrici non singolari (come le matrici in una similitudine)
  • il rango del prodotto di due matrici è minore dei ranghi di ciascuna delle due

Cambiamento di coordinate

Le matrici A, B, C, D (matrici rappresentative del sistema) rappresentano una trasformazione lineare (similitudine) dallo spazio di x e u a quello di x [12] [13]

È possibile cambiare sistema di riferimento applicando una trasformazione lineare alla matrici rappresentative del sistema [14]

Applicando una trasformazione M al sistema [15] si ottiene

{xM(t)=M1AMxM(t)+M1Bu(t)y(t)=CMxM(t)+Du(t) dove M è una matrice quadrata e xM(t) è un nuovo vettore di stato tale che x(t)=MxM(t).

Una matrice quadrata M rappresenta la stessa trasformazione lineare di una matrice M=T1MT se T non è singolare [16] , due matrici simili hanno stesso polinomio caratteristico e stessi autovalori.

È possibile scegliere M in modo da rendere M1AM in una forma che consenta di effettuare meglio calcoli, [17] diagonale [18] (si indica con Λ) o in forma di Jordan [19] (J)

La matrice Λ è diagonale e gli elementi sulla diagonale sono gli autovalori di A

La matrice a blocchi di Jordan è diagonale, tranne degli 1 al di sopra degli elementi della diagonale (che corrispondono ad autovettori linearmente dipendenti), e gli elementi sulla diagonale sono gli autovalori di A e gli 1 sulla diagonale superiore sono in corrispondenza degli autovettori generalizzati che sono linearmente dipendenti (???).

Per portare una matrice in forma diagonale o di Jordan si usa la trasformazione

Tdiag=[v1,v2,,vn] dove v1n sono gli autovettori (intesi come vettori-colonna) della matrice (si può costruire T anche con gli autovettori sinistri messi per righe)

Esponenziale di una matrice

Per ogni matrice quadrata An×n e ogni scalare t0 è definita la matrice esponenziale [20]

eAt=I+At+A2t22!+A3t33!+ estendendo la definizione di esponenziale come serie valida per gli scalari.

Per il teorema di Cayley-Hamilton [21], qualunque matrice quadrata A soddisfa la sua equazione caratteristica (il suo polinomio caratteristico eguagliato a zero)

An+an1An1++a1A+a0I=0 e quindi la serie necessaria per il calcolo dell'esponenziale si riduce ad una somma finita, in quanto tutte le potenze da An in poi possono essere espresse come combinazione lineare di A0An1

eAt=h0(t)I+h1(t)At+h2(t)A2t22!++hn1(t)An1tn1(n1)!

dove i coefficienti h0(t)hn1(t) si possono ricavare utilizzando il determinante di Vandermonte

(1λ1λ12λ1n11λ2λ22λ2n11λ3λ32λ3n11λnλn2λnn1)[h0(t)h1(t)h2(t)hn1(t)]=[eλ1teλ2teλ3teλnt]

È possibile calcolare l'esponenziale di una matrice avvalendosi della trasformata di Laplace eAt=1{(sIA)1}

Oppure se la matrice è in forma diagonale e λ1λn sono i suoi autovalori (e quindi gli elementi della diagonale principale) allora

eΛt=(eλ1t000eλ2t0000eλnt)

Se la matrice è in forma di Jordan, per ogni blocco di Jordan che si ottiene con ognuno degli autovalori il suo esponenziale è

eJt=(eλitteλitt22!eλittk1(k1)!eλit0eλitteλittk2(k2)!eλit00eλit0000eλit)

Forma canonica di controllo

Dato un sistema in variabili di stato di definisce forma canonica di controllo [22] il sistema simile al sistema dato x=Ax+Bu in cui

A=(010000010000010000001a0a1a2a3an1)

B=[001]

C=[b0a0bn,b1a1bn,,bn1an1bn]D=[bn]

Dove si suppone che nz=np (eventualmente si aggiungono coefficienti nulli)

Questa forma è tale che per qualunque valore di a0..n il sistema risulta controllabile; può essere ricavata direttamente dal diagramma analogico applicato all'equazione differenziale che descrive il sistema (????)

Forma canonica di osservabilità

Dato un sistema in variabili di stato di definisce forma canonica di osservabilità [23] il sistema simile al sistema dato x=Ax+Bu in cui

A=(0000a01000a10100a200001an1)

B=[b0a0bnb1a1bnbn1an1bn]]

C=[0,,0,1]D=[bn]

Dove si suppone che nz=np (eventualmente si aggiungono coefficienti nulli).

Questa forma è tale che per qualunque valore di a0..n il sistema risulta osservabile.

Funzione di trasferimento

La funzione di trasferimento ingresso-uscita G(s) di un sistema lineare SISO [24] è definita come la funzione tale che

Y(s)=G(s)U(s) dove U(s) e Y(s) rappresentano la trasformata di Laplace dell'ingresso u(t) e dell'uscita y(t); è in generale esprimibile da un rapporto di polinomi in s, ma sono possibili varie forme [25]

  • Funzione di trasferimento in forma polinomiale

G(s)=bnzsnz+bnz1snz1++b1s+b0snp+anp1snp1++a1s+a0

  • Funzione di trasferimento in forma poli-zeri

G(s)=ρz1z2znzp1p2pnp(s+z1)(s+z2)(s+znz)(s+p1)(s+p2)(s+pnp)

  • Funzione di trasferimento in forma di Bode

G(s)=ρ(τ1s+1)(τ2s+1)(τnzs+1)sg(T1s+1)(T2s+1)(Tnpgs+1)

I simboli utilizzati rappresentano:

  • p1,p2,,pnp sono detti poli della funzione di trasferimento;
  • z1,z2,,znz sono gli zeri;
  • np è il numero dei poli e nz il numero degli zeri;
  • T e τ sono gli inversi dei poli e degli zeri non nulli (detti anche costanti di tempo) Ti=1/pi e τi=1/zi;
  • g è il grado del sistema, il numero di poli nulli;
  • ρ rappresenta qui il guadagno generalizzato

[26] [27] del sistema, ovvero il guadagno per frequenze minori delle frequenze dei poli e degli zeri del sistema (se nel sistema non si considerano i poli a frequenza nulla).

I poli sono gli opposti delle del polinomio caratteristico ed influenzano la stabilità del sistema, poli negativi conducono a radici positive.

Il denominatore della funzione di trasferimento snp+anp1snp1++a1s+a0 rappresenta il polinomio caratteristico del sistema.

Gli zeri di un sistema rappresentano gli ingressi ez1nzt per cui il sistema ha uscita nulla, questa è detta proprietà bloccante degli zeri [28]

Poiché i coefficienti anpa0 e bnzb0 sono reali, i poli e gli zeri di un sistema (che sono considerati talvolta le radici dei polinomi a numeratore e a denominatore della funzione di trasferimento, talvolta i loro opposti) sono reali oppure complessi coniugati.

Un sistema è detto a sfasamento minimo se non ha poli o zeri negativi (instabili) o immaginari puri (eccetto siano nulli); in questo caso la variazione di fase totale tra la pulsazione nulla e infinita è (npnz)π/2, il valore della funzione di trasferimento non è mai zero o infinito per pulsazioni limitate non nulle.

La funzione di trasferimento è invariante rispetto a trasformazioni lineari [29] e dipende dalla sola parte raggiungibile ed osservabile del sistema [30]

La trasformata di Laplace

È definita per funzioni reali f(t) la trasformata di Laplace [31]

{} come funzione della variabile complessa s=σ+jω secondo la formula

F(s)=0+f(t)estdt

f(t) deve essere definita almeno per t0

Il minimo valore di s, indicato con σ0 per cui la trasformata esiste è detto ascissa di convergenza.

L'operazione trasforma una funzione in un altro spazio le cui basi sono le funzioni est ovvero eσ+jω=eσ(cosω+jsinω)

sono quindi trasformabili tutte le funzioni che possono essere espresse come somma di funzioni sinusoidali esponenzialmente smorzate, che includono le funzioni esponenziali semplici, lineari e sinusoidali

L'operazione inversa 1{} è f(t)=12πjσ1jσ1+jF(s)estds dove σ1 è un qualsiasi valore maggiore di σ0


Teorema del valore finale

Se f(t) ha trasformata F(s) razionale (o anche solo se esiste il limite a primo membro) con grado del denominatore maggiore del grado del numeratore e poli negativi o nulli, allora [32] limtf(t)=lims0sF(s)

Teorema del valore iniziale

Se f(t) ha trasformata F(s) razionale (o anche solo se f(0+) esiste) con grado del denominatore maggiore del grado del numeratore, allora [33] f(0+)=limssF(s) σ0 deve essere minore di 0 altrimenti F(s) non è definita in 0 e il teorema non è applicabile

Risposta impulsiva

La risposta impulsiva di un sistema è definita come l'uscita gi(t) del sistema quando si ha in ingresso una delta di Dirac u(t)=δ(t) su un singolo ingresso ui [34]; si definisce risposta all'impulso dello stato gxi(t)=eAtBi e risposta all'impulso dell'uscita gyi(t)=CeAtBi+Dδ(t)

Si definisce anche la risposta al gradino ggr(t), la cui derivata è la risposta impulsiva, come la risposta del sistema ad un ingresso a gradino unitario ggri(t)=Ct0teAtτBidτ=CA1(eAtI)Bi dove 0teAτdτ=A1(eAtI) per analogia con gli scalari

Risposta in frequenza

Se si restringe la funzione di trasferimento di un sistema sui valori di s immaginari puri positivi, si ottiene la risposta in frequenza del sistema G(jω) [35] che rappresenta l'uscita del sistema quando ha in ingresso una sinusoide.

Essa è definita per tutti i valori della pulsazione ω positivi che non siano poli immaginari puri di G(s)

Quindi se u(t)=sinωt, allora si ha che y(t)=|G(jω)|sin(ωt+G(jω))

La risposta in frequenza è una funzione a immagine complessa ; il modulo della risposta in frequenza rappresenta la variazione del modulo dell'uscita in funzione della pulsazione dell'ingresso; la fase della risposta in frequenza rappresenta la variazione della fase dell'uscita in funzione della pulsazione dell'ingresso

si può rappresentare in varie forme corrispondenti a quelle della funzione di trasferimento, le più comuni sono:

  • Risposta in frequenza in forma poli-zeri

G(jω)=ρz1z2znzp1p2pnp(jω+z1)(jω+z2)(jω+znz)(jω+p1)(jω+p2)(jω+pnp)

  • Risposta in frequenza in forma di Bode

G(jω)=ρ(jωτ1+1)(jωτ2+1)(jωτnz+1)(jω)g(jωT1+1)(jωT2+1)(jωTnpg+1)

  • Risposta in frequenza in modulo e fase

|G(jω)|=ρωg(τ12ω2+1)(τ22ω2+1)(τnz2ω2+1)(T12ω2+1)(T22ω2+1)(Tnpg2ω2+1)

G(jω)=π2g+tan1ωτ1++tan1ωτnz+tan1ωT1tan1ωTnpg

se si vuole valutare la risposta in frequenza per pulsazioni lontane dai poli e dagli zeri, è possibile trascurare poli e zeri a pulsazioni elevate (tali che 1+τjω1) e semplificare l'espressione di poli e zeri a pulsazioni inferiori (tali che 1<<τjω) ottenendo la risposta in frequenza semplificata G(jω)=ρ(jω)g(τ1jω)(τ2jω)(τljω)(T1jω)(T2jω)(TLgjω) che è valida per pulsazioni 1/τl,1/TL<<ω<<1/τl+1,1/TL+1;

Se si vuole valutare il modulo a frequenze maggiori di un numero pari di poli e zeri (l=L+g); ovvero in corrispondenza di un tratto a guadagno costante, è possibile semplificare anche ω dall'espressione della risposta in ampiezza, ottenendo la forma ulteriormente semplificata |G(jω)|=ρτ1τ2τlT1T2TL


La trasformata di Fourier

La trasformata di Fourier {f(t)} [36] è definita come la trasformata di laplace per funzioni reali f(t) ma prendendo come base le funzioni sinusoidali

F(jω)=+f(t)ejωtdt

l'operazione inversa 1{F(jω)} è f(t)=12π+F(jω)ejωtdω

Passaggio tra le varie rappresentazioni

[37]

Dalle equazioni differenziali alle variabili di stato

Se il sistema è descritto da un'equazione differenziale e se si sceglie come variabili di stato

x0n1(t)=x(0n1+1)(t)+a0n1y(t)+b0n1u(t)

xn=y(t)bnu(t) il sistema viene descritto in forma canonica di osservabilità [38]

Dalle variabili di stato alla funzione di trasferimento

Se si considera il sistema espresso in variabili di stato in forma canonica e si applica la trasformata di Laplace a entrambi i membri delle due equazioni, con alcuni passaggi ( poiché (det{(sIA)} non è identicamente nullo per ogni s) si ottiene: [39] {X(s)=(sIA)1x(t0)+(sIA)1BU(s)Y(s)=C(sIA)1x(t0)+(C(sIA)1B+D)U(s)

La funzione di trasferimento rappresenta l'uscita divisa per l'ingresso con stato iniziale nullo, quindi G(s)=C(sIA)1B+D in questo caso, poiché il sistema in variabili di stato è in generale MIMO, la funzione di trasferimento è una matrice con termini che sono funzioni razionali fratte con al denominatore il polinomio caratteristico della matrice A

Conoscendo le matrici B,C,D è possibile ricavare dalla funzione di trasferimento ingresso-uscita anche la funzione di trasferimento ingresso-stato

Dalle equazioni differenziali alla funzione di trasferimento

[40]

Dalle variabili di stato alla risposta impulsiva

Conoscendo le matrici rappresentative del sistema A,B,C,D, la risposta impulsiva [41] si ricava in modo simile alla funzione di trasferimento g(t)=CeAtB+Dδ(t) è possibile ricavare la risposta impulsiva anche antitrasformando la funzione di trasferimento

Note

  1. Automatic Control Systems di Benjamin C. Kuo; pag 25, sezione 2-3: Differential equations
  2. Calcolo, volume terzo - Analisi 2 di Tom M. Apostol; pag 34, sezione 2.4: Equazioni differenziali lineari di ordine n
  3. Automatic Control Systems di Benjamin C. Kuo; pag 26, sezione 2-3-3: First-order differential equations
  4. Calcolo, volume terzo - Analisi 2 di Tom M. Apostol; pag 108, sezione 3.16: Sistemi lineari non omogenei a coefficienti costanti
  5. Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione; pag 462, figura 12.7
  6. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 60, sezione 3.2.1: Formula di Lagrange
  7. Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione; pag. 481, sezione 12.5: Solutions of state equations
  8. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 70, sezione 3.2.5: Equilibrio
  9. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 70
  10. Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione; pag. 485, Computation of state transition matrix
  11. Automatic Control Systems di Benjamin C. Kuo; Prentice Hall, settima edizione 1995; pag. 245, sezione 5-7: Characteristic equation, eigenvalues, eigenvectors
  12. Calcolo, volume secondo - Geometria di Tom M. Apostol; Bollati Boringhieri, ristampa del febbraio 1996; pag. 125, Capitolo 4: Trasformazioni lineari e matrici
  13. Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione; pag. 472, sezione 12.4: Diagonalization
  14. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 61, sezione 3.2.2: Rappresentazioni equivalenti
  15. Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione
  16. Calcolo, volume secondo - Geometria di Tom M. Apostol; Bollati Boringhieri, ristampa del febbraio 1996; pag. 210, Sezione 6-9: Matrici simili
  17. Calcolo, volume secondo - Geometria di Tom M. Apostol; Bollati Boringhieri, ristampa del febbraio 1996; pag. 224, sezione 7.9: Diagonalizzazione di matrici Hermitiane o anti-Hermitiane
  18. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.63, sezione 3.2.3: Matrice della dinamica diagonalizzabile
  19. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.65, sezione 3.2.3: Matrice della dinamica diagonalizzabile
  20. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 591, appendice A.5: Esponenziale
  21. Calcolo, volume terzo - Analisi 2 di Tom M. Apostol; Bollati Boringhieri, settima impressione del settembre 1991; pag.98, sezione 3.11: Il teorema di Cayley-Hamilton
  22. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.125, sezione 4.5.1: Forma canonica di raggiungibilità
  23. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.125, sezione 4.5.2: Forma canonica di osservabilità
  24. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.99, capitolo 4: Funzione di trasferimento
  25. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 106, sezione 4.3: Rappresentazioni e parametri della funzione di trasferimento
  26. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 70, sezione 3.2.5: Equilibrio
  27. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 106, sezione 4.3.1: Guadagno
  28. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 155, sezione 6.2.2: Proprietà bloccante degli zeri
  29. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 102, sezione 4.2.3: Invarianza della funzione di trasferimento
  30. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 102, sezione 4.2.4: Cancellazioni e stabilità
  31. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 598, appendice B.3: Trasformata di Laplace
  32. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.603
  33. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 603
  34. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 68, sezione 3.2.4: Risposta all'impulso e movimento forzato
  35. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 154, capitolo 6: Risposta in frequenza
  36. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 617, appendice B.5: Trasformata di Fourier
  37. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 129, figura 4.16: Rappresentazioni dei sistemi dinamici e relazioni corrispondenti
  38. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 127, sezione 4.5.4: Interpretazione delle forme canoniche
  39. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 99, sezione 4.2.1: Definizione e proprietà della FdT
  40. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 129, sezione 4.5.4
  41. Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 68, sezione 3.2.4: Risposta all'impulso e movimento forzato