DE SISTEMAS
LINEALES
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz1
ii
sistema|textbf
Kalman
Routh
Bode
Nyquist
Prefacio
La nocion de sistema resulta sumamente poderosa para la descripcion, analisis y dise
no tanto en ingeniera como en otras areas, principalmente porque
permite describir en forma abstracta un fenomeno en base al objetivo que el
observador/ingeniero en requiera en cada caso particular.
En este texto abordamos el analisis de un tipo particular de sistemas, aquellos llamados lineales. Esta propiedad, si bien no es com
un en sistemas fsicos
reales, permite hacer uso de una gran gama de herramientas de analisis matematico,
que han demostrado ser de gran utilidad, a pesar de las simplificaciones inherentes involucradas en la representacion lineal de los sistemas.
La teora de los sistemas lineales tuvo un rapido crecimiento y sostenida consolidacion desde mediados del siglo veinte. Este desarrollo fue sustentado por
el trabajo pionero de Bode, Routh, Nyquist, Kalman y muchos otros investigadores. Ellos construyeron, a su vez, sobre la teora matematica existente de
los siglos pasados en areas tan diversas como, por ejemplo, el calculo diferencial
e integral de Newton, las ecuaciones diferenciales y la teora de funciones de
variables complejas.
Mas adelante, el desarrollo y expansion de la tecnologa digital ampliaron el
campo de los sistemas lineales hacia los sistemas que operan en tiempo discreto.
Nuevas herramientas matematicas debieron entonces incorporarse al estudio de
los sistemas lineales.
Un aspecto de especial relevancia es no perder de vista que el interes de
la Ingeniera en los sistemas lineales esta ligado a la posibilidad de emplearlos
como modelos suficientemente precisos para describir sistemas reales. El estudiante debe ser advertido al inicio del curso sobre el problema subyacente de
fidelidad de la representacion final, y el tema debe ser reiterado a lo largo del
mismo. Tambien es necesario enfatizar que los sistemas reales no son lineales y
que la perdida de precision al modelarlos como sistemas lineales es usualmente
compensada por el traslado del problema a un campo dotado de herramientas matematicas. Por otro lado, es conveniente enfatizar que existen sistemas
reales, incluso muy basicos como aquellos con dispositivos de conmutacion, que
simplemente no pueden ser modelados como sistemas lineales.
Si bien la teora de los sistemas lineales tiene un interes en si misma como
objeto de estudio matematico, en este libro el enfoque es distinto, mas orientado
al estudiante de ingeniera: se trata de estudiar esta teora como un sosten para
el analisis, la sntesis y el dise
no de sistemas de procesamiento de se
nales, de
iii
iv
sistemas de control automatico, sistemas economicos, entre otros. El proposito
es que el lector, sin abandonar ni menospreciar el rigor requerido por esta teora,
la conciba como una herramienta para entender, analizar y resolver problemas
asociados a fenomenos y sistemas en ingenier. Esto nos parece necesario con el
fin de evitar la frecuente confusion entre los estudiantes de ingeniera, que lleva
a subvertir los roles del problema y la herramienta, y centrar su atencion en el
rigor matematico mas que en los conceptos y la interpretacion de los resultados
de la teora de los sistemas lineales.
Pensamos tambien que este enfasis en los conceptos mas que en la utilera
matematica debe reflejarse en el esfuerzo que se pide a los estudiantes que estudien el tema. Con este objeto, nos parece fundamental el uso extensivo de paquetes de software para simulacion, tales como Simulink de Matlab y Simnon
. Tambien encontramos de especial utilidad el uso de software de matematica
simbolica, como Maple y Mathematica . El libro supone que los estudiantes
tienen acceso a este tipo de herramientas. Tambien suponemos que nuestros
lectores tiene una formacion matematica basica previa que incluye conceptos
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz
Indice general
Prefacio
III
1. Aspectos fundamentales
1.1. Sistemas . . . . . . . . . . . . . . . . . . . .
1.2. Modelos . . . . . . . . . . . . . . . . . . . .
1.3. Sistemas lineales . . . . . . . . . . . . . . .
1.4. Invarianza en el tiempo . . . . . . . . . . .
1.5. Linealizacion . . . . . . . . . . . . . . . . .
1.5.1. Sistema no lineal de tiempo continuo
1.5.2. Sistema no lineal de tiempo discreto
1.6. Problemas para el lector . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
4
5
8
9
9
12
18
2. Se
nales
2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Se
nales de tiempo continuo . . . . . . . . . . . . . . .
2.2.1. Escalon unitario (funcion de Heaviside) . . . .
2.2.2. Impulso unitario o delta de Dirac . . . . . . . .
2.2.3. Rampa unitaria . . . . . . . . . . . . . . . . . .
2.2.4. Exponencial . . . . . . . . . . . . . . . . . . . .
2.2.5. Se
nales sinusoidales . . . . . . . . . . . . . . .
2.2.6. Sinusoidales con amplitud exponencial . . . . .
2.3. Se
nales de tiempo discreto . . . . . . . . . . . . . . . .
2.3.1. Escalon unitario de tiempo discreto . . . . . .
2.3.2. Impulso unitario discreto o delta de Kronecker
2.3.3. Rampa unitaria de tiempo discreto . . . . . . .
2.3.4. Exponencial de tiempo discreto . . . . . . . . .
2.3.5. Se
nales sinusoidales de tiempo discreto . . . . .
2.3.6. Sinusoidales con amplitud exponencial . . . . .
2.4. Problemas para el lector . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
21
21
21
23
24
25
26
27
27
27
28
29
30
31
32
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. An
alisis en tiempo continuo
35
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. Ecuacion diferencial del sistema (EDS) . . . . . . . . . . . . . . . 35
3.3. La respuesta del sistema . . . . . . . . . . . . . . . . . . . . . . . 38
v
vi
INDICE GENERAL
3.3.1. Componente homogenea y componente particular
3.3.2. Frecuencias y modos naturales . . . . . . . . . .
3.3.3. Modos forzantes y modos forzados . . . . . . . .
3.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . .
3.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . .
3.3.6. Respuesta a estado inicial y respuesta a entrada
3.4. Respuesta a se
nales de prueba . . . . . . . . . . . . . . .
3.4.1. Respuesta a escalon unitario . . . . . . . . . . .
3.4.2. Respuesta a impulso unitario . . . . . . . . . . .
3.5. Calculo de la respuesta va convolucion . . . . . . . . . .
3.6. Problemas para el lector . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
38
40
40
43
44
45
50
50
52
53
57
4. An
alisis en tiempo discreto
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Ecuacion de recursion del sistema (ERS) . . . . . . . . .
4.3. La respuesta del sistema . . . . . . . . . . . . . . . . . .
4.3.1. Componente homogenea y componente particular
4.3.2. Frecuencias y modos naturales . . . . . . . . . .
4.3.3. Modos forzantes y modos forzados . . . . . . . .
4.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . .
4.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . .
4.3.6. Respuesta a estado inicial y respuesta a entrada
4.4. Respuesta a se
nales de prueba . . . . . . . . . . . . . . .
4.4.1. Respuesta a escalon unitario . . . . . . . . . . .
4.4.2. Respuesta a impulso unitario . . . . . . . . . . .
4.5. Calculo de la respuesta via convolucion . . . . . . . . . .
4.6. Problemas para el lector . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
61
64
65
66
68
71
72
73
76
76
78
79
84
5. An
alisis bajo excitaciones peri
odicas
5.1. Se
nales Periodicas . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Respuesta a entrada sinusoidal. El caso de tiempo continuo . . .
5.3. Series de Fourier para se
nales de tiempo continuo . . . . . . . . .
5.3.1. Serie de Fourier trigonometrica . . . . . . . . . . . . . . .
5.3.2. Serie de Fourier exponencial . . . . . . . . . . . . . . . . .
5.3.3. Parseval y la energa de las se
nales periodicas . . . . . . .
5.4. Respuesta a entradas sinusoidales. El caso de tiempo discreto . .
5.5. Serie de Fourier de tiempo discreto . . . . . . . . . . . . . . . . .
5.6. Aplicacion de las series de Fourier al analisis de sistemas lineales
5.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . .
87
87
88
92
92
100
102
103
106
110
111
6. An
alisis bajo excitaciones arbitrarias. La transformada de Fourier
117
6.1. La limitacion de las series de Fourier . . . . . . . . . . . . . . . . 117
6.2. La Transformacion de Fourier. El caso del tiempo continuo . . . 117
6.2.1. Parseval y la energa de las se
nales aperiodicas en tiempo
continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
INDICE GENERAL
vii
124
129
133
137
139
143
144
148
149
150
152
7. An
alisis bajo excitaciones arbitrarias. La transformada de Laplace
155
7.1. Definicion de la transformada . . . . . . . . . . . . . . . . . . . . 155
7.2. Aplicacion a sistemas lineales: la funcion de transferencia . . . . 156
7.2.1. Funcion de transferencia en dominios de Laplace y Fourier 160
7.3. Respuesta a impulso y respuesta a escalon. . . . . . . . . . . . . 161
7.4. Respuesta a condiciones iniciales y se
nales arbitrarias. . . . . . . 166
7.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.5.1. Analisis de polinomios . . . . . . . . . . . . . . . . . . . . 173
7.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . . . 177
7.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . . . 182
7.6.4. Sistema canonico de segundo orden . . . . . . . . . . . . . 183
7.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 186
8. An
alisis bajo excitaciones arbitrarias. La transformada Zeta
8.1. Definicion de la transformada . . . . . . . . . . . . . . . . . . .
8.2. Aplicacion a sistemas lineales: la funcion de transferencia . . .
8.2.1. Funcion de transferencia en dominios de Fourier y Zeta
8.3. Respuesta a impulso y respuesta a escalon. . . . . . . . . . . .
8.4. Respuesta a condiciones iniciales y excitaciones arbitrarias. . .
8.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.1. Analisis de polinomios . . . . . . . . . . . . . . . . . . .
8.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . .
8.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . .
8.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
191
191
192
198
200
203
205
206
210
211
214
215
217
INDICE GENERAL
viii
9. Representaci
on de sistemas
9.1. Ideas generales . . . . . .
9.2. Diagramas de Bode . . . .
9.2.1. Tiempo continuo .
9.2.2. Tiempo discreto .
9.3. Diagramas polares . . . .
9.3.1. Tiempo continuo .
9.3.2. Tiempo discreto .
9.4. Diagramas de bloques . .
9.5. Problemas para el lector .
lineales
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
219
219
220
220
231
233
233
244
246
250
10.Representaci
on en variables de estado.
10.1. Conceptos fundamentales sobre modelos de sistemas. . . . .
10.2. Conceptos fundamentales . . . . . . . . . . . . . . . . . . .
10.2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . .
10.2.2. Modelos basicos en variables de estado . . . . . . . .
10.2.3. Se
nales descritas en espacio de estado . . . . . . . .
10.3. Modelos de estado para sistemas continuos . . . . . . . . .
10.3.1. Linealizacion . . . . . . . . . . . . . . . . . . . . . .
10.3.2. Modelos lineales en el espacio de estado . . . . . . .
10.3.3. Transformaciones de similaridad . . . . . . . . . . .
10.3.4. Espacio de estado y funciones de transferencia . . .
10.4. Modelos de estado para sistemas discretos y muestreados .
10.4.1. Linealizacion de sistemas discretos . . . . . . . . . .
10.4.2. Sistemas muestreados . . . . . . . . . . . . . . . . .
10.4.3. Modelos de estado lineales . . . . . . . . . . . . . . .
10.4.4. Transformaciones de similaridad . . . . . . . . . . .
10.4.5. Espacio de estado y funciones de transferencia . . .
10.5. Modelos de estado para sistemas interconectados . . . . . .
10.6. Propiedades de los sistemas . . . . . . . . . . . . . . . . . .
10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad .
10.6.2. Observabilidad, Reconstructibilidad y Detectabilidad
10.6.3. Descomposicion Canonica . . . . . . . . . . . . . . .
10.7. Observadores . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7.1. Dinamica del observador . . . . . . . . . . . . . . . .
10.7.2. Observadores y ruido de medicion. . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
253
253
254
254
255
256
257
258
261
267
270
273
274
274
277
286
286
287
290
290
299
307
309
310
314
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11.Sistemas hbridos
317
11.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
11.2. Muestreo de se
nales. . . . . . . . . . . . . . . . . . . . . . . . . . 318
11.3. Analisis en frecuencia de se
nales muestreadas . . . . . . . . . . . 320
INDICE GENERAL
12.Modelos
12.1. Ideas generales . . . . .
12.2. Modelado de sistemas de
12.3. Modelado de sistemas de
12.4. Modelado de sistemas de
12.5. Modelado de sistemas de
ix
. . . . . . . . . . . . . . . . . . . .
tiempo continuo. Teora basica. . .
tiempo continuo. Modelos lineales.
tiempo discreto. Teora basica. . .
tiempo discreto. Modelos lineales.
A. Series de Taylor
A.1. Serie de Taylor en una variable
A.2. Serie de Taylor en dos variables
A.3. El caso general . . . . . . . . .
A.4. Algunas reglas practicas para la
. . . . . .
. . . . . .
. . . . . .
expansion
. . . . .
. . . . .
. . . . .
en serie
B. Bases matem
aticas para las Series de Fourier
B.1. Espacios vectoriales y bases ortogonales . . . .
B.2. Convergencia de las Series de Fourier . . . . . .
B.2.1. Convergencia de sucesiones y series . . .
B.2.2. Convergencia de las Series de Fourier . .
Demostracion . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
323
323
324
329
332
336
.
.
.
.
.
.
.
.
.
.
.
.
339
339
340
341
341
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
343
343
347
347
349
357
C. La transformaci
on de Fourier
C.1. Transformacion de Fourier en tiempo continuo . . . . . . .
C.1.1. Definicion de la Transformada . . . . . . . . . . . . .
C.1.2. Propiedades de la Transformada de Fourier . . . . .
C.2. Transformada de Fourier en tiempo discreto . . . . . . . . .
C.2.1. Definicion de la transformada . . . . . . . . . . . . .
C.2.2. Propiedades de la transformada de Fourier discreta .
Demostracion . . . . . . . . . . . . . . . . . . . . . .
Demostracion . . . . . . . . . . . . . . . . . . . . . .
C.2.3. Aspecto practico: la transformada rapida de Fourier
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
359
359
359
361
374
374
376
380
383
392
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
D. La transformada de Laplace
D.1. Transformada de Laplace . . . . . . . . . . . . . .
D.1.1. Definicion de la Transformada . . . . . . . .
D.1.2. Propiedades de la Transformada de Laplace
Demostracion . . . . . . . . . . . . . . . . .
Demostracion . . . . . . . . . . . . . . . . .
Demostracion . . . . . . . . . . . . . . . . .
D.1.3. Descomposicion en fracciones parciales . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
399
399
399
401
407
408
408
416
E. La Transformaci
on Zeta
E.1. Definicion de la Transformacion . . . .
E.2. Propiedades de la Transformada Zeta
Demostracion . . . . . . . . . .
Demostracion . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
423
423
425
429
430
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE GENERAL
x
F. Matrices. Definiciones y Propiedades
F.1. Conceptos Basicos . . . . . . . . . .
F.2. Determinante de una matriz . . . . .
F.3. Operaciones con matrices . . . . . .
F.4. Inversa de una matriz . . . . . . . .
F.5. Autovalores y autovectores . . . . .
F.6. Normas de vectores y matrices . . .
F.7. Tipos especiales de matrices . . . . .
F.8. Valores singulares . . . . . . . . . . .
Indice alfab
etico
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
435
435
438
441
443
448
457
460
466
471
Indice de figuras
1.1.
1.2.
1.3.
1.4.
1.5.
Sistema electrico . . . . . . . . . . . . . . . . . . . . . . . . . . .
Representacion compacta de un sistema . . . . . . . . . . . . . .
Propiedad de invarianza en el tiempo . . . . . . . . . . . . . . . .
Diagrama Simulink para simulacion de un sistema no lineal. . .
Salida del sistema no lineal (linea solida) y salida del sistema linealizado (lnea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lnea punteada) . . . . . . . . . . . . . .
1.6. Ganancia no lineal para el Problema 1.8 . . . . . . . . . . . . . .
2
3
8
16
2.1.
2.2.
2.3.
2.4.
2.5.
2.6.
2.7.
2.8.
22
22
22
24
25
25
26
36
xi
. . . . . .
(de mul. . . . . .
. . . . . .
. . . . . .
16
19
27
27
28
29
29
30
32
33
41
47
52
INDICE DE FIGURAS
xii
3.5.
3.6.
3.7.
3.8.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4.1. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso decreciente). . . . . .
4.2. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso no decreciente). . . .
4.3. Respuesta a escalon unitario . . . . . . . . . . . . . . . . . . . . .
4.4. Red resistiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1. Se
nales de entrada y salida en el Ejemplo 5.1 . . . . . . . . . . .
5.2. Respuesta en frecuencia de un sistema de segundo orden de tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Se
nal cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4. Espectro de lnea de una se
nal cuadrada. . . . . . . . . . . . . . .
5.5. Se
nal a la salida de rectificador controlado por tristores . . . . .
5.6. Aproximacion de la se
nal triangular con la primera y tercera
armonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7. Espectro de lnea de una se
nal triangular . . . . . . . . . . . . .
5.8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.9. Respuesta en frecuencia de un sistema de segundo orden de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.10. Respuesta en frecuencia de un sistema de tercer orden de tiempo
continuo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.11. Comportamiento de un sistema con una excitacion periodica. . .
5.12. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1. Se
nales arbitrarias . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2. La funcion restringida a [a, b] y su reconstruccion usando la serie
de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3. Viga cargada con arena . . . . . . . . . . . . . . . . . . . . . . .
6.4. Circuito RC como sistema de primer orden. . . . . . . . . . . . .
6.5. Magnitud y angulo de H( ) en el ejemplo ( = 100). . . . . . .
6.6. Sistemas pasa bajos (izquierda) y pasa altos (derecha) . . . . . .
6.7. Respuesta a escalones de un sistema pasa bajos y un sistema pasa
altos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8. Sistemas pasa banda y elimina banda. . . . . . . . . . . . . . . .
6.9. Respuesta a escalones de un sistema pasa banda y un sistema
elimina banda. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.10. Delta de Kronecker y su transformada de Fourier . . . . . . . . .
6.11. Se
nal y[t] = (0,8)t [t] y la magnitud de Y (ej ). . . . . . . . . . .
6.12. Se
nal y[t] y su transformada discreta Y (ej ). . . . . . . . . . . .
6.13. Respuesta a impulso y a escalon del ejemplo 6.14 . . . . . . . . .
55
58
58
59
69
70
85
86
91
91
94
95
96
98
98
99
105
111
112
113
118
118
123
126
132
134
135
135
136
141
142
143
147
INDICE DE FIGURAS
xiii
164
165
167
168
170
195
172
179
180
182
183
184
187
198
202
212
213
214
216
9.1. Diagrama de Bode de magnitud para una funcion tipo [B2], con
q = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
9.2. Diagrama de Bode de fase para una funcion tipo [B2], con q = 1 223
9.3. Diagrama de Bode de magnitud para una funcion tipo [B4], con
q = 1 y dos valores de . . . . . . . . . . . . . . . . . . . . . . . 224
9.4. Diagrama de Bode de fase para una funcion tipo [B4], con q = 1 226
9.5. Diagrama de Bode de fase para una funcion tipo [B5] . . . . . . . 227
9.6. Diagramas de Bode de magnitud y fase para la respuesta en frecuencia del Ejemplo 9.2 . . . . . . . . . . . . . . . . . . . . . . . 231
9.7. Diagrama de Bode en tiempo discreto (Ejemplo 9.3). . . . . . . . 233
9.8. Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4). . . . . . 235
9.9. Diagrama polar. Coordenadas polar (Ejemplo 9.4). . . . . . . . . 236
9.10. Diagramas polares para el caso [P1]. . . . . . . . . . . . . . . . . 237
9.11. Diagrama polar de una funcion tipo [P4] para distintos valores de 238
xiv
INDICE DE FIGURAS
240
240
242
243
244
245
246
247
247
251
251
252
INDICE DE FIGURAS
1
C.1. Pulso y su transformada para = 1, 41 , 16
. . . . . . . . .
C.2. Espectro de una se
nal de frecuencias audible y espectro
se
nal modulada. . . . . . . . . . . . . . . . . . . . . . . .
C.3. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . .
C.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.5. Se
nal cosenoidal y[k] y su transformada discreta. . . . . .
C.6. Secuencia y[k] = k(0,8)k [k] y la magnitud de su TFD. . .
C.7. Comparacion N 2 (x) y N log2 N (*) . . . . . . . . . . .
C.8. Primera etapa de la FFT para N = 8 . . . . . . . . . . . .
C.9. Primera y segunda etapa de la FFT para N = 8 . . . . .
C.10.Las tres etapas de la FFT para N = 8 . . . . . . . . . . .
xv
. . . .
de la
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
360
364
365
366
379
384
395
396
397
398
xvi
INDICE DE FIGURAS
Indice de cuadros
3.1. Presencia de modos en descomposiciones de la respuesta . . . . .
3.2. Presencia de modos en descomposiciones de la respuesta del Ejemplo 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
46
228
229
C.1.
C.2.
C.3.
C.4.
388
389
390
391
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
230
230
249
xviii
INDICE DE CUADROS
sistema
entrada
condiciones iniciales
Captulo 1
Aspectos fundamentales
1.1.
Sistemas
2
se~
nales
respuestas
sistema!din
amico
vc (t)
i(t)
Figura 1.1: Sistema electrico
Esta red es un sistema electrico formado por la interconexi
on de un resistor
y un condensador (los elementos). Hay una entrada al sistema determinada por
la tensi
on aplicada a traves de la fuente independiente de tensi
on. Como salida
se puede elegir cualquier se
nal electrica, como por ejemplo, la potencia disipada
en el resistor, la corriente en el circuito, la tensi
on en el condensador, etc.
En la Figura 1.1 se han indicado dos se
nales, i(t) y vc (t), que han sido
elegidas como respuestas del sistema. Para determinar el valor de estas se
nales
t 0, necesitamos conocer vf (t) t to y vc (0).
222
Para representar un sistema en forma compacta usaremos el diagrama de la
Figura 1.2. En esa figura se ha usado la siguiente notacion:
1.1. SISTEMAS
u(t) Rm
x(to ) Rn
y(t) Rp
3
: vector que re
une todas las excitaciones del sistema,
: vector que describe el estado del sistema al tiempo to ,
: vector que re
une las se
nales escogidas como salidas.
u(t)
operador
estado inicial
y(t)
S
x(to )
Figura 1.2: Representacion compacta de un sistema
Para representar genericamente al sistema usaremos la notacion:
y(t) = Thhx(to ), u(t)ii
t to
(1.1)
dvc (t)
+ vc (t)
dt
(1.2)
cuya soluci
on es1 :
vc (t) = vc (to )e
tto
RC
t
to
e RC
vf ()d
RC
(1.3)
t to
(1.4)
222
Las definiciones precedentes se aplican tambien a los sistemas de tiempo
discreto, es decir, cuando el tiempo toma valores en un conjunto enumerable
(t0 , t1 , t2 , . . .). En este tipo de sistemas, la variable independiente temporal se
suele denominar t, y para enfatizar la naturaleza distinta de las se
nales de tiempo discreto, usaremos parentesis cuadrados, es decir, f [t] describira una se
nal
funcion de la variable temporal discreta.
Para ilustrar este tipo de sistemas consideremos el siguiente ejemplo.
1 Tal
como se demostrar
a en el Captulo 3.
4
sistema!algebraico
modelo
modelo
Ejemplo 1.3. Una cuenta de ahorro tiene un saldo inicial s[t0 ] = so , y recibe
un interes igual a % mensual. Si en el mes t-esimo (t = t0 , t0 + 1, . . .) se hace
un dep
osito igual a d[t], entonces el saldo s[t] puede ser descrito por:
+ d[t]
t t0
(1.5)
s[t] = s[t 1] 1 +
100
y sujeto a s[t0 ] = so . En este sistema, la entrada es d[t], la salida es s[t], y el
estado inicial es s[t0 ]. La ecuaci
on (1.5) tiene como soluci
on:
s[t] = so tt0 +
t
X
t` d[`]
`=t0 +1
t > t0
(1.6)
aloga a la de
La ecuaci
on (1.6) puede ser asociada con una estructura an
(1.1), es decir:
y[t] = Thhx[t0 ], u[t]ii
t t0
(1.7)
222
y[t] = Thhu[t]ii
(1.8)
En estricto rigor, todos los sistemas reales son sistemas dinamicos. Sin embargo, puede ocurrir que para un observador, la escala de tiempo es tal que,
desde el punto de vista practico, los fenomenos ocurren en forma instantanea.
En esos casos, para efectos practicos, el sistema se representa a traves de un
modelo algebraico.
1.2.
Modelos
Cuando se enfrenta el problema de analizar un sistema, naturalmente no trabajamos con el sistema real, sino que con una representacion de ese sistema. Esa
representacion o modelo, captura aspectos esenciales del sistema. Por definicion, un modelo es una representacion aproximada de la realidad, y su grado
de fidelidad depende de muchos factores, siendo uno de ellos el proposito del
modelo.
La construccion de modelos a partir de sistemas reales es un proceso complejo
que involucra la fenomenologa del sistema, mediciones, procesos de ajuste, etc.
La obtencion de modelos es, por si sola, una disciplina rica en conceptos y
tecnicas, sobre las cuales se entregan mas antecedentes en el Captulo 12.
A lo largo del texto, supondremos que ya se cuenta con un modelo que
describe el sistema y, en consecuencia, la teora que aqu se desarrolla se aplica
al modelo del sistema bajo estudio. El que las conclusiones que as se deriven
sean validas para el sistema mismo dependera de la fidelidad con que el modelo
representa a ese sistema. En muchos casos hablaremos del modelo y del sistema
como sinonimos, en otros sera necesario hacer la diferencia.
1.3.
Sistemas lineales
t to
t to
t to
t to
(1.9)
(1.10)
(1.11)
(1.12)
donde x1 (to ) y x2 (to ), son dos vectores de estado inicial arbitrarios,y u1 (t) y
u2 (t) son dos vectores de entrada arbitrarios.
Entonces el sistema es lineal si y s
olo si:
y(t) = Thh1 x1 (to ) + 2 x2 (to ), 1 u1 (t) + 2 u2 (t)ii
t to
(1.13)
= 1 Thhx1 (to ), 0 i + 2 Thhx2 (to ), 0 i + 1 Thh0, u1 (t)ii + 2 Thh0, u2 (t)ii (1.14)
= 1 y1x (t) + 2 y2x (t) + 1 y1u (t) + 2 y2u (t)
(1.15)
sistemas lineales
superposici\on
homogeneidad
6
sistema!algebraico
(1.16)
(1.17)
(1.18)
(1.19)
(1.20)
(1.21)
(1.22)
El sistema es lineal si y s
olo si la condici
on (1.21) se cumple para toda
elecci
on de las constantes 1 y 2 . Es f
acil observar que si, por ejemplo, elegimos
1 = 1 y 2 = 0, tal condici
on no se cumple, ya que:
y(t) = Thhu1 (t)ii = 2|u1 (t)| 6= 2|u1 (t)| = Thhu1 (t)ii
(1.23)
sujeto a y(to ) = xo
(1.24)
(1.25)
to
(
yx (t)
yu (t)
Rt
n
= Thh0, u(t)ii = to (u()) d
= Thhxo , 0 i = xo
(1.26)
(1.27)
De la ecuaci
on (1.27) se comprueba que el sistema tiene la propiedad de
superposici
on de las componentes del estado. Naturalmente que tiene adem
as la
propiedad de homogeneidad del estado.
Finalmente analizamos el caso donde x1 (to ) = x2 (to ) = y(to ) = 0, y u(t) =
1 u1 (t) + 2 u2 (t), la respuesta y(t) = yu (t) est
a entonces dada por:
Z t
n
(1 u1 () + 2 u2 ()) d t to
(1.28)
y(t) =
to
De esta ecuaci
on se puede ver que la propiedad de superposici
on de las componentes de la entrada se cumple si y s
olo si n = 1. Igual condici
on, necesaria
y suficiente, se aplica para la homogeneidad de la entrada.
Resumiendo, el sistema del ejemplo tiene las siguientes caractersticas:
tiene la propiedad de superposici
on del estado y de la entrada;
tiene la propiedad de superposici
on y homogeneidad del estado;
tiene la propiedad de superposici
on y homogeneidad de la entrada si y
s
olo si n = 1.
En consecuencia, el sistema del ejemplo es lineal si y s
olo si n = 1.
222
El lector debe tener claro que la propiedad de linealidad (o no linealidad) de
un sistema dado no es necesariamente una propiedad intrnseca de ese sistema,
sino que puede depender de la eleccion de la variable de salida, y/o de la variable
integrador
como entrada la se
nal u
(t) = (u(t)) . Entonces es facil demostrar que el sistema
con entrada u
(t) y salida y(t) es lineal.
Se puede construir un segundo ejemplo a partir de la red electrica de la
Figura 1.1 en la pagina 2. Supongamos que escogemos como salida la potencia
p(t) disipada en el resistor. Entonces, el modelo de entrada-salida resulta dado
por:
r
Z
p
p( )
1 t
vf (t) = p(t)R +
d
(1.29)
C
R
donde hemos usado la ley de Joule p(t) = R(i(t))2 .
La discusion precedente nos motiva a introducir una nota de cautela en esta
materia
La linealidad o no linealidad de un sistema debe entenderse como la linealidad o no linealidad del modelo especfico que relaciona la entrada y la salida
particulares elegidas en el sistema.
1.4.
Invarianza en el tiempo
u(t)
S
x(0) = xo
y(t)
u(t )
invarianza
en tiempo
y(t )
x( ) = xo
1.5. LINEALIZACION
donde y(t) = 4u(t) f (t), donde f (t) es una funcion (no constante) del tiempo.
Entonces este sistema es variante en t. Sin embargo, si redefinimos el mismo
sistema de modo que la entrada es ahora el vector u
(t) R2 , dado por u
(t) =
T
donde es
[u(t) f (t)] y mantenemos la salida y(t) R, entonces y(t) = u(t),
un vector fila constante dado por = [4 1]. El sistema as definido es ahora
invariante en t.
1.5.
Linealizaci
on
Como hemos mencionado ya, casi todos los sistemas reales incluyen caractersticas no lineales. Sin embargo, muchos de ellos pueden ser descritos con
razonable precision por modelos lineales, al menos dentro de ciertos rangos en
que el sistema funciona, lo cual permite aplicar una amplia gama de herramientas matematicas.
Del punto de vista practico, para obtener estos modelos lineales es com
un
comenzar con un modelo no lineal y, a partir de este construir una aproximacion lineal en la vecindad de un punto de operaci
on elegido. Este enfoque
constituye una herramienta clave para el modelado lineal en diversos campos,
por ejemplo, en la Electronica analogica y en el Control Automatico.
La estrategia de linealizacion puede ser aplicada de igual forma a modelos
de tiempo continuo y a modelos de tiempo discreto, a modelos en variables
de estado (Captulo 10) y a modelos de entrada-salida (ecuaciones recursivas y
ecuaciones diferenciales de orden superior).
Antes de intentar la formulacion de un procedimiento general de linealizacion, motivaremos el tema con el estudio de dos casos. Ambos casos se
frasearan de identica forma, con las obvias adaptaciones, para que el lector
pueda apreciar que el tema de linealizacion trasciende la naturaleza de la descripcion temporal.
1.5.1.
d u(t)
+ u(t)
dt
3
(1.30)
linealizaci
on|textbf
punto de operaci
on
modelo!linealizado
10
u(t) = u(t) uQ
(1.31)
y(t) = y(t) yQ
(1.32)
(1.33)
De
esta forma:
ga (x1 (t), x2 (t), x3 (t)) = x3 (t) + (0, 2 + x1 (t))x2 (t) + (x1 (t))
gb (x4 (t), x5 (t)) = (2x5 (t) + x4 (t))
(1.34)
(1.35)
(1.36)
(1.37)
(1.38)
x3 (t) x3Q
(1.39)
x4 (t) x4Q
x5 (t) x5Q
d y(t)
x2Q
dt
d 2 y(t)
=
y (t) =
x3Q
dt 2
= u(t)
d u(t)
= u(t)
=
x5Q
dt
(1.40)
(1.41)
(1.42)
1.5. LINEALIZACION
11
con lo cual, ga (x1Q , x2Q , x3Q ) y gb (x4Q , x5Q ) se compensan en la ecuacion (1.36).
En esta etapa de nuestro analisis es oportuno hacer las siguientes observaciones:
(i) Cada derivada debe ser asociada a una variable xi .
(ii) El punto de operacion es arbitrario; pero para llegar a un modelo linealizado, debe satisfacer la ecuacion no lineal original. Para este caso, un
ejemplo de punto de operacion es x1Q = 2, x2Q = 1, x3Q = 9, 2, x4Q = 3
y x5Q = 1.
(iii) Es necesario elegir un punto de operacion para el que las derivadas de y(t)
y de u(t), respecto del tiempo, sean iguales a cero. Este punto de operacion
se conoce como punto de operacion en equilibrio o, mas brevemente, punto
de equilibrio. La idea es que si un sistema esta en un punto de equilibrio,
el sistema se mantiene operando en ese punto ya que las derivadas de y(t) y
de u(t) son cero. La eleccion del punto de equilibrio se hace considerando
el punto en que el sistema a analizar estara operando. Para este caso,
existen infinitos puntos de equilibrio y todos ellos satisfacen x1Q = x4Q ,
x2Q = 0,x3Q = 0 y x5Q = 0. Con esto, las ecuaciones (1.37)-(1.41) se
transforman en:
(1.43)
(1.44)
x3 (t) x3Q
(1.45)
x4 (t) x4Q
d y(t)
dt
d 2 y(t)
=
y (t) =
dt 2
= u(t)
(1.46)
d u(t)
dt
(1.47)
(1.48)
(iv) Cuando el modelo no lineal esta descrito por dos o mas ecuaciones, las
coordenadas del punto de operacion deben satisfacer al conjunto de ecuaciones simultaneas.
(v) Un punto de operacion en equilibrio se calcula a partir del modelo algebraico (tal vez no lineal) que resulta de hacer cero todas las derivadas en
el modelo dinamico no lineal.
4
punto de equilibrio
12
1.5.2.
Considere un sistema de tiempo discreto con entrada u[t] y salida y[t], donde
el modelo de entrada-salida es la ecuacion recursiva:
y[t] + 0, 5y[t 1]y[t 2] + 0, 1u[t](y[t 2])2 = (u[t 1])3
(1.49)
(1.50)
y[t] = y[t] yQ
(1.51)
(1.52)
donde x1 [t] = y[t], x2 [t] = y[t 1], x3 [t] = y[t 2], x4 [t] = u[t] y x5 [t] = u[t 1].
As:
gc (x1 [t], x2 [t], x3 [t], x4 [t]) = x1 [t] + 0, 5x2 [t]x3 [t] + 0, 1x4 [t] (x3 [t])
gd (x5 [t]) = (x5 [t])
(1.53)
(1.54)
(1.55)
(1.56)
(1.57)
(1.58)
(1.59)
(1.60)
1.5. LINEALIZACION
13
(1.61)
(1.62)
(1.63)
(iv) Cuando el modelo no lineal esta descrito por dos o mas ecuaciones, las
coordenadas del punto de operacion deben satisfacer al conjunto de ecuaciones simultaneas.
(v) Un punto de operacion en equilibrio se calcula a partir del modelo algebraico que resulta de hacer cero todas las diferencias en el modelo dinamico
no lineal, es decir, cada una de las se
nales involucradas es reemplazada por
una constante a calcular, con independencia del retardo que ella exhiba.
4
punto de equilibrio
14
punto de
operaci
on
se~
nal incremental
modelo!peque~
na
se~
nal
sus modelos no lineales tiene ciertos pasos basicos. En primer lugar, restringiremos la linealizacion a la construccion de modelos lineales en torno a puntos
de equilibrio. Observamos que cuando trabajamos en un punto de equilibrio,
todos los valores de ese punto x1Q , x2Q , . . . , se pueden expresar en funcion del
par (uQ , yQ ); por ello diremos que el punto de operacion en equilibrio queda
definido por ese par.
Supongamos que el sistema con entrada u() y salida y() es descrito por:
f hu(), y()i = 0
(1.64)
(1.65)
(1.66)
(1.67)
f hu(t), y(t)i =
dy(t) p
(u(t))
+ y(t)
=0
dt
3
(1.68)
1.5. LINEALIZACION
15
yQ
(uQ )
=0
3
= yQ =
16
9
dy(t)
dt
(1.69)
(1.70)
(1.71)
222
(1.72)
2
p
dy
(u(t))
= y(t) +
(1.73)
dt
3
Para apreciar la calidad de la aproximacion consideramos el sistema original
y su modelo linealizado y corremos una simulacion donde la entrada a ambos
sistemas es una constante igual a 2 mas una secuencia de pulsos de amplitud
creciente. Los resultados se muestran en la Figura 1.5. Podemos ver ah que el
error de linealizacion crece a medida que el sistema es llevado lejos del punto de
operacion, en torno al cual se calculo el modelo linealizado.
16
|u|2
1/3
u(t)
Gain
In1
Math
Function
Out1
y(t)
Integrador
sqrt
Raiz
Cuadrada
2.8
2.6
2.4
2.2
2
1.8
1.6
1.4
5
Tiempo [s]
10
Figura 1.5: Salida del sistema no lineal (linea solida) y salida del sistema linealizado (lnea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lnea punteada)
(1.75)
1.5. LINEALIZACION
17
(1.76)
18
1.6.
(1.78)
(1.79)
(1.80)
(1.81)
1
d y(t)
2
+ 3 (y(t)) = 2 (u(t)) 3
dt
(1.82)
19
(1.83)
Discuta la linealizaci
on de esta funci
on en distintos punto de operaci
on.
Problema 1.7. En los sistemas tributarios modernos existe un tasa progresiva,
es as como a mayor ingreso, m
as alto es el porcentaje de impuesto a pagar.
Analice el sistema desde el punto de vista de la linealidad
Problema 1.8. Un sistema no lineal tiene un modelo dado por
d y(t)
+ f (y)y(t) = 2u(t)
dt
Donde la funci
on f (y) aparece en la Figura 1.6.
(1.84)
1.5
1
f(y)
0.5
0
0.5
1
1.5
4
0
y
(1.85)
u[t 1]
1 + 0,2(u[t 2])2
yQ = 2 (1.86)
uQ = 1 (1.87)
20
(1.88)
(1.89)
(1.90)
(1.91)
(1.92)
se~
nales|textbf
se~
nales!de prueba
escal
on unitario
Heaviside
impulso unitario
delta de Dirac|textbf
Dirac
Captulo 2
Se
nales
2.1.
Introducci
on
2.2.
Se
nales de tiempo continuo
2.2.1.
Escal
on unitario (funci
on de Heaviside)
2.2.2.
(2.1)
CAPITULO 2. SENALES
22
(t to )
1
to
to
t 6= to
con
(t to )dt = 1
(2.2)
f1 (t)
f2 (t)
1
1
2
to to to +
to t o to +
2.2. SENALES
DE TIEMPO CONTINUO
23
funci\on muestreo
rampa unitaria
(2.3)
Ademas,
lm f1 (t) = lm f2 (t) = 0
0
0
t 6= to
(2.4)
Otra funcion de importancia que tiene la misma propiedad que f1 (t) y f2 (t)
es:
o
1 sen tt
f3 (t) =
t to
(2.5)
lm f3 (t) = (t to )
(2.6)
Una propiedad clave del delta de Dirac esta descrita en el siguiente lema.
Lema 2.1. Considere una funci
on cualquiera f (t), entonces
Z
f (t) =
f ( )(t )d
(2.7)
222
nal puede ser expresada como una opEl Lema 2.1 establece que toda se
eracion lineal sobre el impulso (t ) para < < . Veremos mas
adelante que esta propiedad sera la base para calcular la respuesta de un sistema lineal ante cualquier se
nal, a partir de la respuesta de ese sistema a un
impulso unitario.
2.2.3.
Rampa unitaria
t to
0
t to
t < to
(2.8)
d2 r(t to )
d(t to )
=
dt
dt2
(2.9)
CAPITULO 2. SENALES
24
exponencial
exponencial!creciente
constante de tiempo
r(t to )
to
to + 1
( to ) d =
( to ) d d
(2.10)
2.2.4.
Exponencial
(2.11)
2.2. SENALES
DE TIEMPO CONTINUO
8
25
sinusoide
0.8
>0
6
5
0.6
0.4
<0
3
0.2
2
1
2
Tiempo [s]
2
Tiempo [s]
1
||
(2.12)
0.8
0.6
0.4
0.2
0
0.5
1.5
2
Tiempo [s]
2.5
3.5
2.2.5.
Se
nales sinusoidales
La se
nal fundamental en todo tipo de oscilaciones periodicas es la funcion
sinusoidal, que se describe en forma generica por:
f (t) = A sen(t + )
(2.13)
CAPITULO 2. SENALES
26
sinusoide!amplitud
sinusoide!frecuencia angular
sinusoide!desfase
sinusoide!per
odo
sinusoide!frecuencia
Euler
sinusoide!f
ormula de Euler
exponencial imaginaria
sinusoide!amortiguada
1
0.8
0.6
0.4
0.2
0
0.5
1.5
2
2.5
3
Tiempo normalizado t/
3.5
4.5
2
1
=
f
(2.14)
ej(t+) ej(t+)
2j
(2.15)
2.2.6.
(2.16)
Otra de las se
nales que aparece frecuentemente en la descripcion del comportamiento natural de los sistemas son las sinusoides cuya amplitud varan
exponencialmente en el tiempo, es decir, de la forma:
f (t) = Aet sen(t + )
(2.17)
Naturalmente, cuando = 0, la se
nal se reduce a una sinusoide pura. Los
casos < 0 (sinusoide amortiguada exponencialmente) y > 0 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.8.
Para estas funciones, la relacion de Euler lleva a:
Aet sen(t + ) = A
1 La
e(+j)t+j e(j)tj
2j
notaci
on ={ } siginifica parte imaginaria de ...
(2.18)
2.3. SENALES
DE TIEMPO DISCRETO
1
27
se~
nales!de tiempo discreto
escal
on unitario
impulso unitario
delta de Kronecker|textbf
500
0.5
0
0.5
1
1
2
tiempo normalizado t/T
500
1
2
tiempo normalizado t/T
Figura 2.8: Se
nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.)
[t to ]
1
to
2.3.
Se
nales de tiempo discreto
En el caso de las se
nales de tiempo discreto, existen contrapartes directas de
las se
nales para tiempo continuo, con algunas sutiles, pero significativas diferencias. La primera diferencia obvia es que la variable independiente esta definida
sobre el conjunto de los n
umeros enteros, Z. Otras apareceran en cada oportunidad.
2.3.1.
Escal
on unitario de tiempo discreto
(2.19)
2.3.2.
CAPITULO 2. SENALES
28
rampa unitaria
[t to ]
1
to
(2.20)
i=
f [i][t i]
(2.21)
222
El lema 2.2 establece que toda se
nal puede ser expresada como una operacion
lineal sobre un tren de deltas de Kronecker. Veremos mas adelante que esta
propiedad sera la base para calcular la respuesta de un sistema lineal de tiempo
discreto a partir de su respuesta a un impulso unitario.
2.3.3.
t to
t < to
(2.22)
2.3. SENALES
DE TIEMPO DISCRETO
29
exponencial
r[t to ]
to
2.3.4.
i=to +1
[t i];
[t to ] =
i=to
[t i]
(2.24)
(2.25)
5
0<< 1
1<
0.8
0.6
2
0.4
0.2
0
CAPITULO 2. SENALES
30
exponencial!creciente
sinusoide!discreta
sinuosoide!aperi
odica
0.5
1
< 1
0.5
2.3.5.
Se
nales sinusoidales de tiempo discreto
(2.26)
p
N
(2.27)
2.3. SENALES
DE TIEMPO DISCRETO
31
Euler
sinusoide!discreta!amortiguada
Demostraci
on
Una sinusoide discreta sen(t) es peri
odica si y s
olo si existe un n
umero
natural N tal que, para todo t N,
sen(t) = sen((t + N )) = sen(t) cos(N ) + cos(t) sen(N )
(2.28)
2.3.6.
ej(t+) ej(t+)
2j
(2.29)
La sinusoide con amplitud modulada exponencialmente interviene frecuentemente describiendo el comportamiento natural de los sistemas de tiempo discreto. Esta se
nal aparece cuando C, lo cual significa que podemos expresar
en la forma polar:
= ej = || ej
(2.30)
(2.31)
Consideremos entonces la se
nal:
f [t] = At sen(t + )
(2.32)
Naturalmente, cuando = 1, la se
nal se reduce a una sinusoide pura. Los
casos 0 < < 1 (sinusoide amortiguada exponencialmente) y > 1 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.14.
CAPITULO 2. SENALES
32
0< <1
0.8
0.6
0.4
0.2
0.2
0.4
>1
10
15
20
10
15
20
Figura 2.14: Se
nales sinusoidales de tiempo discreto con amplitud variando exponencialmente
2.4.
f2 (t) = (3t + 2)
(2.33)
f3 (t) =
f4 (t) = r(4t 2)
(2.34)
sen(2t)
;
t
X
i=0
(2.35)
Construya un gr
afico de la se
nal f (t) para g(t) = 0, 5 sen(0, 1t).
Problema 2.4. Considere la funci
on:
f (t) =
1 sen((t 2))
t2
(2.36)
Dibuje f (t) (use Matlab ) para diferentes valores de . Comente sus resultados
Problema 2.5. Determine una expresi
on analtica para la derivada de las
siguientes funciones y grafquelas:
33
f2 (t) = sen 3t
(t ) (2.37)
3
2
f2 (t)
f1 (t)
t
1
Figura 2.15: Se
nales compuestas
Para cada se
nal:
2.6.1 Encuentre la expresi
on analtica para cada una de las se
nales.
2.6.2 Determine una expresi
on analtica para la integral en el intervalo [0, t].
Problema 2.7. Grafique las siguientes se
nales de tiempo discreto:
f1 [t] = [t 2] 3[t 5]
t
(2.39)
(2.40)
(2.41)
34
CAPITULO 2. SENALES
ecuaci
on diferencial del sistema|text
Captulo 3
An
alisis en tiempo continuo
3.1.
Introducci
on
3.2.
Ecuaci
on diferencial del sistema (EDS)
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
36
Heaviside!operador
Heaviside
dn1 y(t)
dn y(t)
+ an1
+ . . . + a0 y(t)
n
dt
dtn1
dn1
dn2
= bn1 n1 u(t) + bn2 n2 u(t) + . . . + b0 u(t)
dt
dt
(3.1)
La solucion a esta ecuacion debe cumplir ademas con las restricciones que
imponen las condiciones o estado inicial.
En algunos casos, conviene usar una notacion compacta, tipo operador, para
denotar la operacion derivada. Por esa razon, introducimos el operador de Heaviside, hi definido por
d f (t)
dt
dn f (t)
n hf (t)i = n f (t) = n1 hf (t)i =
dtn
hf (t)i = f (t) ,
(3.2)
(3.3)
El operador de Heaviside representa la derivada de una funcion y, naturalmente, tiene un inverso asociado definido por la integral:
hf (t)i =
f ( )d
(3.4)
i(t)
R1
iL (t)
vf (t)
R2
v(t)
37
Aplicando las leyes de Kirchoff y las relaciones terminales de las componentes electricas se llega a:
vf (t) = R1 i(t) + v(t)
Z
dv(t) v(t)
1 t
v( )d + C
+
i(t) =
L
dt
R2
(3.6)
(3.7)
(3.8)
(3.9)
(3.10)
a1 =
R1 + R 2
;
R1 R2 C
a0 =
1
;
LC
b2 = 0;
b1 =
1
;
R1 C
b0 = 0
(3.11)
Es importante adem
as hacer notar que la soluci
on v(t) debe ser tal que satisfaga las condiciones iniciales impuestas por la tensi
on inicial en el condensador, y la corriente inicial en el inductor.
222
En resumen, podemos afirmar que:
38
equilibrio estable
sistema! inestable
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
= 3, es decir, y(0)
(3.13)
= 1, lo cual
implica que en t = 0 la salida y esta aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acercandose a 2, su derivada crece, es
decir, y(t) aumenta. Cuando y(t) = 2, se tiene que y(t)
= 4, y subiendo. En
consecuencia, y(t) sigue creciendo monotonicamente, pero siempre la velocidad
de cambio, y(t),
(3.14)
3.3.
3.3.1.
Componente homog
enea y componente particular
39
(3.15)
Note que esta ecuacion tiene infinitas soluciones, las que pueden describirse
genericamente como una familia. Los miembros de esta familia se diferencian
por los valores numericos especficos que se pueden escoger para un conjunto de
n constantes indeterminadas.
Por su parte, la componente o solucion particular, yp (t), es una funcion
especfica del tiempo, independiente de las condiciones iniciales, que satisface la
ecuacion (3.1).
La solucion completa y(t) = yh (t) + yp (t) queda totalmente determinada al
usar las condiciones iniciales, aplicadas a la respuesta completa, y(t), para
calcular las constantes indeterminadas presentes en yh (t).
Antes de proseguir con el analisis consideraremos un ejemplo.
Ejemplo 3.2. Suponga que la EDS de un sistema est
a dada por:
dy(t)
+ 2y(t) = 4u(t)
dt
(3.16)
(3.17)
Esta ecuaci
on es satisfecha por yh (t) = Ce2t , para cualquier valor de la
constante C.
yp (t)
La componente particular yp (t) es una funci
on, independiente de las condiciones iniciales, que debe satisfacer (3.16) con u(t) = 1. Una soluci
on simple es
yp (t) = 2, t 0.
De esta forma, la soluci
on completa es:
y(t) = yh (t) + yp (t) = Ce2t + 2
(3.18)
respuesta homog
enea
soluci
on homog
enea
respuesta
particular
soluci
on particular
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
40
ecuaci
on caracter
stica
constantes indeterminadas
autovalores
valores propios
valores caracter
sticos
frecuencias naturales
modos naturales
modo forzante
3.3.2.
(3.19)
p X
nk
X
Cki ti1 ek t
(3.20)
k=1 i=1
donde los Cki son constantes arbitrarias (constantes indeterminadas) que generan los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
Los valores de que satisfacen (3.19) son conocidos como autovalores, valores
propios1 , valores caractersticos o frecuencias naturales del sistema. Dado que
los coeficientes de la ecuacion caracterstica asociada a la EDS son reales, todas
sus races son reales, o bien aparecen en pares complejos conjugados.
A su vez, cada una de las funciones temporales, asociadas a k , de la forma:
ti1 ek t
(3.21)
3.3.3.
`
X
B i e i t
(3.22)
i=1
donde los i0 s son distintos y ninguno de ellos coincide con alguna frecuencia
natural. Cada una de las funciones ei t recibe el nombre de modo forzante.
1 Esta
denominaci
on resultar
a natural para modelos en variables de estado (Captulo 10)
41
Eje
Imaginario
Eje
Real
Figura 3.2: Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
42
modo
forzante!ganancia a
ganancia! a modo forzante
modo forzado
ganancia
ganancia! a continua
Se puede verificar, usando la linealidad del sistema, que la solucion particular, yp (t), esta dada por:
yp (t) =
`
X
ypi (t)
en que
ypi (t) = Ki Bi ei t
(3.23)
i=1
(3.24)
entonces
a1 = 1; a0 = 3; b0 = 2
(3.25)
3
X
i=1
Bi ei t = 5e1 t + 2ej 4 e2 t + 2ej 4 e3 t
(3.26)
(3.27)
(3.28)
(3.29)
222
El tratamiento general de la solucion particular sera pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
43
estabilidad
Los sistemas lineales exhiben ganancias distintas para modos forzantes distintos, y esta capacidad de discriminacion es la base para el analisis y dise
no
de sistemas de procesamiento de se
nales y para otras aplicaciones.
3.3.4.
Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos esenciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relacion con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (se
nales) del sistema permanecen acotadas ante cualquier excitacion
acotada o estado inicial acotado. Si consideramos solo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son estas, es
decir, las races de la ecuacion caracterstica del sistema, las que determinan la
estabilidad del sistema. Consideremos el caso de un modo natural de la forma
generica:
yh1 (t) = Cet ;
Sea = + jo , entonces
(3.30)
(3.31)
De la expresion anterior se observa que yh1 (t) decae a medida que el tiempo
transcurre si y solo si et decae, y esto ocurre si y solo si < 0. Dicho de otra
forma, si y solo si esta en el semi plano izquierdo abierto del plano complejo.
Esto se ve reflejado claramente en la Figura 3.2.
En resumen, tenemos la siguiente definicion de estabilidad, conocida como
estabilidad asintotica:
Diremos que un modelo lineal e invariante en el tiempo es estable si y solo
si todos sus modos naturales decaen asintoticamente a cero, es decir, si y
solo si todas sus frecuencias naturales tienen parte real estrictamente menor
que cero. Si una o mas de las frecuencias naturales del modelo tienen parte
real mayor o igual que cero, diremos que el modelo es inestable.
Definimos, en consecuencia, la regi
on de estabilidad en el plano complejo, para sistemas continuos en el tiempo, como el semiplano izquierdo (SPI)
abierto, es decir excluyendo el eje imaginario. La necesidad de esta exclusion
se demostrara mas adelante. Sin embargo, el ejemplo siguiente permite apreciar el origen de las dificultades cuando una frecuencia natural esta en el eje
imaginario.
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
44
velocidad
frecuencia natural!dominante
modo natural!dominante
(3.32)
3.3.5.
Velocidad
Un segundo aspecto de interes en relacion con las frecuencias y modos naturales guarda relacion con la velocidad con que evolucionan las variables de los
sistemas.
Dentro de la clase de sistemas estables, podemos distinguir diferencias notables, no solo por la distinta naturaleza de los valores propios, sino por las
velocidades relativas con que decaen sus modos naturales. Por ejemplo, consideremos dos sistemas con las componentes homogenas que se indican:
Sistema 1
Sistema 2
3t
+ C22 e
7t
(3.33)
(3.34)
Vemos que yh1 (t) esta dominada por el modo natural e2t porque esta se
nal
decae mas lentamente que el otro modo natural e5t . Por su parte, yh2 (t)
esta dominada por el modo natural e3t , el que decae mas lentamente que
el modo e7t . As diremos que el Sistema 1 tiene una frecuencia natural
dominante igual a 2, con un modo natural dominante e2t . A su vez,
el Sistema 2 tiene una frecuencia natural dominante igual a 3, con un modo natural dominante e3t . Al comparar ambos sistemas podemos concluir, en
primera aproximacion, que el Sistema 1 es mas lento que el Sistema 2, porque
su modo dominante decae mas lentamente.
En general, si = || + jo , el modo natural tiene la forma:
et = e||t (cos(o t) + j sen(o t))
(3.35)
De esta ecuacion se observa que este modo decae mas rapidamente cuanto
mas grande es ||. As, los sistemas son mas rapidos cuanto mas alejados del eje
imaginario estan sus frecuencias naturales dominantes.
3.3.6.
45
Una forma alternativa de descomponer la respuesta de un sistema es considerar por separado la componente de la respuesta debida a las condiciones
iniciales o estado inicial, yx (t), y la componente de la respuesta debida a la
entrada, yu (t), es decir:
y(t) = Thhxo , u(t)ii = Thhxo , 0ii + Thh0, u(t)ii
| {z } | {z }
(3.36)
(3.37)
yx (t)
yu (t)
sujeta a las condiciones iniciales definidas en el vector xo . Esto significa que yx (t) es una combinacion lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la soluci
on completa de la EDS).
A su vez, la respuesta a entrada, yu (t), es una solucion de la EDS con condiciones iniciales iguales a cero, es decir, satisface:
dn yu (t)
dn1 yu (t)
+
a
+ . . . + a0 yu (t)
n1
dtn
dtn1
dn1
dn2
= bn1 n1 u(t) + bn2 n2 u(t) + . . . + b0 u(t)
dt
dt
(3.38)
sujeta a condiciones iniciales cero. Para poder cumplir con esta restriccion,
yu (t) debe contener, ademas de los modos forzados, una combinacion lineal de
modos naturales cuyas constantes son calculadas de modo que se cumpla aquella
restriccion.
En resumen, una comparacion de los diferentes modos presentes en cada
una de las componentes de la respuesta de un sistema hasta ahora definidas
(homogenea-particular y estado inicial-entrada) se muestra en la Tabla 3.1.
modos naturales
modos forzados
yh (t)
yp (t)
yx (t)
yu (t)
(3.39)
46
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
(3.40)
(3.41)
(3.42)
yu (t) = 2e
2t
(3.43)
+2
(3.44)
2t
+2
(3.45)
De esta forma, podemos ahora completar la Tabla 3.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 3.2.
yh (t)
modos naturales
modos forzados
2, 5e2t
yp (t)
2
yx (t)
yu (t)
0, 5e2t
2e2t
2
47
222
Las dos descomposiciones de la respuesta del sistema obtenidas permiten
observar dicha respuesta desde dos perspectivas diferentes:
En la descomposicion componente homogenea componente particular se
observa la estructura de la respuesta. En efecto, en esa particion queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposicion respuesta a estado inicial respuesta a entrada
se separan los efectos de las dos causantes de que el sistema tenga una
respuesta: las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean iguales a cero, a
un as, los
modos naturales se encuentran presente en la respuesta (en este caso solo aparece
la componente debida a la entrada, yu (t)).
Para cerrar esta seccion consideraremos un ejemplo donde estos conceptos
adquieren un significado mas concreto.
Ejemplo 3.6. En el circuito de la Figura 3.3 las componentes (escaladas, por
simplicidad) tienen los siguientes valores:
R1 = 2[];
iL (t)
R2 = 1[];
L = 1[H];
R1
i (t)
(3.46)
+
vf (t)
C = 0, 5[F ]
i (t)
vc (t)
R2
donde:
1
R + L + 1
4 1
C
Z=
1
1
C
1 1
C
;
1 1
+ R2
C
(3.47)
i (t)
4
;
I=
i (t)
v (t)
4 f
E=
(3.48)
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
48
Maple
>with(linalg);
>Z:=array(1..2,1..2,[[2+rho+2/rho,-2/rho],[-2/rho,2/rho+1]]);
>Zi:=inverse(Z);
De donde resulta:
1
2+
Z = 2
2
+ 4 + 6
Resolviendo para i (t) se obtiene:
1
2
2 + 2 + 2
(3.49)
(3.50)
10 5 2t
1 2t
+ e
cos( 2t)
2e
(3.53)
sen( 2t)
3
3
3
Entonces las distintas componentes de la respuesta vc (t) tiene los siguientes
valores e interpretaciones:
vc (t) =
(a) La componente particular, vcp (t) es aquella componente de vf (t) que contiene s
olo los modos forzados por la excitaci
on constante, es decir, es la
componente continua de vc (t), en este caso vcp (t) = 10/3[V ]. Note que
esta componente se puede calcular usando un divisor de tensiones, y que
la ganancia a modo constante de la red es igual a 1/3.
49
1 2t
5 2t
2e
sen( 2t)
e
cos( 2t)
3
3
respuesta transitoria
respuesta estacionaria
(3.54)
(c) La componente a estado inicial, vch (t), corresponde al valor que tendra
vc (t) debido s
olo a la corriente inicial en el inductor y a la tensi
on inicial
en el condensador, es decir con la fuente de tensi
on cortocircuitada. Esta
componente se puede calcular con el siguiente c
odigo:
Maple
>v_f(t):=0:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
(3.55)
Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=0,D(v_c)(0)=0},v_c(t));
de donde se obtiene:
vcu (t) =
10 2t
10 10 2t
2e
e
cos( 2t)
sen( 2t)
3
3
3
(3.56)
222
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria (o transiente) y respuesta estacionaria (o en estado
estacionario). La respuesta estacionaria corresponde a la respuesta del sistema
cuando ha transcurrido mucho tiempo desde el instante inicial. Por su parte
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
50
respuesta! a $\mu (t)$
respuesta! a escal
on
3.4.
Respuesta a se
nales de prueba
Una forma de estudiar, y comparar en forma estandarizada el comportamiento de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas se
nales de prueba se consideran usualmente: el escalon unitario, el impulso
unitario y la se
nal sinusoidal. En esta seccion nos concentraremos en las dos
primeras, pues la respuesta ante se
nales sinuosidales sera materia de estudio en
el Captulo 5).
3.4.1.
Respuesta a escal
on unitario
(3.57)
go (t) =
k
XX
1
+
Cki ti1 ek t
a0
i=1
k=1
t 0
(3.58)
go (t) =
k
1 p XX
t +
Cki ti1 ek t
p!ap
i=1
k=1
t 0
(3.59)
3.4. RESPUESTA A SENALES
DE PRUEBA
51
Paso 2 Calcule las constantes Cki usando la restriccion de las condiciones iniciales iguales a cero, es decir, usando el hecho que:
` hgo (t)it=0 = 0
` = 0, 1, . . . , n 1
(3.60)
Paso 3 Calcule las primeras n 1 derivadas de go (t). Note que, como las condiciones iniciales son cero, esas derivadas son continuas en t = 0.
Paso 4 Usando las propiedades de linealidad obtenga g(t) de acuerdo a:
g(t) =
n1
X
i=0
bi i hgo (t)i(t)
(3.61)
(3.62)
(3.63)
que resulta ser go (t) = 14 +C1 e4t +C2 et . Este resultado se puede obtener
con el siguiente c
odigo:
Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve(eds);
(3.64)
go (0) = 0 =
hgo (t)i|t=0
(3.65)
(3.66)
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
52
respuesta a $\delta (t)$
respuesta! a impulso
1
de donde C1 = 12
y C2 = 13 . Nuevamente, este resultado se puede obtener a traves del siguiente c
odigo:
Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve({eds, go(0)=0,D(go)(0)=0},go(t));
1 1 4t
+ e
et
2 2
(3.67)
222
3.4.2.
(t)
S
x(0) = 0
g(t)
(t )
invarianza en
tiempo
g(t )
S
x() = 0
(t) (t )
= lm Thh0,
i = Thh0, D (t)ii = h(t)
0
(3.68)
3.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION
53
ello no es aconsejable dada la especial naturaleza del delta Dirac. En efecto, esta
no es, en rigor, una funcion y no es diferenciable, por lo cual ocurren situaciones
paradojicas. Por u
ltimo, desde el punto de vista meramente instrumental es
mucho mas simple calcular la respuesta a impulso usando la transformacion de
Laplace, como se vera en el Capitulo 7.
Ejemplo 3.8. Consideremos el mismo sistema descrito por (3.62), entonces
podemos calcular h(t) derivando la respuesta a escal
on unitario en (3.67). As se
obtiene
h(t) =
dg(t)
= 2e4t + et
dt
t 0
(3.69)
222
Es importante anotar que las condiciones iniciales de un sistema son valores
nales pueden ser discontinuas en t = to . Esto
conocidos para t = t
o , pero las se
es lo que ocurre en el Ejemplo 3.8, donde:
lm h(t) = 0 6= lm+ h(t) = 1
t0
t0
(3.70)
En una perspectiva mas general, podemos observar que dada la relacion entre
la respuesta a impulso y la respuesta a escalon, y considerando que esta u
ltima
contiene una combinacion lineal de los modos naturales del sistema y una constante, entonces h(t) contiene s
olo modos naturales. Conceptualmente, es
esta la caracterstica que confiere especial importancia a las respuestas a escalon
e impulso. En rigor, la respuesta a excitaciones mas complejas tambien contiene
una combinacion de modos naturales (a traves de la componente homogenea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente seccion una utilidad inmediata de estas consideraciones.
3.5.
C
alculo de la respuesta va convoluci
on
se
nal f (t) es causal si f (t) = 0 t < 0
convoluci
on
se~
nal causal
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
54
y(t) =
t
0
f ( )h(t ) d
t 0
(3.71)
Demostraci
on
Sea i N y sea un incremento temporal, entonces, usando la propiedad
de invarianza en el tiempo, tenemos que:
h(t i) = Thh0, (t i)ii
(3.72)
(3.73)
222
Observando la ecuacion (3.75), y(t) se puede interpretar como una suma
ponderada (por f ( )) de respuestas a impulso h(t ). Note ademas que dado
que f (t) y h(t) son causales, entonces, la ecuacion (3.71) tambien se puede
escribir como:
y(t) =
f ( )h(t ) d =
f (t )h( ) d
t 0
(3.76)
f1 (t) f2 (t) =
f1 ( )f2 (t ) d =
f1 (t )f2 ( ) d
(3.77)
(3.78)
3.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION
55
Ejemplo 3.9. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h(t) = e2t (t). Determine, usando convoluci
on la respuesta a la se
nal u(t) = (t) (t 1).
Soluci
on
La respuesta est
a dada por:
h( )u(t )d
=
e2 ( )((t ) (t 1 )d
(3.79)
La integraci
on se puede separar en tres intervalos, que a su vez se muestran
en la Figura 3.5:
Z 0
u( )h(t )d = 0
Z
t
1
u(t) h(t) =
u( )h(t )d = (1 e2t )
Z0 1
u()
1t
u()
h(t)
(3.80)
0t<1
u()
h(t)
t
t<0
h(t)
222
Como se puede apreciar, el calculo mismo de la convolucion es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
establece un nexo fundamental con el analisis mediante las transformadas de
Fourier y de Laplace (Captulos 6 y 7, respectivamente).
De igual forma, la respuesta de un sistema lineal e invariante en el tiempo
se puede calcular a partir de la respuesta a escalon, como se demuestra en el
siguiente lema.
transformada de Fourier
transformada de Laplace
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
56
Lema 3.2. Sea una sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escal
on unitario de entrada, con condiciones iniciales iguales a cero, es g(t). Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitaci
on u(t) est
a dada por:
y(t) = g(t)
du(t)
dt
(3.81)
Demostraci
on
La demostraci
on sigue la misma lnea que el lema anterior. En primer lugar,
tenemos que la se
nal de entrada u(t) puede ser expresada aproximadamente
como la suma de escalones de altura diferencial, es decir3 :
u
(t) =
X
u((i + 1)) u(i)
(t i)
i=
(3.82)
donde u
(t) tiende a u(t) cuando tiende a cero. Por otro lado:
g(t i) = Thh0, (t i)ii
(3.83)
X
u((i + 1)) u(i)
g(t i)
i=
(3.84)
3 Note que el l
mite superior de la suma es aunque los sumandos para i > t/ son cero,
debido a la presencia del escal
on (t i).
3.6.
57
Problema 3.1. Resuelva las siguientes ecuaciones diferenciales con las condiciones iniciales que se indican
dy
+ 2y(t) = 0
dt
dy
d 2y
+7
+ 10y(t) = 0
dt 2
dt
d 2y
+ 4y(t) = 0
dt 2
y(0) = 1
(3.86)
y(0) = 1;
y(0) = 0;
y(0)
=2
y(0)
=1
(3.87)
(3.88)
t 0
(3.89)
1 = 2
1 = 3
1 = 1
2 = 2
2 = 0
2 = 1 + j2
3 = 2
3 = 0
3 = 1 j2
(3.90)
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
58
0.7
0.6
g(t)
0.5
0.4
0.3
0.2
0.1
0
10
Tiempo [s]
15
1.5
0.5
0
0.5
1
1.5
2
2
Sistema 2
Eje imaginario
Eje imaginario
1
0
1
2
3
1.5
0.5
0.5
4
3
Eje real
Eje real
59
1
3
R1
1
1
+
vf (t)
vc (t)
4
R2
vo (t)
+
Avc (t)
4
(3.91)
Calcule la ganancia del sistema para los siguientes modos: u1 (t) = e2t ,
u2 (t) = 1 y u3 (t) = cos(3t).
Problema 3.10. En un sistema lineal e invariante en el tiempo se sabe que
la ganancia al modo ej2t es 0, 3 + j0, 4, y que las frecuencias naturales est
an
ubicadas en = 1 y = 0.
Calcule,
si es posible, la respuesta y(t) del sistema cuando la entrada es
= 2.
60
CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO
ecuaci
on de recursi
on|textbf
Captulo 4
An
alisis en tiempo discreto
4.1.
Introducci
on
4.2.
Ecuaci
on de recursi
on del sistema (ERS)
(4.1)
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
62
causalidad
condiciones iniciales
operador adelanto
promedio m
ovil
q ` hf [t]i = q ` f [t] = f [t `]
(4.2)
(4.3)
(4.4)
(4.5)
La ERS puede aparecer como modelo de situaciones muy diferentes. Consideraremos varios casos a modo de ilustracion.
Ejemplo 4.1 (Promedio m
ovil). En estadsticas econ
omicas se suele calcular indicadores que resultan de promediar el valor de ciertas variables durante
un n
umero de perodos consecutivos 2 . Suponga que nos interesa la variable desempleo, y que definimos el ndice de desempleo trimestral calculado como el
promedio de los porcentajes de desempleos de los tres u
ltimos meses. Entonces
la ecuaci
on de recursi
on es
y[t] =
1
(u[t] + u[t 1] + u[t 2])
3
(4.6)
222
1 El
DE RECURSION
DEL SISTEMA (ERS)
4.2. ECUACION
63
(4.7)
(4.8)
(4.9)
Lo cual lleva a
(4.10)
222
La ERS es un modelo dinamico que establece una restriccion fundamental sobre ciertas combinaciones de la entrada, la salida y algunas versiones
retrasadas de ambas se
nales.
Para ser mas especficos, consideremos una ecuacion de recursion de primer
orden
y[t] 0, 5y[t 1] = u[t 1]
3 Aproximaci
on
(4.11)
discretizaci
on
64
equilibrio estable
sistema! inestable
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
(4.12)
(4.14)
4.3.
4.3.1.
65
Componente homog
enea y componente particular
(4.15)
(4.16)
y[t] 0, 5y[t 1] = 0
(4.17)
C(0, 5)t 0, 5C(0, 5)t1 = C (0, 5)t (0, 5)t = 0
(4.18)
Co 0, 5Co = 1 = Co = 2
(4.19)
Esta ecuaci
on es satisfecha por yh [t] = C(0, 5)t , para cualquier valor de la
constante C. Esto se verifica reemplazando yh [t] en: (4.17)
yp [t]
La componente particular yp [t] es una funci
on, independiente de las condiciones iniciales, que debe satisfacer (3.16) con u[t] = 1. Como la entrada es una
constante, una soluci
on tentativa es suponer que la soluci
on particular tambien
es constante, digamos yp [t] = Co . Si esta suposici
on es correcta, entonces existe
Co constante que satisface (4.16) y puede ser calculada reemplazando yp [t] = Co
y u[t] = 1 en (4.16):
Entonces la soluci
on completa es y[t] = yh [t] + yp [t] = 2 + C(0, 5)t . La
constante C se calcula de modo que y[1] = 1:
y[1] = 1 = 2 + C(0, 5)1 = C =
3
2
(4.20)
(4.21)
222
respuesta
homog
enea
soluci
on homog
enea
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
66
ecuaci
on
caracter
stica
polinomio caracter
stico
4.3.2.
(4.22)
pq () = n + an1 n1 + . . . + a1 + a0 = 0
(4.23)
donde:
pq () =
a` `
con an = 1
(4.24)
`=0
(4.25)
Por un lado (suficiencia) se ve que si o satisface (4.23), entonces f [t] satisface la ecuaci
on homogenea.
Por otro lado (necesidad), si f [t] satisface la ecuaci
on homogenea, entonces
(4.25) debe cumplirse t y dado que o 6= 0, entonces pq (o ) = 0.
222
Supongamos que las n races de pq () son distintas, entonces la solucion
homogenea tiene la forma:
yh [t] =
n
X
Ci ti
(4.26)
i=1
con an = 1
(4.27)
67
Luego, reemplazamos yh [t] por f2 [t] en el lado izquierdo de (4.22), para demostrar que es igual a cero.
n
X
`=0
a` yh [t n + `] =
n
X
`=0
a` (t n + `)tn+`
1
= (t n)tn
1
n
X
(4.28)
a` `1 + 1tn+1
n
X
a` ``1
1
(4.29)
`=0
`=0
= (t n)tn
pq (1 ) +1tn+1
1
| {z }
0
d pq ()
d =1
{z
}
|
(4.30)
222
El lector es invitado a demostrar el siguiente lema.
Lema 4.3. Si el polinomio caracterstico pq () tiene una raz de multiplicidad
n1 en = 1 , entonces la funci
on fn [t] = Cti t1 satisface la ecuaci
on homogenea
(4.22) para i = 0, 1, . . . , n1 1
222
De los resultados precedentes se puede ver que la ecuacion homogenea tiene
infinitas soluciones, las que pueden describirse genericamente como una familia.
Los miembros de esta familia se diferencian por los valores numericos especficos
que se pueden escoger para un conjunto de n constantes indeterminadas. De
la ecuacion (4.22) se observa que podemos escoger libremente un conjunto de
valores arbitrarios para y[1], y[2], . . ., y[n]. Por cada conjunto elegido hay
una solucion distinta.
Por su parte, la componente o solucion particular es una funcion del tiempo
completamente determinada, es decir, independiente de las condiciones iniciales,
y que satisface la ecuacion (3.1). La solucion completa y[t] = yh [t] + yp [t] queda
totalmente determinada al usar las condiciones iniciales, aplicadas a la respuesta completa, y[t], para calcular las constantes indeterminadas presentes
en yh [t].
Si las soluciones de (4.23) son 1 , 2 , . . . p con multiplicidad n1 , n2 , . . . ,
np respectivamente, tal que n1 + n2 + . . . + np = n, entonces la forma general
de yh [t] es:
yh [t] =
p X
nt
X
C`i ti1 t`
(4.31)
`=1 i=1
donde los C`i son constantes arbitrarias (constantes indeterminadas) que generan los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
respuesta particular
soluci
on particular
constantes indeterminadas
68
frecuencias naturales
modos naturales
modo forzante
modo
forzante!ganancia a
ganancia! a modo forzante
modo forzado
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
Los valores de que satisfacen (4.23) son conocidos como autovalores, valores
propios o frecuencias naturales del sistema. Como la ecuacion caracterstica
de la ERS tiene coeficientes reales, cuando las soluciones son complejas, siempre
ocurren en pares conjugados.
A su vez, la funciones temporales de la forma:
ti1 t`
(4.32)
4.3.3.
`
X
Bi it
(4.33)
i=1
donde los i0 s son distintos enter s y ninguno de ellos coincide con alguna
frecuencia natural. Cada una de las funciones it recibe el nombre de modo
forzante.
Se puede verificar, usando la linealidad del sistema, que la solucion particular, yp [t], esta dada por:
yp [t] =
`
X
ypi [t];
con
ypi [t] = Ki Bi it
(4.34)
con an = 1
(4.35)
i=1
69
ganancia
ganancia! a continua
Figura 4.1: Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso decreciente).
n = m = 1; a1 = 1; a0 = 0, 5; b0 = 2
(4.36)
Supongamos que la entrada es u[t] = 5+4 cos(t/4+/7), entonces podemos
expresarla como:
u[t] =
3
X
i=1
entonces
Bi ei t = 51t + 2ej 7 2t + 2ej 7 3t
(4.37)
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
70
Figura 4.2: Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso no decreciente).
K3 =
b0 21
= 0, 7630 + j2, 605 = 2, 7144ej1,286
1 + a0 21
(4.38)
(4.39)
(4.40)
222
El tratamiento general de la solucion particular sera pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
71
Los sistemas lineales exhiben ganancias distintas para modos forzantes distintos, y esta capacidad de discriminacion es la base para el analisis y dise
no
de sistemas de procesamiento de se
nales y para otras aplicaciones.
4.3.4.
Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos esenciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relacion con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (se
nales) del sistema permanecen acotadas ante cualquier excitacion
acotada o estado inicial acotado. Si consideramos solo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son estas, es
decir, las races de la ecuacion caracterstica, las que determinan la estabilidad
del sistema. Consideremos el caso de un modo de la forma generica:
yh1 [t] = Ct ;
Sea = ej , entonces:
(4.41)
(4.42)
De la expresion anterior se observa que yh1 [t] decae a medida que el tiempo
transcurre si y solo si t decae, y esto ocurre si y solo si || = < 1. Dicho de
otra forma, si y solo si esta al interior del crculo o disco unitario (excluyendo su borde). Esto se refleja los modos que aparecen en la Figura 4.1 y, por
contradiccion, en la Figura 4.2.
En resumen, tenemos la siguiente definicion de estabilidad, conocida como
estabilidad asintotica:
estabilidad
c
rculo unitario
disco unitario
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
72
velocidad
frecuencia natural!dominante
modo
natural!dominante
(4.43)
(4.44)
Esta ecuaci
on puede ser asociada con el c
aculo de una integral por aproximaci
on rectangular cuando el ancho de los rect
angulos es 2. Al final, el resultado
del ejemplo muestra que la integral de un escal
on es una rampa.
222
4.3.5.
Velocidad
Un segundo aspecto de interes en relacion con las frecuencias y modos naturales guarda relacion con la velocidad con que evolucionan las variables de un
sistema.
Dentro de la clase de sistemas estables, podemos distinguir diferencias notables, no solo por la distinta naturaleza de los valores propios, sino por las
velocidades comparativas a las que decaen las componente homogeneas de la
respuesta de los distintos sistemas. Por ejemplo, consideremos dos sistemas con
las componentes homogenas que se indican:
Sistema 1
Sistema 2
(4.45)
(4.46)
Vemos que yh1 [t] esta dominada por el modo natural 0, 9t , pues esta se
nal decae mas lentamente que el otro modo natural 0, 5t . Por su parte, yh2 [t] esta dominada por el modo natural 0, 7t , el que decae mas lentamente que el modo 0, 2t .
As diremos que el Sistema 1 tiene una frecuencia natural dominante igual
a 0, 9, con un modo natural dominante 0, 9t . A su vez, el Sistema 2 tiene una
frecuencia natural dominante igual a 0, 7, con un modo natural dominante 0, 7 t .
Al comparar ambos sistemas podemos concluir, en primera aproximacion, que
el Sistema 1 es mas lento que el Sistema 2, porque su modo dominante decae
mas lentamente.
73
(4.47)
De esta ecuacion se observa que este modo decae mas rapidamente cuanto
mas peque
no es . As, los sistemas estables son mas rapidos cuanto mas cercanos
al origen del plano complejo estan sus frecuencias naturales dominantes.
4.3.6.
Una forma alternativa de descomponer la respuesta de un sistema es considerar por separado la componente de la respuesta debida al estado inicial, y x [t],
y la componente de la respuesta debida a la entrada, yu [t], es decir:
y[t] = Thhxo , u[t]ii = Thhxo , 0ii + Thh0, u[t]ii
| {z } | {z }
(4.48)
(4.49)
yx [t]
yu [t]
sujeta a las condiciones iniciales definidas en un vector xo . Esto significa que yx [t] es una combinacion lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la soluci
on completa de la ERS).
A su vez, la respuesta a entrada, yu [t], es una solucion de la ERS con condiciones iniciales iguales a cero, es decir, satisface:
yu [t] + an1 q 1 yu [t] + . . . + a0 q n yu [t]
= bm u[t] + bm1 q 1 u[t] + . . . + b0 q m u[t]
(4.50)
modos naturales
modos forzados
yh [t]
yp [t]
yx [t]
yu [t]
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
74
(4.51)
(4.52)
(4.53)
(4.54)
yu [t]
La respuesta a entrada, yu [t], es una soluci
on para (4.52) con u[t] = 1, y
sujeta a yu [1] = 0.
De esta forma, la soluci
on completa es
yu [t] = yuh [t] + yup [t]
(4.55)
(4.56)
yu [t] = (0, 5) + 2
(4.57)
t
(4.58)
Maple
>rsolve({y(n)=0.5*y(n-1)+1, y(-1)=-1},y(t));
4 Esta
soluci
on particular se puede calcular usando la ganancia al modo 1 t .
75
De esta forma, podemos ahora completar la Tabla 4.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 4.2.
yh [t]
modos naturales
modos forzados
1, 5(0, 5)
yp [t]
t
yx [t]
0, 5(0, 5)
yu [t]
t
(0, 5)t
2
222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
En la descomposicion componente homogenea componente particular se
observa la estructura de la respuesta. En efecto, en esa particion queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposicion respuesta a estado inicial respuesta a entrada se
separan los efectos de las dos causas de que el sistema tenga una respuesta:
las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean cero, los modos naturales
igual se encuentran presentes en la respuesta del sistema a traves de la respuesta
debida a la entrada, yu [t].
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria
corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo
desde el instante inicial. Por su parte la respuesta transiente es aquella parte de
la respuesta que se extingue con el tiempo.
En el ejemplo 3.6 en la pagina 47, la respuesta estacionaria esta dada por el
modo forzado constante, mientras que la respuesta transitoria esta formada por
los modos naturales (sinusoidales amortiguadas).
La separacion en componentes estacionaria y transitoria es transversal a
la idea de modos naturales y modos forzados. La respuesta estacionaria puede
existir incluso si la entrada es cero. En ese caso esta formada exclusivamente por
modos naturales. Por ejemplo, si un sistema tiene modos naturales sinusoidales
y la entrada es una exponencial decreciente, entonces la respuesta estacionaria
contendra los modos naturales sinusoidales y la respuesta transitoria incluira el
modo forzado por la exponencial.
Por otro lado, si el sistema tiene ganancia cero a un modo forzante, el correspondiente modo forzado no aparecera en la respuesta estacionaria.
respuesta
respuesta
transitoria
estacionaria
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
76
respuesta! a $\mu [t]$
respuesta! a escal
on
4.4.
Respuesta a se
nales de prueba
Una forma de estudiar, y comparar en forma estandarizada el comportamiento de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas se
nales de prueba se consideran usualmente: el escalon unitario, el impulso
unitario y la se
nal sinusoidal. En esta seccion nos concentraremos en las dos
primeras, pues la respuesta ante se
nales sinuosidales sera materia de estudio en
el Captulo 5).
4.4.1.
Respuesta a escal
on unitario
(4.59)
Note que go [t] contiene una parte natural u homogenea (combinacion lineal
de modos naturales de la forma (4.31)) y una componente particular o
forzada. Cuando el sistema no tiene frequencias naturales en = 1, go [t]
tiene la forma:
go [t] = Ko +
p X
n`
X
C`i ti1 t`
`=1 i=1
t n
(4.60)
i=0
ai
con an = 1
(4.61)
p X
n`
X
C`i ti1 t`
`=1 i=1
t n
(4.62)
4.4. RESPUESTA A SENALES
DE PRUEBA
77
Paso 3 Calcule las constantes C`i usando la restriccion de las condiciones iniciales iguales a cero, es decir, usando el hecho que:
q ` go [t]|t=0 = 0
` = 0, 1, . . . , n 1
(4.63)
m
X
i=1
bmi q i go [t][t i ]
(4.64)
(4.65)
(4.66)
t
t
ermino
que resulta ser go [t] = 10
3 + C1 (0, 5) + C2 (0, 4) . Note que el t
corresponde a la ganancia a continua, es decir, al modo forzante 1t .
10
3
(4.69)
(4.70)
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
78
respuesta! a $\delta [t]$
respuesta! a impulso
10
8
5(0, 5)t + (0, 4)t
3
3
t 2
(4.71)
Maple
>ers:=go(n)-0.9*go(n-1)+0.2*go(n-2)-1;
>rsolve({ers,go(-1)=0,go(-2)=0},go(t));
(4.72)
16
10
8
20
10(0, 5)t + (0, 4)t +
5(0, 5)t1 + (0, 4)t1 [t 1] t 2
=
3
3
3
3
(4.73)
20
16
10
20
=
10(0, 5)t + (0, 4)t +
10(0, 5)t + (0, 4)t [t 1] t 2
3
3
3
3
(4.74)
t 0
(4.75)
222
4.4.2.
(4.76)
4.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION
79
convoluci
on
t n
(4.77)
Como las condiciones iniciales son cero, g[t 1][t 1] = g[t 1][t], ya
que g[t 1][t]|t=0 = 0. As la respuesta a un impulso unitario con condiciones
iniciales iguales a cero esta dada por:
h[t] = g[t] g[t 1]
t 0
(4.78)
= 20(0, 5) 18(0, 4)
t 0
(4.79)
(4.80)
222
En una perspectiva general, podemos observar que dada la relacion entre la
respuesta a impulso y la respuesta a escalon, y considerando que esta u
ltima
contiene una combinacion lineal de los modos naturales del sistema y una constante, entonces h[t] contiene s
olo modos naturales. Conceptualmente, es
esta la caracterstica que confiere especial importancia a las respuestas a escalon
e impulso. En rigor, la respuesta a excitaciones mas complejas tambien contiene
una combinacion de modos naturales (a traves de la componente homogenea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente seccion una utilidad inmediata de estas consideraciones.
4.5.
C
alculo de la respuesta via convoluci
on
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
80
se~
nal causal
una excitaci
on causal7 arbitaria, u[t], con condiciones iniciales iguales a cero,
est
a dada por:
y[t] =
t
X
`=0
u[`]h(t `)
t 0
(4.81)
Demostraci
on
Recordemos que toda se
nal u[t] puede expresarse por:
u[t] =
X
`=0
u[`][t `]
(4.82)
(4.83)
(4.84)
X
`=0
u[`]h[t `] = Thh0,
X
`=0
u[`][t `]ii
(4.85)
t
X
`=0
u[`]h[t `]
t 0
(4.86)
222
En la ecuacion (4.86) y[t] se puede interpretar como una suma ponderada
(por u[`]) de respuestas a impulso h[t `].
Note que dado que u[t] y h[t] son causales, entonces, la ecuacion (4.81)
tambien se puede escribir como:
y[t] =
`=
u[`]h[t `] =
`=
u[t `]h[`]
t 0
(4.87)
Las sumas que aparecen en la ecuacion (4.87) son una expresion de la convoluci
on de dos funciones temporales. La definicion generica es:
f1 [t] f2 [t] =
7 Una
`=
f1 [`]f2 [t `] =
se
nal u[t] es causal si u[t] = 0 t < 0
`=
f1 [t `]f2 [`]
(4.88)
4.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION
81
Aparte de la propiedad de commutatividad que aparece en (4.88), la convolucion tiene la propiedad de distributividad, esto es:
f1 (f2 [t] + f3 [t]) = f1 [t] f2 [t] + f1 [t] f3 [t]
(4.89)
(4.90)
Demostraci
on
u[t][tto ] =
`=
u[`][tto `] =
`=
Note que el u
ltimo paso de la demostraci
on se basa en que una funci
on de
tiempo discreto es un tren de impulsos de Kronecker cuya amplitud es el valor
instant
aneo de la se
nal.
222
El uso de convolucion para la determinacion de la respuesta de un sistema
lineal tiene importancia conceptual y numerica, sin embargo, no es, en general,
un procedimiento analticamente simple. Es interesante observar que el calculo
de la convolucion entre dos se
nales discretas se puede ilustrar de manera muy
simple: si consideramos dos tiras de papel, en una de las cuales se anotan los
valores de la primera se
nal y, en la otra los de la segunda, entonces la convolucion
se realiza invirtiendo una de las tiras y retrocediendola sobre la otra. Para cada
retroceso, la convolucion corresponde a multiplicar los valores coincidentes y
sumar los productos resultantes. Esto se muestra en el siguiente ejemplo.
Ejemplo 4.10. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h[t] = (0, 5)t [t]. Determine, usando convoluci
on la respuesta a la se
nal u[t] = [t] [t 3].
Soluci
on
La respuesta est
a dada por
t
X
u[`]h[t `]
=
t
X
La suma o acumulaci
on se puede segmentar en tres intervalos:
(4.92)
82
transformada de Fourier
transformada Zeta
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
1
X
u[`]h[t `]d` = 0
`=
t
X
u[t] h[t] =
u[`]h[t `]d` = 2 (0, 5)t
`=0
`=0
t<0
0t<3
(4.93)
t3
Una resoluci
on compacta se puede desarrollar usando el hecho que la entrada
se puede expresar como la suma de tres impulsos unitarios, es decir:
u[t] = [t] [t 3] = [t] + [t 1] + [t 2]
(4.94)
(4.95)
222
Como se puede apreciar, el calculo mismo de la convolucion es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
es un nexo de conexion con el analisis en el dominio de las transformadas de
Fourier discreta y Zeta (Captulos 6 y 8, respectivamente).
La convolucion en tiempo discreto es ampliamente usada para construir la
respuesta de sistemas lineales, invariantes en el tiempo y causales, cuando se
conoce la respuesta a un impulso unitario. Esto se debe a la simplicidad de las
expresiones del Lema 4.4.
La respuesta de un sistema lineal e invariante en el tiempo se puede calcular
a partir de la respuesta a escalon, como se muestra en el el siguiente lema.
Lema 4.6. Sea un sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escal
on unitario de entrada, con condiciones iniciales iguales a cero, es g[t]. Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitaci
on u[t] est
a dada por:
y[t] = u[t] (g[t] g[t 1]) = g[t] (u[t] u[t 1])
(4.96)
Demostraci
on
Dado que [t] = [t] [t 1], entonces, por linealidad e invarianza, la
respuesta h[t], a un impulso unitario puede expresarse como:
h[t] = g[t] g[t 1]
Esto lleva inmediatamente al primer resultado, dado que:
(4.97)
4.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION
83
(4.98)
`=
(4.99)
`=
(4.100)
`=
(4.101)
222
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
84
4.6.
y[1] = 1;
y[1] = 2;
y[2] = 1
y[1] = 1
(4.102)
(4.103)
y[0] = 0; y[5] = 0
(4.104)
y[1] = 0; y[2] = 1
(4.105)
y[1] = 1; y[i] = 0 i > 1
(4.106)
(4.107)
(4.110)
(4.108)
(4.109)
(4.111)
(4.112)
85
1 = 0, 2
1 = 0, 3
1 = 1
2 = 0, 2
2 = 0, 3
2 = 0, 1 + j0, 2
3 = 0, 2
3 = 2
3 = 0, 1 j0, 2
(4.113)
g[k]
1.5
0.5
0
1
4
5
Tiempo [s]
10
CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO
86
i0
i1
in2
in1
in
Fourier
serie de Fourier|textbf
sistema! no lineal
Captulo 5
An
alisis bajo excitaciones
peri
odicas
5.1.
Se
nales Peri
odicas
(5.1)
(5.2)
De esta forma, podemos apreciar que la salida del sistema contiene tres
sinusoides de distinta frecuencia (0, y 2 [rad/s]), que deben ser consideradas
cuando esta se
nal act
ua como entrada de otro sistema.
Otros casos en que aparecen se
nales periodicas no sinusoidales incluyen el
corte de se
nales sinusoidales (cuando la amplitud de una sinusoide excede cierto
87
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
88
serie de Fourier
ganancia! a modo forzante
sinusoidal
amplitud
\angulo! de desfase
fase
per
odo
frecuencia! angular
frecuencia
5.2.
(5.4)
[Hz] y el perodo T = f1 = 2
frecuencia f = 2
[seg] de la sinusoide.
Aplicando la formula de Euler se tiene que:
ej(t+) + ej(t+)
= ejt + ejt
2
donde C, es el complejo conjugado de y
A cos(t + ) = A
(5.5)
A j
e
(5.6)
2
Por otra parte sabemos que si K() C es la ganancia al modo forzante
ejt , entonces, por linealidad:
=
As, se obtiene:
K() = |K()|eja ()
(5.8)
(5.10)
Cuando el modo forzante es una exponencial de la forma ejt , o una sinusoidal cos(t), la ganancia a modo forzante, K(), caracteriza lo que se
denomina respuesta en frecuencia del sistema.
El desarrollo precedente es ilustrado a traves de un ejemplo.
Ejemplo 5.1. Consideremos el sistema definido por su ecuaci
on diferencial:
d 2 y(t)
d y(t)
+4
+ 13y(t) = 26u(t)
dt 2
dt
Supongamos que la entrada es u(t) = sen(t) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en 1,2 = 2 j3. Con esto sabemos entonces que la
soluci
on homogenea tiene la forma:
yh (t) = e2t [B1 cos(3t) + B2 sen(3t)]
(5.11)
(5.12)
(5.13)
90
respuesta en frecuencia
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
C1 () =
(5.15)
(5.16)
(5.17)
Esta
se muestra en la Figura 5.1, donde se aprecia claramente la presencia de una parte de la respuesta que es transiente, m
as lenta, que desaparece
manteniendose s
olo una oscilaci
on sostenida de 10[rad/seg], pero de diferente
amplitud y fase que las de la se
nal original. Estos valores de As y s , que dependen de la frecuencia , son en este caso:
p
As (10) = C1 (10)2 + C2 (10)2
s (10) = (C2 (10) + jC1 (10))
= 0,272
= 2, 7106 [rad]
155, 31
(5.18)
(5.19)
Una manera m
as directa para obtener una descripci
on generica de los resultados anteriores sera calcular la respuesta en frecuencia K(), la que, en este
caso particular, est
a dada por:
K() = |K()|eja () =
26
(j)2 + 4j + 13
(5.20)
2.5
0.5
1
1.5
a()
|K()|
Figura 5.1: Se
nales de entrada y salida en el Ejemplo 5.1
1.5
0.5
0
2.5
0
10
15
Frecuencia [rad/s]
20
10
15
Frecuencia [rad/s]
20
(5.21)
92
resonancia
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
En este ejemplo, que corresponde a un sistema estable, la ganancia a continua es igual a 1, sin embargo la ganancia a modo forzante ej2t est
a dada por:
K() =
4
= j200
(j2)2 + 0, 01 (j2) + 4
(5.22)
5.3.
La idea central tras las series de Fourier, sean ellas de tiempo continuo o de
tiempo discreto, es la representacion de una funcion periodica usando una base
ortogonal de funciones.
La idea de ortogonalidad adquiere su sentido mas basico considerando con el
sistema cartesiano de coordenadas en R2 o R2 . Sin embargo, la diferencia basica
en el caso de las series de Fourier es que la dimension de la base es infinita,
hecho usual en espacios de funciones [12].
Antes de analizar de lleno la representacion de funciones periodicas en forma de una serie de Fourier, sugerimos al lector revisar el Apendice B para
familiarizarse con la notacion y el vocabulario empleado de aqu en adelante.
5.3.1.
Consideremos el espacio vectorial de todas las funciones seccionalmente continuas en un intervalo2 [ T2 , T2 ], y en el, el conjunto de vectores (funciones):
B = { 1 , cos(n0 t) , sen(n0 t) }n=1,2,...
0 =
2
T
(5.23)
2 En t
erminos generales el intervalo a considerar es [to , to + T ]. Por simplicidad hemos
escogido to = T /2
5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO 93
El conjunto definido en (5.23) resulta ser analogo al conjunto de funciones
considerados en el Lema B.1 en la pagina 346, dado que son linealmente independientes , pues ninguna de las sinusoides (o la constante) del conjunto
puede describirse como una combinacion lineal de las demas. Ademas definimos
el producto interno en este espacio de funciones como la integral:
hf (t), g(t)i =
T
2
f (t) g(t)dt
T2
f (t), g(t) B
(5.24)
y(t) = A0 +
n=1
; 0 =
2
T
(5.26)
2
T
Z
Z
Z
T
2
y(t)dt
T2
T
2
T2
(5.27)
T
2
T2
independencia
lineal
ortogonalidad
Serie de Fourier
frecuencia fundamental
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
94
espectro! en frecuencia
arm
onicas
desfase
a
ngulo! de
desfase
espectro! de l
nea
y(t) = A0 +
n=1
en que:
Cn cos(n0 t n )
(5.28)
p
A2n + Bn2
Bn
n = arctg
An
Cn =
(5.29)
(5.30)
Seal y(t)
1
0
1
2
6
0
Tiempo [s]
Figura 5.3: Se
nal cuadrada
La frecuencia fundamental es o = 2/T = /2 y los coeficientes de la serie
se pueden calcular como se indica
5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO 95
serie de Fourier! senoidal
A0 =
1
T
T
2
y(t) dt = 0
(5.31)
T2
2
An =
T
T
2
T2
y(t) cos(no t) dt
=
1
2
2 cos(0, 5nt) dt +
2
1
2
2 cos(0, 5nt) dt = 0
(5.32)
2
T
Bn =
=2
T
2
T2
2
0
y(t) sen(no t) dt =
1
2
1
2
2 sen(0, 5nt) dt
0
t
4
4
(1 cos(n))
sen(0, 5nt) dt = cos(0, 5nt) =
n
n
(5.33)
Bn =
8
n
n impar
n par
(5.34)
La participaci
on de las arm
onicas puede ser visualmente apreciada en la
Figura 5.4.
3
2.5
2
1.5
1
0.5
0
4
6
8
Frecuencia angular, en mltiplos de o
10
12
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
96
a
ngulo! de disparo
222
El ejemplo precedente sugiere que el calculo manual de los coeficientes se
puede complicar notablemente para se
nales de mayor complejidad. Este proceso
puede ser enormemente facilitado usando, por ejemplo, Maple .
Ejemplo 5.4. Uno de los procesos en que se generan se
nales peri
odicas no
sinusoidales es en la rectificaci
on. En realidad, para circuitos de potencia en
el control de motores, por ejemplo, en vez de diodos se utilizan tiristores, que
no son m
as que diodos en que el instante de conducci
on es controlado. Estos
permiten recortar la se
nal rectificada, como se aprecia en la Figura 5.5 en que
los tiristores se disparan pasado un tercio del perodo de la se
nal rectificada. En
este caso se dice que el a
ngulo de disparo es = 3 .
1
0.8
0.6
0.4
0.2
0
0.005
0.01
0.015
Time [s]
0.02
0.025
0.03
Figura 5.5: Se
nal a la salida de rectificador controlado por tristores
Maple
>
>
>
>
>
>
assume(0<alpha,alpha<1):
y(t):=(Heaviside(t-alpha)-Heaviside(t-Pi))*sin(t):
A_0:=1/Pi*int(y(t),t=0..Pi);
assume(n,integer):
A(n):=2/Pi*int(y(t)*cos(2*n*t),t=0..Pi);
B(n):=2/Pi*int(y(t)*sin(2*n*t),t=0..Pi);
5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO 97
serie de Fourier! cosenoidal
1 + cos()
2
1 + 2 cos() (cos( n)) cos() + 4 n sen() sen( n) cos( n)
An = 2
(1 + 2 n) (1 + 2 n)
A0 =
Bn = 4
; 2 < t 0
1 + t
y(t) = 1 t
(5.35)
;0 < t 2
Maple
> y(t):=convert(piecewise(t<-2,-t-3,t<0,t+1,t<2,-t+1,t-3),Heaviside);
Maple
> A(n):=1/2*int(y(t)*cos(n*Pi/2*t),t=-2..2);
n=1
(1 (1) )
2
n
2
cos
n
t
2
(5.36)
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
98
on de la funci
on y(t) por
En la Figura 5.6, podemos apreciar la aproximaci
las primeras dos arm
onicas no nulas (n = 1, 3). En esta, se observa que las
dos primeras arm
onicas (con presencia no nula en la serie) describen bastante
bien la se
nal original. Ello puede ser entendido al calcular las amplitudes de las
primeras diez componentes de la serie. Ellas aparecen en el espectro de lneas
de la Figura 5.7, donde se aprecia claramente que la amplitud de las arm
onicas
superiores a la tercera es despreciable.
Seal y aproximacin
1
0.5
0
0.5
1
6
0
Tiempo [s]
1
Amplitud de las armnicas
error
0.8
0.6
0.4
0.2
0
3
4
5
6
Frecuencia angular, en mltiplos de o
5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO 99
0.1
0.05
2
t
y(t)
eN (t)
yN (t)
0.05
0.1
(b) Interpretaci
on geom
etrica del error
Figura 5.8:
; N
(5.37)
Demostraci
on
Si escribimos la suma parcial como:
yN (t) =
N
X
k fk (t)
(5.38)
k=1
en que los fk (t) son vectores de la base B, el producto (5.37) puede escribirse y
desarrollarse como:
heN (t), yN (t)i = hy(t) yN (t), yN (t)i = hy(t), yN (t)i hyN (t), yN (t)i (5.39)
+
+ *N
*
N
N
X
X
X
j fj (t)
(5.40)
k fk (t)
k fk (t),
= y(t),
k=1
N
X
k=1
j=1
k=1
k hy(t), fk (t)i
N
X
k=1
fk (t),
N
X
j fj (t)
j=1
(5.41)
N
X
k=1
k hy(t), fk (t)i
N
X
k=1
(5.42)
hy(t), fk (t)i
hfk (t), fk (t)i
(5.43)
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
100
Por lo tanto:
N
N
X
X
hy(t), fk (t)i
hy(t), fk (t)i2
hy(t), fk (t)i
hfk (t), fk (t)i
hfk (t), fk (t)i
hfk (t), fk (t)i2
k=1
k=1
N
X
k=1
X hy(t), fk (t)i2
hy(t), fk (t)i
=0
hfk (t), fk (t)i
hfk (t), fk (t)i
2
(5.44)
k=1
222
Este resultado permite apreciar que yN (t), con los coeficientes calculados
seg
un (5.27), es la combinacion lineal que mejor representa a y(t) (en el
sentido de la norma cuadratica), ya que, dada su ortogonalidad con el vector
de error eN (t), minimiza la distancia entre y(t) y el conjunto de funciones que
se generan por combinacion lineal de los N elementos de la base. La Figura 5.8
(b) ilustra geometricamente la idea de ortogonalidad entre el error eN (t) y la
representacion truncada yN (t).
Finalmente, es importante hacer notar que la representacion obtenida en
(5.26), con los coeficientes explicitados en (5.27), representa a la funcion y(t),
dentro del intervalo [ T2 , T2 ] sea
esta peri
odica o no. En este u
ltimo caso la
representacion se debe entender valida solo dentro del intervalo en que se ha
calculado. Sin embargo, dado que dentro del intervalo de longitud T todas las
sinusoides del conjunto B completan un n
umero entero de perodos, la periodicidad de los elementos de B se extiende a la representacion de y(t), es decir,
se repite en todo intervalo de la forma [kT T2 , kT + T2 ] con k Z. Ademas
por simple traslacion del intervalo en que trabajamos, es decir, corriendo del eje
temporal, el calculo de los coeficientes y la representacion pueden tomarse en
cualquier intervalo arbitrario [to , to + T ]. En todo caso, el lector debe advertir
que si la se
nal bajo analisis no es periodica, la representacion sera distinta para
distintas elecciones de to .
5.3.2.
y(t) = A0 +
n=1
= A0 e
j00 t
X
n=1
ejn0 t ejn0 t
ejn0 t + ejn0 t
+ Bn
An
2
2j
(5.45)
5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO101
serie de Fourier!exponencial
y(t) = A0 e
j00 t
X
An jBn
n=1
jn0 t
An + jBn jn0 t
+
e
2
(5.46)
Cn ejn0 t
(5.47)
n=
1
T
T
2
y(t)ejn0 t dt
(5.49)
T2
Se deja al lector verificar que esta expresion tambien es valida para el resto
de los coeficientes Cn , cuando n 0. Si se presta atencion a la forma de los coeficientes en la ecuacion (5.46), puede apreciarse que aparecen en pares complejos
conjugados, es decir, n > 0:
An jBn
= |Cn |ejn
2
An + jBn
=
= |Cn |ejn
2
Cn =
Cn
(5.50)
(5.51)
; 0 =
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
102
Parseval
Parseval
T
2
T2
fn (t) fm (t)dt =
T
2
ejn0 t ejm0 t dt
(5.53)
T2
0
; n 6= m
>0 ;n=m
(5.54)
= 2|Cn | cos(n0 t n )
5.3.3.
` f` (t)
(5.55)
`=0
` f` (t),
`=0
` f` (t)
`=0
(5.56)
X
`=0
(5.57)
T /2
T /2
(y(t))2 dt = A2o +
1X 2
(A` + B`2 )
2
(5.58)
`=0
T /2
(y(t))2 dt =
T /2
C` 2
(5.59)
`=
5.4.
(5.60)
con =
2
N
(5.61)
ej(t+) + ej(t+)
= ejt + ejt
2
(5.62)
sinusoidal
amplitud
\angulo! de desfase
fase
per
odo
frecuencia! angular
frecuencia
104
sistema! estable
modos naturales
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
K() = |K()|eja ()
(5.65)
As, se obtiene:
Thhxo , A cos(t + )ii = |K()|A cos(t + + a ()) + {modos naturales} (5.66)
Como el sistema es estable, los modos naturales decaen a cero cuando t ,
as, la respuesta estacionaria contiene solo la componente particular, es decir,
contiene solo los modos forzados y tiene la forma:
y[t] = As () cos(t + s ())
(5.67)
Cuando el modo forzante es una exponencial de la forma ejt , la ganancia a modo forzante, K(), caracteriza lo que se denomina respuesta en
frecuencia del sistema de tiempo discreto.
La teora precedente es ilustrada a traves de un ejemplo.
Ejemplo 5.6. Consideremos el sistema modelado por la ERS
y[t] 0, 7y[t 1] + 0, 12y[t 2] = 1, 5u[t]
(5.68)
(5.69)
(5.70)
(5.71)
1, 5e2j
e2j 0, 7ej + 0, 12
(5.72)
3.5
0.5
2.5
()
|K()|
2
1.5
0.5
1
0.5
2
4
6
Frecuencia angular discreta [rad]
2
4
6
Frecuencia angular discreta [rad]
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
106
resonancia
frecuencia!fundamental
arm
onicas
(5.73)
5.5.
Veamos ahora como pueden extenderse las ideas hasta aqu expuestas a la
representacion de funciones definidas en instantes de tiempo discreto como suma
de sinusoides, tambien definidas en tiempo discreto.
Para sistemas de tiempo discreto, las series trigonometricas son poco usadas, prefiriendose la forma exponencial. Veremos que ello se debe a que las
exponenciales periodicas involucradas tienen propiedades de simetra que hacen
mucho mas simple el calculo de los coeficientes, en comparacion al calculo de los
coeficientes de la serie trigonometrica. As, consideramos se
nales de la forma:
f [t] = ejt
; t = 0, 1, 2, . . .
(5.74)
Nuestro interes fundamental, al igual que para serie de Fourier trigonometrica, es determinar como puede representarse una funcion periodica como suma
de un termino constante y un conjunto de sinusoides de frecuencias m
ultiplos
de la frecuencia fundamental.
Consideremos, por ejemplo, una funcion y[t] definida para t = 0, 1, 2, . . . , de
perodo N , es decir:
y[t + N ] = y[t]
; t
(5.75)
2
N
(5.76)
(5.77)
107
N
1
X
Cn ej0 nt ;
0 =
n=0
2
N
(5.78)
Desde el punto de vista del algebra lineal queremos representar el vector y[t]
en terminos de los vectores del conjunto:
Bd = {1, ej0 t , ej20 t , . . . , ej(N 1)0 t }
(5.79)
N
1
X
f1 [t]f2 [t]
(5.80)
t=0
N
1
X
(ej0 n1 t ) ej0 n2 t
(5.81)
(5.82)
t=0
N
1
X
t=0
(5.83)
Pero seg
un (5.76) tenemos que N 0 = 2, y n1 y n2 son n
umeros enteros, por
tanto, para n1 6= n2 , pues de otra forma el denominador se hace cero:
hej0 n1 t , ej0 n2 t i =
y si n1 = n2 = n:
he
j0 nt
,e
j0 nt
i = ke
j0 nt 2
k =
1 ej2(n1 +n2 )t
=0
1 ej0 (n1 +n2 )
N
1
X
t=0
j0 nt j0 nt
N
1
X
t=0
(5.84)
1=N
(5.85)
108
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
Es decir, el conjunto definido en (5.79) es ortogonal bajo el producto interno (5.80). Por tant, los coeficientes de la representacion (5.78) se pueden
calcular usando el Lema B.1 en la pagina 346, con lo que se obtiene la expresion
equivalente a (5.49), pero para las funciones discretas:
Cn =
N 1
hej0 nt , y[t]i
1 X
=
y[t]ej0 nt
hej0 nt , ej0 nt i
N t=0
; 0 =
2
N
(5.86)
Es importante verificar que la expresion obtenida en (5.86) usada en la representacion (5.78) garantiza que la suma es en efecto una funcion real. Para la
serie de Fourier exponencial se verifico que la suma de las armonicas correspondientes a los terminos n es real pues estos terminos resultan ser conjugados el
uno del otro. Para la serie de Fourier discreta, si observamos la expresion para
el coeficiente N `, tenemos:
CN ` =
=
N 1
N 1
1 X
1 X
y[t]ej0 (N `)t =
y[t]ej0 N t ej0 `t
N t=0
N t=0
N 1
N 1
1 X
1 X
y[t]ej0 `t =
(y[t]ej0 `t ) = (C` )
N t=0
N t=0
(5.87)
(5.88)
(5.89)
109
y[0]
y[1]
y[2]
..
.
y[N 1]
= WN
C0
C1
C2
..
.
CN 1
(5.90)
(i1)(j1)
(5.91)
WN
1
1
= 1
..
.
1
1
w
w2
..
.
1
w2
w4
..
.
..
.
wN 1
wN 2
wN 1
wN 2
..
.
(5.92)
N
1
X
` f` [t]
(5.93)
`=0
donde las funciones f` [t] son elementos de una base ortogonal, entonces:
hy[t], y[t]i =
N
1
X
`=0
(5.94)
espectro de l
nea
matriz! de Fourier
110
sistema!lineal
ganancia! a modo forzante
respuesta en frecuencia
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
que es equivalente a:
N
1
X
y[t]2 = N
t=0
5.6.
N
1
X
`=0
|` |2
(5.95)
Aplicaci
on de las series de Fourier al an
alisis de sistemas lineales
(5.96)
(j)3
54
+ 7(j)2 + 15(j) + 54
(5.97)
donde = 0; 1; 2; 3; . . . ; 9 [rad/s].
La respuesta en frecuencia es mostrada en la Figura 5.10, donde se ha indicado la magnitud y fase de la respuesta a continua y la respuesta para las
frecuencias de la fundamental y de las primeras nueve arm
onicas. Los valores
numericos se muestran en la Tabla 5.1. Al observar los datos obtenidos se aprecia que el sistema privilegia, en amplificaci
on, la tercera arm
onica.
Para ser m
as especficos, supongamos que la excitaci
on u(t) es una se
nal
cuadrada, con valor medio cero. Usando Matlab o Maple podemos calcular
entonces la respuesta, y(t). La entrada y la salida son mostradas en la Figura
5.11.
La fuerte presencia de la tercera arm
onica en la salida es claramente apreciada, as como tambien es f
acilmente apreciable el que la forma de onda de la
salida es muy diferente a la de la entrada.
111
2.5
()
1.5
1
3
4
0.5
0
|K()|
4
6
Frecuencia [rad/s]
10
4
6
Frecuencia [rad/s]
10
Frecuencia [rad/s]
0
1
2
3
4
5
6
7
8
9
Amplificacion
1,0000
1,1011
1,5855
2,6833
0,9288
0,4125
0,2301
0,1442
0,0972
0,0688
Desfase [rad]
0,0000
-0,2895
-0,7023
-2,0344
-3,2104
-3,5334
-3,7083
-3,8305
-3,9244
-4,0000
5.7.
3 e.t.o.c.
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
112
Entrada y respuesta
y(t)
2
1
0
1
u(t)
2
3
10
Tiempo [s]
12
14
16
18
20
(a)
(b)
(c)
(d)
; < t 0
1
y(t) = +1
;0 < t
y(t + 2) e.t.o.c.
(
t
; 1 < t 1
y(t) =
y(t + 2) e.t.o.c.
y(t) = |A cos(t)|
(e)
(f )
n=
(d)
(t nT )
113
d y(t)
+ 10y(t) = 10u(t)
dt
Suponga que u(t) es la se
nal peri
odica de la Figura 5.12.
2.5
2
1.5
u(t)
1
0.5
0
0.5
1
1.5
6
Tiempo [s]
10
12
114
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
0 =
2
T
T
2
T2
yn (t)ym (t)dt
; yn (t), ym (t) B
A
f (t) = 0
f (t + T )
funci
on peri
odica f (t) definida como:
; |t| < /2
; /2 |t| < T /2
; e.t.o.c.
5.8.1 Determine la serie de Fourier de v(t), indicando la amplitud de los coeficientes en funci
on del par
ametro .
5.8.2 Si el par
ametro vara lentamente con el tiempo, digamos (t) = sen(2t)
Que se obtiene si se hace pasar v(t) por un sistema con una EDS dada
por
d y(t)
+ 100y(t) = 100u(t)
dt
115
An cos(n t)
n=1
5.9.2 C
omo podra extenderse al intervalo [T, T ] de manera que su serie sea
de la forma:
X
y(t) =
Bn sen(n t) ?
n=1
y[t] = sen t
( 3
sen 3t
; t = 0, . . . , 3
y[t] =
y[t + 4] ; e.t.o.c.
(
t
; 6= 1, t = 0, . . . , N 1
y[t] =
y[t + N ] ; e.t.o.c.
y[t] = (1)t
1
y[t] = 1
y[t + 6]
y[t] = t
; t = 2, . . . , 0
; t = 1, . . . , 3
; e.t.o.c.
mod N
116
CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS
transformada de Fourier|textbf
Fourier
per
odo!infinito
aperi
odicas!se~
nales
transformada de Fourier
Captulo 6
An
alisis bajo excitaciones
arbitrarias. La
transformada de Fourier
6.1.
La limitaci
on de las series de Fourier
6.2.
La Transformaci
on de Fourier. El caso del
tiempo continuo
117
118CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
serie de Fourier
Figura 6.1: Se
nales arbitrarias
f (t) =
Cn ejn t
(6.1)
n=
En que:
1
Cn =
T
T /2
T /2
n = n0 = n
f (t)ejn t dt
(6.2)
2
T
(6.3)
La ecuacion (6.1) es la que describe la funcion f (t) dentro del intervalo [ T2 , T2 ] en terminos de las exponenciales periodicas que representan las
diferentes armonicas n . Recordemos que la ecuacion (6.3) explicita que las
armonicas no son nada mas que m
ultiplos de la frecuencia fundamental 0 = 2
T .
Ahora bien, cada uno de los coeficientes definidos por la ecuacion (6.2) define
a Cn como funcion de la frecuencia n , es decir:
Cn = Cn (n )
(6.4)
(6.5)
1 X
1 X
jn t
F (n )e
=
F (n )ejn t 0
f (t) =
T n=
2 n=
(6.6)
(6.7)
1 X
F (n )ejn t
2 n=
(6.8)
Esta u
ltima expresion corresponde a una suma de Riemann [11], la que,
llevada al lmite cuando el perodo T crece hasta infinito, equivale a 0,
con lo que la serie se transforma en una integral:
Z
1
f (t) =
F (j)ejt d
(6.9)
2
120CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
Transformada de Fourier
transformada de Fourier
transformada de
Fourier! inversa
funci
on! generalizada
delta de Dirac
El significado de esta u
ltima expresion es conceptualmente muy importante,
ya que nos indica que a medida que el perodo de una funcion periodica aumenta,
la distancia entre la lneas del espectro se reduce progresivamente, y en el
lmite, cuando la funcion tiene perodo infinito y 0, la representacion en
frecuencia de f (t) en vez de ser discreta, pasa a ser una representacion continua.
As, en lugar de quedar expresada como una suma de sinusoides de frecuencias
m
ultiplos de una fundamental 0 , queda representada por una integral en que
participa una funcion, F (j) definida para en toda la recta real.
Esta funcion F () es la transformada de Fourier de f (t) , y su expresion
se deduce utilizando (6.5), (6.4) y (6.2):
F () = T Cn =
T /2
f (t)ejn t dt
(6.10)
T /2
(6.11)
F {f (t)} = F ( ) =
F
f (t)e t dt
(6.12)
1
{F ( )} = f (t) =
2
F ( )e t d
(6.13)
{F (j2f )} =
F (j2f )ej2f t df
Maple
>
>
>
>
>
assume(T>0,A>0);
assume(0<tau,tau<T);
y(t,T) := A * ( Heaviside(t+tau/2) - Heaviside(t-tau/2) );
C(0,T):=1/T*int(y(t,T),t=-T/2..T/2);
C(n,T):=simplify(1/T*int(y(t,T)*exp(-I*2*Pi*n/T*t),
t=-T/2..T/2));
C0 =
Cn =
A
T
(6.16)
n
A sen T
n
T
T
n 6= 0
(6.17)
F ( ) =
y(t)e t dt =
/2
Ae t dt
/2
A
A
e t
= (e 2 e 2 )
/2
2A
=
sen
2
=
(6.18)
/2
(6.19)
(6.20)
122CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
espectro! continuo
sen
(6.21)
2n
T .
(6.22)
(6.23)
222
A pesar de su conexion, existen varias diferencias conceptuales entre la serie
de Fourier y la transformada de Fourier. La primera diferencia importante es
que el espectro de lnea que aparece asociado a la serie de Fourier, se convierte,
en el caso de la Transformada de Fourier, en un espectro definido para toda
frecuencia. En forma compacta nos referiremos a este u
ltimo como el espectro
continuo de la se
nal.
Una segunda diferencia es que la Serie de Fourier resulta descrita por un
conjunto de valores complejos asociados a un conjunto enumerable de frecuencias
(la frecuencia 0 y las frecuencias m
ultiplos de una frecuencia fundamental), esos
valores complejos determinan la amplitud y fase de las componentes armonicas.
Ese no es el caso de la Transformada de Fourier para se
nales de tiempo continuo,
ya que la transformada F ( ) es una medida de densidad o mas bien de
intensidad relativa (no absoluta) de la participacion de las distintas frecuencias
en la representacion de la funcion. Esta cantidad esta definida para todo el eje
de los reales, es decir, para todo , as, la presencia de una frecuencia 1 en una
se
nal f (t) esta dada por:
Y1 =
1+
F ( )e t d
(6.24)
F1
Parseval
Parseval
F3
f(x)
f (x)(x)Adx
(6.25)
6.2.1.
Los resultados deducidos por Parseval permiten tambien relacionar directamente las caractersticas de una se
nal cualquiera con su transformada de Fourier.
Los detalles matematicos pueden ser examinados en el Apendice C.
Si la se
nal (real) f (t) tiene energa finita en el intervalo (, ), y su
transformada de Fourier es F ( ) entonces, aplicando el Teorema C.1, se tiene
que:
Z
(f (t)) dt =
1
2
|F ( )|2 d =
|F ( )|2 d
(6.26)
124CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
respuesta en frecuencia
ancho de banda
e2at dt =
1
1
d =
2
+a
2a
(6.28)
6.2.2.
Aplicaci
on a sistemas lineales
(6.30)
(6.31)
luego:
Y ( ) =
bm ( )m + . . . + b0
B( )
U ( ) =
U ( )
n
( ) + . . . + a0
A( )
(6.32)
Y ( ) = H( )U ( )
(6.33)
(6.34)
B( )
bm ( )m + . . . + b0
=
e
A( )
( )n + . . . + a0
(6.35)
(6.37)
(6.38)
funci
on de transferencia
126CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
|H( )| = |H( )|
(6.39)
H( ) = H( ) (6.40)
vc (t)
i(t)
Figura 6.4: Circuito RC como sistema de primer orden.
Usando leyes de Kirchoff y la ecuaci
on para la corriente por el condensador,
podemos llegar a una EDS:
vR (t) + vC (t) = vf (t)
d vC (t)
+ vC (t) = vf (t)
RC
dt
1
1
d vC (t)
+
vC (t) =
vf (t)di(t)
dt
RC
RC
En estas ecuaciones se puede renombrar vc (t) = y(t) , vf (t) = u(t) ,
, con lo que la EDS resulta:
(6.41)
(6.42)
(6.43)
1
RC
d y(t)
+ y(t) = u(t)
; R+
(6.44)
dt
A continuaci
on calculamos la salida del sistema para diferentes funciones de
entrada u(t).
Si aplicamos transformaci
on de Fourier a (6.44) tenemos:
Maple
>with(inttrans) : assume(alpha>0) :
>eds:= diff(y(t),t)+alpha*y(t)=alpha*u(t) ;
>eq1:=fourier(u(t),t,w)=U(jw) :
>eq2:=fourier(y(t),t,w)=Y(jw) :
>subs({eq1,eq2},fourier(eds,t,w)) ;
>Y(jw):=solve(%,Y(jw));
Y ( ) + Y ( ) = U ( )
(6.45)
Y ( ) =
U ( )
(6.46)
+
Con esta expresi
on se puede obtener la salida del sistema para diferentes
agina 389.
casos, con ayuda de las tranformadas en la Tabla C.2 en la p
Entrada impulso unitario
En primer lugar, podemos calcular casi directamente la respuesta a impulso
del sistema, ya que si u(t) = (t), entonces U ( ) = 1 y, por tanto:
Maple
>U(jw)= fourier(Dirac(t),t,w) :
>H(jw)=subs(%,Y(jw));
U ( ) = 1
Y ( ) = H( ) =
h(t) = F 1
1
+
= et (t)
Entrada escal
on unitario
(6.47)
(6.48)
128CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
fracciones parciales
Maple
>U(jw)= fourier(Heaviside(t),t,w) :
>Y(jw)=subs(%,Y(jw));
1
U ( ) = () +
1
() +
Y ( ) =
+
(6.49)
(6.50)
() +
+
( + )
1
1
= () +
( + )
(6.51)
Y ( ) =
(6.52)
Maple
> y(t) = invfourier(Y(jw),w,t);
y(t) = F
1
() +
= (t) et (t)
1
( + )
(6.53)
(6.54)
(6.55)
2( o ) =
2( o )
+
o +
y(t) =
e o t = A(o )e o t+j(o )
o +
Y ( ) =
(6.56)
(6.57)
en que:
= p
A(o ) =
o +
o2 + 2
o
(o ) = arctan
(6.58)
(6.59)
6.2.3.
La funci
on de transferencia y la respuesta en frecuencia
La u
ltima parte del Ejemplo 6.4, en la seccion anterior, pone de manifiesto
la utilidad de conocer la transformada de Fourier de la respuesta a impulso de
un sistema, H( ). Observe que:
Y ( ) = H( )U ( )
(6.60)
= H( o )2( o )
(6.61)
(6.62)
(6.63)
(6.64)
modo forzante
130CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
En que
A(o ) = |H( o )|
(o ) = H( o )
(6.65)
(6.66)
(6.67)
(6.68)
= H( o )( o ) + H( o )( + o )
(6.69)
y(t) =
(6.70)
(6.71)
(6.72)
222
Ejemplo 6.5. Para el mismo sistema del Ejemplo 6.4, descrito por la ecuaci
on
diferencial:
d y(t)
+ y(t) = u(t)
dt
; R+
(6.73)
Determinemos la soluci
on si la se
nal de entrada es u(t) = cos(t).
Tal como se hizo antes, se aplica transformaci
on de Fourier sobre la EDS,
donde se ha reemplazado la entrada u(t) con lo que se obtiene la transformada
de Fourier de la salida:
Maple
> U(jw)= fourier(cos(t),t,w) : eq3 ;
simplify(subs(eq3,Y(jw)));
U ( ) = (( + 1) + ( 1))
Y ( ) =
(( + 1) + ( 1))
+
(6.74)
(6.75)
( + 1) +
( 1)
j +
j+
( j)
( + j)
( + 1) + 2
( 1)
=
2 + 1
+1
= Aej ( + 1) + Aej ( 1)
Y ( ) =
(6.76)
(6.77)
(6.78)
en que:
( + j)
=
A = 2
+1
2 + 1
( + j)
1
=
= arctan
2
+1
(6.79)
(6.80)
+1
(6.81)
cos t arctan
(6.82)
o
y(t) = p
(6.83)
cos t arctan
2 + o2
ngulo de desfase (o )
En la Figura 6.5 se muestra la magnitud A(o ) y a
de la salida cuando = 10.
222
El ejemplo anterior pone en evidencia que la salida que se obtiene a traves de
la transformada de Fourier corresponde a la parte estacionaria de la salida del
sistema, donde no aparecen modos naturales. Esto es coherente, ya que podemos
pensar una se
nal no causal como una que comenzo a actuar sobre el sistema en
t = , y, por ende, el efecto de las condiciones iniciales ha desaparecido. Sin
embargo, debemos observar que el desarrollo realizado es analogo cuando < 0.
Esto nos advierte que en el caso de sistemas inestables, es decir, con frecuencias naturales fuera del semiplano izquierdo (que es la zona de estabilidad para
sistemas de tiempo continuo), la salida obtenida mediante la transformacion de
132CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
0
0.8
()
A()
0.5
0.6
0.4
0.2
1.5
100
200
300
400
500
600
100
(a) Magnitud
200
300
400
500
600
(b) Angulo
Fourier resulta ser acotada, mientras que la salida verdadera del sistema crece
hasta infinito. Es decir, la solucion mediante Fourier para se
nales no causales
resulta ciega a la inestabilidad propia del sistema, pero nos permite obtener la componente particular de la se
nal de salida. Para ilustrar esto observe el
siguiente ejemplo, que solo tiene sentido si el sistema bajo analisis es estable.
Ejemplo 6.6. Consideremos el caso en que la entrada al sistema es u(t) =
cos(t)(t). En este caso, tenemos que la transformada de Fourier de la entrada
y de la salida al sistema son respectivamente
Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>Y(jw) = subs (%,Y(jw));
(( 1) + ( + 1)) +
2
2 + 1
Y ( ) =
(( 1) + ( + 1)) +
+ 2
2 + 1
U ( ) =
(6.84)
(6.85)
La salida Y ( ) puede simplificarse con las mismas consideraciones anteriores, es decir, evaluando los coeficientes que acompa
nan a los deltas de Dirac
en la frecuencia de interes, separando en fracciones parciales y agrupando convenientemente:
( 1) +
( + 1) +
j+ 2
j + 2
( + )( 2 + 1)
( + j)
( j)
( 1) +
( + 1)
=
2
+1 2
j + 2
( + 1))
2
1
+ 2
( + 1)( 2 + 1) 2 + 1 +
2
j
= 2
( + 1) + ( 1) + 2
( + 1) ( 1)
+1 2
+1 2
1
2
2
1
+ 2
+
( + 1) ( 2 + 1) (2 + 1) ( 2 + 1) 2 + 1 +
Y ( ) =
1
(
+
1)
+
(
1)
+
F
2 + 1
2
( 2 + 1)
1
j
( + 1) ( 1) +
+ F 1
2
( 2 + 1)
1
F 1
+
cos(t)(t) + sen(t)(t) et (t)
y(t) = 2
+1
y(t) =
En Maple los c
alculos se pueden hacer mucho m
as r
apido, y, dado que en la
transformaci
on inversa aparecen exponenciales complejas, se utiliza la funci
on
evalc, que permite expandir estas mediante la relaci
on de Euler, 1 :
Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>subs(%,Y(jw));
>y(t) = simplify( evalc( invfourier(%,w,t) ) );
222
6.2.4.
Filtraje
Una generalizacion de los resultados precedentes se puede extraer examinando la naturaleza de la funcion de transferencia y la forma en que evolucionan
1 ej
= cos() + j sen()
134CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
espectro
respuesta en frecuencia
sistema! estable
|H(j)|
Pasa bajos
(6.86)
Pasa altos
(6.87)
Si a ambos sistemas se aplica una secuencia de escalones, se obtiene el resultado de la Figura 6.7. En esta, se observa que la respuesta del filtro pasa
Respuesta a escaln
y (t)
1.5
1
0.5
0
y (t)
0.5
1
0
10
15
Tiempo [s]
20
25
30
bajos, y1 (t), no puede seguir las transiciones de los escalones, pero alcanza el
nivel constante de la entrada sin error (dado que la ganancia a continua es
uno). Por su parte, la respuesta del filtro pasa altos, y2 (t), es capaz de replicar
instant
aneamente los cambios bruscos, sin embargo presenta respuesta nula una
vez que el escal
on alcanza un nivel constante (dado que la ganancia a continua
es cero).
222
La transicion entre una zona de paso y otra de rechazo (y viceversa) que
ocurre en |H( )| es siempre gradual. Una forma de cuantificar un lmite para
esa transicion es lo que se define como frecuencia de corte. Esta definicion,
aunque arbitraria es universalmente
aceptada. En la Figura 6.6, c es la fre
cuencia de corte si a = A/ 2.
Aparte del comportamiento pasa bajos y pasa altos podemos reconocer las
caractersticas pasa banda y elimina banda. Las caractersticas generales de
ambos sistemas aparecen reflejadas en los graficos de la Figura 6.8.
|H(j)|
|H(j)|
c1
c2
c1
c2
136CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
El sistema descrito por la caracterstica del lado izquierdo en la Figura 6.8
bloquea las frecuencias bajas y las fecuencias altas, en cambio, deja pasar un
rango de frecuencias intermedias. Por su parte, el sistema descrito por la caracterstica del lado derecho en la Figura 6.8, bloquea un rango intermedio de
frecuencias y deja pasar tanto las altas como las bajas frecuencias. El comportamiento de estos sistemas puede ser estudiado tambien usando una secuencia
de escalones. Para ilustrar las diferentes conductas desarrollamos un ejemplo.
Ejemplo 6.8. Considere los siguientes sistemas:
( + 1)2
( )2 + 1
H4 ( ) =
( + 1)2
H3 ( ) =
Pasa banda
(6.88)
Elimina banda
(6.89)
1.5
Respuesta a escaln
frecuencias de corte
y (t)
4
0.5
0
y3(t)
0.5
1
1.5
10
15
Time [s]
20
25
30
Figura 6.9: Respuesta a escalones de un sistema pasa banda y un sistema elimina banda.
6.2.5.
sistema! estable
(6.91)
y(t) = F
{Y ( )} = F
{H( )U ( )} = F
1
( + a)
(6.92)
As se obtiene:
Maple
>with(inttrans):
>assume(a>0);simplify(evalc((invfourier(1/(-w^2+I*a*w),w,t)));
y(t) =
(6.93)
138CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
dando origen a una respuesta no causal, ya que la funci
on signo (t) tiene valor
1, t < 0.
Para obtener la respuesta correcta, recordemos que la funci
on de transferencia H( ) es la transformada de Fourier de la respuesta del sistema a un
impulso unitario. Aplicando esta definici
on a nuestro sistema se llega a:
H( ) =
1
+ ()
(6.94)
Entonces
y(t) = F
1 eat (t)
1
+ () =
(t)
( + a)
a
a
(6.95)
(6.96)
(6.97)
Observamos que y(t) contiene dos modos naturales complejos, los que combinados generan una se
nal sinusoidal de frecuencia 2 [rad/s]. Esto implica que
Y ( ) debe incluir dos impulsos: ( 2) y ( + 2).
Cuando dividimos ambos lados de (6.97) por (( )2 + 4), estamos dividiendo
por cero cuando = 2, exactamente donde ocurren los impulsos. Esta divisi
on
llevara, err
oneamente, a que la funci
on de transferencia sera:
3
( )2 + 4
(6.98)
3
sen(2t)(t)
2
(6.99)
3
3
+ j (( + 2) ( 2))
( )2 + 4
2
(6.100)
222
6.3.
La Transformaci
on de Fourier. El caso de
tiempo discreto
y[t] =
N
1
X
Cn ejo nt ;
donde o =
n=0
Cn =
2
N
N 1
1 X
y[t]ejo nt
N t=0
(6.101)
y[t] =
=
N 1
1 X
Y (ejn )ejo nt
N n=0
N 1
1 X
Y (ejn )ejn t
2 n=0
(6.102)
(6.103)
140CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
transformada de Fourier! discreta
lmite cuando
transformada de Fourier! discreta inversa
N 1 =
lm N 1
(6.104)
(6.105)
1
2
Y (ej )ejt d
(6.106)
Cabe recordar que para el caso de las funciones de tiempo discreto existe
periodicidad en frecuencia, por tanto la funcion y[t] podra representarse empleando el intervalo [, ] o cualquier otro de longitud 2.
La ecuacion (6.106) nos dice que podemos representar la funcion de tiempo
discreto y[t] como una integral que involucra la funcion Y (ej ), que ahora presenta valores en forma continua en el intervalo [0, 2]. Veamos ahora cual es la
expresion que permite obtener esta funcion. A partir de la definicion hecha en
(6.101) tenemos:
Y (ejn ) = N Cn =
N
1
X
y[t]ejo nt =
t=0
N
1
X
y[t]ejn t
(6.107)
t=0
y[t]ejt
(6.108)
t=
Fd {y[t]} = Y (ej ) =
y[t]ejt
(6.109)
t=
1
Fd 1 Y (ej ) = y[t] =
2
Y (ej )ejt d
0
(6.110)
[t]ejt = K [0]ej0 = 1
(6.111)
t=
es decir, se obtiene un espectro plano, en analoga al caso del espectro del delta
de Dirac en tiempo continuo. En la Figura 6.10 se muestra el delta de Kronecker
y la transformada de Fourier calculada, que en este caso resulta tener s
olo parte
real.
2
1
1.5
0.6
Y(ej)
k[t]
0.8
0.4
0.2
1
0.5
0
0.2
5
0
t
222
Ejemplo 6.12. Consideremos ahora la se
nal exponencial:
y[t] = t [t]
|| < 1
(6.112)
t=
y[t]ejt =
t ejt =
t=0
(ej )t
(6.113)
t=0
La expresi
on para Y (ej ) resulta ser una serie geometrica convergente ya
j
que |e | < 1. Por tanto su suma es
Y (ej ) =
1
1 ej
(6.114)
142CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
1
1 cos() + j sen()
1
1
j
|Y (e )| = p
=p
2
2
(1 cos()) + ( sen())
1 2 cos() + 2
sen()
Y (ej ) = arctan
1 cos()
Y (ej ) =
(6.115)
(6.116)
(6.117)
6
1
5
4
0.6
|Y(ej)|
y[t]
0.8
0.4
3
2
0.2
0
0.2
2
4
t
10
Figura 6.11: Se
nal y[t] = (0,8)t [t] y la magnitud de Y (ej ).
En la Figura 6.11 se muestra la se
nal en tiempo discreto y la magnitud de
su transformada de Fourier discreta cuando = 0,8
222
Ejemplo 6.13. Consideremos ahora un pulso discreto definido seg
un
(
1 ; |t| 5
y[t] =
0 ; |t| > 5
(6.118)
5
X
ejt
(6.119)
t=5
5
X
cos(t)
(6.120)
t=1
Y (ej ) =
5
X
ejt = ej(5)
t=5
ej5 ej6
1 ej(11)
=
j
1e
1 ej
(6.121)
Esta expresi
on, a priori, no parece ser real, pero si se reescribe convenientemente tenemos que:
Y (e ) =
ej5 ej6 ej 2
(1 ej ) ej
ej
11
2
ej
ej ej
11
2
sen( 11
2 )
1
sen( 2 )
(6.122)
0.6
Y(e )
y[t]
0.8
0.4
0.2
5
0
0
0.2
10
0
t
10
Figura 6.12: Se
nal y[t] y su transformada discreta Y (ej ).
6.3.1.
Parseval y las se
nales aperi
odicas de tiempo discreto
144CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
concepto u
tiles, especialmente si la secuencia de tiempo discreto se origina en
el muestreo de una se
nal de tiempo continuo.
Para la se
nal real de tiempo discreto f [t] se define la energa como:
W =
(f [t])
(6.123)
t=
Si la se
nal f [t] tiene energa finita en el intervalo (, ), y su transformada
de Fourier es F (ej ) entonces, aplicando el Teorema C.2 en la pagina 386, se
tiene que:
t=
(f [t]) =
1
2
2
0
|F (ej )|2 d
(6.124)
6.3.2.
Aplicaci
on a sistemas lineales
(6.125)
(6.126)
Y (ej ) =
bm + bm1 ej + . . . + b1 ej(m1) + b0 ej
U (ej )
1 + an1 ej + . . . + a1 ej(n1) + a0 ejn
(6.127)
Justamente podemos apreciar que la funcion racional que aparece multiplicando la entrada depende solo del sistema, ya que solo depende de los coeficientes
de la ERS inicial. Con esta expresion podemos obtener la secuencia de salida
del sistema calculando la transformacion de Fourier inversa.
En particular, cuando la entrada es un delta de Kronecker en el origen:
u[t] = K [t]
U (ej ) = 1
(6.128)
Y (ej ) =
bm + bm1 ej + . . . + b1 ej(m1) + b0 ej
= H(ej )
1 + an1 ej + . . . + a1 ej(n1) + a0 ejn
(6.129)
(6.130)
Esta ecuacion, corresponde, en el dominio de tiempo discreto, a la convolucion de las secuencias temporales:
y[t] = h[t] u[t] =
l=
u[l]h[t l]
(6.131)
en que, tal como se vio al final del Captulo 4, la secuencia h[t] es la respuesta
del sistema al delta Kronecker.
(6.132)
Si aplicamos transformaci
on de Fourier discreta tenemos que:
Y (ej ) 1,6ej Y (ej ) + 0,63ej2 Y (ej ) = U (ej )
j
Y (e )(1 0,9e
)(1 0,7e
) = U (e )
(6.133)
(6.134)
As la funci
on de transferencia est
a dada por:
H(ej ) =
1
(1 0,9ej )(1 0,7ej )
(6.135)
146CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
fracciones parciales
(1
U (ej )
0,7ej )
0,9ej )(1
(6.136)
Analizaremos a continuaci
on el comportamiento del sistema para distintas
excitaciones.
Entrada delta de Kronecker
En este caso:
U (ej ) = 1
Y (ej ) =
1
(1 0,9ej )(1 0,7ej )
(6.137)
3,5
4,5
j
1 0,9e
1 0,7ej
(6.138)
(6.139)
X
1
U (e ) =
+
( + 2`)
1 ej
j
(6.140)
`=
1
Y (e ) =
(1 0,9ej )(1 0,7ej )
j
X
1
+
( + 2`)
1 ej
`=
(6.141)
La expresi
on de la tranformada de Fourier de la secuencia de salida puede
simplificarse separando en fracciones parciales y considerando el valor del termino que acompa
na a la sumatoria de deltas de Dirac s
olo en las frecuencias en
que estos son distintos de cero, es decir, en = 2`. Sin embargo, notamos que:
De esta forma:
100
;
H(ej )=2` = H(1) =
3
` Z
(6.142)
Y (ej ) =
1
(1 0,9ej )(1 0,7ej )(1 ej )
X
1
( + 2`)
+
(1 0,9ej0 )(1 0,7ej0 )
(6.143)
`=
100
40,5
8,17
100 X
3
( + 2`)
+
+
+
1 0,9ej
1 0,7ej
1 ej
3
`=
(6.144)
y[t] = Fd
40,5
1 0,9ej
+ Fd
8,17
1 0,7ej
+ Fd
100
3
ej
100
+
()
3
(6.145)
2.5
(6.146)
35
30
2
25
1.5
20
15
10
0.5
5
10
15
20
25
k
30
35
40
45
50
10
15
20
25
k
30
35
40
45
50
`=
( o + 2`)
(6.147)
148CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
Y (e ) = H(e )U (e ) = H(e )
`=
( o + 2`)
= 2H(ejo )
`=
( o + 2`)
(6.148)
` Z
(6.149)
(6.150)
222
6.3.3.
La funci
on de transferencia y la respuesta en frecuencia
(6.151)
en que:
A(o ) = H(ejo )
(o ) = H(e
jo
(6.152)
(6.153)
(6.154)
jo
)( o ) + H(e
jo
(6.155)
)( + o )
(6.156)
y[t] =
(6.157)
(6.158)
(6.159)
222
6.3.4.
Filtraje
|F(ej)|
0.8
0.6
0.4
0.2
0
10
0
Frecuencia
10
frecuencia! de corte
pasa bajos
pasa altos
pasa banda
elimina banda
150CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
sistema!estable
6.3.5.
(6.160)
ej
1 ej
(6.161)
ej
(ej 1)(ej a)
(6.162)
j
ej
1
e
1
H(ej ) =
X
ej
+
( 2`)
ej 1
(6.164)
`=
j
j
X
1
e
e
Y (ej ) =
+
( 2`)
1 a ej 1 ej a
(6.165)
`=
1
1 at
1
y[t] = Fd
+ () =
[t]
( + a)
a
1a
(6.166)
222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales sobre la circunferencia unitaria, los modos naturales asociados no decaen, y la transformada de Fourier de cada uno de ellos solo existe
en el lmite. Esta condicion es acusada por la presencia de deltas de Dirac en
el dominio de la frecuencia . As, la funcion de transferencia es una funcion
racional mas uno o varios deltas de Dirac en .
La explicacion de esta situacion es analoga a la del caso continuo.
152CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
6.4.
Problema 6.1. Determine la transformada de Fourier de las siguientes funciones, ya sea mediante la defici
on o usando tablas y transformadas conocidas
(ver Apendice C):
1.
2.
y(t) = (1 2e|t| )2
3.
1
2
y(t) = e
2
!2
;T > 0
(Recuerde que
4t(t + 1)
y(t) = 4t(t 1)
eu du =
; 1 < t < 0
;0 < t < 1
; |t| 1
f (t) =
en que:
A() =
B() =
f (t) cos(t)dt
f (t) sen(t)dt
C
omo se reducen las expresiones si f (t) es par o impar?
Problema 6.4. Usando la ecuaci
on de Euler para exponenciales complejas:
153
2t + 3 t
[t]
6t
154CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
Problema 6.8. Considere un pulso de tiempo discreto de amplitud A > 0 y
centrado en t = 0, definido por:
(
A ; |t| N
y[t] =
N Z+
0 : |t| > N
6.8.1 Grafique el pulso en tiempo discreto para algunos valores de A y N .
6.8.2 Determine la transformada de Fourier discreta de y[t] ( Sugerencia : use
la ecuaci
on B.2.35).
6.8.3 Grafique la transformada de Fourier discreta para distintos valores de N .
6.8.4 Determine el valor de Y (ej0 ) en funci
on de N .
6.8.5 Analice que sucede para valores extremos de N , es decir, cuando N = 0
y cuando N .
Problema 6.9. Determine la respuesta a un delta de Kronecker y a un escal
on
unitario de los sistemas de tiempo discreto dados por sus ERS:
6.9.1 y[t] y[t 1] = 2u[t 7];
y[1] = 1
y[1] = 1; y[2] = 1
Laplace
transformada de
Laplace|textbf
sistema!din
amico
sistema!estable
sistema!inestable
se~
nal!no acotada
se~
nal! de tiempo continuo
Captulo 7
An
alisis bajo excitaciones
arbitrarias. La
transformada de Laplace
Entre los metodos disponibles para el estudio de los sistemas dinamicos,
lineales y de tiempo continuo, uno en particular resulta ser especialmente u
til:
la transformada de Laplace. Las principales ventajas de este metodo se pueden
resumir en lo siguiente:
Permite el analisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de se
nales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La EDS es transformada en una ecuacion algebraica, que puede ser manejada de manera mas simple.
7.1.
Definici
on de la transformada
Considere una se
nal de tiempo continuo y(t), definida para 0 t < .
La transformada de Laplace asociada a y(t), y su transformada inversa estan
definidas como:
L {y(t)} = Y (s) =
L1 {Y (s)} = y(t) =
1
2j
155
est y(t)dt
(7.1)
+j
est Y (s)ds
j
(7.2)
156CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
transformada de Laplace!definici
on Y (s) es la transformada de Laplace de y(t). El par transformada y su transtransformada de
formada inversa estan estan bien definidas si existe R, y una constante
Laplace!inversa
transformada de
positiva k < tales que:
Laplace!regi
on de convergencia
fracciones parciales
|y(t)| < ket ; t 0
(7.3)
funci
on de transferencia
ecuaci
on diferencial! del
La region <{s} se conoce como la regi
on de convergencia de la
sistema
EDS
transformada.
7.2.
Aplicaci
on a sistemas lineales: la funci
on de
transferencia
(7.4)
L
=
s
Y
(s)
s
y(0
)
(7.5)
dt `
dt n1
Por tanto, si aplicamos esto a la EDS (7.4) tenemos que:
sn Y (s) + an1 sn1 Y (s) + . . . + a0 Y (s)
= bm sm U (s) + . . . + b0 U (s) + f (s, xo )
(7.6)
f (s, x0 ) = p(s) x0
(7.7)
(7.8)
B(s)
A(s)
(7.9)
que se forma con los polinomios que contienen los coeficientes de la ecuacion
(7.4) original:
A(s) = sn + an1 sn1 + . . . + a0
m
B(s) = bm s + bm1 s
m1
+ . . . + b0
(7.10)
(7.11)
s2
1
+ 2s
(7.12)
(7.13)
222
condiciones iniciales
funci
on de transferencia
funci
on!racional
funci
on de
transferencia!ceros
ceros
158CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
funci
on de transferencia!polos (ii) Las n races de la ecuaci
on A(s) = 0 son los polos del sistema. Ellos hacen
polos
adem
a
s
que
H(s)
.
funci
on de
transferencia!multiplicidad
multiplicidad
(iii) Si A(s) = 0 tiene nk races en s = k , decimos que el polo k tiene
funci
on de
multiplicidad nk .
transferencia!grado relativo
grado relativo
(iv) Lapropia
diferencia de grado entre A(s) y B(s), es decir, m n se denomina el
funci
on de transferencia!estrictamente
funci
on de
grado relativo del sistema.
transferencia!bipropia
funci
on de transferencia!propia
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica
funci
on de
transferencia!impropia
que el grado relativo del sistema es positivo.
sistema! estable
entrada
(vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
salida
relativo del sistema es cero.
respuesta! a
impulso
impulso! respuesta a
(viii) Si m > n decimos que el modelo es impropio, o que tiene grado relativo
negativo.
Estas definiciones nos ayudaran a apreciar la forma en que se relaciona la
salida de un sistema con su entrada, tal como pone en evidencia la definicion
(7.9), pero la simplicidad reside en que la relacion se establece mediante la
funcion racional H(s), es decir, las derivadas han desaparecido. Si bien para
llegar a esta relacion las condiciones iniciales se han supuesto cero, sabemos que
en caso de sistemas estables, el efecto de estas desaparece despues de un tiempo.
(7.14)
h(t) = L1 {H(s)}
(7.15)
En que:
H(s) =
B(s) s
e
A(s)
(7.16)
Matlab
>> A=[1 3 2],B=[1 1]
A =
1
B =
>> H=tf(B,A)
Transfer function:
s + 1
------------s^2 + 3 s + 2
funci
on de transferencia!con
retardo
funci
on!racional
retardo
160CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
delta de Dirac! en
frecuencia
Matlab
>> s=tf([1 0],[1])
Transfer function:
s
>> H=(s+1)/(s^2+2*s+1)
Transfer function:
s + 1
------------s^2 + 2 s + 1
7.2.1.
Funci
on de transferencia en dominios de Laplace y
Fourier
Cuando el sistema tiene frecuencias naturales en el SPI cerrado, con la restriccion que aquellas frecuencias en el eje imaginario sean simples, las funciones
de transferencia en ambos dominios existen. El elemento com
un es conceptual:
en ambos casos, la funci
on de transferencia corresponde a la respectiva transformada de la respuesta a impulso con condiciones iniciales
iguales a cero.
La definicion y la estructura de H(s) parecen ser identicas a la definicion y la
estructura de la funcion de transferencia en el dominio de Fourier, bastando hacer una simple sustitucion de s por . Sin embargo, esto no siempre es correcto.
La diferencia es que cuando el sistema tiene frecuencias naturales (simples) en
el eje imaginario, la funcion de transferencia en Fourier incluye deltas de Dirac
en frecuencia. Esto se origina en el hecho que la respuesta a impulso del sistema
contiene modos naturales que no decaen y para los cuales la transformada de
Fourier existe solo en el lmite. En cambio, para el mismo sistema, la funcion de
transferencia en Laplace no contiene impulsos en frecuencia, debido a que esta
transformada esta bien definida, bastando escoger <{s} > 0.
Ejemplo 7.2. Consideremos el sistema con la EDS:
d y(t)
d 2 y(t)
+ a1
+ y(t) = u(t)
dt 2
dt
(7.17)
donde a1 0.
La funci
on de transferencia, en el dominio de Laplace, es:
HL (s) =
1
;
s2 + a 1 s + 1
<{s} > 0
(7.18)
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALON.
161
1
( )2 + a1 + 1
(7.19)
En este caso:
HF ( ) = HL (s)|s=
(7.20)
(ii) Caso a1 = 0 :
En este caso, las frecuencias naturales est
an sobre el eje imaginario y los
modos naturales combinados corresponden a una sinusoide. M
as especficamente, la respuesta a impulso, con condiciones iniciales iguales a cero
es:
h(t) = sen(t)(t)
(7.21)
1
j
(( + 1) ( 1)) +
2
( )2 + 1
(7.22)
7.3.
impulso!respuesta a
escal
on!respuesta a
respuesta!a impulso
respuesta!a escal
on
modos!naturales
162CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
valor final
se
nal de entrada (caractersticas del transiente, velocidad de respuesta, etc.), a
partir del analisis de la funcion H(s).
Debido a la idealizacion implcita en la definicion de un impulso es mucho
mas frecuente estudiar la dinamica natural de un sistema con la ayuda de la
respuesta a escalon, es decir, cuando U (s) = 1/s.
on unitario
La definicion (7.9) nos permite expresar la respuesta a escal
del sistema como:
Y (s) = H(s)
1
s
(7.23)
(7.24)
donde y = H(0), en virtud del Teorema del Valor Final (ver Teorema D.1 en
la pagina 410). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario esta dada por la constante y . Note que si H(s) tiene uno o mas
ceros en s = 0, entonces y = 0.
Ejemplo 7.3. Consideremos el sistema definido por su EDS:
d y(t)
d 2 y(t)
+5
+ 4y(t) = 2u(t)
dt 2
dt
(7.25)
(7.26)
Y (s)
2
= 2
U (s)
s + 5s + 4
(7.27)
La respuesta del sistema cuando u(t) es un Delta de Dirac se obtiene directamente de H(s)
U (s) = L {(t)} = 1
Y (s) = H(s) =
s2
2
+ 5s + 4
(7.28)
Donde podemos aplicar transformada inversa separando en fracciones parciales1 , o bien con ayuda de Maple :
1 Este
m
etodo se detalla en el Ap
endice D.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALON.
163
Maple
>with(inttrans):
>U(s):=laplace(Dirac(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>Y(s):=convert(Y(s),parfrac,s);
>y(t):=invlaplace(Y(s),s,t);
U (s) = 1
2
s2 + 5s + 4
1
2
1
+
Y (s) =
3 s+1 s+4
2
2
y(t) = et e4t
3
3
Y (s) =
(7.29)
(7.30)
(7.31)
(7.32)
La respuesta a escal
on unitario se puede obtener de manera similar
1
2
1
Y (s) = 2
s
s + 5s + 4 s
Donde se aplica transformada inversa:
U (s) = L {(t)} =
(7.33)
Maple
>with(inttrans):
>U(s):=laplace(Heaviside(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>y(t):=invlaplace(Y(s),s,t);
U (s) =
1
s
2
s(s + 1)(s + 4)
1 2
1
y(t) = et + e4t
2 3
6
Y (s) =
(7.34)
(7.35)
(7.36)
164CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
Matlab
>>G=tf([2],[1 5 4]);
>>subplot(2,1,1),impulse(G);
>>subplot(2,1,2),step(G);
Impulse Response
0.4
Amplitude
0.3
0.2
0.1
0
Time (sec.)
Step Response
0.5
Amplitude
0.4
0.3
0.2
0.1
0
3
Time (sec.)
222
Es u
til definir tambien un conjunto de parametros que describen ciertas
propiedades de la dinamica del sistema. Para identificar estos parametros a
definir consideremos la funcion de transferencia dada por:
G(s) = 9
s + 1
s2 + 4s + 9
(7.37)
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALON.
165
y +M
y
k y
r
y+
Mu
tu
tr
tp
Tiempo
ts
Tiempo de Subida (Rise time), tr : el instante de tiempo en que la respuesta a escalon alcanza por primera vez el valor de la respuesta estacionaria y .2
Sobre-respuesta (Overshoot), Mp : el valor maximo que alcanza la respuesta a escalon, usualmente expresado como el porcentaje en que se sobrepasa
la respuesta estacionaria y .
M
axima contra-respuesta (Undershoot), Mu : el maximo (en valor absoluto) que la respuesta a escalon alcanza bajo el cero.
Tiempo de asentamiento (Settling time), ts : el tiempo luego del cual la
respuesta a escalon queda confinada a una banda de desviacion , alrededor del respuesta estacionaria. Esta deviacion, , se define generalmente
como un porcentaje de y , del 2 % o 5 %.
Para el ejemplo en particular, definido en la ecuacion (7.37) y cuya respuesta
a escalon se muestra en la Figura 7.2, el valor de los ndices definidos se muestran
en la Tabla 7.1.3
2 Esta definici
on vara de autor a autor, por tanto debe tenerse claro de qu
e se est
a hablando
al utilizarla.
3 Note que para este ejemplo en particular, hemos elegido un valor inusualmente grande
para , para una mejor visualizaci
on.
166CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
Indice
y
tr
Mp
Mu
ts
Definicion
respuesta estacionaria
tiempo de subida
sobre-respuesta
max. contra-respuesta
tiempo de asentamiento
Valor en el ejemplo
1
1.0
0.5
1.5
1.8
7.4.
(7.38)
Y (s)(s + s + 1) = s + 2
s+2
Y (s) = 2
s +s+1
(7.39)
(7.40)
(7.41)
(7.42)
7.4. RESPUESTA A CONDICIONES INICIALES Y SENALES
ARBITRARIAS.167
Y (s) =
=
s+2
(s + 12 )2 +
3
4
s + 12
(s + 12 )2 +
3
4
(7.43)
+
(s +
3
2
1 2
2)
(7.44)
3
4
(7.45)
y(t)
0.5
5
t [seg]
10
(7.46)
(7.47)
168CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
R
valor inicial
+
vf (t)
vc (t)
i(t)
Figura 7.4: Circuito RC
d i(t)
1
d (t)
=R
+ i(t)
dt
dt
C
1
1
s = R sI(s) i(0 ) + I(s)
s
C
(7.48)
(7.49)
Despejando se obtiene:
C
(7.50)
s RC + 1
Si aplicamos el Teorema del Valor Inicial (vea Apendice D), tenemos que:
I(s) =
sC
1
=
(7.51)
s RC + 1
R
Evidentemente esta es diferente a la corriente inicial, dada en t = 0 . Esto
se comprueba observando que la transformada inversa de I(s) es discontinua en
t = 0:
1/R
1
(7.52)
i(t) = L1 {I(s)} = L1
= et/RC (t)
s + 1/RC
R
222
Consideremos ahora el caso en que la entrada es una se
nal arbitraria.
i(0+ ) = lm sI(s) = lm
s
Ejemplo 7.6. Consideremos el mismo sistema del Ejemplo 7.5, pero en que
ahora la entrada es un pulso definido como:
(
1 ; 0 t 10
(7.53)
u(t) =
0 ; t > 10
Las condiciones iniciales son iguales a cero, por simplicidad. Note que no
habra problemas en considerar el efecto de estas, ya sea incluyendolas en el
desarrollo mediante transformada de Laplace, o bien, dada la linealidad del sistema, se calculando su efecto en la salida por separado y sumandolo al efecto de
la se
nal de entrada.
La funci
on de transferencia del sistema, si se aplica transforma de Laplace,
es:
7.4. RESPUESTA A CONDICIONES INICIALES Y SENALES
ARBITRARIAS.169
H(s) =
Y (s)
1
= 2
U (s)
s +s+1
(7.54)
Por tanto:
U (s) =
1
1
e10s
s
s
(7.55)
3
1
2
3
3 (s + 12 )2 + 43
4
(7.57)
Donde se observa que tenemos la forma de la transformada de un escal
on,
del seno y del coseno, estas u
ltimas con un corrimiento en la variable s. Este
corrimiento en s corresponde a una exponencial en el tiempo (Apendice D), por
lo tanto:
1
21 t
3
f (t) = 1 e
cos 2 t +
sen 23 t
(t)
(7.58)
3
Luego la salida es:
s + 12
1
s+1
1
1
F (s) =
=
s(s2 + s + 1)
s s2 + s + 1
s (s + 12 )2 +
Es decir:
y(t) = L1 (1 e10s )F (s) = f (t) f (t 10)
(7.59)
1
1
y(t) = 1 e 2 t cos 23 t + sen 23 t
(t)
3
1
1
1 e 2 (t10) cos 23 (t 10) + sen 23 (t 10)
(t 10)
3
(7.60)
En la Figura 7.5 se muestra el pulso de entrada u(t) y la salida del sistema,
y(t), ante esta excitaci
on.
170CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
1.5
u(t) y(t)
1
0.5
0
0.5
10
t [seg]
12
14
16
18
20
Figura 7.5: Pulso de entrada y respuesta del sistema del ejemplo 7.6.
(7.61)
(7.62)
Con esto y con ayuda de Maple podemos llegar de manera directa a una
expresi
on para la transformada de Laplace de la salida y aplicarle transformaci
on
inversa:
Maple
>with(inttrans):
>assume(omega>0):
>U(s):=laplace(cos(omega*t),t,s);
>H(s):=1/(s^2+s+1);
>Y(s):=H(s)*U(s);
>y(t):=invlaplace(Y(s),s,t);
7.5. ESTABILIDAD
171
s
(7.63)
s2 + 2
1
H(s) = 2
(7.64)
s +s+1
1
s
2
(7.65)
Y (s) = 2
2
s + s +s+1
1 2
cos(t) +
sen(t) + {modos naturales}
y(t) =
2
+ 1 + 4
2 + 1 + 4
(7.66)
U (s) =
Los modos naturales del sistema decaen a cero cuando t , por tanto
podemos concentrarnos s
olo en la componente particular de la salida. Las componentes seno y coseno pueden combinarse en un solo termino:
y(t) = A() cos (t + ()) + {modos naturales}
(7.67)
() = arctan
1 2
A() =
(7.68)
(7.69)
Matlab
>>H=tf(1,[1 1 1]); w=[0:0.01:5];
>>h=freqresp(H,w);hw=h(:);
>>subplot(2,1,1);plot(w, abs(hw));
>>subplot(2,1,2);plot(w, unwrap(angle(hw))*180/pi);
222
7.5.
Estabilidad
Hasta aqu hemos visto que la respuesta de un sistema que tiene una funcion
de transferencia H(s) es de la forma:
respuesta en frecuencia
estabilidad
172CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
multiplicidad! polos
l
mite de estabilidad
SPI
1.4
1.2
Magnitud
1
0.8
0.6
0.4
0.2
0
0.5
1.5
0.5
1.5
2.5
3.5
4.5
2.5
3
Frecuencia [rad/s]
3.5
4.5
Fase
50
100
150
200
p X
nk
X
k=1 i=1
ki
(s k )i
(7.70)
7.5. ESTABILIDAD
173
7.5.1.
An
alisis de polinomios
La discusion anterior pone de manifiesto la importancia de conocer la ubicacion de los polos de un sistema, para establecer si se trata o no de un sistema estable. Sin embargo, el determinar la ubicacion exacta de las races de la
ecuacion:
A(s) = sn + an1 sn1 + . . . + a0 = 0
(7.71)
puede ser una tarea bastante engorrosa cuando n 3. Por esto en el analisis del
polinomio A(s), mas que determinar exactamente sus races, lo que nos interesa
es poder asegurar si estas tienen o no parte real estrictamente negativa. Para
esto, consideremos el polinomio p(s) definido como:
p(s) = sn + an1 sn1 + . . . + a1 s + a0
(7.72)
donde ai R.
El problema a estudiar se refiere a determinar si este polinomio tiene o no
todas sus races con parte real estrictamente negativa, o de manera equivalente,
si tiene o no races con parte real mayor o igual que cero. La idea puede naturalmente ser resuelta calculando las n races de p(s). Sin embargo en muchas
aplicaciones resulta de especial interes estudiar la relacion entre los coeficientes
del polinomio con la ubicacion de sus races.
Los polinomios que tienen todas sus races en el semiplano izquierdo cerrado
se conocen como polinomios Hurwitz. Si sus races tienen parte real estrictamente negativa, es decir, se ubican sobre el SPI abierto, los denominaremos
estrictamente Hurwitz .
De la ecuacion (7.72) podemos observar interesantes propiedades que por
supuesto son validas para los polinomios en general. Las que nos interesan en
este caso son aquellas que nos entregan informacion sobre el signo de la parte
real de las races, como las que se detallan a continuacion:
Propiedad 1 El coeficiente an1 cumple con:
an1 =
n
X
(7.73)
i=1
n
Y
i=1
(s i )
(7.74)
Hurwitz!polinomio
174CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
entonces, al expandir el producto (7.74) y observar el coeficiente que acompa
na a la potencia (n 1)-esima de s, se obtiene (7.73).
Propiedad 2 El coeficiente a0 cumple con:
a0 = (1)n
n
Y
(7.75)
i=1
Esta propiedad tambien se obtiene de expandir el producto (7.74) y observando el termino constante.
Propiedad 3 Si todas las races de p(s) tienen parte real negativa, entonces es
necesario que ai > 0, i {0, 1, . . . , n 1}.
Para demostrar esta propiedad procedemos de la siguiente forma:
i = 1, 2, . . . , n1
n1 +i = n1 +n2 +i = |i | + ji
(7.76)
i = 1, 2, . . . , n2
(7.77)
n1
Y
i=1
(s + |i |)
n2
Y
l=1
(s + |l |)2 + l2
(7.78)
7.5. ESTABILIDAD
175
Ademas de los criterios que nos entregan las propiedades anteriores, uno de
los metodos clasicos para determinar la naturaleza Hurwitz de un polinomio es
el algoritmo de Routh, tambien conocido como algoritmo o criterio de RouthHurwitz, que a continuacion se explica.
Consideremos un polinomio p(s) de grado n, definido como
p(s) =
n
X
ai s i
(7.79)
i=0
sn
sn1
sn2
sn3
sn4
..
.
s2
s1
s0
0,1
1,1
2,1
3,1
4,1
..
.
0,2
1,2
2,2
3,2
4,2
..
.
n2,1
n1,1
n,1
n2,2
0,3
1,3
2,3
3,3
4,,3
..
.
0,4
1,4
2,4
3,4
4,4
..
.
...
...
...
...
...
0,i = an+22i ;
i = 1, 2, . . . , m0
(7.80)
1,i = an+12i ;
i = 1, 2, . . . , m1
(7.81)
k,j =
k = 2, . . . , n
j = 1, 2, . . . , mj
(7.82)
donde mj = max{mj1 , mj2 } 1, mientras que se asigna valor cero al coeficiente k1,j+1 , cuando no esta definido en el arreglo de Routh 7.2.
Una vez construdo el arreglo de Routh podemos aplicar el siguiente resultado:
Routh!algoritmo
176CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
(7.83)
Su funci
on de transferencia est
a dada por:
H(s) =
1
Y (s)
= 3
2
U (s)
s + s + 2s + 3
(7.84)
Por tanto, para la estabilidad debemos analizar las races del polinomio denominador:
p(s) = s3 + s2 + 2s + 3
(7.85)
23
1
1
1
= 1
3
2
3
0
0
Matlab
>> roots([1 1 2 3])
ans =
0.1378 + 1.5273i
0.1378 - 1.5273i
-1.2757
222
7.6.
177
A continuacion examinaremos algunas propiedades fundamentales de los polos y ceros de la funcion de transferencia de un sistema, y su influencia sobre
las caractersticas de la respuesta de un sistema lineal.
Consideremos una funcion de transferencia de la forma general:
Qm
(s i )
H(s) = K Qni=1
(s
l )
l=1
(7.86)
7.6.1.
Polos
funci
on de transferencia!grado relati
fase m
nima
ceros!fase no m
nima
funci
on de transferencia! estable
polos
fracciones parciales
178CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
polos!r
apidos
polos!dominantes
polos!lentos
Un polo de primer orden contribuye a la descomposicion en fracciones parciales, en general, con un termino de la forma:
K1
(7.87)
1 s + 1
Mientras que un polo de segundo orden contribuye a la expansion con un
termino:
H1 (s) =
H2 (s) =
K2
(7.88)
s
s
+1
+ 2
n
n
Cada polo genera un termino especfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos estan presentes tambien en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicacion de este sobre el plano complejo s , exactamente equivalente a la
ubicacion de cada frecuencia natural sobre un plano complejo, como se vio en el
Captulo 3 3. Para ilustrar esto podemos apreciar en la Figura 7.7 las diferentes
respuestas a impulso de un sistema que tiene por funcion de transferencia:
H1 (s) =
2
1
sp
(7.89)
1
s (a + bj) s (a bj)
(7.90)
179
p2
p1
p0
p3
p4
180CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
ceros
controlabilidad
observabilidad
7.6.2.
Ceros
K
s+1
U (s)
Y (s)
K
s+2
on de
Ejemplo 7.10. Consideremos el sistema de la Figura 7.8, cuya funci
transferencia sistema esta dada por:
K
K
+
U (s)
s+1 s+2
(1 + )s + (2 + )
G(s) = K
(s + 1)(s + 2)
Y (s) =
(7.91)
(7.92)
181
(7.93)
(s + 1,909)
(s + 1)(s + 2)
(7.94)
(7.95)
K
(s + 1)
(7.96)
s + c
c(s + 1)(0,5s + 1)
(7.97)
cancelaci
on!cuasiceros!r
apidos
ceros!lentos
182CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
undershoot
contrarespuesta
respuesta!inversa
6
c=0.1
4
c=0.25
Respuesta
2
c=10
c=10
c=0.25
c=0.1
4
6
0.5
1.5
2.5
Tiempo [s]
3.5
4.5
Algo an
alogo sucede para el segundo modo a medida que c se acerca a 2. Esta
situaci
on de cuasi cancelaciones tambien fue mencionada en el ejemplo anterior
La situaci
on m
as general se aprecia en la figura 7.9. En esta, se indica el
valos de c al lado de cada una de las respuestas graficadas. Podemos apreciar que
un cero r
apido, i.e. |c| 1, no afecta significativamente la respuesta transiente.
Cuando el cero es lento y estable obtenemos un gran overshoot, mientras que
cuando es lento, pero inestable, el undershoot es el que crece en magnitud. El
efecto de los ceros puede parecer demasiado crtico en este ejemplo, en que ambos
superan el 400 %, sin embargo, el lector puede verificar que puede ser a
un mayor
si el cero es m
as cercano el origen.
222
7.6.3.
La Figura 7.2 en la pagina 165 sugiere que existen casos en los que, en la
presencia de una excitacion mayor que cero, la respuesta del sistema se hace
negativa durante alg
un lapso de tiempo no despreciable. Este comportamiento
tambien aparece en la Figura 7.9. Un resultado muy fuerte es el siguiente.
Lema 7.1. Considere un sistema lineal estable con funci
on de transferencia
H(s), y con un cero real en s = c, donde c > 0, entonces la respuesta a un
escal
on positivo se hace negativa durante uno o m
as lapsos no despreciables.
Demostraci
on
La respuesta del sistema est
a dada por:
Y (s) = H(s)
Entonces:
K
s
K>0
(7.98)
Z
K
=
y(t)est dt;
<{s} > 0
(7.99)
s
0
Note que la regi
on de convergencia queda determinada, por un lado, por el
hecho que el sistema es estable, por lo cual la transformada de h(t) est
a bien
H(s)
183
definida para <{s} 0 y, por otro lado, por el hecho que la respuesta a un
escal
on est
a bien definida para <{s} > 0. En consecuencia, la regi
on de convergencia para y(t) es <{s} > 0.
Si ahora, en la ecuaci
on (7.99), hacemos s = c (note que, por ser c > 0,
est
a en la regi
on de convergencia) obtenemos, aplicando el hecho que H(c) = 0:
Z
K
y(t)ect dt = 0
(7.100)
H(c) =
c
0
Como la integral es cero, y ect > 0, t, necesariamente y(t) debe ser negativa en uno o m
as intervalos de tiempo.
222
El lema precedente justifica y asegura la presencia de undershoots, como el
sugerido en la Figura 7.2 en la pagina 165. Sin embargo, este comportamiento
inverso se puede manifestar en diferentes formas, tal como ilustra la Figura 7.10.
Respuesta a escaln
Respuesta a escaln
1.5
1
0.5
0.5
10
0
0.5
1
1.5
2
15
Tiempo [s]
1
0.5
Tiempo [s]
7.6.4.
Sistema can
onico de segundo orden
n2
s2 + 2n s + n2
(7.101)
1 + 2
(7.102)
factor de amortiguamiento
frecuencia natural!no
amortiguada
frecuencia natural!amortiguada
184CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
s1,2 = n jd = n ej()
(7.103)
n2
n2
=
(s2 + 2n s + n2 )s
[(s + n )2 + d2 ] s
(7.104)
(7.105)
2
2
s (s + n ) + d
(s + n )2 + d2
p
1
d
1
s + n
= p
1 2
s
(s + n )2 + d2
(s + n )2 + d2
1 2
(7.106)
Y (s) =
(7.107)
jd
y+Mp
y
Td
jd
tr tp
Figura 7.11: Localizacion de los polos y respuesta a escalon unitario de un sistema canonico de segundo orden.
De aqu se llega a:
185
en tr
p
sen(d tr + ) = 0
1 2
tr =
(7.108)
(7.109)
(7.110)
=
(7.111)
tp =
d
2
A su vez, la magnitud de la sobrerespuesta esta dada por:
n
e
M p = y(tp ) 1 = p
1 2
sen( + ) = e
1 2
(7.112)
186CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
7.7.
y(t) = A cos(t + )
y(t) = teat , en que a > 0
1
;0 < t < 1
2 t
;1 t < 2
y(t) =
3 + t ; 2 t < 3
0
;t 3
1
y(t) = t
2
(ii)
(iii)
(iv)
d 2 y(t)
dt 2
d 3 y(t)
dt 3
d 2 y(t)
dt 2
d 2 y(t)
dt 2
d y(t)
6y(t) = u(t)
dt
d 2 y(t) d y(t)
d u(t)
+3
+
+ 3y(t) =
u(t)
2
dt
dt
dt
d y(t)
+
6y(t) = u(t)
dt
d y(t)
+ 16
+ 100y(t) = 100u(t)
dt
+
= 1 y y(0) = 1. Grafique.
7.3.3 Determine la salida del sistema si la entrada es u(t) = (t) (t 2).
Grafique.
187
vc (t)
e(t)
L
188CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
Problema 7.8. Considere la siguiente funci
on de trasferencia de un sistema:
H(s) =
s2 + 13s + 30
s3 + 4s2 7s 10
= 0 e y(0) = 2.
Problema 7.9. Considere la siguiente funci
on de transferencia de un sistema
que depende de un par
ametro K 0:
G(s) =
K(s + 1)
s2 s + 1 + K(s + 1)
s2
s + b2
+ bs + b2
189
(i)
(ii)
(iii)
K(s + a)
(s + a)(s + K)
K(s + a)(s + b)
G2 (s) =
(s + a)(s + b)(s + K)
K(s + a)(s + b)(s + c)
G3 (s) =
(s + a)(s + b)(s + c)(s + K)
G1 (s) =
Que puede decir del efecto de los ceros sobre la respuesta del sistema?
Problema 7.12. Una forma de verificar el grado relativo de la funcion de
tranferencia de un sistema es a traves de su respuesta a escal
on. Demuestre que
si p(t) es la respuesta a un escal
on de un sistema con funci
on de transferencia
G(s), entonces:
dp(t)
=0
dt t=0
190CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
transformada Zeta|textbf
Zeta!transformada
transformada Zeta!inversa
Captulo 8
An
alisis bajo excitaciones
arbitrarias. La
transformada Zeta
De los metodos disponibles para el estudio de los sistemas lineales dinamicos,
de tiempo discreto, uno en particular resulta ser especialmente u
til: la Transformacion Zeta. Esta puede entenderse como el analogo, en tiempo discreto, de
la transformada de Laplace estudiada en el Captulo 7.
Las principales ventajas de este metodo se pueden resumir en lo siguiente:
Permite el analisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de se
nales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La ERS es transformada en una expresion algebraica, que resulta mas
simple de manejar.
8.1.
Definici
on de la transformada
Dada una se
nal de tiempo discreto f [t], 0 t < . La transformada Zeta
asociada a f [t], y su transformada Zeta inversa estan definidas por:
Z {f [t]} = F (z) =
Z
(8.1)
t=0
1
{F (z)} = f [t] =
2j
191
f [t]z t
F (z)z t1 dz
(8.2)
192CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
funci
on de transferencia
condiciones iniciales
8.2.
Aplicaci
on a sistemas lineales: la funci
on de
transferencia
(8.3)
(8.5)
donde f (z 1 , xo ) es una funcion que depende de la variable z y de las n condiciones iniciales de la salida y[t], expresadas como y[1], y[2], . . . y[n].
Es importante destacar que:
f (z 1 , x0 ) = [p(z 1 )]T xo
(8.6)
(8.7)
= 0, 8z 1 U (z)
(8.8)
Esto lleva a:
Y (z) =
(8.9)
0, 1
y[1]
y[2]
(8.10)
0, 8z
1, 5z 2 0, 2z
U (z) + 2
0, 7z + 0, 1
z 0, 7z + 0, 1
|
{z
} |
{z
}
z2
Yu (z)
(8.11)
Yx (z)
fracciones parciales
194CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
Yu (z) =
z
0, 8z
4
4
2
=
+
(z 0, 5)(z 0, 2) z 1
3(z 0, 2) 3(z 0, 5) z 1
(8.12)
4
(0, 2)t1 (0, 5)t1 [t 1] + 2[t 1]
3
t 0
(8.13)
1, 5z 2 0, 2z
3
1
11
=
+
(z 0, 5)(z 0, 2)
2 15(z 0, 2) 12(z 0, 5)
(8.14)
An
alogamente:
Yx (z) =
Aplicando transformaci
on inversa se llega a:
yx [t] =
1
11
3
K [t] (0, 2)t1 [t 1] + (0, 5)t1 [t 1]
2
15
12
t 0 (8.15)
0, 8z
1, 5z 0, 2
+
(z 0, 5)(z 0, 2)(z 1) (z 0, 5)(z 0, 2)
5
2
5
+
=z
15(z 0, 2) 6(z 0, 5) z 1
5z
2z
z
+
=
3(z 0, 2) 6(z 0, 5) z 1
Y (z) = z
(8.16)
(8.17)
(8.18)
z
za
= a [t]
6=
1
za
= at1 [t 1]
(8.20)
y[t]
2
1.5
1
0.5
0
10
15
222
Volvamos ahora a considerar la forma general de la ERS y supongamos
condiciones iniciales iguales a cero. Entonces tenemos que:
Y (z) = H(z)U (z)
(8.21)
A(z) = z m (z n + an1 z n1 + . . . + a0 )
n
B(z) = z (bm z
+ bm1 z
m1
+ . . . + b0 )
(8.23)
(8.24)
H(z) =
z 4 (z 3
z 3 (0, 2z 0, 7)
0, 2z 0, 7
=
2
3
0, 8z + 0, 4z 0, 1)
z(z 0, 8z 2 + 0, 4z 0, 1)
(8.26)
196CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
funci
on de transferencia! tiempo discreto
222
H(z) =
z 3 (0, 2z 0, 7)
0, 2z 0, 7
= 3
3
3
2
z (z 0, 8z + 0, 4z 0, 1)
z 0, 8z 2 + 0, 4z 0, 1
(8.28)
222
H(z) =
z(0, 2z 0, 7)
z 3 (0, 2z 0, 7)
= 3
z 2 (z 3 0, 8z 2 + 0, 4z 0, 1)
z 0, 8z 2 + 0, 4z 0, 1
(8.30)
222
En lo sucesivo, supondremos que los polinomios B(z) y A(z) son coprimos, es decir, todos los factores comunes en H(z) han sido eliminados por
cancelacion. Los grados de B(z) and A(z) seran redefinidos como m
y n
respectivamente.
La funcion racional H(z) es la funci
on de transferencia en el dominio Zeta. La representacion (8.22) es muy u
til para describir caractersticas y propiedades
de un sistema tales como estabilidad y velocidad, ademas de entregar informacion para el dise
no de sistemas de control, filtros y otras aplicaciones.
A continuacion repetiremos algunos conceptos ligados a la definicion de la
funcion de transferencia de un sistema. Son los mismos que para el caso de la
transformacion de Laplace y su reiteracion esta orientada a enfatizar los aspectos
comunes existentes en el dominio del tiempo continuo y en el dominio del tiempo
discreto. As, definimos entonces los siguientes terminos.
(8.31)
h[t] = Z 1 {H(z)}
(8.32)
En que:
Por lo tanto, podemos afirmar que:
funci
on de
transferencia!ceros
funci
on de
transferencia!polos
multiplicidad!polos
funci
on de transferencia!grado relati
grado
relativo
funci
on de
transferencia!estrictamente pro
funci
on de transferencia!bipropia
funci
on de transferencia!propia
polinomio caractrer
stico
198CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
delta de Dirac!en
frecuencia
H(z)
h[t]
g[t]
8.2.1.
Funci
on de transferencia en dominios de Fourier y
Zeta
3
2
y[t] ay[t 1] + a y[t 2] = a
u[t 1]
(8.33)
2
donde 0 < a 1.
La funci
on de transferencia en el dominio de la transformaci
on Zeta es:
a 23 z
Hz (z) = 2
;
z az + a2
|z| > 1
(8.34)
HF (ej ) =
3 j
2 e
(ej )2 aej
(8.35)
+ a2
En este caso:
HF (ej ) = Hz (z)|z=ej
(8.36)
(8.37)
X
j
j
HF (e ) =
( + o + 2`) ( o + 2`)
2
`=
3 j
2 e
j
2
(e ) ej
+1
(8.38)
transformada de Fourier!discreta
respuesta en frecuencia
200CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
impulso!respuesta a
escal
on!respuesta a
respuesta! a impulso
respuesta!a escal
on
valor final
222
La relacion entre la transformacion de Fourier y transformacion Zeta puede
ser resumida en la siguiente afirmacion:
8.3.
z
z1
(8.39)
(8.40)
donde y = H(1), en virtud del Teorema del Valor Final (ver Teorema E.1 en
la pagina 431). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero, por tanto, la respuesta en estado estacionario esta dada
por la constante y . Note ademas que si H(z) tiene uno o mas ceros en z = 1,
entonces y = 0.
Es conveniente recalcar que la respuesta a escalon unitario contiene los modos
naturales del sistema, por lo que revela cuestiones fundamentales del comportamiento dinamico del sistema.
Tambien es conveniente recordar que existe una relacion simple entre la
respuesta a escalon g[t] y la respuesta a delta de Kronecter h[t]. Esta esta dada
por:
h[t] = g[t] g[t 1]
(8.41)
8.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALON.
201
muestreo
(8.42)
Su funci
on de transferencia es:
H(z) =
Y (z)
0, 2z 2 + 0, 25z
= 2
U (z)
z 1, 75z + 0, 8
(8.43)
Matlab
>> Gd2=tf([-0.2 0.25 0],[1 -1.75 0.8],-1)
Transfer function:
-0.2 z^2 + 0.25 z
-----------------z^2 - 1.75 z + 0.8
Sampling time: unspecified
>> subplot(2,1,1),stem(impulse(Gd2))
>> subplot(2,1,2),stem(step(Gd2))
222
De igual forma que en el caso de tiempo continuo, en la respuesta a escalon de
sistemas de tiempo discreto puede definirse un conjunto de parametros que describen ciertas propiedades de su dinamica. Sin embargo, en este caso, el calculo
de algunos de estos parametros se complica pues la variable independiente, el
tiempo t, es discreta. As, el hacer cero una derivada para calcular un maximo
o un mnimo se hace difcil por dos factores: la derivada no esta definida y, por
otro lado, el calculo del instante asociado debe restringirse a valores enteros.
202CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
Respuesta a impulso
0.3
0.2
0.1
0
0.1
0.2
0
10
15
20
t
25
30
35
40
10
15
20
t
25
30
35
40
Respuesta a escalon
1.5
1
0.5
0
0.5
Bf (z)
Af (z)
(8.44)
Bf (z) = q z + q1 z
q1
+ . . . + 1 z + 0 ;
(8.45)
q 6= 0
(8.46)
para n
umeros enteros p y q no negativos. Observe que dado que F (z) debe poder
expresarse en serie de potencias no positivas de z, es necesario que p q.
La expansion de F (z) en potencias de z 1 se obtiene dividiendo Bf (z) por
Af (z), esto lleva a:
F (z) = q z p+q + (q1 q p1 )z p+q1 + . . .
(8.47)
8.4.
(8.48)
Y (z) =
b1 z 3 + b0 z 4
a1 y[1] a2 z 1 y[1] a2 y[2]
U
(z)
+
1 + a1 z 1 + a2 z 2
1 + a1 z 1 + a2 z 2
(8.49)
lo cual lleva a:
Y (z) =
b1 z + b 0
(a1 y[1] + a2 y[2])z 2 a2 y[1]z
U
(z)
+
(8.50)
z 2 (z 2 + a1 z + a2 )
z 2 + a1 z + a2
{z
}
|
{z
} |
Yu (z)=Z{Thh0,u[t]ii}
Yx (z)=Z{Thhxo ,0ii}
222
grado relativo
204CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
retardo
respuesta!estacionaria
(i) Tanto la respuesta a entrada, yu [t] como la respuesta a condiciones iniciales, yx [t], contienen los modos naturales del sistema.
(ii) El denominador de Yu (z) difiere del de Yx (z), no solo debido al denominador de U (z), sino que ademas en un conjunto de polos en z = 0. Estos
no son frecuencias naturales del sistema, sino que corresponden exactamente al retardo con que se aplica la excitacion.
(iii) La transformada Yu (z) contiene los polos de U (z); estos explican la presencia de modos forzados, lo cual es consistente con lo planteado en la
subseccion 4.3.6 en la pagina 73.
(iv) Si el grado relativo de H(z) es mayor que cero (como ocurre usualmente),
entonces yu [0] = 0.
(v) Salvo para especiales valores de las condiciones iniciales, el grado relativo
de Yx (z) es cero, as yx (0) 6= 0, lo cual lleva, salvo para esos valores
especiales, a que y(0) 6= 0.
Un caso especial de interes es cuando la excitacion u[t] es una sinusoide de
frecuencia o , t 0, es decir, u[t] = 0, 5(ejo t + ejo t ).
Consideremos primero el caso de una excitacion u[t] = ejo t [t], y un sistema
estable, con funcion de transferencia H(z), entonces:
U (z) =
z
z ejo
Y (z) = H(z)
(8.51)
z
+ Yx (z)
z ejo
(8.52)
y, por tanto:
zH(ejo )
z ejo
0
[t] = ejo t H(ejo ) = |H(ejo )| ej(o t+H(e
yee
jo
jo
))
(8.53)
(8.54)
y, por tanto:
zH(ejo )
z ejo
00
[t] = ejo t H(ejo ) = |H(ejo )| ej(o t+H(e
yee
jo
jo
(8.55)
))
(8.56)
8.5. ESTABILIDAD
205
(8.57)
8.5.
Estabilidad
Hasta aqu hemos visto que la respuesta de un sistema que tiene una funcion
de transferencia H(z) es de la forma:
Y (z) = H(z)U (z) +
p X
nt
X
t=1 i=1
ti
(z t )i
(8.58)
(z 0, 2)
z 3 (z 1)(z 0, 8)
(8.59)
Esta funci
on tiene tres polos en el origen, que se originan en los retardos y
en la estructura de la ERS (vea ecuaciones (8.23) y (8.24)). Estos polos s
olo
introducen retardos en los modos naturales. Los otros polos de su funci
on de
transferencia est
an ubicados en z = 1, y z = 0, 8. Estos u
ltimos polos corresponden a frecuencias naturales del sistema. Uno de estos, el ubicado en z = 1, no
est
a en el disco unitario abierto, sino que justo sobre el lmite de estabilidad.
estabilidad
multiplicidad!polos
l
mite de estabilidad
circunferencia unitaria
206CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
sistemas discretos!estabilidad
Por tanto el sistema no es estable. Se deja al lector el verificar que una entrada
constante, diferente de cero, produce una salida que crece indefinidamente.
222
8.5.1.
An
alisis de polinomios
(8.60)
n
X
(8.61)
i=1
p(z) = an
n
Y
i=1
(z i )
(8.62)
n
Y
(8.63)
i=1
8.5. ESTABILIDAD
207
La primera propiedad dice que para que el polinomio p(z) sea estable, entonces es necesario que |an1 | < n|an | ya que cada raz de p(z) debe tener
magnitud menor que 1. El resultado se obtiene al utilizar la desigualdad triangular: el m
odulo de la suma es menor que la suma de los m
odulos.
La segunda propiedad dice que la estabilidad de p(z) exige como condicion
necesaria que |a0 | < |an |. Este resultado se obtiene al considerar que cada factor
i en (8.63) debe tener magnitud menor que uno.
Las dos propiedades precedentes ayudan a descartar algunos polinomios bajo
analisis. El lector debe recordar que estas propiedades son necesarias pero no
suficientes para asegurar estabilidad. Tambien conviene tener presente que, a
diferencia del caso de tiempo continuo, un polinomio puede ser estable aunque
algunas de sus races sean positivas; esto implica que los coeficientes de un
polinomio p(z) estable pueden ser positivos, negativos o cero.
Una vez superada la etapa de la inspeccion se requiere un metodo de analisis
que proporcione una respuesta categorica sobre la estabilidad o inestabilidad del
polinomio. Una de las formas de realizar el estudio es transformar el problema
en uno en que podamos aplicar el algoritmo de Routh y, en general, todos los
resultados de la Seccion 7.5.1. Con este objetivo se puede usar, por ejemplo, la
transformacion bilineal:
z=
z+1
w+1
w =
w1
z1
(8.64)
donde w es una variable compleja auxiliar. Si expresamos la variable w en termino de su parte real y su parte imaginaria , es decir w = + j entonces
(8.64) se puede escribir como:
w+1
+ 1 + j
z=
=
= |z| =
w1
1 + j
( + 1)2 + 2
( 1)2 + 2
(8.65)
De la ecuacion (8.65) se puede ver que > 0 si y solo si |z| < 1. Tambien
se puede ver w esta en el eje imaginario ( = 0) si y solo si z esta sobre la
circunferencia unitaria (|z| = 1). As, si definimos la funcion racional P w (w)
como:
Pw (w) = p (z)
(8.66)
w+1
z= w1
entonces el polinomio p(z) tiene todas sus races al interior del disco unitario
si y solo si el polinomio numerador de Pw (w) tiene todas sus raices al interior
del semi-plano izquierdo. Por lo tanto, podemos usar el criterio de Routh para
probar el polinomio numerador de Pw (w) y as estudiar la estabilidad de p(z).
Ejemplo 8.9. Considere el polinomio p(z) = z 3 0, 8z 2 0, 25z + 0, 2. Se trata
de determinar si todas sus races al interior del disco unitario. Para ello primero
calculamos Pw (w), obteniendo:
desigualdad!triangular
bilineal!transformaci
on
Routh
208CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
Jury
Jury!algoritmo
Pw (w) =
(8.67)
0, 15
1, 85
4, 5405
1, 35
4, 65
1, 35
z0
n,n
n,0
n1,n1
n1,0
..
.
0,0
n,n1
n,1
n1,n2
n1,1
n,n2
n,2
n1,n3
n1,2
...
...
...
...
n,1
n,n1
n1,0
n1,n1
n,0
n,n
8.5. ESTABILIDAD
n1,n`
209
1 n,n
=
n,n n,0
n,`1
n,n`+1
` = 1, 2, . . . , n
(8.68)
Note que esta fila tiene un elemento menos que las dos anteriores.
(iv) La cuarta fila se construye a partir de la tercera fila con los mismos coeficientes, pero en orden inverso.
(v) La quinta fila se construye a partir de las dos filas precedentes usando
(8.68) con los coeficientes correspondientes. Esta regla de construccion se
aplica tambien a todas las filas impares que siguen, hasta la (2n + 1)esima, es decir, hasta calcular 0,0 . En cada una de estas filas, el n
umero
de coeficientes se reduce en uno.
(vi) La sexta fila, as como todas las filas pares que siguen, se construyen con
los mismos coeficientes de la fila impar inmediatamente anterior, pero en
orden inverso.
Jury formulo un teorema de estabilidad cuyas condiciones se verifican usando
el arreglo de la tabla 8.1. El teorema se enuncia a continuacion, sin demostracion,
ya que ella excede el marco de este texto. El lector interesado puede consultar
[10].
Teorema 8.1. El polinomio p(z) dado en (8.60), con an > 0, tiene todas
sus races estrictamente al interior del crculo unitario si y s
olo si `,` > 0
para ` = 0, 1, . . . , n 1.
222
A continuacion ejemplificamos el algoritmo, tanto en su mecanica como en
sus potenciales aplicaciones.
Ejemplo 8.10. Considere el polinomio p(z) = z 3 0, 5z 2 0, 64z + 0, 32.
Entonces n = 3, an = 1 > 0 y el arreglo de Jury resultante se muestra en la
Tabla 8.2.
Los terminos de la tercera, quinta y septima fila se calculan siguiendo el
procedimiento general descrito precedentemente, as:
2,2 =
1
0, 32
0, 32
1
; 2,1 =
1
1
1
0, 32
0, 8976 0, 48
0, 48 0, 8976 ; 1,0 =
0, 6409 0, 4531
1
=
0, 6409 0, 4531 0, 6409
1,1 =
0,0
1
1
1
0,8976
0, 64
;
0, 5
1
0,8976
2,0 =
0, 8976
0, 48
1
1
1
0, 32
0, 2952
0, 2952
0, 5
0, 64
(8.69)
(8.70)
(8.71)
210CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
z3
z2
z1
z0
3,3 = 1
0,32
2,2 = 0, 8976
-0,48
1,1 = 0, 6409
0, 4531
0,0 = 0, 3206
3,2 = 0, 5
-0,64
2,1 = 0, 2952
-0,2952
1,0 = 0, 4531
0, 6409
3,1 = 0, 64
-0,5
2,0 = 0, 48
0,8976
3,0 = 0, 32
1
Al aplicar el teorema de Jury observamos que 3,3 = a3 > 0 y que `,` > 0,
` {0, 1, 2}. En consecuencia el polinomio p(z) tiene todas sus races dentro
del disco unitario.
222
Para apreciar el uso del algoritmo de Jury en estudios de estabilidad relativa
o condicional, consideraremos un ejemplo adicional.
Ejemplo 8.11. Sea un polinomio p(z) = z 2 + az + 0, 8. Se trata de estudiar
bajo que condiciones este polinomio tiene sus dos races con m
odulo menor que
uno. Note que n = 2 y an = a2 = 1 > 0.
Primero construimos el arreglo de Jury, el que aparece en la Tabla 8.3.
z2
z1
z0
2,2 = 1
0,8
1,1 = 0, 36
0,2a
a2
0,0 = 1 1,8
2
2,1 = a
a
1,0 = 0, 2a
0,36
2,0 = 0, 8
1
8.6.
A continuacion examinaremos algunas propiedades fundamentales de los polos y ceros de la funcion de transferencia de un sistema de tiempo discreto, y su
influencia sobre las caractersticas de la respuesta de un sistema lineal.
Consideremos una funcion de transferencia de la forma general:
211
(8.72)
8.6.1.
Polos
K1 (1 a)
za
(8.73)
fase m
nima
ceros!fase no m
nima
funci
on de transferencia!estable
polos
212CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
modos naturales
Figura 8.4: Relacion entre la ubicacion de los polos (de multiplicidad uno) y los
modos naturales (caso decreciente).
Cada polo genera un termino especfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos estan presentes tambien en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
213
polos!r
apidos
polos!dominantes
polos!lentos
Figura 8.5: Relacion entre la ubicacion de los polos (de multiplicidad uno) y los
modos naturales (caso no decreciente).
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicacion de este sobre el plano complejo z , exactamente equivalente a la
ubicacion de cada frecuencia natural sobre un plano complejo, como se vio en
el Captulo 4. Para ilustrar esto podemos apreciar en la Figura 8.4 las diferentes
respuestas a impulso de un sistema de un u
nico polo.
En forma analoga a lo que ocurre con los sistemas continuos en el tiempo,
nos referiremos, en general, como polos r
apidos a aquellos que se encuentran
mas cercanos al origen del plano z . Esto es equivalente que considerar que la
respuesta transiente asociada a estos polos desaparece mas rapido que aquella
asociada a los otros polos, tal como puede apreciarse en la figura 8.4. Por otro
lado, llamaremos polos dominantes o polos lentos a aquellos que se encuantran
al interior del disco unitario, pero mas cercanos al lmite de estabilidad (circunferencia unitaria) que el resto de los polos de sistema. Esto equivale a decir
que el transiente asociado a los polos dominantes decae mas lentamente que los
demas modos naturales.
214CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
ceros
controlabilidad
observabilidad
8.6.2.
Ceros
En general, el efecto de la ubicacion de los polos en la dinamica de un sistema puede entenderse sin demasiada dificultad dada su directa relacion con la
estabilidad y las caractersticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha mas
informacion que la aqu detallada. Por el contrario, a menudo se ha subestimado el efecto de los ceros en el analisis del comportamiento de un sistema. Sin
embargo, en los u
ltimos a
nos se ha vuelto a dar un vistazo al efecto de los ceros
sobre la respuesta de un sistema, que ahora son reconocidos por su importancia,
por ejemplo, al definir criterios de dise
no de sistemas de control. Es asi como,
mientras que los polos de un sistema estan asociados a la presencia de sus modos
naturales aislados, los ceros reflejan de alg
un modo la interacci
on entre estos,
por ejemplo, en el caso en que la salida de un sistema esta formada por la suma
de dos modos naturales diferentes. Ademas, a pesar que la ubicacion de los polos
determina los modos naturales de un sistema, es la ubicacion de los ceros la que
determina la proporci
on en que los modos aparecen combinados en la salida. En
estas combinaciones los modos naturales toman diferente fuerza, pudiendo ser
su efecto, en algunos casos, casi imperceptible. De hecho, la ubicacion relativa
de polos y ceros tiene directa relacion con los conceptos de observabilidad y
controlabilidad, como se detalla en el Captulo 10.
Veamos esto a traves de un ejemplo.
U (z)
z 0, 5
Y (z)
1
z 0, 8
Figura 8.6: Sistema discreto con interaccion aditiva entre dos estados.
H(z) =
1
(0, 3 + 0, 2)z (0, 3 + 0, 1)
Y (z)
=
+
=
U (z)
z 0, 5 z 0, 8
(z 0, 5)(z 0, 8)
(8.75)
215
3+1
Este sistema tiene sus polos en p1 = 0, 5 y p2 = 0, 8 y un cero en c1 = 3+2
.
Es decir, la ubicaci
on est
a directamente relacionada con el peso de cada uno
de los modos naturales en la respuesta del sistema, por ejemplo, a un impulso
unitario en la entrada:
cancelaci
on!cuasiundershoot
contrarespuesta
respuesta!inversa
(8.76)
(z 0,5074)
(z 0, 5)(z 0, 8)
(8.77)
(8.78)
8.6.3.
La Figura 8.3 en la pagina 202 sugiere que existen casos en los que, en la
presencia de una excitacion mayor que cero, la respuesta del sistema se hace
negativa durante alg
un lapso no despreciable. Existe un resultado analogo al
Lema 7.1 en la pagina 182, respecto del rol de algunos ceros que estan ubicados
fuera del crculo unitario.
Lema 8.2. Considere un sistema lineal estable con funci
on de transferencia
H(z), y con un cero real en z = c, donde c > 1, entonces la respuesta a un
escal
on positivo se hace negativa durante uno o m
as lapsos no despreciables.
Demostraci
on
La respuesta del sistema est
a dada por:
Y (z) = H(z)
Entonces:
H(z)
Kz
;
z1
X
Kz
y[t]z t ;
=
z1
t=0
K>0
|z| > 1
(8.79)
(8.80)
216CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
para |z| 1 y, por otro lado, por el hecho que la respuesta a un escal
on est
a bien
definida para |z| > 1. En consecuencia, la regi
on de convergencia para y[t] es
|z| > 1.
Si ahora, en la ecuaci
on (8.80), hacemos z = c (note que, por ser c > 1,
est
a en la regi
on de convergencia) obtenemos, aplicando el hecho que H(c) = 0
H(c)
X
K
=
y[t]ct = 0
c
t=0
(8.81)
Respuesta a escaln
Respuesta a escaln
1
0.5
0
0.5
1
1
0.5
0
0.5
1
10
20
30
Tiempo [s]
40
50
10
20
30
Tiempo [s]
40
50
8.7.
217
y[t] = A cos(t + )
y[t] = t at
0 ; 0 t 1
y[t] = 1 ; 2 t 7
0 ;t 8
y[t] = (0, 5)t
1
(u[t] + u[t 1] + . . . + u[t N ])
N
y[t] + y[t 1] + . . . + y[t N ] = u[t]
y[t] =
218CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
8.4.2 Determine sus polos y ceros,
8.4.3 Determine y grafique su respuesta a delta de Kronecker, y
8.4.4 Determine y grafique su respuesta a escal
on unitario.
Problema 8.5. Para el sistema:
y[t] + 1 y[t 1] + 0 y[t 2] = u[t] u[t 1]
8.5.1 Determine condiciones sobre 0 , 1 y de manera que el sistema sea
estable.
8.5.2 Si u[t] = 0, 1 = 1, 0 = 0,16 y = 0, determine la condiciones
iniciales de manera que el la respuesta homogenea s
olo aparezca el modo
natural dominante.
8.5.3 Si no se conoce u[t] = 0, pero 1 = 1, 0 = 0,16, determine de
manera que en la salida solo aparezca el modo natural mas r
apido.
Problema 8.6. Se sabe que la respuesta de un sistema lineal a un escal
on
unitario en su entrada (con condiciones iniciales iguales a cero) est
a dada por:
i
h
(t 1) [t]
g[t] = 0, 5 (0, 4)t cos
3
Determine la funci
on de transferencia del sistema.
respuesta en
transformada
transformada
transformada
Bode
Nyquist
Captulo 9
Representaci
on de sistemas
lineales
9.1.
Ideas generales
La caracterizacion de la respuesta en frecuencia de un sistema lineal, as como su funcion de transferencia obtenida con la tranformacion de Fourier, la
transformacion de Laplace o la transformacion Zeta, son herramientas u
tiles
para el analisis, sntesis y dise
no de sistemas dinamicos en sus distintas aplicaciones, tales como procesamiento de se
nales y control automatico, entre otras.
Estas herramientas han sido ampliamente reconocido a traves de los a
nos y han
dado lugar tambien a una serie de formas especiales de representacion grafica.
En primer lugar, recordemos que la respuesta en frecuencia de un sistema
lineal y su funcion de transferencia estan caracterizadas por la misma funcion de
la frecuencia1 H(j) que, en general, toma valores complejos. Una de las formas
de representacion mas usuales se basa en graficos separados de la magnitud y la
fase de H(j), en donde la frecuencia, , es la variable independiente. La mas
conocida y usada de estas representaciones fue desarrollada por Hendrik Bode
en los a
nos cuarenta [4](o no?). Por otra parte, tambien es posible representar
H(j) en un solo grafico u
nico donde el eje de las abscisas corresponde a su parte
real, y el eje de ordenadas, a su parte imaginaria. Este se denomina diagrama
polar o de Nyquist. En esta u
ltima caracterizacion, la frecuencia queda implcita.
Finalmente en este Captulo introducimos la representacion en diagramas de
bloques, ampliamente usada en el dominio temporal, de Fourier, de Laplace y de
la transformada Zeta, dada su gran utilidad para representar sistemas complejos
mediante la interconeccion de sistemas mas simple, y la causalidad inherente de
las se
nales de entrada y de salida de estos sistemas dinamicos.
1 Ver
Lema 6.1 en la p
agina 129.
219
frecuencia
de Fourier
de Laplace
Zeta
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
220
Bode!diagramas de
Bode|textbf
diagramas!de Bode
ejes logar
tmicos
decada
octava
decibel
factores can
onicos
9.2.
Diagramas de Bode
9.2.1.
Tiempo continuo
(9.1)
El uso de ejes logartmicos proporciona varias ventajas, incluyendo precision por valores peque
nos y grandes de |H( )|, facilidad para construir
aproximaciones simples para |H( )|dB , y el hecho que la respuesta en frecuencia de sistemas en cascada puede ser obtenida sumando las respuestas
en frecuencia individuales.
El angulo es medido en una escala lineal en radianes o grados.
Los paquetes de software disponibles, tales como Matlab , incluyen comandos especiales para calcular la respuesta en frecuencia y dibujar los diagramas de
Bode. Sin embargo, es importante, para el manejo conceptual de la herramienta,
desarrollar la habilidad de hacer, en forma manual y rapida, un bosquejo de esos
diagramas, u
tiles para el analisis y el dise
no de las propiedades de un sistema o
de una se
nal.
Para desarrollar estas ideas consideraremos una funcion de transferencia que
puede expresarse como un producto de funciones particulares, que llamaremos
factores can
onicos, correspondientes a los siguientes tipos:
[B1]
[B2]
(1 + T )q , q {1; 1}
221
Bode!aproximaciones
( )q , q {1; 1}
"
2 # q
+
1 + 2
q {1; 1}, 0 < 1.
n
n
e , > 0
donde el exponente q {1; 1} describe las dos opciones para cada factor: su
presencia en el numerador o en el denominador de la funcion H( ) dada.
A continuacion se presente un ejemplo ilustrativo.
Ejemplo 9.1. Considere la funci
on:
H( ) = 6
e0,1 ( + 2)
( + 1)(( )2 + + 4)
(9.2)
(3) (e0,1 ) (1 + 0, 5 )
2
+
( ) (1 + ) 1 + 2 0, 25
2
2
(9.3)
222
n
Y
F` ( )
(9.4)
`=1
n
X
n
X
`=1
20 log10 |F` ( )| =
n
X
`=1
|F` ( )|dB
F` ( )
(9.5)
(9.6)
`=1
Es decir:
La magnitud (en dB) de H( ) es igual a la suma de las magnitudes (en
dB) de F` ( ), y
El angulo de H( ) es igual a la suma de los angulos de F` ( )
En consecuencia, para poder construir aproximaciones para una funcion de
transferencia arbitraria, es suficiente desarrollar aproximaciones para cada uno
de los cinco factores canonicos, [B1] a [B5]. Esto es lo que haremos a continuacion.
222
Bode!as
ntotas
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
[B1]
En este caso F ( ) = K y su magnitud es exactamente:
|K|dB = 20 log10 |K|
es decir, es una recta horizontal. Por su parte, la fase es:
(
0
para K 0
K =
o
180 para K < 0
(9.7)
(9.8)
(9.9)
(9.10)
Podemos construir una aproximacion por trazos o asntotas para la magnitud, si observamos que:
1
= |F ( )|dB 0 [dB]
|T |
1
= |F ( )|dB 20q log10 (|T |)
|T |
(9.11)
(9.12)
223
Magnitud [dB]
10
0
10
20
30
40
50
2
10
10
10
10
|T|
10
Figura 9.1: Diagrama de Bode de magnitud para una funcion tipo [B2], con
q = 1
Y una recta horizontal en en el rango de frecuencia (10/|T |, ). As,
en alta frecuencia, la fase tiende a 90q[o ] signo(T ).
Esta aproximacion es exacta en = 1/|T |, donde la fase es 45q[o ].
En la Figura 9.2 se aprecia tanto la aproximacion asintotica, como la curva
exacta para el caso q = 1 y T > 0 . La frecuencia se ha normalizado a |T |.
20
Fase []
0
20
40
60
80
100
2
10
10
10
10
10
Figura 9.2: Diagrama de Bode de fase para una funcion tipo [B2], con q = 1
[B3]
En este caso, F ( ) = ( )q , q {1; 1}. La magnitud, en decibeles, esta dada
por:
|F ( )|dB = 20q log10 ||
(9.13)
De esta forma, considerando que el eje de abscisas esta en escala logartmica, la
magnitud es una recta con pendiente 20q [dB/dec].
La fase, en tanto, es:
F ( ) = 90 q[o ]
(9.14)
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
224
+
F ( ) = 1 + 2
n
n
(9.15)
2n
q arctan
2
n2
F ( ) =
2n
90q[ ] + q arctan
2 n2
< n
(9.17)
> n
Para construir una aproximacion por trazos o asntotas, primero observamos que:
n = |F ( )|dB 0 [dB]
n = |F ( )|dB 40q log10
(9.18)
(9.19)
40
Magnitud [dB]
as
ntotas
20
20
40
1
10
10
10
Figura 9.3: Diagrama de Bode de magnitud para una funcion tipo [B4], con
q = 1 y dos valores de .
225
As, en baja frecuencia, la magnitud (en [dB]) puede ser aproximada por una
asntota horizontal en 0 [dB]. En alta frecuencia, la aproximacion asintotica es
una recta de pendiente 40q [dB/dec] que pasa por el punto (n ; 0). Sin embargo,
la curva exacta puede ser muy distinta a la aproximacion asintotica, dependiendo
del valor del parametro . Esto puede se ilustra en la Figura 9.3, donde se
muestran las curvas exactas para = 0, 01 and = 0, 1. La flecha indica la
direccion en la que aumenta . Note que en el caso lmite, cuando = 0, el
diagrama tiende a [dB].
En general, el diagrama de magnitud exhibe, a la frecuencia r , un pico
de resonancia Mr , valor que puede calcularse usando los metodos clasicos del
Calculo. Para simplificar el desarrollo, usaremos la frecuencia normalizada =
/n y el hecho que para q = 1, |F ( )|dB alcanza el maximo a la misma
frecuencia r a la que g() = (1 2 )2 +4 2 2 alcanza el mnimo. As, derivando
y haciendo igual a cero se obtiene:
dg()
= 2(1 2 )(2) + 8 2 = 0
d
donde se observa que la resonancia ocurre exactamente en:
p
p
r = 1 2 2 = r = n 1 2 2
(9.20)
(9.21)
Mr = |F ( r )| =
1
2
(9.22)
Finalmente, en (9.21)
se puede notar que el pico de resonancia existe para
q = 1 si y solo si < 1/ 2.
La fase de una funcion de tipo [B4], dada por (9.17), se puede tambien
aproximar por asntotas, con la misma prevencion que en el caso de la magnitud:
la precision de la aproximacion asimptotica depende crucialmente del valor de
. As:
n = F ( ) 0 [o ]
n = F ( ) 180 q[o ]
(9.23)
(9.24)
De esta forma, la aproximacion asintotica se compone de dos rectas horizontales: una en 0 [o ] y la otra en 180 q[o ]. En la Figura 9.4 se muestra el caso
de q = 1, donde se muestran dos curvas, para dos valores de (0, 01 y 0, 1).
En el grafico se muestra con una flecha la direccion en que crece . Note que a
medida que crece , la aproximacion asintotica se hace cada vez mas inexacta,
contrariamente a lo que ocurre con la aproximacion asintotica para la magnitud.
Siempre es posible refinar las aproximaciones inherentes en los diagramas
de Bode, en particular aprovechando herramientas como Maple que facilitan el
manejo de expresiones analticas complejas. En este caso, es posible obtener la
pendiente exacta del grafico de la fase de H( ) en la frecuencia de corte n ,
que permitira trazar una tercera asintota, de manera similar a la Figura 9.2.
resonancia
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
226
0
Fase [o]
50
100
150
200
1
10
10
/n
10
Figura 9.4: Diagrama de Bode de fase para una funcion tipo [B4], con q = 1
El siguiente codigo Maple establece supuestos sobre las variables q, , n y xi,
luego define la funcion H( ), obtiene la derivada respecto a = 10 (debido
a la escala logartmica en el eje horizontal), y la eval
ua en = n
Maple
>
>
>
>
>
>
>
assume(q,integer);
assume(xi>0,omega>0,omega_n>0);
interface(showassumed=0);
H(omega):=(1+2*xi*I*omega/omega_n+(I*omega/omega_n)^2)^q;
fase_H:=evalc(argument(H(omega)));
d_fase_H:=factor(diff(subs(omega=10^phi,fase_H),phi));
simplify(subs(phi=log10(omega_n),d_fase_H));
2 !q
2( )
+
H( ) = 1 +
n
n
n
sen q arctan 2
2 2
n
f aseH ( ) = arctan
n
cos q arctan 2
2 2
n
2
2 q 10 ln(10)n n + (10 )2
d
f aseH =
2
2
d
(n2 (10 )2 ) + (2(10 )n )
(9.25)
(9.26)
(9.27)
=10n
(9.28)
227
[B5]
En este caso, tenemos la funcion F ( ) = e , > 0, y por lo tanto:
|F ( )|dB = 1
F ( ) =
(9.29)
(9.30)
Note que el retardo puro solo introduce un angulo de fase lineal en frecuencia; sin embargo, dado que los diagramas de Bode usan una escala de frecuencia
logartmica, la fase no aparece como una recta, sino que como una curva exponencial. Esto u
ltimo se debe a que la fase puede tambien escribirse como:
F ( ) = = 10log10
(9.31)
La Figura 9.5 muestra el diagrama de Bode de fase en una escala de frecuencia normalizada, lo cual permite entender por que no existe una aproximacion
asintotica sencilla para este caso.
0
Fase [o]
100
200
300
400
500
600
1
10
10
10
Figura 9.5: Diagrama de Bode de fase para una funcion tipo [B5]
222
Con las aproximaciones para las clases [B1] a [B4], mas la representacion
exacta de la clase [B5], se puede construir una aproximacion global para una
funcion arbitraria H( ) usando (9.5)-(9.6). De esa forma, la aproximacion,
tanto para la magnitud (en [dB]) como para la fase (en [o ]) de H( ) se puede
calcular sumando las aproximaciones para cada uno de los factores canonicos.
A continuacion bosquejamos una forma sistematica de construir esas aproximaciones. Esto requiere tener presente las aproximaciones asntoticas de los
factores [B1]-[B4], que resumimos en las Tablas 9.1 y 9.2.
Note que las asntotas son rectas que se encuentran en puntos o frecuencias
de quiebre.
Con estas asntotas se puede desarrollar un proceso constructivo, tanto para
magnitud como para fase. La contribucion de factores tipo [B1] y [B5] es agregada al final en ambos diagramas. Lo mismo se aplica a la contribucion de un
factor tipo [B3] en el diagrama de fase. El procedimiento se desarrolla a traves
de los siguientes pasos:
retardo
retardo!diagrama de
Bode
Bode!aproximaci
on asint
otica
Bode!frecuencias de quiebre
228
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
Factor (` Z)
Asntota 1
0 [dB]
K
( )`
Asntota 2
(1 + T )
T R
2 !`
1 + 2
+
n
n
0<1
0 [dB]
<
1
|T |
0 [dB]
< n
40` log10
[dB]
n
> n
229
Factor (` Z)
Asntota 1
(1 signo(K))90 [o ]
Asntota 2
Asntota 3
90` [o ]
( )
(1 + T )
90` [o ]
`
0[ ]
T >0
<
(1 + T )`
1
|10T |
0 [o ]
T <0
2 !`
1 + 2
+
n
n
<
1
|10T |
10
|T |
>
1
|10T |
1
|10T |
0 [o ]
0<1
<<
<<
10
|T |
10
|T |
90` [o ]
>
10
|T |
180` [o ]
< n
> n
8( 2)( + 1)
( + 8)( 4)
(9.32)
F2 :[B2]
F3 :[B2]
F4 :[B3]
F5 :[B2]
F6 :[B2]
(9.33)
Diagrama de magnitud:
Supondremos luego que el rango de frecuencias de interes es [10 2 ; 102 ].
Los puntos de quiebre as como las pendientes entre dos puntos de quiebre
sucesivos se muestran en la Tabla 9.3. Observe que las pendientes se indican
como m
ultiplos de 20 [dB/dec]. En la u
ltima fila del cuadro se indica el efecto
neto de la contribuci
on de los distintos factores entre dos puntos de quiebre
sucesivos. Con los resultados de esa lnea se pueden completar los Pasos 4 a 6 del
procedimiento bosquejado. Finalmente se incorpora el factor [B1], desplazando
verticalmente el diagrama en 20 log 10 (0, 5) 6 [dB].
230
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
El gr
afico superior de la Figura 9.6 muestra la aproximaci
on asint
otica lograda as como la curva exacta.
(; 1]
(1; 2]
(2; 4]
(4; 8]
(8; 100]
F2
F3
F4
F5
F6
-1
0
0
0
0
-1
1
0
0
0
-1
1
1
0
0
-1
1
1
-1
0
-1
1
1
-1
-1
Ac.
-1
-1
Diagrama de fase:
A similitud del caso de la magnitud construimos un cuadro donde se especifica la contribuci
on, en pendiente de la fase, de cada factor, entre dos puntos
sucesivos. Las pendientes son m
ultiplos de 45 [o/dec]. El lector es invitado a revisar nuevamente la Tabla 9.2 para tener en mente las caractersticas asnt
oticas
de cada factor.
La u
ltima lnea de la Tabla 9.4 muestra el efecto acumulado de los factores F3
a F6 . Con esta informaci
on podemos ejecutar los Pasos 4 a 6 del procedimiento
bosquejado.
Para el Paso 8 apreciamos que el efecto del factor F1 sobre la fase es nulo,
ya que se trata de una ganancia positiva. En cambio, el factor F2 s afecta la
fase, desplaz
andola en 90 [o ].
El diagrama asint
otico de fase resultante aparece en el gr
afico inferior de la
Figura 9.6 donde tambien se indica la curva exacta.
(; 0, 1]
(0, 1; 0, 2]
(0, 2; 0, 4]
(0, 4; 0, 8]
(0, 8; 10]
(10; 20]
(20; 40]
(40; 80]
(80; 100]
F3
F4
F5
F6
0
0
0
0
1
0
0
0
1
-1
0
0
1
-1
1
0
1
-1
1
-1
0
-1
1
-1
0
0
1
-1
0
0
0
-1
0
0
0
0
Ac.
-1
-1
231
(9.34)
Matlab
>>H=tf([8 -8 -16],[1 4 -32 0]);
>>bode(H);
40
30
Magnitud [dB]
20
10
0
10
20
30
2
10
10
10
10
10
10
10
10
55
Fase [o]
60
65
70
75
80
85
90
2
10
10
Frecuencia [rad/s]
Figura 9.6: Diagramas de Bode de magnitud y fase para la respuesta en frecuencia del Ejemplo 9.2
9.2.2.
Tiempo discreto
232
espectro
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
0, 2
e2j 1, 5ej + 0, 7
(9.35)
|H(ej )| = p
0,2
(9.36)
(9.37)
233
diagrama polar
polar!diagrama
Matlab
>> H=tf([0.2],[1 -1.5 0.7],-1);
>> bode(H);
Bode Diagram
5
0
Magnitude (dB)
5
10
15
20
25
0
Phase (deg)
90
180
270
360
10
10
Frequency (rad/sec)
9.3.
Diagramas polares
Aunque los diagramas de Bode son una poderosa herramienta para el analisis
y dise
no, se requieren los dos diagramas para interpretar correctamente ciertas
caractersticas del sistema. Una alternativa es utilizar un diagrama polar, en el
que la respuesta en frecuencia se representa en un solo grafico, donde el eje de
abscisas corresponde a la parte real de H( ) y el eje de ordenadas, a la parte
imaginaria de H( ). En esta descripcion, la frecuencia esta implcita (esta es
la limitacion principal del diagrama polar).
9.3.1.
Tiempo continuo
234
cuadrante
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
1
( + 3)(( )2 + 0, 4 + 1)
(9.38)
Si se eval
ua H( ) en un rango de frecuencias 0 < < y dibujamos
el resultado en en plano cartesiano se obtiene el resultado que aparece en el
diagrama polar de la Figura 9.8. Esta figura se obtiene con el siguiente c
odigo
Matlab :
Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>plot(real(h(1,:)), imag(h(1,:)))
Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>polar(angle(h(1,:)), abs(h(1,:)));
se obtiene el gr
afico de la Figura 9.9.
222
Del ejemplo precedente se puede entender que, dependiendo de la aplicacion,
por facilidad de lectura se prefiera uno u otro sistema de coordenadas.
Para hacer un bosquejo de un diagrama polar se debe examinar magnitud
y fase de la respuesta en frecuencia. El analisis de la magnitud esta orientado a
determinar como vara a medida que la frecuencia va desde 0 hasta .
El analisis de la fase permite saber cuales cuadrantes recorre el grafico, ya
que ello s
olo es funci
on de la fase para [0, ). Siempre es conveniente saber
el comportamiento de la magnitud y la fase en alta y baja frecuencia, es decir:
0 e . Una forma alternativa es saber como evolucionan la parte real y la parte
235
0.1
=0
0.1
0.2
Parte imaginaria
1
0.3
0.4
0.5
0.6
0.7
0.8
0.9
0.5
0.4
0.3
0.2
0.1
Parte real
0.1
0.2
0.3
0.4
0.5
[P2]
1
T + 1
[P3]
( )q , q {1; 1}
[P4]
"
2
+1
+ 2
n
#1
0 < 1, n > 0.
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
236
90
120
60
0.8
0.6
150
30
0.4
0.2
180
=0
210
330
3
240
300
270
[P5]
e , > 0
[P6]
1
,T >0
(T + 1)
[P7]
e
T + 1
[P8]
1
( )2
o2
237
[P2]
Podemos determinar la descomposicion cartesiana (partes real e imaginaria) y
la descomposicion polar (magnitud y fase). As:
1
T
j 2 2
2 T 2 + 1
T +1
1
|F ( )| =
2
T2 + 1
(
arctan(|T |) T > 0
F ( ) =
arctan(|T |)
T <0
(9.39)
F ( ) =
(9.40)
(9.41)
(9.42)
=0
0
0.2
0.4
0.6
0
2
0.5
Parte real
0.6
Parte imaginaria
Parte imaginaria
0.2
0.4
0.2
0
=0
0.2
1
T<0
0.5
Parte real
[P3]
En este caso, F ( ) = ( )q . Esta funcion tiene parte real cero para q {1; 1}.
238
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
n2
=
( )2 + 2n + n2
2 n3
( 2 n2 )n2
j
( 2 n2 )2 + 4 2 n2 2
( 2 n2 )2 + 4 2 n2 2
(9.43)
=0
0,25
Parte Imaginaria
0,15
0,1
6
=0,05
10
12
Parte Real
Figura 9.11: Diagrama polar de una funcion tipo [P4] para distintos valores de
239
1
T + 1
T
1
=
=
j
(9.44)
(T + 1)
(1 + 2 T 2 )
(1 + 2 T 2 )
(1 + 2 T 2 )
2 T 2 + 1
F ( ) = 0, 5 arctan(T )
|F ( )| =
(9.45)
(9.46)
;
2 T 2 + 1
F ( ) = 0, 5 arctan(T )
(9.47)
retardo!diagrama polar
c
rculo unitario
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
240
espiral
10
12
1.5
0.5
0.5
La magnitud es la misma de una funcion tipo [P6], lo cual implica que decae
monotonamente a medida que la frecuencia crece. Por su parte, la fase exhibe
un crecimiento monotono, en la direccion negativa; esta caracterstica se debe
al termino . Dado que la magnitud decae monotonamente, el crecimiento
de la fase genera una espiral hacia el origen.
0.02
0.01
Parte imaginaria
Parte imaginaria
1
2
0.02
3
4
3
0.01
0.03
0
2
1
Parte real
a)
0.04
0.04
0.02
0
Parte real
0.02
0.04
b)
241
1
(0, 5 + 1)(( )2 + 1)
(9.48)
(0, 25 2
j
2
2
+ 1)( + 1)
(0, 25 + 1)( 2 + 1)
(9.49)
y en magnitud y fase:
|H( )| = p
1
0, 25 2
(9.50)
+ 1 | 2 1|
(
arctan(0, 5)
H( ) =
arctan(0, 5)
< 1
> 1
(9.51)
discontinuidad
242
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
dado que la discontinuidad de la fase es [rad], el diagrama polar salta
desde el cuarto cuadrante al segundo cuadrante cuando pasa por 1
[rad/s]; y
cuando la magnitud tiende a 0 y la fase tiende a 1, 5 [rad/s],
es decir, el diagrama polar tiende al origen acerc
andose asint
oticamente
al eje imaginario superior.
El diagrama polar para este ejemplo aparece en la Figura 9.14. Note que se
ha dibujado con lnea delgada la asntota del diagrama polar para 1 y para
1+ .
1.5
Parte imaginaria
0.5
=0
0.5
1.5
2
1
1.5
0.5
0.5
1.5
2.5
Parte real
222
Otro tipo de situaciones de interes son aquellas respuestas en frecuencia
donde el numerador es tambien un polinomio en . Note que en el caso de las
funciones tipo [P1] a [P8], esta situacion no ha sido incluida, ya que solo hemos
considerado funciones con numerador constante. Para observar los fenomenos
que puede provocar este numerador mas complejo consideraremos un u
ltimo
ejemplo.
Ejemplo 9.6. Un sistema tiene la respuesta en frecuencia dada por:
H( ) = 0, 001
( + 5)2 ( + 0, 1)
( + 0, 5)( + 0, 2)( + 0, 1)2
(9.52)
243
( 2
( 2 + 25)2 ( 2 + 0, 01)
+ 0, 25)( 2 + 0, 04)( 2 + 0, 01)2 )
(9.53)
Matlab
>>H=-0.001*tf(poly([-5 -5 0.1]),poly([-0.5 -0.2 -0.1 -0.1]));
>>w=logspace(-1,2,4000);
>>h=freqresp(H,w);subplot(221);plot(h(1,:));
0.8
Parte imaginaria
Parte imaginaria
0.6
0.4
0.2
0
0.2
0.4
2
x 10
2
4
6
8
10
1.5
0.5
Parte real
a)
0.5
12
Parte real
b)
4
3
x 10
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
244
diagrama polar!tiempo discreto
circulo unitario
Matlab
>> w2=logspace(0.3,3,4000);h2=freqresp(H,w2);
>> subplot(222);plot(h2(1,:));
222
9.3.2.
Tiempo discreto
ej
=
=0
po
245
La idea precedente puede ser usada en la determinacion de los rasgos principales de diagramas polares de funciones simples, como se ilustra en el ejemplo
siguiente.
Ejemplo 9.7. Un sistema de tiempo discreto tiene la respuesta en frecuencia
dada por:
ej zo
= 1 zo ej ; 0 < zo < 1
(9.55)
ej
Las caractersticas del diagrama polar pueden ser construidas a partir de la
Figura 9.17.
F (ej ) =
ej
=0
zo
|ej zo |
= |ej zo |
|ej |
F (ej ) = (ej zo ) ej =
(9.56)
(9.57)
Usando relaciones b
asicas de geometra, sabemos tambien que = .
As, la fase de F (ej ) es igual a , por su parte, la magnitud de F (ej ) es igual
al largo del vector ej zo .
Con los antecedentes anteriores vemos que la magnitud de F (ej ) va mon
otonamente desde 1 zo , para = 0, hasta 1 + zo , para = . Por su parte,
la fase empieza en 0 [rad] para = 0, luego crece hasta alcanzar un m
aximo
(siempre menor que /2), luego decae hasta llegar a cero nuevamente cuando
= . El diagrama polar est
a por lo tanto en el primer cuadrante.
222
Para funciones mas complejas es difcil estimar la forma en que evolucionan la
magnitud y la fase. En esos casos es preferible recurrir a software como Matlab
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
246
, que en el caso de Ejemplo 9.7 los siguientes comandos dan como resultado el
grafico de la Figura 9.18.
Matlab
>>
>>
>>
>>
0.8
0.7
0.6
Parte imaginaria
bloques
diagramas de bloques
sistema!interconexi
on
interconexi
on
0.5
0.4
0.3
0.2
0.1
1+zo
1zo
0.1
0.2
0.2
=0
0.2
0.4
0.6
0.8
1
Parte real
1.2
1.4
1.6
1.8
9.4.
Diagramas de bloques
247
amplificador
mente, donde:
V2 ( )
R2
=
V1 ( )
C3 R1 R2 + R1 + R2
V4 ( )
C4 R5
=
H2 ( ) =
V3 ( )
C4 R5 + 1
H1 ( ) =
R1
v1 (t)
C3
(9.58)
(9.59)
C4
R2
v2 (t) v3 (t)
R5
v4 (t)
(9.61)
v1 (t)
C3
C4
+
R2
v2 (t)
v3 (t)
R5
v4 (t)
248
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
La discusion precedente se
nala la condicion implcita en los diagramas de
bloques: la funcion de transferencia de cada bloque sigue rigiendo la relacion
entre entrada y salida, aunque el bloque sea interconectado con otros.
La ventaja principal de estos diagramas es que permiten analizar un sistema
por partes, estudiando el rol que cada subsistema juega en el total. Esto es clave
en el analisis y sntesis de filtros, controladores y otros sistemas procesadores de
se
nales.
En la Tabla 9.5 se muestran algunos ejemplos de diagramas de bloques con
sus transferencias equivalentes.
Finalmente es necesario se
nalar que la representacion en diagramas de bloques se aplica sin distincion tanto a sistemas de tiempo continuo como a sistemas
de tiempo discreto, y tambien a sistemas hbridos, que combinan elementos en
ambos dominios, como se muestra en el Captulo 11.
249
Interconexi
on
H1 ( )
Transferencia equivalente
H2 ( )
H1 ( )
H1 ( )H2 ( )
H1 ( ) + H2 ( )
+
H2 ( )
H1 ( )
H2 ( )
H1 ( )H2 ( )
1 H1 ( )H2 ( )
H1 ( )
H1 ( )
1 H1 ( )H2 ( )
H2 ( )
H3 ( )
+
+
H1 ( )
H1 ( )
H2 ( )
H2 ( )
H3 ( )
(H1 ( ) + H3 ( ))H2 ( )
1 + H1 ( )H2 ( )
H1 ( )H2 ( )H3 ( )
1 + H2 ( ) + H1 ( )H2 ( )H3 ( )
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
250
9.5.
15
+ 8s + 15
s
H2 (s) = 2
s 2s 3
H1 (s) =
s2
c)
H3 (s) =
1
s(0,2s + 1)
d)
H4 (s) =
6(s 3)
(s + 5)(s + 9)2
e)
H5 (s) = H4 (s)
f)
H6 (s) =
g)
H7 (s) =
h)
H8 (s) =
e2s
4s + 1
s2
1
+ 0,01s + 1
s2
s2 +3s+2
s + 1
(s + 1)(0,2s + 1)
Problema 9.3. Dados los diagramas de Bode de la Figura 9.21, proponga una
funci
on de transferencia H(s) que pueda ser representada aproximadamente por
ellos.
Problema 9.4. Con los diagramas de Bode de G(s) que aparecen en la Figura
9.22, determine en forma aproximada los diagramas de Bode para e2s G(s),
G(s)
s+1
s+1 G(s) y
s .
Problema 9.5. Dados los diagramas de Bode de G(s) de la Figura 9.23,
determine los diagramas de Bode para G(s).
251
20
0
20
40
60
80
100
Fase (grados)
50
0
50
100
150
200
2
10
10
10
10
10
10
Frecuencia (rad/seg.)
0
10
20
30
40
50
0
Fase (grados)
50
100
150
200
2
10
10
10
Frecuencia (rad/seg.)
10
DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
0
5
10
15
20
25
0
20
Fase (grados)
252
40
60
80
100
1
10
10
10
Frecuencia (rad/seg.)
10
variables!de estado|textbf
estado|textbf
espacio!de estado
modelo!en espacio de estado
Captulo 10
Representaci
on en variables
de estado.
10.1.
254
sistema!din
amico
sistema!h
brido
muestreo
estado!del sistema
estado!variables de
variables!de estado
estado!vector de
vector!de estado
estado!espacio de
estado!trayectoria
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
10.2.
Conceptos fundamentales
10.2.1.
Introducci
on
Uno de los tipos de modelos utilizados con frecuencia para describir un sistema es aquel en un conjunto de ecuaciones que relaciona sus variables internas.
Estas variables se denominan variables de estado. En cada instante el conjunto de ellas, que toman un valor determinado, se denomina estado del sistema.
Sin embargo, a menudo usaremos las expresiones variables de estado y estado
del sistema como sinonimos.
La definicion dada es mas bien intuitiva y podra coincidir en realidad con
cualquier grupo de variables de un sistema dado. Por esto, seremos mas precisos:
Un conjunto de variables de estado de un sistema dado es aquel que permite
expresar cualquier variable del sistema como funci
on del estado presente y de
los valores presentes y futuros de las entradas del sistema.
En esta definicion hemos enfatizado en significado fsico de las variables de
estado. Sin embargo, existen tambien definiciones mas abstractas.
El conjunto de variables de estado usualmente se agrupan en un vector de
estado, el cual pertenece al llamado espacio de estado.
Es importante notar es que la evolucion del estado en el tiempo, es decir, su
trayectoria, puede ser obtenida a partir del estado presente y el valor futuro de
las entradas del sistema. De esta forma, los modelos de este tipo son siempre
ecuaciones diferenciales de primer orden, en el caso de sistemas continuos, o
ecuaciones recursivas de un paso, para sistemas discretos
Ademas, al conocer el estado del sistema en un instante dado t, podemos
entonces calcular la energa que en ese instante el sistema posee. En el caso de
sistemas fsicos, esta siempre depende de las variables del sistema, tales como velocidad, posicion, presion, voltaje y corriente, entre otras. Todas estas variables,
255
por la definicion dada, se pueden obtener a partir del estado del sistema.
Esto sugiere ademas que podemos pensar el estado de un sistema de forma
mas general, ya que las variables de estado pueden ser cualquier funci
on de
variables del sistema. Esta observacion resulta muy importante pues establece
que el estado del sistema no necesariamente esta formado por variables reales
del sistema, permitiendo de esta forma un analisis mas general. Es mas, esta
misma observacion hace evidente que la eleccion de las variables de estado no
es u
nica.
10.2.2.
Modelos b
asicos en variables de estado
(10.1)
(10.2)
(10.3)
(10.4)
(10.5)
(10.6)
256
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
transformaci
on del estado
estado!transformaci
on
similaridad
se~
nal!modelo de estado
v(t)
d(t)
K
f(t)
roce viscoso
dv(t)
+ Kd(t) + Dv(t) = M x 2 (t) + Kx1 (t) + Dx2 (t)
dt
(10.7)
(10.8)
(10.9)
x(t) = Tx(t)
(10.11)
M
as adelante, en la Secci
on 10.3.3, veremos en m
as detalle este tipo de
transformaciones.
222
10.2.3.
Se
nales descritas en espacio de estado
257
(10.12)
(10.13)
Para se
nales de tiempo discreto
x[t + 1] = Aq x[t]
(10.14)
y[t] = Cq x[t]
(10.15)
(10.16)
(10.17)
Si ahora escogemos como variables de estado x1 (t) = f (t), x2 (t) = f(t) y
x3 (t) = f(t), entonces el modelo el espacio de estado de esta se
nal es:
0
1
0
dx(t)
0
1 x(t)
y(t) = [1 0 0] x(t)
(10.18)
= 0
dt
0 25 0
222
10.3.
se~
nal!de tiempo continuo
se~
nal!de tiempo discreto
sistema!tiempo continuo
258
retardo
linealizaci
on
punto de equilibrio
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
e invariantes en el tiempo, tal como se ha considerado en los captulos previos. Naturalmente los sistemas son en general no lineales, tal como se muestra
en las ecuaciones (10.1) y (10.2), pero pueden ser linealizados, tal como se hizo
en el captulo 1.
Otra restriccion importante es que los sistemas considerados no poseen retardos puros. Estos daran origen a un vector de estado de dimension infinita.
Sin embargo, en la Seccion 10.4 veremos que este tipo de sistemas pueden ser
representados en variables de estado usando un modelo del sistema muestreado.
10.3.1.
Linealizaci
on
(10.19)
(10.20)
Suponemos que el modelo (10.19)-(10.20) tiene, al menos, un punto de equilibrio dado por {xQ , uQ , yQ }. Este tro de vectores satisface:
0 = F(xQ , uQ )
yQ = G(xQ , uQ )
(10.21)
(10.22)
(x(t)
x
)
+
(u(t) uQ ) (10.23)
x(t)
F(xQ , uQ ) +
Q
x x=xQ
u x=xQ
u=uQ
u=uQ
G
G
y(t) G(xQ , uQ ) +
(x(t) xQ ) +
(u(t) uQ ) (10.24)
x x=xQ
u x=xQ
u=uQ
u=uQ
(10.25)
(10.26)
donde las se
nales incrementales son:
x(t) = x(t) xQ ;
u(t) = u(t) uQ ;
y(t) = y(t) yQ
(10.27)
u=uQ
259
G
D=
u x=xQ
u=uQ
u=uQ
(10.28)
Para ilustrar esta forma de obtener un modelo lineal para un sistema no
lineal, se ilustra en el siguiente ejemplo.
Ejemplo 10.3. Considere el levitador electromagnetico que se muestra en la
Figura 10.2.
i(t)
R
h(t)
f(t)
e(t)
v(t)
mg
K1
i(t)
h(t) + K2
(10.29)
di(t)
dt
dh(t)
dt
K1
dv(t)
f (t) =
i(t) = mg + m
h(t) + K2
dt
v(t) =
(10.30)
(10.31)
(10.32)
260
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
A continuaci
on escogemos las variables de estado: la corriente i(t), la posici
on de la esfera h(t), y su velocidad v(t), es decir:
T
T
x(t) = x1 (t) x2 (t) x3 (t) = i(t) h(t) v(t)
(10.33)
(10.34)
(10.35)
(10.36)
EQ
(10.37)
R
=0
(10.38)
K1
K 1 EQ
=
x1Q K2 =
K2 (10.39)
mg
mgR
= x1Q =
= x3Q
= x2Q
0
L
0
A=
0
Rg
Rmg 2
EQ
K 1 EQ
(10.40)
(10.41)
(10.42)
1
0
0
T
1
; C = 1 ; D = 0 (10.43)
0
; B =
0
0
0
222
261
10.3.2.
(10.44)
(10.45)
on inicial x(to ) = xo ,
Lema 10.1. Dada la ecuaci
on (10.44), sujeta a la condici
su soluci
on es:
Z t
A(tto )
x(t) = e
xo +
eA(t ) Bu( )d
t to
(10.46)
to
X
1 k k
A t
k!
(10.47)
k=1
(Para la definici
on de exponencial de una matriz ver Apendice F) Demostraci
on
Puede verificarse directamente al reemplazar (10.46) en la ecuaci
on (10.44),
usando la regla de Leibniz para la derivaci
on de la integral.
222
Con este resultado, dado un estado inicial x(to ) = xo la solucion de las
ecuaciones (10.44)(10.45) se puede expresar como:
Z t
y(t) = CeA(tto ) xo + C
eA(t ) Bu( )d + Du(t)
(10.48)
to
Din
amica del sistema
Como hemos visto en los Captulos 3 y 4, la salida de un sistema siempre
puede descomponerse en dos partes: una componente no forzada determinada
por las condiciones iniciales y formada por los modos naturales del sistema, y
una componente forzada por la se
nal de entrada al sistema. Esto mismo se ve
confirmado en la solucion de la ecuacion de estado (10.48), donde se aprecia la
componente no forzada xu (t), y la componente forzada xf (t), donde:
xu (t) = eA(tto ) xo
Z t
xf (t) =
eA(t ) Bu( )d
to
(10.49)
(10.50)
matriz!de
transici
on
exponencial!de una matriz
262
respuesta homog
enea
estabilidad
velocidad
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
(10.51)
Supondremos ademas que A Rn y que, por simplicidad, no tiene autovalores repetidos, sino que son todos diferentes 1 ,2 ,. . . , n , con sus n autovectores
v1 , v2 , . . . , vn linealmente independientes1 . En este caso podemos afirmar que
siempre existen constantes 1 , 2 , . . . , n tales que:
xo =
n
X
` v` ;
`=1
` C
(10.52)
At
xo =
! n
!
X
X
1 k k
A t
` v`
I+
k!
`=1
k=1
n
X
X 1
X
=
Ak v ` t k =
` v` +
` e ` t v`
k! | {z }
`=1
k=1
k
` v`
(10.53)
`=1
(10.54)
263
1,2 =
2M
Donde podemos apreciar que:
K
D
+
=0
M
M
D2
K
2
4M
M
(10.56)
(10.57)
Si no existe amortiguaci
on (D=0), los autovalores del sistema son imaginarios puros, y lospmodos naturales son oscilaciones sostenidas de frecuencia angular o = K/M . Esto coincide con la interpretaci
on fsica, pues
si no existe roce es natural pensar que si el resorte no se encuentra en su
largo natural o la masa posee velocidad inicial, esta permanecer
a oscilando
indefinidamente, aunque no exista fuerza externa.
Cuando el sistema est
a debilmente amortiguado ( D 2 < 4KM ), los autovalores de la matriz A son complejos conjugados con parte real negativa,
por tanto los modos naturales asociados son sinusoides amortiguadas exponencialmente. Esto coincide tambien con lo que sucede en la pr
actica,
pues en caso de existir una fuerza de roce no muy grande, la masa oscilar
a hasta detenerse en ealg
un momento en su posici
on de largo natural.
Finalmente, si la amortiguaci
on es muy grande ( D 2 > 4KM ), los autovalores de la matriz ser
an reales y negativos, lo cual indica que los autovalores son dos exponenciales decrecientes. En este caso, la existencia de
una fuerza de roce importante se traduce en que la masa no lograr
a oscilar
sino que es llevada por la fuerza del resorte hasta su posici
on de equilibrio,
y toda la energa contenida en el sistema se disipa r
apidamente en el roce.
264
Para ilustrar estas tres situaciones podemos utiliar Matlab , que permite
definir facilmente definir sistemas en variables de estado a traves del comando ss. La respuesta a una condici
on inicial se obtiene a traves del comando
initial. Para estas simulaciones consideramos tres diferentes valores para la
constante de roce viscoso D, mientras que los otros par
ametros son:
hmi
N
d(0) = 0, 3 [m]; and v(0) = 0, 05
M = 2 [kg]; K = 0, 1
m
s
(10.58)
Usando c
odigo Matlab como el siguiente se obtienen los gr
aficos de la Figura 10.3.
Matlab
>>
>>
>>
>>
>>
0.4
D=0
D=0.2
D=2
0.2
Amplitud
plano de fase
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
0
0.2
0.4
10
20
30
40
50
60
70
Tiempo (seg.)
Matlab
>> [y,t,x]=initial(S,x_o);
>> plot(x(:,1),x(:,2))
265
0.1
modo forzado
soluci
on particular
0.08
xo=[0.3 0.05]
0.06
velocidad v(t)
0.04
0.02
0
0.02
0.04
0.06
D=0
D=0.2
D=2
0.08
0.1
0.5
0.4
0.3
0.2
0.1
distancia d(t)
0.1
0.2
0.3
0.4
0.5
Note que, excepto en el caso en que no existe roce (D = 0), la masa llegar
aa
detenerse asint
oticamente, es decir, llega al origen del espacio de estado.
222
Estructura de la respuesta forzada
Cuando las condiciones iniciales del sistema son cero, el estado solo tendra su
componente forzada.
Z t
xf (t) =
eA(t ) Bu( )d
(10.59)
to
Esta parte del estado tambien incluye modos naturales, pero ademas contiene
los modos forzados o soluciones particulares, los cuales como hemos visto en
captulos precedentes, no dependen del sistema, sino que exclusivamente de la
se
nal de entrada u(t). En general, los modos forzantes presentes en la entrada
apareceran tambien en el estado. Sin embargo, es importante mencionar que un
caso especial sucede cuando los modos forzantes en la entrada coinciden con
alguno de los modos naturales del sistema.
Estabilidad del sistema
Tal como se menciono antes, la estabilidad de un sistema lineal e invariante
puede ser analizada usando la matriz de estado A.
266
equilibrio
inestable
punto de equilibrio
modo natural!dominante
resonancia
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
0
0
0
1
A= 0
(10.60)
Rg
Rmg 2
0
EQ
K 1 EQ
+
det(I A) = +
L
K 1 EQ
K 1 EQ
(10.61)
267
En sistemas mecanicos, la energa cinetica de una masa en movimiento y la energa potencial debida a diferencia de nivel o a la compresion de un resorte. Los
principales problemas con este tipo sistemas ocurren cuando la se
nal de entrada
contiene energa en la banda de frecuencias cercana a la frecuencia con que el
sistema oscila en forma natural. En la practica, este problema puede traducirse
en oscilaciones de magnitud que el sistema simplemente no esta preparado para
soportar. Para ilustrar esta situacion examinaremos un ejemplo que ilustra el
fenomeno:
Ejemplo 10.5. Consideremos nuevamente el sistema masa-resorte-roce del
Ejemplo 10.1, en que las constantes tienen los valores:
M = 1[kg]
D = 13 [Ns/m]
K = 1[N/m]
(10.62)
Con lo cual los autovalores del sistema son las soluciones de:
det(I A) = 2 +
D
M
1,2 = 16
1
2
+
q
K
M
35
9
= 2 + 31 + 1 = 0
(10.63)
61 j
(10.64)
Por tanto, los modos naturales son de la forma e0,1667t cos(t+). Cualquier
excitaci
on que posea energa a frecuencias cercanas a = 1[rad/s] har
a que el
sistema entre en resonancia, haciendo que en la salida del sistema aparezcan
oscilaciones de magnitud significativa.
Se desarrolla una simulaci
on del comportamiento del sistema bajo dos excitaciones distintas: en el primer caso, la entrada es una sinusoide de frecuencia
= 1 [rad/s], y en el segundo caso, la excitaci
on una se
nal cuadrada de frecuencia fundamental o = 0, 333 [rad/s]. En ambos casos las condiciones iniciales
del sistema son cero. Los resultados se muestran en la Figura 10.5.
Podemos apreciar que, en el primer caso, se genera un fen
omeno de resonancia debido a que la frecuencia de la sinusoide es aproximadamente igual a
la frecuencia de oscilaci
on de los modos naturales del sistema. En el segundo
caso, tambien aparece un fen
omeno de resonancia; sin embargo, ahora se debe
a la tercera arm
onica de la excitaci
on , ya que la frequencia angular de ella
es 3o = 0, 999[rad/s], es decir, coincide casi exactamente con la frecuencia
natural de oscilaci
on del sistema.
222
10.3.3.
Transformaciones de similaridad
transformaci
on del estado
estado!transformaci
on
similaridad
268
matriz!de transformaci
on
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
3
y(t)
u(t)
2
1
0
1
2
3
10
15
10
15
20
25
30
35
40
20
25
30
35
40
tiempo
y(t)
u(t)
2
1
0
1
2
3
tiempo
Lema 10.2. Dado un sistema cuyo vector de estado es x(t) y sus matrices son
{A, B, C, D}, entonces, dada la matriz de transformaci
on T Rnn no
singular, tenemos un nuevo vector de estado:
x(t) = T x(t)
(10.65)
B = TB
C = CT1
D=D
(10.66)
Demostraci
on
Dada la transformaci
on (10.65), en que T es no singular y, por tanto, invertible, tenemos que:
x(t) = T1 x(t)
(10.67)
Si reemplazamos entonces el vector de estado x(t) en las ecuaciones de estado
del sistema (10.44)-(10.45), obtenemos:
T1 x(t)
= AT1 x(t) + Bu(t)
y(t) = CT
x(t) + Du(t)
(10.68)
(10.69)
269
B
z }| {
z}|{
1
x(t)
= TAT x(t) + TB u(t)
(10.70)
1
D u(t)
y(t) = CT
| {z } x(t) + |{z}
C
(10.71)
(10.72)
(10.73)
1
(10.74)
(10.75)
Por tanto, la estabilidad, la naturaleza de la respuesta homogenea y la velocidad de respuesta del sistema son invariantes respecto a transformaciones de
similaridad del estado.
i (t)
+
vf (t)
i2 (t)
R1
C
L
iL (t)
R2
vC (t)
1
0
dx(t) 0
L
1 u(t)
(10.76)
= 1
R1 + R2 x(t) +
dt
R1 C
C
R1 R2 C
270
funci
on de transferencia
polos
autovalores
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
Una elecci
on alternativa del vector de estado puede ser x(t) = [x 1 (t) x2 (t)]T =
T
[i(t) i2 (t)] . Donde puede probarse sin problema que
1 R2 1
x(t)
(10.77)
x(t) =
R2 0 1
{z
}
|
T
222
10.3.4.
z }| {
z }| {
sX(s) x(0 ) = AX(s) + B L {(t)}
(sI A)X(s) = B
X(s) = (sI A)
(10.80)
(10.81)
(10.82)
(10.83)
271
Por otro lado, para obtener los polos de la transferencia H(s) podemos reescribir la inversa de (sI A) usando las propiedades en el Apendice F. De esta
forma:
H(s) = C
(10.84)
Lo que pone de manifiesto que todos los polos de H(s) son autovalores de la
matriz A.
222
Es importante notar que no necesariamente los polos de la funcion de
transferencia son todos los autovalores del sistema, pues la ecuacion (10.79)
puede tener cancelaciones encubiertas entre races del numerador (ceros) y races
del denominador (polos) . Esto se ilustra mejor a traves del siguiente ejemplo.
Ejemplo 10.7. Consideremos las matrices de un modelo de estado:
2 1
1
A=
; B=
; C= 0 1 ; D=0
0 3
0, 5
Entonces, la funci
on de transferencia asociada es:
s+3
1
0 1
H(s) = C(sI A)1 B =
0
(s + 2)(s + 3)
=
0, 5
0, 5(s + 2)
=
(s + 2)(s + 3)
(s + 3)
1
s+2
1
0, 5
(10.85)
(10.86)
(10.87)
cancelaci
on
272
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
realizaci
on m
nima
Un problema
funci
on de transferencia!estrictamente propia
interesante es obtener una representacion de estado de un sistema a partir de su funcion de transferencia. El lector debe tener la precaucion
de considerar un modelo de estado adecuado, el cual no contenga cancelaciones
entre polos y ceros implcitas. Teniendo esto en cuenta, el modelo obtenido se
denomina realizaci
on mnima.
Existen diferentes metodos para obtener un modelo en variables de estado a
partir de la funcion de transferencia, y a continuacion ilustramos uno de ellos.
Consideremos la funcion de transferencia dada por
Bo (s)
bn1 sn1 + bn2 sn2 + . . . b1 s + b0
+ HT () =
+ HT ()
Ao (s)
sn + an1 sn1 + . . . + a1 s + a0
(10.88)
En primer lugar, podemos apreciar que D = HT (), por tanto basta considerar la funcion de transferencia H(s) = HT (s) HT (), que es estrictamente
propia.
Consideremos ahora v` (t) R cuya transformada de Laplace es V` (s) tal
que:
s`1
U (s)
` {1, 2, . . . , n}
(10.89)
V` (s) =
Ao (s)
HT (s) =
(10.90)
(10.91)
`=1
n
X
s`1
sn
Ao (s)
a`1
U (s) =
U (s) +
U (s)
Ao (s)
Ao (s)
Ao (s)
`=1
|
{z
}
| {z }
U (s) =
sVn (s)
(10.92)
V` (s)
A=
0
0
..
.
1
0
..
.
0
1
..
.
a0
a1
a2
C = b0
b1
b2
bn1 ;
0
0
..
.
0
0
..
.
an2
an1
D = HT ()
0
0
B = ...
0
1
(10.93)
(10.94)
4s 10
4s 10
= 3
(s + 2)2 (s 1)
s + 3s2 4
(10.95)
0 1 0
0
A = 0 0 1 ; B = 0
4 0 3
1
C = 10 4 0 ; D = 0
(10.96)
(10.97)
222
10.4.
sistema!discreto
sistema!muestreado
discretizaci
on
muestreo
PLC
conversor!digital-an
alogo(DAC)
conversor!an
alogo-digital(ADC)
DAC|seeconversor
ADC|seeconversor
274
linealizaci
on
sistema!muestreado
muestreo
sampling|seemuestreo
retentor
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
10.4.1.
Linealizaci
on de sistemas discretos
(10.98)
(10.99)
(10.100)
(10.101)
u[t] = u[t] uQ ;
y[t] = y[t] yQ
(10.102)
(10.103)
(10.104)
10.4.2.
u=uQ
Gd
Cd =
;
x x=xQ
u=uQ
Gd
Dd =
u x=xQ
u=uQ
(10.105)
Sistemas muestreados
en ingl
es
Retentor
u[k]
(Hold)
uS (t)
Sistema de
Tiempo Continuo
Muestreo
(Sample)
y(t)
y[k]
A(k0 +k0 )
x(k0 ) +
k0 +
eA(k0 + ) B u( )d
k0
(10.106)
Es mas, si u( ) es generada mediante un retentor de orden cero, entonces:
u( ) = u(k0 )
k0 < k 0 +
(10.107)
eA d B u(k0 )
(10.108)
(10.109)
ZOH|seeretentor
muestreo!per
odo de
per
odo!de muestreo
276
exponencial!de una matriz
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
(10.110)
(10.111)
Bd =
eA d B ;
Cd = C
Dd = D
(10.112)
(10.113)
# "
x 1 (t)
0
=
K
x 2 (t)
M
1
D
M
#"
# "
#
x1 (t)
0
+
f (t)
1
x2 (t)
M
(10.114)
donde f (t) es la fuerza externa, y donde podemos escoger como salida del sistema
ya sea la posici
on de la masa, x1 (t), o su velocidad, x2 (t).
Para simplificar las expresiones, supongamos algunos valores para los par
ametros del sistema. Se fija la masa M = 1 [kg], la constante de roce viscoso D = 1, 2
[Ns/m] y la constante del resorte K = 0, 32 [N/m].
"
s
Ad = L1
0, 32
2,5(e0,4 e0,8 )
e0,4 + 2e0,8
(10.115)
2e0,4 e0,8
2,5(e0,4 e0,8 )
0
d
0, 8(e0,4 e0,8 ) e0,4 + 2e0,8
1
0,4
0,8
6,25e
+ 3,125e
+ 3,125
=
2,5(e0,4 e0,8 )
(10.116)
10.4.3.
(10.117)
(10.118)
x[t] = Ad (tto ) xo +
i=0
on discreta.
donde Ad (tto ) es la matriz de transici
Demostraci
on
t to
(10.119)
matriz!de transici
on! discreta
278
respuesta!no forzada
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
on inicial x[to ] = xo ,
A partir de la ecuaci
on (10.117), usando la condici
puede determinarse completamente la trayectoria futura del estado. As:
x[to + 1] = Ad x[to ] + Bd u[to ]
(10.120)
(10.121)
Por inducci
on, tenemos que:
`
x[to + `] = Ad x[to ] +
`1
X
Ad `1+i Bd u[to + i]
i=0
` 0
(10.122)
Este u
ltima ecuaci
on coincide con la ecuaci
on (10.119) al hacer ` = t to .
222
Con el resultado del lema anterior, podemos encontrar la solucion a la
ecuacion (10.118), pues la salida del sistema queda determinada en todo momento por el vector de estado:
y[t] = Cd Ad
(tto )
xo + C d
(tto )1
X
i=0
Ad (tto )i1 Bd u[to + i] + Dd u[t]
(10.123)
Din
amica del sistema
El vector de estado que se obtiene al resolver las ecuaciones del sistema,
analogamente al caso de tiempo continuo, tiene dos componentes: la componente
no forzada, xu [t], y la forzada, xf [t], donde:
xu [t] = Ad (tto ) xo
(10.124)
(tto )1
xf [t] =
(10.125)
i=0
(10.126)
n
X
` v`
`=1
; ` C
(10.127)
n
X
` v` =
n
X
`=1
`=1
` Ad t v ` =
| {z }
`t v`
n
X
` `t v`
(10.128)
`=1
(10.129)
estabilidad
velocidad
280
respuesta!forzada
estabilidad
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
Los autovalores del sistema son las soluciones de la ecuaci
on:
0, 8913 0, 5525
det(I Ad ) = det
0, 1768
0, 2283
= ( 0, 6703)( 0, 4493) = 0
(10.131)
(10.132)
t
= |` |t ej` t
; donde ` = `
(10.134)
(10.135)
(10.136)
= (1 ` )
= 1 `t
t1
X
i=0
`ti1
= (1 ` )`t1
1 `t
1 `1
(10.138)
(10.139)
transiente|seerespuesta!transitoria
respuesta!a escal
on
resonancia
282
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
per
odo!de muestreo
muestreo!per
odo de
y[k]
0.8
0.6
= 0.2
= 0.6
= 0.8
0.4
0.2
0
5
6
tiempo discreto k
10
(10.140)
(10.141)
(10.142)
t
(10.143)
= 0, 9048t ej 4 t = 0, 9048t cos 4 t j sen 4 t
1,2
. En este
inferior, en tanto, la entrada es una se
nal cuadrada de frecuencia 12
u
ltimo caso, la frecuencia de la tercera arm
onica de la entrada coincide con
la de los modos naturales.
222
Efecto del perodo de muestreo
Si observamos las ecuaciones (10.112), podemos notar que las matrices Ad y
Bd dependen de la eleccion del perodo de muestreo . Esta eleccion tendra un
efecto directo sobre la posicion de los polos del sistema.
Lema 10.5. Dado un sistema de tiempo continuo con {i , . . . , n }, si este
sistema es muestreado con un perodo de muestreo , entonces los autovalores
del sistema discreto resultante son {1 , . . . , ` }, en que:
` = e `
(10.144)
10
15
20
25
tiempo discreto k
30
35
40
10
15
20
25
tiempo discreto k
30
35
40
3
y[k]
u[k]
2
1
0
1
2
3
Demostraci
on
La matriz del sistema de tiempo continuo A puede ser diagonalizada utilizando sus autovalores:
A = T1 diag{1 , . . . , n }T
(10.145)
donde {1 , . . . , n } son los autovalores del sistema de tiempo continuo. Entonces, usando (10.112):
Ad = eA = eT
diag{1 ,...,n }T
= eT
diag{1 ,...,n }T
= T1 diag{e1 , . . . , en }T
(10.146)
donde el u
ltimo paso es consecuencia de la definici
on de la exponencial de una
matriz (Apendice F). De esta forma, a partir de (10.146) resulta evidente que
los autovalores de Ad son precisamente {e1 , . . . , en }.
222
En la Figura 10.10 se muestra la respuesta del sistema muestreado del Ejemplo 10.9, considerando x1 [t] como la salida del sistema, cuando inicialmente
xo = [1 0]T , para diferentes valores de . Se debe notar que el eje horizontal
corresponde a los instantes discretos t, por tanto los instantes de tiempo reales
son t [seg.]
284
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
retardo
x1[k]
0.5
8
10
12
Tiempo de muestreo =1
14
16
18
20
8
10
12
Tiempo de muestreo =2
14
16
18
20
14
16
18
20
x1[k]
0.5
x1[k]
0.5
10
12
tiempo discreto k
u(t)
Calefactor
y(t)
Sensor
flujo
(10.147)
Donde U (s) e Y (s) son las transformadas de Laplace de u(t) e y(t) respectivamente.
Supongamos luego que las se
nales de entrada y salida son muestreadas cada
[s]. El retardo , tambien en segundos, es funci
on de la velocidad del flujo y
podemos suponer, por simplicidad, que es un m
ultiplo del intervalo de muestreo
, es decir, = m, m Z+ . Este retardo se convierte en un factor z m en el
denominador de la funci
on de transferencia en el dominio de la transformada
Zeta. Es decir, el retardo se convierte en un conjunto de m polos en el origen.
Adem
as, en base a la ecuaci
on (10.144), el autovalor del sistema continuo en
s = se transforman en un autovalor del sistema discreto en z = e . La
funci
on de transferencia resultante es:
K 1 e
Y [z]
= H[z] =
U [z]
z m (z e )
(10.148)
(10.149)
x2 [t + 1] = x3 [t]
..
..
.
.
xm [t + 1] = xm+1 [t]
xm+1 [t + 1] = e
xm+1 [t] +
y[t] = x1 [t]
(10.150)
(10.151)
K
(1
)u[t]
(10.152)
(10.153)
A
un m
as, podemos interpretar las variables de estado xm+1 [t], . . . , x1 [t] como la temperatura en puntos equiespaciados entre el calefactor y el sensor de
temperatura (suponiendo un caudal de velocidad constante).
222
286
transformaci
on del estado
estado!transformaci
on
similaridad
funci
on de transferencia
matriz!adjunta
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
Cuando el retardo no es m
ultiplo exacto del perodo de muestreo , en la
funcion de transferencia aparecen un polo y un cero adicionales (consulte, por
ejemplo, [6]).
10.4.4.
Transformaciones de similaridad
Las diferentes elecciones del vector de estado para sistemas discretos se relacionan de la misma manera que para sistemas de tiempo continuo a traves de las
transformaciones de similaridad (Seccion 10.3.3). De igual forma, muchas de
las propiedades del sistema, como la ubicacion de las frecuencias naturales o autovalores, la controlabilidad y la observabilidad tambien permanecen invariantes
ante este tipo de transformaciones.
10.4.5.
Para los sistemas de tiempo discreto la relacion entre los modelos en variables
de estado y aquellos mediante funciones de transferencia es analoga al caso de
tiempo continuo (Seccion 10.3.4).
Como hemos mencionado, el modelo en variables de estado de un sistema
lineal, invariante en el tiempo es una descripcion alternativa a la funcion de
transferencia, que a menudo entrega mayor informacion sobre el sistema.
Para un sistema de tiempo discreto, lineal e invariante, con entrada u[t] R m
y salida y[t] Rp , la funcion de transferencia, H[z], esta definida como:
Y[z] = H[z]U[z];
where [H[z]]ij =
Yi [z]
Uj [z]
(10.154)
(10.155)
Cd (zI Ad )1 Bd + Dd = H[z]
(10.157)
(10.156)
que se reduce a:
En adelante, nos concentraremos en los sistemas escalares o SISO, i.e. m =
p = 1, Bd , Cd T son vectores columna, y Dd = H[]. Podemos apreciar que en
este caso H[z] es un cuociente de polinomios en la variable z, i.e.
H[z] =
Cd Adj(zI Ad ) Bd + Dd det(zI Ad )
det(zI Ad )
(10.158)
cancelaci
on
realizaci
on m
nima
sistema!interconexi
on
zF [z] = Z {f [t + 1]}
(10.159)
2z 2 z + 1
1,8z + 0, 04
= 2
+2
(z 0, 8)(z 0, 6)
z 1,4z + 0, 48
(10.160)
Una realizaci
on mnima para este sistema est
a dada por las matrices:
0
1
0
Ad =
; Bd =
(10.161)
0, 48 1,4
1
Cd = 0, 04 1,8 ; Dd = 2
(10.162)
222
10.5.
288
conexi
on!serie(cascada)
serie!conexi
on
cascada|seeconexi
on
conexi
on!paralelo
paralelo!conexi
on
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
estos casos nos interesa obtener un modelo en variables de estado del sistema
completo resultante.
Para el analisis que sigue consideramos dos sistemas, definidos mediante su
modelo en variables de estado:
dx1 (t)
= A1 x1 (t) + B1 u1 (t)
Sistema 1:
(10.163)
dt
dx2 (t)
= A2 x2 (t) + B2 u2 (t)
Sistema 2:
(10.164)
dt
2 2
2 2
Conexi
on en serie
u(t)
u2(t)
x2(t)
u1(t)
y2(t)
x1(t)
y1(t)
y(t)
Conexi
on en paralelo
La interconexion de sistemas que se muestra en la Figura 10.13 se denomina
conexion en paralelo. Para obtener el modelo de estado deseado, observamos
que la entrada es u(t) = u1 (t) = u2 (t) y que la salida para el sistema se expresa
como y(t) = y1 (t) + y2 (t). De esta forma, se obtiene:
x1 (t)
B1
x 1 (t)
A1 0
u(t)
(10.167)
+
=
B2
x 2 (t)
0 A2 x2 (t)
x1 (t)
y(t) = C1 C2
+ D1 + D2 u(t)
(10.168)
x2 (t)
u1(t)
x1(t)
u(t)
u2(t)
x2(t)
conexi
on!realimentaci
on
realimentaci
on
feedback!seerealimentaci
on
lazo de control
planta
controlador
y1(t)
y(t)
+
y2(t)
Conexi
on en realimentaci
on
La interconexion de sistemas que se muestra en la Figura 10.14 se denomina
conexion en realimentacion o feedback (con realimentacion negativa unitaria), y
aparece normalmente asociada a la estructura basica del lazo de control realimentado, donde S1 es la planta y S2 es el controlador. Para obtener el modelo en
variables de estado del sistema en su conjunto, podemos apreciar que la entrada
al sistema completo satisface la ecuacion u(t) = u2 (t) + y1 (t), y que la salida
del sistema es y(t) = y1 (t). Si suponemos ademas que el sistema S1 (la planta)
es estrictamente propia, es decir, D1 = 0, se obtiene:
B1 D 2
A1 B1 D2 C1 B1 C2 x1 (t)
x 1 (t)
+
u(t)
(10.169)
=
x2 (t)
x 2 (t)
B2
B2 C1
A2
x1 (t)
(10.170)
y(t) = C1 0
x2 (t)
u(t)
u2(t)
+
x2(t)
y2(t)
u1(t)
x1(t)
y1(t)
y(t)
290
sistema!propiedades
control
controlabilidad
sistema!controlable
estado!controlable
alcanzabilidad
sistema!alcanzable
estado!alcanzable
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
10.6.
10.6.1.
0
x 1 (t)
=
0
x 2 (t)
1
0
1
x1 (t)
u(t)
+
0
x2 (t)
(10.171)
Dado un estado inicial [x1 (0), x2 (0)]T , la entrada u(t) puede ser elegida para
llevar x1 (t) a cero, mientras que x2 (t) no sufre ning
un cambio. Diremos que
este sistema no es completamente controlable.
222
Formalmente, tenemos la siguiente definicion:
Definici
on 10.1. Un estado xo se dice controlable si existe un intervalo de
tiempo finito [0, T ] y una entrada {u(t), t [0, T ]} tal que x(T ) = 0. Si todos
los estados son controlables, entonces se dice que el sistema es completamente
controlable.
Alcanzabilidad
Un concepto relacionado con la controlabilidad es la alcanzabilidad, usado
en general para sistemas de tiempo discreto. Formalmente se define como:
Definici
on 10.2. Un estado x 6= 0 se dice alcanzable desde el origen, si dado
x(0) = 0, existe un intervalo de tiempo finito [0, T ] y una entrada {u(t), t
[0, T ]} tal que x(T ) = x. Si todos los estados del sistema son alcanzables se dice
que el sistema es completamente alcanzable.
291
Para sistemas de tiempo continuo, lineales e invariantes, completa controlabilidad y alcanzabilidad son equivalentes. Sin embargo, el ejemplo siguiente
ilustra una diferencia entre estas propiedades para sistemas de tiempo discreto.
Ejemplo 10.17. Considere el sistema y la salida:
0, 5
1
0, 5
x[t + 1] =
x[t] = x[t] =
0, 25 0, 5
0, 25
|
{z
}
1
0, 5
t
x[0]
(10.172)
Ad
x(t)
= Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)
(10.173)
(10.174)
AB
A2 B
...
An1 B
(10.175)
controlabilidad!test
alcanzabilidad!test
controlabilidad!matriz
matriz!de controlabilidad
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
292
similaridad
controlabilidad!p
erdida
1
0
0
0
(10.177)
(10.179)
d
(vi v+ );
dt
iR1 =
vi v +
;
R1
iR2 =
v+
;
R2
(10.181)
(10.182)
iR1(t)
R1
293
Op.Amp.
v+ (t)
v (t)
R3
vi (t)
C1
R2
vC3(t)
C3
vo (t)
(10.183)
(10.184)
1
(R1 + R2 )
diR1 (t)
0
iR1 (t)
C1 R1 R 2
dt C1 R1 R2
vi (t) (10.185)
dv (t) =
1
R1
1 vC3 (t) +
C3
C3 R3
R3 C3
R3 C3
dt
iR1 (t)
(10.186)
vo (t) = 0 1
vC3 (t)
1
R1 R2 C1
c [A, B] = B AB =
1
R3 C3
(R1 + R2 )
(R1 R2 C1 )2
(R2 C1 + R3 C3 )
(R3 C3 )2 R2 C1
(10.187)
y su determinante es igual a:
det (c [A, B]) =
R2
(R1 C1 + R3 C3 )
(R1 R2 R3 C1 C2 )2
(10.188)
(10.189)
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
294
cancelaci
on
gramiano!controlabilidad
controlabilidad!gramiano
Esta condici
on tiene una interpretaci
on muy importante desde el punto de
vista de la funci
on de transferencia del sistema. Si se aplica transformada de
on de transferencia desde
Laplace a las ecuaciones (10.181)(10.184), la funci
Vi (s) a Vo (s), recordando que V+ (s) = V (s), est
a dada por:
1
1
s+
Vo (s)
Vo (s) V+ (s)
R1 C1
R 3 C3
=
=
(10.190)
1
R1 + R 2
Vi (s)
V (s) Vi (s)
s+
s+
R3 C3
R 1 R2 C1
Donde se aprecia que la perdida de la completa controlabilidad cuando R 1 C1 =
on de un
R3 C3 (obtenida a partir de (10.188)), se traduce en una cancelaci
cero con un polo en la funci
on de transferencia. Siendo m
as especfico, el cero
de la mitad izquierda del circuito en la Figura 10.15 se cancela con el polo de
la otra parte del circuito. Este hecho ser
a analizado con mayor detalle en la
Secci
on 10.6.3.
222
Gramiano de controlabilidad
El test de controlabilidad da una respuesta afirmativa o negativa sobre la
(completa) controlabilidad de un sistema dado. Sin embargo, el saber que un
sistema es completamente controlable no dice nada respecto a que grado de
controlabilidad el sistema posee, es decir, que tan difcil es controlar un estado
del sistema.
Para sistemas estables es posible cuantificar el esfuerzo de control a traves
de la energa involucrada en la se
nal de entrada u(t) aplicada desde t =
para alcanzar el estado x(0) = x0 en t = 0:
J(u) =
0
2
ku(t)k dt =
u(t)T u(t)dt
(10.191)
(10.192)
donde
P=
eAt BBT eA t dt
(10.193)
295
n
X
i=1
i vi viT
P1 =
n
X
i=1
T
1
i vi v i
(10.194)
(10.197)
Ad t Bd Bd T (Ad T )t
(10.198)
t=0
(10.199)
C1 = 0,9[mF ];
C3 = 1[mF ]
(10.200)
Lyapunov!ecuaci
on
gramiano!controlabilidad!tiempo discr
controlabilidad!gramiano!tiempo discr
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
296
p12
p22
20
9
0
1
+
1
10
9
10
9
(10.203)
1
(10.204)
A=[-20/9 0; -1 -1];
B=[10/9 ; 1];
C=[1 0];
S=ss(A,B,C,0);
P=gram(S,c)
inv(P)
P=
0,2778
0,2586
0,2586
0,2414
P1 = 103
1,4616
1,5660
1,5660
1,6820
(10.205)
J(uopt ) = 3141,7
J(uopt ) = 1,9274
(10.206)
(10.207)
297
222
Es posible generalizar el concepto de gramiano para inclur el caso de sistemas inestables, como el lector interesado puede conocer consultando [23].
Descomposici
on can
onica y estabilizabilidad
En el caso que un sistema no sea completamente controlable, este puede
decomponerse en un subsistema controlable y completamente incontrolable
tal como establece el siguiente lema.
Lema 10.6. Considere un sistema para el cual rango{c [A, B]} = t < n,
entonces existe una transformaci
on de similaridad x = T1 x, en que las nuevas
matrices de estado tienen la forma:
Ac A12
A = T1 AT =
(10.209)
0 Anc
Bc
(10.210)
B = T1 B =
0
donde Ac tiene dimensi
on k y el par (Ac , Bc ) es completamente controlable.
222
Este resultado establece cuales estados pueden y cuales no pueden ser llevados a cero. Para apreciar mejor este hecho, expresemos el estado y la salida de
la forma:
x c
Ac A12
xc
Bc
+
u
=
0
x nc
0 Anc xnc
xc
y = Cc Cnc
+ Du
xnc
(10.211)
(10.212)
El subespacio controlable del modelo en variables de estado esta compuesto por todos los estados generados como combinacion de los estados en
xc . La estabilidad de este subespacio esta determinada por la ubicaion de los
autovalores de la matriz Ac .
Por otra parte, el subespacio no controlable esta formado por todos los
estados generador como combinacion lineal de los estados en xnc , y su estabilidad
queda determinada por los autovalores de la matriz Anc .
cancelaci
on!cuasidescomposici
on can
onica!alcanzabilida
subespacio!controlable
298
estabilizabilidad
sistema!estabilizable
cancelaci
on
forma can
onica!controlable
controlabilidad!forma can
onica
forma can
onica!del controlador
controlador!forma can
onica
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
(10.213)
0 0 ... 0
0
1
1 0 . . . 0
2
A0 = 0 1 . . . 0
B0 = 0
(10.214)
.. .. . .
..
.
..
. .
. ..
.
.
0
...
n1
donde:
n + n1 n1 + + 1 + 0 = det(I A)
(10.215)
es el polinomio caracterstico de A.
222
Lema 10.8. Considere un modelo de estado completamente controlable para un
sistema SISO. Entonces, existe una transformaci
on de similaridad que convierte
el modelo de estado en la forma can
onica del controlador:
n1 n2 . . . 1 0
1
1
0
0
.
.
.
0
0
1
...
0
0
A00 = 0
B00 = 0 (10.216)
..
..
..
.
.
..
..
..
.
.
.
.
0
...
donde:
n + n1 n1 + + 1 + 0 = det(I A)
(10.217)
es el polinomio caracterstico de A.
222
10.6.2.
299
Si consideramos el modelo de estado de un sistema dado, podemos es razonable suponer que si se observa su salida durante un intervalo de tiempo, entonces
podramos obtener informacion sobre su estado. La propiedad asociada a este
concepto se denomina observabilidad.
Observabilidad
La observabilidad de un sistema se refiere a la informacion que se puede
obtener sobre el estado a partir de mediciones de su salida.
Ejemplo 10.21. Si consideramos el sistema definido por el modelo en variables
de estado:
x1 (t)
x1 (t)
1 0
x 1 (t)
(10.218)
y(t) = 1 0
=
x2 (t)
1 1 x2 (t)
x 2 (t)
Podemos apreciar que y(t) queda determinada por x1 (t), mientras que la otra
variable de estado x2 (t) no tiene influencia alguna sobre la salida. Por tanto el
sistema no es completamente observable, es decir, existe una parte del estado
de la cual nunca se obtendr
a informaci
on alguna.
222
Se puede formalizar la definicion de observabilidad de la siguiente forma:
Definici
on 10.3. El estado xo 6= 0 se dice no observable si dado x(0) = xo ,
y u(t) = 0 para t 0, entonces y(t) = 0 para t 0, es decir, la condici
on
inicial xo no tiene efecto alguno sobre la salida del sistema.
El sistema se dice completamente observable si no existe estado inicial,
diferente de cero, que sea no observable.
Reconstructibilidad
Otro concepto estrechamente relacionado al de observabilidad, es el que se
denomina reconstructibilidad. Este, para sistemas de tiempo discreto, se refiere a que se puede decir de x(K), habiendo observado valores pasados de la
salida y[t], durante 0 t K.
Para sistemas de tiempo continuo, lineales e invariantes, no es necesario hacer
distincion entre observabilidad y reconstructibilidad. Sin embargo, el siguiente
ejemplo ilustra que para sistemas de tiempo discreto, estos conceptos son diferentes.
Ejemplo 10.22. Considere el modelo en espacio de estado:
x[t + 1] = 0
y[t] = 0
x[0] = xo
(10.219)
(10.220)
observabilidad
estado!observable
sistema!observable
reconstructibilidad
300
observabilidad!test
observabilidad!matriz
matriz!de observabilidad
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
x(t)
= Ax(t) + Bu(t)
(10.221)
(10.222)
donde A Rnn .
(i) El conjunto de estados no observables es igual al subespacio nulo de la
matriz de observabilidad o [A, C] donde:
4 CA
o [A, C] = .
(10.223)
..
CAn1
(ii) El sistema es completamente observable si y solo si o [A, C] tiene rango
columna completo n.
222
Este test de observabilidad puede aplicarse indistintamente a sistemas de
tiempo discreto y continuo.
Ejemplo 10.23. Considere el siguiente modelo en espacio de estado:
3 2
1
A=
;
B=
;
C = 1 1
(10.224)
1
0
0
La matriz de observabilidad est
a dada por:
1
C
=
o [A, C] =
4
CA
1
2
(10.225)
301
1
o [A, C] =
1
0
0
(10.227)
(10.228)
(10.229)
(10.230)
(10.231)
observabilidad!p
erdida
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
302
Op.Amp.
R3
v+ (t)
v (t)
R1
iR1(t)
vi (t)
C3
vC3(t)
R2
C1
vo (t)
3 3
dt =
di (t)
1
R1
dt
C1 R1 R2
vo (t) = 1
1
0
vC3 (t)
+ R3 C3 vi (t) (10.232)
(R1 + R2 )
iR1 (t)
0
C1 R1 R2
v (t)
C3
R1
iR1 (t)
C
=
c [C, A] =
CA
(10.233)
1
1
1
R3 C3
R2 C1
R1
R1 + R 2
(10.234)
R2 C1
303
emos la funci
on de transferencia de Vi (s) a Vo (s):
1
1
s+
V+ (s) Vo (s)
Vo (s)
R1 C1
R
C3
3
=
=
R1 + R 2
1
Vi (s)
Vi (s) V (s)
s+
s+
R1 R2 C1
R3 C3
cancelaci
on
gramiano!observabilidad
observabilidad!gramiano
(10.236)
Es posible demostrar que la energa en la salida del sistema esta dada por:
Z
ky(t)k2 dt = xo T Qxo
(10.238)
E(xo ) =
0
donde
Q=
eA t CT C eAt dt
(10.239)
n
X
i=1
i vi viT
(10.240)
304
Lyapunov!ecuaci
on
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
(10.243)
(Ad T )t Cd T Cd Ad t
(10.244)
t=0
(10.245)
Ejemplo 10.26. Consideremos nuevamente el sistema del Ejemplo 10.25, descrito por el modelo de estado (10.232)(10.233), para apreciar la utilidad del
gramiano de observabilidad (10.239), en especial cuando el modelo est
a pr
oximo
a perder la completa observabilidad, es decir, cuando R1 C1 R3 C3 .
Suponemos los mismos valores para las componentes R1 , R2 , R3 , C1 y C3 que
en el Ejemplo 10.20 en la p
agina 295, con lo que obtenemos:
v C3 (t)
1
0
vC3 (t)
1
+
v (t)
(10.246)
=
10
iR1 (t)
0 i
20
i R1 (t)
9
9
vC3 (t)
vo (t) = 1 1
(10.247)
iR1 (t)
En este sistema ciertas combinaciones del estado (en t = 0) tendr
an poco
efecto en la salida. Para verificar esto podemos calcular el gramiano de observ-
305
cancelaci
on!cuasidualidad
q12
q22
1
10
9
0
1
+
1
20
9
(10.248)
1
(10.249)
Q=
0,2414
0,2328
0,2328
0,2250
(10.250)
Los autovalores de Q son 1 = 0,0003 y 2 = 0,4661 con sus correspondientes autovectores v1 = [0,6946 0,7194]T y v2 = [0,7194 0,6946]T .
Ahora podemos evaluar el efecto de ciertos estados iniciales en la salida del
sistema. Consideraremos x0 = v1 y x0 = v2 para calcular la energa, tal como
se define en la ecuaci
on (10.238):
x0 = v 1
x0 = v 2
E(x0 ) = 0,000287
E(x0 ) = 0,4661
(10.251)
(10.252)
Podemos notar un paralelo notable entre los resultados del Teorema 10.3 en
la pagina 291 y del Teorema 10.4 en la pagina 300, y tambien entre las definiciones de los gramianos (10.193) y (10.239). Esto de pie a lo que se conoce como
el principio de dualidad, el cual se formaliza a continuacion:
306
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
sistema!dual
Teorema
descomposici
on can
onica!observabilidad
scrito por
subespacio!observable
trolable si
detectabilidad
sistema!detectable
servable.
10.5 (Dualidad). Considere el modelo en variables de estado dela 4-tupla (A, B, C, D). Entonces el sistema es completamente cony solo si el sistema dual (AT , CT , BT , DT ) es completamente ob222
Descomposici
on can
onica y detectabilidad
El teorema anterior puede ser a menudo utilizado para extender un resultado
sobre controlabilidad a un resultado sobre la observabilidad y vice versa. El dual
del Lema 10.6 en la pagina 297 es :
Lema 10.9. Si rango{o [A, C]} = k < n, existe una transformaci
on de similaridad x = T1 x, tal que las nuevas matrices de estado tienen la forma:
Ao
0
(10.254)
A = T1 AT =
A21 Ano
C = CT = Co 0
(10.255)
La descripcion anterior pone en evidencia el problema que puede surgir cuando se intenta controlar un sistema usando solo su salida, pues en esta no aparece
informacion alguna sobre xno .
El subespacio observable de un modelo es el espacio formado por todos
los estados que se generan como combinaciones lineales de los estados en x o .
La estabilidad de este subespacio queda determinada por la ubicacion de los
autovalores de la matriz Ao .
El subespacio no observable de un modelo, es el espacio formado por
todos los estados generados como combinacion lineal de los estados en x no .
La estabilidad de este subespacio queda determinada por los autovalores de la
matriz Ano .
Si el subespacio no observable es estable, decimos que el sistema es detectable.
Una consecuencia clave de la descripcion (10.256)(10.257) podemos apreciarla en la funcion de transferencia del sistema que queda expresada como:
H(s) = Co (sI Ao )1 Bo + D
(10.258)
307
Es decir, los autovalores del subespacio no observable no pertenecen al conjunto de polos de la funcion de transferencia del sistema. Esto implica que existe
una cancelacion de todos los polos correspondientes a las races de det(sIA no ).
Forma can
onica observable
Es posible obtener las formas canonicas duales a las presentadas en los Lemas
10.7 y 10.8. Para ilustrar esto presentamos a continuacion solo uno de los teoremas duales.
Lema 10.10. Considere un sistema escalar o SISO, completamente observable.
Entonces existe una transformaci
on de similaridad tal que lleva al modelo a la
forma can
onica observable:
bn1
n1 1
..
..
..
.
.
.
(10.259)
x(t)
= .
x(t) + . u(t)
.
..
.
1
b0
0
0
0
y(t) = 1 0 . . . 0 x(t) + Du(t)
(10.260)
222
10.6.3.
Descomposici
on Can
onica
En la seccion anterior se analizaron propiedades de los sistemas dinamicos, considerando aquellos que son solo parcialmente observables y controlables.
Estos pueden ser separados en subsistemas completamente controlables y completamente observables.
Los resultados de los Lemas 10.6 y 10.9 pueden combinarse para aquellos sistemas que no son ni completamente observables ni completamente controlables.
Podemos apreciar esto en el siguiente Teorema.
Teorema 10.6 (Descomposici
on Can
onica). Considere un sistema descrito
por un modelo en espacio de estado. Entonces, siempre existe una transformaci
on de similaridad T tal que el modelo transformado, con su nuevo vector de
estado x = T1 x toma la forma:
Aco
0
A13
0
B1
A21 A22 A23 A24
B2
;
A=
B=
C = C 1 0 C2 0
0
0 ;
0
A33
0
0
0
0
A34 A44
(10.261)
(i) El subsistema [Aco , B1 , C1 ] es completamente controlable y completamente
observable, y tiene la misma funci
on de transferencia que el sistema original (ver Lema 10.11 en la p
agina siguiente).
cancelaci
on
forma can
onica!observable
observabilidad!forma can
onica
descomposici
on can
onica
308
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
(ii) El subsistema:
0
B1
,
, C1
A22
B2
Aco
A21
(10.262)
es completamente controlable.
(iii) El subsistema:
Aco
0
A13
B1
, C1
,
0
A33
C2
(10.263)
es completamente observable.
222
La Figura 10.17 ilustra la estructura interna de un sistema de acuerdo al teorema anterior. En ella, x(t), xno (t), xnc (t) y xncno (t) representan la parte del
estado completamente controlable y observable, no observable, no controlable,
y no controlable ni observable, respectivamente.
u(t)
x(t)
y(t)
xno (t)
xnc (t)
xncno (t)
(10.264)
10.7. OBSERVADORES
309
realizaci
on m
nima
observador
Entonces:
H = C(sI A)1 B + D = C1 (sI Aco )1 B1 + D
(10.265)
on de
donde C1 , Aco y B1 son las de las ecuaciones (10.261). Esta descripci
estado es una realizaci
on mnima de la funci
on de transferencia.
222
Ademas, si denotamos por {M} el conjunto de autovalores de una matriz
M, entonces:
{A} = {Aco } {A22 } {A33 } {A44 }
donde:
{A}
{Aco }
{A22 }
{A33 }
{A44 }
Autovalores
Autovalores
Autovalores
Autovalores
Autovalores
del
del
del
del
del
sistema
subsistema
subsistema
subsistema
subsistema
(10.266)
controlable y observable
controlable pero no observable
no controlable pero observable
no controlable y no observable
Observamos que la controlabilidad de un sistema dado depende de la estructura de sus entradas, es decir, donde se aplican y como entran en el sistema
aquellas variables que son manipulables. Por tanto, los estados de un subsistema
pueden ser no controlables desde una entrada, pero completamente controlables
desde otra. Es importante tener esto en mente para el dise
no de sistemas de
control, pues en un proceso real no todas sus entradas pueden ser manipuladas,
y por tanto puede que sea imposible llevar las variables de la planta a ciertos
ubicaciones del espacio de estado.
Analogamente, la observabilidad de un sistema depende de que salidas se
consideren. Algunos estados pueden ser no observables desde una salida dada,
pero puede ser completamente observables desde otra. En el contexto del analisis
y dise
no de sistemas de control, esto se traduce en que puede ser difcil (imposible) obtener informacion sobre ciertas variables internas de la planta, a partir
de las salidas medidas disponibles.
10.7.
Observadores
Cuando las variables de estado de un sistema deben ser medidas para monitoreo, control u otros propositos, existen importantes aspectos tanto tecnicos
como economicos a considerar.
Un observador es un estimador de las variables de estado en base a un
modelo del sistema, mediciones de la salida de la planta y(t) y de su entrada
u(t).
El problema de observar el estado de un sistema es una generalizacion del
caso en que se desea medir indirectamente alguna variables de un sistema usando
un modelo de un sistema y otras variables mas faciles de medir.
310
error!estimaci
on
estimaci
on!error
observador!polinomio
Hurwitz!polinomio
error!modelo
modelo!error
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
10.7.1.
Din
amica del observador
Supongamos que un sistema tiene un modelo de estado dado por las ecuaciones (10.44)-(10.45) con D = 0 (sistema estrictamente propio). En este caso,
la estructura general de un observador clasico para el estado del sistema es
la que se muestra en la Figura 10.18, donde la matriz J es la ganancia del
observador.
u(t)
y(t)
Sistema
B
(sI-A)
-1
x^ (t)
J
Figura 10.18: Observador del estado clasico
La ecuacion que defines la dinamica del observador es entonces:
d
x(t)
= A
x(t) + Bu(t) + J(y(t) C
x(t))
dt
(10.267)
Una pregunta natural es: si contamos con un modelo del sistema y conocemos
su entrada, porque es necesario entonces usar la salida para estimar el estado?
no bastara con simular el sistema? La clave aqu es que no conocemos el
estado inicial del sistema, y por tanto no podramos obtener la trayectoria
del estado.
Si consideramos el error de estimacion del estado x
(t) = x(t) x
(t), su
dinamica se obtiene restando (10.267) de (10.44). Esto es:
d
x(t)
= (A JC)
x(t)
dt
(10.268)
donde observamos que el error de estimacion converge a cero si y solo si todos los
autovalores de la matriz A JC tienen parte real negativa, i.e., si el polinomio
del observador:
E(s) = det(sI A + JC)
(10.269)
es estrictamente Hurwitz.
Discusi
on
La ecuacion (10.268) es valida solo si el modelo es un representacion exacta
del sistema bajo analisis. Errores de modelado tendran consecuencias sobre
el observador, tales como error de estimacion diferente de cero.
10.7. OBSERVADORES
311
A=[ 0 1 0; 0 0 1; 4 0 -3];
B=[ 0; 0; 1];
C=[-10 4 0];
J=place(A,C,[-4 -6 -8])
J = 4,5247
7,5617
4,1543
T
(10.270)
polos!observador
312
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
12
10
8
6
4
2
0
0
0.2
0.4
0.6
0.8
Tiempo [s]
1.2
1.4
1.6
1.8
D1
1
I
1 1 1
r2
I2
r1
D2
K2
2 2
2
3
3
I3
(10.271)
10.7. OBSERVADORES
313
(10.272)
(10.273)
(10.274)
(10.275)
(10.276)
(10.277)
Dado que escogimos 1 (t) como la variable medible del sistema, o sea, como
salida, obtenemos finalmente el modelo:
2
r 1 r 2 K2
r1 D2 + r22 D1
r22
2
0
r 2 I 2 + r 2 I 1
r2 I + r2 I
r1 I2 + r22 I1
1
2
1 2
2 1
dx(t)
r
1
(t)
=
x(t) +
0
1
0
dt
r2
K2
0
0
0
I3
{z
}
|
{z
}
|
B
(10.278)
1 (t) = 1 0 0 x(t)
| {z }
(10.279)
A continuaci
on, se escogen los siguientes valores para los par
ametros del
sistema:
N ms
(10.280)
r1 = 0, 25[m]; r2 = r3 = 0, 50[m]; D1 = D2 = 10
rad
Nm
N ms2
N ms2
K2 = 30
; I1 = 2,39
; I2 = I3 = 38,29
(10.281)
rad
rad
rad
Con estos valores tenemos que:
1,045 1,254
0
A = 0, 5
0
0, 784
0
1 ;
0
0, 084
B= 0
0
(10.282)
C
1,0000
0
0
0
o = CA = 1,0450 1,2540
(10.283)
2
0, 4650
1,3104 1,2540
CA
314
ruido
filtro
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
En esta expresi
on podemos observar que la matriz o tiene rango completo,
pues claramente det o 6= 0, por tanto el sistema es completamente observable
desde la salida 1 (t).
Una vez que tenemos la estimaci
on del vector de estado, x
(t), la estimaci
on
del estado
3 (t) para 3 , se obtiene a partir de:
(t)
3 (t) = [0 0 1] x
| {z }
(10.284)
K3 T
donde
3 (t) puede obtenerse a partir de (10.267). Con esto:
d
x(t)
d
3 (t)
x(t) + K3 T B (t) + K3 T J1 (t) (10.285)
= K3 T
= K3 T (A JC)
| {z }
dt
dt
0
222
10.7.2.
Hasta el momento en todos los analisis hecho asumido que tanto la entrada
de un sistema dado, u(t), como su salida, y(t), estan disponibles sin errores
de ning
un tipo. En general, esto es correcto solo respecto a la entrada, pues
usualmente esta es generada por el mismo que se emplea para estimar el estado.
Sin embargo, la medicion de la salida y(t), sera siempre en presencia de ruido.
Para analizar el efecto de este ruido de medicion, denotemos por ym (t) la
medicion, es decir, la salida real de la planta contaminada con ruido:
ym (t) = y(t) + v(t)
(10.286)
X(s)
= (sI A + JC)1 x
(0) + (sI A + JC)1 JV (s)
(10.288)
Supongamos que queremos estimar una variable del sistema z(t) = T x(t),
donde T = [1 1]. Entonces, una estimaci
on de esta variable es z(t), que se
obtiene como:
z(t) = T x
(t)
(10.290)
10.7. OBSERVADORES
315
(10.291)
A continuaci
on consideramos dos elecciones diferentes del polinomio del observador E(s). Estas son:
E1 (s) = (s + 0, 5)(s + 0, 75)
(10.292)
(10.293)
(10.294)
Magnitud [dB]
20
|H2(j)|
0
20
|H (j)|
1
40
60
1
10
10
10
Frecuencia [rad/s]
10
10
222
En base al ejemplo anterior tenemos que
En el dise
no de un observador, siempre existe un compromiso entre la velocidad de convergencia del error de observacion y la inmunidad de la estimacion
frente al ruido de medicion.
316
observador!de orden reducido
observador!de orden completo
EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
muestreo|textbf
quantum|textbf
sistemas!digitales
Captulo 11
Sistemas hbridos
11.1.
Introducci
on
318
sistemas!h
bridos
muestreo
reconstrucci
on
muestreo|textbf
muestreo!per
odo de
muestra
se
nales de tiempo continuo con sistemas y se
nales de tiempo discreto. Cuando un sistema incluye componentes tanto de tiempo continuo como de tiempo
discreto, se habla de sistemas hbridos.
La comunicacion de sistemas que procesan se
nales de distinta naturaleza requiere resolver dos problemas: el problema de muestreo, que permite transformar una se
nal de tiempo continuo en una se
nal de tiempo discreto y el problema
de reconstrucci
on, es decir, la transformacion de una se
nal de tiempo discreto
en una se
nal de tiempo continuo.
Si bien ya se abordo brevemente en la Seccion los modelos para sistemas
y se
nales muestreadas, en este captulo estudiaremos mas en profundidad la
solucion de esos problemas y su descripcion, tanto temporal como frecuencial.
Para una comprension acabada de los conceptos y resultados que se presentan
aca, se requiere que el lector tenga un dominio acabado de los captulos 3, 4 y
6.
11.2.
Muestreo de se
nales.
t = t1
f (t)
f (t1 )
Conversor
A/D
fd (t1 )
11.2. MUESTREO DE SENALES.
2
=1 [s]
319
2
=0,5 [s]
2
0
0.5
=0,05 [s]
2
0
0.5
0.5
320
4
x 10
Error
0
2
4
6
0.1
0.2
0.3
0.4
0.5
Tiempo [s]
0.6
0.7
0.8
0.9
Matlab
>>tt=[0:1e-5:1];Delta=0.05;t=[0:Delta:1];
>>f=2*cos(2*pi*tt);fk=2*cos(2*pi*t);
>>faprox=spline(t,fk,tt); subplot(211);plot(tt,f-faprox);
11.3.
An
alisis en frecuencia de se
nales muestreadas
11.3. ANALISIS
EN FRECUENCIA DE SENALES
MUESTREADAS
321
tren de impulsos
muestreo
impulsivo
2`
1 X
1 X
F
F ( `m )
=
F [e ] =
`=
donde
`=
(11.1)
Demostraci
on
Recordemos que
f [k] = f (k) =
`=
f (`)K [k `]
(11.2)
f (`)ej`
(11.3)
`=
k=
D (t k)
{z
m (t)
(11.4)
k=
(t k) =
1 X j 2` t
e
(11.6)
`=
2`
2 X
D
`=
(11.7)
322
1
F ( ) =
2
1 X
2`
F (j)M ( j) d =
F
(11.8)
`=
Ahora bien, el c
alculo de la transformaci
on de Fourier se puede realizar por
un camino alternativo. En efecto, a partir de (11.4) se tiene que
f (t) = f (t)
k=
D (t k) =
k=
f (k)D (t k)
(11.9)
de donde se llega a
F ( ) =
f (k)ejk
(11.10)
k=
modelos|textbf
Captulo 12
Modelos
12.1.
Ideas generales
Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matematico que pueda replicar
en la forma mas precisa posible (bajo alg
un criterio de optimalidad) la
historia de datos disponibles y otras historias de datos que se puedan obtener
del mismo sistema, para validar el modelo obtenido.
Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Ademas la historia de datos del sistema
debe ser tal que permita observar los rasgos de interes del sistema. Por ejemplo,
323
324
si el sistema que deseamos modelar es una red RC, no nos servira recolectar datos
del sistema cuando las fuentes que alimentan la red son constantes, porque en
ese caso sera imposible calcular los parametros de cualquier modelo dinamico.
Otra idea que aparece en la definicion del problema es que la construccion
del mejor modelo tiene asociado un criterio de calidad optima.
En la determinacion de un modelo existen pues, tres elementos
1. La seleccion de una clase de modelos, M. Por ejemplo, una ecuacion diferencial de cierto orden.
2. Un experimento que permite recolectar datos. Por ejemplo, el aplicar una
excitacion de amplio espectro al sistema.
3. Un criterio de optimizacion que permite seleccionar uno de los miembros
de la clase elegida en base a los datos experimentales. Por ejemplo, el
minimizar la suma (o integral) de los errores cuadraticos.
La clase de modelos se elige, en primera instancia, usando citerios fenomenologicos. Por ejemplo, si el comportamiento del sistema a modelar esta dominado por
3 componentes dinamicos, una clase razonable es el conjunto de las ecuaciones
diferenciales de tercer orden.
En muchos casos, el experimento no puede ser dise
nado de acuerdo a las
necesidades del analista, sino que se debe usar datos provenientes de la operacion
normal del sistema a modelar. Ademas, es com
un que se desee o necesite ir
refinando el modelo en forma recursiva (e incluso en tiempo real, es decir, se va
refinando el calculo a medida que se van obteniendo nuevos datos).
Tambien es crucial notar que el que se use un procedimiento de optimizacion
solo se garantiza, en el mejor de los casos, que se encontrara el modelo optimo
dentro de la clase elegida. Si el mecanismo generador de los datos no pertenece a
la clase de modelos elegida, como suele suceder, entonces siempre habra un error
de modelado, sin importar cuan informativo sea el experimento para recolectar
datos.
Los metodos mas robustos que se conocen para construir modelos son aquellos que usan un criterio de optimizacion cuadratica. En ellos concentraremos
nuestra atencion en lo que sigue.
12.2.
(12.1)
12.2. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. TEORIA BASICA.325
Suponga adem
as que se realiza un experimento recolector de datos en el sistema a modelar. Como resultado del mismo se obtienen datos1 de entrada y
salida, u(t) e y(t), en el intervalo [0; tf ]. Entonces el mejor valor de ,
, en
(12.1) se puede calcular minimizando un funcional de costo J() dado por
Z tf
2
J() =
(12.2)
(y( ) (u( ))3 d
0
entonces
= arg mn J()
(12.3)
La minimizaci
on se realiza derivando J() respecto de y haciendo esa
derivada igual a cero. Esto lleva a
1 Z tf
Z tf
6
y( )(u( ))3 d
(12.4)
(u( )) d
=
0
p(t) =
Z
t
6
(u( )) d
0
(t) = (u(t))
1
(12.5)
(12.6)
(t) = p(t)
y( )( ) d
(12.7)
dp(t)
d (p(t))
2
= (p(t)(t))
dt
dt
= ((t))
(12.8)
(12.9)
e(t)
donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo
y la entrada observada de la planta.
1 Note
predicci
on!error de
326
regresi
on!vector de
regresores
y(t)
SISTEMA
e
(u(1))^3
e (t)
p (0)
\phi (t)
K
1/s
p (t)
1/s
alfa (0)
alfa
alfa (t)
Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integracin correspondientes
(12.10)
12.2. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. TEORIA BASICA.327
En base a la entrada de la planta y la salida del modelo. Este enfoque es
la base de los llamados m
etodos de error de predicci
on, reconocidos
por su sigla inglesa PEM (prediction error methods).
En base a la entrada del modelo, la que resulta de medir la entrada a la
planta2 y a la salida del modelo. Esta eleccion genera los metodos conocidos como de errores en la variables
En base a la entrada de la planta y la salida de la planta. Esta eleccion es
la base del metodo clasico de estimaci
on por errores cuadr
aticos. Es
conocido por la sigla inglesa LSE (least squares errors). Ese el metodo mas
robusto y mas usado, y es el que usaremos en este texto. Distinguiremos
esta eleccion de las otras dos reemplazando m (t) por (t) en la derivacion
de las ecuaciones del metodo.
Por su parte, el vector Rp contiene los parametros 1 , 2 , . . . , p que
distinguen cada elemento en M.
Note que la expresion es bastante general, ya que la u
nica restriccion es que
el modelo sea lineal en los parametros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
p
(12.11)
ym (t) = a u(t) + b u(t) + c cos(u(t)) + d
Entonces, el modelo (12.11) puede ser puesto en la forma (12.10) con las
siguientes asociaciones
p
(t) = [ u(t) u(t) cos(u(t)) 1]T
(12.12)
= [a b c d ]T
(12.13)
Veremos ademas en una seccion siguiente que (12.10) puede describir sistemas dinamicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de
la clase M, debemos encontrar un estimado optimo, , para de modo que se
minimice
Z
tf
J( ) =
(y( ) ( )T )2 d
(12.14)
PEM
errores en las variables
predicci
on!error de
gradiente
328
= arg mnp J( )
(12.15)
tf
0
( )(y( ) ( )T ) d
(12.16)
Z
tf
( ) d
( )
0
1 Z
tf
( )y( ) d
(12.17)
Para demostrar que la expresion (12.17) minimiza el funcional, se debe calcular la segunda derivada (o Hessiano) de J( ), la que debe ser una matriz
positiva definida (ver Apendice F). Esto da
Z tf
d 2 J( )
( )T d
HJ ( ) =
( )
(12.18)
=2
d 2
0
dP(t)
(t)
(t)T P(t)
= P(t)
dt
d(t)
(t)(y(t) (t)(t)) = P(t)
(t)e(t)
= P(t)
dt
(12.19)
(12.20)
Demostraci
on
Definamos previamente la matriz P(t) Rpp de la forma
P(t) =
3 Cuya
Z
( )T d
( )
0
deducci
on escapa al marco de este texto.
1
(12.21)
( )T d
( )
(12.22)
dP(t)
dQ(t)
dP(t)Q(t)
=0=
Q(t) + P(t)
dt
dt
dt
(12.23)
dQ(t)
dP(t)
(t)
(t)T P(t)
= P(t)
P(t) = P(t)
dt
dt
(12.24)
Esto lleva a
( )y( ) d
(t) = P(t)
(12.25)
(12.26)
(12.27)
(12.28)
(t)
12.3.
330
hR
t
0
u( )d
T
= b0 a 0
Rt
0
y( )d
iT
(12.31)
(12.32)
(12.33)
b0
+ a0
ym (t) +
u(t)
E()
E()
(12.34)
b0
ym (t)
u(t)
+ a0
ym (t) +
u(t) = (e0 a0 )
+ b0
(12.35)
E()
E()
E()
E()
T
y(t)
E()
T
e0 a 0
u(t)
E()
= b0
(12.36)
(12.37)
A() = n + an1 n1 + . . . a0
(12.38)
n1
(12.39)
B() = bn1
n
+ bn2
E() = + en1
n1
n2
+ . . . b0
+ . . . e0
(12.40)
B()
A()
ym +
u(t)
E()
E()
(12.41)
E() A()
B()
ym +
u(t)
E()
E()
(12.42)
n1 u(t)
E()
n2 u(t)
E()
u(t)
E()
n1 y(t)
E()
n2 y(t)
E()
T
y(t)
E()
(12.43)
y el vector de parametros es
= bn1
bn2
b0
en1 an1
en2 an2
T
e0 a0
(12.44)
Ejemplo 12.3. Supongamos que la clase M es el conjunto de ecuaciones diferenciales de tercer orden, lineales y de coeficientes constantes, entonces
T
(12.45)
(12.46)
donde E() es cualquier polinomio de tercer grado cuyas races tenga parte real
menor que cero.
222
332
12.4.
(12.47)
N
X
`=1
(y[`] (u[`])3
entonces
= arg mn J()
R
2
(12.48)
(12.49)
La minimizaci
on se realiza derivando J() respecto de y haciendo esa
derivada igual a cero. Esto lleva a
"N
#1 N
X
X
6
=
(u[`])
y[`](u[`])3
(12.50)
`=1
`=1
p[k] =
"
N
X
(u[`])
`=1
[k] = (u[k])
4 Note
#1
(12.51)
(12.52)
12.4. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. TEORIA BASICA.333
predicci
on!error de
[k] = p[k]
k
X
y[`][`]
(12.53)
`=1
p[k 1]
= p[k 1] p[k 1][k]2 p[k]
1 + p[k 1][k]2
(12.54)
[k] =
[k 1] + p[k][k] (y[k]
[k 1][k])
{z
}
|
e[k]
donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo
y la entrada observada de la planta.
Las ecuaciones (12.54) y (12.55) permiten calcular
[k] en tiempo real, como
se puede verificar en la simulaci
on implementada en el esquema SIMULINK de
la Figura 12.2. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e[k] en el
oscilloscopio, que ese sistema pertenece a la clase M.
u[k]
y[k]
SISTEMA
p [0]
e [k]
z
p [k]
u(1)/(1+u(1)*u(2)^2)
(u(1))^3
\phi [k]
p
1
alfa [0]
z
alfa
alfa [k]
Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes
334
regresi
on!vector de
regresores
PEM
errores en las variables
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el parametro . En la primera, dada por la
ecuacion (12.50), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.54) y
(12.55), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuacion el metodo general sistemas de tiempo discreto.
La clase de modelos a usar, M, esta definida por
ym [k] = m [k]T
(12.56)
(12.59)
Veremos ademas en una seccion siguiente que (12.56) puede describir sistemas dinamicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de
la clase M, debemos encontrar un estimado optimo, , para de modo que se
minimice
N
X
J( ) =
(12.60)
(y[`] [`]T )2
0
12.4. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. TEORIA BASICA.335
es conocida como el error de prediccion (no confundir con los metodos PEM). El
metodo de estimacion cuadratica permite determinar cual de los elementos de
M es el que arroja la prediccion con menor error cuadratico acumulado. Esto
es equivalente a seleccionar el optimo .
La minimizacion de (12.60) se hace a traves del procedimiento tradicional:
derivando respecto de la incognita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una funcion escalar respecto de un vector, la
derivada corresponde al gradiente . As el mejor estimado esta dado por
= arg mnp J( )
R
(12.61)
J( ) =
X
dJ( )
= 2
[`](y[`] [`]T )
d
(12.62)
`=1
(12.63)
`=1
Para demostrar que la expresion (12.63) minimiza el funcional, se debe calcular la segunda derivada (o Hessiano) de J( ), la que debe ser una matriz
positiva definida (ver Apendice F). Esto da
N
HJ ( ) =
X
d 2 J( )
[`]T
=
2
[`]
d 2
(12.64)
k=1
[k]
[k]T P[k 1]
P[k 1]
[k]
1 + [k]T P[k 1]
[k](y[k] [k][k]) = P[k]
[k]e[k]
[k] = [k 1] + P[k]
P[k] = P[k 1]
5 Cuya
deducci
on escapa al marco de este texto.
(12.65)
(12.66)
predicci
on!error de
gradiente
336
Demostraci
on
"
k
X
[`]
[`]
`=1
#1
(12.67)
y la matriz
Q[k] = P[k]1 =
k
X
`=1
(12.68)
P[k]1[k] =
k
X
[`]y[`]
(12.69)
[`]y[`]
(12.70)
`=1
P[k 1]1[k 1] =
k1
X
`=1
lo cual lleva a
[`]y[`]
[k] = P[k]P[k 1]1[k 1] + P[k]
(12.71)
12.5.
ym [k] + an1 ym [k 1] + . . . + a1 ym [k n + 1] + a0 ym [k n] =
bm u[k] + bm1 u[k 1] + . . . + b1 u[k m + 1] + b0 u[k m]
(12.72)
(12.73)
La primera opci
on para contruir la forma (12.56) en este caso es (note la
sustituci
on de ym [k] por y[k] en el vector [k])
T
[k] = u[k] ym [k 1]
T
= b0 a 0
(12.74)
(12.75)
bm1
...
(12.76)
. . . u[k m]
b0
an1
ym [k 1]
an2
...
a0
ym [k 2]
...
ym [k n]
(12.77)
(12.78)
338
serie de Taylor
Taylor
Ap
endice A
Series de Taylor
A.1.
X
i=0
1 d i x
(x xQ )i
i! dt i Q
(A.2)
n
donde ddt nx Q denota la derivada n-esima de g respecto de x y evaluada en
x = xQ .
A partir de esta expansion, podemos construir aproximaciones de primer,
segundo, tercer orden, etc. truncando la serie despues de la potencia de primer,
segundo, tercer grado, etc., respectivamente. Por ejemplo, la aproximacion de
primer orden es
d g
(A.3)
g1 (x) = k0 + k1 (x xQ );
k0 = g(xQ ); k1 =
dx Q
APENDICE
A. SERIES DE TAYLOR
340
g(x)
g1 (x)
m
g(xQ )
xQ
Figura A.1: Aproximacion de primer orden para funcion no lineal de una variable.
A.2.
Sea (x1Q , x2Q ) un par arbitrario tal que g(x1 , x2 ) es continua e infinitamente
diferenciable en x1 = x1Q , x2 = x2Q . Entonces g puede expandirse en serie de
potencias de (x1 x1Q ) y (x2 x1Q )
g
g
1 2 g
g(x1Q , yQ ) +
(x1 x1Q )2 +
(x1 x1Q ) +
(x2 x2Q ) +
x1 Q
x2 Q
2 x21 Q
2 f
1 2 g
2
(x1 x1Q )(x2 x2Q ) + . . . (A.4)
(x
x
)
+
2
2Q
2 x2
x1 x2
2 Q
(A.5)
En forma analoga al caso de una variable, podemos truncar esta serie para
tener aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la
aproximacion de primer orden esta dada por
341
A.3.
k0 = g(x1Q , x2Q )
d g
k11 =
dx1 Q
d g
k12 =
dx2 Q
(A.6)
(A.7)
(A.8)
(A.9)
El caso general
X
ni g
1
i1 ,i2 ,...,in
(x1 x1Q )i1 (x2 x2Q )i2 . . . (xn xnQ )in
i
i
i
1x 2x nx
i
!i
!
i
!
n
1
2
n Q
=0 1 2
(A.10)
donde ni = i1 + i2 + . . . + in .
La aproximacion de primer orden, por truncamiento de la serie es entonces
g1 (x1 , x2 , . . . , xn ) = k0 +
n
X
i=1
(A.11)
(A.12)
(A.13)
(A.14)
Es importante se
nalar que los desarrollos precedentes siguen siendo validos
aunque las variable x1 , x2 , . . ., xn sean funciones de una variable temporal u
otra variable independiente.
A.4.
Algunas reglas pr
acticas para la expansi
on
en serie
APENDICE
A. SERIES DE TAYLOR
342
(x xQ )
[R1,2]
h1 (x) = h(xQ ) +
dx Q
!
d g(x)
d h(x)
\
[R1,3]g(x) + h(x)1 = g(xQ ) + h(xQ ) +
(x xQ )
+
dx Q
dx Q
!
d
h(x)
d
g(x)
\ = g(xQ )h(xQ ) + h(xQ )
+ g(xQ )
(x xQ )
[R1,4] g(x)h(x)
1
dx Q
dx Q
[R1,1]
g1 (x) = g(xQ ) +
d ` x(t)
dt `
d ` (x(t) xQ )
dt `
en torno al punto de
(A.15)
ik
h `
R3 La aproximacion de primer orden de g(x) = d dtx(t)
, k > 1 en torno al
`
ik1
h `
= 0 es
punto de operacion x = xQ , d dtx(t)
`
g1 (x) = 0
(A.16)
Ap
endice B
Bases matem
aticas para las
Series de Fourier
B.1.
Definici
on B.1. Un espacio vectorial V es un conjunto de objetos ~v 1 , ~v2 , . . .
, llamados vectores, donde se definen dos operaciones: suma de dos vectores,
y multiplicaci
on por un escalar y que satisfacen las siguientes propiedades:
1.
2.
3.
Si ~vi , ~vj , ~vk son vectores cualesquiera de V, entonces ~vi + (~vj + ~vk ) =
(~vi + ~vj ) + ~vk
4.
Existe un vector ~0 V, tal que para todo ~vi V se cumple ~vi + ~0 = ~vi
5.
Para cada ~vi V existe un vector ~vi V, tal que ~vi + (~vi ) = ~0
6.
7.
8.
344APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
9.
10.
Existe un sinn
umero de conjuntos de elementos que son ejemplo de espacios vectoriales, de entre los cuales se deja al lector verificar que los siguientes
cumplen las propiedades recien enumeradas:
El espacio Rn en que los escalares son n
umeros reales,
El espacio Cn en que los escalares pueden ser n
umeros reales o bien complejos,
El conjunto de funciones reales seccionalmente continuas1 en un intervalo
[a, b], en que los escalares son n
umeros reales.
Definici
on B.2. Dado un conjunto de vectores G = {~v1 , . . . , ~vn } V, diremos
que el espacio generado por G, es el conjunto de todos los vectores de la
forma:
~v = 1~v1 + . . . + n~vn
Es decir, ~v es una combinaci
on lineal de ~v1 , . . . , ~vn .
Se deja al lector probar que el subespacio generado por el subconjunto de
vectores G V tambien cumple las propiedades de un espacio vectorial.
Definici
on B.3. Un conjunto de vectores ~v1 , . . . , ~vn se dice linealmente independiente, si la ecuaci
on:
1~v1 + . . . + n~vn = 0
se cumple s
olo para los escalares 1 = 2 = . . . = n = 0. En caso contrario
se dice que los vectores son linealmente dependientes.
La independencia lineal en un conjunto de vectores es una propiedad muy
importante pues nos permite afirmar que ninguno de los vectores del conjunto puede expresarse como una combinacion lineal de los demas vectores. Esta
demostracion se deja al lector.
Definici
on B.4. Dado un espacio vectorial V, diremos que un conjunto de
vectores B = {~v1 , . . . , ~vn } es base de V si:
1.
1 Es
345
2.
3.
4.
norma
norma inducida
desigualdad triangular
distancia
\angulo entre vectores
346APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
Definici
on B.8. De la definici
on del a
ngulo entre dos vectores es claro que
podemos decir que dos vectores son ortogonales bajo el producto interno h, i,
si este producto es igual a cero. Es decir:
~vi ~vj h~vi , ~vj i = 0
Lema B.1. Supongamos un espacio vectorial V de dimension n, en que se tiene
una base de vectores:
B = {~v1 , ~v2 , . . . , ~vn }
(B.1)
Si los vectores de la base B son ortogonales entre si bajo un producto interno h, i, es decir:
(
0
; si i 6= j
(B.2)
h~vi , ~vj i =
> 0 ; si i = j
Entonces, un vector arbitrario ~u V se representa como una combinaci
on
lineal de los vectores de la base B de la forma:
~u = 1~v1 + 2~v2 + . . . + n~vn
(B.3)
h~vi , ~ui
h~vi , ~vi i
(B.4)
Demostraci
on
La representacion (B.3) se deduce de inmediato del hecho de tener un conjunto de n vectores linealmente independientes en un espacio vectorial V de
dimension n. Lo central que nos ata
ne en este caso es el calculo de los coeficientes (B.4).
Tomemos la ecuacion (B.3), y apliquemosle producto interno con alguno de
los vectores de la base (B.1):
h~vi , ~ui = h~vi , 1~v1 + 2~v2 + . . . + n~vn i
(B.5)
(B.6)
(B.7)
347
222
(B.8)
Demostraci
on
Primero se observa que esta desigualdad es inmediata si cualquiera de los
vectores, vi o vj , es el vector cero. As es suficiente considerar el caso en ambos
son no nulos.
Consideremos un vector (vi vj ), cuya norma es no negativa
0 h(vi vj ), (vi vj )i
2
(B.9)
2
(B.10)
De donde
2hvi , vj i 2 hvi , vi i + 2 hvj , vj i
p
p
Ahora, si tomamos = hvj , vj i y = hvi , vi i entonces
(B.11)
(B.12)
(B.13)
B.2.
B.2.1.
existe x0 I
(B.14)
348APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
Definici
on B.10. Se dice que una sucesi
on {fk (x)} de funciones, definidas en
un intervalo I = [a, b], converge uniformemente a una funci
on f (x) en el
intervalo I si
> 0 K > 0
tal que
a x b (B.15)
Estas dos definiciones sobre la convergencia de sucesiones son aplicables totalmente a series de funciones, ya que estas u
ltimas no son mas que sucesiones
de sumas parciales. Es decir, si se tiene una serie de funciones de la forma
S(x) =
fn (x)
(B.16)
n=1
Sus propiedades de convergencia estan dadas por la convergencia de la sucesion {Sk (x)}, que es la suma parcial k-esima
Sk (x) =
k
X
fn (x)
(B.17)
n=1
Definici
on B.11. Se dice que una serie de funciones
S(x) =
fn (x)
(B.18)
n=1
n=1
|fn (x)|
(B.19)
Mk
(B.20)
k=1
fk (x)
k=1
2 Sentido
(B.21)
349
Tales que
|fk (x)| Mk
(B.22)
k=1
fk (x)
Demostraci
on
Por comparacion entre los terminos de la serie numerica y la de funciones, se
sigue que para cada x0 en el intervalo I, la serie converge absolutamente. As la
serie converge puntualmente a una funcion lmite f (x) en a x b. Ahora
n
X
X
fk (x)
fk (x) =
f (x)
k=1
(B.23)
k=n+1
k=n+1
|fk (x)|
(B.24)
Mk
(B.25)
k=n+1
X
k=1
Mk
n
X
Mk
(B.26)
k=1
B.2.2.
Para estudiar la convergencia de la serie de Fourier de una funcion, a continuacion se desarrollan algunos lemas que permiten determinar que la norma
del vector de error en (t) = y(t) yn (t) tiende asintoticamente a cero, cuando
n .
Lema B.4. Desigualdad de Parseval
Si y(t) es una funci
on per
odica y A0 , A1 , ...An y B1 , ...Bn son (algunos de
los) coeficientes de su representaci
on en serie de Fourier entonces
1
T
T
2
T2
y 2 (t)dt A20 +
1X 2
Ak + Bk2
2
(B.27)
k=1
Demostraci
on
La norma al cuadrado del error que se comete, que se representa en la figura
5.8 a la derecha, es:
350APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
en (t)
2 = hen (t), en (t)i
(B.28)
(B.29)
(B.30)
Pero seg
un (5.37) el segundo termino es cero, y usando (5.38)
en (t)
2 = hen (t), y(t)i
= hy(t), y(t)i hyn (t), y(t)i
* n
+
X
2
= y(t)
k fk (t), y(t)
2
=
y(t)
(B.31)
(B.32)
(B.33)
k=1
n
X
k=1
(B.34)
n
X
2
en (t)
2 =
y(t)
2
k2
fk (t)
(B.35)
k=1
T
2
T2
e2n (t)dt =
T
2
T2
"
y 2 (t)dt A20 T +
n
X
k=1
T
T
A2k + Bk2
2
2
#
0 (B.36)
T
2
T2
y 2 (t)dt A20 +
1X 2
Ak + Bk2
2
(B.37)
k=1
222
lm Ak = lm
2
lm Bk = lm
k
k T
Z
Z
T
2
T2
(B.38)
(B.39)
T
2
T2
351
Demostraci
on
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo
existe, entonces la serie del lado derecho, cuyo termino general es no-negativo,
esta acotada superiormente. Esto permite afirmar que converge, lo que a su
vez implica que el termino general se hace cero cuando n , por tanto, los
coeficientes Ak y Bk se hacen cero cuando k .
222
Lema B.5. La aproximaci
on o serie de Fourier truncada yn (t) de una funci
on
peri
odica y(t) de perodo T , puede escribirse como
2
yn (t) =
T
T
2
y(t + s)
T2
Demostraci
on
sen(0 (n + 12 )s)
ds
2 sen 20 s
; 0 =
2
T
(B.40)
yn (t) = A0 +
(B.41)
k=1
1
T
+
T
2
y( )d
n
X
k=1
2
T
2
T
(B.42)
T2
"
2
cos(k0 t)
T
T
2
y( )
T2
T
2
y( )
T2
"
"
1
+
2
1
+
2
T
2
2
y( ) cos(k0 )d + sen(k0 t)
T
T
2
n
X
k=1
n
X
k=1
T
2
T2
y( ) sen(k0 )d
(B.43)
#
(B.44)
#
cos(k0 ( t)) d
(B.45)
sen
n+
1
2
n
s
s X
0
0
0 s sen
= 2 sen
cos (k0 s)
2
2
k=1
(B.47)
352APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
O bien,
n
sen n + 12 0 s
1 X
cos (k0 s) =
+
2
2 sen 12 0 s
k=1
(B.48)
T
2
y( )
sen
T2
n + 12 0 ( t)
d
2 sen 20 ( t)
(B.49)
T
2
y(t + s)
T2 t
sen
n + 12 0 s
ds
2 sen 20 s
(B.50)
y(t+
0 ) + y(t0 )
2
(B.51)
En que y(t+
mites por la derecha y por la izquierda de y(t)
0 ) e y(t0 ) son los l
en t0 .
Demostraci
on
Primero, y como resultado previo, observemos que si integramos a ambos
lados de la ecuacion (B.48), obtenemos
Z T2
sen n + 12 0 s
T
(B.52)
=
1
T
2
2
sen
s
2
2 0
Ahora definamos la funcion
g(t) =
y(t+ ) + y(t )
2
(B.53)
Esta coincide con y(t) solo en sus puntos de continuidad y ademas hereda
su periodicidad. Podemos observar tambien que si t0 es una discontinuidad de
y(t), lo es tambien de g(t) y
353
y(t+
g(t+
0 ) + y(t0 )
0 ) + g(t0 )
=
2
2
(B.54)
g(t0 ) =
0
T T2
T T2
2 sen 2 s
2 sen 20 s
(B.56)
Z T2
sen(0 (n + 12 )s)
2
ds
=
[g(t0 ) g(t0 + s)]
(B.57)
T T2
2 sen 20 s
#
Z T2 "
1
2
g(t0 ) g(t0 + s)
1
2 0 s
s ds
=
sen 0 n +
1
T T2
2
sen 21 0 s
2 0 s
(B.58)
lm en (t0 ) = 0
(B.59)
O, lo que es lo mismo,
lm gn (t0 ) = g(t0 ) =
g(t+
0 ) + g(t0 )
2
(B.60)
g(t+
0 ) = g(t0 ) = g(t0 ).
En aquellos puntos (finitos) de discontinuidad de g(t), podemos definir la
funcion
G(t) = g(t + t0 ) g(t0 )
Si separamos esta funcion en sus partes par e impar
(B.61)
354APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
G(t) + G(t)
2
g(t + t0 ) + g(t + t0 ) 2g(t0 )
=
2
G(t) G(t)
Gimpar (t) =
2
g(t + t0 ) g(t + t0 )
=
2
Gpar (t) =
(B.62)
(B.63)
(B.64)
(B.65)
> 0 N > 0
(B.67)
Demostraci
on
Sean
A0 +
A00 +
n=1
(B.68)
(B.69)
n=1
A00
1
=
T
T
2
y 0 (t)dt
355
(B.70)
T2
1
[y(T /2) y(T /2)]
T
=0
=
(B.71)
(B.72)
A0n =
2
T
T
2
T2
(B.73)
#
"
Z T2
T2
2
y(t) sen(n0 t)dt
y(t) cos(n0 t) T + n0
=
T
2
T2
Z T2
2
= n0
y(t) sen(n0 t)dt
T T2
= n0 Bn
Z T2
2
Bn0 =
y 0 (t) sen(n0 t)dt
T T2
#
"
Z T2
T2
2
y(t) cos(n0 t)dt
=
y(t) sen(n0 t) T n0
T
2
T2
Z T2
2
= n0
y(t) sen(n0 t)dt
T T2
= n0 An
(B.74)
(B.75)
(B.76)
(B.77)
(B.78)
(B.79)
(B.80)
n=1
T
2
T2
y 0 (t)2 dt <
(B.82)
p
Si se observa el termino general {n0 A2n + Bn2 } de la segunda serie, se
aprecia que pertenece al conjuto de todas las sucesiones cuadrado sumables,
al igual que la sucesion {1/(n0 )}. En ambas sucesiones n = 1, 2, . . . . En consecuencia el producto de estas sucesiones tambien es cuadrado sumable, por
tanto
X
q
q
X
1
2
2
An 2 + B n 2
n0 An + Bn
=
n
0
n=1
n=1
(B.83)
356APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
Tambien converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.8)
|h(An , Bn ); (cos(n0 t), sen(n0 t))i| k(An , Bn )k k(cos(n0 t), sen(n0 t))k
(B.84)
q
p
An cos(n0 t) + Bn sen(n0 t) An 2 + Bn 2 cos2 (n0 t) + sen2 (n0 t)
(B.85)
q
(B.86)
= An 2 + B n 2
Con esto se puede comparar la serie
|A0 | +
n=1
(B.87)
q
X
An 2 + B n 2
(B.88)
n=1
(B.89)
n=1
(B.90)
Demostraci
on
Es directa de (B.67), ya que si tomamos y(t) en el intervalo [ T2 , T2 ], y
denotamos por {t1 , t1 , . . . , tm } los puntos en que y(t) es discontinua dentro
de el, entonces, dado un > 0, para cada uno de los m + 1 subintervalos
( T2 , t1 ), . . . , (tk , tk+1 ), . . . , (tm , T2 ) existe una constante Nk tal que
357
(B.91)
(B.92)
(B.93)
Por tanto
ken (t)k2 =
=
T
2
T2
t1
T2
en 2 (t)dt
(B.94)
en 2 (t)dt + . . . +
tk+1
en 2 (t)dt + . . . +
tk
T
2
en 2 (t)2 dt (B.95)
tm
T
2
T2
y 2 (t)dt = A20 +
1X 2
Ak + Bk2
2
(B.97)
k=1
Demostraci
on
Es directa de la ecuacion (B.36), donde como consecuencia del lema anterior
(B.90), la norma del error, ademas de ser positiva, tiende asintoticamente a cero.
Por tanto la desigualdad (B.27) se transforma en la identidad (B.97).
358APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
transformada de Fourier
transformada de Fourier inversa
Ap
endice C
La transformaci
on de
Fourier
C.1.
Transformaci
on de Fourier en tiempo continuo
C.1.1.
Definici
on de la Transformada
F [y(t)] = Y ( ) =
F 1 [Y ( )] = y(t) =
y(t)e t dt
(C.1)
1
2
Y ( )e t d
(C.2)
Para que la transformada exista es suficiente que la funcion y(t) sea absolutamente integrable en el intervalo < t < , es decir:
Z
y(t) dt <
DE FOURIER
APENDICE
C. LA TRANSFORMACION
360
1
y (t) =
0
; |t| /2
; |t| > /2
Esta funci
on est
abien definida t ] , [, y el a
rea del pulso es unitaria
> 0. Su transformada de Fourier por tanto puede obtenerse, en base al
ejemplo 6.1 ya mencionado, o por la definici
on (C.1) ser
a
Z
/2
1 t
e
dt
1
2 e 2
=
e
sen
2
=
Y ( ) =
/2
14
0.8
12
0.6
10
0.4
0.2
4
40
0.2
0.4
0.6
0.8
30
20
10
10
20
w
0.2
(b) Espectro Y ( )
1
Figura C.1: Pulso y su transformada para = 1, 41 , 16
.
30
40
y (t)
Y ( ) =
C.1.2.
sen(
2 )
361
(t)
Y ( ) = 1
(C.3)
Demostraci
on
Es directa de reemplazar Y (t) en la definici
on de la transformada y recordando la ecuaci
on que define a y(t) como transformada inversa de Y ( )
Z
Y (t)e t dt
Z
1
Y (t)ejt() dt
= 2
2
F{Y (t)} =
= 2y( )
222
Ejemplo C.2. Consideremos una funci
on constante y(t) = C. Esta funci
on
no es absolutamente integrable, sin embargo, su transformada de Fourier puede
obtenerse en base a la transformada del Delta de Dirac:
F {y(t)} = F {C}
= C F {1}
= C 2()
= C 2()
DE FOURIER
APENDICE
C. LA TRANSFORMACION
362
Desplazamiento en el tiempo
Desplazamiento en frecuencia
(C.4)
Demostraci
on
Aplicando la definici
on de la Transformada de Fourier, para la funci
on y(t)
desplazada en el tiempo, tenemos que
Z
y(t t0 )e t dt
Z
t0
=e
y(t t0 )e (tt0 ) dt
F{y(t t0 )} =
y(t )e t dt
= e t0 Y ( )
222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso
de amplitud A no est
a centrado en el origen, sino que se ha desplazado a la
derecha, ubic
andose en el intervalo [0, ] su transformada de Fourier ser
a
sen
2
F{y[0, ] (t)} = ejw 2 A
;a C
(C.5)
363
Demostraci
on
Si aplicamos la definici
on de la transformada a la funci
on y(t) multiplicada
por la exponencial peri
odica e 0 t tenemos que
Z
at
F{e y(t)} =
eat y(t)e t dt
y(t)e( a)t dt
F{eat y(t)} =
y(t)e t dt
= Y ( )
= Y ( a)
222
Ejemplo C.4. Con este lema podemos obtener la transformada de Fourier de
una exponencial peri
odica, considerando en la ecuaci
on (C.5) a = 0 :
0 t
0 t
=F e
1
F e
= 2( 0 )
= 2( 0 )
e 0 t + e 0 t
F {cos(0 t)} = F
2
1
F e 0 t + F e 0 t
=
2
= [( + 0 ) + ( 0 )]
e 0 t e 0 t
2j
0 t
j
=
F e
+ F e 0 t
2
= j [( + 0 ) ( 0 )]
F {sin(0 t)} = F
DE FOURIER
APENDICE
C. LA TRANSFORMACION
364
1
[Y ( 0 ) + Y ( + 0 )]
2
(C.6)
Demostraci
on
Esta es directa del lema anterior utilizando la ecuaci
on de Euler, es decir,
escribiendo cos(0 t) con exponenciales peri
odicas. Esto es
F{cos(0 t)y(t)} = F
1 0 t
(e
+ e 0 t )y(t)
2
1
F{e 0 t y(t)} + F{e 0 t y(t)}
2
1
= (Y ( 0 ) + Y ( + 0 ))
2
222
Se deja al lector la demostracion del corolario que se obtiene por analoga
en el caso que en vez de cos(0 t) se utiliza sen(0 t).
Ejemplo C.5. En ambos casos de modulaci
on planteados, cosenoidal y senoidal,
al hacer el producto de una se
nal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la se
nal. Esto permite llevar, por ejemplo, se
nales
de contenido de baja frecuencia (como la voz humana, en la banda de 04[kHz]),
a bandas de frecuencia para transmisi
on radial (por ejemplo 1[MHz]).
Esta idea se muestra en la figura C.2
|F {y(t)}|
4[kHz]
|F {y(t)cos(2106 t)}|
1[M Hz]
365
F {yT (t)} = F
Cn e
n t
n=
n=
Cn F e n t
Cn ( + n )
n=
+1
y(t) = 1
y(t + 2)
; 0 |t| 2
; 2 < |t|
; |t| >
y(t)
1
t
1
DE FOURIER
APENDICE
C. LA TRANSFORMACION
366
y(t) =
An cos(nt)
n=1
An =
y(t) cos(nt)dt
y(t) =
n
X
4
cos(nt)
sen
n
2
n=1
Luego,
Y ( ) =
=
n
X
4
sen
[( + n) + ( n)]
n
2
n=1
n
X
4
sen
( + n)
n
2
n=
n6=0
1.2
0.8
0.4
0.6
0.2
0.4
0.2
10
10
10
0.2
0.2
0.4
(a) Coeficientes An
(b) Espectro Y ( )
Figura C.4:
F{y(at)} =
Y (j )
|a|
a
367
(C.7)
Demostraci
on
Si reemplazamos la funci
on escalada y(at) en la definici
on de la integral,
podemos ah definir una nueva variable t = at, pero se debe tener en cuenta
que el signo de a determina si los lmites de la integral se mantienen o se deben
intercambiar:
F{y(at)} =
y(at)e t dt
t dt
y(t )e a
a
Z
=
t dt
y(t )e a
a
; si a > 0
; si a < 0
F{y(at)} =
signo(a)
a
y(t )ej a t dt
1
Y (j )
|a|
a
222
(C.8)
DE FOURIER
APENDICE
C. LA TRANSFORMACION
368
Demostraci
on
Si se aplica la definici
on de la transformada de Fourier a la derivada
y se integra por partes, se obtiene:
d y(t)
dt
d y(t) t
e
dt
dt
Z
+
= y(t)e t
=
d y(t)
dt ,
y(t)e t dt
Y dada la condici
on asint
otica sobre y(t) cuando t , s
olo sobrevive el
segundo termino
F
d y(t)
dt
y(t)e t dt
= Y ( )
222
d n y(t)
dt n
= ( )n Y ( )
(C.10)
Demostraci
on
Se deja al lector, pues es directa por inducci
on, aplicando recursivamente el
lema anterior.
222
Lema C.6. Transformada de la integral.
Sea y(t) una funci
on definida en todos los reales, cuya transformada de
Fourier es Y ( ). Entonces, la transformada de su integral definida es
F
Z
y( )d
1
Y ( ) + Y (0)()
(C.11)
369
Demostraci
on
Para demostrar esta propiedad debemos en primer lugar observar que si
definimos 1 (t) como la integral definida de y(t), entonces
d 1 (t)
d
=
dt
dt
Z
= y(t)
y( )d
1
Y ( ) 2k()
(C.12)
Por tanto nos resta encontrar el valor de k. Para esto consideremos nuevamente la integral indefinida 1 (t)
1 (t) =
=
=
y( )d
y( )d +
y( )d
y( )d
Z t
y(x)dx
2 (t) =
2 ( ) =
y(x)dx
1
Y ( ) 2k()
DE FOURIER
APENDICE
C. LA TRANSFORMACION
370
y( )d 2 (t)
Z
1 ( ) = 2
y( )d () 2 ( )
Z
1
1
y( )d ()
Y ( ) 2k() = 2
Y ( ) 2k()
1 (t) =
=0
1
= Y (0)
2
Por tanto
1 ( ) =
1
Y ( ) + Y (0)()
222
( )d =
0
1
;t < 0
;t > 0
= (t)
Por tanto,
F {(t)} = F
Z
( )d
1
=
F {(t)} + () F {(t)}|=0
1
=
+ ()
371
(C.13)
y1 ( )y2 (t )d
(C.14)
Demostraci
on
Insertando la expresi
on de la convoluci
on en la transformada se obtiene
Z
y1 ( )y2 (t )d
e t dt
y1 ( )
Z
y2 (t )e t dt d
y1 ( ) e Y2 ( ) d
Z
= Y2 ( )
y1 ( )e d
= Y2 ( )Y1 ( )
222
Veamos a continuacion cual es la transformada de Fourier de un producto de
funciones que puede resultar u
til para el calculo de la transformada de Fourier
de alguna funcion mas complicada.
Lema C.8. Producto de funciones.
Sean y1 (t) e y2 (t) funciones definidas para < t < , cuyas transformadas de Fourier son Y1 ( ) e Y2 ( ), respectivamente. Entonces, la transformada de Fourier del producto entre ellas es
F{y1 (t)y2 (t)} =
1
Y1 ( ) Y2 ( )
2
(C.15)
DE FOURIER
APENDICE
C. LA TRANSFORMACION
372
Demostraci
on
F 1 {Y1 ( ) Y2 ( )} =
1
2
Y1 (j)
Z
Y2 ( j)e t d d
Donde si se define j =
F
1
{Y1 ( ) Y2 ( )} =
2
= 2
Z
( +j)t
Y1 (j)
Y2 ( )e
d d
Z
Z
1
1
jt
j t
Y1 (j)e d
Y2 ( )e
d
2
2
1
y1 (t)y2 (t)dt =
2
Y1 ( )Y2 ( )d
(C.16)
Demostraci
on
Esto se demuestra con ayuda del lema de convoluci
on en el tiempo (C.13).
Seg
un este tenemos que
373
Si evaluamos en t = 0, queda
Z
y1 ( )y2 ( )d =
1
2
Y1 ( )Y2 ( )d
En la tabla C.1 se muestra un resumen de las propiedades hasta aqu revisadas y que sirven para el calculo de la transformada de Fourier de las funciones mas comunes, como las que se muestran en la tabla C.2
DE FOURIER
APENDICE
C. LA TRANSFORMACION
374
C.2.
C.2.1.
Definici
on de la transformada
Fd {y(t)} = Y (ej ) =
Fd
y[k]ejk
(C.18)
k=
1
Y (ej ) = y[k] =
2
Y (j)ejk d
(C.19)
X
y[k] <
k=
Si bien existen funciones que no cumplen con esta condicion, a pesar de ello
poseen transformada de Fourier discreta.
A continuacion se muestran algunos ejemplos para ver como se obtiene la
transformada de Fourier discreta para un delta de Kronecker, para una secuencia
constante y para una exponencial decreciente discreta.
Ejemplo C.8. Consideremos primero la secuencia
y[k] = K [k] =
1
0
;k = 0
; k 6= 0
Es decir, un delta de Kronecker . Esta secuencia es absolutamente sumable, por tanto se cumple la condici
ojn suficiente para la existencia de su transformada discreta. Si calculamos esta usando la definici
on tenemos que la serie
infinita se traduce en un solo termino
Y (ej ) =
375
K [k]ejk
k=
= K [0]ej0
=1
Es decir, su transformada de Fourier discreta es constante. Podemos interpretar esto de manera an
aloga al delta de Dirac en tiempo continuo, cuya transformada tambien es constante y representa un espectro plano, o igual contenido
de frecuencias en todo el espectro.
Ejemplo C.9. Consideremos ahora el caso opuesto en que tenemos una secuencia constante que se escoge de amplitud uno por simplicidad. Es decir, la
secuencia que nos interesa es
k Z
y[k] = 1
k=
Y (ej ) =
k=
1 ejk
T
2
f ()ej T
T2
k=
Ck ej T
DE FOURIER
APENDICE
C. LA TRANSFORMACION
376
X
( 2n)
Y (ej ) = 2
n=
Esto se puede comprobar calculando la transformada de Fourier discreta inversa, mediante la integral (C.19), que dada la periodicidad basta calcularla en
cualquier intervalo de longitud 2
Z
1
y[k] =
Y (ej )ejk d
2
Z
X
1
( 2n)ejk d
2
=
2
n=
Z
()ejk d
=
=1
k Z
|| < 1
Y (ej ) =
=
k=0
k ejk
(ej )k
k=0
Que resulta ser una serie geometrica convergente ya que |e j | < 1. Por
tanto su suma es
Y (ej ) =
C.2.2.
1
1 ej
377
(C.20)
Demostraci
on
Es directa de la definicion de la transformada (C.18), ya que
k=
y1 [k]ejk +
k=
y2 [k]ejk
k=
= Y1 (ej ) + Y2 (ej )
222
Lema C.10. Corrimiento en el tiempo.
Sea y[k] una secuencia de tiempo discreto definida k Z, cuya transformada de Fourier es Y (ej ) , y sea k0 un n
umero entero, entonces
Fd {y[k k0 ]} = ejk0 Y (ej )
k0 Z
(C.21)
Demostraci
on
Consideremos la definicion de la transformada (C.18), y tomemos k0 Z,
entonces
Fd {y[k k0 ]} =
k=
y[k k0 ]ejk
y[l]ej(l+k0 )
l=
= ejk0
y[l]ejl
l=
=e
jk0
Y (ej )
DE FOURIER
APENDICE
C. LA TRANSFORMACION
378
222
Lema C.11. Corrimiento en frecuencia.
Sea y[k] una secuencia de tiempo discreto definida k Z, con transformada
Y (ej ) , y sea 0 < 0 < 2 un n
umero real, entonces consideremos la transformada de la secuencia original multiplicada por una exponencial peri
odica
Demostraci
on
Fd ej0 k y[k] = Y (ej(0 ) )
(C.22)
X
Fd ej0 k y[k] =
ej0 k y[k]ejk
k=
y[k]ej(0 )k
k=
X
Fd ej0 k y[k] =
y[k]ejk
k=
= Y (ej )
= Y (ej(0 ) )
379
2
k
10
ej 10 k + ej 10 k
2
Fd cos
2
k
10
1 n j 2 k o 1 n j 2 k o
Fd e 10
+ Fd e 10
2
2
X
X
1
1
2
2
+ 2n) + 2
+ 2n)
(
( +
= 2
2 n=
10
2 n=
10
=
n=
X
2
2
+ 2n) +
+ 2n)
( +
10
10
n=
Si restringimos la expresi
on de la transformada a la banda que nos ha interesado, es decir, [0, 2], tenemos que en ella s
olo existen dos de los deltas
de Dirac
2
18
2
k
) + (
)
= (
Fd cos
10
10
10
0<<2
2
1.5
1.8
1
1.6
1.4
0.5
Y(e )
y[k]
1.2
1
0.8
0.5
0.6
0.4
0.2
1.5
15
10
0
k
10
15
Figura C.5: Se
nal cosenoidal y[k] y su transformada discreta.
En la figura C.5, se muestra la secuencia peri
odica discreta y su espectro, es
decir, su transformada de Fourier discreta, formada por los dos deltas de Dirac
en el intervalo [0, 2].
DE FOURIER
APENDICE
C. LA TRANSFORMACION
380
Como consecuencia del lema anterior, que expresa el corrimiento en frecuencia que sufre el espectro de una secuencia discreta al ser multiplicado por una
exponencial periodica tenemos el siguiente corolario. Este determina el efecto
que tiene sobre la transformada de Fourier discreta el modular una secuencia
por alguna sinusoidal.
Corollario C.5. Sea y[k] una secuencia discreta definida para < k <
con transformada Y (ej ), y 0 < 0 < 2 un n
umero real. Entonces
i
h
1
(C.23)
Fd {cos(0 k)y[k]} =
Y (ej(+0 + Y (ej(0 )
2
i
h
j
Fd {sen(0 k)y[k]} =
(C.24)
Y (ej(+0 Y (ej(0 )
2
Demostraci
on
Como se menciono anteriormente resulta de la aplicacion del lema anterior,
ya que tanto cos(0 k) como sen(0 k) pueden escribirse en terminos de exponenciales periodicas.
Consideremos la ecuacion (C.23):
ej0 k + ej0 k
y[k]
2
1
1 j0 k
y[k] + Fd ej0 k y[k]
= Fd e
2
2
i
1h
j(0
=
+ Y (ej(+0 )
Y (e
2
Fd {cos(0 k)y[k]} = Fd
(C.25)
Demostraci
on
Para demostrar la propiedad usamos la ecuacion (C.18), que define la transformada de Fourier discreta de una secuencia
Fd {y[k]} =
k=
y[k]ejk
381
Sea l = k, entonces
Fd {y[k]} =
=
l=
y[l]ej(l)
y[l]ej()l
l=
= Y (ej )
222
Corollario C.6. Note que si la secuencia y[k] est
a compuesta s
olo por valores
reales, entonces
Fd {y[k]} = Y (ej )
(C.26)
En que () denota al complejo conjugado de ()
Demostraci
on
Se deja como ejercicio al lector.
222
0
1
;k < 0
;k 0
x[k] = [k] + C
x[k] x[k 1] = K [k]
Si aplicamos transformada de Fourier discreta a ambas ecuaciones anteriores
y utilizamos la propiedad de corrimiento en k
DE FOURIER
APENDICE
C. LA TRANSFORMACION
382
X(e ) = Fd {[k]} + C2
n=
X(ej ) ej X(ej ) = 1
( 2n)
X
1
( 2n)
C2
Fd {[k]} =
1 ej
n=
1
S()
+1
1 ej
En que
S() = 2
n=
( 2n)
C 2S() = S() +
1
1
+
+1
1 ej
1 ej
|
{z
}
0
C 2S() = S()
1
C=
2
X
1
( 2n)
+
1 ej
n=
383
Lema C.13. Sea y[k] una secuencia de tiempo discreto definida k Z, cuya
transformada es Y (ej ). Consideremos ahora la secuencia k y[k], su transformada, s
olo en el caso que exista, es igual a
Fd {k y[k]} = j
d Y (ej )
d
(C.27)
Demostraci
on
Se debe tener cuidado al aplicar esta propiedad, pues no garantiza la
existencia de la transformada de k y[k].
En caso de existir, podemos aplicar la transformada de Fourier inversa, usando la ecuacion (C.19) :
Fd
d Y (ej )
j
d
1
=
2
j
0
d Y (ej ) jk
e d
d
d Y (ej )
j
d
d Y (ej )
d
d
0
2 j Z 2
j jk
Y (ej )jkejk d
e Y (ej )
=
2 |
2
0
0
{z
}
j
=
2
j
k
2
1
=k
2
|
ejk
0
2
Y (ej )ejk d
2
0
Y (ej )ejk d
{z
}
y[k]
222
|| < 1
Podemos aplicar la propiedad recien vista dado que conocemos la transformada de k [k]. De esta forma, tenemos que:
DE FOURIER
APENDICE
C. LA TRANSFORMACION
384
Fd
d Fd k [k]
k [k] = j
d
1
d
=j
d 1 ej
1
(jej )
=j
(1 ej )2
ej
=
(1 ej )2
1.8
4.5
1.6
1.4
3.5
3
j
Y(e )
y[k]
1.2
1
2.5
0.8
0.6
1.5
0.4
0.2
0.5
0
5
10
k
15
20
25
(C.28)
Demostraci
on
Recordemos en primer lugar que la convolucion de dos secuencias de tiempo
discreto y1 [k] e y2 [k] se define como :
y1 [k] y2 [k] =
l=
y1 [l]y2 [k l]
385
X
X
Fd {y1 [k] y2 [k]} =
y1 [l]y2 [k l] ejk
k=
l=
Donde se pueden intercambiar las sumatorias y usar la propiedad de corrimiento en el tiempo discreto k :
y1 [l]
l=
k=
y2 [k l]e
jk
y1 [l]ejl Y2 (ej )
l=
= Y2 (ej )
y1 [l]ejl
l=
j
= Y2 (e )Y1 (ej )
222
Lema C.15. Producto en el tiempo discreto
Sean y1 [k] e y2 [k] dos secuencias definidas k Z, cuyas transformadas
de Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces la transformada de
Fourier discreta del producto de ellas es :
Fd {y1 [k]y2 [k]} =
1
2
(C.29)
Demostraci
on
Reemplazando el producto de las secuencias en la definicion (C.18) tenemos
que :
Fd {y1 [k]y2 [k]} =
y1 [k]y2 [k]ejk
k=
X
jk
1
j
jk
=
Y1 (e )
d
e y2 [k] e
2 0
k=
DE FOURIER
APENDICE
C. LA TRANSFORMACION
386
1
2
222
Teorema C.2 (Teorema de Parseval. El caso de tiempo discreto). Sean
y1 [k] e y2 [k] dos secuencias reales definidas k Z, cuyas transformadas de
Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces se cumple que:
k=
1
y1 [k]y2 [k] =
2
(C.30)
y1 [k]y2 [k] =
k=
Z 2
X
1
Y1 (ej )ejk d y2 [k]
2 0
k=
k=
1
y1 [k]y2 [k] =
2
1
=
2
1
2
Y1 (ej )
0
y2 [k]ejk
k=
2
Y1 (ej )
0
y2 [k]ejk
k=
2
Corollario C.7. Si y[k] es una secuencia discreta definida k Z, con transformada Y (ej ), entonces se cumple que:
k=
| y[k] |2 =
1
2
2
0
| Y (ej ) |2 d
(C.31)
387
Demostraci
on
Es directa de la ecuaci
on (C.30) ya que
y[k] y [k] = | y[k] |2
DE FOURIER
APENDICE
C. LA TRANSFORMACION
388
f (t)
l
X
F {f (t)}
l
X
ai yi (t)
i=1
ai Yi ( )
Linealidad
i=1
dy(t)
dt
Y ( )
Derivacion
( )k Y ( )
Derivadas superiores
1
Y ( ) + Y (0)()
Integracion
y(t )
e Y ( )
Retardo
y(at)
1
Y j
|a|
a
Escalamiento temporal
y(t)
Y ( )
Inversion temporal
Y1 ( )Y2 ( )
Convolucion
eat y1 (t)
Y1 ( a)
Desplazamiento en frecuencia
y(t) cos(o t)
1
{Y ( o ) + Y ( + o )}
2
Modulacion (cosenoidal)
y(t) sen(o t)
1
{Y ( o ) Y ( + o )}
j2
Modulacion (senoidal)
Y (t)
2y( )
Simetra
dk y(t)
dtk
Z
Descripcion
y( )d
y1 ( )y2 (t )d
y1 (t)y2 (t)
1
2
Y1 (j)Y2 ( j)d
Producto en el tiempo
t R
f (t)
1
2()
D (t)
(t)
() +
(t) (t to )
et (t)
<{} R+
tet (t)
<{} R+
e|t|
F {f (t)}
R+
1 e to
1
( )2
2
2
+ 2
cos(o t)
(( + o ) + ( o ))
sen(o t)
j (( + o ) ( o ))
cos(o t)(t)
(( + o ) + ( o )) +
2
2 + o2
o
j
(( + o ) ( o )) +
2
2
+ o2
sen(o t)(t)
et cos(o t)(t)
R+
+
( + )2 + o2
et sen(o t)(t)
R+
o
( + )2 + o2
389
DE FOURIER
APENDICE
C. LA TRANSFORMACION
390
Fd {y[k]} = Y (ej )
y[k] , k Z
l
X
l
X
i yi [k]
i=1
i Yi (ej )
Descripcion
Linealidad
i=1
y[k]
Y (ej )
Inversion temporal
y[k k0 ] , k0 Z
ejk0 Y (ej )
Corrimiento temporal
ej0 k y[k]
Y (ej(0 ) )
Corrimiento en frecuencia
cos(0 k)y[k]
sen(0 k)y[k]
i
1h
Y (ej(+0 ) + Y (ej(0 )
2
i
jh
Y (ej(+0 ) Y (ej(0 )
2
ky[k]
l=
y1 [k]y2 [k]
k=
y1 [k]y2 [k]
k=
| y[k] |2
1
2
1
2
Modulacion senoidal
d Y (ej )
d
y1 [l]y2 [k l]
Modulacion cosenoidal
Convolucion
Producto en el tiempo
1
2
Teorema de Parseval
2
0
| Y (ej ) |2 d
Teorema de Parseval
Fd {y[k]} = Y (ej )
t R
y[k]
391
K [k]
K [k k0 ]
ejk0
1 (k Z)
n=
( 2n)
X
1
( 2n)
+
1 ej
n=
[k]
1
1 ej
1
(1 ej )2
X
2
( 0 + 2n)
n=
cos(0 k)
n=
sen(0 k)
[( + 0 + 2n) + ( 0 + 2n)]
n=
cos(0 k + )
X
n=
sen(c k)
k
[( + 0 + 2n) ( 0 + 2n)]
ej ( + 0 + 2n) + ej ( 0 + 2n)
Y0 (ej(+2n) )
n=
(
1
Y0 (ej ) =
0
y[k] =
0
1
; |k| N
; |k| > N
; || < c
; c < ||
2N +1
sen
2
sen 21
ej
(1 ej )2
DE FOURIER
APENDICE
C. LA TRANSFORMACION
392
C.2.3.
Aspecto pr
actico: la transformada r
apida de Fourier
N
1
X
Cn ejo nk ;
donde o =
n=0
donde
Cn =
N 1
1 X
y[k]ejo nk
N
2
N
(C.32)
(C.33)
k=0
Usualmente se define
WN = ejo = ej N
(C.34)
y la funcion
Hn = N C n =
N
1
X
y[k]WNnk
(C.35)
k=0
N 1
1 X
Hn WNnk
N n=0
(C.36)
393
0(N 1)
WN00
WN01
...
WN
H0
y[0]
1(N 1)
H1
y[1]
WN10
WN11
...
WN
.. =
..
.
.
.
.
..
..
..
..
.
(N
1)0
(N
1)1
(N
1)(N
1)
HN 1
y[N 1]
WN
WN
. . . WN
(C.37)
Hacer el producto matricial el lado derecho de la ecuacion anterior implica
N 2 multiplicaciones complejas, ademas de las sumas respectivas para el calculo
de cada Hn . Tambien se requieren algunas operaciones mas para el calculo de
las potencias de WN . Es decir, podemos apreciar que el calculo de la DFT es
un proceso O(N 2 ) 2 .
Sin embargo, la matriz involucrada en (C.37) esta formada por potencias de
2
WN = ej N , por tanto todos sus componentes son alguna de las races N -esimas
de la unidad, distribuida en torno a la circunferencia unitaria. Esta simetra de
hecho es el camino para reducir el n
umero de calculos necesarios para el calculo
de la DFT. Los algoritmos que hacen uso de estas simetras se comenzaron a
desarrollar mas fuertemente a partir de mediados de los a
nos 60 y reciben el
nombre generico de transformada r
apida de Fourier o FFT por su denominacion en ingles3 .
Para maximizar el aprovechamiento de las simetras es conveniente elegir
secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2v
para algun v Z+
(C.38)
Hn =
N
1
X
y[k]WNnk
(C.39)
k=0
N/21
X
r=0
2 Del
N/21
n(2r)
y[2r]WN
n(2r+1)
y[2r + 1]WN
(C.40)
r=0
3 Fast
transformada r
apida
de Fourier
DE FOURIER
APENDICE
C. LA TRANSFORMACION
394
Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r + 1], son
secuencias de largo N/2, por lo que podra escribirse las sumatorias como la
serie de Fourier discreta modificada que les corresponde. Justamente esto sucede
en forma natural al observar que
n(2r)
WN
nr
= ej N n(2r) = ej N/2 nr = WN/2
(C.41)
Hn =
N/21
n(2r)
y[2r]WN
r=0
r=0
Hnpar
n(2r)
y[2r + 1]WN
WNn
(C.42)
r=0
N/21
N/21
nr
+ WNn
y[2r]WN/2
nr
y[2r + 1]WN/2
(C.43)
r=0
+ WNn Hnimpar
(C.44)
Como antes mencionamos, para calcular los terminos Hn para una secuencia
de longitud N por el metodo directo, se requieren del aproximadamente N 2
multiplicaciones complejas en el producto matricial (C.37). Analogamente para
calcular cada uno de los terminos Hnpar y Hnimpar , que corresponden a secuencias
de largo N/2, requeriremos (N/2)2 multiplicaciones complejas para cada uno.
Y para poder formar cada uno de los N terminos Hn requerimos una u
nica
multiplicacion compleja mas, seg
un (C.44).
Es importante hacer notar que dado que las secuencias y[2r] e y[2r + 1] son
nr
N/2 periodicas en r, sus armonicas WN/2
, tambien lo son:
(l+N/2)
WN/2
l
= ej N/2 (l+N/2) = ej N/2 l ej2 = ej N/2 l = WN/2
(C.45)
395
2000
1500
1000
500
10
15
20
25
N
30
35
40
45
50
DE FOURIER
APENDICE
C. LA TRANSFORMACION
396
H0p
W80
H1p
H0
H1
W81
H2p
H2
W82
H3p
H3
W83
H0i
W84
H1i
W85
H2i
W86
H3i
W87
H4
H5
H6
H7
H0pp
H1pp
H0pi
H1pi
H0ip
H1ip
H0ii
H1ii
H0
W80
W80
W82
W81
W84
W86
H1
H2
W82
H3
W83
W80
W84
W82
W85
W84
W86
397
W86
W87
H4
H5
H6
H7
DE FOURIER
APENDICE
C. LA TRANSFORMACION
398
y0
y1
y2
y3
y4
y5
y6
y7
W80
W84
W80
W84
W80
W84
W80
W84
H0
W80
W80
W82
W81
W84
W86
H1
H2
W82
H3
W83
W80
W84
W82
W85
W84
W86
W86
W87
H4
H5
H6
H7
Transformada de Laplace!regi
on de
convergencia
Ap
endice D
La transformada de Laplace
D.1.
Transformada de Laplace
D.1.1.
Definici
on de la Transformada
Sea una se
nal de tiempo continuo y(t), 0 t < , entonces la Transformada de Laplace asociada a y(t), y su transformada inversa estan definidas
como
L {y(t)} = Y (s) =
L1 {Y (s)} = y(t) =
1
2j
est y(t)dt
(D.1)
+j
est Y (s)ds
(D.2)
(D.3)
399
APENDICE
D. LA TRANSFORMADA DE LAPLACE
400
(D.4)
(D.5)
Demostraci
on
De la definici
on de la transformada de Laplace tenemos que, para todo s en
la regi
on de convergencia de la transformada, i.e. en <{s} >
Z
h(t)est dt
(D.6)
H(s) =
0
(D.7)
t0
(D.8)
1
s2
para
<{s} > 2
(D.9)
1 El orden del polinomio del numerador es estriciamente menor que el orden del polinomio
en el denominador
401
Ahora considere
Z
I(z0 ) =
ez0 t y(t)dt
(D.10)
e3t e2t dt =
et dt = 1
(D.11)
Note que esto se podra haberse obtenido como consecuencia de lema D.1 ya
que
Y (3) =
1
=1
32
(D.12)
D.1.2.
, C
(D.13)
Demostraci
on
Esta propiedad es directa dado que la transformada de Laplace esta definida
mediante la integral (D.1) :
Z
= Y1 (s) + Y2 (s)
222
APENDICE
D. LA TRANSFORMADA DE LAPLACE
402
d y(t)
dt
d y(t)
dt
= sY (s) y(0 )
es con-
(D.14)
Demostraci
on
Seg
un la definici
on tenemos:
Z
d y st
d y(t)
=
L
e dt
dt
0 dt
En esta si se integra por partes,
Z
y(t)est dt
= est y(t) + s
0
0
= lm est y(t) y(0 ) + sL {y(t)}
t
d n y(t)
dt n
d n1 y(0 )
dt n1
n Z+
(D.16)
403
diff(theta(t),t,t)+2*diff(theta(t),t)=v_a(t)
d
d 2
+2
= va (t)
(D.17)
dt 2
dt
Si tomamos transformada de Laplace a ambos lados de la ecuaci
on y aplicamos D.16 se obtiene
> EDO := laplace(edo,t,s);
) = Va (s)
s2 (s) + 2s(s) (s + 2)(0 ) (0
(D.18)
1
(s) =
Va (s)
s2 + 2s
1
1
=
2
s + 2s s
Expandiendo en fracciones parciales obtenemos
> Theta(s):=convert(Theta(s),parfrac,s);
(s) =
1
1
1
+
4(s + 2) 2s2
4s
(D.19)
(t) =
1
1 2t 1
e
+ t
4
2
4
(D.20)
APENDICE
D. LA TRANSFORMADA DE LAPLACE
404
Z
y( )d
0
1
Y (s)
s
(D.21)
Demostraci
on
Si reemplazamos la integral en la definicion de la transfomada (D.1), podemos hacer una integral por partes:
Z
y( )d
0
Z
Z
|
t
0
y( )d e|st
{zdt}
{z
} dv
u
est
y( )d
=
s 0
0
Z
1
y(t)est dt
=0+
s 0
y(t)
est
dt
s
222
Lema D.5. Derivada en s.
Sea y(t) una funci
on continua con L {y(t)} = Y (s), entonces
L {tn y(t)} = (1)n
d n Y (s)
ds n
Demostraci
on
Este resultado se establece derivando ambos lados de la ecuaci
on
Y (s) =
y(t)est dt
y as` obtenemos
dY (s)
=
ds
y(t)est dt
s
ty(t)est dt
= L {t y(t)}
(D.22)
405
Y el lema se obtiene aplicando esto repetidamente aunque, en rigor, para intercambiar derivada con integral se requieren ciertas propiedades de regularidad.
222
Este lema puede resultar u
til para obtener la transformada de Laplace de
funciones que aparecen multiplicadas por la variable t, como en el siguiente
ejemplo.
Ejemplo D.3. Consideremos la funci
on y(t) = t2 y obtengamos su transformada de Laplace.Seg
un la definici
on
Z
t2 est dt
L t2 =
0
Y para resolver se puede integrar por partes dos veces. Sin embargo, si se
aplica el lema D.5 tenemos
d2
L t2 1 = (1)2 2 L {1}
ds
d2 1
=
ds 2 s
d
1
=
2
ds
s
2
= 3
s
laplace(y(t), t, s)
s
(D.23)
APENDICE
D. LA TRANSFORMADA DE LAPLACE
406
Demostraci
on
=
=
=
Z0
Za
(t a)y(t a)est dt
y(t a)est dt
y(t)es(t+a) dt
Z
esa
y(t)est dt
0
sa
Y (s)
1
0
; si 0 t < a
; si t a
Esta se
nal puede escribirse usando la funci
on de Heaviside o escal
on unitario
(t) sin necesidad de definirla por tramos. En Maple
> assume(a>0);
p(t):=Heaviside(t)-Heaviside(t-a);
p(t) = (t) (t a)
P (s) =
407
Este ejemplo puede extenderse a cualquier funcion que este definida por
tramos, cuya transformada de otra forma se tendra que calcular separando la
integral (D.1) de la definicion.
Se deja al lector obtener una expresion para f (t)p(t) en que p(t) es el pulso
del ejemplo anterior, y f (t) es alguna funcion continua en el intervalo 0 < t < a.
A continuacion se presenta otro resultado relacionado con el desplazamiento
temporal de una funcion.
Lema D.7. Funci
on peri
odica.
Tomemos una funci
on perodica
y(t) =
n=0
yT (t nT )
(D.24)
en que yT (t) es cero fuera del intervalo [0, T ], es decir, yT (t) = [(t) (t
T )]y(t). Entonces la transformada de Laplace de y(t) es
L {y(t)} =
en que YT (s) = L {yT (t)}.
1
YT (s)
1 esT
(D.25)
Demostraci
on
Si se utiliza el resultado del lema D.6, al aplicar transformada de Laplace a
la ecuaci
on (D.24) tenemos por linealidad
L {y(t)} =
enT s YT (s)
n=0
Y (s) = YT (s)
enT s
n=0
1
YT (s)
1 esT
222
APENDICE
D. LA TRANSFORMADA DE LAPLACE
408
Demostraci
on
L eat y(t) = Y (s a)
(D.26)
eat y(t)est dt
y(t)e(sa)t dt
= Y (s a)
222
Lema D.9. Convoluci
on
Sean y1 (t) e y2 (t) funciones continuas en (0, +), talque son iguales a cero
para t < 0, cuyas transformadas de Laplace son Y1 (s) e Y2 (s), respectivamente.
Entonces la transformada de la convoluci
on entre y1 (t) e y2 (t) es:
L {y1 (t) y2 (t)} = Y1 (s)Y2 (s)
(D.27)
En que
y1 (t) y2 (t) =
t
0
y1 ( )y2 (t )d
(D.28)
Demostraci
on
Si las se
nales son causales, es decir, su valor es cero t < 0, entonces podemos
reescribirlas
y1 (t) = (t)y1 (t)
y2 (t) = (t)y2 (t)
Con esto, la convolucion es equivalente a
Z
y1 (t) y2 (t) =
y1 ( )( )y2 (t )(t )d
409
Z
0
Z
y1 ( )( )es Y2 (s)d
Z
y1 ( )es d
= Y2 (s)
= Y2 (s)Y1 (s)
222
1
2j
+j
j
Y1 ()Y2 (s )d
(D.29)
Demostraci
on
Si reemplazamos el producto de las funciones dentro de la definicion de la
transformada, podemos demostrar la propiedad escribiendo una de ellas como
la transformada inversa de su transformada de Laplace:
0
Z
0
y1 (t)y2 (t)est dt
Z +j
1
t
Y1 ()e d y2 (t)est dt
2j j
APENDICE
D. LA TRANSFORMADA DE LAPLACE
410
1
2j
1
2j
Z
Z
+j
Y1 ()
j
+j
j
Z
et y2 (t)est dt d
Y1 ()Y2 (s )d
222
Teorema D.1. . [Teorema del Valor Final y Teorema del Valor Inicial]
Existen dos resultados que permiten obtener relaciones entre comportamientos asint
oticos de la funci
on y(t) y su tranformada Y (s). Estos se conocen como
el teorema del Valor Inicial y teorema del Valor Final.
(i) lm+ y(t) = lm sY (s)
(D.30)
(D.31)
t0
s0
d y(t) st
e dt = sY (s) y(0 )
dt
ket est dt
0
e(s)t
=k
s + 0
y dado que la integral existe en la regi
on de convergencia <{s}
Z
k
d y(t) st
e dt
dt
s
0
k
s
411
0, de donde se obtiene
lm sY (s) = lm y(t)
t0+
Ahora si la funci
on y(t) no es continua, podemos definir
y(t) = y(t) y(0+ ) y(0 )
(D.32)
d y(t) st
e dt = sY (s) y(0 )
dt
h
d y(t) st
y(0+ ) y(0 ) i
e dt = s Y (s)
y(0 )
dt
s
= sY (s) y(0+ )
222
d y(t)
dt = sY (s) y(0 )
dt
(D.33)
s0
Z
d y(t) st
e dt
dt
= lm sY (s) y(0 )
s0
(D.34)
s0
lm y(t) = lm sY (s)
s0
(D.38)
222
APENDICE
D. LA TRANSFORMADA DE LAPLACE
412
s
s2 + 02
s0
s2
s2
=0
+ 02
222
Ejemplo D.6. Una distinci
on importante de hacer es que en el caso en que la
respuesta de un sistema sea discontinua en t = 0 el teorema del Valor Inicial
entrega el valor de la salida en t = 0+ el que puede no coincidir con la condici
on
inicial dada. Veamos esto en un ejemplo simple en que tenemos un circuito como
el de la figura D.1 en que se conecta la batera de 1[V] en t = 0, y todas las
condiciones iniciales son cero.
R
+
vf (t)
C
i(t)
vc (t)
413
1
1
= R sI(s) i(0 ) + I(s)
s
C
I(s) =
1
sR +
1
C
= lm
s
sR +
1
C
1
R
APENDICE
D. LA TRANSFORMADA DE LAPLACE
414
f (t)
l
X
L {f (t)}
l
X
ai yi (t)
i=1
dk y(t)
dtk
ai Yi (s)
i=1
dy(t)
dt
Comentarios
sY (s) y(0 )
k
s Y (s)
Pk
i=1
y( )d
0
ki
1
Y (s)
s
di1 y(t)
dti1 t=0
dY (s)
ds
ty(t)
tk y(t)
(1)k
dk Y (s)
dsk
y(t )(t )
es Y (s)
eat y(t)
Y (s a)
k {1, 2, 3, . . .}
(t) :
escalon unitario
t
0
y1 ( )y2 (t )d
y1 (t)y2 (t)
lm y(t)
lm y(t)
t0+
Y1 (s)Y2 (s)
1
2j
+j
Y1 ()Y2 (s )d
lm sY (s)
s0
Convolucion compleja
y() debe estar bien definida
lm sY (s)
f (t)
(t 0)
415
L {f (t)}
Region de Convergencia
1
s
>0
D (t)
|| <
(t )
es
s
>0
1
s2
>0
tn
n Z+
n!
sn+1
>0
et
1
s
> <{}
tet
1
(s )2
> <{}
s
+ o2
>0
sen(o t)
o
s2 + o2
>0
et sen(o t + )
> <{}
cos(o t)
s2
t sen(o t)
2o s
(s2 + o2 )2
>0
t cos(o t)
s2 o2
(s2 + o2 )2
>0
(t) (t )
1 es
s
|| <
APENDICE
D. LA TRANSFORMADA DE LAPLACE
416
fracciones parciales
polos
D.1.3.
Descomposici
on en fracciones parciales
Y1 (s) =
s2
As + B
=
+
(s + 1 )(s + 2 )
s + 1
s + 2
(D.40)
(D.41)
= A
= B
(D.42)
A1 B
1 2
A2 + B
1 2
(D.43)
417
1
+
= e1 t + e2 t
(D.44)
y1 (t) = L
s + 1
s + 2
222
En el ejemplo anterior al descomponer la funcion racional (D.39) en dos
fracciones (D.40), para encontrar las constantes se resolvio el sistema (D.42) de
dos ecuaciones y dos incognitas. Sin embargo, si el polinomio denominador es
de orden N el metodo desemboca en resolver un sistema de N ecuaciones y
N inc
ognitas !. Es por esto que en el siguiente ejemplo se muestra un metodo
mas practico.
Ejemplo D.8. Consideremos el sistema
2s + 1
(D.45)
+ 3s2 4s
Del polinomio denominador pueden calcularse los polos del sistema. Estos se
ubican en s = 0, 4, 1, Por lo cual interesa descomponerlo en la forma
Y2 (s) =
s3
2s + 1
= +
+
s3 + 3s2 4s
s
s+4 s1
(D.46)
1
=
4
s=4
7
=
20
De manera an
aloga pueden encontrarse la tercera constante, multiplicando
por (s 1) y reemplazando s = 1
#
"
2s + 1
(s 1) (s 1)
+
+
=
s(s + 4)
s
s+4
s=1
s=1
3
5
APENDICE
D. LA TRANSFORMADA DE LAPLACE
418
Como puede verse este metodo de multiplicar por cada uno de los polinomios
factores del denominador, para luego reemplazar la variable s por la respectiva
raz, permite llegar de manera mucho m
as directa a los coeficientes de la descomposici
on (D.46). Con ayuda de la tabla D.2 se obtiene finalmente
1
3
7
4
20
1
y2 (t) = L
+
+ 5
s
s+4 s1
7
3
1
(D.47)
= e4t + et
4 20
5
222
Se deja al lector verificar que la funci
on obtenida es la misma que se obtiene
si se aplica el metodo del ejemplo D.7.
Cabe destacar que en el ejemplo D.8 se ha aprovechado que al multiplicar
por cada factor del denominador (s ) y reemplazar por s = todos los
terminos de la descomposicion en fracciones parciales se hacen cero, excepto el
1
coeficiente correspondiente a s
. Sin embargo, en caso de existir races repetidas, aparecera una indefinicion al reeplazar (s = ).
Ejemplo D.9. En el caso de races repetidas, la descomposici
on en fracciones
parciales no toma la forma (D.40), sino que se descompone como
Y3 (s) =
As + B
=
+
(s )2
s (s )2
(D.48)
=
=
A(s ) + (A + B)
(s + )2
A + B
A
+
s (s + )2
(D.49)
(D.50)
222
419
en fracciones parciales tambien son complejos conjugados. Esto asegura que las
funciones exponenciales complejas que se obtienen en (D.44) son iguales a sinusoidales multiplicadas por exponenciales reales. Se deja al lector como ejercicio
esta demostracion.
Ejemplo D.10. Cuando el denominador de una funci
on racional de la forma
(D.39) tiene races complejas se suele escribir como
Y4 (s) =
As + B
;
s2 + 2n s + n2
0<1
(D.51)
Expresi
on en que se denomina factor de amortiguaci
on. Dado que en la tabla
D.2 tenemos s
olo expresiones en que el denominador es una suma de cuadrados,
podemos escribir la funci
on de la forma
Y4 (s) =
(s + n
As + B
p
+ (n 1 2 )2
)2
(D.52)
Y4 (s) =
p
A(s + n ) (An + B) (n 1 2 )
p
+
=
D(s)
D(s)
(0 1 2 )
(D.53)
en que el denominador es
D(s) = (s + n )2 + (n
1 2 )2
(D.54)
1 2 t+
p
(An + B) n t
p
e
sen n 1 2 t (D.55)
(n 1 2 )
222
420
APENDICE
D. LA TRANSFORMADA DE LAPLACE
1
1
e 2 Ct DA cos( 12 4 D C 2 t)
1 e 2 Ct C 3 B cos( 12 4 D C 2 t)
+4
h(t) =
2
(4 D C 2 ) D
4 D C2
1
1
e 2 Ct C 2 A cos( 12 4 D C 2 t) e 2 Ct AC sen( 12 4 D C 2 t)
4 D C2
4 D C2
1
1
Ct
21 Ct
CB cos( 2 4 D C 2 t)
e 2 B sen( 12 4 D C 2 t)
e
+2
2
4 D C2
4 D C2
1
1 e 2 Ct CB cos( 21 4 D C 2 t)
+
2
D
Es importante notar que Maple , en este caso, ha supuesto que el termino 4D C 2 es estrictamente positivo, es decir, que las races del polinomio
denominador son reales y distintas. En consecuencia, si bien el uso de software
puede ayudar bastante en un desarrollo matematico, lo fundamental es entender
e interpretar lo resultados que se obtienen.
421
Y (s)
y(t) = L1 {Y (s)} ; t 0
D (t)
e s , > 0
D (t )
1
s
(t)
1
, n {2, 3, . . .}
sn
tn1
(n 1)!
k
s+
ket
e s
, > 0
s+
e(t ) (t )
a1 s + a 0
(s + 1 )(s + 2 )
C1 e1 t + C2 e2 t
C1 =
1 a1 a0
1 2
; C2 =
2 a1 +a0
1 2
a1 s + a 0
(s + )2
a1 et + (a0 a1 )tet
a1 s + a 0
(s + )2 + 02
h
i
et C1 cos(0 t) + C2 sen(0 t)
C1 = a 1 ; C 2 =
k
s(s + )
a1 s + a 0
s (s + )2 + 02
a0 a1
0
k
1 et
a
h
i
t
1
e
C
cos(
t)
+
C
sen(
t)
1
0
2
0
2
a0
+ 0
C1 = a 0 ; C 2 =
a0 a1 (2 +02 )
0
422
APENDICE
D. LA TRANSFORMADA DE LAPLACE
radio de convergencia
Ap
endice E
La Transformaci
on Zeta
E.1.
Definici
on de la Transformaci
on
Dada una se
nal de tiempo discreto f [k], 0 k < . La transformacion
Zeta, y la transformacion Zeta inversa, estan definidas por
Z {f [k]} = F (z) =
(E.1)
k=0
1
2j
Z 1 {F (z)} = f [k] =
f [k]z k
f (z)z k1 dz
(E.2)
k=
f [`]ej`
X
f [`]
k=0
|z|`
ej` ;
|z| >
(E.3)
ZETA
APENDICE
E. LA TRANSFORMACION
424
transformada de Fourier, pero si tiene transformada Zeta, para ello, basta elegir
|z| > 1, 5.
Para obtener (E.2), que describe la formula de la Transformacion Zeta inversa, podemos recurrir a la idea de ortogonalidad. Si ambos lados de la ecuacion
(E.1) son multiplicados por z k = |z|k ejk , y luego integramos en el intervalo
[0; 2], se obtiene
Z
F (z)z k d =
0
f [k]|z|k`
`=0
ej(k`) d
(E.4)
Por otra parte, sabemos que las exponenciales periodicas 1, ej , ej2 , ej3 , . . .
forman un conjunto de funciones ortogonales, ya que
(
Z 2
0
k 6= `
jk j`
j(`k)
he , e i =
(E.5)
e
d =
2 k = `
0
Con este resultado, (E.4) se simplifica a
1
f [k] =
2
F (z)z k d
(E.6)
(E.7)
(E.8)
X
X
1 (z 1 )k
(z 1 )k = lm
k z k =
Z k [k] =
k 1 (z 1 )
k=0
(E.9)
k=0
Donde la expresi
on al lado derecho converge si y s
olo si
|z 1 | < 1 |z| > ||
(E.10)
425
E.2.
z
1
=
1 z 1
z
(E.11)
222
, C
(E.12)
Demostraci
on
Esta propiedad se demuestra sin problema ya que la transformada Zeta se
define mediante la sumatoria (E.1) :
k=0
y1 [k]z k +
k=0
= Y1 (z) + Y2 (z)
y2 [k]z k
k=0
Se debe hacer notar que en este caso la region de convergencia de la combinacion lineal de las transformadas es la intersecci
on de la region de convergencia de cada una por separado.
222
Lema E.2. Escalamiento en z.
Sea y[k] una secuencia de tiempo discreto en que k (0, +), y sup
ongamos
que tenemos a C, entonces
z
Z ak y[k] = Y
(E.13)
a
Demostraci
on
Seg
un la definicion tenemos:
z
z k
X
X
Z ak y[k] =
=Y
ak y[k]z k =
y[k]
a
a
k=0
k=0
(E.14)
ZETA
APENDICE
E. LA TRANSFORMACION
426
z
z
; || < 1
Y2 (z) = Y1
1 j0 k
Z (re ) + Z (rej0 )k )
2
1
z
z
=
+
2 z rej0
z rej0
1
z(2z 2r cos 0 )
=
2 z 2 z2r cos 0 + r2
z(z r cos 0 )
= 2
z z2r cos 0 + r2
Y (z) =
427
(E.15)
Demostraci
on
Directa de la definicion (E.1)
Z {y [k]} =
=
y [k]z k
k=0
y[k](z )k
k=0
= {Y (z )}
222
Z {y[k k0 ]} =
k=0
y[k k0 ]z k
k=k0
y[k k0 ]z k
ZETA
APENDICE
E. LA TRANSFORMACION
428
Z {y[k k0 ]} =
l=0
=z
k0
y[l]z
l=0
Z {y[k + k0 ]} =
=
y[k + k0 ]z k
k=0
y[l]z (lk0 )
l=k0
=z
=
k0
X
l=0
"
X
l=0
y[l]z
y[0] + y[1]z
+ . . . + y[k0 1]z
k0 +1
(E.18)
Ya que, en este caso, todas las condiciones iniciales seran iguales a cero.
Ejemplo E.4. Determine la transformada Zeta inversa de
Y (z) =
z k0
z
429
d Y (z)
dz
(E.19)
Demostraci
on
De la definicion (E.1), tenemos que
Z {k y[k]} =
=
ky[k]z k
k=0
ky[k]z k
k=0
= z
(k)y[k]z k1
k=0
d Y (z)
= z
dz
222
Ejemplo E.5. Consideremos el caso en que la secuencia discreta a la cual
queremos calcularle su transformada Zeta es una rampa de tiempo discreto, es
decir:
y[k] = k[k]
Seg
un (E.19) su transformada ser
a
d
z
Z {k[k]} = z
dz z 1
(z 1) z
= z
(z 1)2
z
=
(z 1)2
Lema E.6. Convoluci
on
Sean y1 [k] e y2 [k] dos secuencias discretas causales, es decir, iguales a cero
para k < 0. Supongamos que sus transformadas Zeta son Y1 (z) e Y2 (z), respectivamente. Entonces la transformada de la convoluci
on discreta entre y 1 [k] e
y2 [k] es:
ZETA
APENDICE
E. LA TRANSFORMACION
430
(E.20)
En que
y1 [k] y2 [k] =
k
X
l=0
y1 [l]y2 [k l]
(E.21)
Demostraci
on
Si las se
nales son causales, es decir, su valor es cero k < 0, entonces podemos
reescribirlas
y1 [k] = [k]y1 [k]
y2 [k] = [k]y2 [k]
Con esto, la convolucion es equivalente a
y1 [k] y2 [k] =
l=
y1 [l][l]y2 [k l][k l]
k=0
l=
y1 [l][l]y2 [k l][k l] z k
y1 [l][l]
l=
k=0
y2 [k l][k l]z
y1 [l][l]z l Y2 (z)
l=
= Y2 (z)
y1 [l]z l
l=0
= Y2 (z)Y1 (z)
222
431
Teorema E.1 (Teorema del Valor Final y Teorema del Valor Inicial).
Existen dos resultados que relacionan el comportamiento asint
otico de la funci
on
y[k] y su tranformada Y (z). Estos se conocen como el teorema del Valor Inicial
y teorema del Valor Final en tiempo discreto.
lm Y (z) = y[0]
(E.22)
(E.23)
z
z1
Y (z) =
y[k]z k
k=0
= y[0]
Z {y[k + 1] y[k]} = lm
k
X
l=0
(y[l + 1] y[l])z l
ZETA
APENDICE
E. LA TRANSFORMACION
432
Propiedades transformada Zeta
Tabla transformada Zeta
z1
z1
k
X
l=0
l=0
(y[l + 1] y[l])
z1
Donde el u
ltimo paso al lado derecho se justifica ya que la sumatoria corresponde a una serie telescopica. De esta forma se demuestra el Teorema del
Valor Final, o valor de equilibrio.
y[k]
l
X
433
Y (z) = Z {y[k]}
ai yi [k]
i=1
l
X
Comentarios
ai Yi (z)
i=1
k y[k]
z
C, <{} > 0
y [k]
Y (z )
Conjugacion
y[k k0 ]
k0 Z +
y[k + k0 ]
k 0 Z+
y[k k0 ][k k0 ]
z k0 Y (z)
k 0 Z+
ky[k]
k
X
l=0
y1 [l]y2 [k l]
y[0]
Y1 (z)Y2 (z)
Convolucion en k
lm Y (z)
lm (z 1)Y (z)
lm y[k]
dY (z)
dz
z1
ZETA
APENDICE
E. LA TRANSFORMACION
434
y[k]
(k 0)
Y (z) = Z {y[k]}
Region de Convergencia
K [k]
z C
z
z1
|z| > 1
z
(z 1)2
z
z
z
z ej0
ej0 k
cos(0 k)
sen(0 k)
k cos(0 k)
k sen(0 k)
cos(0 k + )
(
k
0
;0 k < N
;k N
|z| > 1
|z| > ||
|z| > 1
z(z cos 0 )
z 2 2z cos 0 + 1
|z| > 1
z2
|z| > 1
z sen 0
2z cos 0 + 1
z(z cos 0 )
z 2 2z cos 0 + 2
|z| > ||
z2
|z| > ||
z sen 0
2z cos 0 + 2
|z| > 1
|z| > 0
matrices|textbf
matriz!definici
on
matriz!elementos
Ap
endice F
Matrices. Definiciones y
Propiedades
11 de septiembre de 2003
En este apendice se presenta una revision de conceptos y propiedades relacionadas con matrices, como soporte para varios de los captulos del texto y
como referencia para topicos mas avanzados. En varios de los resultados que se
presentan se han omitido demostraciones y detalles excesivos, para los cuales se
incluyen las referencias necesarias orientadas al lector mas interesado.
F.1.
Conceptos B
asicos
436
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
matriz!cuadrada
a11
a21
A = {aij } =
.
..
an1
a11
...
a22
...
..
.
..
an2
...
a1m
a2m
..
.
anm
(F.1)
(F.2)
aij = bij
i, j
(F.3)
El conjunto K satisface por lo general las propiedades de cuerpo, y usualmente consideraremos el conjunto de los n
umeros reales R o de los complejos C.
Recordemos que:
Lema F.1. Un conjunto K, junto a las operaciones suma y multiplicacion se
denomina un cuerpo, si y s
olo si, para todo a, b, c K:
1.- La suma (+) satisface las siguientes propiedades:
(a) cerradura, es decir, a + b K
F.1. CONCEPTOS BASICOS
437
(f ) conmutatividad, es decir, a b = b a
Vectores
Una matriz formada por n filas y 1 columna se denomina vector columna.
En base a esta definicion podemos afirmar que una matriz de nm esta formada
por m vectores columna, cada uno con n elementos.
Una matriz formada por 1 fila y m columnas se denomina vector fila.
Analogamente, en base a esta definicion podemos decir que una matriz de n m
esta formada por n vectores fila, cada uno con m elementos.
En general, cuando se defina un vector de dimensi
on p nos referiremos a un
vector columna formado por p elementos.
n
X
aii
(F.4)
i=1
Matrices especiales
Definici
on F.4. Dada A = {aij } Knm , la matriz traspuesta de A, que
denotamos por AT , es la que resulta de intercambiar sus filas con sus columnas,
es decir,
A = {aij }
AT = {aji }
(F.5)
En base a la definicion, diremos que una matriz A es sim
etrica si y solo si
AT = A, es decir, si y solo si la matriz A es igual a su traspuesta. Naturalmente
para satisfacer esta condicion la matriz debe ser cuadrada.
Para el caso de matrices con coeficientes o elementos complejos (es decir, en
C) resulta mas com
un hablar de matrices hermitianas:
Definici
on F.5. Dada A = {aij } Cnm , se define la matriz hermitiana de
A, que denotamos por AH , como la matriz conjugada traspuesta de A, donde
la conjugaci
on se aplica a cada elemento:
AH = (A )T = (AT ) = {aji }
(F.6)
Una consecuencia natural de esta definicion es que toda matriz real y simetrica es hermitiana.
Para matrices cuadradas, tenemos las siguientes definiciones:
vector!columna
vector!fila
matriz!traza
traza
matriz!traspuesta
matriz!sim
etrica
matriz!hermitiana
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
438
matriz!diagonal
matriz!triangular superior
matriz!triangular inferior
matriz!identidad
determinante
matriz!determinante
Definici
on F.6. Dada una matriz A = {aij } Knn , diremos que:
la matriz A es diagonal si y s
olo si aij = 0 i 6= j , es decir, todos sus
elementos fuera de la diagonal principal de la matriz son cero.
la matriz A es triangular superior si y s
olo si aij = 0 i > j, es decir,
todos los elementos bajo la diagonal principal son cero.
la matriz A es triangular inferior si y solo si AT es triangular superior.
In =
..
.
F.2.
...
...
..
.
..
...
Knn
..
.
(F.7)
(F.8)
cuya definici
on constructiva se muestra a continuaci
on.
Expansi
on de Laplace1
El calculo del determinante puede ser definido por induccion. Sin embargo,
previo a su definicion presentamos dos conceptos previos necesarios:
1 Roger A. Horn & Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1990,
p
ag. 7
439
Definici
on F.9. Dada la matriz A = {aij } Knn :
se define Aij K(n1)(n1) como la ij-esima menor de A. Esta es una
matriz que resulta de eliminar la i-esima fila y la j-esima columna de la
matriz A.
se define el escalar:
Cij = (1)i+j det Aij
(F.9)
n
X
n
X
(F.10)
i=1
j=1
n
X
j=1
aij Cij =
n
X
aij Cij
(F.11)
i=1
det a11 = a11 = a11
a11 a12
= a11 a22 a12 a21
a21 a22
a11 a12 a13
a21
a22 a23
a12
a21 a22 a23 = a11
a31
a32 a33
a31 a32 a33
..
.
(F.12)
(F.13)
a21
a23
+ a13
a31
a33
a22
a32
(F.14)
(F.15)
menor
matriz!menor
cofactor
matriz!cofactor
cofactor!desarrollo
440
singular
matriz!singular
matriz!no singular
matriz!rango
rango
rango!columna
rango!columna
matriz!rango
rango
rango completo
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
Existe una serie de reglas que pueden facilitar el calculo del determinante de
una matriz que estan mas alla del objetivo de este apendice. Sin embargo, una
observacion u
til para reducir el n
umero de calculos necesarios para obtener el
determinante de una matriz es elegir la fila (o columna) que contenga el mayor
n
umero de ceros, para hacer el desarrollo en (F.10).
Podemos ademas hacer las siguientes observaciones:
Si la matriz A tiene una fila o una columna formada solo por ceros, entonces det(A) = 0.
Si det(A) = 0 se dice que la matriz es singular. En caso contrario, se dice
que la matriz es no singular.
Si la matriz A de n n es diagonal o triangular (superior o inferior),
entonces det(A) = a11 a22 . . . ann
A = 2
(F.16)
tiene rango fila igual a 2, pues la tercera fila es la suma de las dos primeras,
mientras que tiene rango columna igual a 3, pues las 3 columnas a la izquierda
son linealmente independientes, y en R3 estas conforman una base, es decir,
cualquier otro vector se puede escribir como combinaci
on lineal de elementos de
esta base. Su rango, por ende, es igual a 2, y no es de rango completo.
441
222
F.3.
Suma de matrices
La suma de dos matrices se define como la suma elemento por elemento.
Naturalmente, la condicion para que esta suma tenga sentido es que ambas
tengan las mismas dimensiones. Bajo esta condicion:
C=A+B=
(F.17)
(F.18)
matrices!suma
espacio!vectorial
442
producto!matrices
matriz!producto
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
Producto matricial
El producto de matrices puede entenderse como una extension del producto
punto o producto interno usual dos vectores v, w Kn , definido como:
hv, wi = v w =
n
X
vk wk
(F.19)
k=1
(F.20)
p
X
k=1
(F.21)
443
F.4.
(F.23)
matriz!inversa
matriz!no singular
inversa de una matriz
inversa generalizada
matriz!inversa generalizada
444
matriz!adjunta
adjunta de una matriz
matriz!particionada
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
(F.24)
1
Adj A
det A
(F.25)
Demostraci
on:
Usando la expansi
on de Laplace (F.10), entonces se puede probar que:
(Adj A)A = A (Adj A) = (det A) I
(F.26)
222
Matrices particionadas
Toda matriz puede ser particionada de forma tal que se expresa como una
matriz de macro elementos, cada uno de ellos es en si mismo otra matriz. Se
dice, en estos casos que la matriz esta definida por bloques. Considere una matriz
A Cnm , entonces:
445
A11
A21
A = {aij } =
.
..
Ap1
A12
A13
A22
A23
..
.
..
.
...
Ap2
Ap3
q
X
ni = n;
A1q
A2q
..
.
Apq
mj = m
(F.27)
(F.28)
j=1
i=1
Por ejemplo, si
A=
(F.29)
A11
= 0
2
3
1
7
0
"
; A12 = 5 ; A21 = 2
2
3
2
2 ; A22 = 4 (F.30)
Lema de Inversi
on Matricial
En esta seccion presentamos un importante resultado que resulta u
til en
aquellos casos que se requiere manipular (calcular determinantes o inversas)
matrices de grandes dimensiones, o bien, matrices definidas por bloques. Para
esto consideramos una matriz cuadrada, definida por bloques, de la forma:
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
446
inversion matricial
matriz!particionada
A11
A=
A21
en que:
A11 Cpp
A12 Cpq
A12
C(p+q)(p+q)
A22
;
A21 Cqp
(F.31)
A22 Cqq
(F.32)
(F.33)
A21 A1
11 A12
(F.34)
o bien:
A1 =
A1 =
1
1
1
A1
11 + A11 A12 22 A21 A11
1
1
22 A21 A11
1
11
1
A1
22 A21 11
1
A1
11 A12 22
1
22
1
1
11 A12 A22
1
1
1
A1
22 + A22 A21 11 A12 A22
(F.35)
(F.36)
(F.37)
Ademas, dadas submatrices como las que forman la matriz (F.31), se tiene
que:
1
1
1
A1
11 A12 22 = 11 A12 A22
(F.38)
(F.39)
447
o bien:
det(A) = det(A22 ) det(11 )
(F.40)
Demostraci
on:
La matriz A puede reescribirse en la forma:
A=
y de la forma:
A=
Ip
A21 A11 1
Iq
Ip
A12 A22 1
Iq
A11
A12
22
11
A21
A22
(F.41)
(F.42)
y, adem
as:
A11
A12
22
Ip
A21 A11 1
A11 1
0
Iq
(22 )1
1
Ip
=
A21 A11 1
0
Iq
(F.43)
(F.44)
A11
0
A12
22
1
Ip
A21 A11 1
0
Iq
1
(F.45)
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
448
autovalores|textbf
autovectores|textbf
valores caracter
sticos|textbf
vectores
caracter
sticos|textbf
matriz!autovalores
autovalores
valores propios
C Knn
D Knm
(F.46)
(C + DB)
(Im + BC
= Im B(C DB)
Demostracion:
D(In + BC
det Im BD = det In DB
=C
(F.47)
1
(F.48)
1
D)
BC
(F.49)
(F.50)
F.5.
Autovalores y autovectores
; v 6= 0
(F.51)
n
449
(F.52)
(F.53)
(F.54)
(F.55)
222
Definici
on F.16. Espectro y radio espectral
El conjunto de n autovalores de una matriz A Knn se denomina el
espectro de A, y se denota por:
(A) = {1 , 2 , . . . , n }
(F.56)
(F.57)
polinomio caracter
stico
espectro
radio espectral
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
450
matrices!similares
similaridad!transformaci
on de
congruencia
Diagonalizaci
on
Cuando los autovectores vi de la matriz A que satisfacen la ecuacion (F.51),
son linealmente independientes, pueden agruparse en una matriz T no singular:
#
"
T = v1
v2
...
(F.58)
vn
(F.59)
(F.60)
Demostraci
on
Usando la ecuacion (F.58), podemos escribir:
"
AT = A v
1
"
= Av1
"
= 1 v1
v2
Av2
2 v2
...
vn
...
...
Avn
(F.61)
#
n vn
= T diag{1 , 2 , . . . , n }
(F.62)
(F.63)
(F.64)
congruentes si y s
olo si existe una matriz no singular S tal que B =
SH AS, y
451
congruentes si y s
olo si existe una matriz no singular S tal que B =
ST AS.
Naturalmente estos conceptos son equivalentes si S es una matriz real.
Forma de Jordan
En el caso que una matriz A posea autovalores repetidos, es decir, con multiplicidad, pueden darse dos situaciones diferentes respecto a la digonalizacion.
Supongamos que un autovalor i con multiplicidad ni 2, entonces:
1.
2.
(A i I)vi,0 = 0
(A i I)vi,1 = vi,0
(F.65)
(A i I)vi,2 = vi,1
..
.
(F.66)
asociados a i
multiplicidad!autovalores
autovectores!generalizados
Jordan!forma de
matriz!forma de Jordan
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
452
autovectores!generalizados
P = JA
.
..
0
..
...
.
Ji
..
...
..
.
(F.67)
Ji =
...
..
.
i
..
..
(F.68)
det(Ji ) = i ni
(F.69)
aR
(F.70)
2 0
A = a 2
1 1
det(I A) = ( 2) ( + 1) = 0
453
1 = 2
2 = 1
(multiplicidad 2)
(F.71)
Caso 1 : a = 0
Usando la ecuaci
on (F.51) se obtienen los autovectores:
(1 I A)v1 = 0
(2 I A)v2 = 0
0
0
1
0
0
1
=0
0
1
1
3
0
2
=0
3 0
2
1 0
2
v1 =
1
1
(1 + 1 )/3
0
v2 = 0
2
(F.72)
(F.73)
v1 =
3
0
1
1
1
v1, + v1,
=
+
=
1
3 0
3 3
3
3
(1 + 1 )/3
1
1
(F.74)
454
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
"
T= v
1,
v1,
v2
= 0
0
3
1
(F.75)
1
T AT = 0
0
2
0
=P
0
(F.76)
Caso 2 : a 6= 0
Usando la ecuaci
on (F.51) se obtienen los autovectores:
0
0
(1 I A)v1 = a 0
1 1
v =0
0
1
3 0 0
(2 I A)v2 = a 3 0 v2 = 0
1 1 0
0
v1 = 3 = v1,0
1
0
v 2 = 0
1
(F.77)
(F.78)
455
(A 1 I)v1,1 = v1,0
(F.79)
0 0 0 0
a 0 0 = 3
1 1 3
(F.80)
Donde se obtiene = 3/a y = 3 + 1 3/a. Por simplicidad escogemos = 0, luego v1,1 = [ 3/a , 1 3/a , 0 ]T . Con esto tenemos la matriz de
transformaci
on:
"
T = v1,1
v1,0
v2
3/a
= 1 3/a
1
T AT = 1
0
2
0
3 0
1 1
(F.81)
= JA
0
(F.82)
tr(A) =
det(A) =
n
X
i=1
n
Y
(F.83)
(F.84)
i=1
Demostraci
on
Primero observamos que siempre existe una matriz no singular T, tal que
T1 AT = diag{J1 , J2 , . . . , Jq }
(F.85)
456
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
q
X
i=1
tr(Ji ) =
q
X
ni i
(F.86)
i=1
es decir, tr(T1 AT) es igual a la suma de todos los autovalores de A. Por otro
lado
tr(T1 AT) = tr(ATT1 ) = tr(A)
(F.87)
q
Y
i=1
det(Ji ) =
q
Y
i n i
(F.88)
i=1
(F.89)
222
Una propiedad fundamental de la transformacion similar es que se preservan
ciertas caractersticas, tal como se plantea a continuacion.
Lema F.11. Sean A y B dos matrices similares. Entonces, tienen los mismos
autovalores, el mismo determinante y la misma traza.
Demostraci
on
Si A y B son similares, entonces existe T no singular tal que B = T1 AT.
Entonces, los autovalores de B son las races de det(I B) = 0. Si ahora
usamos la similaridad tenemos que
det(I B) = det(T1 T T1 AT) = det T1 (I A)T
= det (I A)TT1 = det(I A)
(F.90)
(F.91)
457
F.6.
Norma de vectores
El concepto de norma, y sus propiedades, ya fue definido en el apendice . . . ,
en el contexto de espacios vectoriales (Definicion B.6 pag 322).
En particular la norma ahi empleada es la que queda inducida por el producto
interno entre vectores. Sin embargo, para vectores existen otras normas que
pueden definirse, que tambien satisfacen las propiedades en la Definicion B.6:
1.
(F.93)
Esta es la norma mas comun, pues representa la distancia usual dos puntos
en Cn . Note que tambien se deriva del producto punto usual (F.19) en Cn ,
es decir, kvk22 = hv, vi = v v
2.
3.
(F.94)
(F.95)
458
desigualdad!Cauchy--Schwarz
norma-$1$
Fr
obenius
norma-$2$
matriz!norma-$2$
matriz!norma Fr
obenius
norma-$\infty$
matriz!norma-$\infty$
4.
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
La norma p en Cn , con p 1 definida como:
kvkp = (|v1 |p + . . . + |vn |p )1/p
(F.96)
Se deja al lector (como buen ejercicio) representar todos los vectores que
estan a distancia 1 del origen, en cada una de estas normas, por ejemplo, en C
o R2 .
Norma de matrices
Para definir la norma de una matriz, o equivalentemente, la distancia entre
dos matrices, una primera forma seria considerar simplemente el isomorfismo
entre espacio Mnm (K) y el espacio vectorial Knm . Sin embargo, al considerar
simplemente la norma en un espacio vectorial de mayores dimensiones, no es
posible establecer relaciones con propiedades caractersticas de las matrices,
como son el producto matricial, el determinante y el espectro, entre otras. Por
esto, tenemos la siguiente definicion, mas adecuada:
Definici
on F.19. Una norma matricial es una funci
on que va de M(K) R
talque, para A, B de dimensiones adecuadas, satisface:
1.
kAk 0, y kAk = 0 si y s
olo si A = 0
2.
3.
4.
1.
2.
i=1 j=1
|aij |
(F.97)
kAk2 =
3.
n X
m
X
n X
m
X
i=1 j=1
1/2
|aij |2
q
tr(AH A)
(F.98)
(F.99)
459
m
n X
X
|aij |p
kAkp =
(F.100)
i=1 j=1
Ademas de las anteriores, la forma mas natural de definir una norma matricial es inducirla a traves de una norma vectorial de la siguiente forma:
norma-p
matriz!norma-p
norma!inducida
matriz!norma inducida
norma espectral
norma!spectral
matriz!norma spectral
n
umero de condicionamiento
matriz, condici
on
Definici
on F.20. Dada una matriz A Knm y una norma vectorial k k,
definimos la norma matricial inducida como:
kAk = max kAvk
(F.101)
kvk=1
kvk1
kvk6=0
kAvk
kvk
(F.102)
kAk kA1 k
si A es no singular
si A es singular
(F.104)
Note que (A) = kAk kA1 k kAA1 k kIk 1 para toda matriz A.
De esta forma, cuando (A) es grande, la matriz se dice mal condicionada. Si (A) es cercano a 1, la matriz se dice bien condicionada, y si (A) =
1, entonces la matriz A se dice perfectamente condicionada.
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
460
matriz!unitaria
teorema de Schur
Cuando una matriz es mal condicionada, el calculo del inverso puede tener
errores muy grandes, y es aconsejable recurrir a metodos de inversion numericamente robustos.
Un caso especial de n
umero de condicion de una matriz real es cuando se
usa la norma spectral en (F.104). En ese caso
(A) =
F.7.
|max |
|min |
(F.105)
Matrices unitarias
Definici
on F.23. Una matriz U Cnn se dice unitaria, si y s
olo si UH U =
In , es decir, si su inversa es igual a su matriz hermitiana o conjugada traspuesta.
En particular, si la matriz es real, es decir, U Rnn , se dice que U es real
ortogonal.
Es m
as, si dos matrices son similares a traves de una matriz de transformacion unitaria, es decir:
UH AU = P
(F.106)
(F.107)
461
(F.108)
Matrices normales
Definici
on F.24. Una matriz A Knn se dice normal, si y solo si AH A =
H
AA , es decir, A conmuta con su matriz hermitiana o compleja conjugada.
Con ayuda del Teorema de Schur, puede probarse que una matriz A es
normal si y solo si es unitaria diagonalizable, es decir, si existe una matriz
unitaria U talque UH AU es diagonal.
Recuerde ademas, del Lema F.12 que toda matriz hermitiana (simetrica, en
el caso de matrices reales) es normal y, por tanto unitaria diagonalizable, es
decir:
A = AH
A = UH DU
(F.109)
Matrices positivas
Una clase de matrices hermitianas (real simetricas) que aparece en m
ultiples
aplicaciones son aquellas que poseen (o no) la propiedad de ser positivas.
Consideremos, por ejemplo, la expansion en serie de Taylor de una funcion
en dos variables (apendice A, p.317) en torno a un punto (xo , yo ):
Cayley-Hamilton
teorema de Cayley-Hamilton
matriz!normal
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
462
hessiano
matriz!positiva definida
f (x, y)
(xo ,yo )
= f (xo , yo ) + f
(xo ,yo )
y
"
1
+
2 x
H(f )
x
+ ...
(xo ,yo )
y
(F.110)
2
H(f ) =
f
x2
2f
yx
f
xy
2f
y 2
(F.111)
463
matriz!diagonal
matriz!ra
z de
Demostraci
on
Considere el Lema F.13, entonces
A=
n
X
i=1
i vi viH
(F.112)
donde los autovectores tienen largo unitario (en norma-2). Entonces al multiplicar (F.112), por la izquierda, por v`H , y, por la derecha, por v` se tiene
que
v`H Av` = `
(F.113)
Por otro lado, dado que una matriz hermitiana tienen un conjunto ortonormal de autovectores, entonces, todo vector v Cnn , puede expresarse como
v=
n
X
j vj
(F.114)
j=1
n
X
j=1
j vjH
n
X
i=1
i vi viH
n
X
j vj
(F.115)
j=1
n
X
`=1
|` |2 `
(F.116)
dominante
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
464
matriz!ra
z
matriz!exponencial
matriz!nilpotente
matriz!idempotente
matriz!diagonal por bloques
matriz!triangular por bloques
matriz!permutaci\on
Definici
on F.26. Una matriz hermitiana A es positiva definida si y s
olo si
existe una matriz no singular B, tal que A = BH B. Dicha matriz B se define
como la raz cuadrada de A y se denota por B = A1/2 . Se debe notar que
si B es raz cuadrada de A, entonces tambien lo es UB, donde U es cualquier
matriz unitaria.
Otras matrices
Definici
on F.27. Dada una matriz A Knn , se defina la matriz exponencial de A, usando la expansion en serie de Taylor usual, es decir:
eA = I + A +
X
1 2
1 n
A + ... =
A
2!
n!
n=0
(F.117)
Definici
on F.28. Una matriz A Knn se dice nilpotente, si y s
olo si existe
un entero positivo, q, tal que:
Aq = 0
(F.118)
Definici
on F.29. Una matriz A Knn se dice idempotente, si y s
olo si :
A2 = A
(F.119)
nn
Definici
on F.30. Una matriz A K
se dice diagonal por bloques, si y
solo si sus u
nicos elementos distintos de cero pueden ser agrupados en submatrices Ai Kni ni sobre su diagonal, es decir:
A1 0 . . . 0
0 A2 . . . 0
A= .
(F.120)
..
..
..
..
.
.
.
0
en que
Pk
i=1
...
Ak
ni = n
0 1 0
P = 1 0 0
0 0 1
(F.121)
La denominaci
on resulta natural pues multiplicar cualquier vector por esta matriz equivale a permutar sus elementos, por ejemplo:
465
matriz!circulante
matriz!Toeplitz
1
2
P 2 = 1
3
3
Definici
on F.32. Una matriz A
cada una de sus filas resulta de la
a1
an
..
.
a2
(F.122)
a2 . . .
an
a1 . . . an1
(F.123)
.. . .
..
.
.
.
a3 . . .
a1
Note que una matriz circulante puede ser escrita en terminos de la matriz
de permutacion circular :
0 1 0 ... 0
0 0 1 . . . 0
n1
X
.. .. . .
.
.
.
.
ak+1 Ck
(F.124)
C = . .
A=
.
.
.
k=0
0
...
1
1 0
... 0
Definici
on F.33. Una matriz A Knn se denomina matriz Toeplitz si
todos los elementos sobre cada diagonal son iguales, es decir:
a0
a1
a2 . . .
an
a1
a0
a1 . . . an1
..
..
.
.
..
.. ...
(F.125)
A= .
an+1
...
. . . a0
a1
an
an+1 . . . a1
a0
Note que una matriz Toeplitz puede ser escrita en terminos de las matrices
un paso adelante F y un paso atr
as B:
0
..
.
F=
0
0
entonces:
1
..
.
0
...
..
.
..
.
...
0
..
.
1
0
A=
n
X
k=1
1
B=F =
.
..
0
T
ak Fk +
n
X
k=1
...
..
.
..
.
...
ak Bk
0
..
1
..
.
(F.126)
(F.127)
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
466
matriz!Vandermonde
valores singulares
Definici
on F.34. Una matriz A Knn se denomina matriz de Vandermonde si es de la forma:
1
1
A = .
..
1
x1
x2
..
.
x21
x22
..
.
...
...
..
.
xn
x2n
...
x1n1
x2n1
..
.
(F.128)
xnn1
n
Y
i,j=1
i>j
(xi xj )
(F.129)
F.8.
p(x2 ) = a0 + a1 x2 + . . . +
..
.
an1 x2n1
p(xn ) = a0 + a1 xn + . . . +
an1 xnn1
= y2
(F.130)
(F.131)
(F.132)
= yn
(F.133)
Valores singulares
Hemos visto a lo largo de este apendice que existen diferentes formas de caracterizar una matriz expresandola o relacionandola con otra equivalente bajo
alg
un criterio. Entre estos se ha definido la igualdad de matrices, la diagonalizacion (o similaridad), la congruencia y la equivalencia unitaria (teorema de
Schur). Sin embargo, un importante desarrollo del analisis matricial de amplia
aplicacion en diferentes areas de la Ingeniera (y otras disciplinas) es la descomposicion en valores singulares, que representa una extension de la diagonalizacion
mediante autovalores, pero que permite incluir el caso de matrices singulares y
matrices no cuadradas.
Teorema F.3. Descomposici
on en valores singulares
Dada una matriz A Knm de rango k q = mn{n, m}, entonces esta puede
expresarse como:
A = VWH
en que:
(F.134)
467
i 6= j
(F.135)
11 22 . . . kk > k+1,k+1 = . . . = qq = 0
(F.136)
V2 = V 1 D
(F.137)
Se forma la matriz hermitiana AAH y se calcula su diagonalizacion unitaria AAH = UUH , a traves del calculo de sus autovalores {i } (que
son positivos) y su correspondientes autovectores normalizados {u i }.
2.
3.
Finalmente, W = AH V1
APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
468
kAk2 =
q
X
i=1
i2
!1/2
(F.138)
AA y A A son hermitianas,
2.
AA A = A, y
3.
A AA = A .
Bibliografa
[1] B.D.O. Anderson and John Moore. Linear Optimal Control. Prentice Hall,
Englewood Cliffs, N.J., 1971.
[2] B.D.O. Anderson and John Moore. Optimal filtering. Prentice Hall, Englewood Cliffs, N.J., 1979.
[3] K.J.
Astrom and B. Wittenmark. Computer controlled systems. Theory
and design. Prentice Hall, Englewood Cliffs, N.J., second edition, 1990.
[4] H.W. Bode. Network analysis and feedback amplifier design. Van Nostrand,
New York, 1945.
[5] R.C. Dorf and R. Bishop. Modern Control Systems. Prentice Hall, Englewood Cliffs, New Jersey, 9th edition, 1997.
[6] G.F. Franklin and J.D. Powel. Digital Control of Dynamics Systems.
Addison-Wesley, second edition, 1990.
[7] G.F. Franklin, J.D. Powell, and A. Emami-Nagiri. Feedback Control of
Dynamics Systems. Addison-Wesley Pub. Co., Reading, Mass., 1991.
[8] G.C. Goodwin, S. Graebe, and M.E. Salgado. Control System Design.
Prentice Hall, New Jersey, 2001.
[9] Hwei P. Hsu. An
alisis de Fourier. Fondo Educativo Interamericano S.A.,
1973.
[10] E. Jury. Sample Data Control Systems. John Wiley and Sons, 1958.
[11] J.W. Kitchen. Calculus of one variable. Addison Wesley, 1968.
[12] D.L. Kreider, R.G. Kuller, D.R. Ostberg, and F.W. Perkins. Introducci
on
al an
alisis lineal. Fondo Educativo Interamericano S.A., 1971.
[13] H. Kwakernaak and R. Sivan. Linear Optimal Control Systems. Wiley
Interscience, New York, 1972.
[14] R.H. Middleton and G.C. Goodwin. Digital Control and Estimation. A
Unified Approach. Prentice Hall, Englewood Cliffs, New Jersey, 1990.
469
470
BIBLIOGRAFIA
Index
angulo
de desfase, 88, 104
angulo entre vectores, 341
angulo
de desfase, 94
de disparo, 96
Zeta
transformada, 191
ADC, vease conversor
adjunta de una matriz, 440
alcanzabilidad, 290
test, 291
amplificador, 247
amplitud, 88, 104
ancho de banda, 124
aperiodicas
se
nales, 117
armonicas, 94, 107
asntotas, 224
autovalores, 40, 270, 444, 444
autovectores, 444
generalizados, 447, 448
bilineal
transformacion, 207
bloques, 246
Bode, 219, 220
aproximacion asintotica, 227
aproximaciones, 221
asntotas, 222
diagramas de, 220
frecuencias de quiebre, 227
crculo unitario, 71, 239
471
472
convolucion, 53, 79
cuadrante, 234
DAC, vease conversor
decada, 220
decibel, 220
delta de Dirac, 21, 120
en frecuencia, 160
en frecuencia, 198
delta de Kronecker, 27
descomposicion canonica, 307
alcanzabilidad, 297
observabilidad, 306
desfase, 94
desigualdad
CauchySchwarz, 454
triangular, 207
desigualdad triangular, 341
Desplazamiento en el tiempo, 358
Desplazamiento en frecuencia, 358
detectabilidad, 306
determinante, 434
diagrama polar, 233
tiempo discreto, 244
diagramas
de Bode, 220
diagramas de bloques, 246
Dirac, 21
disco unitario, 71
discontinuidad, 241
discretizacion, 63, 273
distancia, 341
dualidad, 305
ecuacion caracterstica, 40, 66, 262,
279
ecuacion de recursion, 61
ecuacion diferencial
del sistema, 156
ecuacion diferencial del sistema, 35
EDS, 156
ejes logartmicos, 220
elimina banda, 135, 149
energa, 143
entrada, 1, 158
equilibrio estable, 38, 64
INDEX
equilibrio inestable, 266
error, 98
estimacion, 310
modelo, 311
errores en las variables, 323, 330
escalon
respuesta a, 161, 200
escalon unitario, 21, 27
espacio
de estado, 253
vectorial, 437
espectro, 134, 232, 445
continuo, 122
de lnea, 94
en frecuencia, 94
espectro de lnea, 109
espiral, 240
estabilidad, 43, 71, 171, 205, 262,
279, 280
estabilizabilidad, 298
estado, 253
alcanzable, 290
controlable, 290
del sistema, 254
espacio de, 254
observable, 299
transformacion, 256, 267, 286
trayectoria, 254
variables de, 254
vector de, 254
estado inicial, 3
estimacion, 309
error, 310
Euler, 26, 31
exponencial, 24, 29
creciente, 24, 30
de una matriz, 261, 276
exponencial imaginaria, 26
factor de amortiguamiento, 183
factores canonicos, 220
fase, 88, 104
fase mnima, 177, 211
feedback
seerealimentacion, 289
filtraje, 133
INDEX
filtro, 314
forma canonica
controlable, 298
del controlador, 298
observable, 307
Fourier, 87, 117
Frobenius, 454
fracciones parciales, 128, 146, 156,
178, 193, 412
frecuencia, 88, 104
angular, 88, 104
de corte, 135, 149
fundamental, 107
frecuencia fundamental, 94
frecuencia natural
amortiguada , 184
dominante, 44, 72
no amortiguada, 183
frecuencias de corte, 136
frecuencias naturales, 40, 68
funcion muestreo, 23
funcion
generalizada, 120
racional, 157, 159
funcion de transferencia, 125, 145,
156, 157, 192, 270, 286
estable, 177
tiempo discreto, 196
bipropia, 158, 197
ceros, 158, 197
con retardo, 159
estable, 211
estrictamente propia, 158, 197,
272
grado relativo, 158, 177, 197
impropia, 158
multiplicidad, 158
polos, 158, 197
propia, 158, 197
ganancia, 42, 69
a continua, 42, 69
a modo forzante, 42, 68, 88, 110,
129, 145, 205
gradiente, 324, 331
grado relativo, 158, 197, 203
473
gramiano
controlabilidad, 294
tiempo discreto, 295
observabilidad, 303
Heaviside, 21, 36
operador, 36
hessiano, 458
homogeneidad, 5
Hurwitz
polinomio, 173, 310
impulso
respuesta a, 158
respuesta a, 161, 200
impulso unitario, 21, 27
independencia lineal, 93
integrador, 7
interconexion, 246
inversa de una matriz, 439
inversa generalizada, 439
inversion matricial, 442
Jordan
forma de, 448
Jury, 208
algoritmo, 208
lmite de estabilidad, 172, 205
Laplace, 155
lazo de control, 289
linealizacion, 9, 258, 274
Lyapunov
ecuacion, 295, 304
matrices, 431
similares, 446
suma, 437
matriz
de Fourier, 109
adjunta, 286, 440
autovalores, 444
circulante, 461
cofactor, 435
cuadrada, 432
de controlabilidad, 291
de observabilidad, 300
474
de transformacion, 268
de transicion, 261
discreta, 277
definicion, 431
determinante, 434
diagonal, 434
diagonal dominante, 459
diagonal por bloques, 460
elementos, 431
exponencial, 460
forma de Jordan, 448
hermitiana, 433
idempotente, 460
identidad, 434
inversa, 439
inversa generalizada, 439
menor, 435
nilpotente, 460
no singular, 436, 439
norma Frobenius, 454
norma inducida, 455
norma spectral, 455
norma-2, 454
norma-, 454
norma-p, 455
normal, 457
particionada, 440, 442
permutacion, 460
positiva definida, 458
producto, 438
raz, 460
raz de, 459
rango, 436
simetrica, 433
singular, 436
Toeplitz, 461
traspuesta, 433
traza, 433
triangular inferior, 434
triangular por bloques, 460
triangular superior, 434
unitaria, 456
Vandermonde, 462
matriz, condicion, 455
menor, 435
modelo, 4
INDEX
en espacio de estado, 253
error, 311
linealizado, 9
peque
na se
nal, 14
validacion, 319
modelos, 319
modo forzado, 42, 68, 265
modo forzante, 40, 68, 205
ganancia a, 42, 68
modo natural
dominante, 44, 72, 266
modos
naturales, 161
modos naturales, 40, 68, 89, 104, 212
muestra, 318
muestreo, 201, 254, 273, 274, 317,
318, 318
perodo de, 275, 282
multiplicidad, 158
polos, 172
autovalores, 447
polos, 197, 205
n
umero de condicionamiento, 455
norma, 341
inducida, 455
spectral, 455
norma espectral, 455
norma inducida, 341
norma-1, 454
norma-2, 454
norma-, 454
norma-p, 455
Nyquist, 219
observabilidad, 180, 214, 299
forma canonica, 307
gramiano, 303
matriz, 300
perdida, 301
test, 300
observador, 309
de orden completo, 316
de orden reducido, 316
polinomio, 310
octava, 220
INDEX
operador, 3
operador adelanto, 62
ortogonalidad, 93
paralelo
conexion, 288
Parseval, 102, 123, 143
pasa altos, 134, 149
pasa bajos, 134, 149
pasa banda, 135, 149
PEM, 323, 330
perodo, 88, 104
de muestreo, 275, 282
infinito, 117
plano de fase, 264
planta, 289
PLC, 273
polar
diagrama, 233
polinomio caracterstico, 66, 445
polinomio caractrerstico, 197
polos, 158, 178, 211, 270, 412
dominantes, 180, 213
lentos, 180, 213
observador, 311
rapidos, 180, 213
prediccion
error de, 321, 323, 329, 331
producto
matrices, 438
promedio movil, 62
Propiedades transformada de Fourier, 384
Propiedades transformada de Fourier discreta., 386
Propiedades transformada de Laplace,
409
Propiedades transformada Zeta, 428
punto de equilibrio, 11, 13, 258, 266
punto de operacion, 9, 14
quantum, 317
radio de convergencia, 419
radio espectral, 445
rampa unitaria, 23, 28
475
rango, 436
columna, 436
rango completo, 436
realimentacion, 289
realizacion mnima, 272, 287, 309
reconstruccion, 318
reconstructibilidad, 299
regresion
vector de, 322, 329
regresores, 322, 329
resonancia, 92, 106, 225, 266, 281
respuesta
a [t], 78
a (t), 50
a [t], 76
a escalon, 50, 76
a impulso, 52, 78, 158, 200
a escalon, 161, 200, 281
a impulso, 161
estacionaria, 204
forzada, 280
inversa, 182, 215
no forzada, 278
respuesta a (t), 52
respuesta en frecuencia, 89, 90, 104,
110, 124, 134, 145, 171, 199,
219
respuesta estacionaria, 49, 75
respuesta homogenea, 39, 65, 262
respuesta particular, 39, 67
respuesta transitoria, 49, 75
respuestas, 2
retardo, 159, 204, 227, 258, 284
diagrama de Bode, 227
diagrama polar, 239
retentor, 274
Routh, 207
algoritmo, 175
ruido, 314
salida, 158
sampling, vease muestreo
se
nal
de tiempo continuo, 155
de tiempo continuo, 257
de tiempo discreto, 257
476
modelo de estado, 256
no acotada, 155
se
nal causal, 53, 80
se
nal incremental, 14
se
nales, 2, 21
de prueba, 21
de tiempo discreto, 27
serie
conexion, 288
Serie de Fourier, 93
serie de Fourier, 87, 88, 118
cosenoidal, 98
senoidal, 95
exponencial, 101
serie de Taylor, 335
similaridad, 256, 267, 286, 292
transformacion de, 446
singular, 436
sinuosoide
aperiodica, 30
sinusoidal, 88, 103
sinusoide, 25
amortiguada, 26
amplitud, 26
desfase, 26
discreta, 30
amortiguada, 31
formula de Euler, 26
frecuencia, 26
frecuencia angular, 26
perodo, 26
sistema, 1
estable, 89, 104, 134, 137, 158
inestable, 38, 64
no lineal, 87
alcanzable, 290
algebraico, 4, 6
controlable, 290
detectable, 306
dinamico, 2, 155, 254
discreto, 273
dual, 306
estabilizable, 298
estable, 150, 155
hbrido, 254
inestable, 155
INDEX
interconexion, 246, 287
lineal, 110
muestreado, 273, 274
observable, 299
propiedades, 290
tiempo continuo, 257
sistemas
digitales, 317
hbridos, 318
sistemas discretos
estabilidad, 206
sistemas lineales, 5
solucion homogenea, 39, 65
solucion particular, 39, 67, 265
SPI, 172
subespacio
controlable, 297
observable, 306
superposicion, 5
Tabla de transformadas de Fourier,
385
Tabla de transformadas de Fourier
discretas, 387
Tabla transformada Zeta, 428
Tabla transformadas de Laplace, 409
Tabla transformadas de Laplace inversas, 409
Taylor, 335
teorema de Cayley-Hamilton, 457
teorema de Schur, 456
transformacion del estado, 256, 267,
286
Transformada de Fourier, 120
transformada de Fourier, 55, 82, 117,
117, 120, 219, 355
discreta, 140
discreta inversa, 140
inversa, 120
discreta, 199
transformada de Fourier discreta, 370
transformada de Fourier discreta inversa, 370
transformada de Fourier inversa, 355
Transformada de Laplace
region de convergencia, 395
INDEX
transformada de Laplace, 55, 155,
219
definicion, 156
inversa, 156
region de convergencia, 156
transformada rapida de Fourier, 389
transformada Zeta, 82, 191, 219
inversa, 191
traza, 433
undershoot, 182, 215
valor final, 162, 200
valor inicial, 168
valores caractersticos, 40, 444
valores propios, 40, 444
valores singulares, 462
variables
de estado, 253, 254
vector
columna, 433
de estado, 254
fila, 433
vectores caractersticos, 444
velocidad, 44, 72, 262, 279
ZOH, vease retentor
477