Anda di halaman 1dari 495

ANALISIS

DE SISTEMAS
LINEALES
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz1

EDITORIAL. SU REESTE ES UN BORRADOR SUJETO A NEGOCIACION

PRODUCCION SOLO PUEDE SER AUTORIZADA POR LOS TRES AUTORES.


Version 11 de septiembre de 2003.

Valparaso, Marzo 2002


1 Departamento de Electr
onica
Universidad T
ecnica Federico Santa Mara
Valparaso, CHILE

ii

sistema|textbf
Kalman
Routh
Bode
Nyquist

Prefacio
La nocion de sistema resulta sumamente poderosa para la descripcion, analisis y dise
no tanto en ingeniera como en otras areas, principalmente porque
permite describir en forma abstracta un fenomeno en base al objetivo que el
observador/ingeniero en requiera en cada caso particular.
En este texto abordamos el analisis de un tipo particular de sistemas, aquellos llamados lineales. Esta propiedad, si bien no es com
un en sistemas fsicos
reales, permite hacer uso de una gran gama de herramientas de analisis matematico,
que han demostrado ser de gran utilidad, a pesar de las simplificaciones inherentes involucradas en la representacion lineal de los sistemas.
La teora de los sistemas lineales tuvo un rapido crecimiento y sostenida consolidacion desde mediados del siglo veinte. Este desarrollo fue sustentado por
el trabajo pionero de Bode, Routh, Nyquist, Kalman y muchos otros investigadores. Ellos construyeron, a su vez, sobre la teora matematica existente de
los siglos pasados en areas tan diversas como, por ejemplo, el calculo diferencial
e integral de Newton, las ecuaciones diferenciales y la teora de funciones de
variables complejas.
Mas adelante, el desarrollo y expansion de la tecnologa digital ampliaron el
campo de los sistemas lineales hacia los sistemas que operan en tiempo discreto.
Nuevas herramientas matematicas debieron entonces incorporarse al estudio de
los sistemas lineales.
Un aspecto de especial relevancia es no perder de vista que el interes de
la Ingeniera en los sistemas lineales esta ligado a la posibilidad de emplearlos
como modelos suficientemente precisos para describir sistemas reales. El estudiante debe ser advertido al inicio del curso sobre el problema subyacente de
fidelidad de la representacion final, y el tema debe ser reiterado a lo largo del
mismo. Tambien es necesario enfatizar que los sistemas reales no son lineales y
que la perdida de precision al modelarlos como sistemas lineales es usualmente
compensada por el traslado del problema a un campo dotado de herramientas matematicas. Por otro lado, es conveniente enfatizar que existen sistemas
reales, incluso muy basicos como aquellos con dispositivos de conmutacion, que
simplemente no pueden ser modelados como sistemas lineales.
Si bien la teora de los sistemas lineales tiene un interes en si misma como
objeto de estudio matematico, en este libro el enfoque es distinto, mas orientado
al estudiante de ingeniera: se trata de estudiar esta teora como un sosten para
el analisis, la sntesis y el dise
no de sistemas de procesamiento de se
nales, de
iii

iv
sistemas de control automatico, sistemas economicos, entre otros. El proposito
es que el lector, sin abandonar ni menospreciar el rigor requerido por esta teora,
la conciba como una herramienta para entender, analizar y resolver problemas
asociados a fenomenos y sistemas en ingenier. Esto nos parece necesario con el
fin de evitar la frecuente confusion entre los estudiantes de ingeniera, que lleva
a subvertir los roles del problema y la herramienta, y centrar su atencion en el
rigor matematico mas que en los conceptos y la interpretacion de los resultados
de la teora de los sistemas lineales.
Pensamos tambien que este enfasis en los conceptos mas que en la utilera
matematica debe reflejarse en el esfuerzo que se pide a los estudiantes que estudien el tema. Con este objeto, nos parece fundamental el uso extensivo de paquetes de software para simulacion, tales como Simulink de Matlab y Simnon
. Tambien encontramos de especial utilidad el uso de software de matematica
simbolica, como Maple y Mathematica . El libro supone que los estudiantes
tienen acceso a este tipo de herramientas. Tambien suponemos que nuestros
lectores tiene una formacion matematica basica previa que incluye conceptos

de Calculo Diferencial, Integral, Ecuaciones Diferenciales Ordinarias y Algebra


Lineal.
La dificultad en ense
nar una visi
on conceptual de los sistemas lineales se
refleja en la diversidad de formas y estructuras de los programas de las asignaturas relacionadas, en distintas instituciones en Chile y en el extranjero. En
la mayora de los casos se separa completamente el estudio de sistemas lineales
en tiempo continuo y en tiempo discreto. Aunque esto tiene ciertas ventajas,
se desprovecha la oportunidad de dar una vision unificada de conceptos tales
como estabilidad, velocidad, transientes, y estado, entre otros. Con este fin, el
texto ha sido organizado de manera que el lector pueda optar entre un enfoque
simultaneo o separado de ambos tipos de sistema, sin perjuicio de lo cual se
ha incluido un breve capitulo referido a sistemas hibridos en que se establece
claramente una relacion entre ambos.
Las consideraciones anteriores han sido los elementos orientadores para este
libro. La calidad del resultado de este esfuerzo sera juzgada por los lectores.

Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz

Valparaso, Agosto de 2000

Indice general
Prefacio

III

1. Aspectos fundamentales
1.1. Sistemas . . . . . . . . . . . . . . . . . . . .
1.2. Modelos . . . . . . . . . . . . . . . . . . . .
1.3. Sistemas lineales . . . . . . . . . . . . . . .
1.4. Invarianza en el tiempo . . . . . . . . . . .
1.5. Linealizacion . . . . . . . . . . . . . . . . .
1.5.1. Sistema no lineal de tiempo continuo
1.5.2. Sistema no lineal de tiempo discreto
1.6. Problemas para el lector . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

1
1
4
5
8
9
9
12
18

2. Se
nales
2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Se
nales de tiempo continuo . . . . . . . . . . . . . . .
2.2.1. Escalon unitario (funcion de Heaviside) . . . .
2.2.2. Impulso unitario o delta de Dirac . . . . . . . .
2.2.3. Rampa unitaria . . . . . . . . . . . . . . . . . .
2.2.4. Exponencial . . . . . . . . . . . . . . . . . . . .
2.2.5. Se
nales sinusoidales . . . . . . . . . . . . . . .
2.2.6. Sinusoidales con amplitud exponencial . . . . .
2.3. Se
nales de tiempo discreto . . . . . . . . . . . . . . . .
2.3.1. Escalon unitario de tiempo discreto . . . . . .
2.3.2. Impulso unitario discreto o delta de Kronecker
2.3.3. Rampa unitaria de tiempo discreto . . . . . . .
2.3.4. Exponencial de tiempo discreto . . . . . . . . .
2.3.5. Se
nales sinusoidales de tiempo discreto . . . . .
2.3.6. Sinusoidales con amplitud exponencial . . . . .
2.4. Problemas para el lector . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

21
21
21
21
21
23
24
25
26
27
27
27
28
29
30
31
32

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

3. An
alisis en tiempo continuo
35
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. Ecuacion diferencial del sistema (EDS) . . . . . . . . . . . . . . . 35
3.3. La respuesta del sistema . . . . . . . . . . . . . . . . . . . . . . . 38
v

vi

INDICE GENERAL
3.3.1. Componente homogenea y componente particular
3.3.2. Frecuencias y modos naturales . . . . . . . . . .
3.3.3. Modos forzantes y modos forzados . . . . . . . .
3.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . .
3.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . .
3.3.6. Respuesta a estado inicial y respuesta a entrada
3.4. Respuesta a se
nales de prueba . . . . . . . . . . . . . . .
3.4.1. Respuesta a escalon unitario . . . . . . . . . . .
3.4.2. Respuesta a impulso unitario . . . . . . . . . . .
3.5. Calculo de la respuesta va convolucion . . . . . . . . . .
3.6. Problemas para el lector . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

38
40
40
43
44
45
50
50
52
53
57

4. An
alisis en tiempo discreto
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Ecuacion de recursion del sistema (ERS) . . . . . . . . .
4.3. La respuesta del sistema . . . . . . . . . . . . . . . . . .
4.3.1. Componente homogenea y componente particular
4.3.2. Frecuencias y modos naturales . . . . . . . . . .
4.3.3. Modos forzantes y modos forzados . . . . . . . .
4.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . .
4.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . .
4.3.6. Respuesta a estado inicial y respuesta a entrada
4.4. Respuesta a se
nales de prueba . . . . . . . . . . . . . . .
4.4.1. Respuesta a escalon unitario . . . . . . . . . . .
4.4.2. Respuesta a impulso unitario . . . . . . . . . . .
4.5. Calculo de la respuesta via convolucion . . . . . . . . . .
4.6. Problemas para el lector . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

61
61
61
64
65
66
68
71
72
73
76
76
78
79
84

5. An
alisis bajo excitaciones peri
odicas
5.1. Se
nales Periodicas . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Respuesta a entrada sinusoidal. El caso de tiempo continuo . . .
5.3. Series de Fourier para se
nales de tiempo continuo . . . . . . . . .
5.3.1. Serie de Fourier trigonometrica . . . . . . . . . . . . . . .
5.3.2. Serie de Fourier exponencial . . . . . . . . . . . . . . . . .
5.3.3. Parseval y la energa de las se
nales periodicas . . . . . . .
5.4. Respuesta a entradas sinusoidales. El caso de tiempo discreto . .
5.5. Serie de Fourier de tiempo discreto . . . . . . . . . . . . . . . . .
5.6. Aplicacion de las series de Fourier al analisis de sistemas lineales
5.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . .

87
87
88
92
92
100
102
103
106
110
111

6. An
alisis bajo excitaciones arbitrarias. La transformada de Fourier
117
6.1. La limitacion de las series de Fourier . . . . . . . . . . . . . . . . 117
6.2. La Transformacion de Fourier. El caso del tiempo continuo . . . 117
6.2.1. Parseval y la energa de las se
nales aperiodicas en tiempo
continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

INDICE GENERAL

vii

6.2.2. Aplicacion a sistemas lineales . . . . . . . . . . . . . . . .


6.2.3. La funcion de transferencia y la respuesta en frecuencia .
6.2.4. Filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.5. Caso singular en la funcion de transferencia. . . . . . . . .
6.3. La Transformacion de Fourier. El caso de tiempo discreto . . . .
6.3.1. Parseval y las se
nales aperiodicas de tiempo discreto . . .
6.3.2. Aplicacion a sistemas lineales . . . . . . . . . . . . . . . .
6.3.3. La funcion de transferencia y la respuesta en frecuencia .
6.3.4. Filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.5. Caso singular en la funcion de transferencia. El caso de
los sistemas discretos . . . . . . . . . . . . . . . . . . . . .
6.4. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . .

124
129
133
137
139
143
144
148
149
150
152

7. An
alisis bajo excitaciones arbitrarias. La transformada de Laplace
155
7.1. Definicion de la transformada . . . . . . . . . . . . . . . . . . . . 155
7.2. Aplicacion a sistemas lineales: la funcion de transferencia . . . . 156
7.2.1. Funcion de transferencia en dominios de Laplace y Fourier 160
7.3. Respuesta a impulso y respuesta a escalon. . . . . . . . . . . . . 161
7.4. Respuesta a condiciones iniciales y se
nales arbitrarias. . . . . . . 166
7.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.5.1. Analisis de polinomios . . . . . . . . . . . . . . . . . . . . 173
7.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . . . 177
7.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . . . 182
7.6.4. Sistema canonico de segundo orden . . . . . . . . . . . . . 183
7.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 186
8. An
alisis bajo excitaciones arbitrarias. La transformada Zeta
8.1. Definicion de la transformada . . . . . . . . . . . . . . . . . . .
8.2. Aplicacion a sistemas lineales: la funcion de transferencia . . .
8.2.1. Funcion de transferencia en dominios de Fourier y Zeta
8.3. Respuesta a impulso y respuesta a escalon. . . . . . . . . . . .
8.4. Respuesta a condiciones iniciales y excitaciones arbitrarias. . .
8.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.1. Analisis de polinomios . . . . . . . . . . . . . . . . . . .
8.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . .
8.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . .
8.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

191
191
192
198
200
203
205
206
210
211
214
215
217

INDICE GENERAL

viii
9. Representaci
on de sistemas
9.1. Ideas generales . . . . . .
9.2. Diagramas de Bode . . . .
9.2.1. Tiempo continuo .
9.2.2. Tiempo discreto .
9.3. Diagramas polares . . . .
9.3.1. Tiempo continuo .
9.3.2. Tiempo discreto .
9.4. Diagramas de bloques . .
9.5. Problemas para el lector .

lineales
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

219
219
220
220
231
233
233
244
246
250

10.Representaci
on en variables de estado.
10.1. Conceptos fundamentales sobre modelos de sistemas. . . . .
10.2. Conceptos fundamentales . . . . . . . . . . . . . . . . . . .
10.2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . .
10.2.2. Modelos basicos en variables de estado . . . . . . . .
10.2.3. Se
nales descritas en espacio de estado . . . . . . . .
10.3. Modelos de estado para sistemas continuos . . . . . . . . .
10.3.1. Linealizacion . . . . . . . . . . . . . . . . . . . . . .
10.3.2. Modelos lineales en el espacio de estado . . . . . . .
10.3.3. Transformaciones de similaridad . . . . . . . . . . .
10.3.4. Espacio de estado y funciones de transferencia . . .
10.4. Modelos de estado para sistemas discretos y muestreados .
10.4.1. Linealizacion de sistemas discretos . . . . . . . . . .
10.4.2. Sistemas muestreados . . . . . . . . . . . . . . . . .
10.4.3. Modelos de estado lineales . . . . . . . . . . . . . . .
10.4.4. Transformaciones de similaridad . . . . . . . . . . .
10.4.5. Espacio de estado y funciones de transferencia . . .
10.5. Modelos de estado para sistemas interconectados . . . . . .
10.6. Propiedades de los sistemas . . . . . . . . . . . . . . . . . .
10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad .
10.6.2. Observabilidad, Reconstructibilidad y Detectabilidad
10.6.3. Descomposicion Canonica . . . . . . . . . . . . . . .
10.7. Observadores . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7.1. Dinamica del observador . . . . . . . . . . . . . . . .
10.7.2. Observadores y ruido de medicion. . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

253
253
254
254
255
256
257
258
261
267
270
273
274
274
277
286
286
287
290
290
299
307
309
310
314

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

11.Sistemas hbridos
317
11.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
11.2. Muestreo de se
nales. . . . . . . . . . . . . . . . . . . . . . . . . . 318
11.3. Analisis en frecuencia de se
nales muestreadas . . . . . . . . . . . 320

INDICE GENERAL
12.Modelos
12.1. Ideas generales . . . . .
12.2. Modelado de sistemas de
12.3. Modelado de sistemas de
12.4. Modelado de sistemas de
12.5. Modelado de sistemas de

ix

. . . . . . . . . . . . . . . . . . . .
tiempo continuo. Teora basica. . .
tiempo continuo. Modelos lineales.
tiempo discreto. Teora basica. . .
tiempo discreto. Modelos lineales.

A. Series de Taylor
A.1. Serie de Taylor en una variable
A.2. Serie de Taylor en dos variables
A.3. El caso general . . . . . . . . .
A.4. Algunas reglas practicas para la

. . . . . .
. . . . . .
. . . . . .
expansion

. . . . .
. . . . .
. . . . .
en serie

B. Bases matem
aticas para las Series de Fourier
B.1. Espacios vectoriales y bases ortogonales . . . .
B.2. Convergencia de las Series de Fourier . . . . . .
B.2.1. Convergencia de sucesiones y series . . .
B.2.2. Convergencia de las Series de Fourier . .
Demostracion . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

323
323
324
329
332
336

.
.
.
.

.
.
.
.

.
.
.
.

339
339
340
341
341

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

343
343
347
347
349
357

C. La transformaci
on de Fourier
C.1. Transformacion de Fourier en tiempo continuo . . . . . . .
C.1.1. Definicion de la Transformada . . . . . . . . . . . . .
C.1.2. Propiedades de la Transformada de Fourier . . . . .
C.2. Transformada de Fourier en tiempo discreto . . . . . . . . .
C.2.1. Definicion de la transformada . . . . . . . . . . . . .
C.2.2. Propiedades de la transformada de Fourier discreta .
Demostracion . . . . . . . . . . . . . . . . . . . . . .
Demostracion . . . . . . . . . . . . . . . . . . . . . .
C.2.3. Aspecto practico: la transformada rapida de Fourier

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

359
359
359
361
374
374
376
380
383
392

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

D. La transformada de Laplace
D.1. Transformada de Laplace . . . . . . . . . . . . . .
D.1.1. Definicion de la Transformada . . . . . . . .
D.1.2. Propiedades de la Transformada de Laplace
Demostracion . . . . . . . . . . . . . . . . .
Demostracion . . . . . . . . . . . . . . . . .
Demostracion . . . . . . . . . . . . . . . . .
D.1.3. Descomposicion en fracciones parciales . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

399
399
399
401
407
408
408
416

E. La Transformaci
on Zeta
E.1. Definicion de la Transformacion . . . .
E.2. Propiedades de la Transformada Zeta
Demostracion . . . . . . . . . .
Demostracion . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

423
423
425
429
430

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

INDICE GENERAL

x
F. Matrices. Definiciones y Propiedades
F.1. Conceptos Basicos . . . . . . . . . .
F.2. Determinante de una matriz . . . . .
F.3. Operaciones con matrices . . . . . .
F.4. Inversa de una matriz . . . . . . . .
F.5. Autovalores y autovectores . . . . .
F.6. Normas de vectores y matrices . . .
F.7. Tipos especiales de matrices . . . . .
F.8. Valores singulares . . . . . . . . . . .

Indice alfab
etico

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

435
435
438
441
443
448
457
460
466
471

Indice de figuras
1.1.
1.2.
1.3.
1.4.
1.5.

Sistema electrico . . . . . . . . . . . . . . . . . . . . . . . . . . .
Representacion compacta de un sistema . . . . . . . . . . . . . .
Propiedad de invarianza en el tiempo . . . . . . . . . . . . . . . .
Diagrama Simulink para simulacion de un sistema no lineal. . .
Salida del sistema no lineal (linea solida) y salida del sistema linealizado (lnea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lnea punteada) . . . . . . . . . . . . . .
1.6. Ganancia no lineal para el Problema 1.8 . . . . . . . . . . . . . .

2
3
8
16

2.1.
2.2.
2.3.
2.4.
2.5.
2.6.
2.7.
2.8.

Escalon unitario o funcion de Heaviside. . . . . . . . . . . . . . .


Impulso unitario o delta de Dirac. . . . . . . . . . . . . . . . . .
Aproximaciones al delta de Dirac . . . . . . . . . . . . . . . . . .
Rampa unitaria. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exponenciales creciente (izquierda) y decreciente (derecha) . . .
Exponenciales de diferentes velocidades de decaimiento . . . . . .
Propiedad de la constante de tiempo . . . . . . . . . . . . . . . .
Se
nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.) . . . . . . . . . . . . .
2.9. Escalon unitario de tiempo discreto . . . . . . . . . . . . . . . . .
2.10. Impulso unitario discreto o delta de Kronecker . . . . . . . . . .
2.11. Rampa unitaria de tiempo discreto . . . . . . . . . . . . . . . . .
2.12. Exponenciales de tiempo discreto, decreciente (izquierda) y creciente (derecha), R+ . . . . . . . . . . . . . . . . . . . . . . .
2.13. Exponenciales de tiempo discreto, decreciente (izquierda) y creciente (derecha), R . . . . . . . . . . . . . . . . . . . . . . .
2.14. Se
nales sinusoidales de tiempo discreto con amplitud variando
exponencialmente . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.15. Se
nales compuestas . . . . . . . . . . . . . . . . . . . . . . . . . .

22
22
22
24
25
25
26

3.1. Red RLC . . . . . . . . . . . . . . . . . . . . . . . . .


3.2. Relacion entre la ubicacion de las frecuencias naturales
tiplicidad uno) y los modos naturales . . . . . . . . . .
3.3. Red lineal con condiciones iniciales . . . . . . . . . . .
3.4. Efectos de la invarianza en el tiempo . . . . . . . . . .

36

xi

. . . . . .
(de mul. . . . . .
. . . . . .
. . . . . .

16
19

27
27
28
29
29
30
32
33

41
47
52

INDICE DE FIGURAS

xii
3.5.
3.6.
3.7.
3.8.

Ejemplo de descripcion grafica de la convolucion . . .


Respuesta a escalon unitario . . . . . . . . . . . . . . .
Configuracion de frecuencias naturales de dos sistemas
Red electrica con amplificador operacional . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

4.1. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso decreciente). . . . . .
4.2. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso no decreciente). . . .
4.3. Respuesta a escalon unitario . . . . . . . . . . . . . . . . . . . . .
4.4. Red resistiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1. Se
nales de entrada y salida en el Ejemplo 5.1 . . . . . . . . . . .
5.2. Respuesta en frecuencia de un sistema de segundo orden de tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Se
nal cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4. Espectro de lnea de una se
nal cuadrada. . . . . . . . . . . . . . .
5.5. Se
nal a la salida de rectificador controlado por tristores . . . . .
5.6. Aproximacion de la se
nal triangular con la primera y tercera
armonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7. Espectro de lnea de una se
nal triangular . . . . . . . . . . . . .
5.8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.9. Respuesta en frecuencia de un sistema de segundo orden de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.10. Respuesta en frecuencia de un sistema de tercer orden de tiempo
continuo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.11. Comportamiento de un sistema con una excitacion periodica. . .
5.12. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1. Se
nales arbitrarias . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2. La funcion restringida a [a, b] y su reconstruccion usando la serie
de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3. Viga cargada con arena . . . . . . . . . . . . . . . . . . . . . . .
6.4. Circuito RC como sistema de primer orden. . . . . . . . . . . . .
6.5. Magnitud y angulo de H( ) en el ejemplo ( = 100). . . . . . .
6.6. Sistemas pasa bajos (izquierda) y pasa altos (derecha) . . . . . .
6.7. Respuesta a escalones de un sistema pasa bajos y un sistema pasa
altos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8. Sistemas pasa banda y elimina banda. . . . . . . . . . . . . . . .
6.9. Respuesta a escalones de un sistema pasa banda y un sistema
elimina banda. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.10. Delta de Kronecker y su transformada de Fourier . . . . . . . . .
6.11. Se
nal y[t] = (0,8)t [t] y la magnitud de Y (ej ). . . . . . . . . . .
6.12. Se
nal y[t] y su transformada discreta Y (ej ). . . . . . . . . . . .
6.13. Respuesta a impulso y a escalon del ejemplo 6.14 . . . . . . . . .

55
58
58
59
69
70
85
86
91
91
94
95
96
98
98
99
105
111
112
113
118
118
123
126
132
134
135
135
136
141
142
143
147

INDICE DE FIGURAS

xiii

6.14. Respuesta en frecuencia (magnitud) de un sistema de tiempo discreto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149


7.1.
7.2.
7.3.
7.4.
7.5.
7.6.

Respuestas a impulso y a escalon en Ejemplo 7.3 . . . . . . . . .


Indices definidos en la respuesta a escalon . . . . . . . . . . . . .
Respuesta a condiciones iniciales para el ejemplo 7.4 . . . . . . .
Circuito RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Pulso de entrada y respuesta del sistema del ejemplo 7.6. . . . .
Magnitud y fase de la respuesta en frecuencia del sistema en
Ejemplo 7.7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.7. Respuesta a impulso de diferentes sistemas de acuerdo a la ubicacion de sus polos en el plano complejo . . . . . . . . . . . . . .
7.8. Sistema con interaccion aditiva entre dos estados . . . . . . . . .
7.9. Efecto de la ubicacion de los ceros sobre la respuesta a escalon .
7.10. Distintas formas de respuesta inversa . . . . . . . . . . . . . . . .
7.11. Localizacion de los polos y respuesta a escalon unitario de un
sistema canonico de segundo orden. . . . . . . . . . . . . . . . . .
7.12. Circuito RLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

164
165
167
168
170

8.1. Salida y[t] para el Ejemplo 8.1. . . . . . . . . . . . . . . . . . . .


8.2. Relaciones entre ERS, funcion de transferencia y respuestas a
delta y a escalon. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3. Respuesta a delta Kronecker y a escalon unitario para el Ejemplo
8.6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4. Relacion entre la ubicacion de los polos (de multiplicidad uno) y
los modos naturales (caso decreciente). . . . . . . . . . . . . . . .
8.5. Relacion entre la ubicacion de los polos (de multiplicidad uno) y
los modos naturales (caso no decreciente). . . . . . . . . . . . . .
8.6. Sistema discreto con interaccion aditiva entre dos estados. . . . .
8.7. Ejemplos de distintas formas de respuesta inversa en sistemas
discretos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

195

172
179
180
182
183
184
187

198
202
212
213
214
216

9.1. Diagrama de Bode de magnitud para una funcion tipo [B2], con
q = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
9.2. Diagrama de Bode de fase para una funcion tipo [B2], con q = 1 223
9.3. Diagrama de Bode de magnitud para una funcion tipo [B4], con
q = 1 y dos valores de . . . . . . . . . . . . . . . . . . . . . . . 224
9.4. Diagrama de Bode de fase para una funcion tipo [B4], con q = 1 226
9.5. Diagrama de Bode de fase para una funcion tipo [B5] . . . . . . . 227
9.6. Diagramas de Bode de magnitud y fase para la respuesta en frecuencia del Ejemplo 9.2 . . . . . . . . . . . . . . . . . . . . . . . 231
9.7. Diagrama de Bode en tiempo discreto (Ejemplo 9.3). . . . . . . . 233
9.8. Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4). . . . . . 235
9.9. Diagrama polar. Coordenadas polar (Ejemplo 9.4). . . . . . . . . 236
9.10. Diagramas polares para el caso [P1]. . . . . . . . . . . . . . . . . 237
9.11. Diagrama polar de una funcion tipo [P4] para distintos valores de 238

xiv

INDICE DE FIGURAS

9.12. Diagrama polar de una funcion tipo [P6] con T = 1 . . . . . . . .


9.13. a) Diagrama polar de una funcion tipo [P7] (T = 1 y = 2), y
b) detalle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.14. Diagrama polar de H( ) para el Ejemplo 9.5. . . . . . . . . . .
9.15. a) Diagrama polar de H( ) para el Ejemplo 9.6, y b) detalle. .
9.16. Interpretacion grafica de la respuesta en frecuencia (ej po )1 .
9.17. Interpretacion grafica de la respuesta en frecuencia de 1 zo ejt .
9.18. Diagrama polar para el Ejemplo 9.7. . . . . . . . . . . . . . . . .
9.19. Sistemas a interconectar. Caracterizacion independiente . . . . .
9.20. Sistemas interconectados . . . . . . . . . . . . . . . . . . . . . . .
9.21. Diagramas de Bode de H(s) . . . . . . . . . . . . . . . . . . . . .
9.22. Diagramas de Bode de G(s) . . . . . . . . . . . . . . . . . . . . .
9.23. Diagramas de Bode de G(s) . . . . . . . . . . . . . . . . . . . . .

240
240
242
243
244
245
246
247
247
251
251
252

10.1. Sistema masa-resorte. . . . . . . . . . . . . . . . . . . . . . . . . 256


10.2. Levitador electromagnetico. . . . . . . . . . . . . . . . . . . . . . 259
10.3. Respuesta homogenea del sistema masa-resorte-roce. . . . . . . . 264
10.4. Trayectorias en el espacio de estado del sistema masa-resorte-roce. 265
10.5. Resonancia en el sistema masa-resorte. . . . . . . . . . . . . . . . 268
10.6. Red electrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
10.7. Esquema de un sistema muestreado . . . . . . . . . . . . . . . . . 275
10.8. Respuesta a escalon del sistema para diferentes autovalores. . . . 282
10.9. Resonancia en la salida del sistema. . . . . . . . . . . . . . . . . 283
10.10.Efecto del muestreo en los modos naturales . . . . . . . . . . . . 284
10.11.Sistema termico con retardo. . . . . . . . . . . . . . . . . . . . . 285
10.12.Conexion de sistemas en serie . . . . . . . . . . . . . . . . . . . . 288
10.13.Conexion de sistemas en paralelo . . . . . . . . . . . . . . . . . . 289
10.14.Conexion de sistemas en realimentacion (feedback ) . . . . . . . . 289
10.15.Circuito electronico para el Ejemplo 10.19. . . . . . . . . . . . . . 293
10.16.Circuito electronico. . . . . . . . . . . . . . . . . . . . . . . . . . 302
10.17.Estructura de un sistema de acuerdo a su controlabilidad y observabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
10.18.Observador del estado clasico . . . . . . . . . . . . . . . . . . . . 310
10.19.Error de estimacion del estado . . . . . . . . . . . . . . . . . . . 312
10.20.Sistema rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . 312
10.21.Caracterstica de filtraje de los observadores . . . . . . . . . . . . 315
11.1. Proceso de muestreo y cuantizacion . . . . . . . . . . . . . . . . . 318
11.2. Muestreo a diferentes frecuencias . . . . . . . . . . . . . . . . . . 319
11.3. Error de reconstruccion usando interpolacion c
ubica. . . . . . . . 320
12.1. Estimacion por mnimos cuadraticos . . . . . . . . . . . . . . . . 326
12.2. Estimacion por mnimos cuadraticos . . . . . . . . . . . . . . . . 333
A.1. Aproximacion de primer orden para funcion no lineal de una variable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340

INDICE DE FIGURAS
1
C.1. Pulso y su transformada para = 1, 41 , 16
. . . . . . . . .
C.2. Espectro de una se
nal de frecuencias audible y espectro
se
nal modulada. . . . . . . . . . . . . . . . . . . . . . . .
C.3. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . .
C.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.5. Se
nal cosenoidal y[k] y su transformada discreta. . . . . .
C.6. Secuencia y[k] = k(0,8)k [k] y la magnitud de su TFD. . .
C.7. Comparacion N 2 (x) y N log2 N (*) . . . . . . . . . . .
C.8. Primera etapa de la FFT para N = 8 . . . . . . . . . . . .
C.9. Primera y segunda etapa de la FFT para N = 8 . . . . .
C.10.Las tres etapas de la FFT para N = 8 . . . . . . . . . . .

xv
. . . .
de la
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .

360
364
365
366
379
384
395
396
397
398

D.1. Circuito RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412

xvi

INDICE DE FIGURAS

Indice de cuadros
3.1. Presencia de modos en descomposiciones de la respuesta . . . . .
3.2. Presencia de modos en descomposiciones de la respuesta del Ejemplo 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45
46

4.1. Presencia de modos en descomposiciones de la respuesta . . . . . 73


4.2. Presencia de modos en descomposiciones de la respuesta del ejemplo 75
5.1. Amplitud y fase de las armonicas en el Ejemplo 5.8. . . . . . . . 111
7.1. Indices de la respuesta a escalon . . . . . . . . . . . . . . . . . . 166
7.2. Arreglo de Routh . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
8.1. Arreglo de Jury . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.2. Arreglo de Jury. Ejemplo 8.10 . . . . . . . . . . . . . . . . . . . . 210
8.3. Arreglo de Jury. Ejemplo 8.11 . . . . . . . . . . . . . . . . . . . . 210
9.1. Aproximaciones asintoticas de magnitud de factores basicos . . .
9.2. Aproximaciones asintoticas de fase de factores basicos . . . . . .
9.3. Contribucion de pendientes entre puntos de quiebre. Diagrama
de magnitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4. Contribucion de pendientes entre puntos de quiebre. Diagrama
de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5. Diagramas de bloques y transferencias equivalentes . . . . . . . .

228
229

C.1.
C.2.
C.3.
C.4.

388
389
390
391

Propiedades de la transformada de Fourier. . . . . .


Tabla de tranformadas de Fourier . . . . . . . . . .
Propiedades de la transformada de Fourier discreta.
Tabla de tranformadas de Fourier discretas . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

230
230
249

D.1. Propiedades de la transformada de Laplace . . . . . . . . . . . . 414


D.2. Transformadas de Laplace de algunas funciones simples . . . . . 415
D.3. Transformadas inversas de Laplace u
tiles . . . . . . . . . . . . . . 421
E.1. Propiedades de la transformada Zeta . . . . . . . . . . . . . . . . 433
E.2. Transformada Zeta de algunas funciones simples . . . . . . . . . 434
xvii

xviii

INDICE DE CUADROS

sistema
entrada
condiciones iniciales

Captulo 1

Aspectos fundamentales
1.1.

Sistemas

La entidad basica considerada a lo largo del texto es el sistema. Como una


forma de uniformar el lenguaje a utilizar, usaremos la siguiente definicion:
Definici
on 1.1. Un sistema es un ente organizado, resultante de la interconexi
on de elementos b
asicos, que seg
un el juicio de un observador tiene una
finalidad y car
acter determinado.
222
Esta definicion es vaga a proposito, de modo que ella permita describir situaciones tan dismiles como sea posible. Es as como la definicion de arriba incluye
casos como los de una red electrica, un motor hidraulico, un organismo vivo, la
economa de un pas, etc. Tambien es relevante destacar que un mismo sistema
fsico puede tener interes diferente para distintos observadores; por ejemplo, un
amplificador electronico puede ser estudiado como un sistema electrico o como un sistema termico. De esta forma la nocion de sistema resulta un tanto
abstracta, pero por lo mismo sumamente poderosa.
Nuestra tarea guarda relacion con el comportamiento de los sistemas en el
tiempo, el cual depende de:
y este comportamiento no solo depende , sino que tambien de:
los elementos que lo forman y su interconexion, descritos mediante un
modelo matem
atico;
los estmulos, entradas o excitaciones aplicados al sistema;
la historia del sistema, condensada en un conjunto de condiciones iniciales;
la variable independiente tiempo (cuando los elementos del sistema y/o
la interconexion de ellos cambian a medida que el tiempo transcurre).
1

CAPITULO 1. ASPECTOS FUNDAMENTALES

2
se~
nales
respuestas
sistema!din
amico

Las entradas al sistema son se


nales o funciones temporales a traves de las
cuales el sistema recibe informacion y/o energa. Estos estmulos contribuyen a
generar cambios en algunas o en todas las variables del proceso; estas u
ltimas
tambien son se
nales puesto que pueden ser descritas como funciones del tiempo.
Las se
nales del proceso elegidas para observar el comportamiento del sistema se
conocen como respuestas.
Las respuestas de un sistema pueden depender tambien de la informacion
y/o energa existentes (almacenadas) en el sistema en el instante en que el comportamiento del sistema empieza a ser observado. Los sistemas con esta caracterstica inercial se denominan genericamente sistemas din
amicos. Ejemplos
de mecanismos inerciales en sistemas son:
la velocidad inicial de un motor
el valor inicial de una variable en un computador
la temperatura inicial de una masa
la tension inicial en un condensador.
Supongamos que deseamos conocer las respuestas en un sistema dado, a
partir de un instante inicial to . Entonces sera suficiente conocer ciertas variables
(estado) del sistema en t = t0 , y las excitaciones t to .
Para ilustrar estas ideas analizaremos el siguiente ejemplo.
Ejemplo 1.1. Consideremos la red electrica de la Figura 1.1.
R
+
vf (t)

vc (t)

i(t)
Figura 1.1: Sistema electrico
Esta red es un sistema electrico formado por la interconexi
on de un resistor
y un condensador (los elementos). Hay una entrada al sistema determinada por
la tensi
on aplicada a traves de la fuente independiente de tensi
on. Como salida
se puede elegir cualquier se
nal electrica, como por ejemplo, la potencia disipada
en el resistor, la corriente en el circuito, la tensi
on en el condensador, etc.
En la Figura 1.1 se han indicado dos se
nales, i(t) y vc (t), que han sido
elegidas como respuestas del sistema. Para determinar el valor de estas se
nales
t 0, necesitamos conocer vf (t) t to y vc (0).
222
Para representar un sistema en forma compacta usaremos el diagrama de la
Figura 1.2. En esa figura se ha usado la siguiente notacion:

1.1. SISTEMAS
u(t) Rm
x(to ) Rn
y(t) Rp

3
: vector que re
une todas las excitaciones del sistema,
: vector que describe el estado del sistema al tiempo to ,
: vector que re
une las se
nales escogidas como salidas.

u(t)

operador
estado inicial

y(t)

S
x(to )
Figura 1.2: Representacion compacta de un sistema
Para representar genericamente al sistema usaremos la notacion:
y(t) = Thhx(to ), u(t)ii

t to

(1.1)

En (1.1), Thh, ii es un operador que describe formalmente la dependencia


que la salida y(t) tiene del estado inicial, x(to ), y de la entrada u(t). Este
operador puede ser variante en el tiempo.
Ejemplo 1.2. En el Ejemplo 1.1 se tiene que:
vf (t) = RC

dvc (t)
+ vc (t)
dt

(1.2)

cuya soluci
on es1 :
vc (t) = vc (to )e

tto
RC

t
to

e RC
vf ()d
RC

(1.3)

Entonces, si hacemos la asociaci


on y(t) = vc (t), u(t) = vf (t) y x(to ) =
vc (to ), la ecuaci
on (1.3) puede ser identificada con (1.1), es decir,
vc (t) = Thhvc (to ), vf (t)ii

t to

(1.4)

222
Las definiciones precedentes se aplican tambien a los sistemas de tiempo
discreto, es decir, cuando el tiempo toma valores en un conjunto enumerable
(t0 , t1 , t2 , . . .). En este tipo de sistemas, la variable independiente temporal se
suele denominar t, y para enfatizar la naturaleza distinta de las se
nales de tiempo discreto, usaremos parentesis cuadrados, es decir, f [t] describira una se
nal
funcion de la variable temporal discreta.
Para ilustrar este tipo de sistemas consideremos el siguiente ejemplo.
1 Tal

como se demostrar
a en el Captulo 3.

CAPITULO 1. ASPECTOS FUNDAMENTALES

4
sistema!algebraico
modelo
modelo

Ejemplo 1.3. Una cuenta de ahorro tiene un saldo inicial s[t0 ] = so , y recibe
un interes igual a % mensual. Si en el mes t-esimo (t = t0 , t0 + 1, . . .) se hace
un dep
osito igual a d[t], entonces el saldo s[t] puede ser descrito por:


+ d[t]
t t0
(1.5)
s[t] = s[t 1] 1 +
100
y sujeto a s[t0 ] = so . En este sistema, la entrada es d[t], la salida es s[t], y el
estado inicial es s[t0 ]. La ecuaci
on (1.5) tiene como soluci
on:
s[t] = so tt0 +

t
X

t` d[`]

`=t0 +1

t > t0

(1.6)

aloga a la de
La ecuaci
on (1.6) puede ser asociada con una estructura an
(1.1), es decir:
y[t] = Thhx[t0 ], u[t]ii

t t0

(1.7)
222

Existe una clase de sistemas en los cuales no hay elementos almacenadores de


energa. Estos sistemas se conocen como sistemas algebraicos o instantaneos. Ejemplos clasicos de estos sistemas son las redes electricas resistivas. Para ellos la
representacion (1.1) se reduce a:
y(t) = Thhu(t)ii

y[t] = Thhu[t]ii

(1.8)

En estricto rigor, todos los sistemas reales son sistemas dinamicos. Sin embargo, puede ocurrir que para un observador, la escala de tiempo es tal que,
desde el punto de vista practico, los fenomenos ocurren en forma instantanea.
En esos casos, para efectos practicos, el sistema se representa a traves de un
modelo algebraico.

1.2.

Modelos

Cuando se enfrenta el problema de analizar un sistema, naturalmente no trabajamos con el sistema real, sino que con una representacion de ese sistema. Esa
representacion o modelo, captura aspectos esenciales del sistema. Por definicion, un modelo es una representacion aproximada de la realidad, y su grado
de fidelidad depende de muchos factores, siendo uno de ellos el proposito del
modelo.
La construccion de modelos a partir de sistemas reales es un proceso complejo
que involucra la fenomenologa del sistema, mediciones, procesos de ajuste, etc.
La obtencion de modelos es, por si sola, una disciplina rica en conceptos y
tecnicas, sobre las cuales se entregan mas antecedentes en el Captulo 12.
A lo largo del texto, supondremos que ya se cuenta con un modelo que
describe el sistema y, en consecuencia, la teora que aqu se desarrolla se aplica
al modelo del sistema bajo estudio. El que las conclusiones que as se deriven

1.3. SISTEMAS LINEALES

sean validas para el sistema mismo dependera de la fidelidad con que el modelo
representa a ese sistema. En muchos casos hablaremos del modelo y del sistema
como sinonimos, en otros sera necesario hacer la diferencia.

1.3.

Sistemas lineales

Los sistemas lineales son un subconjunto del universo de los sistemas. Su


importancia radica en la conjuncion de dos elementos:
muchos sistemas pueden representarse por modelos lineales de razonable
fidelidad; y
existen poderosas herramientas para analizar y sintetizar este tipo de sistemas.
La naturaleza de esta conjuncion se ira apreciando a medida que progresemos
en el tema. No obstante ello, una vision temprana de estas razones se puede
apreciar de inmediato en las definiciones que siguen.
Definici
on 1.2. Consideremos un sistema S, como se describe en la Figura 1.2
y la ecuaci
on (1.1). Supongamos adem
as que el sistema cumple con:
y1x (t) = Thhx1 (to ), 0 i
y1u (t) = Thh0, u1 (t)ii
y2x (t) = Thhx2 (to ), 0 i
y2u (t) = Thh0, u2 (t)ii

t to
t to
t to
t to

(1.9)
(1.10)
(1.11)
(1.12)

donde x1 (to ) y x2 (to ), son dos vectores de estado inicial arbitrarios,y u1 (t) y
u2 (t) son dos vectores de entrada arbitrarios.
Entonces el sistema es lineal si y s
olo si:
y(t) = Thh1 x1 (to ) + 2 x2 (to ), 1 u1 (t) + 2 u2 (t)ii
t to
(1.13)
= 1 Thhx1 (to ), 0 i + 2 Thhx2 (to ), 0 i + 1 Thh0, u1 (t)ii + 2 Thh0, u2 (t)ii (1.14)
= 1 y1x (t) + 2 y2x (t) + 1 y1u (t) + 2 y2u (t)

(1.15)

para cualquier conjunto de constantes 1 , 2 , 1 y 2 .


222
En la definicion precedente se han combinado las dos propiedades claves que
definen los sistemas lineales: superposici
on y homogeneidad.
La propiedad de superposicion encierra la idea que la salida del sistema se
puede calcular separando los efectos de componentes del estado y/o componentes
de la salida, y luego sumando (superponiendo) las respuestas a cada uno de
esos componentes. Note que existen tres formas en que se puede presentar la
superposicion:

sistemas lineales
superposici\on
homogeneidad

6
sistema!algebraico

CAPITULO 1. ASPECTOS FUNDAMENTALES


superposicion de la entrada y el estado inicial, es decir
Thhx(to ), u(t)ii = Thhx(to ), 0 i + Thh0, u(t)ii

(1.16)

superposicion de componentes del estado inicial, es decir


Thhx1 (to ) + x2 (to ), 0 i = Thhx1 (to ), 0 i + Thhx2 (to ), 0 i

(1.17)

superposicion de componentes de la entrada, es decir


Thh0, u1 (t) + u2 (t)ii = Thh0, u1 (t)ii + Thh0, u2 (t)ii

(1.18)

Por su parte, la idea de homogeneidad se expresa en que, en los sistemas


lineales, la proporcionalidad en la entrada y/o el estado se propaga a la salida
sin alteracion, es decir
Thhxo , 0 i = Thhxo , 0ii
Thh0, u(t)ii = Thh0, u(t)ii

(1.19)
(1.20)

La ecuacion (1.19) describe la homogeneidad respecto del estado inicial,


mientras que la ecuacion (1.20) describe la homogeneidad respecto de la entrada.
Para los sistemas algebraicos las propiedades de homogeneidad y superposicion se aplican solo a la entrada del sistema, es decir
y(t) = Thh1 u1 (t) + 2 u2 (t)ii = 1 Thhu1 (t)ii + 2 Thhhu2 (t)ii

(1.21)

En resumen, podemos afirmar que la propiedad de linealidad nos permite


descomponer el efecto de una combinacion lineal de entradas y condiciones
iniciales como la combinacion lineal de sus efectos individuales.
Para ilustrar las definiciones anteriores consideramos a continuacion algunos
ejemplos.
Ejemplo 1.4. Considere un sistema algebraico cuya relaci
on entrada-salida
est
a dada por:
y(t) = Thhu(t)ii = 2|u(t)|

(1.22)

El sistema es lineal si y s
olo si la condici
on (1.21) se cumple para toda
elecci
on de las constantes 1 y 2 . Es f
acil observar que si, por ejemplo, elegimos
1 = 1 y 2 = 0, tal condici
on no se cumple, ya que:
y(t) = Thhu1 (t)ii = 2|u1 (t)| 6= 2|u1 (t)| = Thhu1 (t)ii

(1.23)

En consecuencia, el sistema (1.22) no es lineal.


222

1.3. SISTEMAS LINEALES

Ejemplo 1.5. Sea un sistema cuya relaci


on entrada-salida est
a descrita por:
dy(t)
n
= (u(t))
dt

sujeto a y(to ) = xo

Entonces, el estado inicial x(to ) es xo y la respuesta resulta:


Z t
n
(u()) d t to
y(t) = Thhxo , u(t)ii = xo +

(1.24)

(1.25)

to

Note que, de la ecuaci


on (1.25), se ve que el efecto de la entrada y el efecto
de la condici
on inicial se pueden superponer, ya que:

y(t) = yx (t) + yu (t)

(
yx (t)
yu (t)

Rt
n
= Thh0, u(t)ii = to (u()) d
= Thhxo , 0 i = xo

(1.26)

Consideremos ahora el caso del estado inicial x(to ) = xo = 1 x1 (to ) +


2 x2 (to ), con u(t) = 0; entonces la respuesta y(t) = yx (t) est
a dada por:
y(t) = 1 x1 (to ) + 2 x2 (to ) = 1 Thhx1 (to ), 0 i + 2 Thhx2 (to ), 0 i

(1.27)

De la ecuaci
on (1.27) se comprueba que el sistema tiene la propiedad de
superposici
on de las componentes del estado. Naturalmente que tiene adem
as la
propiedad de homogeneidad del estado.
Finalmente analizamos el caso donde x1 (to ) = x2 (to ) = y(to ) = 0, y u(t) =
1 u1 (t) + 2 u2 (t), la respuesta y(t) = yu (t) est
a entonces dada por:
Z t
n
(1 u1 () + 2 u2 ()) d t to
(1.28)
y(t) =
to

De esta ecuaci
on se puede ver que la propiedad de superposici
on de las componentes de la entrada se cumple si y s
olo si n = 1. Igual condici
on, necesaria
y suficiente, se aplica para la homogeneidad de la entrada.
Resumiendo, el sistema del ejemplo tiene las siguientes caractersticas:
tiene la propiedad de superposici
on del estado y de la entrada;
tiene la propiedad de superposici
on y homogeneidad del estado;
tiene la propiedad de superposici
on y homogeneidad de la entrada si y
s
olo si n = 1.
En consecuencia, el sistema del ejemplo es lineal si y s
olo si n = 1.
222
El lector debe tener claro que la propiedad de linealidad (o no linealidad) de
un sistema dado no es necesariamente una propiedad intrnseca de ese sistema,
sino que puede depender de la eleccion de la variable de salida, y/o de la variable

integrador

CAPITULO 1. ASPECTOS FUNDAMENTALES

de entrada. Para visualizar esto, supongamos que en la ecuacion (1.24) definimos


4

como entrada la se
nal u
(t) = (u(t)) . Entonces es facil demostrar que el sistema
con entrada u
(t) y salida y(t) es lineal.
Se puede construir un segundo ejemplo a partir de la red electrica de la
Figura 1.1 en la pagina 2. Supongamos que escogemos como salida la potencia
p(t) disipada en el resistor. Entonces, el modelo de entrada-salida resulta dado
por:
r
Z
p
p( )
1 t
vf (t) = p(t)R +
d
(1.29)
C
R
donde hemos usado la ley de Joule p(t) = R(i(t))2 .
La discusion precedente nos motiva a introducir una nota de cautela en esta
materia

La linealidad o no linealidad de un sistema debe entenderse como la linealidad o no linealidad del modelo especfico que relaciona la entrada y la salida
particulares elegidas en el sistema.

1.4.

Invarianza en el tiempo

Otra propiedad de interes es la de invarianza en el tiempo. Un sistema es


invariante en el tiempo cuando las propiedades del sistema no cambian en el
tiempo, es decir, cuando se cumple la situacion de la Figura 1.3, para cualquier
valor del desplazamiento .

u(t)

S
x(0) = xo

y(t)

u(t )

invarianza
en tiempo

y(t )

x( ) = xo

Figura 1.3: Propiedad de invarianza en el tiempo


En palabras, la Figura 1.3 dice que si retardamos la entrada (y las condiciones
iniciales) la respuesta es la misma que antes, retardada en la misma cantidad.
En rigor, no existen los sistemas invariantes en el tiempo, excepto en su
expresion matematica pura. Sin embargo, es frecuente que la variacion que experimenta un sistema dado con el transcurso del tiempo sea tan lenta, que se
considera despreciable para todo efecto practico.
Otro aspecto a observar es que la invarianza en el tiempo (al igual que
la linealidad) no es necesariamente una propiedad intrnseca de un sistema.
Consideremos el caso de un sistema con entrada u(t) R y salida y(t) R,


1.5. LINEALIZACION

donde y(t) = 4u(t) f (t), donde f (t) es una funcion (no constante) del tiempo.
Entonces este sistema es variante en t. Sin embargo, si redefinimos el mismo
sistema de modo que la entrada es ahora el vector u
(t) R2 , dado por u
(t) =
T
donde es
[u(t) f (t)] y mantenemos la salida y(t) R, entonces y(t) = u(t),
un vector fila constante dado por = [4 1]. El sistema as definido es ahora
invariante en t.

La propiedad de invarianza en el tiempo, en conjunto con la propiedad de


linealidad, son las que permiten aplicar una serie de potentes herramientas
de analisis, sntesis y dise
no de sistemas.

1.5.

Linealizaci
on

Como hemos mencionado ya, casi todos los sistemas reales incluyen caractersticas no lineales. Sin embargo, muchos de ellos pueden ser descritos con
razonable precision por modelos lineales, al menos dentro de ciertos rangos en
que el sistema funciona, lo cual permite aplicar una amplia gama de herramientas matematicas.
Del punto de vista practico, para obtener estos modelos lineales es com
un
comenzar con un modelo no lineal y, a partir de este construir una aproximacion lineal en la vecindad de un punto de operaci
on elegido. Este enfoque
constituye una herramienta clave para el modelado lineal en diversos campos,
por ejemplo, en la Electronica analogica y en el Control Automatico.
La estrategia de linealizacion puede ser aplicada de igual forma a modelos
de tiempo continuo y a modelos de tiempo discreto, a modelos en variables
de estado (Captulo 10) y a modelos de entrada-salida (ecuaciones recursivas y
ecuaciones diferenciales de orden superior).
Antes de intentar la formulacion de un procedimiento general de linealizacion, motivaremos el tema con el estudio de dos casos. Ambos casos se
frasearan de identica forma, con las obvias adaptaciones, para que el lector
pueda apreciar que el tema de linealizacion trasciende la naturaleza de la descripcion temporal.

1.5.1.

Sistema no lineal de tiempo continuo

Considere un sistema con entrada u(t) y salida y(t), donde el modelo de


entrada-salida esta dado por:
d y(t)
d 2 y(t)
3
+ (0, 2 + y(t))
+ (y(t)) =
dt 2
dt

d u(t)
+ u(t)
dt

3

(1.30)

La idea es construir un modelo (ecuacion diferencial) lineal en que las se


nales
involucradas sean:

linealizaci
on|textbf
punto de operaci
on
modelo!linealizado

10

CAPITULO 1. ASPECTOS FUNDAMENTALES

u(t) = u(t) uQ

(1.31)

y(t) = y(t) yQ

(1.32)

en que la entrada incremental u(t) y la salida incremental y(t) representan


las variaciones de las se
nales u(t) e y(t) en torno al punto de operacion (u Q , yQ ).
La ecuacion (1.30) puede re-escribirse, miembro a miembro, como:
ga (x1 (t), x2 (t), x3 (t)) = gb (x4 (t), x5 (t))

(1.33)

donde x1 (t) = y(t), x2 (t) = y(t),

x3 (t) = y(t), x4 (t) = u(t) y x5 (t) = u(t).

De
esta forma:
ga (x1 (t), x2 (t), x3 (t)) = x3 (t) + (0, 2 + x1 (t))x2 (t) + (x1 (t))
gb (x4 (t), x5 (t)) = (2x5 (t) + x4 (t))

(1.34)
(1.35)

Luego hacemos la expansion en serie de Taylor (ver Apendice A) de ga


y gb para, finalmente, igualar las aproximaciones de primer orden de ambas
funciones. Esto lleva a:
2

ga (x1Q , x2Q , x3Q ) + (3 (x1Q ) + x2Q )(x1 (t) x1Q )

+ (0, 2 + x1Q )(x2 (t) x2Q ) + (x3 (t) x3Q )


2

= gb (x4Q , x5Q ) + 3 (2x5Q + x4Q ) (x4 (t) x4Q )


2

+ 6 (2x5Q + x4Q ) (x5 (t) x5Q )

(1.36)

Usando las definiciones anteriores tenemos que:


x1 (t) x1Q = y(t)

(1.37)

x2 (t) x2Q = y(t)


=

(1.38)

x3 (t) x3Q

(1.39)

x4 (t) x4Q
x5 (t) x5Q

d y(t)
x2Q
dt
d 2 y(t)
=
y (t) =
x3Q
dt 2
= u(t)
d u(t)
= u(t)

=
x5Q
dt

(1.40)
(1.41)

Para lograr el objetivo deseado, es decir, una ecuacion diferencial en u(t)


y xi (t), es necesario que el conjunto de valores (x1Q , x2Q , . . . , x5Q ) que define
el punto de operacion satisfaga:
ga (x1Q , x2Q , x3Q ) = gb (x4Q , x5Q )

(1.42)


1.5. LINEALIZACION

11

con lo cual, ga (x1Q , x2Q , x3Q ) y gb (x4Q , x5Q ) se compensan en la ecuacion (1.36).
En esta etapa de nuestro analisis es oportuno hacer las siguientes observaciones:
(i) Cada derivada debe ser asociada a una variable xi .
(ii) El punto de operacion es arbitrario; pero para llegar a un modelo linealizado, debe satisfacer la ecuacion no lineal original. Para este caso, un
ejemplo de punto de operacion es x1Q = 2, x2Q = 1, x3Q = 9, 2, x4Q = 3
y x5Q = 1.
(iii) Es necesario elegir un punto de operacion para el que las derivadas de y(t)
y de u(t), respecto del tiempo, sean iguales a cero. Este punto de operacion
se conoce como punto de operacion en equilibrio o, mas brevemente, punto
de equilibrio. La idea es que si un sistema esta en un punto de equilibrio,
el sistema se mantiene operando en ese punto ya que las derivadas de y(t) y
de u(t) son cero. La eleccion del punto de equilibrio se hace considerando
el punto en que el sistema a analizar estara operando. Para este caso,
existen infinitos puntos de equilibrio y todos ellos satisfacen x1Q = x4Q ,
x2Q = 0,x3Q = 0 y x5Q = 0. Con esto, las ecuaciones (1.37)-(1.41) se
transforman en:

x1 (t) x1Q = y(t)

(1.43)

x2 (t) x2Q = y(t)


=

(1.44)

x3 (t) x3Q

(1.45)

x4 (t) x4Q

d y(t)
dt
d 2 y(t)
=
y (t) =
dt 2
= u(t)

x5 (t) x5Q = u(t)

(1.46)

d u(t)
dt

(1.47)

El modelo lineal para el caso estudiado tiene entonces la forma:


d y(t)
d u(t)
d 2 y(t)
+ a1
+ a0 y(t) = b1
+ b0 u(t)
dt 2
dt
dt

(1.48)

(iv) Cuando el modelo no lineal esta descrito por dos o mas ecuaciones, las
coordenadas del punto de operacion deben satisfacer al conjunto de ecuaciones simultaneas.
(v) Un punto de operacion en equilibrio se calcula a partir del modelo algebraico (tal vez no lineal) que resulta de hacer cero todas las derivadas en
el modelo dinamico no lineal.
4

(vi) La linealizacion puede hacerse sobre la funcion compuesta g = ga gb = 0.


222

punto de equilibrio

CAPITULO 1. ASPECTOS FUNDAMENTALES

12

1.5.2.

Sistema no lineal de tiempo discreto

Considere un sistema de tiempo discreto con entrada u[t] y salida y[t], donde
el modelo de entrada-salida es la ecuacion recursiva:
y[t] + 0, 5y[t 1]y[t 2] + 0, 1u[t](y[t 2])2 = (u[t 1])3

(1.49)

La idea es construir un modelo (ecuacion recursiva) lineal en que las se


nales
involucradas sean:
u[t] = u[t] uQ

(1.50)

y[t] = y[t] yQ

(1.51)

en que la entrada incremental u[t] y la salida incremental y[t] representan las


variaciones de las variables u[t] e y[t] en torno al punto de operacion (uQ , yQ ).
La ecuacion (1.30) puede re-escribirse, miembro a miembro, como:
gc (x1 [t], x2 [t], x3 [t], x4 [t]) = gd (x5 [t])

(1.52)

donde x1 [t] = y[t], x2 [t] = y[t 1], x3 [t] = y[t 2], x4 [t] = u[t] y x5 [t] = u[t 1].
As:
gc (x1 [t], x2 [t], x3 [t], x4 [t]) = x1 [t] + 0, 5x2 [t]x3 [t] + 0, 1x4 [t] (x3 [t])
gd (x5 [t]) = (x5 [t])

(1.53)
(1.54)

Luego hacemos la expansion en serie de Taylor (ver Apendice A) de gc y


gd para, finalmente, igualar las aproximaciones de primer orden de ambas funciones. Esto lleva a:

gc (x1Q , x2Q , x3Q , x4Q ) + (x1 [t] x1Q )

+ 0, 5x2Q (x3 [t] x3Q ) + 0, 5x3Q (x2 [t] x2Q )


2

+ 0, 2x4Q x3Q (x3 [t] x3Q ) + 0, 1 (x3Q ) (x4 [t] x4Q )


2

= gd (x5Q ) + 3 (x5Q ) (x5 [t] x5Q )

(1.55)

Usando las definiciones anteriores y la notacion y[t `] = y[t `] x 1Q y


u[t j] = u[t j] x4Q , tenemos que:
x1 [t] x1Q = y[t]

x2 [t] x2Q = y[t 1] + x1Q x2Q


x3 [t] x3Q = y[t 2] + x1Q x3Q

x4 [t] x4Q = u[t]


x5 [t] x5Q = u[t 1] + x4Q x5Q

(1.56)
(1.57)
(1.58)
(1.59)
(1.60)


1.5. LINEALIZACION

13

Para lograr el objetivo deseado, es decir, una ecuacion recursiva en u[t] y


y[t], es necesario que el punto de operacion (x1Q , x2Q , . . . , x5Q ) satisfaga:
gc (x1Q , x2Q , x3Q , x4Q ) = gd (x5Q )

(1.61)

con lo cual, gc (x1Q , x2Q , x3Q , x4Q ) y gd (x5Q ) se compensan en (1.55).


En esta etapa de nuestro analisis es oportuno hacer las siguientes observaciones:
(i) Cada se
nal retardada debe ser asociada a una variable xi .
(ii) El punto de operacion es arbitrario; pero para llegar a un modelo linealizado, debe satisfacer la ecuacion no lineal original. Para este caso, un
ejemplo de punto de operacion es x1Q = 2, x2Q = 1, x3Q = 2, x4Q = 5
y x5Q = 1.
(iii) Es necesario elegir un punto de operacion en que las se
nales son constantes,
es decir, u[t] = uQ e y[t] = yQ , para todo instante t, lo cual implica tambien
que todas las diferencias son cero. Este punto de operacion se conoce como
punto de operacion en equilibrio o, mas brevemente, punto de equilibrio.
La idea es que si un sistema esta en un punto de equilibrio, el sistema se
mantiene operando en ese punto ya que las diferencias de y[t] y de u[t] son
cero. La eleccion del punto de equilibrio se hace considerando el punto en
que el sistema a analizar estara operando. Para este caso, existen infinitos
puntos de equilibrio y todos ellos satisfacen x1Q = x2Q = x3Q = yQ ,
x4Q = x5Q = uQ , e
2
2
yQ + 0, 5yQ
+ 0, 1uQ yQ
= u3Q

(1.62)

El modelo lineal tiene entonces la forma


y[t] + c1 y[t 1] + c0 y[t 2] = d1 u[t] + d0 u[t 1]

(1.63)

(iv) Cuando el modelo no lineal esta descrito por dos o mas ecuaciones, las
coordenadas del punto de operacion deben satisfacer al conjunto de ecuaciones simultaneas.
(v) Un punto de operacion en equilibrio se calcula a partir del modelo algebraico que resulta de hacer cero todas las diferencias en el modelo dinamico
no lineal, es decir, cada una de las se
nales involucradas es reemplazada por
una constante a calcular, con independencia del retardo que ella exhiba.
4

(vi) La linealizacion puede hacerse sobre la funcion compuesta g = gc gd = 0.


222
El analisis de los casos precedentes muestra que, con independencia de la
naturaleza temporal de los sistemas (continuo o discreto), la linealizacion de

punto de equilibrio

14
punto de
operaci
on
se~
nal incremental
modelo!peque~
na
se~
nal

CAPITULO 1. ASPECTOS FUNDAMENTALES

sus modelos no lineales tiene ciertos pasos basicos. En primer lugar, restringiremos la linealizacion a la construccion de modelos lineales en torno a puntos
de equilibrio. Observamos que cuando trabajamos en un punto de equilibrio,
todos los valores de ese punto x1Q , x2Q , . . . , se pueden expresar en funcion del
par (uQ , yQ ); por ello diremos que el punto de operacion en equilibrio queda
definido por ese par.
Supongamos que el sistema con entrada u() y salida y() es descrito por:
f hu(), y()i = 0

(1.64)

donde f h i es un operador no lineal y, posiblemente, dinamico.


Tambien suponemos que:
(i) existe, al menos un par de valores constantes reales (uQ , yQ ) tales que,
f huQ , yQ i = 0

(1.65)

Cada uno de estos pares define un punto de operaci


on en equilibrio.
(ii) f hu(), y()i es infinitamente diferenciable, con respecto a u, con respecto
a y, y con respecto a las derivadas (o valores retardados) de ambos, en el
punto de operacion de interes.
Si expresamos u() y y() como
u() = uQ + u()
y() = yQ + y()

(1.66)
(1.67)

entonces podemos expandir el lado izquierdo de la ecuacion (1.64) en una serie


de Taylor, en torno al punto de operacion (uQ , yQ ). Si en esa expansion tomamos
solo los terminos de primer orden, entonces el resultado es un modelo lineal, una
ecuacion diferencial o una ecuacion recursiva, en las variables u() y y().
Nota 1.1. El procedimiento de linealizaci
on en el caso de un sistema discreto se
desarrolla sin dificultad porque las derivadas parciales de la expansi
on en serie
de Taylor se realizan con respecto a las variables de entrada y de salida y no
con respecto de la variable tiempo (discreto).
Nota 1.2. El procedimiento de linealizaci
on presentado anteriormente genera
un modelo que es lineal en las componentes incrementales de las entradas y
las salidas en torno a un punto de operaci
on elegido (i.e. se trata de un modelo
a peque
na se
nal).
Ilustramos esto a traves de algunos ejemplos.
Ejemplo 1.6. Considere un sistema de tiempo continuo descrito por el modelo
2

f hu(t), y(t)i =

dy(t) p
(u(t))
+ y(t)
=0
dt
3

(1.68)


1.5. LINEALIZACION

15

Suponga que la entrada u(t) vara alrededor de u = 2. Encuentre un punto


de operaci
on con uQ = 2 y un modelo linealizado en torno a el.
Soluci
on
(i) El punto de operaci
on es calculado de (1.68) con uQ = 2 y tomando
0. Esto lleva a

yQ

(uQ )
=0
3

= yQ =

16
9

dy(t)
dt

(1.69)

(ii) El modelo linealizado es entonces obtenido a traves de la expansi


on de
(1.68) en serie de Taylor para obtener:
1
2uQ
dy(t)
+ y(t)
u(t) = 0
dt
2 yQ
3

(1.70)

Cuando se usan valores numericos para el punto de operaci


on, se obtiene
el siguiente modelo linealizado:
dy(t) 3
4
+ y(t) u(t) = 0
dt
8
3

(1.71)
222

La idea fundamental que se deduce del proceso de linealizacion es que: las


propiedades del modelo lineal para valores peque
nos de sus variables incrementales, permiten inferir el comportamiento del sistema original en las cercanas
del punto de operacion.
Para comparar efectivamente la calidad de la aproximacion que provee un
modelo linealizado, es necesario poder simular ambos modelos, el original (nolineal) y el obtenido (lineal). Para ello, herramientas como Simulink o Simnon
son extraordinariamente poderosas. A modo de ejemplo, se incluye en la Figura
1.4 un esquema Simulink para simular el modelo no lineal del Ejemplo 1.6,
dado por:
2
dy p
(u(t))
+ y(t) =
dt
3
o, en forma mas conveniente para armar el esquema Simulink :

(1.72)

2
p
dy
(u(t))
= y(t) +
(1.73)
dt
3
Para apreciar la calidad de la aproximacion consideramos el sistema original
y su modelo linealizado y corremos una simulacion donde la entrada a ambos
sistemas es una constante igual a 2 mas una secuencia de pulsos de amplitud
creciente. Los resultados se muestran en la Figura 1.5. Podemos ver ah que el
error de linealizacion crece a medida que el sistema es llevado lejos del punto de
operacion, en torno al cual se calculo el modelo linealizado.

CAPITULO 1. ASPECTOS FUNDAMENTALES

16

|u|2

1/3

u(t)

Gain

In1

Math
Function

Out1

y(t)

Integrador

sqrt
Raiz
Cuadrada

Figura 1.4: Diagrama Simulink para simulacion de un sistema no lineal.

2.8
2.6
2.4
2.2
2
1.8
1.6
1.4

5
Tiempo [s]

10

Figura 1.5: Salida del sistema no lineal (linea solida) y salida del sistema linealizado (lnea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lnea punteada)

Ejemplo 1.7. Las caractersticas de un sistema no lineal de tiempo discreto,


con entrada u[t] y salida y[t], son descritas exactamente por
f hu[t], y[t]i = y[t] 0,7y[t 1] + 0,12(1 + 0,1u[t])y[t 2] 2 + sen (u[t 1]) = 0
(1.74)
Construya un modelo linealizado en torno al punto de operaci
on definido por
uQ = 0.
Soluci
on
(i) Para calcular yQ aplicamos (1.65), de donde se obtiene
yQ 0,7yQ + 0,12yQ = 2 = yQ = 4,762
(ii) El modelo linealizado es ahora construido de (1.74), llevando a

(1.75)


1.5. LINEALIZACION

y[t] 0,7y[t 1] + 0,12(1 + 0,1uQ )y[t 2]+


0,12yQ (u[t])) + cos (uQ ) u[t 1] = 0

17

(1.76)

Entonces, usando los valores numericos para el punto de operaci


on, se
obtiene el siguiente modelo linealizado:

y[t] 0,7y[t 1] + 0,12y[t 2] = 0,571u[t] + u[t 1] (1.77)


222
Nota 1.3. Los paquetes computacionales modernos incluyen comandos especiales para calcular modelos linealizados en torno a puntos de operaci
on definidos
por el usuario (pre-calculados). En el caso de Simulink , los comandos apropiados son linmod (para sistemas de tiempo continuo) y dlinmod (para sistemas
de tiempo discreto e hbridos).
Nota 1.4. Como hemos mencionado, los modelos linealizados son s
olo modelos
aproximados y, por tanto, deben ser considerados con la precauci
on apropiada (como deberan serlo en realidad todos los modelos). Cuando se realiza la
linealizacion de un modelo, el siguiente termino de la expansi
on en serie de
Taylor puede ser utilizado frecuentemente como una medida del error asociado
al modelado.

Los modelos lineales pueden ser obtenidos linealizando un modelo no lineal


en torno a un punto de operacion. En muchas aplicaciones, los modelos
lineales proveen suficiente informacion para estudiar la operacion del sistema
(no lineal) original y para sintetizar sistemas con suficiente precision. Sin
embargo, se requiere desarrollar una metodologa para tratar los inevitables
errores de modelado que resultan de la linealizacion.
Una observacion mas general sobre el tema de la linealizacion se relaciona
con el hecho que este concepto se puede extender, de modo que la linealizacion
se hace, no en torno a un punto de operacion, sino que a una trayectoria de
operaci
on, es decir, en torno a una solucion de interes (uQ (t), yQ (t)) del modelo
no lineal.

CAPITULO 1. ASPECTOS FUNDAMENTALES

18

1.6.

Problemas para el lector

Problema 1.1. Considere un sistema cuyo modelo de comportamiento est


a dado por
y(t) = mu(t) + b

(1.78)

Determine las condiciones que deben satisfacer las contantes m y b de modo


que el sistema sea lineal
Problema 1.2. El a
rea de un rect
angulo es A = xy, donde x e y representan
las longitudes de sus lados.
1.2.1 Obtenga una expresi
on linealizada para A en torno al punto de operaci
on
xQ = 2, yQ = 5.
1.2.2 Obtenga y describa geometricamente el error cometido al usar el modelo
lineal para calcular el a
rea de un rect
angulo con lados x = 3 e y = 6.
Problema 1.3. Sea un sistema lineal algebraico de dimensi
on 22, es decir,
con dos entradas y dos salidas. Se realizan algunos experimentos y se llega a:
y(t) = [2 1]T = Thh[1 1]T i
y(t) = [3 4]T = Thh[1 2]T i

(1.79)
(1.80)

Determine la respuesta del sistema cuando la entrada es u(t) = [1 1]T


Problema 1.4. Considere un sistema con entrada u(t) y salida y(t), relacionados por la ecuaci
on diferencial

dy(t) 
2
+ 2 + 0,1 (y(t)) y(t) = 2u(t)
dt

(1.81)

1.4.1 Determine los modelos linealizados para un punto de operaci


on definido
por yQ = 0,1.
1.4.2 Repita el punto anterior para yQ = 3. Compare con el resultado anterior.
Problema 1.5. En un sistema con entrada u(t) y salida y(t), la relaci
on
entrada-salida est
a dada por
y(t)

1
d y(t)
2
+ 3 (y(t)) = 2 (u(t)) 3
dt

(1.82)

Redefina, si es posible, la entrada y/o la salida de modo que el modelo en las


salidas redefinidas sea lineal.

1.6. PROBLEMAS PARA EL LECTOR

19

Problema 1.6. Considere la funci


on no lineal dada por
(
u(t)
|u(t)| 1
y(t) =
signo{u(t)} |u(t)| > 1

(1.83)

Discuta la linealizaci
on de esta funci
on en distintos punto de operaci
on.
Problema 1.7. En los sistemas tributarios modernos existe un tasa progresiva,
es as como a mayor ingreso, m
as alto es el porcentaje de impuesto a pagar.
Analice el sistema desde el punto de vista de la linealidad
Problema 1.8. Un sistema no lineal tiene un modelo dado por
d y(t)
+ f (y)y(t) = 2u(t)
dt
Donde la funci
on f (y) aparece en la Figura 1.6.

(1.84)

1.5
1

f(y)

0.5
0
0.5
1
1.5
4

0
y

Figura 1.6: Ganancia no lineal para el Problema 1.8


Construya modelos linealizados para los puntos de operaci
on determinados
por yQ = 3, yQ = 0 e yQ = 1.
Problema 1.9. Determine si el siguiente sistema es o no lineal
d y(t)
+ 2ty(t) = 2u(t)
dt

(1.85)

Problema 1.10. Construya, si es posible, modelos lineales para los sistemas no


lineales cuyos modelos se indican, con las condiciones de operaci
on especificadas
(en todos los puntos de operaci
on resultantes)
y[t] 0,5(y[t 1])3 = u[t 5]
y[t] 0,2y[t 1]y[t 2] + 0,4y[t 3] =

u[t 1]
1 + 0,2(u[t 2])2

yQ = 2 (1.86)
uQ = 1 (1.87)

20

CAPITULO 1. ASPECTOS FUNDAMENTALES

Problema 1.11. Considere el siguiente modelo no lineal


x 1 (t) = 2x1 (t) + 0,1x1 (t)x2 (t) + u(t)

(1.88)

x 2 (t) = x1 (t) 2x2 (t) (x1 (t))

(1.89)

y(t) = x1 (t) + (1 + x2 (t))

(1.90)

Construya un modelo lineal en torno al punto de operaci


on definido por
uQ = 1.
Problema 1.12. . Sistema predador-presa (Lotka-Volterra).
Considere el sistema de ecuaciones diferenciales no-lineales, que describe la
dinamica de una poblacion de conejos (c(t) > 0) y de zorros (z(t) > 0):
dc
= c(t) + c(t)z(t)
dt
dz
= z(t) + c(t)z(t)
dt

(1.91)
(1.92)

en que los par


ametros , , , son positivos.
1.12.1 Determine todos los puntos de equilibrio del sistema de ecuaciones.
1.12.2 Obtenga el sistema linealizado en torno a cada uno de los puntos de
equilibrio anteriores.
1.12.3 Estudie y compare el tipo de soluciones del sistema linealizado en cada
uno de los puntos de equilibrio.
1.12.4 Elija algun valor para los par
ametros, y simule el sistema original y el
linealizado en torno a cada punto de equilibrio, representando la solucion
en el plano (c(t), z(t)).

se~
nales|textbf
se~
nales!de prueba
escal
on unitario
Heaviside
impulso unitario
delta de Dirac|textbf
Dirac

Captulo 2

Se
nales
2.1.

Introducci
on

El comportamiento de los sistemas puede evaluarse observando las se


nales
correspondientes a las variables de entrada del sistema, variables de salida e
incluso a variables intermedias del mismo. Mas a
un, el comportamiento de los
sistemas puede estudiarse, y as suele hacerse, observando su respuesta cuando
se inyectan al sistema determinadas se
nales de prueba.
El analisis de se
nales es un aspecto esencial de la teora de sistemas lineales,
no solo por su valor experimental, sino que por la propiedad de linealidad, la
cual permite construir modelos en base a la respuesta del sistema ante ciertas
se
nales de prueba.

2.2.

Se
nales de tiempo continuo

En el caso de los sistemas de tiempo continuo, existen varias se


nales que
juegan un rol fundamental en la teora de los sistemas lineales. Ellas y sus
propiedades de mayor interes se presentan a continuacion.

2.2.1.

Escal
on unitario (funci
on de Heaviside)

El escalon unitario en el instante to se define como


(
1 t to
4
(t to ) =
0 t < to
y se representa en la Figura 2.1.

2.2.2.

Impulso unitario o delta de Dirac


21

(2.1)


CAPITULO 2. SENALES

22
(t to )
1

to

Figura 2.1: Escalon unitario o funcion de Heaviside.


(t to )

to

Figura 2.2: Impulso unitario o delta de Dirac.


El impulso unitario o delta de Dirac es una se
nal peculiar. En estricto rigor
no es una funcion temporal, sino que es lo que se conoce en Matematica como
distribuci
on o funci
on generalizada. Se define como la funcion () que satisface:
(t to ) = 0

t 6= to

con

(t to )dt = 1

(2.2)

y se representa graficamente como muestra la Figura 2.2.


Como se puede observar, esta se
nal no es fsicamente realizable, y se debe
entender como una idealizacion de determinadas situaciones. Algunas de ellas
se pueden apreciar en la Figura 2.3.

f1 (t)

f2 (t)

1

1
2
to  to to + 

to  t o to + 

Figura 2.3: Aproximaciones al delta de Dirac


2.2. SENALES
DE TIEMPO CONTINUO

23

La funciones f1 (t) y f2 (t) de la Figura 2.3 cumplen con:


Z
Z
f1 (t)dt =
f2 (t)dt = 1 

funci\on muestreo
rampa unitaria

(2.3)

Ademas,
lm f1 (t) = lm f2 (t) = 0

0

0

t 6= to

(2.4)

Otra funcion de importancia que tiene la misma propiedad que f1 (t) y f2 (t)
es:


o
1 sen tt

f3 (t) =
t to

(2.5)

lm f3 (t) = (t to )

(2.6)

Esta funcion, conocida como la funci


on muestreo, juega un papel muy importante en la relacion entre se
nales de tiempo continuo y de tiempo discreto
(ver Captulo 11). Se puede demostrar que:
0

Una propiedad clave del delta de Dirac esta descrita en el siguiente lema.
Lema 2.1. Considere una funci
on cualquiera f (t), entonces
Z
f (t) =
f ( )(t )d

(2.7)

222
nal puede ser expresada como una opEl Lema 2.1 establece que toda se
eracion lineal sobre el impulso (t ) para < < . Veremos mas
adelante que esta propiedad sera la base para calcular la respuesta de un sistema lineal ante cualquier se
nal, a partir de la respuesta de ese sistema a un
impulso unitario.

2.2.3.

Rampa unitaria

La rampa unitaria se define como:


(
r(t to ) =

t to
0

t to
t < to

(2.8)

y se muestra en la Figura 2.4.


El delta de Dirac, el escalon unitario y la rampa unitaria pertenecen a una
secuencia de funciones, donde cada una se puede obtener como la derivada de
la siguiente, es decir:
(t to ) =

d2 r(t to )
d(t to )
=
dt
dt2

(2.9)


CAPITULO 2. SENALES

24
exponencial
exponencial!creciente
constante de tiempo

r(t to )

to

to + 1

Figura 2.4: Rampa unitaria.


o, equivalentemente, a traves de la integral de la anterior, es decir:
r(t to ) =

( to ) d =

( to ) d d

(2.10)

Observe que hemos interpretado el impulso como la derivada del escalon, lo


cual implica dar un significado a la derivada de una funcion en un punto de
discontinuidad. Esto tiene sentido solo si esa discontinuidad es finita. En todo
caso estas operaciones deben manejarse con precaucion si se desea mantener el
rigor matematico.

2.2.4.

Exponencial

La funcion exponencial es definida genericamente como


f (t) = et

(2.11)

donde = + j, , R. Sin embargo, cuando 6= 0, la exponencial no


es una se
nal real, y solo tiene sentido fsico cuando se combina con su se
nal

compleja conjugada, f (t) = e t , en cuyo caso se obtiene una sinusoide de


amplitud modulada exponencialmente, situacion que se analiza por separado
mas adelante.
Para el caso R distinguimos dos casos, como se ilustra en la Figura 2.5.
Cuando > 0 tenemos una exponencial creciente. Esta se
nal esta asociada a
los sistemas inestables, como es explicara mas adelante. Cuando < 0, estamos en presencia de una exponencial decreciente. Esta forma exponencial es de
enorme importancia en la teora de sistemas, ya que aparece con frecuencia en la
descripcion de una amplia gama de fenomenos, por ejemplo, la descarga de un
condensador a traves de un resistor y el decaimiento de sustancias radiactivas,
entre otros.
Naturalmente que el caso especial = 0 corresponde a la funcion constante.
Para las exponenciales decrecientes se suele definir un parametro adicional:
la constante de tiempo, definida como:


2.2. SENALES
DE TIEMPO CONTINUO
8

25
sinusoide

0.8

>0

6
5

0.6

0.4

<0

3
0.2

2
1

2
Tiempo [s]

2
Tiempo [s]

Figura 2.5: Exponenciales creciente (izquierda) y decreciente (derecha)

1
||

(2.12)

La constante de tiempo es una medida de la velocidad de decaimiento


de la exponencial, tal como se ilustra en la Figura 2.6.
1
> >

0.8

0.6

0.4

0.2
0

0.5

1.5

2
Tiempo [s]

2.5

3.5

Figura 2.6: Exponenciales de diferentes velocidades de decaimiento


Una propiedad interesante de la exponencial se muestra en la Figura 2.7,
donde se observa que la tangente a la curva, trazada en t = 0 intersecta la
asntota de la exponencial (el eje temporal) exactamente en t = , lo cual puede
ser verificado analticamente por el lector.

2.2.5.

Se
nales sinusoidales

La se
nal fundamental en todo tipo de oscilaciones periodicas es la funcion
sinusoidal, que se describe en forma generica por:
f (t) = A sen(t + )

(2.13)


CAPITULO 2. SENALES

26
sinusoide!amplitud
sinusoide!frecuencia angular
sinusoide!desfase
sinusoide!per
odo
sinusoide!frecuencia
Euler
sinusoide!f
ormula de Euler
exponencial imaginaria
sinusoide!amortiguada

1
0.8
0.6
0.4
0.2
0

0.5

1.5

2
2.5
3
Tiempo normalizado t/

3.5

4.5

Figura 2.7: Propiedad de la constante de tiempo

donde A es la amplitud, es la frecuencia angular (en [rad/s]) y es el angulo


de fase, o desfase.
El perodo, T [s], y la frecuencia, f [Hz], de la sinusoide estan dados por:
T =

2
1
=
f

(2.14)

Un representacion equivalente para las se


nales sinusoidales se puede obtener
a partir de la formula de Euler
A sen(t + ) = A

ej(t+) ej(t+)
2j

(2.15)

De esta ecuacion se puede apreciar la interpretacion que usualmente se da a


la exponencial imaginaria ejt , ya que1
sen(t) = ={ejt }

2.2.6.

(2.16)

Sinusoidales con amplitud exponencial

Otra de las se
nales que aparece frecuentemente en la descripcion del comportamiento natural de los sistemas son las sinusoides cuya amplitud varan
exponencialmente en el tiempo, es decir, de la forma:
f (t) = Aet sen(t + )

(2.17)

Naturalmente, cuando = 0, la se
nal se reduce a una sinusoide pura. Los
casos < 0 (sinusoide amortiguada exponencialmente) y > 0 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.8.
Para estas funciones, la relacion de Euler lleva a:
Aet sen(t + ) = A
1 La

e(+j)t+j e(j)tj
2j

notaci
on ={ } siginifica parte imaginaria de ...

(2.18)


2.3. SENALES
DE TIEMPO DISCRETO
1

27
se~
nales!de tiempo discreto
escal
on unitario
impulso unitario
delta de Kronecker|textbf

500

0.5
0

0.5
1

1
2
tiempo normalizado t/T

500

1
2
tiempo normalizado t/T

Figura 2.8: Se
nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.)

[t to ]
1

to

Figura 2.9: Escalon unitario de tiempo discreto

2.3.

Se
nales de tiempo discreto

En el caso de las se
nales de tiempo discreto, existen contrapartes directas de
las se
nales para tiempo continuo, con algunas sutiles, pero significativas diferencias. La primera diferencia obvia es que la variable independiente esta definida
sobre el conjunto de los n
umeros enteros, Z. Otras apareceran en cada oportunidad.

2.3.1.

Escal
on unitario de tiempo discreto

El escalon unitario en el instante to se define como:


(
1 t to
4
[t to ] =
0 t < to

(2.19)

y se representa en la Figura 2.9.

2.3.2.

Impulso unitario discreto o delta de Kronecker


CAPITULO 2. SENALES

28
rampa unitaria

[t to ]
1

to

Figura 2.10: Impulso unitario discreto o delta de Kronecker

El impulso unitario discreto o delta de Kronecker se define como:


(
0 t 6= to
4
[t to ] =
1 t = to

(2.20)

y se representa en la Figura 2.10.


Una propiedad clave del delta de Kronecker, analoga a la del delta de Dirac
(lema 2.1) esta descrita en el siguiente lema.
Lema 2.2. Considere una funci
on cualquiera f [t], entonces
f [t] =

i=

f [i][t i]

(2.21)

222
El lema 2.2 establece que toda se
nal puede ser expresada como una operacion
lineal sobre un tren de deltas de Kronecker. Veremos mas adelante que esta
propiedad sera la base para calcular la respuesta de un sistema lineal de tiempo
discreto a partir de su respuesta a un impulso unitario.

2.3.3.

Rampa unitaria de tiempo discreto

La rampa unitaria se define como:


(
t to
4
r[t t0 ] =
0

t to
t < to

(2.22)

y se representa en la Figura 2.11.


De manera similar a las se
nales de tiempo continuo, el delta de Kronecker,
el escalon unitario y la rampa unitaria pertenecen a una secuencia de funciones,
donde cada una se puede obtener como la primera diferencia del miembro que
le sigue, es decir:
[t to ] = [t to ] [t to 1];

[t to ] = r[t to + 1] r[t to ] (2.23)


2.3. SENALES
DE TIEMPO DISCRETO

29
exponencial

r[t to ]

to

Figura 2.11: Rampa unitaria de tiempo discreto

o a traves de la acumulacion de la que precede, es decir


r[t to ] =

2.3.4.

i=to +1

[t i];

[t to ] =

i=to

[t i]

(2.24)

Exponencial de tiempo discreto

La funcion exponencial es definida genericamente como


f [t] = t

(2.25)

donde es, en general, un n


umero complejo. Sin embargo, cuando ={} 6=
0, la exponencial no es una se
nal real, y solo tiene sentido fsico cuando se
combina con ( )t , en cuyo caso se llega a una sinusoide de amplitud modulada
exponencialmente, situacion que se analiza por separado mas adelante.
Si R distinguimos cuatro casos, como se ilustra en la Figuras 2.12 y 2.13.
1.2

5
0<< 1

1<

0.8

0.6
2

0.4

0.2
0

Figura 2.12: Exponenciales de tiempo discreto, decreciente (izquierda) y creciente (derecha), R+


En la Figura 2.12, se observa el caso cuando es positivo, a la izquierda
aparece un ejemplo para 0 < < 1 y a la derecha, aparece un ejemplo para >


CAPITULO 2. SENALES

30
exponencial!creciente
sinusoide!discreta
sinuosoide!aperi
odica

1. Cuando > 1 tenemos una exponencial creciente. Esta se


nal aparece asociada
a los sistemas inestables de tiempo discreto, como es explicara mas adelante.
Por su parte, cuando 0 < < 1, estamos en presencia de una exponencial
decreciente. Esta forma exponencial es de enorme importancia en la teora de
sistemas, ya que interviene con frecuencia en la descripcion del comportamiento
natural de una amplia gama de sistemas.
En la Figura 2.13, se observa el caso cuando es negativo, a la izquierda
aparece el sub-caso 0 > > 1 y a la derecha, aparece el sub-caso < 1.
6
1
0>> 1

0.5
1

< 1

0.5

Figura 2.13: Exponenciales de tiempo discreto, decreciente (izquierda) y creciente (derecha), R


Naturalmente que el caso especial = 1 corresponde a la funcion constante,
y el caso = 1 puede identificarse como una se
nal sinusoidal, las cuales se
revisan a continuacion.

2.3.5.

Se
nales sinusoidales de tiempo discreto

Al igual que en el caso de tiempo continuo, en sistemas discretos la se


nal fundamental en oscilaciones periodicas es la funcion sinusoidal, cuya forma generica
es:
f [t] = A sen(t + )

(2.26)

donde A es la amplitud, es la frecuencia angular normalizada (en [rad]) y


es el angulo de fase, o desfase. Note que la unidad de la frecuencia es [rad], y en
el Captulo 11 veremos la relacion entre esta y la frecuencia angular en tiempo
continuo, con unidades [rad/s].
Una importante diferencia con las sinusoides de tiempo continuo, es que una
sinusoide de tiempo discreto puede ser aperi
odica en t.
Lema 2.3. Una sinusoide de tiempo discreto es peri
odica si s
olo si existen
n
umeros naturales p y N , tales que:
= 2

p
N

(2.27)


2.3. SENALES
DE TIEMPO DISCRETO

31
Euler
sinusoide!discreta!amortiguada

Demostraci
on
Una sinusoide discreta sen(t) es peri
odica si y s
olo si existe un n
umero
natural N tal que, para todo t N,
sen(t) = sen((t + N )) = sen(t) cos(N ) + cos(t) sen(N )

(2.28)

Para que esta igualdad se cumpla para todo t N, es necesario y suficiente


que cos(N ) = 1 ( sen(N ) = 0). Esto se cumple si y s
olo si existe p N
tal que se cumple (2.27).
222
De acuerdo a este lema, las sinusoidales de tiempo discreto: sen(t/7), cos(2t),
sen(e t) son todas se
nales aperi
odicas.
Un representacion equivalente para las se
nales sinusoidales se puede obtener
a partir de la formula de Euler:
A sen(t + ) = A

2.3.6.

ej(t+) ej(t+)
2j

(2.29)

Sinusoidales con amplitud exponencial

La sinusoide con amplitud modulada exponencialmente interviene frecuentemente describiendo el comportamiento natural de los sistemas de tiempo discreto. Esta se
nal aparece cuando C, lo cual significa que podemos expresar
en la forma polar:
= ej = || ej

(2.30)

y, de esta forma, tenemos que:


t = t ej t = t cos(t ) + jt sen(t )

(2.31)

Consideremos entonces la se
nal:
f [t] = At sen(t + )

(2.32)

Naturalmente, cuando = 1, la se
nal se reduce a una sinusoide pura. Los
casos 0 < < 1 (sinusoide amortiguada exponencialmente) y > 1 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.14.


CAPITULO 2. SENALES

32
0< <1

0.8
0.6

0.4

0.2

0.2

0.4

>1

10

15

20

10

15

20

Figura 2.14: Se
nales sinusoidales de tiempo discreto con amplitud variando exponencialmente

2.4.

Problemas para el lector

Problema 2.1. Dibuje los gr


aficos de las siguientes se
nales:
f1 (t) = | sen(2t)|;

f2 (t) = (3t + 2)

(2.33)

f3 (t) =

f4 (t) = r(4t 2)

(2.34)

sen(2t)
;
t

Problema 2.2 (Se


nal de amplitud modulada). Suponga que la se
nal
f (t) = cos(10t) es multiplicada por otra se
nal g(t). Dibuje el gr
afico del producto f (t)g(t), para dos casos distintos: g(t) = 0,2 sen(t) y g(t) = signo(sen(t))
Problema 2.3 (Pulsos de ancho modulado). Supongamos se tiene la secuencia de pulsos:
f (t) =

X
i=0

((t 3i) (t 1 g(t) 3i))

(2.35)

Construya un gr
afico de la se
nal f (t) para g(t) = 0, 5 sen(0, 1t).
Problema 2.4. Considere la funci
on:
f (t) =

1 sen((t 2))

t2

(2.36)

Dibuje f (t) (use Matlab ) para diferentes valores de . Comente sus resultados
Problema 2.5. Determine una expresi
on analtica para la derivada de las
siguientes funciones y grafquelas:

2.4. PROBLEMAS PARA EL LECTOR

33




f2 (t) = sen 3t
(t ) (2.37)
3
2

f1 (t) = 2(t 2) (t 4);




2t 4
f3 (t) = r
;
3

f4 (t) = (r(t) 2r(t 2)) (t + 4) (2.38)

Problema 2.6. Considere los gr


aficos de la Figura 2.15.

f2 (t)

f1 (t)

t
1

Figura 2.15: Se
nales compuestas
Para cada se
nal:
2.6.1 Encuentre la expresi
on analtica para cada una de las se
nales.
2.6.2 Determine una expresi
on analtica para la integral en el intervalo [0, t].
Problema 2.7. Grafique las siguientes se
nales de tiempo discreto:
f1 [t] = [t 2] 3[t 5]
t

f2 [t] = (0,8) cos(0,25t)


f3 [t] = 1 sen(t/8)

(2.39)
(2.40)
(2.41)

Problema 2.8. Suponga que la se


nal de tiempo continuo f (t) = 4 cos(t) es
muestreada cada [s]. Dibuje la se
nal de tiempo discreto f[t] = f (t) para tres
valores diferentes de : 0, 1; 1 y 2.
Problema 2.9. Considere la secuencia de n
umeros {2; 1; 2; 1; 2; 1; 2; 1; 2; 1, . . .}.
Si asocia esa secuencia al tiempo discreto, encuentre una expresi
on analtica que
describa la secuencia.

34

CAPITULO 2. SENALES

ecuaci
on diferencial del sistema|text

Captulo 3

An
alisis en tiempo continuo
3.1.

Introducci
on

La herramienta fundamental para describir los cambios de una variable en


el dominio del tiempo continuo es la derivada, por tanto, el modelo matematico
central para los sistemas en tiempo continuo es la ecuacion diferencial del sistema, EDS, la cual relaciona la entrada del sistema, u(t), con la salida, y(t). En
el caso de modelos linealizados (Captulo 1), debe entenderse que nos referimos
a la entrada incremental u(t) y salida incremental y(t).
Como ya hemos destacado, cuando se dispone de un buen modelo lineal para
un sistema, se puede utilizar numerosas y poderosas herramientas de analisis,
sntesis y dise
no. Por ejemplo, para resolver una EDS respecto de una entrada
particular y condiciones iniciales especficas, los metodos operacionalmente mas
eficientes pertenecen probablemente al dominio del tiempo. Aprovechando tales
metodos de resolucion en el tiempo presentaremos en este captulo las soluciones
generales para tiempo continuo, suponiendo que el lector tiene la preparacion
previa necesaria para utilizar esos metodos de resolucion sin necesidad de demostracion.
El estudio de las propiedades de las soluciones de una EDS nos permitira introducir indicadores de propiedades fundamentales para los sistemas dinamicos
lineales tales como su comportamiento natural, estabilidad, velocidad relativa,
ganancia y otras. Estos indicadores permitiran establecer relaciones estrechas
entre sus propiedades cuantitativas y cualitativas. La aplicacion de los indicadores descritos en este captulo y en el siguiente, para el caso de sistemas de
tiempo discreto, es mas eficiente en el dominio de la frecuencia, sin embargo, este
topico se aborda en los captulos posteriores a traves de las transformaciones de
Fourier, de Laplace y Zeta.

3.2.

Ecuaci
on diferencial del sistema (EDS)

La forma general de la EDS es:


35


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

36
Heaviside!operador
Heaviside

dn1 y(t)
dn y(t)
+ an1
+ . . . + a0 y(t)
n
dt
dtn1
dn1
dn2
= bn1 n1 u(t) + bn2 n2 u(t) + . . . + b0 u(t)
dt
dt

(3.1)

La solucion a esta ecuacion debe cumplir ademas con las restricciones que
imponen las condiciones o estado inicial.
En algunos casos, conviene usar una notacion compacta, tipo operador, para
denotar la operacion derivada. Por esa razon, introducimos el operador de Heaviside, hi definido por
d f (t)
dt

dn f (t)
n hf (t)i = n f (t) = n1 hf (t)i =
dtn
hf (t)i = f (t) ,

(3.2)
(3.3)

El operador de Heaviside representa la derivada de una funcion y, naturalmente, tiene un inverso asociado definido por la integral:

hf (t)i =

f ( )d

(3.4)

Usando este operador, el modelo (3.1) puede ser escrito como


n y(t) + an1 n1 y(t) + . . . + a0 y(t) = bn n u(t) + bn1 n1 u(t) + . . . + b0 u(t)
(3.5)
Para ilustrar la forma en que se llega a la EDS desarrollamos el siguiente
ejemplo.
Ejemplo 3.1. Considere la red electrica de la Figura 3.1, donde todos los componentes son lineales.

i(t)

R1
iL (t)

vf (t)

Figura 3.1: Red RLC

R2

v(t)

DIFERENCIAL DEL SISTEMA (EDS)


3.2. ECUACION

37

Aplicando las leyes de Kirchoff y las relaciones terminales de las componentes electricas se llega a:
vf (t) = R1 i(t) + v(t)
Z
dv(t) v(t)
1 t
v( )d + C
+
i(t) =
L
dt
R2

(3.6)
(3.7)

Derivando ambos miembros de las ecuaciones (3.6) y (3.7) se obtiene:


di(t) dv(t)
dvf (t)
= R1
+
dt
dt
dt
1
d2 v(t)
1 dv(t)
di(t)
= v(t) + C
+
2
dt
L
dt
R2 dt

(3.8)
(3.9)

Combinando las ecuaciones (3.8) y (3.9) se llega finalmente a:


d2 v(t) R1 + R2 dv(t)
1
1 dvf (t)
+
+
v(t) =
dt2
R1 R2 C dt
LC
R1 C dt

(3.10)

Este modelo tiene la estructura de la ecuaci


on (3.1), en que u(t) = vf (t),
y(t) = v(t), n = 2, y los valores de los par
ametros son:

a1 =

R1 + R 2
;
R1 R2 C

a0 =

1
;
LC

b2 = 0;

b1 =

1
;
R1 C

b0 = 0

(3.11)

Es importante adem
as hacer notar que la soluci
on v(t) debe ser tal que satisfaga las condiciones iniciales impuestas por la tensi
on inicial en el condensador, y la corriente inicial en el inductor.
222
En resumen, podemos afirmar que:

La EDS es un modelo dinamico que establece una restriccion fundamental


sobre ciertas combinaciones de la entrada, la salida y algunas derivadas de
ambas se
nales.
Para ser mas especfico, consideremos una ecuacion diferencial de primer
orden
dy
+ y(t) = u(t)
(3.12)
dt
Observamos en (3.12) que la salida y(t) no puede variar arbitrariamente, sino
que existe una restriccion. Esa restriccion dice que en un instante arbitrario,
t = t1 , la suma de la salida y su primera derivada debe ser igual al valor que

38
equilibrio estable
sistema! inestable

CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

tiene la entrada u(t1 ). Por ejemplo si u(t) = 2, t 0, e y(0) = 1, entonces


necesariamente y(0)

= 3, es decir, y(0)

> 0, por lo cual en t = 0 la salida


y, esta aumentando. Por otro lado, a medida que y(t) aumenta y se acerca a
2, entonces y(t)

sigue siendo positiva, pero disminuye consistentemente. En el


lmite, cuando y(t) = 2, su derivada de y es cero, lo cual indica que en ese
instante y(t) ya no cambia, es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (3.12):
dy
y(t) = u(t)
dt

(3.13)

Si nuevamente u(t) = 2, t 0, e y(0) = 1, entonces y(0)

= 1, lo cual
implica que en t = 0 la salida y esta aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acercandose a 2, su derivada crece, es
decir, y(t) aumenta. Cuando y(t) = 2, se tiene que y(t)

= 4, y subiendo. En
consecuencia, y(t) sigue creciendo monotonicamente, pero siempre la velocidad
de cambio, y(t),

debe cumplir con y(t)

= u(t) + y(t). Es decir, no se alcanza


un punto de equilibrio y, mas adelante, definimos este tipo de sistemas como
inestable.
Ambos casos pueden ser representados por la forma general de una EDS de
primer orden:
dy
+ ay(t) bu(t) = 0
dt

(3.14)

La forma (3.14) deja en evidencia el significado de restriccion que tiene la


EDS.
El analisis precedente se puede aplicar a EDS mas complejas, pero en esos
casos se pierde la vision intuitiva, por ello nos conviene trasladarnos a un ambito
mas general, que es lo que hacemos a continuacion.

3.3.

La respuesta del sistema

La solucion de la EDS condensa aspectos fundamentales su comportamiento


en el tiempo. Una aproximacion intuitiva a esta conexion indica que es esperable
que la excitacion no solo fuerce determinada conducta en la respuesta, sino
que en ese proceso revele aspectos claves de la naturaleza del sistema. Esta
percepcion justifica el observar con detencion la solucion de la EDS y algunas
formas en que ella puede ser descompuesta para su mejor comprension.

3.3.1.

Componente homog
enea y componente particular

Una primera forma de estudiar la respuesta del sistema es descomponerla de


modo de identificar aquella parte que captura la naturaleza del sistema, componente natural u homog
enea, y la otra, que refleja la naturaleza especfica
de la excitacion, componente particular o forzada.

3.3. LA RESPUESTA DEL SISTEMA

39

La componente homogenea, yh (t), satisface la ecuacion diferencial homogenea


asociada a (3.1), es decir:
n yh (t) + an1 n1 yh (t) + . . . + a0 yh (t) = 0

(3.15)

Note que esta ecuacion tiene infinitas soluciones, las que pueden describirse
genericamente como una familia. Los miembros de esta familia se diferencian
por los valores numericos especficos que se pueden escoger para un conjunto de
n constantes indeterminadas.
Por su parte, la componente o solucion particular, yp (t), es una funcion
especfica del tiempo, independiente de las condiciones iniciales, que satisface la
ecuacion (3.1).
La solucion completa y(t) = yh (t) + yp (t) queda totalmente determinada al
usar las condiciones iniciales, aplicadas a la respuesta completa, y(t), para
calcular las constantes indeterminadas presentes en yh (t).
Antes de proseguir con el analisis consideraremos un ejemplo.
Ejemplo 3.2. Suponga que la EDS de un sistema est
a dada por:
dy(t)
+ 2y(t) = 4u(t)
dt

(3.16)

y que la respuesta y(t) debe satisfacer la condici


on inicial y(0) = 0, 5. Se desea
calcular la respuesta del sistema para t 0 cuando u(t) = 1.
yh (t)

La componente homogenea debe cumplir con:


dyh (t)
+ 2yh (t) = 0
dt

(3.17)

Esta ecuaci
on es satisfecha por yh (t) = Ce2t , para cualquier valor de la
constante C.
yp (t)
La componente particular yp (t) es una funci
on, independiente de las condiciones iniciales, que debe satisfacer (3.16) con u(t) = 1. Una soluci
on simple es
yp (t) = 2, t 0.
De esta forma, la soluci
on completa es:
y(t) = yh (t) + yp (t) = Ce2t + 2

(3.18)

y la constante C se calcula de modo que y(0) satisfaga la condici


on inicial y(0) =
0, 5. Por lo tanto, se obtiene C = 2,5 e y(t) = 2,5e2t + 2
222

respuesta homog
enea
soluci
on homog
enea
respuesta
particular
soluci
on particular


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

40
ecuaci
on caracter
stica
constantes indeterminadas
autovalores
valores propios
valores caracter
sticos
frecuencias naturales
modos naturales
modo forzante

3.3.2.

Frecuencias y modos naturales

La componente natural u homogenea, yh (t) depende solo de la ecuaci


on
caracterstica asociada a (3.1), dada por:
n + an1 n1 + . . . + a1 + a0 = 0

(3.19)

Si las soluciones de (3.19) son 1 , 2 , . . . p con multiplicidad n1 , n2 , . . . , np


respectivamente, tal que n1 + n2 + . . . + np = n, entonces la forma general de
yh (t) es:
yh (t) =

p X
nk
X

Cki ti1 ek t

(3.20)

k=1 i=1

donde los Cki son constantes arbitrarias (constantes indeterminadas) que generan los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
Los valores de que satisfacen (3.19) son conocidos como autovalores, valores
propios1 , valores caractersticos o frecuencias naturales del sistema. Dado que
los coeficientes de la ecuacion caracterstica asociada a la EDS son reales, todas
sus races son reales, o bien aparecen en pares complejos conjugados.
A su vez, cada una de las funciones temporales, asociadas a k , de la forma:
ti1 ek t

(3.21)

que aparecen en (3.20) se denomina modo natural del sistema.


Los modos naturales se asocian unvocamente a las frecuencias naturales, y
la forma temporal de los primeros depende de la multiplicidad y la ubicacion de
los segundos en el plano complejo. Un mapa general, asumiendo multiplicidad
uno para cada frecuencia natural, se aprecia en la Figura 3.2. En esa figura se
asocia una se
nal (modo natural) a cada frecuencia natural, excepto en el caso
de frecuencias complejas, en que se considera el par de complejos conjugados.

3.3.3.

Modos forzantes y modos forzados

La componente particular de la respuesta, yp (t), es una funcion estrechamente


ligada a la entrada, u(t). Un caso simple, en que podemos apreciar esta relacion,
es cuando u(t) puede describirse como una combinacion lineal de funciones de
la forma ei t , es decir:
u(t) =

`
X

B i e i t

(3.22)

i=1

donde los i0 s son distintos y ninguno de ellos coincide con alguna frecuencia
natural. Cada una de las funciones ei t recibe el nombre de modo forzante.
1 Esta

denominaci
on resultar
a natural para modelos en variables de estado (Captulo 10)

3.3. LA RESPUESTA DEL SISTEMA

41

Eje

Imaginario

Eje

Real

Figura 3.2: Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

42
modo
forzante!ganancia a
ganancia! a modo forzante
modo forzado
ganancia
ganancia! a continua

Se puede verificar, usando la linealidad del sistema, que la solucion particular, yp (t), esta dada por:

yp (t) =

`
X

ypi (t)

en que

ypi (t) = Ki Bi ei t

(3.23)

i=1

y donde cada uno de los coeficientes es:


Pn1
bk (i )k
Ki = Pk=0
n
l
l=0 al (i )

(3.24)

La respuesta yp (t) contiene modos forzados. Bajo la suposicion anterior,


relativa a que ning
un i0 s coincide con las frecuencias naturales, cada uno de los
modos forzados coincide con uno de los modos forzantes.
Observe que podemos identificar a Ki con una ganancia asociada al modo
forzante i-esimo. Cuando el modo forzante es una constante, es decir, e t = 1,
se habla de la ganancia a continua.
Para facilitar la comprension del concepto de ganancia a modos, consideremos un ejemplo.
Ejemplo 3.3. La EDS de un sistema lineal es:
dy
+ 3y(t) = 2u(t);
dt

entonces

a1 = 1; a0 = 3; b0 = 2

(3.25)

Supongamos que la entrada es u(t) = 5 + 4 cos(t + /4), entonces podemos


expresarla como:
u(t) =

3
X
i=1



Bi ei t = 5e1 t + 2ej 4 e2 t + 2ej 4 e3 t

(3.26)

donde 1 = 0, 2 = j y 3 = j, es decir, hay tres modos forzantes presentes.


Las ganancias est
an dadas por (3.24), y para este caso particular:
2
b0
=
1 + a 0
3
b0
2
K2 =
=
= 0,3180 j0,3330 = 0,4604ej0,8084
2 + a 0
j + 3
b0
2
K3 =
=
= 0,3180 + j0,3330 = 0,4604ej0,8084
3 + a 0
j + 3
K1 =

(3.27)
(3.28)
(3.29)

222
El tratamiento general de la solucion particular sera pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente

3.3. LA RESPUESTA DEL SISTEMA

43
estabilidad

Los sistemas lineales exhiben ganancias distintas para modos forzantes distintos, y esta capacidad de discriminacion es la base para el analisis y dise
no
de sistemas de procesamiento de se
nales y para otras aplicaciones.

3.3.4.

Estabilidad

Como ya hemos mencionado, los modos naturales describen aspectos esenciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relacion con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (se
nales) del sistema permanecen acotadas ante cualquier excitacion
acotada o estado inicial acotado. Si consideramos solo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son estas, es
decir, las races de la ecuacion caracterstica del sistema, las que determinan la
estabilidad del sistema. Consideremos el caso de un modo natural de la forma
generica:
yh1 (t) = Cet ;
Sea = + jo , entonces

yh1 (t) = Cet = Cet ejo t = Cet (cos(o t) + j sen(o t))

(3.30)

(3.31)

De la expresion anterior se observa que yh1 (t) decae a medida que el tiempo
transcurre si y solo si et decae, y esto ocurre si y solo si < 0. Dicho de otra
forma, si y solo si esta en el semi plano izquierdo abierto del plano complejo.
Esto se ve reflejado claramente en la Figura 3.2.
En resumen, tenemos la siguiente definicion de estabilidad, conocida como
estabilidad asintotica:
Diremos que un modelo lineal e invariante en el tiempo es estable si y solo
si todos sus modos naturales decaen asintoticamente a cero, es decir, si y
solo si todas sus frecuencias naturales tienen parte real estrictamente menor
que cero. Si una o mas de las frecuencias naturales del modelo tienen parte
real mayor o igual que cero, diremos que el modelo es inestable.
Definimos, en consecuencia, la regi
on de estabilidad en el plano complejo, para sistemas continuos en el tiempo, como el semiplano izquierdo (SPI)
abierto, es decir excluyendo el eje imaginario. La necesidad de esta exclusion
se demostrara mas adelante. Sin embargo, el ejemplo siguiente permite apreciar el origen de las dificultades cuando una frecuencia natural esta en el eje
imaginario.


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

44
velocidad
frecuencia natural!dominante
modo natural!dominante

Ejemplo 3.4. Sea un sistema cuya EDS est


a dada por:
dy
= 2u(t)
dt

(3.32)

Entonces el sistema tiene s


olo una frecuencia natural, y ella est
a ubicada
en = 0, esto significa que el modo natural que aparecer
a en la respuesta del
sistema es et = 1. As, la respuesta homogenea es yh (t) = C1 . Supongamos que
la entrada es una constante t 0, digamos u(t) = Uo , entonces la componente
particular de la respuesta es yp (t) = Uo t. De esa forma la respuesta completa es
y(t) = C1 + Uo t donde C1 debe calcularse para satisfacer la condici
on inicial.
Debemos notar que este ejemplo pone en evidencia que, aunque la entrada
es una simple constante, la salida del sistema crece en forma ilimitada a medida
que transcurre el tiempo. El sistema es, por tanto, inestable.
222

3.3.5.

Velocidad

Un segundo aspecto de interes en relacion con las frecuencias y modos naturales guarda relacion con la velocidad con que evolucionan las variables de los
sistemas.
Dentro de la clase de sistemas estables, podemos distinguir diferencias notables, no solo por la distinta naturaleza de los valores propios, sino por las
velocidades relativas con que decaen sus modos naturales. Por ejemplo, consideremos dos sistemas con las componentes homogenas que se indican:

Sistema 1
Sistema 2

yh1 (t) = C11 e2t + C12 e5t


yh2 (t) = C21 e

3t

+ C22 e

7t

(3.33)
(3.34)

Vemos que yh1 (t) esta dominada por el modo natural e2t porque esta se
nal
decae mas lentamente que el otro modo natural e5t . Por su parte, yh2 (t)
esta dominada por el modo natural e3t , el que decae mas lentamente que
el modo e7t . As diremos que el Sistema 1 tiene una frecuencia natural
dominante igual a 2, con un modo natural dominante e2t . A su vez,
el Sistema 2 tiene una frecuencia natural dominante igual a 3, con un modo natural dominante e3t . Al comparar ambos sistemas podemos concluir, en
primera aproximacion, que el Sistema 1 es mas lento que el Sistema 2, porque
su modo dominante decae mas lentamente.
En general, si = || + jo , el modo natural tiene la forma:
et = e||t (cos(o t) + j sen(o t))

(3.35)

De esta ecuacion se observa que este modo decae mas rapidamente cuanto
mas grande es ||. As, los sistemas son mas rapidos cuanto mas alejados del eje
imaginario estan sus frecuencias naturales dominantes.

3.3. LA RESPUESTA DEL SISTEMA

3.3.6.

45

Respuesta a estado inicial y respuesta a entrada

Una forma alternativa de descomponer la respuesta de un sistema es considerar por separado la componente de la respuesta debida a las condiciones
iniciales o estado inicial, yx (t), y la componente de la respuesta debida a la
entrada, yu (t), es decir:
y(t) = Thhxo , u(t)ii = Thhxo , 0ii + Thh0, u(t)ii
| {z } | {z }

(3.36)

n yx (t) + an1 n1 yx (t) + . . . + a0 yx (t) = 0

(3.37)

yx (t)

yu (t)

En consecuencia, yx (t) satisface:

sujeta a las condiciones iniciales definidas en el vector xo . Esto significa que yx (t) es una combinacion lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la soluci
on completa de la EDS).
A su vez, la respuesta a entrada, yu (t), es una solucion de la EDS con condiciones iniciales iguales a cero, es decir, satisface:
dn yu (t)
dn1 yu (t)
+
a
+ . . . + a0 yu (t)
n1
dtn
dtn1
dn1
dn2
= bn1 n1 u(t) + bn2 n2 u(t) + . . . + b0 u(t)
dt
dt

(3.38)

sujeta a condiciones iniciales cero. Para poder cumplir con esta restriccion,
yu (t) debe contener, ademas de los modos forzados, una combinacion lineal de
modos naturales cuyas constantes son calculadas de modo que se cumpla aquella
restriccion.
En resumen, una comparacion de los diferentes modos presentes en cada
una de las componentes de la respuesta de un sistema hasta ahora definidas
(homogenea-particular y estado inicial-entrada) se muestra en la Tabla 3.1.

modos naturales
modos forzados

yh (t)

yp (t)

yx (t)

yu (t)

Cuadro 3.1: Presencia de modos en descomposiciones de la respuesta


Es ademas importante el notar que:
y(t) = yh (t) + yp (t) = yx (t) + yu (t)
Sin embargo, por lo general, yh (t) 6= yx (t) e yp (t) 6= yu (t).

(3.39)

46

CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

Afianzamos estas ideas retomando el Ejemplo 3.2, en el que ilustramos la


descomposicion de la respuesta del sistema en sus componente homogenea y
particular.
Ejemplo 3.5. Suponga que la EDS est
a dada por:
dy(t)
+ 2y(t) = 4u(t)
dt

(3.40)

y que la respuesta y(t) debe satisfacer la condici


on inicial y(0) = 0, 5.
Se desea calcular la respuesta del sistema para u(t) = 1 para t 0.
yx (t)
La respuesta a estado inicial debe cumplir con:
dyx (t)
+ 2yx (t) = 0
dt

(3.41)

y con yx (0) = 0, 5 Esta ecuaci


on es satisfecha por yx (t) = Ce2t , con C =
0,5
yu (t)
La respuesta a entrada, yu (t), es una soluci
on para (3.40) con u(t) = 1, y
sujeta a yu (0) = 0.
De esta forma, la soluci
on completa es:
yu (t) = yuh (t) + yup (t)

(3.42)

donde yuh (t) es una soluci


on de la ecuaci
on homogenea, es decir yuh (t) =
Cu e2t , e yup (t) es la soluci
on particular yup (t) = 2. Cu se calcula de modo
de obtener yu (0) = 0, lo cual conduce a Cu = 2.
Finalmente
yx (t) = 0, 5e2t

yu (t) = 2e

2t

(3.43)

+2

(3.44)

y(t) = yx (t) + yu (t) = 2,5e

2t

+2

(3.45)

De esta forma, podemos ahora completar la Tabla 3.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 3.2.
yh (t)
modos naturales
modos forzados

2, 5e2t

yp (t)
2

yx (t)

yu (t)

0, 5e2t

2e2t
2

Cuadro 3.2: Presencia de modos en descomposiciones de la respuesta del Ejemplo


3.5

3.3. LA RESPUESTA DEL SISTEMA

47

222
Las dos descomposiciones de la respuesta del sistema obtenidas permiten
observar dicha respuesta desde dos perspectivas diferentes:
En la descomposicion componente homogenea componente particular se
observa la estructura de la respuesta. En efecto, en esa particion queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposicion respuesta a estado inicial respuesta a entrada
se separan los efectos de las dos causantes de que el sistema tenga una
respuesta: las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean iguales a cero, a
un as, los
modos naturales se encuentran presente en la respuesta (en este caso solo aparece
la componente debida a la entrada, yu (t)).
Para cerrar esta seccion consideraremos un ejemplo donde estos conceptos
adquieren un significado mas concreto.
Ejemplo 3.6. En el circuito de la Figura 3.3 las componentes (escaladas, por
simplicidad) tienen los siguientes valores:
R1 = 2[];

iL (t)

R2 = 1[];

L = 1[H];

R1

i (t)

(3.46)

+
vf (t)

C = 0, 5[F ]

i (t)

vc (t)

R2

Figura 3.3: Red lineal con condiciones iniciales


En esta red, la entrada es vf (t), la salida ha sido elegida como vc (t) y el
estado inicial es descrito por xo = [iL (0) vc (0)]T . Entonces usando el operador
de Heaviside (y su inverso) tenemos que las ecuaciones de mallas llevan a:
Z I =E

donde:

1
R + L + 1
4 1
C

Z=
1
1
C

1 1

C
;

1 1
+ R2
C

(3.47)

i (t)
4
;
I=

i (t)

Esto se puede resolver usando el siguiente c


odigo:

v (t)
4 f

E=

(3.48)


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

48

Maple
>with(linalg);
>Z:=array(1..2,1..2,[[2+rho+2/rho,-2/rho],[-2/rho,2/rho+1]]);
>Zi:=inverse(Z);
De donde resulta:

1
2+
Z = 2
2
+ 4 + 6
Resolviendo para i (t) se obtiene:
1

2
2 + 2 + 2

( 2 + 4 + 6)i (t) = ( + 2)vf (t)

(3.49)

(3.50)

Dado que vc (t) = 1 i (t), la EDS es:


d vc (t)
d vf (t)
d 2 vc (t)
+4
+ 6vc (t) =
+ 2vf (t)
(3.51)
dt 2
dt
dt
Supongamos que las condiciones iniciales son vc (0) = 5 [V ], iL (0) = 3 [A]
y que vf (t) = 10 [V ]. Primero notamos que, al aplicar LCK en el nodo A, se
tiene que:


1
vc (0)
v c (0) =
= 4 [V ]
(3.52)
iL (0)
C
R2
La soluci
on total se puede calcular usando el siguiente c
odigo:
Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
que entrega como resultado:

10 5 2t
1 2t
+ e
cos( 2t)
2e
(3.53)
sen( 2t)
3
3
3
Entonces las distintas componentes de la respuesta vc (t) tiene los siguientes
valores e interpretaciones:
vc (t) =

(a) La componente particular, vcp (t) es aquella componente de vf (t) que contiene s
olo los modos forzados por la excitaci
on constante, es decir, es la
componente continua de vc (t), en este caso vcp (t) = 10/3[V ]. Note que
esta componente se puede calcular usando un divisor de tensiones, y que
la ganancia a modo constante de la red es igual a 1/3.

3.3. LA RESPUESTA DEL SISTEMA

49

(b) La componente homogenea, vch (t), es la parte de la respuesta que contiene


todos los modos naturales, en este caso:
vch (t) =

1 2t
5 2t
2e
sen( 2t)
e
cos( 2t)
3
3

respuesta transitoria
respuesta estacionaria

(3.54)

(c) La componente a estado inicial, vch (t), corresponde al valor que tendra
vc (t) debido s
olo a la corriente inicial en el inductor y a la tensi
on inicial
en el condensador, es decir con la fuente de tensi
on cortocircuitada. Esta
componente se puede calcular con el siguiente c
odigo:

Maple
>v_f(t):=0:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));

que entrega como resultado:

vcx = 5e2t cos( 2t) + 3 2e2t sen( 2t)

(3.55)

(d) La componente a entrada, vcu (t), corresponde a la tensi


on en el condensador cuando se aplica la fuente de tensi
on a la red inicialmente relajada. Esta componente se puede calcular con el siguiente c
odigo:

Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=0,D(v_c)(0)=0},v_c(t));

de donde se obtiene:
vcu (t) =

10 2t
10 10 2t
2e
e
cos( 2t)
sen( 2t)
3
3
3

(3.56)

222
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria (o transiente) y respuesta estacionaria (o en estado
estacionario). La respuesta estacionaria corresponde a la respuesta del sistema
cuando ha transcurrido mucho tiempo desde el instante inicial. Por su parte


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

50
respuesta! a $\mu (t)$
respuesta! a escal
on

la respuesta transiente es aquella parte de la respuesta que se extingue con el


tiempo.
En el Ejemplo 3.6 en la pagina 47, la respuesta estacionaria esta dada por
el modo forzado constante, mientras que la respuesta transitoria esta formada
por los modos naturales (sinusoidales amortiguadas).
La separacion en componentes estacionaria y transitoria es transversal a la
idea de modos naturales y modos forzados, es decir, no ocurrira siempre que la
respuesta estacionaria incluya solo modos forzados, e incluso es posible que la
respuesta estacionaria este formada exclusivamente por modos naturales. Por
ejemplo, el lector puede verificar que si un sistema tiene modos naturales sinusoidales y la entrada es una exponencial decreciente, entonces la respuesta
estacionaria contendra los modos naturales sinusoidales y la respuesta transitoria incluira el modo forzado por la exponencial.

3.4.

Respuesta a se
nales de prueba

Una forma de estudiar, y comparar en forma estandarizada el comportamiento de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas se
nales de prueba se consideran usualmente: el escalon unitario, el impulso
unitario y la se
nal sinusoidal. En esta seccion nos concentraremos en las dos
primeras, pues la respuesta ante se
nales sinuosidales sera materia de estudio en
el Captulo 5).

3.4.1.

Respuesta a escal
on unitario

Considere la ecuacion (3.1) en la pagina 36. Entonces la respuesta, g(t), a


un escalon unitario y condiciones iniciales iguales a cero, se puede obtener
de la siguiente forma:
Paso 1 Determine la solucion general de la ecuacion:
dn go (t)
dn1 go (t)
+ an1
+ . . . + a0 go (t) = 1
n
dt
dtn1

(3.57)

Note que go (t) contiene una parte natural u homogenea (combinacion


lineal de modos naturales de la forma (3.20)) y una componente particular
o forzada. Para el caso a0 6= 0, go (t) tiene la forma:
p

go (t) =

k
XX
1
+
Cki ti1 ek t
a0
i=1

k=1

t 0

(3.58)

En el caso mas general, si a0 = a1 = . . . = ap1 = 0, ap 6= 0 entonces go (t)


tiene la forma:
p

go (t) =

k
1 p XX
t +
Cki ti1 ek t
p!ap
i=1

k=1

t 0

(3.59)


3.4. RESPUESTA A SENALES
DE PRUEBA

51

Paso 2 Calcule las constantes Cki usando la restriccion de las condiciones iniciales iguales a cero, es decir, usando el hecho que:

` hgo (t)i t=0 = 0

` = 0, 1, . . . , n 1

(3.60)

Paso 3 Calcule las primeras n 1 derivadas de go (t). Note que, como las condiciones iniciales son cero, esas derivadas son continuas en t = 0.
Paso 4 Usando las propiedades de linealidad obtenga g(t) de acuerdo a:
g(t) =

n1
X
i=0

bi i hgo (t)i(t)

(3.61)

El procedimiento anterior es ilustrado con el siguiente ejemplo.


Ejemplo 3.7. Consideremos un sistema con la EDS:
2 y(t) + 5 y(t) + 4y(t) = u(t) + 2u(t)

(3.62)

Entonces las frecuencias naturales son soluciones de + 5 + 4 = 0, es


decir 1 = 4 y 2 = 1. Luego seguimos los pasos bosquejados previamente:
Paso 1 Calculamos la soluci
on general de:
2 go (t) + 5 go (t) + 4go (t) = 1

(3.63)

que resulta ser go (t) = 14 +C1 e4t +C2 et . Este resultado se puede obtener
con el siguiente c
odigo:

Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve(eds);

Paso 2 Para este ejemplo, ya que n = 1, se necesita calcular s


olo la primera
derivada de go (t), la que est
a dada por:
hgo (t)i = 4C1 e4t C2 et

(3.64)

Paso 3 Las constantes C1 y C2 se calculan a partir de las condiciones iniciales


(iguales a cero), es decir:
1
+ C1 + C2
4
= 0 = 4C1 C2

go (0) = 0 =
hgo (t)i|t=0

(3.65)
(3.66)


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

52
respuesta a $\delta (t)$
respuesta! a impulso

1
de donde C1 = 12
y C2 = 13 . Nuevamente, este resultado se puede obtener a traves del siguiente c
odigo:

Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve({eds, go(0)=0,D(go)(0)=0},go(t));

Paso 4 La respuesta a escal


on unitario est
a entonces dada por:
g(t) = 2go (t) hgo (t)i =

1 1 4t
+ e
et
2 2

(3.67)
222

3.4.2.

Respuesta a impulso unitario

Considere la ecuacion (3.1) en la pagina (3.1). Entonces la respuesta a un


impulso unitario, (t), y condiciones iniciales iguales a cero, se puede obtener
a partir de la respuesta a escalon unitario. Esta estrategia se basa en que el
sistema representado por la EDS (3.1) es lineal e invariante en el tiempo, pues
sus coeficientes son constantes y el argumento de las funciones es t. De esta
forma se tiene la situacion descrita en la figura 3.4.

(t)

S
x(0) = 0

g(t)

(t )
invarianza en
tiempo

g(t )

S
x() = 0

Figura 3.4: Efectos de la invarianza en el tiempo


Por lo tanto, usando linealidad:
dg(t)
g(t) g(t )
Thh0, (t)ii Thh0, (t )ii
= lm
= lm
0
0
dt

(t) (t )
= lm Thh0,
i = Thh0, D (t)ii = h(t)
0

(3.68)

Entonces, h(t) = dg(t)


dt es la respuesta del sistema a un impulso unitario con
condiciones iniciales iguales a cero.
Aunque en algunos textos se propone calcular h(t) usando una estrategia
similar a la seguida para el calculo de la respuesta a escalon unitario, en general

3.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION

53

ello no es aconsejable dada la especial naturaleza del delta Dirac. En efecto, esta
no es, en rigor, una funcion y no es diferenciable, por lo cual ocurren situaciones
paradojicas. Por u
ltimo, desde el punto de vista meramente instrumental es
mucho mas simple calcular la respuesta a impulso usando la transformacion de
Laplace, como se vera en el Capitulo 7.
Ejemplo 3.8. Consideremos el mismo sistema descrito por (3.62), entonces
podemos calcular h(t) derivando la respuesta a escal
on unitario en (3.67). As se
obtiene
h(t) =

dg(t)
= 2e4t + et
dt

t 0

(3.69)

222
Es importante anotar que las condiciones iniciales de un sistema son valores
nales pueden ser discontinuas en t = to . Esto
conocidos para t = t
o , pero las se
es lo que ocurre en el Ejemplo 3.8, donde:
lm h(t) = 0 6= lm+ h(t) = 1

t0

t0

(3.70)

En una perspectiva mas general, podemos observar que dada la relacion entre
la respuesta a impulso y la respuesta a escalon, y considerando que esta u
ltima
contiene una combinacion lineal de los modos naturales del sistema y una constante, entonces h(t) contiene s
olo modos naturales. Conceptualmente, es
esta la caracterstica que confiere especial importancia a las respuestas a escalon
e impulso. En rigor, la respuesta a excitaciones mas complejas tambien contiene
una combinacion de modos naturales (a traves de la componente homogenea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente seccion una utilidad inmediata de estas consideraciones.

3.5.

C
alculo de la respuesta va convoluci
on

Supongamos que se conoce la respuesta a impulso, h(t), de un sistema lineal


e invariante en el tiempo, con condiciones iniciales iguales a cero, entonces el
siguiente lema nos proporciona un resultado crucial en la teora de los sistemas
lineales.
Lema 3.1. Considere un sistema lineal e invariante en el tiempo. Sea adem
as
h(t) la respuesta de ese sistema a un impulso unitario en la entrada, con condiciones iniciales iguales a cero. Entonces, la respuesta y(t) del mismo sistema a
una excitaci
on causal2 arbitaria, f (t), con condiciones iniciales iguales a cero,
est
a dada por:
2 Una

se
nal f (t) es causal si f (t) = 0 t < 0

convoluci
on
se~
nal causal


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

54

y(t) =

t
0

f ( )h(t ) d

t 0

(3.71)

Demostraci
on
Sea i N y sea un incremento temporal, entonces, usando la propiedad
de invarianza en el tiempo, tenemos que:
h(t i) = Thh0, (t i)ii

(3.72)

f (i)h(t i) = Thh0, f (i)(t i)ii

(3.73)

Luego, usando homogeneidad,

Aplicando ahora superposici


on (i = 0, 1, . . .) y haciendo 0, i se convierte en una variable continua , as se llega a:
Z
Z
(3.74)
f ( )(t )dii
f ( )h(t )d = Thh0,
0

Finalmente, usando el Lema 2.1 y el hecho que h(t ) = 0 > t (por


causalidad), se obtiene:
Z t
f ( )h(t )d
(3.75)
y(t) = Thh0, f (t)ii =
0

222
Observando la ecuacion (3.75), y(t) se puede interpretar como una suma
ponderada (por f ( )) de respuestas a impulso h(t ). Note ademas que dado
que f (t) y h(t) son causales, entonces, la ecuacion (3.71) tambien se puede
escribir como:

y(t) =

f ( )h(t ) d =

f (t )h( ) d

t 0

(3.76)

Las integrales que aparecen en la ecuacion (3.76) son una expresion de la


convoluci
on de dos funciones temporales. La definicion generica es:

f1 (t) f2 (t) =

f1 ( )f2 (t ) d =

f1 (t )f2 ( ) d

(3.77)

Ademas de la propiedad de conmutatividad en (3.77), la convolucion tiene


la propiedad de distributividad, es decir:
f1 (f2 (t) + f3 (t)) = f1 (t) f2 (t) + f1 (t) f3 (t)

(3.78)

El uso de convolucion para la determinacion de la respuesta de un sistema


lineal tiene importancia conceptual y numerica, sin embargo, no es, en general,
un procedimiento analticamente simple. Para apreciar esto u
ltimo, veremos un
ejemplo.

3.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION

55

Ejemplo 3.9. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h(t) = e2t (t). Determine, usando convoluci
on la respuesta a la se
nal u(t) = (t) (t 1).
Soluci
on
La respuesta est
a dada por:

y(t) = u(t) h(t) =

h( )u(t )d
=

e2 ( )((t ) (t 1 )d

(3.79)

La integraci
on se puede separar en tres intervalos, que a su vez se muestran
en la Figura 3.5:
Z 0

u( )h(t )d = 0

Z
t
1
u(t) h(t) =
u( )h(t )d = (1 e2t )

Z0 1

u( )h(t )d = (e2(t1) e2t )


2
0

u()

1t

u()

h(t)

(3.80)

0t<1

u()

h(t)
t

t<0

h(t)

Figura 3.5: Ejemplo de descripcion grafica de la convolucion

222
Como se puede apreciar, el calculo mismo de la convolucion es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
establece un nexo fundamental con el analisis mediante las transformadas de
Fourier y de Laplace (Captulos 6 y 7, respectivamente).
De igual forma, la respuesta de un sistema lineal e invariante en el tiempo
se puede calcular a partir de la respuesta a escalon, como se demuestra en el
siguiente lema.

transformada de Fourier
transformada de Laplace


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

56

Lema 3.2. Sea una sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escal
on unitario de entrada, con condiciones iniciales iguales a cero, es g(t). Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitaci
on u(t) est
a dada por:
y(t) = g(t)

du(t)
dt

(3.81)

Demostraci
on
La demostraci
on sigue la misma lnea que el lema anterior. En primer lugar,
tenemos que la se
nal de entrada u(t) puede ser expresada aproximadamente
como la suma de escalones de altura diferencial, es decir3 :
u
(t) =

X
u((i + 1)) u(i)
(t i)

i=

(3.82)

donde u
(t) tiende a u(t) cuando tiende a cero. Por otro lado:
g(t i) = Thh0, (t i)ii

(3.83)

As, si el sistema es excitado con u


(t) entonces, por linealidad e invarianza,
se obtiene que la respuesta, y(t), est
a dada por:
y(t)

X
u((i + 1)) u(i)
g(t i)

i=

(3.84)

Si finalmente hacemos tender a cero, el producto i se convierte en una


variable continua y tenemos que:
Z
du( )
y(t) = lm y(t) =
g(t )d
(3.85)
0
d
Esta ecuaci
on corresponde al resultado deseado. Note que el lmite superior
puede ser reducido a = t, ya que suponemos que el sistema es causal, por lo
cual g(t ) es cero > t. Tambien, si u(t) es causal, el lmite inferior puede
ser reemplazado por cero.
222

3 Note que el l
mite superior de la suma es aunque los sumandos para i > t/ son cero,
debido a la presencia del escal
on (t i).

3.6. PROBLEMAS PARA EL LECTOR

3.6.

57

Problemas para el lector

Problema 3.1. Resuelva las siguientes ecuaciones diferenciales con las condiciones iniciales que se indican
dy
+ 2y(t) = 0
dt
dy
d 2y
+7
+ 10y(t) = 0
dt 2
dt
d 2y
+ 4y(t) = 0
dt 2

y(0) = 1

(3.86)

y(0) = 1;
y(0) = 0;

y(0)

=2
y(0)

=1

(3.87)
(3.88)

Problema 3.2. La respuesta de un sistema lineal e invariante en el tiempo a


un escal
on unitario (con condiciones iguales a cero) est
a dada por
g(t) = 1 et + tet

t 0

(3.89)

3.2.1 Determine la EDS.


3.2.2 Calcule la respuesta del mismo sistema a un impulso unitario.
Problema 3.3. Determine los modos asociados a las siguientes conjuntos de
frecuencias naturales
Sistema 1
Sistema 2
Sistema 3

1 = 2
1 = 3
1 = 1

2 = 2
2 = 0
2 = 1 + j2

3 = 2
3 = 0
3 = 1 j2

Problema 3.4. La respuesta de un sistema lineal e invariante en el tiempo a


un impulso unitario es h(t) = e2t (t). Usando convoluci
on calcule la respuesta
del sistema a una entrada u(t) = e3t (t)
Problema 3.5. La ecuaci
on caracterstica de un sistema est
a dada por
2 + a + 4 = 0

(3.90)

3.5.1 Determine el rango de valores de a que hacen estable al sistema.


3.5.2 Dentro de ese rango determine el valor de a de modo que el sistema sea
lo m
as r
apido posible.
Problema 3.6. Suponga que la respuesta de un sistema lineal a un escal
on
unitario con condiciones iniciales iguales a cero es una se
nal g(t), que se muestra
en la Figura 3.6.
3.6.1 Es el sistema estable ?
3.6.2 Estime los modos naturales del sistema


CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

58
0.7
0.6

g(t)

0.5
0.4
0.3
0.2
0.1
0

10

Tiempo [s]

15

Figura 3.6: Respuesta a escalon unitario


Sistema 1

1.5

0.5
0
0.5
1
1.5
2
2

Sistema 2

Eje imaginario

Eje imaginario

1
0
1
2
3

1.5

0.5

0.5

4
3

Eje real

Eje real

Figura 3.7: Configuracion de frecuencias naturales de dos sistemas

3.6.3 Estime la ganancia al modo forzante constante

Problema 3.7. Se calculan los valores caractersticos de dos sistemas y se


dibujan en el plano complejo, como se muestra en la Figura 3.7.
3.7.1 Determine los modos naturales de cada sistema.
3.7.2 Cu
ales son las frecuencias dominantes en cada caso?
3.7.3 Cu
al de los dos sistemas es m
as r
apido?
Problema 3.8. Considere la red electrica de la Figura 3.8, en donde se ha
agregado el modelo de red para el amplificador operacional.
3.8.1 Determine la ecuaci
on diferencial que relaciona la entrada v f (t) con la
salida vo (t).
3.8.2 Si A  1, es el sistema estable?

3.6. PROBLEMAS PARA EL LECTOR

59
1
3

R1

1
1

+
vf (t)

vc (t)
4

R2

vo (t)

+
Avc (t)
4

Figura 3.8: Red electrica con amplificador operacional

3.8.3 Repita si A  1 (o, lo que es lo mismo, si se intercambian los terminales


1 y 2).

Problema 3.9. La ecuaci


on diferencial de un sistema es:
d 2 y(t)
d y(t)
d u(t)
+7
+ 12y(t) =
+ 2u(t)
2
dt
dt
dt

(3.91)

Calcule la ganancia del sistema para los siguientes modos: u1 (t) = e2t ,
u2 (t) = 1 y u3 (t) = cos(3t).
Problema 3.10. En un sistema lineal e invariante en el tiempo se sabe que
la ganancia al modo ej2t es 0, 3 + j0, 4, y que las frecuencias naturales est
an
ubicadas en = 1 y = 0.
Calcule,
si es posible, la respuesta y(t) del sistema cuando la entrada es

u(t) = 2 sen(2t + /4) y las condiciones iniciales son y(0) = 0 e y(0)

= 2.

60

CAPITULO 3. ANALISIS
EN TIEMPO CONTINUO

ecuaci
on de recursi
on|textbf

Captulo 4

An
alisis en tiempo discreto
4.1.

Introducci
on

Para variables definidas solo en instantes discretos de tiempo, no es posible


definir la derivada, por tanto, la herramienta para describir sus variaciones en
el tiempo es la diferencia entre instantes sucesivos. De esta forma. Para los
sistemas de tiempo discreto el modelo matematico central es la ecuacion de
recursion del sistema, ERS, la cual relaciona la entrada del sistema, u[t], con la
salida, y[t]. Para el caso de modelos linealizados, la entrada y salida son u[t]
y y[t], respectivamente.
La ERS es una descripcion cuantitativa del sistema especialmente u
til para
el analisis numerico del mismo. Esto guarda relacion con la naturaleza de los
algoritmos computacionales, en los que una iteracion se basa en los resultados
de la iteracion anterior. Por otro lado, una ERS surge tambien cuando se discretiza el modelo para un sistema lineal de tiempo continuo. El estudio de las
propiedades de la solucion que realizaremos en este captulo sera complementado cuando, en captulos posteriores, se usen la transformada de Fourier discreta,
y la transformada Zeta.
En este captulo, analogamente a lo que se hizo en el captulo precedente,
se desarrollan herramientas de analisis que establecen relaciones estrechas entre
propiedades cuantitativas y cualitativas de los sistemas lineales (de tiempo discreto). En particular, interesa cuantificar y construir indicadores de propiedades
relevantes tales como comportamiento natural, estabilidad, velocidad relativa y
ganancia.

4.2.

Ecuaci
on de recursi
on del sistema (ERS)

La forma general de la ERS es


y[t] + an1 y[t 1] + . . . + a1 y[t n + 1] + a0 y[t n] =
bm u[t] + bm1 u[t 1] + . . . + b1 u[t m + 1] + b0 u[t m]
61

(4.1)


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

62
causalidad
condiciones iniciales
operador adelanto
promedio m
ovil

Esta forma de la ERS es una forma en la que la causalidad se cumple sin


condiciones para cualquier par de enteros positivos n y m. Esto se aprecia por
el hecho que la salida y[t] no depende de valores futuros de la entrada, aunque
s podra depender de valores presentes de la entrada.
Cuando la salida depende solo de valores pasados de la entrada (bm = 0), se
habla de sistemas estrictamente causales.
La solucion a esta ecuacion debe cumplir ademas con las restricciones que
imponen las condiciones o estado inicial. Estas condiciones iniciales se refieren
usualmente a un conjunto de n valores y[i ], y[i 1], . . ., y[i n + 1], donde
i = 1 o, alternativamente1 i = n 1. Note que estas alternativas no encierran
aspectos conceptuales, sino que reflejan el hecho que la eleccion del instante
inicial es arbitraria. Una generalizacion mas amplia dice que la ecuacion (4.1)
puede ser resuelta si conocemos, aparte de la entrada u[t], un conjunto de valores
de la salida y[t] en cualquier conjunto de n instantes.
As como ocurre con los sistemas de tiempo continuo, conviene usar una
notacion compacta, tipo operador, para denotar la operacion corrimiento temporal. Por esa razon, introducimos el operador adelanto temporal, q definido
por
4

qhf [t]i = qf [t] = f [t + 1]


n
q hf [t]i = q n f [t] = f [t + n]

q ` hf [t]i = q ` f [t] = f [t `]

(4.2)
(4.3)
(4.4)

Usando este operador, el modelo (4.1) puede ser escrito como


y[t] + an1 q 1 y[t] + . . . + a1 q n+1 y[t] + a0 q n y[t] =
bm u[t] + bm1 q 1 u[t 1] + . . . + b1 q m+1 u[t] + b0 q m u[t]

(4.5)

La ERS puede aparecer como modelo de situaciones muy diferentes. Consideraremos varios casos a modo de ilustracion.
Ejemplo 4.1 (Promedio m
ovil). En estadsticas econ
omicas se suele calcular indicadores que resultan de promediar el valor de ciertas variables durante
un n
umero de perodos consecutivos 2 . Suponga que nos interesa la variable desempleo, y que definimos el ndice de desempleo trimestral calculado como el
promedio de los porcentajes de desempleos de los tres u
ltimos meses. Entonces
la ecuaci
on de recursi
on es
y[t] =

1
(u[t] + u[t 1] + u[t 2])
3

(4.6)
222

1 El

comando rsolve de Maple puede usar ambas opciones.


se hace para disminuir el efecto de fen
omenos ocasionales, propios de s
olo parte del
perodo bajo an
alisis (fen
omenos estacionales)
2 Esto

DE RECURSION
DEL SISTEMA (ERS)
4.2. ECUACION

63

Ejemplo 4.2 (Discretizaci


on de ecuaciones diferenciales). Considere la
ecuaci
on diferencial de primer orden
y(t) + y(t) = u(t)

(4.7)

Entonces, si usamos la discretizaci


on de Euler3 para la primera derivada y
consideramos el tiempo discreto t = 0, , . . . ` se llega a
y((` + 1)) y(`)
+ y(`) = u(`)

(4.8)

y[t] + ( 1)y[t 1] = u[t 1]

(4.9)

Lo cual lleva a

donde y[t] = y((` + 1)), y[t 1] = y(`), u[t 1] = u(`).


222
Ejemplo 4.3 (Algoritmo computacional). Considere el siguiente c
odigo de
programa
input N u1=0 y1=0 y2=0 For t=1,N
input u
y=0,7*y1-0,12*y2+0,2*u1
output y
u1=u
y2=y1
y1=y
end
Entonces podemos hacer la siguiente asociaci
on de variables: u[t] = u, u[t
1] = u1, y[t] = y, y[t 1] = y1 e y[t 2] = y2. Por lo tanto en la iteraci
on
t-esima tenemos que
y[t] = 0, 7y[t 1] 0, 12y[t 2] + 0, 2u[t 1]

(4.10)
222

La ERS es un modelo dinamico que establece una restriccion fundamental sobre ciertas combinaciones de la entrada, la salida y algunas versiones
retrasadas de ambas se
nales.
Para ser mas especficos, consideremos una ecuacion de recursion de primer
orden
y[t] 0, 5y[t 1] = u[t 1]
3 Aproximaci
on

de la derivada como una diferencia hacia adelante.

(4.11)

discretizaci
on

64
equilibrio estable
sistema! inestable

CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

Observamos en (4.11) que la salida y[t] no puede variar arbitrariamente, sino


que existe una restriccion. Esa restriccion dice que en un instante arbitrario,
t = t1 , la salida menos la mitad de la salida en un instante anterior debe ser
igual al valor que tena la entrada un instante anterior, u[t1 1]. Para estudiar la
evolucion de la salida del sistema conviene re-escribir (4.11) en la forma siguiente
y[t] y[t 1] = 0, 5y[t 1] + u[t 1]

(4.12)

Supongamos ahora que u[1] = 0, u[t] = 2, t 0, e y[1] = 2, entonces


necesariamente y[1] y[0] = 2, 5, es decir, y[1] y[0] > 0 por lo cual, en t = 0, la
salida y, esta aumentando. Por otro lado, a medida que y[t] aumenta y se acerca
a 4, entonces y[t]y[t1] sigue siendo positiva, pero disminuye consistentemente
ya que 0, 5y[t 1] + u[t 1] se acerca a 0. En el lmite, cuando y[t] = 4, la
diferencia y[t]y[t1] es cero, lo cual dice que en ese instante y[t] ya no cambia,
es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (4.11) :
y[t] 1, 5y[t 1] = u[t 1] = y[t] y[t 1] = 0, 5y[t 1] + u[t 1] (4.13)
Si nuevamente u[t] = 2, t 0, e y[1] = 2, entonces y[1]y[0] = 1, lo cual
implica que en t = 0 la salida y esta aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acercandose a 2, su primera diferencia
crece, es decir, y[t] aumenta. Cuando y[t] = 2, se tiene que y[t] y[t 1] = 4, y
subiendo. En consecuencia, y sigue creciendo monotonicamente, pero siempre la
diferencia, y[t] y[t 1], debe cumplir con y[t] y[t 1] = 0, 5y[t 1] + u[t 1].
Es decir, no se alcanza un punto de equilibrio y, mas adelante, definimos este
tipo de sistemas como inestable.
Ambos casos pueden ser representados por la forma general de una ERS de
primer orden
y[t] + ay[t 1] bu[t] = 0

(4.14)

La forma (4.14) deja en evidencia el significado de restriccion que tiene la


ERS.
El analisis precedente se puede aplicar a ERS mas complejas, pero en esos
casos se pierde la vision intuitiva, por ello nos conviene trasladarnos a un ambito
mas general, que es lo que hacemos a continuacion.

4.3.

La respuesta del sistema

La solucion de la ERS condensa aspectos fundamentales del comportamiento


del sistema. Una aproximacion intuitiva a esta conexion indica que es esperable
que la excitacion no solo fuerce determinada conducta en la respuesta, sino
que en ese proceso revele aspectos claves de la naturaleza del sistema. Esta
percepcion justifica el observar con detencion la solucion de la ERS y algunas
formas en que ella puede ser descompuesta para su mejor comprension. Note
que no analizaremos el problema de existencia y unicidad de la solucion de (4.1).

4.3. LA RESPUESTA DEL SISTEMA

4.3.1.

65

Componente homog
enea y componente particular

Una primera forma de escudri


nar la respuesta del sistema es descomponerla
de modo de identificar aquella parte que captura la naturaleza del sistema, componente natural u homog
enea, y la otra, que refleja la naturaleza especfica
de la excitacion, componente particular o forzada.
La componente homogenea, yh [t], satisface la ecuacion homogenea asociada
a (4.1), es decir:
yh [t] + an1 q 1 yh [t] + . . . + a0 q n yh [t] = 0

(4.15)

Antes de proseguir con el analisis consideraremos un ejemplo.


Ejemplo 4.4. Suponga que la ERS est
a dada por:
y[t] 0, 5y[t 1] = u[t 1]

(4.16)

y[t] 0, 5y[t 1] = 0

(4.17)


C(0, 5)t 0, 5C(0, 5)t1 = C (0, 5)t (0, 5)t = 0

(4.18)

Co 0, 5Co = 1 = Co = 2

(4.19)

y que la respuesta y[t] debe satisfacer la condici


on inicial y[0] = 1. Se desea
calcular la respuesta del sistema cuando u[t] = 1 para t 0.
yh [t]
La componente homogenea debe cumplir con:

Esta ecuaci
on es satisfecha por yh [t] = C(0, 5)t , para cualquier valor de la
constante C. Esto se verifica reemplazando yh [t] en: (4.17)

yp [t]
La componente particular yp [t] es una funci
on, independiente de las condiciones iniciales, que debe satisfacer (3.16) con u[t] = 1. Como la entrada es una
constante, una soluci
on tentativa es suponer que la soluci
on particular tambien
es constante, digamos yp [t] = Co . Si esta suposici
on es correcta, entonces existe
Co constante que satisface (4.16) y puede ser calculada reemplazando yp [t] = Co
y u[t] = 1 en (4.16):

Entonces la soluci
on completa es y[t] = yh [t] + yp [t] = 2 + C(0, 5)t . La
constante C se calcula de modo que y[1] = 1:
y[1] = 1 = 2 + C(0, 5)1 = C =

3
2

(4.20)

Por lo tanto la soluci


on completa est
a dada por:
3
y[t] = 2 (0, 5)t
2

(4.21)
222

respuesta
homog
enea
soluci
on homog
enea


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

66
ecuaci
on
caracter
stica
polinomio caracter
stico

4.3.2.

Frecuencias y modos naturales

Volvamos ahora al problema general de calcular la componente homogenea


de la respuesta del sistema. Para ello repetimos la ecuacion homogenea (4.15):
yh [t] + an1 q 1 yh [t] + . . . + a0 q n yh [t] = 0

(4.22)

La solucion para (4.22) puede ser construida en torno al siguiente lema.


Lema 4.1. La funci
on f [t] = Cto (o 6= 0) satisface (4.22) para cualquier
constante C C si y s
olo si o C satisface la ecuaci
on caracterstica
asociada a la ecuaci
on homogenea:
4

pq () = n + an1 n1 + . . . + a1 + a0 = 0

(4.23)

donde:
pq () =

a` `

con an = 1

(4.24)

`=0

es conocido como el polinomio caracterstico asociado a la ERS.


Demostraci
on
Reemplazando f [t] en (4.22) se obtiene:

no + an1 on1 + . . . + a1 o + a0 = 0
Ctn
o

(4.25)

Por un lado (suficiencia) se ve que si o satisface (4.23), entonces f [t] satisface la ecuaci
on homogenea.
Por otro lado (necesidad), si f [t] satisface la ecuaci
on homogenea, entonces
(4.25) debe cumplirse t y dado que o 6= 0, entonces pq (o ) = 0.
222
Supongamos que las n races de pq () son distintas, entonces la solucion
homogenea tiene la forma:
yh [t] =

n
X

Ci ti

(4.26)

i=1

Un caso mas complejo ocurre cuando algunas races de pq () son repetidas.


El lema que sigue se refiere al caso de races dobles.
Lema 4.2. Si el polinomio caracterstico pq () tiene una raz doble, digamos
en = 1 , entonces la funci
on f2 [t] = Ctt1 satisface la ecuaci
on homogenea
(4.22).
Demostraci
on
Primero notamos que si pq () tiene una raz doble en = 1 , entonces:

n
X
d pq ()
=
a` ``1 = 0;
d =1
`=0

con an = 1

(4.27)

4.3. LA RESPUESTA DEL SISTEMA

67

Luego, reemplazamos yh [t] por f2 [t] en el lado izquierdo de (4.22), para demostrar que es igual a cero.
n
X
`=0

a` yh [t n + `] =

n
X
`=0

a` (t n + `)tn+`
1

= (t n)tn
1

n
X

(4.28)

a` `1 + 1tn+1

n
X

a` ``1
1

(4.29)

`=0

`=0

= (t n)tn
pq (1 ) +1tn+1
1
| {z }
0

Con lo cual el lema queda demostrado.


d pq ()
d =1
{z
}
|

(4.30)

222
El lector es invitado a demostrar el siguiente lema.
Lema 4.3. Si el polinomio caracterstico pq () tiene una raz de multiplicidad
n1 en = 1 , entonces la funci
on fn [t] = Cti t1 satisface la ecuaci
on homogenea
(4.22) para i = 0, 1, . . . , n1 1
222
De los resultados precedentes se puede ver que la ecuacion homogenea tiene
infinitas soluciones, las que pueden describirse genericamente como una familia.
Los miembros de esta familia se diferencian por los valores numericos especficos
que se pueden escoger para un conjunto de n constantes indeterminadas. De
la ecuacion (4.22) se observa que podemos escoger libremente un conjunto de
valores arbitrarios para y[1], y[2], . . ., y[n]. Por cada conjunto elegido hay
una solucion distinta.
Por su parte, la componente o solucion particular es una funcion del tiempo
completamente determinada, es decir, independiente de las condiciones iniciales,
y que satisface la ecuacion (3.1). La solucion completa y[t] = yh [t] + yp [t] queda
totalmente determinada al usar las condiciones iniciales, aplicadas a la respuesta completa, y[t], para calcular las constantes indeterminadas presentes
en yh [t].
Si las soluciones de (4.23) son 1 , 2 , . . . p con multiplicidad n1 , n2 , . . . ,
np respectivamente, tal que n1 + n2 + . . . + np = n, entonces la forma general
de yh [t] es:
yh [t] =

p X
nt
X

C`i ti1 t`

(4.31)

`=1 i=1

donde los C`i son constantes arbitrarias (constantes indeterminadas) que generan los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.

respuesta particular
soluci
on particular
constantes indeterminadas

68
frecuencias naturales
modos naturales
modo forzante
modo
forzante!ganancia a
ganancia! a modo forzante
modo forzado

CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

Los valores de que satisfacen (4.23) son conocidos como autovalores, valores
propios o frecuencias naturales del sistema. Como la ecuacion caracterstica
de la ERS tiene coeficientes reales, cuando las soluciones son complejas, siempre
ocurren en pares conjugados.
A su vez, la funciones temporales de la forma:
ti1 t`

(4.32)

que aparecen en (4.31) se denominan modos naturales del sistema.


Los modos naturales se asocian unvocamente a las frecuencias naturales, y
la forma temporal de los primeros depende de la ubicacion de los segundos en
el plano complejo. Un mapa general se aprecia combinando las Figuras 4.1 y
4.2 . En ambos graficos se ha dibujado la circunferencia de radio unitario con
centro en el origen. La separacion se ha hecho solo para una mayor claridad.
En esas figuras se asocia una se
nal (modo natural) a cada frecuencia natural
de multiplicidad uno, excepto en el caso de frecuencias complejas, en que se
considera el par complejo conjugado.

4.3.3.

Modos forzantes y modos forzados

La componente particular de la respuesta, yp [t], es una funcion estrechamente


ligada a la entrada, u[t]. Un caso simple, en que podemos apreciar esta relacion,
es cuando u[t] puede describirse como una combinacion lineal de funciones de
la forma it , es decir:
u[t] =

`
X

Bi it

(4.33)

i=1

donde los i0 s son distintos enter s y ninguno de ellos coincide con alguna
frecuencia natural. Cada una de las funciones it recibe el nombre de modo
forzante.
Se puede verificar, usando la linealidad del sistema, que la solucion particular, yp [t], esta dada por:

yp [t] =

`
X

ypi [t];

con

ypi [t] = Ki Bi it

(4.34)

con an = 1

(4.35)

i=1

y donde cada uno de los coeficentes es:


Pm
bm` (i )`
Ki = P`=0
;
n
l
l=0 anl (i )

La respuesta yp [t] contiene modos forzados. Bajo la suposicion anterior,


relativos a que los i0 s son distintos de las frecuencias naturales, todos los modos
forzados coinciden con modos forzantes.

4.3. LA RESPUESTA DEL SISTEMA

69
ganancia
ganancia! a continua

Figura 4.1: Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso decreciente).

Observe que podemos identificar a Ki con una ganancia asociada al modo


forzante i-esimo. Cuando el modo forzante es una constante, es decir, t = 1t ,
se habla de la ganancia a continua o ganancia a frecuencia cero.
Para facilitar la comprension del concepto de ganancia a modos, consideremos un ejemplo.
Ejemplo 4.5. Considere la ERS lineal
y[t]0, 5y[t1] = 2u[t1];

n = m = 1; a1 = 1; a0 = 0, 5; b0 = 2
(4.36)
Supongamos que la entrada es u[t] = 5+4 cos(t/4+/7), entonces podemos
expresarla como:
u[t] =

3
X
i=1

entonces



Bi ei t = 51t + 2ej 7 2t + 2ej 7 3t

(4.37)


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

70

Figura 4.2: Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso no decreciente).

donde 1 = 1, 2 = ej 4 y 3 = ej 4 , es decir, hay tres modos forzantes


presentes. Las ganancias est
an dadas por (4.35), y para este caso particular:
2
b0
=
=4
1 + a 0
0, 5
b0 21
K2 =
= 0, 7630 j2, 605 = 2, 7144ej1,286
1 + a0 21
K1 =

K3 =

b0 21
= 0, 7630 + j2, 605 = 2, 7144ej1,286
1 + a0 21

(4.38)
(4.39)
(4.40)

222
El tratamiento general de la solucion particular sera pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente

4.3. LA RESPUESTA DEL SISTEMA

71

Los sistemas lineales exhiben ganancias distintas para modos forzantes distintos, y esta capacidad de discriminacion es la base para el analisis y dise
no
de sistemas de procesamiento de se
nales y para otras aplicaciones.

4.3.4.

Estabilidad

Como ya hemos mencionado, los modos naturales describen aspectos esenciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relacion con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (se
nales) del sistema permanecen acotadas ante cualquier excitacion
acotada o estado inicial acotado. Si consideramos solo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son estas, es
decir, las races de la ecuacion caracterstica, las que determinan la estabilidad
del sistema. Consideremos el caso de un modo de la forma generica:
yh1 [t] = Ct ;
Sea = ej , entonces:

yh1 [t] = Ct = C t ejt = C t (cos(t) + j sen(t))

(4.41)

(4.42)

De la expresion anterior se observa que yh1 [t] decae a medida que el tiempo
transcurre si y solo si t decae, y esto ocurre si y solo si || = < 1. Dicho de
otra forma, si y solo si esta al interior del crculo o disco unitario (excluyendo su borde). Esto se refleja los modos que aparecen en la Figura 4.1 y, por
contradiccion, en la Figura 4.2.
En resumen, tenemos la siguiente definicion de estabilidad, conocida como
estabilidad asintotica:

Diremos que un modelo lineal e invariante en el tiempo (discreto) es estable


si y solo si todos sus modos naturales decaen asintoticamente a cero, es decir,
si y solo si todas sus frecuencias naturales tienen magnitud estrictamente
menor que uno. Si una o mas de las frecuencias naturales del modelo tienen
magnitud mayor o igual que uno, diremos que el modelo es inestable.
Definimos, en consecuencia, la regi
on de estabilidad en el plano complejo, para sistemas de tiempo discreto, como el crculo unitario abierto, es
decir excluyendo la circunferencia unitaria. La necesidad de esta exclusion se
demostrara mas adelante. Sin embargo, el ejemplo siguiente permite apreciar el
origen de las dificultades cuando una frecuencia natural esta en la circunferencia
unitaria.

estabilidad
c
rculo unitario
disco unitario


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

72
velocidad
frecuencia natural!dominante
modo
natural!dominante

Ejemplo 4.6. Sea un sistema cuya ERS est


a dada por:
y[t] y[t 1] = 2u[t 1]

(4.43)

y[t] = y[t 1] + 2u[t 1]

(4.44)

Entonces el sistema tiene s


olo una frecuencia natural, y ella est
a ubicada
en = 1, esto significa que el modo natural que aparecer
a en la respuesta del
sistema es t = 1. As, la respuesta homogenea es yh [t] = C1 . Supongamos que
la entrada es una constante t 0, digamos u[t] = Uo , entonces la componente
particular de la respuesta es yp [t] = 2Uo t. De esa forma la respuesta completa es
y[t] = C1 + 2Uo t donde C1 debe calcularse para satisfacer la condici
on inicial.
En todo caso, lo relevante de este ejemplo es que aunque la entrada es una
simple constante, la salida crece en forma no acotada a medida que el tiempo
evoluciona. El sistema es, entonces, inestable.
Podemos apreciar mejor la naturaleza de este sistema, si (4.43) es escrita
como:

Esta ecuaci
on puede ser asociada con el c
aculo de una integral por aproximaci
on rectangular cuando el ancho de los rect
angulos es 2. Al final, el resultado
del ejemplo muestra que la integral de un escal
on es una rampa.
222

4.3.5.

Velocidad

Un segundo aspecto de interes en relacion con las frecuencias y modos naturales guarda relacion con la velocidad con que evolucionan las variables de un
sistema.
Dentro de la clase de sistemas estables, podemos distinguir diferencias notables, no solo por la distinta naturaleza de los valores propios, sino por las
velocidades comparativas a las que decaen las componente homogeneas de la
respuesta de los distintos sistemas. Por ejemplo, consideremos dos sistemas con
las componentes homogenas que se indican:
Sistema 1
Sistema 2

yh1 [t] = C11 0, 9t + C12 0, 5t


t

yh2 [t] = C21 0, 2 + C22 0, 7

(4.45)
(4.46)

Vemos que yh1 [t] esta dominada por el modo natural 0, 9t , pues esta se
nal decae mas lentamente que el otro modo natural 0, 5t . Por su parte, yh2 [t] esta dominada por el modo natural 0, 7t , el que decae mas lentamente que el modo 0, 2t .
As diremos que el Sistema 1 tiene una frecuencia natural dominante igual
a 0, 9, con un modo natural dominante 0, 9t . A su vez, el Sistema 2 tiene una
frecuencia natural dominante igual a 0, 7, con un modo natural dominante 0, 7 t .
Al comparar ambos sistemas podemos concluir, en primera aproximacion, que
el Sistema 1 es mas lento que el Sistema 2, porque su modo dominante decae
mas lentamente.

4.3. LA RESPUESTA DEL SISTEMA

73

En general, si = ej , con 0 < 1, el modo natural tiene la forma:


t = t (cos(t) + j sen(t))

(4.47)

De esta ecuacion se observa que este modo decae mas rapidamente cuanto
mas peque
no es . As, los sistemas estables son mas rapidos cuanto mas cercanos
al origen del plano complejo estan sus frecuencias naturales dominantes.

4.3.6.

Respuesta a estado inicial y respuesta a entrada

Una forma alternativa de descomponer la respuesta de un sistema es considerar por separado la componente de la respuesta debida al estado inicial, y x [t],
y la componente de la respuesta debida a la entrada, yu [t], es decir:
y[t] = Thhxo , u[t]ii = Thhxo , 0ii + Thh0, u[t]ii
| {z } | {z }

(4.48)

yx [t] + an1 q 1 yx [t] + . . . + a0 q n yx [t] = 0

(4.49)

yx [t]

yu [t]

En consecuencia, yx [t] satisface:

sujeta a las condiciones iniciales definidas en un vector xo . Esto significa que yx [t] es una combinacion lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la soluci
on completa de la ERS).
A su vez, la respuesta a entrada, yu [t], es una solucion de la ERS con condiciones iniciales iguales a cero, es decir, satisface:
yu [t] + an1 q 1 yu [t] + . . . + a0 q n yu [t]
= bm u[t] + bm1 q 1 u[t] + . . . + b0 q m u[t]

(4.50)

sujeta a condiciones iniciales cero. Para poder cumplir la restriccion que


imponen estas condiciones, yu [t] debe contener, ademas de los modos forzados,
una combinacion lineal de modos naturales cuyas constantes son calculadas de
modo que se cumpla aquella restriccion.
La Tabla 4.1 muestra una comparacion de los modos presentes en las descomposiciones descritas de la respuesta de un sistema.

modos naturales
modos forzados

yh [t]

yp [t]

yx [t]

yu [t]

Cuadro 4.1: Presencia de modos en descomposiciones de la respuesta


Es ademas importante el notar que:


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

74

y[t] = yh [t] + yp [t] = yx [t] + yu [t]

(4.51)

No obstante, en general, yh [t] 6= yx [t] e yp [t] 6= yu [t].


Afianzaremos estas ideas a traves del ejemplo 4.4 en que se muestra la descomposicion en componente homogenea y particular, para un caso particular.
Ejemplo 4.7. Suponga que la ERS est
a dada por:
y[t] 0, 5y[t 1] = u[t 1]

(4.52)

y que la respuesta y[t] debe satisfacer la condici


on inicial y[1] = 1. Se desea
calcular la respuesta del sistema si u[t] = 1 para t 1.
yx [t]
La respuesta a estado inicial debe cumplir con:
yx [t] 0, 5yx [t 1] = 0

(4.53)

yx [t] = 0, 5(0, 5)t

(4.54)

y con yx [1] = 1. Esta ecuaci


on es satisfecha por yx [t] = C(0, 5)t , con C =
0, 5, es decir:

yu [t]
La respuesta a entrada, yu [t], es una soluci
on para (4.52) con u[t] = 1, y
sujeta a yu [1] = 0.
De esta forma, la soluci
on completa es
yu [t] = yuh [t] + yup [t]

(4.55)

donde yuh [t] es una soluci


on de la ecuaci
on homogenea, es decir yuh [t] = Cu (0, 5)t ,
4
e yup [t] es la soluci
on particular yup [t] = 2. Cu se calcula de modo de obtener
yu [1] = 0, lo cual conduce a Cu = 1.
Finalmente:
yx [t] = 0, 5(0, 5)t

(4.56)

yu [t] = (0, 5) + 2

(4.57)
t

y[t] = yx [t] + yu [t] = 1, 5(0, 5) + 2

(4.58)

Este resultado tambien puede ser obtenido directamente con el c


odigo:

Maple
>rsolve({y(n)=0.5*y(n-1)+1, y(-1)=-1},y(t));
4 Esta

soluci
on particular se puede calcular usando la ganancia al modo 1 t .

4.3. LA RESPUESTA DEL SISTEMA

75

De esta forma, podemos ahora completar la Tabla 4.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 4.2.
yh [t]
modos naturales
modos forzados

1, 5(0, 5)

yp [t]
t

yx [t]
0, 5(0, 5)

yu [t]
t

(0, 5)t
2

Cuadro 4.2: Presencia de modos en descomposiciones de la respuesta del ejemplo

222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
En la descomposicion componente homogenea componente particular se
observa la estructura de la respuesta. En efecto, en esa particion queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposicion respuesta a estado inicial respuesta a entrada se
separan los efectos de las dos causas de que el sistema tenga una respuesta:
las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean cero, los modos naturales
igual se encuentran presentes en la respuesta del sistema a traves de la respuesta
debida a la entrada, yu [t].
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria
corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo
desde el instante inicial. Por su parte la respuesta transiente es aquella parte de
la respuesta que se extingue con el tiempo.
En el ejemplo 3.6 en la pagina 47, la respuesta estacionaria esta dada por el
modo forzado constante, mientras que la respuesta transitoria esta formada por
los modos naturales (sinusoidales amortiguadas).
La separacion en componentes estacionaria y transitoria es transversal a
la idea de modos naturales y modos forzados. La respuesta estacionaria puede
existir incluso si la entrada es cero. En ese caso esta formada exclusivamente por
modos naturales. Por ejemplo, si un sistema tiene modos naturales sinusoidales
y la entrada es una exponencial decreciente, entonces la respuesta estacionaria
contendra los modos naturales sinusoidales y la respuesta transitoria incluira el
modo forzado por la exponencial.
Por otro lado, si el sistema tiene ganancia cero a un modo forzante, el correspondiente modo forzado no aparecera en la respuesta estacionaria.

respuesta
respuesta

transitoria
estacionaria


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

76
respuesta! a $\mu [t]$
respuesta! a escal
on

4.4.

Respuesta a se
nales de prueba

Una forma de estudiar, y comparar en forma estandarizada el comportamiento de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas se
nales de prueba se consideran usualmente: el escalon unitario, el impulso
unitario y la se
nal sinusoidal. En esta seccion nos concentraremos en las dos
primeras, pues la respuesta ante se
nales sinuosidales sera materia de estudio en
el Captulo 5).

4.4.1.

Respuesta a escal
on unitario

Considere la ecuacion (4.1) en la pagina 61. Entonces la respuesta, g[t], a un


escalon unitario y condiciones iniciales iguales a cero5 , se puede obtener
de la siguiente forma:
Paso 1 Determine la solucion general de la ecuacion:
go [t] + an1 q 1 go [t] + . . . + a0 q n go [t] = 1

(4.59)

Note que go [t] contiene una parte natural u homogenea (combinacion lineal
de modos naturales de la forma (4.31)) y una componente particular o
forzada. Cuando el sistema no tiene frequencias naturales en = 1, go [t]
tiene la forma:

go [t] = Ko +

p X
n`
X

C`i ti1 t`

`=1 i=1

t n

(4.60)

donde Ko es la ganancia del sistema con ERS (4.59) al modo constante


1t , es decir:
1
Ko = Pn

i=0

ai

con an = 1

(4.61)

En el caso general en que el sistema tiene una frequencia natural en = 1,


con multiplicidad p, go [t] tiene la forma:
go [t] = Kp tp1 +

p X
n`
X

C`i ti1 t`

`=1 i=1

t n

(4.62)

Hemos anotado que esta expresion para go [t] es valida t n ya que


satisface las condiciones iniciales.
Paso 2 Calcule la se
nales retardadas q ` go [t], para ` = 1, 2, . . ., n.
5 Elegimos,

por simplicidad, g[1] = g[2] = . . . = g[n] = 0


4.4. RESPUESTA A SENALES
DE PRUEBA

77

Paso 3 Calcule las constantes C`i usando la restriccion de las condiciones iniciales iguales a cero, es decir, usando el hecho que:
q ` go [t]|t=0 = 0

` = 0, 1, . . . , n 1

(4.63)

Paso 4 Usando las propiedades de linealidad e invarianza, obtenga g[t] de


acuerdo a:
g[t] = bm go [t] +

m
X
i=1

bmi q i go [t][t i ]

(4.64)

El procedimiento anterior es ilustrado con el siguiente ejemplo.


Ejemplo 4.8. Consideremos la ERS:
y[t] 0, 9q 1 y[t] + 0, 2q 2 y[t] = 2u[t] + q 1 u[t]

(4.65)

Entonces las frecuencias naturales son soluciones de 2 0, 9 + 0, 2 = 0, es


decir 1 = 0, 5 y 2 = 0, 4.
Luego, seguimos los pasos bosquejados previamente:
Paso 1 Calculamos la soluci
on general de:
go [t] 0, 9q 1 go [t] + 0, 2q 2 go [t] = 1

(4.66)

t
t
ermino
que resulta ser go [t] = 10
3 + C1 (0, 5) + C2 (0, 4) . Note que el t
corresponde a la ganancia a continua, es decir, al modo forzante 1t .

10
3

Paso 2 Para este ejemplo, ya que n = 2, se necesita calcular go [t1] y go [t2]:


10
10
+ C1 (0, 5)t1 + C2 (0, 4)t1 =
+ 2C1 (0, 5)t + 2, 5C2 (0, 4)t
3
3
(4.67)
10
10
go [t 2] =
+ C1 (0, 5)t2 + C2 (0, 4)t2 =
+ 4C1 (0, 5)t + 6, 25C2 (0, 4)t
3
3
(4.68)
go [t 1] =

Paso 3 Las constantes C1 y C2 se calculan a partir de las condiciones iniciales


(iguales a cero), es decir:
10
+ 2C1 + 2, 5C2
3
10
go [2] = 0 =
+ 4C1 + 6, 25C2
3
go [1] = 0 =

(4.69)
(4.70)


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

78
respuesta! a $\delta [t]$
respuesta! a impulso

de donde C1 = 5 y C2 = 38 . Lo cual conduce a:


go [t] =

10
8
5(0, 5)t + (0, 4)t
3
3

t 2

(4.71)

Este resultado se puede obtener a traves del siguiente c


odigo:

Maple
>ers:=go(n)-0.9*go(n-1)+0.2*go(n-2)-1;
>rsolve({ers,go(-1)=0,go(-2)=0},go(t));

Paso 4 La respuesta a escal


on unitario est
a entonces dada por:

g[t] = 2go [t] go [t 1][t 1]

(4.72)


16
10
8
20
10(0, 5)t + (0, 4)t +
5(0, 5)t1 + (0, 4)t1 [t 1] t 2
=
3
3
3
3
(4.73)


20
16
10
20
=
10(0, 5)t + (0, 4)t +
10(0, 5)t + (0, 4)t [t 1] t 2
3
3
3
3
(4.74)

Note que go [t 1][t 1] = go [t 1][t], ya que go [t 1][t]|t=0 = 0.


As tenemos que6

g[t] = 10 20(0, 5)t + 12(0, 4)t

t 0

(4.75)
222

4.4.2.

Respuesta a impulso unitario

Considere la ecuacion (4.1) en la pagina 61. Entonces la respuesta a un


impulso unitario, [t], y condiciones iniciales iguales a cero, se puede obtener a
partir de la respuesta a escalon unitario.Esta estrategia se basa en que el sistema
representado por la ERS (4.1) es lineal e invariante en el tiempo.
Recordemos que:
[t] = [t] [t 1]
Entonces, la respuesta h[t], a un impulso unitario esta dada por:
6 Note

que esta expresi


on no es v
alida para t = 1 y t = 2

(4.76)

4.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION

79
convoluci
on

h[t] = g[t] g[t 1][t 1]

t n

(4.77)

Como las condiciones iniciales son cero, g[t 1][t 1] = g[t 1][t], ya
que g[t 1][t]|t=0 = 0. As la respuesta a un impulso unitario con condiciones
iniciales iguales a cero esta dada por:
h[t] = g[t] g[t 1]

t 0

(4.78)

Aunque en algunos textos se propone calcular h[t] usando una estrategia


similar a la seguida para el calculo de la respuesta a escalon unitario, en general
desde el punto de vista meramente instrumental es mucho mas simple calcular
la respuesta a impulso usando la transformada Zeta, como se vera en el Captulo
8.
Ejemplo 4.9. Consideremos el mismo sistema descrito por (4.65), entonces
podemos calcular h[t] construyendo la primera diferencia de la respuesta a escal
on unitario en (4.72). As se obtiene:
h[t] = 10 20(0, 5)t + 12(0, 4)t 10 + 20(0, 5)t1 12(0, 4)t1
t

= 20(0, 5) 18(0, 4)

t 0

(4.79)
(4.80)

222
En una perspectiva general, podemos observar que dada la relacion entre la
respuesta a impulso y la respuesta a escalon, y considerando que esta u
ltima
contiene una combinacion lineal de los modos naturales del sistema y una constante, entonces h[t] contiene s
olo modos naturales. Conceptualmente, es
esta la caracterstica que confiere especial importancia a las respuestas a escalon
e impulso. En rigor, la respuesta a excitaciones mas complejas tambien contiene
una combinacion de modos naturales (a traves de la componente homogenea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente seccion una utilidad inmediata de estas consideraciones.

4.5.

C
alculo de la respuesta via convoluci
on

Supongamos que se conoce la respuesta a impulso, h[t], de un sistema lineal


e invariante en el tiempo, con condiciones iniciales iguales a cero, entonces, el
siguiente lema nos proporciona un resultado crucial en la teora de los sistemas
lineales de tiempo discreto.
Lema 4.4. Considere un sistema lineal e invariante en el tiempo. Sea adem
as
h[t] la respuesta de ese sistema a un impulso unitario en la entrada, con condiciones iniciales iguales a cero. Entonces, la respuesta y[t] del mismo sistema a


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

80
se~
nal causal

una excitaci
on causal7 arbitaria, u[t], con condiciones iniciales iguales a cero,
est
a dada por:
y[t] =

t
X
`=0

u[`]h(t `)

t 0

(4.81)

Demostraci
on
Recordemos que toda se
nal u[t] puede expresarse por:
u[t] =

X
`=0

u[`][t `]

(4.82)

Por otro lado, dada la invarianza del sistema tenemos que:


h[t `] = Thh0, [t `]ii

(4.83)

Luego, usando homogeneidad:


u[`]h[t `] = Thh0, u[`][t `]ii

(4.84)

Aplicando ahora superposici


on se llega a:

X
`=0

u[`]h[t `] = Thh0,

X
`=0

u[`][t `]ii

(4.85)

Finalmente, usando (4.82) y el hecho que h[t`] = 0 ` > t (por causalidad),


se obtiene:
y[t] = Thh0, u[t]ii =

t
X
`=0

u[`]h[t `]

t 0

(4.86)

222
En la ecuacion (4.86) y[t] se puede interpretar como una suma ponderada
(por u[`]) de respuestas a impulso h[t `].
Note que dado que u[t] y h[t] son causales, entonces, la ecuacion (4.81)
tambien se puede escribir como:
y[t] =

`=

u[`]h[t `] =

`=

u[t `]h[`]

t 0

(4.87)

Las sumas que aparecen en la ecuacion (4.87) son una expresion de la convoluci
on de dos funciones temporales. La definicion generica es:
f1 [t] f2 [t] =
7 Una

`=

f1 [`]f2 [t `] =

se
nal u[t] es causal si u[t] = 0 t < 0

`=

f1 [t `]f2 [`]

(4.88)

4.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION

81

Aparte de la propiedad de commutatividad que aparece en (4.88), la convolucion tiene la propiedad de distributividad, esto es:
f1 (f2 [t] + f3 [t]) = f1 [t] f2 [t] + f1 [t] f3 [t]

(4.89)

Otra propiedad fundamental de la convolucion esta dada por el siguiente


lema.
Lema 4.5. La convoluci
on de un se
nal con un impulso de Kronecker en el
origen, [t], es la se
nal misma, es decir:
u[t] [t to ] = u[t to ]

(4.90)

Demostraci
on

u[t][tto ] =

`=

u[`][tto `] =

`=

u[tto ][tto `] = u[tto ] (4.91)

Note que el u
ltimo paso de la demostraci
on se basa en que una funci
on de
tiempo discreto es un tren de impulsos de Kronecker cuya amplitud es el valor
instant
aneo de la se
nal.
222
El uso de convolucion para la determinacion de la respuesta de un sistema
lineal tiene importancia conceptual y numerica, sin embargo, no es, en general,
un procedimiento analticamente simple. Es interesante observar que el calculo
de la convolucion entre dos se
nales discretas se puede ilustrar de manera muy
simple: si consideramos dos tiras de papel, en una de las cuales se anotan los
valores de la primera se
nal y, en la otra los de la segunda, entonces la convolucion
se realiza invirtiendo una de las tiras y retrocediendola sobre la otra. Para cada
retroceso, la convolucion corresponde a multiplicar los valores coincidentes y
sumar los productos resultantes. Esto se muestra en el siguiente ejemplo.
Ejemplo 4.10. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h[t] = (0, 5)t [t]. Determine, usando convoluci
on la respuesta a la se
nal u[t] = [t] [t 3].
Soluci
on
La respuesta est
a dada por

y[t] = u[t] h[t] =

t
X

u[`]h[t `]
=

t
X

(0, 5)t` [t `]([`] [` 3])

La suma o acumulaci
on se puede segmentar en tres intervalos:

(4.92)

82
transformada de Fourier
transformada Zeta

CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

1
X

u[`]h[t `]d` = 0

`=

t
X
u[t] h[t] =
u[`]h[t `]d` = 2 (0, 5)t

`=0

u[`]h[t `]d` = 7(0, 5)t

`=0

t<0
0t<3

(4.93)

t3

Una resoluci
on compacta se puede desarrollar usando el hecho que la entrada
se puede expresar como la suma de tres impulsos unitarios, es decir:
u[t] = [t] [t 3] = [t] + [t 1] + [t 2]

(4.94)

De esta forma podemos calcular la respuesta usando la propiedad de distributividad de la convoluci


on, seguida por la aplicaci
on del Lema 4.5:

y[t] = h[t] u[t] = h(t) ([t] + [t 1] + [t 2])

= (0, 5)t [t] + (0, 5)t1 [t 1] + (0, 5)t2 [t 2]

(4.95)

222
Como se puede apreciar, el calculo mismo de la convolucion es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
es un nexo de conexion con el analisis en el dominio de las transformadas de
Fourier discreta y Zeta (Captulos 6 y 8, respectivamente).
La convolucion en tiempo discreto es ampliamente usada para construir la
respuesta de sistemas lineales, invariantes en el tiempo y causales, cuando se
conoce la respuesta a un impulso unitario. Esto se debe a la simplicidad de las
expresiones del Lema 4.4.
La respuesta de un sistema lineal e invariante en el tiempo se puede calcular
a partir de la respuesta a escalon, como se muestra en el el siguiente lema.
Lema 4.6. Sea un sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escal
on unitario de entrada, con condiciones iniciales iguales a cero, es g[t]. Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitaci
on u[t] est
a dada por:
y[t] = u[t] (g[t] g[t 1]) = g[t] (u[t] u[t 1])

(4.96)

Demostraci
on
Dado que [t] = [t] [t 1], entonces, por linealidad e invarianza, la
respuesta h[t], a un impulso unitario puede expresarse como:
h[t] = g[t] g[t 1]
Esto lleva inmediatamente al primer resultado, dado que:

(4.97)

4.5. CALCULO
DE LA RESPUESTA VIA CONVOLUCION

y[t] = u[t] h[t] = u[t] (g[t] g[t 1])

83

(4.98)

Para demostrar la segunda parte del resultado, notamos que la se


nal de entrada, u[t] puede expresarse como la suma de escalones incrementales, es decir:
u[t] =

`=

(u[`] u[` 1])[t `]

(4.99)

Luego, usando la linealidad y la invarianza vemos que:


y[t] = Thh0, u[t]ii =

`=

(u[`] u[` 1])g[t `]

(4.100)

Y, finalmente, reconocemos en la sumatoria la forma de la convoluci


on, es
decir:

`=

(u[`] u[` 1])g[t `] = g[t] (u[t] u[t 1])

(4.101)
222


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

84

4.6.

Problemas para el lector

Problema 4.1. Resuelva las siguientes ecuaciones de recursi


on con las condiciones iniciales que se indican:
y[t] 0, 2y[t 2] = 0
y[t] 0, 6y[t 1] + 0, 09y[t 2] = 0

y[t + 1] 1, 3y[t] + 0, 4y[t 1] = 0


y[t] 4y[t 1] + 9y[t 2] = 0
y[t] y[t 10] = 0

y[1] = 1;
y[1] = 2;

y[2] = 1
y[1] = 1

(4.102)
(4.103)

y[0] = 0; y[5] = 0
(4.104)
y[1] = 0; y[2] = 1
(4.105)
y[1] = 1; y[i] = 0 i > 1
(4.106)

Verifique con Maple .


Problema 4.2. Calcule la respuesta a escal
on unitario, con condiciones iguales
a cero para cada una de las ERS:
y[t] 0, 2y[t 2] = u[t]

(4.107)

y[t] 2y[t 1] + y[t 2] = u[t]

(4.110)

y[t] 0, 6y[t 1] + 0, 09y[t 2] = u[t 1] u[t 2]


y[t] 1, 3y[t 1] + 0, 4y[t 2] = 0, 2u[t 10]

(4.108)
(4.109)

Verifique con Maple .


Problema 4.3. Considere la se
nal:
f [t] = 2(0, 6)t 2(0, 2)t

(4.111)

4.3.1 Proponga una ERS de modo que f [t] corresponda (t 0) a la respuesta


del sistema a impulso con condiciones iniciales iguales a cero.
4.3.2 Proponga una ecuaci
on de recursi
on homog
enea, de modo que f [t]
corresponda a la respuesta a estado inicial. Especifique ese estado inicial.
Problema 4.4. La respuesta de un sistema lineal e invariante en el tiempo a
un escal
on unitario y condiciones inciales iguales a cero est
a dada por:
g[t] = (1 (0, 5)t + t(0, 5)t )[t]
4.4.1 Determine la ERS.
4.4.2 Calcule la respuesta del mismo sistema a un impulso unitario.

(4.112)

4.6. PROBLEMAS PARA EL LECTOR

85

Problema 4.5. Determine los modos asociados a las siguientes conjuntos de


frecuencias naturales:
Sistema 1
Sistema 2
Sistema 3

1 = 0, 2
1 = 0, 3
1 = 1

2 = 0, 2
2 = 0, 3
2 = 0, 1 + j0, 2

3 = 0, 2
3 = 2
3 = 0, 1 j0, 2

Problema 4.6. La respuesta de un sistema lineal e invariante en el tiempo


a un delta de Kronecker es h[t] = (0, 7)t [t]. Usando convoluci
on calcule la
respuesta del sistema a una entrada u[t] = (0, 3)t [t].
Problema 4.7. La ecuaci
on caracterstica de un sistema est
a dada por:
2 + a + b = 0

(4.113)

4.7.1 Suponga que b = 0, 8; determine el rango de valores de a que hacen estable


al sistema.
4.7.2 Dentro de ese rango determine el valor de a de modo que el sistema sea
lo m
as r
apido posible.
4.7.3 Suponga ahora que b = 1, 2, repita 4.7.1.
Problema 4.8. Suponga que la respuesta de un sistema lineal a un escal
on
unitario con condiciones iniciales iguales a cero es una se
nal g[t], que se muestra
en la Figura 4.3.
4.8.1 Es el sistema estable ?
4.8.2 Estime los modos naturales del sistema
4.8.3 Estime la ganancia al modo forzante constante

g[k]

1.5

0.5

0
1

4
5
Tiempo [s]

Figura 4.3: Respuesta a escalon unitario

10


CAPITULO 4. ANALISIS
EN TIEMPO DISCRETO

86

Problema 4.9. Se contrae una deuda hipotecaria de 1000 [UF] a un interes


mensual de 0, 7 %. Si el plazo de la deuda es de 120 meses Cu
al debiera ser el
dividendo mensual, constante, en UF?
Problema 4.10 (Problema-desafo). En la red de la Figura 4.4 todas las
resistencias son iguales a R. Considere como variable independiente, no al tiempo discreto sino que al n
umero de orden de la malla. Construya una ecuaci
on
de recursi
on en las corrientes de mallas y especifique las condiciones (inicial y
final).
+
E

i0

i1

in2

Figura 4.4: Red resistiva.

in1

in

Fourier
serie de Fourier|textbf
sistema! no lineal

Captulo 5

An
alisis bajo excitaciones
peri
odicas
5.1.

Se
nales Peri
odicas

En este captulo se analiza el caso de sistemas lineales sujetos a excitaciones


periodicas en el tiempo. Las se
nales periodicas aparecen en muchas areas de la
Ingeniera y en fenomenos naturales. Sin embargo, estas se
nales, en general, no
se presentan como oscilaciones puras de una frecuencia especfica que se puedan
describir exactamente por una sinusoide del tipo sen(t), sino que como se
nales
mas arbitrarias, tales como se
nales triangulares, se
nales tipo dientes de sierra, trenes de pulsos o sinusoidales rectificadas, entre otras, cuya caracterstica
fundamental es su periodicidad en el tiempo.
Es mas, en algunas oportunidades se
nales periodicas no sinusoidales resultan
de efectos parasitos indeseables, de naturaleza no lineal, en sistemas reales. Por
ejemplo, considere el caso de un sistema amplificador con entrada u(t) y salida
y(t), cuya relacion entrada-salida es:
y(t) = Au(t) +  (u(t))

(5.1)

donde  es mucho menor que la amplificacion A. Entonces, si la entrada es


una se
nal de una frecuencia especfica u(t) = U cos(t), entonces la salida y(t)
esta dada por:
y(t) = AU cos(t) +  U 2 (0, 5 + 0, 5 cos(2t))

(5.2)

De esta forma, podemos apreciar que la salida del sistema contiene tres
sinusoides de distinta frecuencia (0, y 2 [rad/s]), que deben ser consideradas
cuando esta se
nal act
ua como entrada de otro sistema.
Otros casos en que aparecen se
nales periodicas no sinusoidales incluyen el
corte de se
nales sinusoidales (cuando la amplitud de una sinusoide excede cierto
87

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

88
serie de Fourier
ganancia! a modo forzante
sinusoidal
amplitud
\angulo! de desfase
fase
per
odo
frecuencia! angular
frecuencia

nivel prescrito), la rectificacion de se


nales sinusoidales, la intrevencion de zonas
muertas, histeresis, etc.
La idea fundamental en este captulo sera representar una funcion periodica
como combinacion lineal de sinusoides de ciertas frecuencias, como es el caso de
la serie de Fourier, el analisis de los sistemas lineales se hace mas facil, dado que
podemos usar las propiedades de superposicion y homogeneidad. El concepto
clave subyacente a utilizar es el de ganancia a modo forzante, desarrollado
en el Captulo 3, para sistemas de tiempo continuo, y en el Captulo 4, para
sistemas de tiempo discreto.

5.2.

Respuesta a entrada sinusoidal. El caso de


tiempo continuo

Hasta el momento hemos visto la respuesta de sistemas lineales a diferentes


tipos de entradas (modos forzantes), incluyendo el caso de exponenciales de exponente imaginario (las que combinadas dan origen a sinuosoides reales). En esta
seccion nos detendremos en la caracterstica de ganancia que exhibe un sistema
lineal cuando la excitacion es una sinuoside. Con ese proposito consideremos un
sistema lineal estable modelado por su EDS:
d n y(t)
d n1 y(t)
d n1 u(t)
+
a
+
.
.
.
+
a
y(t)
=
b
+ . . . + b0 u(t) (5.3)
n1
0
n1
dt n
dt n1
dt n1
donde la entrada del sistema es una se
nal sinusoidal que puede escribirse de la
forma general:
u(t) = A cos(t + )

(5.4)

en que (vea Captulo 2):


A es la amplitud, cuyas unidades dependen del sistema en cuestion,
es el a
ngulo de desfase (o simplemente fase), medido en [rad], y
es la frecuencia angular, medida en [rad/seg]. Esta, a su vez, determina la

[Hz] y el perodo T = f1 = 2
frecuencia f = 2
[seg] de la sinusoide.
Aplicando la formula de Euler se tiene que:
ej(t+) + ej(t+)
= ejt + ejt
2
donde C, es el complejo conjugado de y
A cos(t + ) = A

(5.5)

A j
e
(5.6)
2
Por otra parte sabemos que si K() C es la ganancia al modo forzante
ejt , entonces, por linealidad:
=

5.2. RESPUESTA A ENTRADA SINUSOIDAL. EL CASO DE TIEMPO CONTINUO89


sistema! estable
modos naturales

Thhxo , A cos(t + )ii = K()ejt + (K()) ejt + {modos naturales}


(5.7)
Donde K() es la ganancia a modo forzante y dada por (3.24), con i = j.
Si expresamos K() en su forma polar se llega a:

As, se obtiene:

K() = |K()|eja ()

(5.8)

Thhxo , A cos(t + )ii = |K()|A cos(t + + a ()) + {modos naturales} (5.9)


Como el sistema es estable, los modos naturales decaen a cero cuando t ,
as, la respuesta estacionaria contiene solo la componente particular, es decir,
contiene solo los modos forzados y tiene la forma:
y(t) = As () cos(t + s ())

(5.10)

Esta forma puede ser directamente calculada reemplazando (5.10) en la EDS.

Cuando el modo forzante es una exponencial de la forma ejt , o una sinusoidal cos(t), la ganancia a modo forzante, K(), caracteriza lo que se
denomina respuesta en frecuencia del sistema.
El desarrollo precedente es ilustrado a traves de un ejemplo.
Ejemplo 5.1. Consideremos el sistema definido por su ecuaci
on diferencial:
d 2 y(t)
d y(t)
+4
+ 13y(t) = 26u(t)
dt 2
dt
Supongamos que la entrada es u(t) = sen(t) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en 1,2 = 2 j3. Con esto sabemos entonces que la
soluci
on homogenea tiene la forma:
yh (t) = e2t [B1 cos(3t) + B2 sen(3t)]

(5.11)

Para obtener la soluci


on particular reemplazamos la soluci
on propuesta:
yp (t) = As () sen(t + s ())

(5.12)

que es equivalente a una expresi


on de la forma
yp (t) = C1 () cos(t) + C2 () sen(t)

(5.13)

90
respuesta en frecuencia

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

Los coeficientes C1 () y C2 () se obtienen reemplazando la soluci


on particular propuesta y la funci
on de entrada en la ecuaci
on diferencial original y
derivando:
C1 () 2 cos(t) C2 () 2 sen(t) + 4C2 () cos(t) 4C1 () sen(t)
+ 13C1 () cos(t) + 13C2 () sen(t) = 26 sen(t) (5.14)
De aqu, igualando los coeficientes de cos(t) y de sen(t) a ambos lados,
pueden obtenerse los coeficientes C1 y C2 :
104
(13 2 )2 + (4)2
26(13 2 )
C2 () =
(13 2 )2 + (4)2

C1 () =

(5.15)
(5.16)

Si se supone = 10[rad/s] y se combinan la soluci


on homogenea y la particular, pueden obtenerse los coeficientes por determinar de la soluci
on homogenea
B1 y B2 . La soluci
on final es:
y(t) = yh (t) + yp (t) = e2t [0,113 cos(3t) + 0,899 sen(3t)]
0,113 cos(10t) 0,247 sen(10t)

(5.17)

Esta
se muestra en la Figura 5.1, donde se aprecia claramente la presencia de una parte de la respuesta que es transiente, m
as lenta, que desaparece
manteniendose s
olo una oscilaci
on sostenida de 10[rad/seg], pero de diferente
amplitud y fase que las de la se
nal original. Estos valores de As y s , que dependen de la frecuencia , son en este caso:
p
As (10) = C1 (10)2 + C2 (10)2
s (10) = (C2 (10) + jC1 (10))

= 0,272
= 2, 7106 [rad]

155, 31

(5.18)
(5.19)

Una manera m
as directa para obtener una descripci
on generica de los resultados anteriores sera calcular la respuesta en frecuencia K(), la que, en este
caso particular, est
a dada por:
K() = |K()|eja () =

26
(j)2 + 4j + 13

(5.20)

La magnitud y fase de esta respuesta en frecuencia aparecen en la Figura


5.2. En esta figura los valores de magnitud y fase de K(10) se pueden calcular
usando el comando de Matlab ginput, el resultado es |K(10)| = 0, 2734 y
a (10) = 2, 7188 [rad] (note que, en este ejemplo, A = 1).
222

5.2. RESPUESTA A ENTRADA SINUSOIDAL. EL CASO DE TIEMPO CONTINUO91


1
0.5
0
0.5
1

2.5

0.5
1

1.5

a()

|K()|

Figura 5.1: Se
nales de entrada y salida en el Ejemplo 5.1

1.5

0.5
0

2.5
0

10
15
Frecuencia [rad/s]

20

10
15
Frecuencia [rad/s]

20

Figura 5.2: Respuesta en frecuencia de un sistema de segundo orden de tiempo


continuo

Es necesario tener presente que en ciertos sistemas, a pesar de tener todas


sus frecuencias naturales en el interior de la zona de estabilidad, la respuesta a sinusoides de baja amplitud, incluye componentes sinuosidales de altsima
amplitud. Esto sucede en situaciones en que el sistema es excitado con una sinusoide de frecuencia muy cercana a una frecuencia natural proxima al lmite de
estabilidad (el eje imaginario). En este caso, dependiendo del amortiguamiento del sistema, la salida puede alcanzar el estado estacionario solo despues de
mucho tiempo, y aunque analticamente la oscilacion en la salida permanece
acotada, puede alcanzar magnitudes insostenibles para el sistema real 1 . Para
esto recomendamos al lector analizar en detalle el Problema 5.4.
Ejemplo 5.2. El fen
omeno de respuestas inusualmente altas se origina en sistemas que exhiben altas ganancias a un modo forzante de la forma ejt . Considere, por ejemplo, el sistema con EDS:
d 2 y(t)
d y(t)
+ 0, 01
+ 4y(t) = 4y(t)
dt 2
dt

(5.21)

1 Un caso tradicionalmente analizado en la f


sica de las oscilaciones es el colapso del Puente
Tacoma en EE.UU.

92
resonancia

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

En este ejemplo, que corresponde a un sistema estable, la ganancia a continua es igual a 1, sin embargo la ganancia a modo forzante ej2t est
a dada por:
K() =

4
= j200
(j2)2 + 0, 01 (j2) + 4

(5.22)

Esto significa que una excitaci


on sinuosidal de amplitud unitaria y frecuencia
2 [rad/s] genera una respuesta forzada de amplitud igual a 200. En casos
como este, se dice que, para esta excitaci
on, el sistema entra en resonancia.
La idea de resonancia en un sistema se refiere a la facilidad con que ese
sistema responde a determinadas frecuencias. Por ejemplo, todos conocemos la
facilidad con que se amplifica la oscilaci
on de un columpio cuando se lo empuja
con la frecuencia adecuada.
En terminos de la respuesta en frecuencia, el fen
omeno descrito se refleja
en que la funci
on |K()| tiene uno o m
as picos muy pronunciados.
222
Finalmente, cuando las frecuencias naturales del sistema se encuentran fuera
de la zona de estabilidad, la componente natural de la respuesta es no acotada.
Sin embargo, la componente forzada sigue siendo una oscilacion de la misma
frecuencia que la sinusoide en la entrada. Para apreciar esto se recomienda al
lector analizar el Problema 5.5.

5.3.

Series de Fourier para se


nales de tiempo
continuo

La idea central tras las series de Fourier, sean ellas de tiempo continuo o de
tiempo discreto, es la representacion de una funcion periodica usando una base
ortogonal de funciones.
La idea de ortogonalidad adquiere su sentido mas basico considerando con el
sistema cartesiano de coordenadas en R2 o R2 . Sin embargo, la diferencia basica
en el caso de las series de Fourier es que la dimension de la base es infinita,
hecho usual en espacios de funciones [12].
Antes de analizar de lleno la representacion de funciones periodicas en forma de una serie de Fourier, sugerimos al lector revisar el Apendice B para
familiarizarse con la notacion y el vocabulario empleado de aqu en adelante.

5.3.1.

Serie de Fourier trigonom


etrica

Consideremos el espacio vectorial de todas las funciones seccionalmente continuas en un intervalo2 [ T2 , T2 ], y en el, el conjunto de vectores (funciones):
B = { 1 , cos(n0 t) , sen(n0 t) }n=1,2,...

0 =

2
T

(5.23)

2 En t
erminos generales el intervalo a considerar es [to , to + T ]. Por simplicidad hemos
escogido to = T /2


5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO 93
El conjunto definido en (5.23) resulta ser analogo al conjunto de funciones
considerados en el Lema B.1 en la pagina 346, dado que son linealmente independientes , pues ninguna de las sinusoides (o la constante) del conjunto
puede describirse como una combinacion lineal de las demas. Ademas definimos
el producto interno en este espacio de funciones como la integral:
hf (t), g(t)i =

T
2

f (t) g(t)dt

T2

f (t), g(t) B

(5.24)

Entonces el conjunto (5.23) resulta ser ortogonal , es decir, si tomamos dos


elementos ym (t) e yn (t) pertenecientes al conjunto B definido en (5.23):
(
Z T2
0
; n 6= m
yn (t)ym (t)dt =
hyn (t), ym (t)i =
(5.25)
> 0 ;n = m
T2
En este caso la conjugacion involucrada en el producto interno no afecta a
las funciones del conjunto B, pues estas son todas reales.
Con esto podemos afirmar que una funci
on y(t) seccionalmente continua
on
definida en el intervalo [ T2 , T2 ], puede representarse como una combinaci
lineal de elementos de la base B, definida en (5.23), que en este caso tiene
dimension infinita. Es decir, para y(t) tenemos una representacion en serie de
Fourier de la forma:

y(t) = A0 +

[An cos(n0 t) + Bn sen(n0 t)]

n=1

; 0 =

2
T

(5.26)

En que cada uno de los coeficientes A0 , An , Bn se puede obtener como indica


el Lema B.1. Por esto invitamos al lector en este punto a resolver el Problema
5.6, con lo que ademas podra comprobar que las expresiones para los coeficientes
de Fourier son:
1
A0 =
T
2
An =
T
Bn =

2
T

Z
Z
Z

T
2

y(t)dt
T2
T
2

T2

y(t) cos(n0 t)dt

(5.27)

T
2

T2

y(t) sen(n0 t)dt

Nos interesa la representacion en serie de Fourier conceptualmente y como


una herramienta para describir las funciones periodicas como una combinacion
lineal de constantes, cosenos y senos, cuyas frecuencias son m
ultiplos enteros
de la frecuencia fundamental 0 determinada por su perodo T . La representacion (5.26) puede reescribirse alternativamente en la forma:

independencia
lineal
ortogonalidad
Serie de Fourier
frecuencia fundamental

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

94
espectro! en frecuencia
arm
onicas
desfase
a
ngulo! de
desfase
espectro! de l
nea

y(t) = A0 +

n=1

en que:

Cn cos(n0 t n )

(5.28)

p
A2n + Bn2


Bn
n = arctg
An

Cn =

(5.29)
(5.30)

En esta forma es mas directo apreciar el contenido o espectro en frecuencia de la se


nal y(t) a traves de la amplitud de cada una de las sinusoides
de frecuencia n = n0 , que llamaremos n-
esima arm
onica. Ademas, esta
representacion permite apreciar el angulo de desfase n entre las diferentes
armonicas.
Si dibujamos en un grafico las magnitudes de Cn en funcion de n, obtenemos
lo que se conoce como un espectro de lnea. Este grafico permite observar las
participaciones relativas de la armonicas en la composicion de la se
nal.
Note que el calculo directo de los coeficientes Cn es mas complicado que el
de los coeficientes An y Bn , ya que las sinusoides de la forma cos(n0 t n ) no
son ortogonales entre s.
Para ilustrar el calculo de los coeficientes de Fourier se presentan a continuacion algunos ejemplos. En primer lugar, desarrollamos un ejemplo calculando
analticamente los coeficientes de la serie, para luego ilustrar el uso del soporte
computacional.
Ejemplo 5.3. Considere una onda cuadrada de amplitud 2 y perodo igual a 4
[s], tal como se ilustra en la Figura 5.3.
2

Seal y(t)

1
0
1
2
6

0
Tiempo [s]

Figura 5.3: Se
nal cuadrada
La frecuencia fundamental es o = 2/T = /2 y los coeficientes de la serie
se pueden calcular como se indica


5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO 95
serie de Fourier! senoidal

A0 =

1
T

T
2

y(t) dt = 0

(5.31)

T2

Este resultado era previsible dada la simetra de a


reas sobre y bajo el eje de
abscisas.

2
An =
T

T
2

T2

y(t) cos(no t) dt
=

1
2

2 cos(0, 5nt) dt +
2

1
2

2 cos(0, 5nt) dt = 0

(5.32)

La ausencia de componentes cosenoidales es tambien previsible, dado que la


se
nal y(t) es una funci
on impar del tiempo. La funci
on quedara representada
entonces como una serie senoidal de Fourier, en que:

2
T

Bn =

=2

T
2

T2

2
0

y(t) sen(no t) dt =

1
2

2 sen(0, 5nt) dt+


2

1
2

2 sen(0, 5nt) dt
0

t

4
4

(1 cos(n))
sen(0, 5nt) dt = cos(0, 5nt) =

n
n

(5.33)

De esta manera resulta:

Bn =

8
n

n impar
n par

(5.34)

La participaci
on de las arm
onicas puede ser visualmente apreciada en la
Figura 5.4.

Amplitud de las armnicas

3
2.5
2
1.5
1
0.5
0

4
6
8
Frecuencia angular, en mltiplos de o

10

Figura 5.4: Espectro de lnea de una se


nal cuadrada.

12

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

96
a
ngulo! de disparo

222
El ejemplo precedente sugiere que el calculo manual de los coeficientes se
puede complicar notablemente para se
nales de mayor complejidad. Este proceso
puede ser enormemente facilitado usando, por ejemplo, Maple .
Ejemplo 5.4. Uno de los procesos en que se generan se
nales peri
odicas no
sinusoidales es en la rectificaci
on. En realidad, para circuitos de potencia en
el control de motores, por ejemplo, en vez de diodos se utilizan tiristores, que

no son m
as que diodos en que el instante de conducci
on es controlado. Estos
permiten recortar la se
nal rectificada, como se aprecia en la Figura 5.5 en que
los tiristores se disparan pasado un tercio del perodo de la se
nal rectificada. En
este caso se dice que el a
ngulo de disparo es = 3 .

1
0.8
0.6
0.4
0.2
0

0.005

0.01

0.015
Time [s]

0.02

0.025

0.03

Figura 5.5: Se
nal a la salida de rectificador controlado por tristores

Claramente el rectificador de onda completa es un caso particular de este


rectificador controlado, cuando el a
ngulo de disparo es = 0.
Con ayuda de Maple los coeficientes se pueden obtener f
acilmente, ahorr
andonos
buena parte del trabajo algebraico. En las lneas siguientes se muestran los comandos necesarios, entre los cuales se debe indicar explcitamente que 0 < <
y que n es un n
umero entero. Se ha considerado, por simplicidad, que la frecuencia original es 1[Hz] y la amplitud original es 1[V].

Maple
>
>
>
>
>
>

assume(0<alpha,alpha<1):
y(t):=(Heaviside(t-alpha)-Heaviside(t-Pi))*sin(t):
A_0:=1/Pi*int(y(t),t=0..Pi);
assume(n,integer):
A(n):=2/Pi*int(y(t)*cos(2*n*t),t=0..Pi);
B(n):=2/Pi*int(y(t)*sin(2*n*t),t=0..Pi);


5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO 97
serie de Fourier! cosenoidal

1 + cos()

2
1 + 2 cos() (cos( n)) cos() + 4 n sen() sen( n) cos( n)
An = 2
(1 + 2 n) (1 + 2 n)
A0 =

Bn = 4

cos() sen( n) cos( n) + 2 n sen() (cos( n)) n sen()


(1 + 2 n) (1 + 2 n)
222

Ejemplo 5.5. Consideremos la funci


on peri
odica y(t), definida por tramos:

; 2 < t 0
1 + t
y(t) = 1 t
(5.35)
;0 < t 2

y(t + 4) ; en todo otro caso


En Maple se puede definir y convertir de inmediato para que quede escrita
en terminos de escalones (funci
on de Heaviside):

Maple
> y(t):=convert(piecewise(t<-2,-t-3,t<0,t+1,t<2,-t+1,t-3),Heaviside);

y(t) = 3 t 4 Heaviside(t 2) + 2 tHeaviside(t 2) + 4 Heaviside(t + 2)


+ 2 tHeaviside(t + 2) 2 tHeaviside(t)

Si se calculan los coeficientes seg


un las expresiones (5.27), tenemos que el
valor medio A0 es cero y, como es par, los coeficientes Bn son todos iguales a
cero. Los coeficientes de los terminos cosenos se calculan mediante:

Maple
> A(n):=1/2*int(y(t)*cos(n*Pi/2*t),t=-2..2);

Por tanto y(t) queda expresada en una serie cosenoidal de Fourier, de la


forma:
ys (t) =

n=1

(1 (1) )

2
n

2

cos

 n 
t
2

(5.36)

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

98

on de la funci
on y(t) por
En la Figura 5.6, podemos apreciar la aproximaci
las primeras dos arm
onicas no nulas (n = 1, 3). En esta, se observa que las
dos primeras arm
onicas (con presencia no nula en la serie) describen bastante
bien la se
nal original. Ello puede ser entendido al calcular las amplitudes de las
primeras diez componentes de la serie. Ellas aparecen en el espectro de lneas
de la Figura 5.7, donde se aprecia claramente que la amplitud de las arm
onicas
superiores a la tercera es despreciable.

Seal y aproximacin

1
0.5
0
0.5
1
6

0
Tiempo [s]

Figura 5.6: Aproximacion de la se


nal triangular con la primera y tercera
armonica

1
Amplitud de las armnicas

error

0.8
0.6
0.4
0.2
0

3
4
5
6
Frecuencia angular, en mltiplos de o

Figura 5.7: Espectro de lnea de una se


nal triangular
Finalment, en el gr
afico de la Figura 5.8 (a) muestra el error que se comete
al representar la funci
on por su serie truncada, en este caso hasta n = 3.
Podemos estudiar la fidelidad de la representacion en serie de Fourier de una
se
nal analizando lo que pasa con el error eN (t) = y(t) yN (t) que se comete
al representar una funcion y(t) por una combinacion lineal finita o suma parcial
de las funciones de la base (5.23), hasta el termino N -esimo yN (t). Respecto a
este error eN (t) tenemos el siguiente lema.
Lema 5.1. La representaci
on yN (t) es ortogonal al error eN (t), para todo N ,
es decir:


5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO 99
0.1

0.05

2
t

y(t)

eN (t)

yN (t)

0.05

0.1

(a) Error e3 (t) = y(t) y3 (t) .

(b) Interpretaci
on geom
etrica del error

Figura 5.8:

heN (t), yN (t)i = 0

; N

(5.37)

Demostraci
on
Si escribimos la suma parcial como:
yN (t) =

N
X

k fk (t)

(5.38)

k=1

en que los fk (t) son vectores de la base B, el producto (5.37) puede escribirse y
desarrollarse como:
heN (t), yN (t)i = hy(t) yN (t), yN (t)i = hy(t), yN (t)i hyN (t), yN (t)i (5.39)
+
+ *N
*
N
N
X
X
X
j fj (t)
(5.40)
k fk (t)
k fk (t),
= y(t),
k=1

N
X

k=1

j=1

k=1

k hy(t), fk (t)i

N
X

k=1

fk (t),

N
X

j fj (t)

j=1

(5.41)

Los vectores fk (t) son ortogonales, por tanto:


heN (t), yN (t)i =

N
X

k=1

k hy(t), fk (t)i

N
X

k=1

k2 hfk (t), fk (t)i

(5.42)

Los coeficientes k , en tanto, se calculan de la forma:


k =

hy(t), fk (t)i
hfk (t), fk (t)i

(5.43)

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

100

Por lo tanto:

heN (t), yN (t)i =

N
N
X
X
hy(t), fk (t)i
hy(t), fk (t)i2
hy(t), fk (t)i
hfk (t), fk (t)i
hfk (t), fk (t)i
hfk (t), fk (t)i2

k=1

k=1

N
X

k=1

X hy(t), fk (t)i2
hy(t), fk (t)i

=0
hfk (t), fk (t)i
hfk (t), fk (t)i
2

(5.44)

k=1

222
Este resultado permite apreciar que yN (t), con los coeficientes calculados
seg
un (5.27), es la combinacion lineal que mejor representa a y(t) (en el
sentido de la norma cuadratica), ya que, dada su ortogonalidad con el vector
de error eN (t), minimiza la distancia entre y(t) y el conjunto de funciones que
se generan por combinacion lineal de los N elementos de la base. La Figura 5.8
(b) ilustra geometricamente la idea de ortogonalidad entre el error eN (t) y la
representacion truncada yN (t).
Finalmente, es importante hacer notar que la representacion obtenida en
(5.26), con los coeficientes explicitados en (5.27), representa a la funcion y(t),
dentro del intervalo [ T2 , T2 ] sea
esta peri
odica o no. En este u
ltimo caso la
representacion se debe entender valida solo dentro del intervalo en que se ha
calculado. Sin embargo, dado que dentro del intervalo de longitud T todas las
sinusoides del conjunto B completan un n
umero entero de perodos, la periodicidad de los elementos de B se extiende a la representacion de y(t), es decir,
se repite en todo intervalo de la forma [kT T2 , kT + T2 ] con k Z. Ademas
por simple traslacion del intervalo en que trabajamos, es decir, corriendo del eje
temporal, el calculo de los coeficientes y la representacion pueden tomarse en
cualquier intervalo arbitrario [to , to + T ]. En todo caso, el lector debe advertir
que si la se
nal bajo analisis no es periodica, la representacion sera distinta para
distintas elecciones de to .

5.3.2.

Serie de Fourier exponencial

Si consideramos la representacion en serie de Fourier obtenida para una


funcion seccionalmente continua y(t) obtenida en (5.26), podemos reescribirla
utilizando las expresiones para sen(t) y cos(t) en terminos de exponenciales
complejas:

y(t) = A0 +

[An cos(n0 t) + Bn sen(n0 t)]

n=1

= A0 e

j00 t


X

n=1

ejn0 t ejn0 t
ejn0 t + ejn0 t
+ Bn
An
2
2j

que puede reagruparse como:

(5.45)


5.3. SERIES DE FOURIER PARA SENALES
DE TIEMPO CONTINUO101
serie de Fourier!exponencial

y(t) = A0 e

j00 t


X
An jBn

n=1

jn0 t

An + jBn jn0 t
+
e
2

(5.46)

Es decir, podemos reescribir una serie de Fourier trigonometrica como una


serie de Fourier exponencial de la forma:
y(t) =

Cn ejn0 t

(5.47)

n=

Una expresion para los coeficientes Cn se puede obtener a partir de los


coeficientes de la serie trigonometrica y la ecuacion de Euler. Por ejemplo, para
n > 0:
#
" Z T
Z T2
2
2
1 2
An jBn
y(t) cos(n0 t)dt j
y(t) sen(n0 t)dt
=
Cn =
2
2 T T2
T T2
Z T2
1
y(t)(cos(n0 t) j sen(n0 t))dt (5.48)
=
T T2
Por tanto, tenemos la expresion:
Cn =

1
T

T
2

y(t)ejn0 t dt

(5.49)

T2

Se deja al lector verificar que esta expresion tambien es valida para el resto
de los coeficientes Cn , cuando n 0. Si se presta atencion a la forma de los coeficientes en la ecuacion (5.46), puede apreciarse que aparecen en pares complejos
conjugados, es decir, n > 0:
An jBn
= |Cn |ejn
2
An + jBn
=
= |Cn |ejn
2

Cn =
Cn

(5.50)
(5.51)

tal como tambien puede demostrarse a partir de la expresion general (5.49)


para los coeficientes de la serie compleja. Es decir, tenemos un nuevo conjunto
de funciones, complejas en este caso, de la forma:
2
(5.52)
T
que constituye una base para el espacio de funciones seccionalmente continuas
en el intervalo [ T2 , T2 ]. Se deja al lector verificar que este conjunto tambien es
ortogonal bajo el producto interno antes definido, pero en que ahora la conjugacion s afecta a las funciones involucradas:
{ejn0 t }nZ

; 0 =

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

102
Parseval
Parseval

hfn (t), fm (t)i =

T
2

T2

fn (t) fm (t)dt =

T
2

ejn0 t ejm0 t dt

(5.53)

T2

Que debe cumplir:


hfn (t), fm (t)i =

0
; n 6= m
>0 ;n=m

(5.54)

Es importante hacer notar que en la manipulacion que se ha hecho en la


serie de Fourier trigonometrica para llegar a la serie exponencial, han aparecido
valores para n negativos y positivos. Esto en realidad debe interpretarse nada
mas como lo que se ha mencionado: un producto de la manipulacioon algebraica
que permite obtener la representacion en serie (5.47) mas compacta y facil de
manipular. Si se desea obtener la amplitud de la n-esima armonica de la serie
deben considerarse ambos terminos de la serie n y n, es decir, usando las
ecuaciones (5.50) y (5.51):
Cn ejn0 t + Cn ejn0 t = |Cn |ejn ejn0 t + |Cn |ejn ejn0 t

= |Cn | ej(n0 tn ) + |Cn | ej(n0 tn )

= 2|Cn | cos(n0 t n )

5.3.3.

Parseval y la energa de las se


nales peri
odicas

Existe un conjunto de resultados, deducidos por Parseval, que relacionan


directamente caractersticas de la se
nal periodica con los coeficientes de su Serie
de Fourier. En realidad, los resultados de Parseval se aplican a la expansion en
cualquier base ortogonal. Los detalles matematicos pueden ser examinados en
el Apendice B.
Supongamos que una se
nal y(t) periodica se expresa como serie en los elementos, f` (t), de una base ortogonal en el intervalo (T /2, T /2). Entonces:
y(t) =

` f` (t)

(5.55)

`=0

Esto significa que:


hy(t), y(t)i =

` f` (t),

`=0

` f` (t)

`=0

(5.56)

Si a continuacion usamos la propiedad de ortogonalidad de los elementos de


la base, tenemos que:
hy(t), y(t)i =

X
`=0

|` |2 hf` (t), f` (t)i

(5.57)

5.4. RESPUESTA A ENTRADAS SINUSOIDALES. EL CASO DE TIEMPO DISCRETO103


Note que el lado izquierdo en (5.57) representa el cuadrado del valor efectivo
de la se
nal periodica.
Para la serie de Fourier trigonometrica, usando la misma definicion del producto interno (5.24), la expresion (5.57) se reduce a:
Z

T /2
T /2

(y(t))2 dt = A2o +

1X 2
(A` + B`2 )
2

(5.58)

`=0

En el caso exponencial, la expresion (5.57) esta dada por:


Z

T /2

(y(t))2 dt =
T /2

C` 2

(5.59)

`=

En (5.58) y en (5.59), el lado izquierdo representa la energa de la se


nal
y(t) en un perodo. El lado derecho en ambas ecuaciones se
nala que esa energa
puede ser computada como la suma de similar energa de cada armonica.

5.4.

Respuesta a entradas sinusoidales. El caso


de tiempo discreto

En esta seccion nos detendremos en la caracterstica de ganancia que exhibe


un sistema lineal de tiempo discreto cuando la excitacion es una sinuoside. Con
ese proposito consideremos un sistema lineal estable modelado por su ERS:

y[t] + an1 y[t 1] + . . . + a1 y[t n + 1] + a0 y[t n] =


bm u[t] + bm1 u[t 1] + . . . + b1 u[t m + 1] + b0 u[t m]

(5.60)

Si la entrada del sistema es una se


nal sinusoidal de tiempo discreto de perodo
N Z que puede escribirse de la forma:
u[t] = A cos(t + );

con =

2
N

(5.61)

en que (vea Captulo 2):


A es la amplitud, cuyas unidades dependen del sistema en cuestion,
es el a
ngulo de desfase (o simplemente fase), medido en [rad], y
es la frecuencia angular discreta, medida en [rad]. Esta, a su vez, determina
la frecuencia discreta f = N1 [Hz] y el perodo T = N de la sinusoide.
Aplicando la formula de Euler se tiene que:
A cos(t + ) = A

ej(t+) + ej(t+)
= ejt + ejt
2

(5.62)

sinusoidal
amplitud
\angulo! de desfase
fase
per
odo
frecuencia! angular
frecuencia

104
sistema! estable
modos naturales

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

donde C, es el complejo conjugado de y:


A j
e
(5.63)
2
Por otra parte, sabemos que si K() C es la ganancia al modo forzante
ejt , entonces, por linealidad:
=

Thhxo , A cos(t + )ii = K()ejt + (K()) ejt + {modos naturales}


(5.64)
Donde K() es la ganancia a modo forzante y esta dada por (4.35), con
i = ej . Si expresamos K() en su forma polar se llega a:

K() = |K()|eja ()

(5.65)

As, se obtiene:
Thhxo , A cos(t + )ii = |K()|A cos(t + + a ()) + {modos naturales} (5.66)
Como el sistema es estable, los modos naturales decaen a cero cuando t ,
as, la respuesta estacionaria contiene solo la componente particular, es decir,
contiene solo los modos forzados y tiene la forma:
y[t] = As () cos(t + s ())

(5.67)

Esta forma puede ser directamente calculada reemplazando (5.67) en la ERS.

Cuando el modo forzante es una exponencial de la forma ejt , la ganancia a modo forzante, K(), caracteriza lo que se denomina respuesta en
frecuencia del sistema de tiempo discreto.
La teora precedente es ilustrada a traves de un ejemplo.
Ejemplo 5.6. Consideremos el sistema modelado por la ERS
y[t] 0, 7y[t 1] + 0, 12y[t 2] = 1, 5u[t]

(5.68)

Supongamos que la entrada es u[t] = sen(t) y que todas las condiciones


iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en 1 = 0, 4 y 1 = 0, 3, es decir, tienen magnitud menor
que 1. Con esto sabemos entonces que la soluci
on homogenea tiene la forma:
yh [t] = B1 (0, 4)t + B2 (0, 3)t

(5.69)

Para obtener la soluci


on particular reemplazamos la soluci
on propuesta

5.4. RESPUESTA A ENTRADAS SINUSOIDALES. EL CASO DE TIEMPO DISCRETO105

yp [t] = As () sen(t + s ())

(5.70)

que es equivalente a una expresi


on de la forma
yp [t] = C1 () cos(t) + C2 () sen(t)

(5.71)

Los coeficientes C1 () y C2 () se obtienen reemplazando la soluci


on particular propuesta y la funci
on de entrada en la ecuaci
on de recursi
on original.
Siguiendo la discusi
on del Ejemplo 5.1 en la p
agina 89, la modificaci
on en
magnitud y fase que experimenta la sinuoside al pasar por el sistema, se puede
calcular de la respuesta en frecuencia del sistema. En este caso
K() =

1, 5e2j
e2j 0, 7ej + 0, 12

(5.72)

Esta respuesta en frecuencia puede ser representada gr


aficamente, como se
muestra en la Figura 5.9
4

3.5
0.5

2.5

()

|K()|

2
1.5

0.5

1
0.5

2
4
6
Frecuencia angular discreta [rad]

2
4
6
Frecuencia angular discreta [rad]

Figura 5.9: Respuesta en frecuencia de un sistema de segundo orden de tiempo


discreto
222
Analogamente a lo que ocurre en el caso de tiempo continuo, en ciertos
sistemas, a pesar de tener todas sus frecuencias naturales en el interior de la zona
de estabilidad, la respuesta a sinusoides de baja amplitud incluye componentes
sinuosidales de altsima amplitud. Esto sucede en situaciones en que el sistema
es excitado con una sinusoide de frecuencia muy cercana a frecuencias naturales
que se encuentran al interior del disco unitario, pero muy proximas al lmite de
estabilidad (en este caso, la circunferencia unitaria). En este caso, dependiendo
del amortiguamiento del sistema, la salida puede alcanzar el estado estacionario
solo despues de mucho tiempo, y aunque analticamente la oscilacion en la salida
permanece acotada, puede alcanzar magnitudes insostenibles para el sistema
real.

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

106
resonancia
frecuencia!fundamental
arm
onicas

Ejemplo 5.7. El fen


omeno de respuestas inusualmente altas se origina en sistemas que exhiben altas ganancias a un modo forzante de la forma ejt . Considere, por ejemplo, el sistema:
y[t] 1, 4128y[t 1] + 0, 9980y[t 2] = 0, 5851u[t]

(5.73)

Observamos que es un sistema estable, con frecuencias naturales 1,2 =


. Note que estas frecuencias naturales se encuentran muy cercanas a la
e
circunferencia unitaria. La ganancia a continua de este sistema es 1. Sin embargo, la ganancia a una frecuencia = 4 tiene magnitud 414, 0. Esto implica
que si la excitaci
on es una sinusoide de amplitud unitaria y frecuencia = 4 ,
la respuesta forzada ser
a una sinuoside de amplitud 414, 0, es decir, para esta
excitaci
on, el sistema entra en resonancia.
j pi
4

5.5.

Serie de Fourier de tiempo discreto

Veamos ahora como pueden extenderse las ideas hasta aqu expuestas a la
representacion de funciones definidas en instantes de tiempo discreto como suma
de sinusoides, tambien definidas en tiempo discreto.
Para sistemas de tiempo discreto, las series trigonometricas son poco usadas, prefiriendose la forma exponencial. Veremos que ello se debe a que las
exponenciales periodicas involucradas tienen propiedades de simetra que hacen
mucho mas simple el calculo de los coeficientes, en comparacion al calculo de los
coeficientes de la serie trigonometrica. As, consideramos se
nales de la forma:
f [t] = ejt

; t = 0, 1, 2, . . .

(5.74)

Nuestro interes fundamental, al igual que para serie de Fourier trigonometrica, es determinar como puede representarse una funcion periodica como suma
de un termino constante y un conjunto de sinusoides de frecuencias m
ultiplos
de la frecuencia fundamental.
Consideremos, por ejemplo, una funcion y[t] definida para t = 0, 1, 2, . . . , de
perodo N , es decir:
y[t + N ] = y[t]

; t

(5.75)

La frecuencia fundamental se define analogamente al caso continuo:


0 =

2
N

(5.76)

y las frecuencia armonicas corresponden a los m


ultiplos de la frecuencia fundamental 0 . Sin embargo, si observamos con atencion la forma que toman las
exponenciales imaginarias para cada armonica veremos que:
2

ej0 (`+N )t = ej N (`+N )t = ej N `t ej2t = ej N `t

(5.77)

5.5. SERIE DE FOURIER DE TIEMPO DISCRETO

107

Es decir, tenemos periodicidad en la frecuencia, ya que el resultado


(5.77) nos indica que la armonica `-esima es la misma que la (` + N )-esima,
y la misma en realidad que cualquiera de las (` + mN )-esimas, en que m es
cualquier n
umero entero. Esto indica que el conjunto ortogonal es finito, con
solo N componentes.
Por tanto para representar una funcion discreta y[t] de perodo N en serie
de Fourier nos basta simplemente una suma de las primeras N armonicas:
y[t] =

N
1
X

Cn ej0 nt ;

0 =

n=0

2
N

(5.78)

Desde el punto de vista del algebra lineal queremos representar el vector y[t]
en terminos de los vectores del conjunto:
Bd = {1, ej0 t , ej20 t , . . . , ej(N 1)0 t }

(5.79)

Si definimos un producto interno en este conjunto, analogo al definido en


(5.24), la integral (suma continua) en un periodo fundamental se transforma en
una sumatoria (suma discreta):
hf1 [t], f2 [t]i =

N
1
X

f1 [t]f2 [t]

(5.80)

t=0

Tendremos que para los vectores del conjunto Bd , si n1 6= n2 :


hej0 n1 t , ej0 n2 t i =
=

N
1
X

(ej0 n1 t ) ej0 n2 t

(5.81)

ej0 (n1 +n2 )t

(5.82)

t=0

N
1
X
t=0

Que es una suma geometrica


hej0 n1 t , ej0 n2 t i =

1 (ej0 (n1 +n2 ) )N


1 ej0 (n1 +n2 )

(5.83)

Pero seg
un (5.76) tenemos que N 0 = 2, y n1 y n2 son n
umeros enteros, por
tanto, para n1 6= n2 , pues de otra forma el denominador se hace cero:
hej0 n1 t , ej0 n2 t i =
y si n1 = n2 = n:

he

j0 nt

,e

j0 nt

i = ke

j0 nt 2

k =

1 ej2(n1 +n2 )t
=0
1 ej0 (n1 +n2 )

N
1
X
t=0

j0 nt j0 nt

N
1
X
t=0

(5.84)

1=N

(5.85)

108

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

Es decir, el conjunto definido en (5.79) es ortogonal bajo el producto interno (5.80). Por tant, los coeficientes de la representacion (5.78) se pueden
calcular usando el Lema B.1 en la pagina 346, con lo que se obtiene la expresion
equivalente a (5.49), pero para las funciones discretas:
Cn =

N 1
hej0 nt , y[t]i
1 X
=
y[t]ej0 nt
hej0 nt , ej0 nt i
N t=0

; 0 =

2
N

(5.86)

Es importante verificar que la expresion obtenida en (5.86) usada en la representacion (5.78) garantiza que la suma es en efecto una funcion real. Para la
serie de Fourier exponencial se verifico que la suma de las armonicas correspondientes a los terminos n es real pues estos terminos resultan ser conjugados el
uno del otro. Para la serie de Fourier discreta, si observamos la expresion para
el coeficiente N `, tenemos:

CN ` =
=

N 1
N 1
1 X
1 X
y[t]ej0 (N `)t =
y[t]ej0 N t ej0 `t
N t=0
N t=0
N 1
N 1
1 X
1 X
y[t]ej0 `t =
(y[t]ej0 `t ) = (C` )
N t=0
N t=0

(5.87)

Es decir, el coeficiente de la armonica N ` es el complejo conjugado del


coeficiente de la correspondiente `-esima armonica. O, en otras palabras, la
magnitud de los coeficientes C` tiene simetra par respecto a N2 , mientras que
su fase (o angulo) tiene simetra impar con respecto a N2 . La armonica N `
puede ser expresada como:
ej0 (N `)t = ej0 N t ej0 `t = ej0 `t

(5.88)

Es decir, ambas armonicas ` y N ` correponden en realidad a una misma


frecuencia. Por tanto si sumamos los terminos correspondientes a ellas en la
representacion, escribiendo sus coeficientes en forma polar:
C` ej0 `t + CN ` ej0 (N `)t = C` ej0 `t + (C` ) ej0 `t

= |C` |ej` ej0 `t + |C` |ej` ej0 `t


= 2|C` | cos(0 `t + ` )

(5.89)

En base a esto podemos concluir que al representar una se


nal periodica
de tiempo discreto en forma de una Serie de Fourier, en realidad, la estamos
describiendo en terminos de N exponenciales periodicas de la base (5.79), en
que N es el perodo de la funcion discreta. Pero estas corresponden en realidad
a un valor constante y k diferentes armonicas, en que k = N2 , si N es par, y
k = N 21 si es impar.

5.5. SERIE DE FOURIER DE TIEMPO DISCRETO

109

La serie de Fourier para una se


nal de tiempo discreto puede ser descrita en
un grafico en que aparece |C` | en funcion de ` Z. Este diagrama es conocido
como el espectro de lnea de la se
nal de tiempo discreto.
El problema de convergencia de la serie de Fourier para se
nales de tiempo
discreto tiene un tratamiento mucho mas simple que en el caso de tiempo continuo. Esto se debe a que las amplitudes de las N armonicas se pueden calcular
a partir de un sistema de ecuaciones linealmente independientes de la forma:

y[0]
y[1]
y[2]
..
.
y[N 1]

= WN

C0
C1
C2
..
.
CN 1

(5.90)

donde el elemento (i, j) de la matriz WN esta dado por:


[WN ]i,j = ej0

(i1)(j1)

(5.91)

Las ecuaciones precedentes permiten calcular los coeficientes que describen


exactamente la se
nal periodica y[t]. Note que la matriz WN tiene la forma
general:

WN

1
1

= 1
..
.
1

1
w
w2
..
.

1
w2
w4
..
.

..
.

wN 1

wN 2

wN 1

wN 2

..
.

(5.92)

donde w = ej0 . Esta matriz se denomina matriz de Fourier, y es no singular


(ver Apendice F). De esta forma, el vector de la derecha en (5.90) puede ser
despejado al multiplicar por la inversa de WN .
Las ideas de Parseval tambien se aplican a se
nales de tiempo discreto, aunque
en este caso el concepto de energa no tiene la connotacion fsica que tiene en
tiempo continuo.
De esta forma, si una se
nal periodica y[t] tiene la expansion en serie dada
por:
y[t] =

N
1
X

` f` [t]

(5.93)

`=0

donde las funciones f` [t] son elementos de una base ortogonal, entonces:

hy[t], y[t]i =

N
1
X
`=0

|` |2 hf` [t], f` [t]i

(5.94)

espectro de l
nea
matriz! de Fourier

110
sistema!lineal
ganancia! a modo forzante
respuesta en frecuencia

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

que es equivalente a:
N
1
X

y[t]2 = N

t=0

5.6.

N
1
X
`=0

|` |2

(5.95)

Aplicaci
on de las series de Fourier al an
alisis de sistemas lineales

Cuando un sistema estable es excitado por una se


nal periodica, su respuesta
en estado estacionario tambien es una se
nal periodica. Esta respuesta, en general
no tiene la misma forma que la se
nal de entrada, ya que el sistema amplifica y
desfasa cada componente armonica de la excitacion, en general en forma distinta.
Para usar cuantitativamente las series de Fourier en el analisis de un sistema lineal, debemos calcular la ganancia a modo forzante del sistema para la
frecuencia de cada una de las armonicas de interes, es decir, la respuesta en
frecuencia del sistema para cada una de esas armonicas.
Estos conceptos son comunes tanto a los sistemas de tiempo continuo como
a los sistemas de tiempo discreto. Para apreciar mejor su aplicacion consideraremos un ejemplo.
Ejemplo 5.8. Un sistema de tiempo continuo, definido por su EDS:
3 y(t) + 72 y(t) + 15y(t) + 54y(t) = 54u(t)

(5.96)

es excitado con una se


nal peri
odica de frecuencia angular 1 [rad/s]. Entonces la
amplificaci
on y desfase que experimentan la componente constante o continua y
las primeras nueve arm
onicas, al pasar a traves del sistema, se pueden calcular
a partir de la expresi
on que define la respuesta en frecuencia del sistema:
K() =

(j)3

54
+ 7(j)2 + 15(j) + 54

(5.97)

donde = 0; 1; 2; 3; . . . ; 9 [rad/s].
La respuesta en frecuencia es mostrada en la Figura 5.10, donde se ha indicado la magnitud y fase de la respuesta a continua y la respuesta para las
frecuencias de la fundamental y de las primeras nueve arm
onicas. Los valores
numericos se muestran en la Tabla 5.1. Al observar los datos obtenidos se aprecia que el sistema privilegia, en amplificaci
on, la tercera arm
onica.
Para ser m
as especficos, supongamos que la excitaci
on u(t) es una se
nal
cuadrada, con valor medio cero. Usando Matlab o Maple podemos calcular
entonces la respuesta, y(t). La entrada y la salida son mostradas en la Figura
5.11.
La fuerte presencia de la tercera arm
onica en la salida es claramente apreciada, as como tambien es f
acilmente apreciable el que la forma de onda de la
salida es muy diferente a la de la entrada.

5.7. PROBLEMAS PARA EL LECTOR

111

2.5

()

1.5
1

3
4

0.5
0

|K()|

4
6
Frecuencia [rad/s]

10

4
6
Frecuencia [rad/s]

10

Figura 5.10: Respuesta en frecuencia de un sistema de tercer orden de tiempo


continuo.

Frecuencia [rad/s]
0
1
2
3
4
5
6
7
8
9

Amplificacion
1,0000
1,1011
1,5855
2,6833
0,9288
0,4125
0,2301
0,1442
0,0972
0,0688

Desfase [rad]
0,0000
-0,2895
-0,7023
-2,0344
-3,2104
-3,5334
-3,7083
-3,8305
-3,9244
-4,0000

Cuadro 5.1: Amplitud y fase de las armonicas en el Ejemplo 5.8.

5.7.

Problemas para el lector

Problema 5.1. Determine la serie de Fourier trigonometrica de las siguientes


funciones3 :

3 e.t.o.c.

: En todo otro caso.

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

112

Entrada y respuesta

y(t)

2
1
0
1
u(t)

2
3

10
Tiempo [s]

12

14

16

18

20

Figura 5.11: Comportamiento de un sistema con una excitacion periodica.

(a)

(b)
(c)
(d)

; < t 0
1
y(t) = +1
;0 < t

y(t + 2) e.t.o.c.
(
t
; 1 < t 1
y(t) =
y(t + 2) e.t.o.c.
y(t) = |A cos(t)|

y(t) = max{0, A sen(t)}

(e)

y(t) = 4 sen2 (t) (use identidades trigonometricas)

(f )

y(t) = sen(t) + 6 cos3 (t)(idem)

Para cado caso grafique el espectro de lnea (use |Cn |).


Problema 5.2. Determine la serie de de Fourier exponencial que representa
a cada una de las siguientes funciones:
(a)
(b)
(c)

y(t) = cos(2t) + sen(5t)


(
et
0t<1
y(t) =
y(t + 1) e.t.o.c.
y(t) =

n=

(d)

(t nT )

Todas las funciones del problema anterior.

Problema 5.3. Considere el sistema de primer orden:

5.7. PROBLEMAS PARA EL LECTOR

113

d y(t)
+ 10y(t) = 10u(t)
dt
Suponga que u(t) es la se
nal peri
odica de la Figura 5.12.
2.5
2
1.5
u(t)

1
0.5
0
0.5
1
1.5

6
Tiempo [s]

10

12

Figura 5.12: Tren de pulsos

5.3.1 Determine las tres primeras arm


onicas (n = 1, 2, 3) del desarrollo en
serie de Fourier de u(t).
5.3.2 Determine la respuesta del sistema a la suma de esas tres arm
onicas
puesta en la entrada, es decir, a la serie de Fourier de u(t), pero truncada.
5.3.3 Grafique la salida y(t) obtenida, y comp
arela con la simulaci
on en Matlab del sistema sometido a la entrada original u(t). Comente.
Problema 5.4. Considere el sistema definido por su ecuaci
on diferencial en
que n y son positivos:
d 2 y(t)
d y(t)
+ 2n
+ n2 y(t) = n2 u(t)
2
dt
dt
5.4.1 Determine la salida del sistema si la entrada es u(t) = A cos(n t).
5.4.2 Determine la relaci
on de amplitudes entre la salida y la entrada en estado
estacionario cuando n = 10, y = 0,1, 0,05, 0,01.
5.4.3 Simule y grafique para las condiciones anteriores, cuando A = 1.
Problema 5.5. Considere el sistema definido por su ecuaci
on diferencial:
d y(t)
= y(t) + u(t)
dt
Si la entrada del sistema es una sinusoide u(t) = sen(10t)

114

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

5.5.1 Determine la salida del sistema y(t), suponiendo condiciones iniciales


cero.
5.5.2 Grafique la parte homogenea de la soluci
on correspondiente a los modos
naturales, la soluci
on particular correspondiente a la sinusoide de entrada
y la soluci
on total, suma de las dos primeras. Comente.
Problema 5.6. Considere el conjunto de funciones definidas en el intervalo
[ T2 , T2 ]:
B = { 1 , cos(n0 t) , sen(n0 t) }n=1,2,...

0 =

2
T

Y el producto interno definido en el como:


hyn (t), ym (t)iT =

T
2

T2

yn (t)ym (t)dt

; yn (t), ym (t) B

Demuestre que el conjunto B es ortogonal y encuentre todos los posibles


valores que toma el producto interno cuando se recorren los elementos de B.
Problema 5.7. Considere la siguiente

A
f (t) = 0

f (t + T )

funci
on peri
odica f (t) definida como:
; |t| < /2
; /2 |t| < T /2
; e.t.o.c.

5.7.1 Determine la serie de Fourier trigonometrica de la funci


on f (t).

5.7.2 Grafique la amplitud de las arm


onicas en funci
on de la frecuencia.
5.7.3 C
omo se ve afectado el gr
afico a medida que crece el valor de T ?
Que pasa cuando T ?
Problema 5.8. Modulaci
on por ancho de pulso.
Considere la funci
on v(t) definida como:

; 0 < t < < 0,001


5
v(t) = 0
; < t < 0,001

v(t + 0,001) ; e.t.o.c.

5.8.1 Determine la serie de Fourier de v(t), indicando la amplitud de los coeficientes en funci
on del par
ametro .
5.8.2 Si el par
ametro vara lentamente con el tiempo, digamos (t) = sen(2t)
Que se obtiene si se hace pasar v(t) por un sistema con una EDS dada
por
d y(t)
+ 100y(t) = 100u(t)
dt

5.7. PROBLEMAS PARA EL LECTOR

115

Problema 5.9. Considere la funci


on y(t) = t2 , definida en el intervalo 0
t < T.
5.9.1 C
omo podra extenderse la funci
on y(t) al intervalo [T, T ] de manera
que su serie de Fourier sea de la forma:
y(t) = A0 +

An cos(n t)

n=1

5.9.2 C
omo podra extenderse al intervalo [T, T ] de manera que su serie sea
de la forma:

X
y(t) =
Bn sen(n t) ?
n=1

Problema 5.10. Determine la serie de Fourier discreta de las siguientes funciones:


(a)
(b)
(c)
(d)
(e)
(f )

y[t] = sen t
( 3
sen 3t
; t = 0, . . . , 3
y[t] =
y[t + 4] ; e.t.o.c.
(
t
; 6= 1, t = 0, . . . , N 1
y[t] =
y[t + N ] ; e.t.o.c.
y[t] = (1)t

1
y[t] = 1

y[t + 6]

y[t] = t

; t = 2, . . . , 0
; t = 1, . . . , 3
; e.t.o.c.

mod N

Construya el espectro de lnea para cada caso.

116

CAPITULO 5. ANALISIS
BAJO EXCITACIONES PERIODICAS

transformada de Fourier|textbf
Fourier
per
odo!infinito
aperi
odicas!se~
nales
transformada de Fourier

Captulo 6

An
alisis bajo excitaciones
arbitrarias. La
transformada de Fourier
6.1.

La limitaci
on de las series de Fourier

En el captulo anterior se estudio la representacion de se


nales en un intervalo
de tiempo finito, [to , to + T ], a traves de una combinacion lineal de un n
umero
(posiblemente infinito) de sinusoides. Este analisis es muy u
til para establecer
de una manera simple, el contenido frecuencial (espectro) de una se
nal periodica, identificando claramente la amplitud y fase de cada una de las armonicas
que la forman, tanto en tiempo discreto como en continuo. En este captulo
presentamos la extension para un periodo T , para estudiar el contenido
frecuencial de se
nales no periodicas (o de periodo infinito).
El resultado de esta extension nos permitira incorporar al analisis importantes se
nales tales como el impulso de Dirac, el escalon, la exponencial (real)
decreciente y otras se
nales arbitrarias como muestra la Figura 6.1. Una clase
adicional y experimentalmente muy importante a incluir ahora esta compuesta por las se
nales conocidas en un intervalo de tiempo finito. Estas se
nales se
pueden calificar como periodicas o no, dependiendo de lo que ocurra fuera del
intervalo conocido. La transicion hacia infinito, del periodo de conocimiento de
la se
nal que se incluye en la herramienta de analisis, es justamente el proceso que
permite desarrollar una herramienta que incorpore las funciones no periodicas
al analisis frecuencial.

6.2.

La Transformaci
on de Fourier. El caso del
tiempo continuo
117


118CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
serie de Fourier

Figura 6.1: Se
nales arbitrarias

Si recordamos el Captulo 5, una serie de Fourier es una representcion de una


funcion f (t) mediante suma de sinusoides. Sin embargo, esta serie representa a
la funcion solo dentro del intervalo sobre el cual se calculo, [to , to +T ). Si la se
nal
es periodica,y este intervalo corresponde a un n
umero entero de perodos de la
funcion, entonces la serie tambien la representa en el resto del eje real. Esta idea
tambien se puede aplicar para obtener la serie de Fourier para una funcion no
periodica, siempre que la restrinjamos a un intervalo [a, b] de longitud T . Como
se menciono antes, esta serie representa a la funcion dentro del intervalo, y fuera
de este solo replica periodicamente la representacion lograda en [a, b]. Esto puede
apreciarse en la Figura 6.2.
La Figura 6.2, ademas, muestra que la longitud del intervalo T puede ampliarse, de manera de ir refinando la representacion de la funcion a traves de
la serie. Pues bien, lo que interesa en este punto es ver que pasa con la representacion cuando el intervalo tiene longitud infinita. Es decir, queremos ver
que pasa con la serie de Fourier cuando se utiliza para representar funciones de
perodo infinito o aperiodicas.

Figura 6.2: La funcion restringida a [a, b] y su reconstruccion usando la serie de


Fourier.
La serie de Fourier exponencial para una funcion periodica, de perodo T ,

DE FOURIER. EL CASO DEL TIEMPO CONTINUO119


6.2. LA TRANSFORMACION
tiene la forma:

f (t) =

Cn ejn t

(6.1)

n=

En que:
1
Cn =
T

T /2
T /2

n = n0 = n

f (t)ejn t dt

(6.2)

2
T

(6.3)

La ecuacion (6.1) es la que describe la funcion f (t) dentro del intervalo [ T2 , T2 ] en terminos de las exponenciales periodicas que representan las
diferentes armonicas n . Recordemos que la ecuacion (6.3) explicita que las
armonicas no son nada mas que m
ultiplos de la frecuencia fundamental 0 = 2
T .
Ahora bien, cada uno de los coeficientes definidos por la ecuacion (6.2) define
a Cn como funcion de la frecuencia n , es decir:
Cn = Cn (n )

(6.4)

Consideremos ahora la funcion:


F () = T Cn (n )

(6.5)

Con esto la serie de Fourier exponencial (6.1) de f (t) puede reescribirse


como:

1 X
1 X
jn t
F (n )e
=
F (n )ejn t 0
f (t) =
T n=
2 n=

(6.6)

pero si se observa que:


0 = n n1 =

(6.7)

la serie se reescribe como:


f (t) =

1 X
F (n )ejn t
2 n=

(6.8)

Esta u
ltima expresion corresponde a una suma de Riemann [11], la que,
llevada al lmite cuando el perodo T crece hasta infinito, equivale a 0,
con lo que la serie se transforma en una integral:
Z
1
f (t) =
F (j)ejt d
(6.9)
2


120CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
Transformada de Fourier
transformada de Fourier
transformada de
Fourier! inversa
funci
on! generalizada
delta de Dirac

El significado de esta u
ltima expresion es conceptualmente muy importante,
ya que nos indica que a medida que el perodo de una funcion periodica aumenta,
la distancia entre la lneas del espectro se reduce progresivamente, y en el
lmite, cuando la funcion tiene perodo infinito y 0, la representacion en
frecuencia de f (t) en vez de ser discreta, pasa a ser una representacion continua.
As, en lugar de quedar expresada como una suma de sinusoides de frecuencias
m
ultiplos de una fundamental 0 , queda representada por una integral en que
participa una funcion, F (j) definida para en toda la recta real.
Esta funcion F () es la transformada de Fourier de f (t) , y su expresion
se deduce utilizando (6.5), (6.4) y (6.2):
F () = T Cn =

T /2

f (t)ejn t dt

(6.10)

T /2

la cual, cuando T y considerando R, se convierte en:


Z
F () =
f (t)ejt dt

(6.11)

Dada la forma de la integral (6.11), puede apreciarse que F () en general


sera una funcion en la variable real pero con valores complejos, excepto en
algunos especiales (ver Problema 6.4). Para enfatizar la naturaleza compleja de
la transformada de Fourier F () es una funcion compleja, se prefiere denotarla por F ( ). Con esta u
ltima observacion podemos establecer finalmente la
existencia del par transformada y transformada inversa de Fourier seg
un

F {f (t)} = F ( ) =
F

f (t)e t dt

(6.12)

1
{F ( )} = f (t) =
2

F ( )e t d

(6.13)

Para la existencia de la transformada de Fourier es suficiente que la funcion


f (t) sea absolutamente integrable[9] en ] , [, es decir:
Z
| f (t) | dt <
(6.14)

Sin embargo, es posible obtener la transformada de Fourier de funciones que


no cumplen este requisito, por ejemplo, las funciones periodicas, con el uso de
funciones generalizadas, como el delta de Dirac.
1
que acompa
na a la integral en (6.13), en algunos textos es reparEl factor 2
tido equitativamente entre ambas integrales, como un factor 12 en la transformada directa y en la inversa. Preferiremos las expresiones (6.12) y (6.13), ya
que esta u
ltima puede reescribirse de manera natural, reemplazando la frecuencia angular en [rad/s] por la frecuencia f en [Hz], tal como se aprecia en la
siguiente ecuacion

DE FOURIER. EL CASO DEL TIEMPO CONTINUO121


6.2. LA TRANSFORMACION

{F (j2f )} =

F (j2f )ej2f t df

El mismo analisis desarrollado con la serie de Fourier exponencial cuando el


perodo de la funcion tiende a infinito, puede repetirse de manera similar para
la serie de Fourier trigonometrica (ver Problema 6.3)
Ejemplo 6.1. Para ilustrar los resultados obtenidos veamos un ejemplo. Consideremos la funci
on f (t) definida en principio peri
odica en el intervalo [ T2 , T2 ]:
(
A
; |t| /2 < T /2
(6.15)
f (t) =
0
; /2 < |t| T /2
Esta corresponde a un pulso de alto A y ancho , centrado en cero, que se
repite en intervalos de longitud T .
Los coeficientes de la serie exponencial de Fourier se pueden obtener sin
problema:

Maple
>
>
>
>
>

assume(T>0,A>0);
assume(0<tau,tau<T);
y(t,T) := A * ( Heaviside(t+tau/2) - Heaviside(t-tau/2) );
C(0,T):=1/T*int(y(t,T),t=-T/2..T/2);
C(n,T):=simplify(1/T*int(y(t,T)*exp(-I*2*Pi*n/T*t),
t=-T/2..T/2));

C0 =
Cn =

A
T

(6.16)
 n 

A sen T

n
T
T

n 6= 0

(6.17)

La transformada de Fourier de y(t) resulta dada por la expresi


on:

F ( ) =

y(t)e t dt =

/2

Ae t dt

/2

A
A

e t
= (e 2 e 2 )

/2
 
2A
=
sen

2
=

(6.18)

/2

(6.19)
(6.20)


122CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
espectro! continuo

que usualmente se escribe como:


F ( ) = A

sen

(6.21)

Si consideramos ahora la ecuaci


on (6.17), podemos escribir:
 
n
sen
2
T Cn = A
n
2
donde n =

2n
T .

(6.22)

De esta forma, observamos que:


lm T Cn = F ( )

(6.23)

222
A pesar de su conexion, existen varias diferencias conceptuales entre la serie
de Fourier y la transformada de Fourier. La primera diferencia importante es
que el espectro de lnea que aparece asociado a la serie de Fourier, se convierte,
en el caso de la Transformada de Fourier, en un espectro definido para toda
frecuencia. En forma compacta nos referiremos a este u
ltimo como el espectro
continuo de la se
nal.
Una segunda diferencia es que la Serie de Fourier resulta descrita por un
conjunto de valores complejos asociados a un conjunto enumerable de frecuencias
(la frecuencia 0 y las frecuencias m
ultiplos de una frecuencia fundamental), esos
valores complejos determinan la amplitud y fase de las componentes armonicas.
Ese no es el caso de la Transformada de Fourier para se
nales de tiempo continuo,
ya que la transformada F ( ) es una medida de densidad o mas bien de
intensidad relativa (no absoluta) de la participacion de las distintas frecuencias
en la representacion de la funcion. Esta cantidad esta definida para todo el eje
de los reales, es decir, para todo , as, la presencia de una frecuencia 1 en una
se
nal f (t) esta dada por:
Y1 =

1+

F ( )e t d

(6.24)

Esta integral es cero, a menos que F ( ) contenga un impulso ( 1 ). En


el Apendice C se demuestra que este impulso acusa la presencia de una sinusoide
pura de frecuencia 1 en f (t).
Ejemplo 6.2. Para apreciar desde un a
ngulo distinto las diferencias mencionandas, consideremos la analoga de una viga empotrada, cargada con arena fina
y con tres fuerzas puntuales, como se muestra en la Figura 6.3.
La viga tiene un largo L y un ancho A. En la Figura 6.3 la coordenada x
es an
aloga a la frecuencia angular . En primer lugar se aprecian tres fuerzas
no nulas, que act
uan en puntos especficos de la viga. Ellas son an
alogas a los
coeficientes de una serie de Fourier. En segundo lugar se observa la carga de

DE FOURIER. EL CASO DEL TIEMPO CONTINUO123


6.2. LA TRANSFORMACION
F2

F1

Parseval
Parseval

F3
f(x)

Figura 6.3: Viga cargada con arena

arena, con una distribuci


on f (x) [N/m]. Esta distribuci
on captura la irregularidad de la distribucic
on de la arena a lo largo y a lo ancho de la viga. Se puede
deducir que si f (x) es finita, entonces, esta carga de arena ejerce una fuerza
cero en cualquier punto de la viga. No obstante, es obvio que si la densidad de
la arena es (x), entonces la fuerza total ejercida por la carga de arena es:
Z

f (x)(x)Adx

(6.25)

La densidad de carga por metro lineal f (x) es entonces an


aloga a la transformada de Fourier F ( ), en el sentido que esta u
ltima corresponde a una
densidad espectral por ancho de banda.
222
La transformacion de Fourier posee una serie de propiedades que resultan de
mucha utilidad para el calculo de transformadas de funciones a partir de algunas
elementales, para la obtencion de transformadas inversas sin tener que resolver la
integral (6.13), y para el analisis de sistemas, como se ve en la seccion siguiente.
Estas propiedades se detallan en el Apendice C. Algunas de esas propiedades
son de especial relevancia por sus aplicaciones al analisis de sistemas lineales.

6.2.1.

Parseval y la energa de las se


nales aperi
odicas en
tiempo continuo

Los resultados deducidos por Parseval permiten tambien relacionar directamente las caractersticas de una se
nal cualquiera con su transformada de Fourier.
Los detalles matematicos pueden ser examinados en el Apendice C.
Si la se
nal (real) f (t) tiene energa finita en el intervalo (, ), y su
transformada de Fourier es F ( ) entonces, aplicando el Teorema C.1, se tiene
que:
Z

(f (t)) dt =

1
2

|F ( )|2 d =

|F ( )|2 d

(6.26)


124CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
respuesta en frecuencia
ancho de banda

Observando el lado derecho de la ecuacion, podemos calcular la fraccion de


la energa total que es aportada por cada intervalo del espectro (k , k+1 ). Para
apreciar esto consideremos el siguiente ejemplo.
Ejemplo 6.3. Sea la se
nal f (t) = eat (t), donde a R+ . Entonces, su transformada de Fourier es
1
F ( ) =
(6.27)
+ a
y su energa total es
W =

e2at dt =

1
1
d =
2
+a
2a

(6.28)

Usando Parseval podemos demostrar que la mitad de esa energa es aportada


por el espectro en el intervalo de frecuencia (a, a), como se ve en
Z
1
1
a
1 a
1
d
=
arctan
(6.29)
W(a,a) =
=
0 2 + a2
a
a 0
4a

6.2.2.

Aplicaci
on a sistemas lineales

Nuestro interes en el estudio de la transformacion de Fourier y sus propiedades,


se origina en su utilidad para analizar las caractersticas de los sistemas lineales.
La definicion hecha en la seccion precedente de la transformada de Fourier resulta como continuacion natural de las series de Fourier, de esta forma la transformada constituye la prolongacion natural del estudio de propiedades del sistema
como la respuesta en frecuencia, ancho de banda y filtraje, entre otras.
Para apreciar la utilidad del analisis mediante transformada de Fourier,
consideremos un sistema lineal de tiempo continuo, definido por su ecuacion
diferencial (EDS), tal como se vio en el Captulo 3:
d n1 y(t)
d n y(t)
+
a
+ . . . + a0 y(t)
n1
dt n
dt n1
d m u(t)
d m1 u(t)
= bm
+ bm1
+ . . . + b0 u(t)
m
dt
dt m1

(6.30)

En que u(t) e y(t) representan respectivamente la se


nal de entrada y de
salida del sistema. Note que por generalidad hemos reemplazado n 1 por m
en el lado derecho, aunque seguiremos suponiendo que el sistema es propio, es
decir, m n.
Si utilizamos la propiedad que permite obtener una expresion para la transformada de Fourier de la derivada de una funcion, ecuacion (C.9) en la pagina 367, a cada una de las derivadas de la entrada u(t) y la salida y(t) puede
aplicarsele trasnformacion de Fourier, utilizando:
 n

d f (t)
F
= ( )n F {f (t)} = ( )n F ( )
dt n

DE FOURIER. EL CASO DEL TIEMPO CONTINUO125


6.2. LA TRANSFORMACION
De esta forma, si se aplica transformacion de Fourier a ambos lados de la
EDS (6.30) se obtiene:
( )n Y ( ) + . . . + a0 Y ( ) = bm ( )m U ( ) + . . . + b0 U ( )

(6.31)

luego:
Y ( ) =

bm ( )m + . . . + b0
B( )
U ( ) =
U ( )
n
( ) + . . . + a0
A( )

(6.32)

donde A( ) y B( ) son polinomios en .


Si ahora definimos la funcion racional en como
bm ( )m + . . . + b0
B( )
=
A( )
( )n + . . . + a0
entonces la salida del sistema lineal puede ser expresada como
H( ) =

Y ( ) = H( )U ( )

(6.33)

(6.34)

La funcion H( ) que aparece en la expresion para la salida Y ( ) es la


que caracteriza al sistema mismo, ya que depende solo de los coeficientes de la
nal de entrada U ( ). Esta funcion se conoce como
EDS (6.30), y no de la se
funci
on de transferencia o transferencia de Fourier.
En general, H( ) es una funcion racional en . Sin embargo, existen casos
en que la entrada u(t) se aplica en forma retardada al sistema. En esos casos,
si el retardo es , la transformada de Fourier U ( ) debe ser reemplazada por
U ( )e (vea las propiedades en la Tabla C.1) y la funcion de transferencia
resulta:
H( ) =

B( )
bm ( )m + . . . + b0
=
e
A( )
( )n + . . . + a0

(6.35)

Una discusion adicional sobre la naturaleza de H( ), en particular, referida


a la estabilidad del sistema se desarrolla mas adelante, en la Seccion 6.2.5.
Una interpretacion fundamental para la funci
on de transferencia se puede
construir a partir del Lema 3.1 en la pagina 53. All se establece que la respuesta
de un sistema a una se
nal de entrada arbitraria u(t), puede obtenerse mediante
la convolucion de esta con la respuesta h(t) del sistema a un impulso unitario:
Z
u( )h(t )d
(6.36)
y(t) = u(t) h(t) =

Si aplicamos transformacion de Fourier a esta relacion, utilizando el resultado


(C.13) en la pagina 371 que establece la transformada de la convolucion de
funciones, tenemos que:
F {y(t)} = F {u(t) h(t)}
Y ( ) = U ( )F {h(t)}

(6.37)
(6.38)

funci
on de transferencia


126CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

Podemos apreciar entonces que la funcion H( ) en la ecuacion (6.34) es


exactamente la transformada de Fourier de la respuesta h(t) del sistema
(6.30) a un impulso unitario en su entrada.
Dado que la EDS tiene solo coeficientes reales, la funcion de transferencia

H( ) cumple con H( ) = (H( )) , lo que implica que:


su magnitud es una funcion par en
su fase es una funcion impar en

|H( )| = |H( )|
(6.39)
H( ) = H( ) (6.40)

Para ilustrar la derivacion de la funcion de transferencia a partir de un


sistema fsico, examinemos el siguiente ejemplo.
Ejemplo 6.4. Consideremos el circuito de la Figura 6.4, que puede ser visto
como un sistema con entrada el voltaje de la fuente vf (t) y como salida el voltaje
en el condensador vc (t).
R
+
vf (t)

vc (t)

i(t)
Figura 6.4: Circuito RC como sistema de primer orden.
Usando leyes de Kirchoff y la ecuaci
on para la corriente por el condensador,
podemos llegar a una EDS:
vR (t) + vC (t) = vf (t)
d vC (t)
+ vC (t) = vf (t)
RC
dt
1
1
d vC (t)
+
vC (t) =
vf (t)di(t)
dt
RC
RC
En estas ecuaciones se puede renombrar vc (t) = y(t) , vf (t) = u(t) ,
, con lo que la EDS resulta:

(6.41)
(6.42)
(6.43)
1
RC

d y(t)
+ y(t) = u(t)
; R+
(6.44)
dt
A continuaci
on calculamos la salida del sistema para diferentes funciones de
entrada u(t).
Si aplicamos transformaci
on de Fourier a (6.44) tenemos:

DE FOURIER. EL CASO DEL TIEMPO CONTINUO127


6.2. LA TRANSFORMACION

Maple
>with(inttrans) : assume(alpha>0) :
>eds:= diff(y(t),t)+alpha*y(t)=alpha*u(t) ;
>eq1:=fourier(u(t),t,w)=U(jw) :
>eq2:=fourier(y(t),t,w)=Y(jw) :
>subs({eq1,eq2},fourier(eds,t,w)) ;
>Y(jw):=solve(%,Y(jw));

Y ( ) + Y ( ) = U ( )
(6.45)

Y ( ) =
U ( )
(6.46)
+
Con esta expresi
on se puede obtener la salida del sistema para diferentes
agina 389.
casos, con ayuda de las tranformadas en la Tabla C.2 en la p
Entrada impulso unitario
En primer lugar, podemos calcular casi directamente la respuesta a impulso
del sistema, ya que si u(t) = (t), entonces U ( ) = 1 y, por tanto:
Maple
>U(jw)= fourier(Dirac(t),t,w) :
>H(jw)=subs(%,Y(jw));

U ( ) = 1
Y ( ) = H( ) =

Donde se aplica transformaci


on inversa
Maple
> h(t) = invfourier(H(jw),w,t);

h(t) = F 1

1
+

= et (t)
Entrada escal
on unitario

(6.47)
(6.48)


128CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
fracciones parciales

Maple
>U(jw)= fourier(Heaviside(t),t,w) :
>Y(jw)=subs(%,Y(jw));

1
U ( ) = () +



1

() +
Y ( ) =
+

(6.49)
(6.50)

Donde se desarrolla el producto y luego se buscan terminos que correspondan


a transformadas conocidas, ya sea agrupando de manera conveniente o separando en fracciones parciales (ver Apendice D):

() +
+
( + )
1
1
= () +

( + )

(6.51)

Y ( ) =

(6.52)

Ya que, del termino que multiplica al delta Dirac s


olo interesa su valor en
= 0, y el otro se separa en fracciones parciales. De esta forma se puede
calcular la transformaci
on inversa de Fourier:

Maple
> y(t) = invfourier(Y(jw),w,t);

y(t) = F

1
() +

= (t) et (t)

1
( + )

(6.53)
(6.54)

Entrada exponencial peri


odica
Finalmente, examinemos la respuesta a una exponencial peri
odica u(t) =
e o t . Su transformada de Fourier de u(t) es:


U ( ) = F e o t = 2( o )

Con lo que la salida ser


a:

(6.55)

DE FOURIER. EL CASO DEL TIEMPO CONTINUO129


6.2. LA TRANSFORMACION
ganancia! a

2( o ) =
2( o )
+
o +

y(t) =
e o t = A(o )e o t+j(o )
o +
Y ( ) =

(6.56)
(6.57)

en que:




= p
A(o ) =
o +
o2 + 2
o
(o ) = arctan

(6.58)
(6.59)

Lo anterior muestra que, al pasar a traves del sistema, la exponencial peri


odica, experimenta un cambio en magnitud (en un factor A(o )) y en fase (una
adici
on igual a (o ).
222

6.2.3.

La funci
on de transferencia y la respuesta en frecuencia

La u
ltima parte del Ejemplo 6.4, en la seccion anterior, pone de manifiesto
la utilidad de conocer la transformada de Fourier de la respuesta a impulso de
un sistema, H( ). Observe que:
Y ( ) = H( )U ( )

(6.60)

pero si u(t) = e o t , entonces


Y ( ) = H( )2( o )

= H( o )2( o )

(6.61)
(6.62)

por tanto, la salida es:


y(t) = H( o )e o t

(6.63)

As tenemos que H( o ) representa la ganancia al modo forzante e o t ,


definida en (3.24). Es mas, dada la relacion de las exponenciales periodicas con
las se
nales sinusoidales podemos establecer el siguiente lema.
Lema 6.1. Dado un sistema estable de tiempo continuo con entrada u(t) y
salida y(t). La respuesta del sistema a la entrada se
nal de entrada sinusoidal
u(t) = cos(o t), t, es
y(t) = A(o ) cos(o t + (o ))

(6.64)

modo forzante


130CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
En que
A(o ) = |H( o )|
(o ) = H( o )

(6.65)
(6.66)

Donde H( ) es la transformada de Fourier de la respuesta a impulso del


sistema h(t).
Demostraci
on
La respuesta a la excitaci
on cos(o t), puede ser calculada como la combinaci
on de las respuestas a un par de exponenciales peri
odicas. A partir de:
Y ( ) = H( )U ( )

(6.67)

tenemos que, si u(t) = 21 (e o t + e o t ), entonces:


Y ( ) = H( )(( o ) + ( + o ))

(6.68)

= H( o )( o ) + H( o )( + o )

(6.69)

y, por lo tanto, la salida es:


1
1
H( o )e o t + H( o )e o t
2
2
1
1
o t+jH( o )
= |H( o )|e
+ |H( o )|e o tjH( o )
2
2
= |H( o )| cos(o t + H( o ))

y(t) =

(6.70)
(6.71)
(6.72)
222

Ejemplo 6.5. Para el mismo sistema del Ejemplo 6.4, descrito por la ecuaci
on
diferencial:
d y(t)
+ y(t) = u(t)
dt

; R+

(6.73)

Determinemos la soluci
on si la se
nal de entrada es u(t) = cos(t).
Tal como se hizo antes, se aplica transformaci
on de Fourier sobre la EDS,
donde se ha reemplazado la entrada u(t) con lo que se obtiene la transformada
de Fourier de la salida:

Maple
> U(jw)= fourier(cos(t),t,w) : eq3 ;
simplify(subs(eq3,Y(jw)));

DE FOURIER. EL CASO DEL TIEMPO CONTINUO131


6.2. LA TRANSFORMACION

U ( ) = (( + 1) + ( 1))

Y ( ) =
(( + 1) + ( 1))
+

(6.74)
(6.75)

donde, simplificando como antes, se obtiene la transformada inversa:

( + 1) +
( 1)
j +
j+
( j)
( + j)
( + 1) + 2
( 1)
=
2 + 1
+1
= Aej ( + 1) + Aej ( 1)

Y ( ) =

(6.76)
(6.77)
(6.78)

en que:


( + j)
=
A = 2
+1
2 + 1


( + j)
1
=
= arctan
2
+1

(6.79)
(6.80)

por lo tanto, la salida es:


y(t) = A cos(t )
=

+1

(6.81)


cos t arctan

(6.82)

Se deja al lector verificar el caso general, en que, cuando la entrada es una


sinusoide de frecuencia arbitraria, cos(o t), entonces la salida del sistema ser
a:


o 
y(t) = p
(6.83)
cos t arctan

2 + o2

ngulo de desfase (o )
En la Figura 6.5 se muestra la magnitud A(o ) y a
de la salida cuando = 10.
222
El ejemplo anterior pone en evidencia que la salida que se obtiene a traves de
la transformada de Fourier corresponde a la parte estacionaria de la salida del
sistema, donde no aparecen modos naturales. Esto es coherente, ya que podemos
pensar una se
nal no causal como una que comenzo a actuar sobre el sistema en
t = , y, por ende, el efecto de las condiciones iniciales ha desaparecido. Sin
embargo, debemos observar que el desarrollo realizado es analogo cuando < 0.
Esto nos advierte que en el caso de sistemas inestables, es decir, con frecuencias naturales fuera del semiplano izquierdo (que es la zona de estabilidad para
sistemas de tiempo continuo), la salida obtenida mediante la transformacion de


132CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
0

0.8

()

A()

0.5

0.6

0.4

0.2

1.5

100

200

300

400

500

600

100

(a) Magnitud

200

300

400

500

600

(b) Angulo

Figura 6.5: Magnitud y angulo de H( ) en el ejemplo ( = 100).

Fourier resulta ser acotada, mientras que la salida verdadera del sistema crece
hasta infinito. Es decir, la solucion mediante Fourier para se
nales no causales
resulta ciega a la inestabilidad propia del sistema, pero nos permite obtener la componente particular de la se
nal de salida. Para ilustrar esto observe el
siguiente ejemplo, que solo tiene sentido si el sistema bajo analisis es estable.
Ejemplo 6.6. Consideremos el caso en que la entrada al sistema es u(t) =
cos(t)(t). En este caso, tenemos que la transformada de Fourier de la entrada
y de la salida al sistema son respectivamente

Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>Y(jw) = subs (%,Y(jw));

(( 1) + ( + 1)) +
2
2 + 1



Y ( ) =
(( 1) + ( + 1)) +
+ 2
2 + 1
U ( ) =

(6.84)
(6.85)

La salida Y ( ) puede simplificarse con las mismas consideraciones anteriores, es decir, evaluando los coeficientes que acompa
nan a los deltas de Dirac
en la frecuencia de interes, separando en fracciones parciales y agrupando convenientemente:

DE FOURIER. EL CASO DEL TIEMPO CONTINUO133


6.2. LA TRANSFORMACION
filtraje

( 1) +
( + 1) +
j+ 2
j + 2
( + )( 2 + 1)
( + j)
( j)
( 1) +
( + 1)
=
2
+1 2
j + 2


( + 1))
2
1
+ 2

( + 1)( 2 + 1) 2 + 1 +


2
j
= 2
( + 1) + ( 1) + 2
( + 1) ( 1)
+1 2
+1 2



1
2

2
1
+ 2
+

( + 1) ( 2 + 1) (2 + 1) ( 2 + 1) 2 + 1 +

Y ( ) =

Por tanto, con ayuda de la Tabla C.2 en la p


agina 389, tenemos que la salida
es:





1
(
+
1)
+
(

1)
+
F
2 + 1
2
( 2 + 1)



1
j
( + 1) ( 1) +
+ F 1
2
( 2 + 1)


1
F 1
+


cos(t)(t) + sen(t)(t) et (t)
y(t) = 2
+1

y(t) =

En Maple los c
alculos se pueden hacer mucho m
as r
apido, y, dado que en la
transformaci
on inversa aparecen exponenciales complejas, se utiliza la funci
on
evalc, que permite expandir estas mediante la relaci
on de Euler, 1 :

Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>subs(%,Y(jw));
>y(t) = simplify( evalc( invfourier(%,w,t) ) );

222

6.2.4.

Filtraje

Una generalizacion de los resultados precedentes se puede extraer examinando la naturaleza de la funcion de transferencia y la forma en que evolucionan
1 ej

= cos() + j sen()


134CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
espectro
respuesta en frecuencia
sistema! estable

su magnitud y su fase con la frecuencia . En estas caractersticas, que definen


la respuesta en frecuencia del sistema, se capturan efectos tales como su velocidad y su capacidad de filtrar y discriminar se
nales de diferentes contenidos
espectral.
Es com
un que para clasificar las funciones de transferencia de sistemas es
tables, se use su caracterstica filtrante. Esta
queda determinada por |H( )|.
Para ejemplificar esta descripcion consideremos primero sistemas que discriminan entre frecuencias altas y bajas.
|H(j)|

|H(j)|

Figura 6.6: Sistemas pasa bajos (izquierda) y pasa altos (derecha)


En la Figura 6.6 se observan dos conductas distintas. El sistema descrito por
la caracterstica del lado izquierdo, deja pasar las bajas frecuencias y aten
ua las
altas frecuencias. El sistema caracterizado por la funcion de transferencia del
lado derecho hace lo contrario: deja pasar las altas frecuencias y bloquea las bajas
frecuencias. Una forma de apreciar estos comportamientos distintos es aplicar
a ambos sistemas una misma secuencia de escalones temporales. La transicion
brusca de un nivel a otro requiere la presencia de muy altas frecuencias, en
estricto sentido, de frecuencia infinita. Por otro lado, una vez que se ha llegado
a un nuevo nivel, predominan las frecuencias bajas, en rigor, la frecuencia cero.
Los escalones tambien tienen energa a frecuencias intermedias tal como lo revela
la transformada de Fourier del escalon unitario, estas frecuencias intermedias se
originan en el quiebre entre una pendiente infinita (inicio del escalon) y una
pendiente cero (resto del escalon).
Ejemplo 6.7. Considere los siguientes sistemas:
1
( + 1)2
( )2
H2 ( ) =
( + 1)2
H1 ( ) =

Pasa bajos

(6.86)

Pasa altos

(6.87)

Si a ambos sistemas se aplica una secuencia de escalones, se obtiene el resultado de la Figura 6.7. En esta, se observa que la respuesta del filtro pasa

DE FOURIER. EL CASO DEL TIEMPO CONTINUO135


6.2. LA TRANSFORMACION
frecuencia! de corte
pasa banda
elimina
banda

Respuesta a escaln

y (t)

1.5

1
0.5
0

y (t)

0.5

1
0

10

15
Tiempo [s]

20

25

30

Figura 6.7: Respuesta a escalones de un sistema pasa bajos y un sistema pasa


altos.

bajos, y1 (t), no puede seguir las transiciones de los escalones, pero alcanza el
nivel constante de la entrada sin error (dado que la ganancia a continua es
uno). Por su parte, la respuesta del filtro pasa altos, y2 (t), es capaz de replicar
instant
aneamente los cambios bruscos, sin embargo presenta respuesta nula una
vez que el escal
on alcanza un nivel constante (dado que la ganancia a continua
es cero).
222
La transicion entre una zona de paso y otra de rechazo (y viceversa) que
ocurre en |H( )| es siempre gradual. Una forma de cuantificar un lmite para
esa transicion es lo que se define como frecuencia de corte. Esta definicion,
aunque arbitraria es universalmente
aceptada. En la Figura 6.6, c es la fre
cuencia de corte si a = A/ 2.
Aparte del comportamiento pasa bajos y pasa altos podemos reconocer las
caractersticas pasa banda y elimina banda. Las caractersticas generales de
ambos sistemas aparecen reflejadas en los graficos de la Figura 6.8.
|H(j)|

|H(j)|

c1

c2

c1

c2

Figura 6.8: Sistemas pasa banda y elimina banda.


136CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
El sistema descrito por la caracterstica del lado izquierdo en la Figura 6.8
bloquea las frecuencias bajas y las fecuencias altas, en cambio, deja pasar un
rango de frecuencias intermedias. Por su parte, el sistema descrito por la caracterstica del lado derecho en la Figura 6.8, bloquea un rango intermedio de
frecuencias y deja pasar tanto las altas como las bajas frecuencias. El comportamiento de estos sistemas puede ser estudiado tambien usando una secuencia
de escalones. Para ilustrar las diferentes conductas desarrollamos un ejemplo.
Ejemplo 6.8. Considere los siguientes sistemas:

( + 1)2
( )2 + 1
H4 ( ) =
( + 1)2
H3 ( ) =

Pasa banda

(6.88)

Elimina banda

(6.89)

1.5
Respuesta a escaln

frecuencias de corte

y (t)
4

0.5
0

y3(t)

0.5
1
1.5

10

15
Time [s]

20

25

30

Figura 6.9: Respuesta a escalones de un sistema pasa banda y un sistema elimina banda.

Cuando a ambos sistemas se aplica una secuencia de escalones se obtiene el


resultado de la Figura 6.9. De la Figura 6.9 se observa que la respuesta del filtro
pasa banda, y3 (t), no puede seguir las transiciones de los escalones, y presenta
respuesta nula una vez que el escal
on alcanza niveles constantes (tiene ganancia
a continua igual a cero). Por su parte, la respuesta del filtro elimina banda,
y4 (t), es capaz de replicar instant
aneamente los cambios bruscos, y de alcanzar,
sin error, el valor constante de la entrada (tiene ganancia a continua igual a
uno). Sin embargo, y4 (t) presenta una anomala justo despues de la transici
on
brusca. Esta anomala se debe a que el sistema bloquea un rango intermedio de
frecuencias.
222
En el caso de los sistemas pasa banda y sistemas elimina banda,
existen dos

frecuencias de corte, c1 y c2 (vea Figura 6.8), para a = A/ 2.


Cualquiera que sea la naturaleza filtrante del sistema, las frecuencias de corte
son las que delimitan la(s) banda(s) de paso y la(s) banda(s) de rechazo.

DE FOURIER. EL CASO DEL TIEMPO CONTINUO137


6.2. LA TRANSFORMACION

6.2.5.

Caso singular en la funci


on de transferencia.

sistema! estable

En primer lugar, se debe enfatizar que:

La funcion de transferencia de un sistema lineal de tiempo continuo


esta definida solo si su respuesta a impulso tiene transformada de Fourier. Esto es equivalente a exigir que el sistema tenga solo frecuencias naturales en el SPI cerrado, con la condicion que si algunas de esas frecuencias
naturales estan sobre el eje imaginario, ellas sean simples
Es muy importante notar que el Lemma 6.1 en la pagina 129, que iguala
H( ) con la respuesta en frecuencia, esta formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
en el eje imaginario, aunque sean no repetidas. Veamos a traves de un ejemplo,
los resultados erroneos que surgen si no somos cuidadosos.
Ejemplo 6.9. Un sistema con entrada u(t) y salida y(t), tiene una EDS:
dy(t)
= u(t)
(6.90)
dt
Observamos que el sistema tiene s
olo una frecuencia natural, y ella est
a ubicada en = 0, es decir, se trata de una frecuencia natural no repetida en el eje
imaginario.
La respuesta en frecuencia, K() est
a dada por la ganancia al modo forzante
e t , y ella resulta de aplicar (3.24) a este caso particular:
K() =

(6.91)

Suponga que u(t) = eat (t), a > 0 y si, err


oneamente, hacemos H( ) =
K(), entonces y(t) se puede calcular a partir de :

y(t) = F

{Y ( )} = F

{H( )U ( )} = F

1
( + a)

(6.92)

As se obtiene:

Maple
>with(inttrans):
>assume(a>0);simplify(evalc((invfourier(1/(-w^2+I*a*w),w,t)));

y(t) =

signo (t) 2eat (t)


2a

(6.93)


138CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
dando origen a una respuesta no causal, ya que la funci
on signo (t) tiene valor
1, t < 0.
Para obtener la respuesta correcta, recordemos que la funci
on de transferencia H( ) es la transformada de Fourier de la respuesta del sistema a un
impulso unitario. Aplicando esta definici
on a nuestro sistema se llega a:
H( ) =

1
+ ()

(6.94)

Entonces
y(t) = F


1 eat (t)

1
+ () =
(t)
( + a)
a
a

(6.95)

que es la respuesta correcta.


222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales en el eje imaginario, los modos naturales asociados no
decaen, y la transformada de Fourier de cada uno de ellos solo existe en el
lmite. Esta condicion es acusada por la presencia de deltas de Dirac en . As,
la funcion de transferencia es una funcion racional mas uno o varios deltas de
Dirac en .
La u
ltima pregunta que debemos responder es por que la determinacion de
H( ) usando (6.31) no da el resultado correcto. La respuesta esta en que para
pasar de (6.31) a (6.33) se requiere dividir por un polinomio que se hace cero
para uno o mas valores de , es decir, se realiza una division por cero a esas
frecuencias. Consideremos un ejemplo adicional.
Ejemplo 6.10. Sea un sistema con la EDS:
d 2 y(t)
+ 4y(t) = 3u(t)
dt 2
Al aplicar transformaci
on de Fourier se obtiene:
(( )2 + 4)Y ( ) = 3U ( )

(6.96)

(6.97)

Observamos que y(t) contiene dos modos naturales complejos, los que combinados generan una se
nal sinusoidal de frecuencia 2 [rad/s]. Esto implica que
Y ( ) debe incluir dos impulsos: ( 2) y ( + 2).
Cuando dividimos ambos lados de (6.97) por (( )2 + 4), estamos dividiendo
por cero cuando = 2, exactamente donde ocurren los impulsos. Esta divisi
on
llevara, err
oneamente, a que la funci
on de transferencia sera:
3
( )2 + 4

(6.98)

Sin embargo, la respuesta del sistema a u(t) = (t) est


a dada por:
h(t) =

3
sen(2t)(t)
2

(6.99)

DE FOURIER. EL CASO DE TIEMPO DISCRETO139


6.3. LA TRANSFORMACION
As, el valor correcto de H( ) es:
H( ) =

3
3
+ j (( + 2) ( 2))
( )2 + 4
2

(6.100)
222

6.3.

La Transformaci
on de Fourier. El caso de
tiempo discreto

Consideremos en esta seccion el caso de las funciones no periodicas, definidas


en tiempo discreto, y como se pueden hacer un desarrollo analogo para estas
que permita representar de alguna forma su contenido en frecuencia.
En primer lugar, recordemos las expresiones correspondientes a la representacion en serie de Fourier de una funcion periodica definida en tiempo discreto, tal como se vio en el Captulo 5. Sea y[t] una funcion periodica de perodo
N , entonces esta se puede representar mediante una serie de Fourier discreta
que no es mas que una combinacion lineal finita de N exponenciales complejas:

y[t] =

N
1
X

Cn ejo nt ;

donde o =

n=0

Cn =

2
N

N 1
1 X
y[t]ejo nt
N t=0

Consideremos ahora el caso en que el perodo N de la se


nal crece hasta
infinito, es decir, tenemos una se
nal que ya no es periodica. En este caso se puede
hacer el siguiente desarrollo, totalmente analogo al caso de la transformacion de
Fourier para funciones de tiempo continuo, en la seccion 6.2.
Llamemos n = no y definamos la funcion:
Y (ejn ) = N Cn

(6.101)

Reemplazando en la representacion en serie anterior:

y[t] =
=

N 1
1 X
Y (ejn )ejo nt
N n=0

N 1
1 X
Y (ejn )ejn t
2 n=0

(6.102)
(6.103)

Ya que la frecuencia fundamental en este caso es o = n+1 n = , es


decir, la separacion entre armonicas es igual a la frecuencia fundamental. La
sumatoria anterior corresponde a una suma de Riemann[11] que llevada al


140CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
transformada de Fourier! discreta
lmite cuando
transformada de Fourier! discreta inversa

N se convierte en una integral en la variable , que pasa a


ser continua. Cabe observar que el lmite superior de la integral es:
2
(N 1)
N
= 2

N 1 =
lm N 1

(6.104)
(6.105)

Por tanto, cuando el perodo de la funcion N se tiene que:


y[t] =

1
2

Y (ej )ejt d

(6.106)

Cabe recordar que para el caso de las funciones de tiempo discreto existe
periodicidad en frecuencia, por tanto la funcion y[t] podra representarse empleando el intervalo [, ] o cualquier otro de longitud 2.
La ecuacion (6.106) nos dice que podemos representar la funcion de tiempo
discreto y[t] como una integral que involucra la funcion Y (ej ), que ahora presenta valores en forma continua en el intervalo [0, 2]. Veamos ahora cual es la
expresion que permite obtener esta funcion. A partir de la definicion hecha en
(6.101) tenemos:
Y (ejn ) = N Cn =

N
1
X

y[t]ejo nt =

t=0

N
1
X

y[t]ejn t

(6.107)

t=0

Cuando N aparece la variable continua y es necesario considerar


todos los valores de la funcion, es decir, el tiempo discreto barre todos los
enteros. Por tanto:
Y (ej ) =

y[t]ejt

(6.108)

t=

Esta funcion es la transformada de Fourier discreta de la funcion y[t].


on inversa de
Mientras que la expresion (6.106) representa la transformaci
Fourier discreta.

Fd {y[t]} = Y (ej ) =

y[t]ejt

(6.109)

t=



1
Fd 1 Y (ej ) = y[t] =
2

Y (ej )ejt d
0

A continuacion, veamos un ejemplo para ilustrar lo anterior.

(6.110)

DE FOURIER. EL CASO DE TIEMPO DISCRETO141


6.3. LA TRANSFORMACION
Ejemplo 6.11. Consideremos como primera se
nal, un delta de Kronecker. Si
calculamos su transformada de Fourier discreta tenemos que esta, se reduce a
un u
nico termino:
Y (ej ) =

[t]ejt = K [0]ej0 = 1

(6.111)

t=

es decir, se obtiene un espectro plano, en analoga al caso del espectro del delta
de Dirac en tiempo continuo. En la Figura 6.10 se muestra el delta de Kronecker
y la transformada de Fourier calculada, que en este caso resulta tener s
olo parte
real.
2
1
1.5

0.6

Y(ej)

k[t]

0.8

0.4
0.2

1
0.5

0
0.2
5

0
t

Figura 6.10: Delta de Kronecker y su transformada de Fourier

222
Ejemplo 6.12. Consideremos ahora la se
nal exponencial:
y[t] = t [t]

|| < 1

(6.112)

Su transformada de Fourier discreta es:


Y (ej ) =

t=

y[t]ejt =

t ejt =

t=0

(ej )t

(6.113)

t=0

La expresi
on para Y (ej ) resulta ser una serie geometrica convergente ya
j
que |e | < 1. Por tanto su suma es
Y (ej ) =

1
1 ej

(6.114)

La transformada Y (ej ) puede ser reescrita en forma polar (m


odulo y a
ngulo)
como:


142CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

1
1 cos() + j sen()
1
1
j
|Y (e )| = p
=p
2
2
(1 cos()) + ( sen())
1 2 cos() + 2


sen()
Y (ej ) = arctan
1 cos()
Y (ej ) =

(6.115)
(6.116)
(6.117)

6
1

5
4

0.6

|Y(ej)|

y[t]

0.8

0.4

3
2

0.2

0
0.2
2

4
t

10

Figura 6.11: Se
nal y[t] = (0,8)t [t] y la magnitud de Y (ej ).
En la Figura 6.11 se muestra la se
nal en tiempo discreto y la magnitud de
su transformada de Fourier discreta cuando = 0,8
222
Ejemplo 6.13. Consideremos ahora un pulso discreto definido seg
un
(
1 ; |t| 5
y[t] =
0 ; |t| > 5

(6.118)

Su transformada de Fourier discreta est


a dada por la expresi
on:
Y (ej ) =

5
X

ejt

(6.119)

t=5

Se puede apreciar directamente que es una funci


on real, ya que cada par de
exponenciales complejas conjugadas al sumarse se transforman en una funci
on
coseno, es decir:
Y (ej ) = 1 + 2

5
X

cos(t)

(6.120)

t=1

Alternativamente, la transformada se puede calcular calculando la suma de


la progresi
on geometrica de exponenciales:

DE FOURIER. EL CASO DE TIEMPO DISCRETO143


6.3. LA TRANSFORMACION
Parseval
energ
a

Y (ej ) =

5
X

ejt = ej(5)

t=5

ej5 ej6
1 ej(11)
=
j
1e
1 ej

(6.121)

Esta expresi
on, a priori, no parece ser real, pero si se reescribe convenientemente tenemos que:

Y (e ) =

ej5 ej6 ej 2
(1 ej ) ej

ej

11
2

ej

ej ej

11
2

sen( 11
2 )
1
sen( 2 )

(6.122)

Note que la ecuaci


on (B.48) del Apendice B, establece justamente la propiedad
que permite convertir la suma de cosenos en un cuociente de senos.
15
1
10

0.6

Y(e )

y[t]

0.8

0.4
0.2

5
0

0
0.2
10

0
t

10

Figura 6.12: Se
nal y[t] y su transformada discreta Y (ej ).

La Figura 6.12 se muestran los gr


aficos del pulso en tiempo discreto y de su
transformada de Fourier.
222
En el Apendice C se incluyen las propiedades mas importantes de la transformacion de Fourier en tiempo discreto (tabla C.3 en la pagina 390), ademas
de una lista de transformadas simples que se pueden utilizar para el calculo de
otras mas complejas (Tabla C.4 en la pagina 391).

6.3.1.

Parseval y las se
nales aperi
odicas de tiempo discreto

Los resultados deducidos por Parseval en el Apendice C permiten tambien


relacionar directamente las caractersticas de energa de una se
nal cualquiera con
su transformada de Fourier discreta. En el caso de se
nales de tiempo discreto, las
ideas de potencia y energa no tienen la connotacion fsica que poseen cuando se
usan en el contexto de las se
nales de tiempo continuo. Sin embargo, son tambien


144CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
concepto u
tiles, especialmente si la secuencia de tiempo discreto se origina en
el muestreo de una se
nal de tiempo continuo.
Para la se
nal real de tiempo discreto f [t] se define la energa como:
W =

(f [t])

(6.123)

t=

Si la se
nal f [t] tiene energa finita en el intervalo (, ), y su transformada
de Fourier es F (ej ) entonces, aplicando el Teorema C.2 en la pagina 386, se
tiene que:

t=

(f [t]) =

1
2

2
0

|F (ej )|2 d

(6.124)

Observando el lado derecho de la ecuacion, podemos calcular la fraccion de


la energa total que es aportada por cada intervalo del espectro (k , k+1 ). En
comparacion con el caso continuo, aca el calculo es mucho mas complicado.

6.3.2.

Aplicaci
on a sistemas lineales

Consideremos un sistema lineal de tiempo discreto definido por su ecuacion


recursiva (ERS):

y[t] + an1 y[t 1] + . . . + a1 y[t n + 1] + a0 y[t n]

= bm u[t] + bm1 u[t 1] + . . . + b1 u[t m + 1] + b0 u[t m]

(6.125)

En que m y n son enteros positivos cualesquiera. Si aplicamos transformada


de Fourier a ambos lados de la ecuacion tenemos:
Y (ej )(1 + an1 ej + . . . + a1 ej(n1) + a0 ejn ) =
U (ej )(bm + bm1 ej + . . . + b1 ej(m1) + b0 ej )

(6.126)

Si se factoriza y despeja la transformada de Fourier de la secuencia de salida


tenemos que esta resulta ser la transformada de la entrada U (ej ) multiplicada
por una funcion racional en la variable ej :

Y (ej ) =

bm + bm1 ej + . . . + b1 ej(m1) + b0 ej
U (ej )
1 + an1 ej + . . . + a1 ej(n1) + a0 ejn

(6.127)

Justamente podemos apreciar que la funcion racional que aparece multiplicando la entrada depende solo del sistema, ya que solo depende de los coeficientes
de la ERS inicial. Con esta expresion podemos obtener la secuencia de salida
del sistema calculando la transformacion de Fourier inversa.
En particular, cuando la entrada es un delta de Kronecker en el origen:

DE FOURIER. EL CASO DE TIEMPO DISCRETO145


6.3. LA TRANSFORMACION

u[t] = K [t]

U (ej ) = 1

(6.128)

En este caso la salida del sistema es:

Y (ej ) =

bm + bm1 ej + . . . + b1 ej(m1) + b0 ej
= H(ej )
1 + an1 ej + . . . + a1 ej(n1) + a0 ejn

(6.129)

es decir, la funcion racional H(ej ) es exactamente la transformada de Fourier


de la respuesta del sistema a un delta de Kronecker en su entrada. De esta forma,
la respuesta a cualquier otra se
nal de entrada se obtiene usando la relacion:
Y (ej ) = H(ej )U (ej )

(6.130)

Esta ecuacion, corresponde, en el dominio de tiempo discreto, a la convolucion de las secuencias temporales:
y[t] = h[t] u[t] =

l=

u[l]h[t l]

(6.131)

en que, tal como se vio al final del Captulo 4, la secuencia h[t] es la respuesta
del sistema al delta Kronecker.

La funcion H(ej ) es la funci


on de transferencia del sistema de tiempo discreto, y resulta igual a la ganancia al modo forzante ejt , descrita
en (4.35). Esto dice que H(ej ) describe completamente la respuesta en
frecuencia del sistema de tiempo discreto (vea la Seccion 5.4).
Ejemplo 6.14. Consideremos el sistema de tiempo discreto definido por su
ecuaci
on recursiva:
y[t] 1,6y[t 1] + 0,63y[t 2] = u[t]

(6.132)

Si aplicamos transformaci
on de Fourier discreta tenemos que:
Y (ej ) 1,6ej Y (ej ) + 0,63ej2 Y (ej ) = U (ej )
j

Y (e )(1 0,9e

)(1 0,7e

) = U (e )

(6.133)
(6.134)

As la funci
on de transferencia est
a dada por:
H(ej ) =

1
(1 0,9ej )(1 0,7ej )

La transformada de la salida queda entonces dada por

(6.135)


146CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
fracciones parciales

Y (ej ) = H(ej )U (ej ) =

(1

U (ej )
0,7ej )

0,9ej )(1

(6.136)

Analizaremos a continuaci
on el comportamiento del sistema para distintas
excitaciones.
Entrada delta de Kronecker
En este caso:
U (ej ) = 1

Y (ej ) =

1
(1 0,9ej )(1 0,7ej )

(6.137)

Donde la transformada de la salida se debe separar en fracciones parciales


para poder aplicar transformaci
on inversa:
Y (ej ) =

3,5
4,5

j
1 0,9e
1 0,7ej

(6.138)

Por tanto, la salida del sistema es:


y[t] = (4,5(0,9)t 3,5(0,7)t )[t]

(6.139)

Note que para esta excitaci


on (delta de Kronecker) y[t] = h[t].
Entrada escal
on unitario
En este caso, u[t] = [t], por lo tanto:

X
1
U (e ) =
+
( + 2`)
1 ej
j

(6.140)

`=

1
Y (e ) =
(1 0,9ej )(1 0,7ej )
j

X
1
+

( + 2`)
1 ej
`=

(6.141)

La expresi
on de la tranformada de Fourier de la secuencia de salida puede
simplificarse separando en fracciones parciales y considerando el valor del termino que acompa
na a la sumatoria de deltas de Dirac s
olo en las frecuencias en
que estos son distintos de cero, es decir, en = 2`. Sin embargo, notamos que:

De esta forma:


100
;
H(ej ) =2` = H(1) =
3

` Z

(6.142)

DE FOURIER. EL CASO DE TIEMPO DISCRETO147


6.3. LA TRANSFORMACION

Y (ej ) =

1
(1 0,9ej )(1 0,7ej )(1 ej )

X
1
( + 2`)

+
(1 0,9ej0 )(1 0,7ej0 )

(6.143)

`=

100
40,5
8,17
100 X
3
( + 2`)
+
+
+

1 0,9ej
1 0,7ej
1 ej
3
`=

(6.144)

Por tanto la secuencia de salida es:

y[t] = Fd

40,5
1 0,9ej

+ Fd

8,17
1 0,7ej

+ Fd

100
3
ej

100
+
()
3
(6.145)

= (40,5(0,9)t + 8,17(0,7)t + 33,3)[t]

2.5

(6.146)

35

30

2
25

1.5

20

15

10

0.5
5

10

15

20

25
k

30

35

40

45

50

10

15

20

25
k

30

35

40

45

50

Figura 6.13: Respuesta a impulso y a escalon del ejemplo 6.14


La Figura 6.13 muestra los gr
aficos de las secuencias de correspondientes a
la respuesta a impulso y a escal
on unitario del sistema.
Entrada exponencial compleja
Ahora u[t] = ejo t y, de la Tabla C.4 en la p
agina 391, tenemos que su
transformada de Fourier es:
U (ej ) = 2

`=

( o + 2`)

(6.147)

Por lo tanto la transformada de Fourier de la respuesta est


a dada por:


148CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

Y (e ) = H(e )U (e ) = H(e )

`=

( o + 2`)

= 2H(ejo )

`=

( o + 2`)

(6.148)

Note que hemos usado la periodicidad en frecuencia de la funci


on de transferencia, lo que implica:
H(ej(o +2`) ) = H(ejo ) = |H(ejo )|ej((o ))

` Z

(6.149)

As, aplicando la transformaci


on inversa, se obtiene:
y[t] = |H(ejo )| ej(o t+(o ))

(6.150)
222

6.3.3.

La funci
on de transferencia y la respuesta en frecuencia

La parte final del Ejemplo 6.14, en la seccion precedente, muestra el vnculo


entre la funcion de transferencia y la respuesta en frecuencia de un sistema de
tiempo discreto. Este resultado se generaliza en el siguiente lema.
Lema 6.2. Dado un sistema estable de tiempo discreto con entrada u[t] y salida
y[t], la respuesta del sistema a la se
nal de entrada sinusoidal u[t] = cos( o t), t,
es:
y[t] = A(o ) cos(o t + (o ))

(6.151)

en que:


A(o ) = H(ejo )
(o ) = H(e

jo

(6.152)
(6.153)

donde H(ej ) es la transformada de Fourier de la respuesta a impulso del sistema h[t].


Demostraci
on
La respuesta a la excitaci
on cos(o t), t Z, puede ser calculada como la
combinaci
on de las respuestas a un par de exponenciales peri
odicas, usando la
relaci
on:
Y (ej ) = H(ej )U (ej )

(6.154)

DE FOURIER. EL CASO DE TIEMPO DISCRETO149


6.3. LA TRANSFORMACION
Si consideramos la entrada u[t] = 21 (ejo t + ejo t ), entonces:
Y (ej ) = H(ej )(( o ) + ( + o ))
= H(e

jo

)( o ) + H(e

jo

(6.155)

)( + o )

(6.156)

luego, la salida es:


1
1
H(ejo )e o t + H(ejo )ejo t
2
2
jo
1
1
jo t+jH(ejo )
jo
+ |H( o )|ejo tjH(e )
= |H(e )|e
2
2
= |H(ejo )| cos(o t + H(ejo ))

y[t] =

(6.157)
(6.158)
(6.159)
222

6.3.4.

Filtraje

La respuesta en frecuencia de los sistemas discretos puede ser caracterizada


a traves de H(ej ). Se aplican en este caso las mismas definiciones que en el caso
de sistemas de tiempo continuo: frecuencias de corte, banda de paso, banda de
rechazo, etc. Existe sin embargo un elemento que agrega complejidad al analisis,
y el es la naturaleza perdiodica de H(ej ). Consideremos un sistema para el que
la magnitud de la respuesta en frecuencia aparece descrita en la Figura 6.14.
1.2
1

|F(ej)|

0.8
0.6
0.4
0.2
0
10

0
Frecuencia

10

Figura 6.14: Respuesta en frecuencia (magnitud) de un sistema de tiempo discreto.


El problema con el grafico de la Figura 6.14 es que genera ambig
uedades
respecto de si se trata de un sistema pasa bajos, pasa banda, etc. El problema
se resuelve si se considera que, cualquiera sea la se
nal procesada por el sistema,
ella tambien tiene un espectro periodico. En consecuencia, la naturaleza filtrante
se puede definir observando H(ej ) solo en [0; ], tal como se ha remarcado
en la Figura 6.14 con un trazo mas grueso.

frecuencia! de corte
pasa bajos
pasa altos
pasa banda
elimina banda


150CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
sistema!estable

6.3.5.

Caso singular en la funci


on de transferencia. El caso
de los sistemas discretos

Para el caso de los sistemas de tiempo discreto conviene recordar que

La funcion de transferencia de un sistema lineal de tiempo discreto


esta definida solo si su respuesta a un delta de Kronecker posee transformada
de Fourier. Esto es equivalente a exigir que el sistema tenga solo frecuencias
naturales en el disco unitario cerrado, con la condicion que si algunas de
esas frecuencias naturales estan sobre la circunferencia unitaria, ellas sean
simples.
Es muy importante notar que el Lema 6.2 en la pagina 148, que iguala
H(ej ) con la respuesta en frecuencia, esta formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
sobre la circunferencia unitaria, aunque sean no repetidas. Veamos a traves de
un ejemplo, los resultados erroneos que surgen si no somos cuidadosos.
Ejemplo 6.15. Un sistema con entrada u[t] y salida y[t], tiene una ERS:
y[t] y[t 1] = u[t]

(6.160)

Observamos que el sistema tiene s


olo una frecuencia natural, y ella est
a ubicada en = 1, es decir, se trata de una frecuencia natural sobre la circunferencia
unitaria y de multiplicidad 1.
La respuesta en frecuencia, K() est
a dada por la ganancia al modo forzante
ejt , y ella resulta de aplicar (3.24) a este caso particular:
K() =

ej
1 ej

(6.161)

Suponga que u[t] = at [t], 1 > a > 0 y si, err


oneamente, hacemos H(ej ) =
K(), entonces y[t] se puede calcular a partir de:
Y (ej ) = H(ej )U (ej ) =
de donde se obtiene:


ej
(ej 1)(ej a)

(6.162)

 j



ej
1
e
1

signo [t] 2at [t]


=
j
j
1a e 1 e a
2(1 a)
(6.163)
dando origen a una respuesta no causal, ya que la funci
on signo [t] tiene valor
1, t < 0.
Para obtener la respuesta correcta, recordemos que la funci
on de transferencia H(ej ) es la transformada de Fourier de la respuesta del sistema a un delta
de Kronecker. Aplicando esta definici
on a nuestro sistema se llega a:
y[t] = Fd 1

DE FOURIER. EL CASO DE TIEMPO DISCRETO151


6.3. LA TRANSFORMACION

H(ej ) =

X
ej
+

( 2`)
ej 1

(6.164)

`=

y, usando la periodicidad de la funci


on ej , se tiene que:
"
#

j
j
X
1
e
e
Y (ej ) =

+
( 2`)
1 a ej 1 ej a

(6.165)

`=

Entonces, la salida se obtiene, por ejemplo, usando Maple :





1
1 at
1
y[t] = Fd
+ () =
[t]
( + a)
a
1a

(6.166)

que es la respuesta correcta.

222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales sobre la circunferencia unitaria, los modos naturales asociados no decaen, y la transformada de Fourier de cada uno de ellos solo existe
en el lmite. Esta condicion es acusada por la presencia de deltas de Dirac en
el dominio de la frecuencia . As, la funcion de transferencia es una funcion
racional mas uno o varios deltas de Dirac en .
La explicacion de esta situacion es analoga a la del caso continuo.


152CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO

6.4.

Problemas para el lector

Problema 6.1. Determine la transformada de Fourier de las siguientes funciones, ya sea mediante la defici
on o usando tablas y transformadas conocidas
(ver Apendice C):
1.

y(t) = [(t + T ) (t T )]t

2.

y(t) = (1 2e|t| )2

3.

1
2
y(t) = e
2

!2

;T > 0

(Recuerde que

Problema 6.2. Considere la funci


on:

4t(t + 1)
y(t) = 4t(t 1)

eu du =

; 1 < t < 0
;0 < t < 1
; |t| 1

6.2.1 Grafique la funci


on.

6.2.2 Determine la transformada de Fourier Y ( ) de la funci


on y(t).
6.2.3 Cu
al es la serie de Fourier exponencial de y(t) consider
andola solo en
el intervalo [-1,1]?
6.2.4 Grafique por separado la parte real e imaginaria de Y ( ) y compare con
los coeficientes obtenidos para la serie de Fourier exponencial. Comente.
Problema 6.3. Demuestre que una funci
on f (t) arbitraria (o de perodo infinito) puede expresarse en la forma de Integral de Fourier:

f (t) =

[A() cos(t) + B() sen(t)] d

en que:
A() =
B() =

f (t) cos(t)dt
f (t) sen(t)dt

C
omo se reducen las expresiones si f (t) es par o impar?
Problema 6.4. Usando la ecuaci
on de Euler para exponenciales complejas:

6.4. PROBLEMAS PARA EL LECTOR

153

6.4.1 Demuestre que si y(t) es par, entonces su transformada de Fourier Y ( )


es real.
6.4.2 An
alogamente, demuestre que si y(t) es impar, entonces su transformada
de Fourier Y ( ) es imaginaria pura.
Problema 6.5. Considere el sistema de segundo orden definido por:
d 2 y(t)
+ 100y(t) = 100u(t)
dt 2
Encuentre la salida del sistema mediante la transformaci
on de Fourier cuando
6.5.1 u(t) = sen(o t)(t), con condiciones iniciales cero.
6.5.2 u(t) = sen(o t).
6.5.3 Grafique y compare las soluciones obtenidas en los puntos anteriores
cuando o 6= 10 y cuando o = 10 . Comente.
Problema 6.6. Suponga que se quiere dise
nar un sistema cuya caracterstica
en frecuencia sea:
(
1 ; || < c
H( ) =
0 ; || < 0
Es decir, este sistema act
ua como filtro ideal ya que permite el paso de
sinusoides de frecuencias menores que c sin afectarlas, mientras que aquellas
de frecuencias mayores no aparecen en la salida.
6.6.1 Grafique H( )
6.6.2 Determine cu
al debiera ser la respuesta a impulso del sistema.
6.6.3 Que puede comentar respecto del resultado obtenido?
Problema 6.7. Determine la transformada de Fourier discreta delas siguientes
funciones:
y[t] = (t + 1)t [t] , con || < 1
y[t] =

2t + 3 t
[t]
6t

y[t] = cos(1 t + ) , con 0 < 1 < 2


154CAPITULO 6. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
Problema 6.8. Considere un pulso de tiempo discreto de amplitud A > 0 y
centrado en t = 0, definido por:
(
A ; |t| N
y[t] =
N Z+
0 : |t| > N
6.8.1 Grafique el pulso en tiempo discreto para algunos valores de A y N .
6.8.2 Determine la transformada de Fourier discreta de y[t] ( Sugerencia : use
la ecuaci
on B.2.35).
6.8.3 Grafique la transformada de Fourier discreta para distintos valores de N .
6.8.4 Determine el valor de Y (ej0 ) en funci
on de N .
6.8.5 Analice que sucede para valores extremos de N , es decir, cuando N = 0
y cuando N .
Problema 6.9. Determine la respuesta a un delta de Kronecker y a un escal
on
unitario de los sistemas de tiempo discreto dados por sus ERS:
6.9.1 y[t] y[t 1] = 2u[t 7];

y[1] = 1

6.9.2 y[t] = u[t 1] 0, 5u[t 2] + 0, 2u[t 3]


6.9.3 y[t] 1, 1y[t 1] + 0, 24y[t 2] = u[t 2];

y[1] = 1; y[2] = 1

Problema 6.10. Tenemos un sistema de tiempo discreto el queremos que su


respuesta en frecuencia sea igual a:
(
1 ; || < c
j
H(e ) =
0 ; c < ||
6.10.1 Determine su respuesta a un delta de Kronecker.
6.10.2 Determine, si es posible, su respuesta a un escal
on de tiempo discreto.
Comente.

Laplace
transformada de
Laplace|textbf
sistema!din
amico
sistema!estable
sistema!inestable
se~
nal!no acotada
se~
nal! de tiempo continuo

Captulo 7

An
alisis bajo excitaciones
arbitrarias. La
transformada de Laplace
Entre los metodos disponibles para el estudio de los sistemas dinamicos,
lineales y de tiempo continuo, uno en particular resulta ser especialmente u
til:
la transformada de Laplace. Las principales ventajas de este metodo se pueden
resumir en lo siguiente:
Permite el analisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de se
nales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La EDS es transformada en una ecuacion algebraica, que puede ser manejada de manera mas simple.

7.1.

Definici
on de la transformada

Considere una se
nal de tiempo continuo y(t), definida para 0 t < .
La transformada de Laplace asociada a y(t), y su transformada inversa estan
definidas como:

L {y(t)} = Y (s) =
L1 {Y (s)} = y(t) =

1
2j

155

est y(t)dt

(7.1)

+j

est Y (s)ds
j

(7.2)


156CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
transformada de Laplace!definici
on Y (s) es la transformada de Laplace de y(t). El par transformada y su transtransformada de
formada inversa estan estan bien definidas si existe R, y una constante
Laplace!inversa
transformada de
positiva k < tales que:
Laplace!regi
on de convergencia
fracciones parciales
|y(t)| < ket ; t 0
(7.3)
funci
on de transferencia
ecuaci
on diferencial! del
La region <{s} se conoce como la regi
on de convergencia de la
sistema
EDS
transformada.

Suponemos que el lector ha conocido estas ideas anteriormente en alg


un
curso de Matematicas, a pesar de lo cual se presenta en el Apendice D una
revision de la transformada de Laplace, sus propiedades y las transformadas
de algunas funciones simples. Tambien se incluye una revision del metodo de
fracciones parciales, el cual resulta de utilidad para obtener transformadas de
Laplace inversas para funciones racionales.
En este captulo nos concentraremos en esta transformada como herramienta
para el analisis de los sistemas lineales.

7.2.

Aplicaci
on a sistemas lineales: la funci
on de
transferencia

Como ya hemos visto, una gran cantidad y variedad de sistemas de interes,


pueden ser representados mediante un modelo lineal. Como se vio en el Captulo
1, esto se consigue linealizando la o las ecuaciones diferenciales que describen el
comportamiento del sistema en el tiempo en torno a un punto de equilibrio o,
mas generalmente, en torno a un punto de operacion. Para el caso de sistemas de
una entrada y una salida, el proceso de linealizacion desemboca en la obtencion
de una ecuacion diferencial del sistema (EDS), cuya forma general es:
dn1 y(t)
dm
dn y(t)
+
a
+
.
.
.
+
a
y(t)
=
b
u(t) + . . . + b0 u(t)
n1
0
m
dtn
dtn1
dtm

(7.4)

Cuando se aplica transformada de Laplace a la EDS, usando una de la


propiedades vistas en el Apendice D, la transformada de la derivada de una
funcion es:
 `

d y(t)
d n1 y(0 )
`
`1

L
=
s
Y
(s)

s
y(0
)

(7.5)
dt `
dt n1
Por tanto, si aplicamos esto a la EDS (7.4) tenemos que:
sn Y (s) + an1 sn1 Y (s) + . . . + a0 Y (s)
= bm sm U (s) + . . . + b0 U (s) + f (s, xo )

(7.6)

donde f (s, xo ) es una funcion que depende de la variable s y de las n condiciones


iniciales de la salida y(t) y sus derivadas. Es importante destacar que:

A SISTEMAS LINEALES: LA FUNCION


DE TRANSFERENCIA157
7.2. APLICACION

f (s, x0 ) = p(s) x0

(7.7)

donde p(s) es un vector que contiene polinomios en s y x0 es un vector que


contiene las condiciones iniciales ya mencionadas. Esta estructura explicita la
linealidad del sistema, puesto que la homogeneidad y superposicion respecto de
las condiciones iniciales resulta evidente.
Ahora si suponemos condiciones iniciales iguales a cero, tenemos que:
Y (s) = H(s)U (s)

(7.8)

donde se define la funcion:


H(s) =

B(s)
A(s)

(7.9)

que se forma con los polinomios que contienen los coeficientes de la ecuacion
(7.4) original:
A(s) = sn + an1 sn1 + . . . + a0
m

B(s) = bm s + bm1 s

m1

+ . . . + b0

(7.10)
(7.11)

La funcion racional H(s) es la funci


on de transferencia en el dominio
de Laplace. La representacion (7.9) es muy u
til para describir caractersticas
y propiedades de un sistema tales como estabilidad y velocidad, ademas de
entregar informacion en el momento de dise
nar sistemas de control, filtros u
otras aplicaciones.
Ejemplo 7.1. Consideremos un sistema descrito por la ecuaci
on diferencial:
dy
d 2y
+2
= u(t)
2
dt
dt
Su funci
on de transferencia es:
H(s) =

s2

1
+ 2s

(7.12)

(7.13)
222

A continuacion definiremos algunos conceptos que se encuentran fuertemente


ligados a la definicion de la funcion de transferencia de un sistema. Para esto
consideremos su definicion dada por las ecuaciones (7.9), (7.10) y (7.11). Por
simplicidad, asumiremos que los polinomios B(s) y A(s) no se hacen cero simultaneamente para alg
un valor de la variable compleja s. As, definimos entonces los siguientes terminos:
(i) Las m races de la ecuacion B(s) = 0 son los ceros del sistema. Ellos
hacen ademas que H(s) = 0.

condiciones iniciales
funci
on de transferencia
funci
on!racional
funci
on de
transferencia!ceros
ceros


158CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
funci
on de transferencia!polos (ii) Las n races de la ecuaci
on A(s) = 0 son los polos del sistema. Ellos hacen
polos
adem
a
s
que
H(s)

.
funci
on de
transferencia!multiplicidad
multiplicidad
(iii) Si A(s) = 0 tiene nk races en s = k , decimos que el polo k tiene
funci
on de
multiplicidad nk .
transferencia!grado relativo
grado relativo
(iv) Lapropia
diferencia de grado entre A(s) y B(s), es decir, m n se denomina el
funci
on de transferencia!estrictamente
funci
on de
grado relativo del sistema.
transferencia!bipropia
funci
on de transferencia!propia
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica
funci
on de
transferencia!impropia
que el grado relativo del sistema es positivo.
sistema! estable
entrada
(vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
salida
relativo del sistema es cero.
respuesta! a
impulso
impulso! respuesta a

(vii) Si m n decimos que el modelo es propio.

(viii) Si m > n decimos que el modelo es impropio, o que tiene grado relativo
negativo.
Estas definiciones nos ayudaran a apreciar la forma en que se relaciona la
salida de un sistema con su entrada, tal como pone en evidencia la definicion
(7.9), pero la simplicidad reside en que la relacion se establece mediante la
funcion racional H(s), es decir, las derivadas han desaparecido. Si bien para
llegar a esta relacion las condiciones iniciales se han supuesto cero, sabemos que
en caso de sistemas estables, el efecto de estas desaparece despues de un tiempo.

La funcion de transferencia de un sistema lineal describe en forma algebraica


sus propiedades de entrada-salida.
En forma similar a aquella que se utilizo en el analisis de Fourier, la funcion
de transferencia puede ser definida en base a la respuesta a impulso, con condiciones iguales a cero. Si recordamos como se definio al funcion de transferencia
H(s) al aplicar transformada de Laplace a la EDS del sistema definido en (7.4),
podemos escribir la salida del sistema seg
un la ecuacion (7.8). Se puede apreciar que si a ambos lados de esta expresion, se aplica transformada de Laplace
inversa, tenemos que (vea la Tabla D.1 en la pagina 414):

Y (s) = H(s)U (s) y(t) = h(t) u(t)

(7.14)

h(t) = L1 {H(s)}

(7.15)

En que:

Por lo tanto, podemos afirmar que:

A SISTEMAS LINEALES: LA FUNCION


DE TRANSFERENCIA159
7.2. APLICACION

La funcion de transferencia H(s) de un sistema de tiempo continuo, definida


en (7.9), es igual a la transformada de Laplace de la respuesta h(t) del
sistema a un impulso (Delta de Dirac) en la entrada, cuando las condiciones
iniciales cero.

Aunque en la mayora de los casos de interes, la funcion de transferencia es


una funcion racional en s. Sin embargo, cuando el sistema tiene un retardo ,
la expresion general para la funcion de transferencia es:

H(s) =

B(s) s
e
A(s)

(7.16)

La funcion de tranferencia en Matlab puede definirse mediante vectores


con los coeficientes de los polinomios A(s) y B(s), y el comando tf :

Matlab
>> A=[1 3 2],B=[1 1]
A =
1

B =

>> H=tf(B,A)
Transfer function:
s + 1
------------s^2 + 3 s + 2

O bien, definiendo la variable s:

funci
on de transferencia!con
retardo
funci
on!racional
retardo


160CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
delta de Dirac! en
frecuencia

Matlab
>> s=tf([1 0],[1])
Transfer function:
s
>> H=(s+1)/(s^2+2*s+1)
Transfer function:
s + 1
------------s^2 + 2 s + 1

7.2.1.

Funci
on de transferencia en dominios de Laplace y
Fourier

Cuando el sistema tiene frecuencias naturales en el SPI cerrado, con la restriccion que aquellas frecuencias en el eje imaginario sean simples, las funciones
de transferencia en ambos dominios existen. El elemento com
un es conceptual:
en ambos casos, la funci
on de transferencia corresponde a la respectiva transformada de la respuesta a impulso con condiciones iniciales
iguales a cero.
La definicion y la estructura de H(s) parecen ser identicas a la definicion y la
estructura de la funcion de transferencia en el dominio de Fourier, bastando hacer una simple sustitucion de s por . Sin embargo, esto no siempre es correcto.
La diferencia es que cuando el sistema tiene frecuencias naturales (simples) en
el eje imaginario, la funcion de transferencia en Fourier incluye deltas de Dirac
en frecuencia. Esto se origina en el hecho que la respuesta a impulso del sistema
contiene modos naturales que no decaen y para los cuales la transformada de
Fourier existe solo en el lmite. En cambio, para el mismo sistema, la funcion de
transferencia en Laplace no contiene impulsos en frecuencia, debido a que esta
transformada esta bien definida, bastando escoger <{s} > 0.
Ejemplo 7.2. Consideremos el sistema con la EDS:
d y(t)
d 2 y(t)
+ a1
+ y(t) = u(t)
dt 2
dt

(7.17)

donde a1 0.
La funci
on de transferencia, en el dominio de Laplace, es:
HL (s) =

1
;
s2 + a 1 s + 1

<{s} > 0

En cambio, en el caso de Fourier, debemos distinguir dos casos.

(7.18)


7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALON.

161

(i) Caso a1 > 0 :


En este caso, las frecuencias naturales est
an en el SPI abierto, por lo
tanto, los modos naturales son absolutamente integrables y la funci
on de
transferencia en el dominio de la transformaci
on de Fourier es:
HF ( ) =

1
( )2 + a1 + 1

(7.19)

En este caso:
HF ( ) = HL (s)|s=

(7.20)

(ii) Caso a1 = 0 :
En este caso, las frecuencias naturales est
an sobre el eje imaginario y los
modos naturales combinados corresponden a una sinusoide. M
as especficamente, la respuesta a impulso, con condiciones iniciales iguales a cero
es:
h(t) = sen(t)(t)

(7.21)

agina 389, con o = 1) la funci


on
En consecuencia (vea la Tabla C.2 en la p
de transferencia en el dominio de la transformaci
on de Fourier es:
HF ( ) =

1
j
(( + 1) ( 1)) +
2
( )2 + 1

(7.22)

Se observa que, en este caso, no se cumple (7.20).


222
La relacion entre transformada de Fourier y transformada de Laplace puede
ser resumida en la siguiente afirmacion:

Las transformaciones de Laplace y Fourier son equivalentes, via la relacion


s = , en aquellos casos en que la transformada de Laplace existe para
<{s} > , donde < 0.

7.3.

Respuesta a impulso y respuesta a escal


on.

Como ya hemos visto, la funcion de transferencia esta asociada a la respuesta


a impulso del sistema. Por otro lado sabemos que si se aplica un impulso a la
entrada, la respuesta contiene solamente los modos naturales del sistema; esto
nos permite estudiar su comportamiento natural, que es independiente de la

impulso!respuesta a
escal
on!respuesta a
respuesta!a impulso
respuesta!a escal
on
modos!naturales


162CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
valor final

se
nal de entrada (caractersticas del transiente, velocidad de respuesta, etc.), a
partir del analisis de la funcion H(s).
Debido a la idealizacion implcita en la definicion de un impulso es mucho
mas frecuente estudiar la dinamica natural de un sistema con la ayuda de la
respuesta a escalon, es decir, cuando U (s) = 1/s.
on unitario
La definicion (7.9) nos permite expresar la respuesta a escal
del sistema como:
Y (s) = H(s)

1
s

(7.23)

Lo cual, suponiendo que el sistema no tiene polos en el origen,


corresponde a:
y(t) = y + modos naturales del sistema

(7.24)

donde y = H(0), en virtud del Teorema del Valor Final (ver Teorema D.1 en
la pagina 410). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario esta dada por la constante y . Note que si H(s) tiene uno o mas
ceros en s = 0, entonces y = 0.
Ejemplo 7.3. Consideremos el sistema definido por su EDS:
d y(t)
d 2 y(t)
+5
+ 4y(t) = 2u(t)
dt 2
dt

(7.25)

Si aplicamos transformada de Laplace a ambos lados, suponiendo condiciones


iniciales iguales a cero, podemos obtener la funci
on de transferencia del sistema:

s2 Y (s) + 5sY (s) + 4Y (s) = 2U (s)


H(s) =

(7.26)

Y (s)
2
= 2
U (s)
s + 5s + 4

(7.27)

La respuesta del sistema cuando u(t) es un Delta de Dirac se obtiene directamente de H(s)
U (s) = L {(t)} = 1

Y (s) = H(s) =

s2

2
+ 5s + 4

(7.28)

Donde podemos aplicar transformada inversa separando en fracciones parciales1 , o bien con ayuda de Maple :

1 Este

m
etodo se detalla en el Ap
endice D.


7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALON.

163

Maple
>with(inttrans):
>U(s):=laplace(Dirac(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>Y(s):=convert(Y(s),parfrac,s);
>y(t):=invlaplace(Y(s),s,t);

U (s) = 1
2
s2 + 5s + 4


1
2
1
+
Y (s) =
3 s+1 s+4
2
2
y(t) = et e4t
3
3
Y (s) =

(7.29)
(7.30)
(7.31)
(7.32)

La respuesta a escal
on unitario se puede obtener de manera similar
1
2
1
Y (s) = 2

s
s + 5s + 4 s
Donde se aplica transformada inversa:
U (s) = L {(t)} =

(7.33)

Maple
>with(inttrans):
>U(s):=laplace(Heaviside(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>y(t):=invlaplace(Y(s),s,t);

U (s) =

1
s

2
s(s + 1)(s + 4)
1 2
1
y(t) = et + e4t
2 3
6

Y (s) =

(7.34)
(7.35)
(7.36)

En la Figura 7.1 se puede apreciar tanto la respuesta a escal


on recien obtenida as como la respuesta impulso. Estas se generaron en Matlab, con los comandos impulse y step, que usan como argumento el sistema definido mediante
su funcion de transferencia:


164CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

Matlab
>>G=tf([2],[1 5 4]);
>>subplot(2,1,1),impulse(G);
>>subplot(2,1,2),step(G);

Impulse Response
0.4

Amplitude

0.3
0.2
0.1
0

Time (sec.)
Step Response
0.5

Amplitude

0.4
0.3
0.2
0.1
0

3
Time (sec.)

Figura 7.1: Respuestas a impulso y a escalon en Ejemplo 7.3

222
Es u
til definir tambien un conjunto de parametros que describen ciertas
propiedades de la dinamica del sistema. Para identificar estos parametros a
definir consideremos la funcion de transferencia dada por:
G(s) = 9

s + 1
s2 + 4s + 9

(7.37)

La respuesta a escalon del sistema se muestra en la Figura 7.2. Entonces


podemos definir los siguientes ndices:
Respuesta estacionaria, y : el valor final de la respuesta a escalon, siempre
y cuando el sistema tiene sus polos en el SPI abierto.


7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALON.

165

y +M

y
k y
r

y+

Mu
tu

tr

tp

Tiempo

ts

Figura 7.2: Indices definidos en la respuesta a escalon

Tiempo de Subida (Rise time), tr : el instante de tiempo en que la respuesta a escalon alcanza por primera vez el valor de la respuesta estacionaria y .2
Sobre-respuesta (Overshoot), Mp : el valor maximo que alcanza la respuesta a escalon, usualmente expresado como el porcentaje en que se sobrepasa
la respuesta estacionaria y .
M
axima contra-respuesta (Undershoot), Mu : el maximo (en valor absoluto) que la respuesta a escalon alcanza bajo el cero.
Tiempo de asentamiento (Settling time), ts : el tiempo luego del cual la
respuesta a escalon queda confinada a una banda de desviacion , alrededor del respuesta estacionaria. Esta deviacion, , se define generalmente
como un porcentaje de y , del 2 % o 5 %.
Para el ejemplo en particular, definido en la ecuacion (7.37) y cuya respuesta
a escalon se muestra en la Figura 7.2, el valor de los ndices definidos se muestran
en la Tabla 7.1.3
2 Esta definici
on vara de autor a autor, por tanto debe tenerse claro de qu
e se est
a hablando
al utilizarla.
3 Note que para este ejemplo en particular, hemos elegido un valor inusualmente grande
para , para una mejor visualizaci
on.


166CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
Indice
y
tr
Mp
Mu
ts

Definicion
respuesta estacionaria
tiempo de subida
sobre-respuesta
max. contra-respuesta
tiempo de asentamiento

Valor en el ejemplo
1
1.0
0.5
1.5
1.8

Cuadro 7.1: Indices de la respuesta a escalon

7.4.

Respuesta a condiciones iniciales y se


nales
arbitrarias.

De la misma manera que en la seccion precedente se obtuvo las respuestas


a impulso y a escalon del sistema, la transformada de Laplace permite obtener
la respuesta del sistema cuando la entrada en un tipo mas general de se
nales.
Sin embargo, la ventaja principal que esta transformada, a diferencia de la
transformada de Fourier, permite inclur el efecto de las condiciones iniciales.
Veamos para esto el siguiente ejemplo:
Ejemplo 7.4. Consideremos el sistema definido por su EDS:
d 2 y(t) d y(t)
+
+ y(t) = u(t)
dt 2
dt

(7.38)

Obtengamos primero la salida del sistema cuando la entrada u(t) es cero, y


tenemos condiciones iniciales y(0 ) = 1 e y 0 (0 ) = 1. Si aplicamos transformada de Laplace, recordando la propiedad (7.5), tenemos que:

s2 Y (s) sy(0 ) y 0 (0 ) + sY (s) y(0 ) + Y (s) = 0


2

s Y (s) s 1 + sY (s) 1 + Y (s) = 0


2

Y (s)(s + s + 1) = s + 2
s+2
Y (s) = 2
s +s+1

(7.39)
(7.40)
(7.41)
(7.42)

Donde, para aplicar la inversa, podemos observar que la transformada que


aparece no puede separarse directamente en fracciones parciales, pues sus polos
son complejos, pero si pueden llevarse a la forma de la transformada del seno
y del cosenos con un corrimiento en s. Este corrimiento corresponde a una
exponencial en el tiempo (vea (D.26) en el Apendice D):


7.4. RESPUESTA A CONDICIONES INICIALES Y SENALES
ARBITRARIAS.167

Y (s) =
=

s+2
(s + 12 )2 +

3
4

s + 12
(s + 12 )2 +

3
4

(7.43)
+

(s +

3
2
1 2
2)

(7.44)

3
4

Por tanto, la respuesta a las condiciones iniciales dadas es:


 
 
1
1
y(t) = e 2 t cos 23 t + 3 e 2 t sen 23 t

(7.45)

En la Figura 7.3 se puede apreciar el punto de partida y la pendiente inicial


de la se
nal y(t).

y(t)

0.5

5
t [seg]

10

Figura 7.3: Respuesta a condiciones iniciales para el ejemplo 7.4

Es importante recalcar en este ejemplo que las condiciones iniciales que se


insertan en los calculos al aplicar la transformada de Laplace corresponden a
las de la se
nal en t = 0 . Es decir, son los valores de la funcion y(t) y de su
derivada justo antes que el sistema comience a evolucionar bajo el efecto de
la entrada (que, en el ejemplo previo, es cero). Este alcance es importante pues,
en ciertos casos, se puede producir una discontinuidad en la salida del sistema
en el instante t = 0, es decir, y(0+ ) 6= y(0+ ). Veamos esto en un ejemplo.
Ejemplo 7.5. Considere la red electrica de la Figura 7.4 en que se conecta la
batera de 1[V] en t = 0, y todas las condiciones iniciales son cero.
Por ley de voltajes de Kirchoff tenemos:
vf (t) = vR (t) + vC (t)
Z
1 t
i( )d
(t) = Ri(t) +
C

(7.46)
(7.47)

Derivando a ambos lados y aplicando la transformada de Laplace, con condici


on inicial cero:


168CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
R

valor inicial

+
vf (t)

vc (t)

i(t)
Figura 7.4: Circuito RC

d i(t)
1
d (t)
=R
+ i(t)
dt
dt
C

 1
1
s = R sI(s) i(0 ) + I(s)
s
C

(7.48)
(7.49)

Despejando se obtiene:

C
(7.50)
s RC + 1
Si aplicamos el Teorema del Valor Inicial (vea Apendice D), tenemos que:
I(s) =

sC
1
=
(7.51)
s RC + 1
R
Evidentemente esta es diferente a la corriente inicial, dada en t = 0 . Esto
se comprueba observando que la transformada inversa de I(s) es discontinua en
t = 0:


1/R
1
(7.52)
i(t) = L1 {I(s)} = L1
= et/RC (t)
s + 1/RC
R
222
Consideremos ahora el caso en que la entrada es una se
nal arbitraria.
i(0+ ) = lm sI(s) = lm
s

Ejemplo 7.6. Consideremos el mismo sistema del Ejemplo 7.5, pero en que
ahora la entrada es un pulso definido como:
(
1 ; 0 t 10
(7.53)
u(t) =
0 ; t > 10
Las condiciones iniciales son iguales a cero, por simplicidad. Note que no
habra problemas en considerar el efecto de estas, ya sea incluyendolas en el
desarrollo mediante transformada de Laplace, o bien, dada la linealidad del sistema, se calculando su efecto en la salida por separado y sumandolo al efecto de
la se
nal de entrada.
La funci
on de transferencia del sistema, si se aplica transforma de Laplace,
es:


7.4. RESPUESTA A CONDICIONES INICIALES Y SENALES
ARBITRARIAS.169

H(s) =

Y (s)
1
= 2
U (s)
s +s+1

(7.54)

La transformda de Laplace del pulso u(t) puede obtenerse sin problema, ya


que esta funci
on se expresa en terminos de escalones y se puede utilizar la
propiedad de corrimiento temporal, que se traduce en una exponencial en s (vea
(D.23) en el Apendice D):

Por tanto:

L {f (t t0 )(t t0 )} = est0 F (s)

u(t) = (t) (t 10)

U (s) =

1
1
e10s
s
s

(7.55)

Luego, la transformada de la salida es:


1 e10s
(7.56)
s(s2 + s + 1)
Note que para obtener la inversa, dado que la exponencial s
olo representa un
corrimiento en el tiempo, podemos concentrarnos s
olo en la parte racional de
Y (s), para luego aplicarle dicha traslaci
on temporal. Es decir, consideremos:
Y (s) = H(s)U (s) =

3
1
2

3
3 (s + 12 )2 + 43
4
(7.57)
Donde se observa que tenemos la forma de la transformada de un escal
on,
del seno y del coseno, estas u
ltimas con un corrimiento en la variable s. Este
corrimiento en s corresponde a una exponencial en el tiempo (Apendice D), por
lo tanto:


 
 
1
21 t
3

f (t) = 1 e
cos 2 t +
sen 23 t
(t)
(7.58)
3
Luego la salida es:

s + 12
1
s+1
1
1
F (s) =
=

s(s2 + s + 1)
s s2 + s + 1
s (s + 12 )2 +

Es decir:



y(t) = L1 (1 e10s )F (s) = f (t) f (t 10)

(7.59)



 
 
1
1
y(t) = 1 e 2 t cos 23 t + sen 23 t
(t)
3






1
1
1 e 2 (t10) cos 23 (t 10) + sen 23 (t 10)
(t 10)
3
(7.60)
En la Figura 7.5 se muestra el pulso de entrada u(t) y la salida del sistema,
y(t), ante esta excitaci
on.


170CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
1.5

u(t) y(t)

1
0.5
0
0.5

10
t [seg]

12

14

16

18

20

Figura 7.5: Pulso de entrada y respuesta del sistema del ejemplo 7.6.

Para finalizar, veamos un caso en que la transformada de Laplace permite,


de manera similar a la transformada de Fourier, analizar la respuesta de un
sistema a una se
nal sinusoidal.
Ejemplo 7.7. Consideremos nuevamente el sistema del Ejemplo 7.4 definido
por su EDS:
d 2 y(t) d y(t)
+
+ y(t) = u(t)
dt 2
dt

(7.61)

Supongamos que como entrada al sistema se elige una se


nal sinusoidal de
frecuencia , por ejemplo:
u(t) = cos(t)

(7.62)

Con esto y con ayuda de Maple podemos llegar de manera directa a una
expresi
on para la transformada de Laplace de la salida y aplicarle transformaci
on
inversa:

Maple
>with(inttrans):
>assume(omega>0):
>U(s):=laplace(cos(omega*t),t,s);
>H(s):=1/(s^2+s+1);
>Y(s):=H(s)*U(s);
>y(t):=invlaplace(Y(s),s,t);

7.5. ESTABILIDAD

171

s
(7.63)
s2 + 2
1
H(s) = 2
(7.64)
s +s+1
1
s
2
(7.65)
Y (s) = 2
2
s + s +s+1

1 2
cos(t) +
sen(t) + {modos naturales}
y(t) =
2
+ 1 + 4
2 + 1 + 4
(7.66)
U (s) =

Los modos naturales del sistema decaen a cero cuando t , por tanto
podemos concentrarnos s
olo en la componente particular de la salida. Las componentes seno y coseno pueden combinarse en un solo termino:
y(t) = A() cos (t + ()) + {modos naturales}

(7.67)

En que A() y () son la amplitud y a


ngulo de desfase, respectivemente
definidos por:
1
+ 1 + 4



() = arctan
1 2

A() =

(7.68)
(7.69)

En estas expresiones se aprecia como la amplitud y la fase de la se


nal de
salida dependen de la frecuencia , es decir, corresponden a la respuesta en
frecuencia del sistema. Esto se grafica en la Figura 7.6, con los comandos de
Matlab :

Matlab
>>H=tf(1,[1 1 1]); w=[0:0.01:5];
>>h=freqresp(H,w);hw=h(:);
>>subplot(2,1,1);plot(w, abs(hw));
>>subplot(2,1,2);plot(w, unwrap(angle(hw))*180/pi);

222

7.5.

Estabilidad

Hasta aqu hemos visto que la respuesta de un sistema que tiene una funcion
de transferencia H(s) es de la forma:

respuesta en frecuencia
estabilidad


172CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
multiplicidad! polos
l
mite de estabilidad
SPI

1.4
1.2

Magnitud

1
0.8
0.6
0.4
0.2
0

0.5

1.5

0.5

1.5

2.5

3.5

4.5

2.5
3
Frecuencia [rad/s]

3.5

4.5

Fase

50
100
150
200

Figura 7.6: Magnitud y fase de la respuesta en frecuencia del sistema en Ejemplo


7.7.

Y (s) = H(s)U (s) +

p X
nk
X

k=1 i=1

ki
(s k )i

(7.70)

Donde el valor de cada ki depende de las condiciones iniciales, y donde


hemos asumido que cada polo ubicado en s = k , tiene multiplicidad nk . Esta
suposicion implica a su vez que n1 + n2 + . . . + np = n.
Recordando la definicion de estabilidad, un sistema es estable si cualquier
entrada acotada produce una salida tambien acotada, para cualquier condicion
inicial acotada. Si observamos la ecuacion (7.70) podemos afirmar que la condicion necesaria y suficiente para que el sistema sea estable es que los polos de
este, en el denominador de las fracciones del segundo termino de la ecuacion,
den origen a se
nales que decaigan exponencialmente. Esto se traduce en que los
polos del sistema deben tener parte real estrictamente negativa, es decir, deben
estar ubicados sobre el semiplano izquierdo (SPI) abierto del plano complejo s . Es decir, para sistemas continuos el lmite de estabilidad en un plano
complejo s en que se ubican sus polos es el eje imaginario .
Ejemplo 7.8. Consideremos el sistema del ejemplo 7.1. Los polos de su funci
on
de transferencia est
an ubicados en s = 2 y s = 0. Estos no est
an en el SPI
abierto (el 0 est
a en el SPI cerrado). Por tanto el sistema no es estable. Se

7.5. ESTABILIDAD

173

deja al lector el verificar, usando la transformada de Laplace, que una entrada


constante (diferente de cero) produce una salida que crece indefinidamente.
222

7.5.1.

An
alisis de polinomios

La discusion anterior pone de manifiesto la importancia de conocer la ubicacion de los polos de un sistema, para establecer si se trata o no de un sistema estable. Sin embargo, el determinar la ubicacion exacta de las races de la
ecuacion:
A(s) = sn + an1 sn1 + . . . + a0 = 0

(7.71)

puede ser una tarea bastante engorrosa cuando n 3. Por esto en el analisis del
polinomio A(s), mas que determinar exactamente sus races, lo que nos interesa
es poder asegurar si estas tienen o no parte real estrictamente negativa. Para
esto, consideremos el polinomio p(s) definido como:
p(s) = sn + an1 sn1 + . . . + a1 s + a0

(7.72)

donde ai R.
El problema a estudiar se refiere a determinar si este polinomio tiene o no
todas sus races con parte real estrictamente negativa, o de manera equivalente,
si tiene o no races con parte real mayor o igual que cero. La idea puede naturalmente ser resuelta calculando las n races de p(s). Sin embargo en muchas
aplicaciones resulta de especial interes estudiar la relacion entre los coeficientes
del polinomio con la ubicacion de sus races.
Los polinomios que tienen todas sus races en el semiplano izquierdo cerrado
se conocen como polinomios Hurwitz. Si sus races tienen parte real estrictamente negativa, es decir, se ubican sobre el SPI abierto, los denominaremos
estrictamente Hurwitz .
De la ecuacion (7.72) podemos observar interesantes propiedades que por
supuesto son validas para los polinomios en general. Las que nos interesan en
este caso son aquellas que nos entregan informacion sobre el signo de la parte
real de las races, como las que se detallan a continuacion:
Propiedad 1 El coeficiente an1 cumple con:
an1 =

n
X

(7.73)

i=1

donde 1 , 2 , . . . n son las races de p(s).


Esta propiedad es directa de notar que el polinomio p(s) puede escribirse
como:
p(s) =

n
Y

i=1

(s i )

(7.74)

Hurwitz!polinomio


174CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
entonces, al expandir el producto (7.74) y observar el coeficiente que acompa
na a la potencia (n 1)-esima de s, se obtiene (7.73).
Propiedad 2 El coeficiente a0 cumple con:
a0 = (1)n

n
Y

(7.75)

i=1

Esta propiedad tambien se obtiene de expandir el producto (7.74) y observando el termino constante.
Propiedad 3 Si todas las races de p(s) tienen parte real negativa, entonces es
necesario que ai > 0, i {0, 1, . . . , n 1}.
Para demostrar esta propiedad procedemos de la siguiente forma:

a) Las races de p(s) pueden ser reales o complejas, y si complejas deben


aparecer en pares conjugados (dado que p(s) es un polinomio con
coeficientes reales).
b) En base a lo anterior, y sin perdida de generalidad, podemos suponer
que existen n1 races reales y n2 pares de races complejas. Por lo
tanto n1 + 2n2 = n.
c) Si todas las races tienen parte real negativa, entonces se pueden expresar como:
i = |i |

i = 1, 2, . . . , n1

n1 +i = n1 +n2 +i = |i | + ji

(7.76)
i = 1, 2, . . . , n2

(7.77)

d) De esta forma, tenemos que


p(s) =

n1
Y

i=1

(s + |i |)

n2
Y
l=1

(s + |l |)2 + l2

(7.78)

donde, la segunda productoria ha agrupado, en factores cuadraticos,


los pares conjugados.
e) De (7.78) se observa que p(s) corresponde al producto de polinomios de
primer y segundo orden, los que tienen todos sus coeficientes reales
y positivos. Como los coeficientes de p(s) son suma de productos de
los coeficientes de estos polinomios de primer y segundo orden, la
propiedad queda demostrada.
Note que esta propiedad es necesaria para que p(s) sea un polinomio estricamente Hurwitz, pero no suficiente, excepto en el caso en que n = 1
y n = 2.
Propiedad 4 Si alguno de los coeficientes es negativo o cero, entonces una
o mas races de p(s) tiene parte real negativa o cero. Esta propiedad se
deduce directamente de la propiedad anterior.

7.5. ESTABILIDAD

175

Ademas de los criterios que nos entregan las propiedades anteriores, uno de
los metodos clasicos para determinar la naturaleza Hurwitz de un polinomio es
el algoritmo de Routh, tambien conocido como algoritmo o criterio de RouthHurwitz, que a continuacion se explica.
Consideremos un polinomio p(s) de grado n, definido como
p(s) =

n
X

ai s i

(7.79)

i=0

sn
sn1
sn2
sn3
sn4
..
.
s2
s1
s0

0,1
1,1
2,1
3,1
4,1
..
.

0,2
1,2
2,2
3,2
4,2
..
.

n2,1
n1,1
n,1

n2,2

0,3
1,3
2,3
3,3
4,,3
..
.

0,4
1,4
2,4
3,4
4,4
..
.

...
...
...
...
...

Cuadro 7.2: Arreglo de Routh

El algoritmo de Routh se basa en la construccion del arreglo numerico que se


muestra en la Tabla 7.2. donde los terminos de las dos primeras filas se calculan
seg
un:

0,i = an+22i ;

i = 1, 2, . . . , m0

(7.80)

1,i = an+12i ;

i = 1, 2, . . . , m1

(7.81)

con m0 = (n + 2)/2 y m1 = m0 1 para n par y m1 = m0 para n impar.


Mientras que los terminos de la tercera fila en adelante se calculan seg
un

k,j =

k1,1 k2,j+1 k2,1 k1,j+1


k1,1

k = 2, . . . , n

j = 1, 2, . . . , mj

(7.82)
donde mj = max{mj1 , mj2 } 1, mientras que se asigna valor cero al coeficiente k1,j+1 , cuando no esta definido en el arreglo de Routh 7.2.
Una vez construdo el arreglo de Routh podemos aplicar el siguiente resultado:

Routh!algoritmo


176CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

Dado un polinomio p(s) como el definido en (7.79) y el arreglo asociado a


umero de races de p(s) con parte real mayor que cero
el 7.2, entonces el n
es igual a n
umero de cambios de signo en la primera columna del arreglo.

Ejemplo 7.9. Para ilustrar el uso del algoritmo de Routh-Hurwitz consideremos


el siguiente sistema:
d y(t)
d 3 y(t) d 2 y(t)
+
+2
+ 3y(t) = u(t)
dt 3
dt 2
dt

(7.83)

Su funci
on de transferencia est
a dada por:
H(s) =

1
Y (s)
= 3
2
U (s)
s + s + 2s + 3

(7.84)

Por tanto, para la estabilidad debemos analizar las races del polinomio denominador:
p(s) = s3 + s2 + 2s + 3

(7.85)

El arreglo de Routh en este caso es:


s3
s2
s1
s0

23
1

1
1
= 1
3

2
3
0
0

Donde se observa de inmediato que en la primera columna aparece un 1,


por tanto existen races con parte real positiva. Lo que se puede confirmar, por
ejemplo, con ayuda de Matlab. Este permite obtener las races de un polinomio
dados sus coeficientes, mediante el comando roots :

Matlab
>> roots([1 1 2 3])
ans =
0.1378 + 1.5273i
0.1378 - 1.5273i
-1.2757

222

7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL

7.6.

177

Polos, ceros y la respuesta temporal

A continuacion examinaremos algunas propiedades fundamentales de los polos y ceros de la funcion de transferencia de un sistema, y su influencia sobre
las caractersticas de la respuesta de un sistema lineal.
Consideremos una funcion de transferencia de la forma general:
Qm
(s i )
H(s) = K Qni=1
(s
l )
l=1

(7.86)

donde l C y i C. Si suponemos que no hay valores de l y de i tales que


l = i entonces, 1 , 2 , . . . , m and 1 , 2 , . . . , n son los ceros y los polos de
la funcion de transferencia, respectivamente. El grado relativo, antes definido es
4
nr = n m.
Estaremos particularmente interesados en aquellos ceros ubicados en el eje
imaginario o en su cercana, y en aquellos polos ubicados en el semiplano derecho.
Los polos y ceros ubicados en estas regiones juegan un rol fundamental en la
dinamica del sistema.
Una clase especial de funcion de transferencia es aquella que tiene todos sus
ceros y sus polos en el semiplano izquierdo (SPI) del plano complejo s . Tradicionalmente estas se denominan funciones de transferencia de fase mnima.
Sin embargo, de aqu en adelante usaremos este nombre para referirnos simplemente a funciones de transferencia sin ceros en el semiplano derecho (SPD),
que tengan o no polos en el. Diremos que un cero tiene fase no mnima si se
encuentra ubicado en el SPD cerrado, de otra forma se denominara cero de fase
mnima. Si hablamos de una funci
on de transferencia estable nos referimos
a que todos sus polos se ubican sobre el SPI abierto; si decimos que inestable, es
porque al menos uno de sus polos se encuentra en el SPD cerrado. Los polos en
si mismos tambien se pueden denominar estables o inestables, si se encuentran
dentro o fuera del SPI abierto,respectivamente 4 .
A continuacion examinaremos la influencia sobre la respuesta transiente de
un sistema de los polos y ceros de su funcion de transferencia.

7.6.1.

Polos

Como el lector recordara de sus cursos de matematicas, una funcion racional


siempre puede descomponerse en fracciones parciales, tal es el caso tambien de
la funcion de transferencia de un sistema en la variable s. Cada uno de los
terminos de esta expansion contiene ya sea un polo real simple, un par de polos
complejos conjugados o m
ultiples combinaciones de polos repetidos. Por tanto,
para conocer el efecto de los polos en la respuesta transiente de un sistema
basta conocer el efecto ocasionado por los polos de primer y segundo orden y
su interaccion.
4 En ocasiones, por abuso de lenguaje, los ceros de fase no m
nima tambi
es se les denomina
ceros inestables, dado que se encuantran al la regi
on del plano s en que los polos son inestables.

funci
on de transferencia!grado relati
fase m
nima
ceros!fase no m
nima
funci
on de transferencia! estable
polos
fracciones parciales


178CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
polos!r
apidos
polos!dominantes
polos!lentos

Un polo de primer orden contribuye a la descomposicion en fracciones parciales, en general, con un termino de la forma:
K1
(7.87)
1 s + 1
Mientras que un polo de segundo orden contribuye a la expansion con un
termino:
H1 (s) =

H2 (s) = 

K2

(7.88)
 
s
s
+1
+ 2
n
n
Cada polo genera un termino especfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos estan presentes tambien en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicacion de este sobre el plano complejo s , exactamente equivalente a la
ubicacion de cada frecuencia natural sobre un plano complejo, como se vio en el
Captulo 3 3. Para ilustrar esto podemos apreciar en la Figura 7.7 las diferentes
respuestas a impulso de un sistema que tiene por funcion de transferencia:
H1 (s) =

2

1
sp

(7.89)

para los polos ubicados sobre el eje real, y


H2 (s) =

1


s (a + bj) s (a bj)

(7.90)

para los polos complejos, que aparecen emparejados con su conjugado.


Tanto la ubicacion en el plano complejo de los polos de un sistema, como las
caractersticas por esta determinada, estan en directa relacion con las frecuencias
naturales que se pueden obtener a partir de la EDS del sistema.
En virtud de estas analogas es que nos referiremos, en general, como polos
r
apidos a aquellos que se encuentran mas alejados del lmite de estabilidad que
los demas polos del sistema. Esto es equivalente que considerar que la respuesta
transiente asociada a estos polos desaparece mas rapido que aquella asociada
a los otros polos, tal como puede apreciarse en la Figura 7.7 al comparar la
respuesta a impulso de un sistema con un polo en p2 = 4 con las demas.
Por otro lado llamaremos polos dominantes o polos lentos a aquellos que se
encuentran en el SPI abierto, pero mas cercanos al lmite de estabilidad que el
resto de los polos de sistema. Esto equivale a decir que el transiente asociado
a los polos dominantes decae mas lento que los demas modos naturales, como
tambien puede apreciarse en la figura 7.7, para el polo en p1 .
Por ejemplo, si tenemos un sistema cuyos polos estan ubicados en (1; 2
j6; 4; 5 j3), podemos decir que el polo dominante es 1 y los polos rapidos
son los que se encuentran en 5 j3.

7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL

179

p2

p1

p0

p3

p4

Figura 7.7: Respuesta a impulso de diferentes sistemas de acuerdo a la ubicacion


de sus polos en el plano complejo


180CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
ceros
controlabilidad
observabilidad

7.6.2.

Ceros

En general, el efecto de la ubicacion de los polos en la dinamica de un


sistema puede entenderse sin demasiada dificultad dada su directa relacion con
la estabilidad y las caractersticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha mas
informacion que la aqu detallada.
Por el contrario, el efecto de los ceros en el analisis del comportamiento de
un sistema a menudo ha sido subestimado. Sin embargo, en los u
ltimos a
nos se
ha retomado el estudio del efecto de los ceros sobre la respuesta de un sistema,
que ahora son reconocidos por su importancia, por ejemplo, al definir criterios
de dise
no de sistemas de control.
Es asi como, mientras que los polos de un sistema estan asociados a la
presencia de sus modos naturales aislados, los ceros reflejan de alg
un modo la
interacci
on entre estos, por ejemplo, en el caso en que la salida de un sistema
esta formada por la suma de modos naturales diferentes. Ademas, a pesar que
la ubicacion de los polos determina los modos naturales de un sistema, es la
ubicacion de los ceros la que determina la proporci
on en que los modos aparecen
combinados en la salida. En estas combinaciones los modos naturales toman
diferente fuerza, pudiendo ser su efecto, en algunos casos, casi imperceptible.
De hecho, la ubicacion relativa de polos y ceros tiene directa relacion con los
conceptos de observabilidad y controlabilidad, como se detalla en el Captulo
10.
A continuacion se presenta un ejemplo ilustrativo.

K
s+1

U (s)

Y (s)

K
s+2

Figura 7.8: Sistema con interaccion aditiva entre dos estados

on de
Ejemplo 7.10. Consideremos el sistema de la Figura 7.8, cuya funci
transferencia sistema esta dada por:

K
K
+
U (s)
s+1 s+2
(1 + )s + (2 + )
G(s) = K
(s + 1)(s + 2)

Y (s) =

(7.91)
(7.92)

7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL

181

Este sistema tiene sus polos en s = 1, 2 y un cero en s = (2+)


1+ . Es
decir, la ubicaci
on est
a directamente relacionada con el peso de cada uno de los
modos naturales en la respuesta del sistema, por ejemplo, a un impulso unitario
en la entrada:
y(t) = K(et + e2t )

(7.93)

Si tomamos un valor peque


no, = 0,1, la funci
on de transferencia es:
G(s) = 1,1K

(s + 1,909)
(s + 1)(s + 2)

(7.94)

En esta puede observarse la cercana del cero al polo en s = 2. La respuesta


a impulso ser
a en este caso:
y(t) = 1,1K(et + 0,1e2t )

(7.95)

En que se aprecia la peque


na magnitud con que aparece el modo natural m
as
r
apido. Es decir, el cero a medida que se acerca al polo en s = 2 produce
una cuasi-cancelaci
on , que ser
a total cuando = 0. En este u
ltimo caso
definitivamente no aparece este modo natural en la salida del sistema, ya que el
polo ha sido cancelado, y la funci
on de transferencia se ha reducido a:
G(s) =

K
(s + 1)

(7.96)

Invitamos al lector a estudiar el caso an


alogo cuando alcanza valores muy
grandes y cu
al es su efecto sobre el otro modo natural del sistema. Adem
as
puede analizarse que sucede con el sistema cuando el par
ametro toma valores
negativos. Que pasa si = 1 o = 2 ?
222
Al igual como antes se definieron los polos rapidos y lentos de un sistema,
pueden definirse de manera analoga los ceros r
apidos y lentos. Ceros rapidos
son aquellos que estan mas alejados del lmite de estabilidad que los polos dominantes del sistema, por otro lado los ceros lentos son aquellos que se encuentran
mas cerca del lmite de estabilidad que los polos dominantes del sistema. Para
apreciar el efecto de los ceros presentamos el siguiente ejemplo:
Ejemplo 7.11. Efecto de los ceros en la respuesta a escal
on.
Considere un sistema cuya funci
on de transferencia es:
H(s) =

s + c
c(s + 1)(0,5s + 1)

(7.97)

Esta estructura de la funci


on de transferencia permite estudiar el efecto de
la ubicaci
on de un cero en la respuesta del sistema sin alterar la ubicaci
on de
los polos ni la ganancia a continua.
En este sistema observamos dos modos naturales: et y e2t . El primero
de estos estar
a casi ausente de la respuesta a medida que c se acerca a 1.

cancelaci
on!cuasiceros!r
apidos
ceros!lentos


182CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
undershoot
contrarespuesta
respuesta!inversa

6
c=0.1

4
c=0.25

Respuesta

2
c=10

c=10

c=0.25
c=0.1

4
6

0.5

1.5

2.5
Tiempo [s]

3.5

4.5

Figura 7.9: Efecto de la ubicacion de los ceros sobre la respuesta a escalon

Algo an
alogo sucede para el segundo modo a medida que c se acerca a 2. Esta
situaci
on de cuasi cancelaciones tambien fue mencionada en el ejemplo anterior
La situaci
on m
as general se aprecia en la figura 7.9. En esta, se indica el
valos de c al lado de cada una de las respuestas graficadas. Podemos apreciar que
un cero r
apido, i.e. |c|  1, no afecta significativamente la respuesta transiente.
Cuando el cero es lento y estable obtenemos un gran overshoot, mientras que
cuando es lento, pero inestable, el undershoot es el que crece en magnitud. El
efecto de los ceros puede parecer demasiado crtico en este ejemplo, en que ambos
superan el 400 %, sin embargo, el lector puede verificar que puede ser a
un mayor
si el cero es m
as cercano el origen.
222

7.6.3.

Respuesta inversa o contrarespuesta (undershoot)

La Figura 7.2 en la pagina 165 sugiere que existen casos en los que, en la
presencia de una excitacion mayor que cero, la respuesta del sistema se hace
negativa durante alg
un lapso de tiempo no despreciable. Este comportamiento
tambien aparece en la Figura 7.9. Un resultado muy fuerte es el siguiente.
Lema 7.1. Considere un sistema lineal estable con funci
on de transferencia
H(s), y con un cero real en s = c, donde c > 0, entonces la respuesta a un
escal
on positivo se hace negativa durante uno o m
as lapsos no despreciables.
Demostraci
on
La respuesta del sistema est
a dada por:
Y (s) = H(s)
Entonces:

K
s

K>0

(7.98)

Z
K
=
y(t)est dt;
<{s} > 0
(7.99)
s
0
Note que la regi
on de convergencia queda determinada, por un lado, por el
hecho que el sistema es estable, por lo cual la transformada de h(t) est
a bien
H(s)

7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL

183

definida para <{s} 0 y, por otro lado, por el hecho que la respuesta a un
escal
on est
a bien definida para <{s} > 0. En consecuencia, la regi
on de convergencia para y(t) es <{s} > 0.
Si ahora, en la ecuaci
on (7.99), hacemos s = c (note que, por ser c > 0,
est
a en la regi
on de convergencia) obtenemos, aplicando el hecho que H(c) = 0:
Z
K
y(t)ect dt = 0
(7.100)
H(c) =
c
0
Como la integral es cero, y ect > 0, t, necesariamente y(t) debe ser negativa en uno o m
as intervalos de tiempo.
222
El lema precedente justifica y asegura la presencia de undershoots, como el
sugerido en la Figura 7.2 en la pagina 165. Sin embargo, este comportamiento
inverso se puede manifestar en diferentes formas, tal como ilustra la Figura 7.10.

Respuesta a escaln

Respuesta a escaln

1.5
1

0.5

0.5

10

0
0.5
1
1.5
2

15

Tiempo [s]

1
0.5

Tiempo [s]

Figura 7.10: Distintas formas de respuesta inversa

7.6.4.

Sistema can
onico de segundo orden

Para el caso de un par de polos complejos conjugados, es usual estudiar un


sistema canonico de segundo orden con la funcion de transferencia:
H(s) =

n2
s2 + 2n s + n2

(7.101)

donde (0 < < 1) es conocido como el factor de amortiguamiento y n , como


la frecuencia natural no amortiguada. Tambien definimos, para uso futuro, la
frecuencia natural amortiguada, d , como:
d = n

1 + 2

(7.102)

Este sistema tiene dos polos complejos conjugados, s1 y s2 , definidos por:

factor de amortiguamiento
frecuencia natural!no
amortiguada
frecuencia natural!amortiguada


184CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

s1,2 = n jd = n ej()

(7.103)

donde es el angulo definido por cos = .


Para este sistema, la transformada de Laplace de su respuesta a escalon
unitario esta dada por:
Y (s) =

n2
n2
=
(s2 + 2n s + n2 )s
[(s + n )2 + d2 ] s

(7.104)

Realizando una expansion en fracciones parciales se llega a:


n
s + n
1

(7.105)

2
2
s (s + n ) + d
(s + n )2 + d2
p

1
d
1
s + n
= p

1 2
s
(s + n )2 + d2
(s + n )2 + d2
1 2
(7.106)

Y (s) =

Aplicando, finalmente, la transformada de Laplace inversa obtenemos:


en t
y(t) = 1 p
sen(d t + )
1 2

(7.107)

Las caractersticas principales de esta respuesta aparecen in la Figura 7.11,


donde y = 1 y Td = 2/d .

jd

y+Mp
y

Td

jd

tr tp

Figura 7.11: Localizacion de los polos y respuesta a escalon unitario de un sistema canonico de segundo orden.

Podemos tambien calcular los indicadores descritos en la Figura 7.2 en la


pagina 165.
Tiempo de levantamiento. Para este caso, usamos kr = 1 (refierase a la
Figura 7.2 en la pagina 165) obteniendo:

7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL

De aqu se llega a:

185

en tr
p
sen(d tr + ) = 0
1 2
tr =

(7.108)

(7.109)

Sobrerespuesta (overshoot). La maxima sobrerespuesta, Mp , y el instante


en el cual este ocurre, tp , pueden ser calculados derivando y(t), y luego
igualando a cero esta derivada:
dy(t)
en t
= p
[n sen(d t + ) + d cos(d tr + )]
dt
1 2

(7.110)

As, tenemos que d tp = y el instante en que ocurre la sobrerespuesta,


tp , es:
Td

=
(7.111)
tp =
d
2
A su vez, la magnitud de la sobrerespuesta esta dada por:
n

e
M p = y(tp ) 1 = p

1 2

sen( + ) = e

1 2

(7.112)

Las expresiones anteriores sugieren que un valor peque


no para genera
un tiempo de levantamiento peque
no, al costo de una gran sobrerespuesta.
Tambien podemos apreciar que la velocidad de decaimiento y, como consecuencia, el tiempo de asentamiento, estan determinados por el producto
n (corresponde a la magnitud de la parte real de los polos).
Aunque este sistema canonico parece ser un caso muy particular, ocurre que
con frecuencia, y en distintas aplicaciones, el sistema bajo estudio esta dominado
por un par de polos complejos conjugados. Aunque las formulas desarrolladas
para calcular los indicadores de la respuesta a escalon no son aplicables a sistemas no canonicos, los conceptos asociados tiene igual validez.


186CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

7.7.

Problemas para el lector

Problema 7.1. Determine la transformada de Laplace de las siguientes funciones:


(i)

y(t) = A cos(t + )
y(t) = teat , en que a > 0

1
;0 < t < 1

2 t
;1 t < 2
y(t) =

3 + t ; 2 t < 3

0
;t 3
1
y(t) = t
2

(ii)

(iii)

(iv)

Problema 7.2. Para los siguientes sistemas:


(i)
(ii)
(iii)
(iv)

d 2 y(t)
dt 2
d 3 y(t)
dt 3
d 2 y(t)
dt 2
d 2 y(t)
dt 2

d y(t)
6y(t) = u(t)
dt
d 2 y(t) d y(t)
d u(t)
+3
+
+ 3y(t) =
u(t)
2
dt
dt
dt
d y(t)
+
6y(t) = u(t)
dt
d y(t)
+ 16
+ 100y(t) = 100u(t)
dt
+

7.2.1 Determine su funci


on de transferencia,
7.2.2 Determine si son o no estables,
7.2.3 Determine y grafique su respuesta a impulso, y
7.2.4 Determine y grafique su respuesta a escal
on.
Problema 7.3. Considere un sistema definido por su ecuaci
on diferencial:
d u(t)
d 2 y(t) d y(t)
+
+ y(t) =
+ 3u(t)
dt 2
dt
dt
7.3.1 Determine la funci
on de transferencia del sistema.
7.3.2 Determine la salida del sistema a entrada cero y condiciones iniciales
y(0)

= 1 y y(0) = 1. Grafique.
7.3.3 Determine la salida del sistema si la entrada es u(t) = (t) (t 2).
Grafique.

7.7. PROBLEMAS PARA EL LECTOR

187

Problema 7.4. Para el sistema:


d 2 y(t)
d y(t)
d u(t)
+7
+ 10y(t) =
+ u(t)
dt 2
dt
dt
7.4.1 Determine condiciones sobre y de manera que en la respuesta a
impulso aparezca s
olo el modo natural dominante.
7.4.2 Si u(t) = 0, = 1 y = 1 determine la condiciones iniciales de manera
que el la respuesta homogenea s
olo aparezca el modo natural dominante.
7.4.3 Repita los dos puntos anteriores, pero para el modo r
apido del sistema.
Problema 7.5. Considere el circuito de la Figura 7.12.

vc (t)

e(t)
L

Figura 7.12: Circuito RLC

7.5.1 Determine la funcion de transferencia considerando como entrada la fuente


de voltaje e(t) y como salida el voltaje en el condensador vC (t)
7.5.2 Si R = 1000 [], C = 1000 [F ] y L = 0,1 [H], determine la respuesta a
un escal
on de 5 [V ] en e(t).
Problema 7.6. Se sabe que la respuesta de un sistema lineal a un escal
on
unitario en su entrada (con condiciones iniciales iguales a cero) est
a dada por:
g(t) = (2 2e4t + te4t )(t)
Determine la funci
on de transferencia del sistema.
Problema 7.7. Considere el siguiente modelo no lineal:
d y(t)
d 2 y(t)
+ [2 + 0,1u(t)2 ]
+ 6y(t) = u(t) + 0,1eu(t)
2
dt
dt
Linealice el sistema en torno a un punto de operaci
on (uQ ,yQ ), determine
su funci
on de transferencia y analice la evoluci
on de los polos cuando u Q
[0,5, 0,5].


188CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
Problema 7.8. Considere la siguiente funci
on de trasferencia de un sistema:
H(s) =

s2 + 13s + 30
s3 + 4s2 7s 10

7.8.1 Haga un esquema con la ubicaci


on de todos los polos y ceros del sistema
en el plano complejo s, clasific
andolos de acuerdo a su velocidad (lentos y
r
apidos).
7.8.2 Determine la respuesta del sistema si se somete a un impulso unitario en
la entrada.
7.8.3 Determine la salida del sistema si las condiciones iniciales son y(0) = 1,
y(0)

= 0 e y(0) = 2.
Problema 7.9. Considere la siguiente funci
on de transferencia de un sistema
que depende de un par
ametro K 0:
G(s) =

K(s + 1)
s2 s + 1 + K(s + 1)

7.9.1 Determine para que rango de valores del par


ametro K los el sistema es
estable.
7.9.2 Haga un esquema en el plano complejo de c
omo vara la ubicaci
on de los
polos al variar el par
ametro K (por ejemplo, para K = 0, 0,5, 1, 2 ).
7.9.3 Para cada uno de los valores de K considerados en 7.9.2 determine y
grafique la respuesta del sistema a un escal
on unitario (con condiciones
iniciales iguales a cero).
Problema 7.10. Dado el sistema definido por su funci
on de transferencia
G(s) =

s2

s + b2
+ bs + b2

7.10.1 Determine la respuesta del sistema si la entrada es un impulso unitario


y las condiciones iniciales son cero.
7.10.2 Determine la respuesta del sistema a un escal
on unitario, con condiciones iniciales cero.
7.10.3 Determine los par
ametros de la respuesta a escal
on de la Tabla 7.1, y
verifquelos graficando la simulaci
on para algunos valores del par
ametro b.

7.7. PROBLEMAS PARA EL LECTOR

189

Problema 7.11. Determine la respuesta e escal


on de los siguientes sistemas
definidos por su funci
on de tranferencia y con condiciones iniciales cero, y
grafique para algunos valores de los par
ametros a, b, c, K > 0

(i)
(ii)
(iii)

K(s + a)
(s + a)(s + K)
K(s + a)(s + b)
G2 (s) =
(s + a)(s + b)(s + K)
K(s + a)(s + b)(s + c)
G3 (s) =
(s + a)(s + b)(s + c)(s + K)
G1 (s) =

Que puede decir del efecto de los ceros sobre la respuesta del sistema?
Problema 7.12. Una forma de verificar el grado relativo de la funcion de
tranferencia de un sistema es a traves de su respuesta a escal
on. Demuestre que
si p(t) es la respuesta a un escal
on de un sistema con funci
on de transferencia
G(s), entonces:
dp(t)
=0

dt t=0

grado relativo de G(s) 2


190CAPITULO 7. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA

transformada Zeta|textbf
Zeta!transformada
transformada Zeta!inversa

Captulo 8

An
alisis bajo excitaciones
arbitrarias. La
transformada Zeta
De los metodos disponibles para el estudio de los sistemas lineales dinamicos,
de tiempo discreto, uno en particular resulta ser especialmente u
til: la Transformacion Zeta. Esta puede entenderse como el analogo, en tiempo discreto, de
la transformada de Laplace estudiada en el Captulo 7.
Las principales ventajas de este metodo se pueden resumir en lo siguiente:
Permite el analisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de se
nales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La ERS es transformada en una expresion algebraica, que resulta mas
simple de manejar.

8.1.

Definici
on de la transformada

Dada una se
nal de tiempo discreto f [t], 0 t < . La transformada Zeta
asociada a f [t], y su transformada Zeta inversa estan definidas por:

Z {f [t]} = F (z) =
Z

(8.1)

t=0

1
{F (z)} = f [t] =
2j
191

f [t]z t

F (z)z t1 dz

(8.2)


192CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
funci
on de transferencia
condiciones iniciales

La curva cerrada sobre la que se calcula integral compleja que define la


transformada Zeta inversa (E.2) es tal que debe encerrar a todas las singularidades de Y (z) [17]. La fundamentacion de estas expresiones se desarrolla en el
Apendice E. Tambien se incluyen en ese apendice las propiedades mas importantes de la Transformacion Zeta.
En este captulo nos concentraremos en el uso de esta transformacion para
el analisis de sistemas lineales de tiempo discreto.

8.2.

Aplicaci
on a sistemas lineales: la funci
on de
transferencia

Como ya hemos visto, una gran cantidad y variedad de sistemas de interes,


pueden ser modelados en forma lineal. Esto se consigue linealizando la o las ecuaciones de recursion que describen el comportamiento del sistema en el tiempo,
como se vio en el Captulo 1, en torno a un punto de equilibrio o mas generalmente, en torno a un punto de operacion. Para el caso de sistemas de una
entrada y una salida, el proceso de linealizacion desemboca en la obtencion de
una ecuacion de recursion, la ERS, de la forma general:

y[t] + an1 y[t 1] + . . . + a1 y[t n + 1] + a0 y[t n] =


bm u[t] + bm1 u[t 1] + . . . + b1 u[t m + 1] + b0 u[t m]

(8.3)

Cuando se aplica transformacion Zeta a la ERS se puede usar una de la


propiedades en el Apendice E, la que nos indica que la transformada de una
se
nal desplazada en el tiempo puede expresarse como:
Z {y[t t0 ]} = Y (z)z t0 + y[1]z t0 +1 + . . . + y[t0 + 1]z 1 + y[t0 ] (8.4)
Por tanto, si aplicamos esto a la ERS (8.3) tenemos que:
Y (z) + an1 z 1 Y (z) . . . + a1 z n+1 Y (z) + a0 z n Y (z)
= bm U (z) + . . . + b0 z m U (z) + f (z 1 , xo )

(8.5)

donde f (z 1 , xo ) es una funcion que depende de la variable z y de las n condiciones iniciales de la salida y[t], expresadas como y[1], y[2], . . . y[n].
Es importante destacar que:
f (z 1 , x0 ) = [p(z 1 )]T xo

(8.6)

donde p(z 1 ) es un vector que contiene polinomios en z 1 y xo es un vector


que contiene las condiciones iniciales ya mencionadas. Esta estructura es una
expresion de la linealidad del sistema (homogeneidad y superposicion respecto
de las condiciones iniciales).

A SISTEMAS LINEALES: LA FUNCION


DE TRANSFERENCIA193
8.2. APLICACION
Nota 8.1. Note tambien que se ha supuesto que u[1] = u[2] = . . . =
u[m] = 0. Esto no es restrictivo, porque siempre es posible encontrar una secuencia de entrada u[t], no nula t < m, tal que y[t] satisfaga las condiciones
iniciales establecidas.
222
Para ilustrar estas ideas, consideramos un ejemplo en donde ademas analizaremos algunas alternativas para el calculo de la transformacion inversa.
Ejemplo 8.1. Considere un sistema con la ERS:
y[t] 0, 7y[t 1] + 0, 1y[t 2] = 0, 8u[t 1]

(8.7)

Suponga que la entrada es un escal


on unitario, es decir, u[t] = 1, t 0, y
que las condiciones iniciales son y[1] = 2 e y[2] = 1. Nos interesa calcular
la evoluci
on de la salida y[t], t 0.
Soluci
on
Aplicamos transformada Zeta a la ERS, obteniendo:


Y (z) 0, 7 z 1 Y (z) + y[1] + 0, 1 z 2 Y (z) + z 1 y[1] + y[2]

= 0, 8z 1 U (z)

(8.8)

Esto lleva a:

Y (z) =

(0, 7 0, 1z 1 )y[1] 0, 1y[2]


0, 8z 1
U (z) +
1
2
1 0, 7z + 0, 1z
1 0, 7z 1 + 0, 1z 2

(8.9)

Esto indica que, para este ejemplo:



f (z 1 , xo ) = [p(z 1 )]T xo = 0, 7 0, 1z 1

0, 1



 y[1]
y[2]

(8.10)

Reordenando de manera de obtener polinomios en z en vez de polinomios en


z 1 , y reemplazando las condiciones iniciales, se llega a:
Y (z) =

0, 8z
1, 5z 2 0, 2z
U (z) + 2
0, 7z + 0, 1
z 0, 7z + 0, 1
|
{z
} |
{z
}
z2

Yu (z)

(8.11)

Yx (z)

donde Yu (z) e Yx (z) denotan las transformadas de la respuesta a entrada con


condiciones iniciales iguales a cero y de la respuesta a condici
on inicial, con
entrada cero, respectivamente.
De manera de hacer m
as simple el c
alculo de la transformada Zeta inversa,
y al igual que en el caso de la transformada de Laplace (Captulo 7), usamos la
expansi
on en fracciones parciales:

fracciones parciales


194CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

Yu (z) =

z
0, 8z
4
4
2
=

+
(z 0, 5)(z 0, 2) z 1
3(z 0, 2) 3(z 0, 5) z 1

(8.12)

As, podemos utilizar la Tabla E.2 en la p


agina 434 para obtener la transformaci
on inversa:
yu [t] =


4
(0, 2)t1 (0, 5)t1 [t 1] + 2[t 1]
3

t 0

(8.13)

1, 5z 2 0, 2z
3
1
11
=
+
(z 0, 5)(z 0, 2)
2 15(z 0, 2) 12(z 0, 5)

(8.14)

An
alogamente:

Yx (z) =

Aplicando transformaci
on inversa se llega a:
yx [t] =

1
11
3
K [t] (0, 2)t1 [t 1] + (0, 5)t1 [t 1]
2
15
12

t 0 (8.15)

Finalmente, la respuesta completa es y[t] = yu [t] + yx [t].


Sin embargo, una forma alternativa para calcular y[t] es la siguiente:


0, 8z
1, 5z 0, 2
+
(z 0, 5)(z 0, 2)(z 1) (z 0, 5)(z 0, 2)


5
2
5

+
=z
15(z 0, 2) 6(z 0, 5) z 1
5z
2z
z

+
=
3(z 0, 2) 6(z 0, 5) z 1

Y (z) = z

(8.16)
(8.17)
(8.18)

Al aplicar ahora transformaci


on inversa se llega a
1
5
y[t] = 2 + (0, 2)t (0, 5)t ; t 0
(8.19)
3
6
Lo que se ha hecho en esta segunda forma de calcular Z 1 {} es aprovechar
la presencia de un factor z en el numerador. As las fracciones parciales pueden
despues recibir de vuelta ese factor z, de modo que en la transformaci
on inversa
no aparece corrimiento en el tiempo, ya que, como puede verse en el Apendice
E:

z
za

= a [t]

6=

1
za

= at1 [t 1]

(8.20)

El lector puede comprobar que ambas expresiones obtenidas previamente para


y[t] son equivalentes y corresponden a la se
nal en la Figura 8.1.

A SISTEMAS LINEALES: LA FUNCION


DE TRANSFERENCIA195
8.2. APLICACION
3
2.5

y[t]

2
1.5
1
0.5
0

10

15

Figura 8.1: Salida y[t] para el Ejemplo 8.1.

222
Volvamos ahora a considerar la forma general de la ERS y supongamos
condiciones iniciales iguales a cero. Entonces tenemos que:
Y (z) = H(z)U (z)

(8.21)

Donde se define la funcion:


B(z)
(8.22)
A(z)
que se forma con los polinomios que contienen los coeficientes de la ecuacion
(8.3) original:
H(z) =

A(z) = z m (z n + an1 z n1 + . . . + a0 )
n

B(z) = z (bm z

+ bm1 z

m1

+ . . . + b0 )

(8.23)
(8.24)

La definicion de los polinomios A(z) y B(z) acusa la presencia de una cancelaci


on. En realidad, se ha elegido esta forma para los polinomios para considerar los tres casos posibles: n < m, n = m y n > m. Para clarificar esto
ilustraremos los tres diferentes casos.
Ejemplo 8.2 (Caso n < m). Sea la ERS:
y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 3] 0, 7u[t 4] (8.25)
En este caso, n = 3, con an1 = a2 = 0, 8, an2 = a1 = 0, 4 y an3 = a0 =
0, 1 Por otro lado m = 4, con bm = b4 = 0, bm1 = b3 = 0, bm2 = b2 = 0,
bm3 = b1 = 0, 2 y bm4 = b0 = 0, 7
Entonces, la funci
on de transferencia es:

H(z) =

z 4 (z 3

z 3 (0, 2z 0, 7)
0, 2z 0, 7
=
2
3
0, 8z + 0, 4z 0, 1)
z(z 0, 8z 2 + 0, 4z 0, 1)

(8.26)


196CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
funci
on de transferencia! tiempo discreto

222

Ejemplo 8.3 (Caso n = m). Sea la ERS:


y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 2] 0, 7u[t 3] (8.27)
En este caso tamben n = 3, con an1 = a2 = 0, 8, an2 = a1 = 0, 4 y
an3 = a0 = 0, 1 Por otro lado m = 3, con bm = b3 = 0, bm1 = b2 = 0,
bm2 = b1 = 0, 2, y bm3 = b0 = 0, 7
Entonces, la funci
on de transferencia es:

H(z) =

z 3 (0, 2z 0, 7)
0, 2z 0, 7
= 3
3
3
2
z (z 0, 8z + 0, 4z 0, 1)
z 0, 8z 2 + 0, 4z 0, 1

(8.28)
222

Ejemplo 8.4 (Caso n > m). Sea la ERS:


y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 1] 0, 7u[t 2] (8.29)
En este caso nuevamente n = 3, con an1 = a2 = 0, 8, an2 = a1 = 0, 4 y
an3 = a0 = 0, 1 Por otro lado m = 2, con bm = b2 = 0, bm1 = b1 = 0, 2 y
bm2 = b0 = 0, 7
Entonces, la funci
on de transferencia es:

H(z) =

z(0, 2z 0, 7)
z 3 (0, 2z 0, 7)
= 3
z 2 (z 3 0, 8z 2 + 0, 4z 0, 1)
z 0, 8z 2 + 0, 4z 0, 1

(8.30)
222

En lo sucesivo, supondremos que los polinomios B(z) y A(z) son coprimos, es decir, todos los factores comunes en H(z) han sido eliminados por
cancelacion. Los grados de B(z) and A(z) seran redefinidos como m
y n

respectivamente.
La funcion racional H(z) es la funci
on de transferencia en el dominio Zeta. La representacion (8.22) es muy u
til para describir caractersticas y propiedades
de un sistema tales como estabilidad y velocidad, ademas de entregar informacion para el dise
no de sistemas de control, filtros y otras aplicaciones.
A continuacion repetiremos algunos conceptos ligados a la definicion de la
funcion de transferencia de un sistema. Son los mismos que para el caso de la
transformacion de Laplace y su reiteracion esta orientada a enfatizar los aspectos
comunes existentes en el dominio del tiempo continuo y en el dominio del tiempo
discreto. As, definimos entonces los siguientes terminos.

A SISTEMAS LINEALES: LA FUNCION


DE TRANSFERENCIA197
8.2. APLICACION
(i) Las m
races de la ecuacion B(z) = 0 son los ceros del sistema. Ellos
hacen ademas que H(z) = 0.
(ii) Las n
races de la ecuacion A(z) = 0 son los polos del sistema. Ellos hacen
ademas que H(z) .
(iii) Si A(z) = 0 tiene nt races en z = t , decimos que el polo t tiene
multiplicidad nt .
(iv) La diferencia de grado entre A(z) y B(z), es decir, m
n
se denomina el
grado relativo del sistema.
(v) Si m
<n
decimos que el modelo es estrictamente propio. Esto implica
que el grado relativo del sistema es positivo.
(vi) Si m
=n
decimos que el modelo es bipropio. Esto implica que el grado
relativo del sistema es cero.
(vii) Si m
n
decimos que el modelo es propio .
Note que el polinomio A(z) corresponde al polinomio caracterstico de la
ERS, multiplicado por z ` , donde ` N tiene un valor que depende del caso
especfico. De esta forma, el conjunto de los polos de H(z) incluye un conjunto
de ` polos en el origen mas las frecuencias naturales que se pueden calcular de
la ERS.
Estas definiciones nos ayudaran a apreciar la forma en que se relaciona la
salida de un sistema con su entrada, tal como pone en evidencia la definicion
(8.22), pero la simplicidad reside en que la relacion se establece mediante la
funcion racional H(z), es decir, los desplazamientos temporales han desaparecido. Si bien para llegar a esta relacion las condiciones iniciales se han supuesto
iguales a cero, sabemos que en el caso de sistemas estables, su efecto se extingue
exponencialmente en tiempo.
En forma similar a aquella que se utilizo en el analisis de Fourier, la funcion de transferencia puede ser definida en base a la respuesta a impulso, con
condiciones iguales a cero. Si recordamos como se definio la funcion de transferencia H(z) al aplicar transformacion Zeta a la ERS del sistema (8.3), podemos
escribir la salida del sistema seg
un la ecuacion (8.21). Se puede apreciar que si
a ambos lados de esta expresion, se aplica transformacion Zeta inversa (vea la
Tabla E.1 en la pagina 433), tenemos que:

Y (z) = H(z)U (z) y[t] = h[t] u[t]

(8.31)

h[t] = Z 1 {H(z)}

(8.32)

En que:
Por lo tanto, podemos afirmar que:

funci
on de
transferencia!ceros
funci
on de
transferencia!polos
multiplicidad!polos
funci
on de transferencia!grado relati
grado
relativo
funci
on de
transferencia!estrictamente pro
funci
on de transferencia!bipropia
funci
on de transferencia!propia
polinomio caractrer
stico


198CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
delta de Dirac!en
frecuencia

La funcion de transferencia H(z) de un sistema de tiempo discreto, definida


en (8.22), es igual a la transformada Zeta de la respuesta h[t] del sistema
a un Delta de Kronecter en la entrada, cuando las condiciones iniciales son
cero.
A diferencia del caso de tiempo continuo, la funcion de transferencia H(z) es
siempre una funcion racional en z. La existencia de un retardo puro, digamos
de to unidades, implica simplemente la existencia de to polos en el origen.
La relacion entre la ERS, la respuesta a delta de Kronecker h[t] y la funcion
de transferencia H(z) se describe en la Figura 8.2. A esos vnculos se ha agregado
la respuesta a escalon unitario, con condiciones iniciales iguales a cero, g[t].
ERS

H(z)

h[t]

g[t]

Figura 8.2: Relaciones entre ERS, funcion de transferencia y respuestas a delta


y a escalon.

8.2.1.

Funci
on de transferencia en dominios de Fourier y
Zeta

Cuando el sistema tiene frecuencias naturales en el disco unitario cerrado,


con la restriccion que aquellas frecuencias sobre la circunferencia unitaria sean
simples, las funciones de transferencia en ambos dominios existen. El elemento
com
un es conceptual: en ambos casos, la funci
on de transferencia es
igual a la correspondiente transformada de la respuesta a un delta de
Kronecker, con condiciones iniciales iguales a cero.
La definicion y la estructura de H(z) parecen ser identicas a la definicion
y la estructura de la funcion de transferencia en el dominio de Fourier, bastando hacer una simple sustitucion de z por ej . Sin embargo, esto no siempre
es correcto. La diferencia es que cuando el sistema tiene frecuencias naturales
(simples) sobre la circunferencia unitaria, la funcion de transferencia en Fourier
incluye deltas de Dirac en frecuencia. Esto se origina en el hecho que la respuesta
a impulso del sistema contiene modos naturales que no decaen y para los cuales
la transformada de Fourier existe solo en el lmite. En cambio, para el mismo
sistema, la funcion de transferencia en Zeta no contiene impulsos en frecuencia,
debido a que la transformada Zeta esta bien definida, bastando escoger el radio
de convergencia igual a 1, es decir, |z| > 1.

A SISTEMAS LINEALES: LA FUNCION


DE TRANSFERENCIA199
8.2. APLICACION
Ejemplo 8.5. Consideremos el sistema con la ERS:

3
2
y[t] ay[t 1] + a y[t 2] = a
u[t 1]
(8.33)
2
donde 0 < a 1.
La funci
on de transferencia en el dominio de la transformaci
on Zeta es:

a 23 z
Hz (z) = 2
;
z az + a2

|z| > 1

(8.34)

En cambio, en el dominio de Fourier, debemos distinguir dos casos:


(i) Caso a < 1 :
En este caso, las frecuencias naturales est
an dentro del disco unitario
abierto, por lo tanto, los modos naturales son absolutamente sumables 1
y la funci
on de transferencia en el dominio de la transformada de Fourier
discreta es:

HF (ej ) =

3 j
2 e
(ej )2 aej

(8.35)

+ a2

En este caso:
HF (ej ) = Hz (z)|z=ej

(8.36)

De esa forma, Hz (ej ) es tambien igual la respuesta en frecuencia del


sistema.
(ii) Caso a = 1 :
En este caso, las frecuencias naturales est
an sobre la circunferencia unitaria y los modos naturales combinados corresponden a una sinusoide. M
as
especficamente, la respuesta a un delta de Kronecter, con condiciones iniciales iguales a cero es:
h[t] = sen( t/3)[t]

(8.37)

En consecuencia (vea Tabla C.4 en la p


agina 391, con o = /3) la funci
on
de transferencia en el dominio de la transformaci
on de Fourier es:
!

X
j
j
HF (e ) =
( + o + 2`) ( o + 2`)
2
`=

3 j
2 e
j
2
(e ) ej

+1

(8.38)

Se observa que en este caso, no se cumple (8.36).


1
PRecuerde
t=0 |f [t]| <

que una secuencia f [t], definida t N es absolutamente sumable si y s


olo si
.

transformada de Fourier!discreta
respuesta en frecuencia


200CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
impulso!respuesta a
escal
on!respuesta a
respuesta! a impulso
respuesta!a escal
on
valor final

222
La relacion entre la transformacion de Fourier y transformacion Zeta puede
ser resumida en la siguiente afirmacion:

Las transformaciones Zeta y de Fourier son equivalentes, via la relacion


z = ej , en aquellos casos en que la transformada Zeta existe para |z| < ,
donde 0 < < 1.

8.3.

Respuesta a impulso y respuesta a escal


on.

Como ya hemos visto, la funcion de transferencia esta univocamente asociada


a la respuesta a impulso del sistema. Por otro lado, sabemos que si se aplica un
impulso a la entrada, la respuesta contiene solamente los modos naturales del
sistema; esto nos permite estudiar su comportamiento natural, independiente
de la se
nal de entrada (caractersticas del transiente, velocidad de respuesta,
etc.) a partir del analisis de la funcion H(z).
Analogamente al caso de sistemas de tiempo continuo, la respuesta a escalon
es tambien usada para describir el sistema, aunque en este caso, ello no se debe
a la dificultad para generar el delta.
La definicion (8.22) nos permite expresar la respuesta a escal
on unitario
del sistema como:
Y (z) = H(z)

z
z1

(8.39)

Lo cual, suponiendo que el sistema no tiene polos en z = 1, corresponde a:


y[t] = y + modos naturales del sistema

(8.40)

donde y = H(1), en virtud del Teorema del Valor Final (ver Teorema E.1 en
la pagina 431). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero, por tanto, la respuesta en estado estacionario esta dada
por la constante y . Note ademas que si H(z) tiene uno o mas ceros en z = 1,
entonces y = 0.
Es conveniente recalcar que la respuesta a escalon unitario contiene los modos
naturales del sistema, por lo que revela cuestiones fundamentales del comportamiento dinamico del sistema.
Tambien es conveniente recordar que existe una relacion simple entre la
respuesta a escalon g[t] y la respuesta a delta de Kronecter h[t]. Esta esta dada
por:
h[t] = g[t] g[t 1]

(8.41)


8.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALON.

201
muestreo

Ejemplo 8.6. Considere el sistema definido por su ERS:


y[t] 1, 75y[t 1] + 0, 8y[t 2] = 0, 2u[t] + 0, 25u[t 1]

(8.42)

Su funci
on de transferencia es:
H(z) =

Y (z)
0, 2z 2 + 0, 25z
= 2
U (z)
z 1, 75z + 0, 8

(8.43)

La respuesta a impulso unitario y a delta de Kronecker pueden ser calculadas


mediante la metodologa usual, ya empleada en el Captulo 7 en el contexto de
sistemas de tiempo continuo y la transformada de Laplace. Esta corresponde
a reemplazar la expresi
on para U (z), descomponer en fracciones parciales de
manera conveniente para poder obtener la transformada Zeta inversa, con ayuda
agina 434.
de la Tabla E.2 en la p
En Matlab la funci
on de transferencia en tiempo discreto, al igual que en
tiempo continuo, se define mediante el comando tf en el que se especifica un
tercer argumento correspondiente al tiempo de muestreo (ver Captulo 11). Este
se mantener indefinido, haciendolo igual a 1. De esta forma la respuesta a
impulso y escalon pueden obtenerse mediante los comandos dimpulse y dstep,
respectivamente. Para el sistema en particular se
nales se muestran en la Figura
8.3, obtenida con los siguientes comandos:

Matlab
>> Gd2=tf([-0.2 0.25 0],[1 -1.75 0.8],-1)
Transfer function:
-0.2 z^2 + 0.25 z
-----------------z^2 - 1.75 z + 0.8
Sampling time: unspecified
>> subplot(2,1,1),stem(impulse(Gd2))
>> subplot(2,1,2),stem(step(Gd2))

222
De igual forma que en el caso de tiempo continuo, en la respuesta a escalon de
sistemas de tiempo discreto puede definirse un conjunto de parametros que describen ciertas propiedades de su dinamica. Sin embargo, en este caso, el calculo
de algunos de estos parametros se complica pues la variable independiente, el
tiempo t, es discreta. As, el hacer cero una derivada para calcular un maximo
o un mnimo se hace difcil por dos factores: la derivada no esta definida y, por
otro lado, el calculo del instante asociado debe restringirse a valores enteros.


202CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA

Respuesta a impulso

0.3
0.2
0.1
0
0.1
0.2
0

10

15

20
t

25

30

35

40

10

15

20
t

25

30

35

40

Respuesta a escalon

1.5
1
0.5
0
0.5

Figura 8.3: Respuesta a delta Kronecker y a escalon unitario para el Ejemplo


8.6.

En la Figura 8.3 se muestra una respuesta a escalon unitario con condiciones


iniciales iguales a cero. Se observa que se pueden asignar los mismos elementos
caracterizadores que en el caso de tiempo continuo.
Un asunto de interes tiene que ver con el hecho que una se
nal cualquiera f [t]
(no solo la respuesta a escalon o la respuesta a impulso), puede ser igual a cero
durante los primeros d instantes. Ello se explica con el siguiente analisis.
Sea una se
nal f [t] con transformada F (z) dada por:
F (z) =

Bf (z)
Af (z)

(8.44)

donde Af (z) y Bf (z) son polinomios de la forma:


Af (z) = z p + p1 z p1 + . . . + 1 z + 0
q

Bf (z) = q z + q1 z

q1

+ . . . + 1 z + 0 ;

(8.45)
q 6= 0

(8.46)

para n
umeros enteros p y q no negativos. Observe que dado que F (z) debe poder
expresarse en serie de potencias no positivas de z, es necesario que p q.
La expansion de F (z) en potencias de z 1 se obtiene dividiendo Bf (z) por
Af (z), esto lleva a:
F (z) = q z p+q + (q1 q p1 )z p+q1 + . . .

(8.47)

8.4. RESPUESTA A CONDICIONES INICIALES Y EXCITACIONES ARBITRARIAS.203


Esta ecuacion demuestra que el primer valor de f [t] distinto de cero ocurre
en el instante t = p q, con f [p q] = q . El resultado principal se puede
resumir en el siguiente lema:
Lema 8.1. Considere una se
nal f [t] y su transformada F (z), cuociente de
polinomios en z, con grado relativo d, entonces f [t] = 0 para t = 0, 1, ..d 1
222
Cuando este lema se aplica a la respuesta a escalon unitario, con condiciones
iniciales iguales a cero, se deduce que esta es cero en los primeros d instantes,
donde d es el grado relativo de la funcion de transferencia H(z). En rigor, el
z
, es
Lema 8.1 se aplica al producto H(z)U (z), pero en este caso U (z) es z1
decir, su grado relativo es cero, por lo tanto el grado relativo de H(z)U (z) es
igual al grado relativo de H(z).

8.4.

Respuesta a condiciones iniciales y excitaciones arbitrarias.

De la misma manera que en la seccion precedente se obtuvo las respuestas


a impulso y a escalon del sistema, la transformada Zeta permite obtener la
respuesta del sistema cuando la entrada pertenece a un tipo mas general de
se
nales. En esta tarea, las principales ventajas que tiene esta transformacion
sobre la transformacion de Fourier, son que se puede aplicar a una amplia gama
de excitaciones no acotadas, y que permite inclur el efecto de las condiciones
iniciales.
Consideremos primero un ejemplo.
Ejemplo 8.7. Considere un sistema con ERS:
y[t] + a1 y[t 1] + a2 y[t 2] = b1 u[t 3] + b0 u[t 4]

(8.48)

Entonces al aplicar la transformada Zeta (en el marco de la Nota 8.1 en la


p
agina 193) se obtiene:

Y (z) =

b1 z 3 + b0 z 4
a1 y[1] a2 z 1 y[1] a2 y[2]
U
(z)
+
1 + a1 z 1 + a2 z 2
1 + a1 z 1 + a2 z 2

(8.49)

lo cual lleva a:
Y (z) =

b1 z + b 0
(a1 y[1] + a2 y[2])z 2 a2 y[1]z
U
(z)
+
(8.50)
z 2 (z 2 + a1 z + a2 )
z 2 + a1 z + a2
{z
}
|
{z
} |
Yu (z)=Z{Thh0,u[t]ii}

Yx (z)=Z{Thhxo ,0ii}

222

Este ejemplo permite inducir algunos resultados generales:

grado relativo


204CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
retardo
respuesta!estacionaria

(i) Tanto la respuesta a entrada, yu [t] como la respuesta a condiciones iniciales, yx [t], contienen los modos naturales del sistema.
(ii) El denominador de Yu (z) difiere del de Yx (z), no solo debido al denominador de U (z), sino que ademas en un conjunto de polos en z = 0. Estos
no son frecuencias naturales del sistema, sino que corresponden exactamente al retardo con que se aplica la excitacion.
(iii) La transformada Yu (z) contiene los polos de U (z); estos explican la presencia de modos forzados, lo cual es consistente con lo planteado en la
subseccion 4.3.6 en la pagina 73.
(iv) Si el grado relativo de H(z) es mayor que cero (como ocurre usualmente),
entonces yu [0] = 0.
(v) Salvo para especiales valores de las condiciones iniciales, el grado relativo
de Yx (z) es cero, as yx (0) 6= 0, lo cual lleva, salvo para esos valores
especiales, a que y(0) 6= 0.
Un caso especial de interes es cuando la excitacion u[t] es una sinusoide de
frecuencia o , t 0, es decir, u[t] = 0, 5(ejo t + ejo t ).
Consideremos primero el caso de una excitacion u[t] = ejo t [t], y un sistema
estable, con funcion de transferencia H(z), entonces:
U (z) =

z
z ejo

Y (z) = H(z)

(8.51)

z
+ Yx (z)
z ejo

(8.52)

Dado que el sistema es estable, solo el modo forzado permanece, ya que la


frecuencia forzante esta sobre la circunferencia unitaria. As, si denotamos como
0
Yee
(z) la transformada Zeta de la componente estacionaria de la salida, tenemos
que:
0
Yee
(z) =

y, por tanto:

zH(ejo )
z ejo

H(ejo ) = |H(ejo )| ejH(e

0
[t] = ejo t H(ejo ) = |H(ejo )| ej(o t+H(e
yee

jo

jo

))

(8.53)

(8.54)

Si consideramos ahora la excitacion u[t] = ejo t [t], la transformada Zeta


de la componente estacionaria de la salida es:
00
(z) =
Yee

y, por tanto:

zH(ejo )
z ejo

H(ejo ) = |H(ejo )| ejH(e

00
[t] = ejo t H(ejo ) = |H(ejo )| ej(o t+H(e
yee

jo

jo

(8.55)

))

(8.56)

8.5. ESTABILIDAD

205

Si ahora combinamos ambas excitaciones, es decir, u[t] = 0, 5(ejo t + ejo t ),


la transformada Zeta de la componente estacionaria combinada de la salida
esta dada por:
00
0
[t]) = |H(ejo )| cos(to + H(ejo ))
[t] + yee
yee [t] = 0, 5 (yee

(8.57)

Este resultado no es sorprendente, ya que por ser el sistema estable, la


relacion (8.36) es valida, y as se cumple que:

La funcion de transferencia H(z) de un sistema estable, evaluada en z = ejo


es igual a la ganancia al modo forzante ejo t (ver (4.35)).

8.5.

Estabilidad

Hasta aqu hemos visto que la respuesta de un sistema que tiene una funcion
de transferencia H(z) es de la forma:
Y (z) = H(z)U (z) +

p X
nt
X
t=1 i=1

ti
(z t )i

(8.58)

Donde el valor de cada ti depende de las condiciones iniciales, y donde


hemos supuesto que cada polo ubicado en z = t , tiene multiplicidad nt . Esta
suposicion implica a su vez que n1 + n2 + . . . + np = n, donde n es el orden de
la ERS, es decir, es el n
umero de autovalores del sistema.
Si recordamos la definicion de estabilidad, tenemos que un sistema es estable
cuando cualquier entrada acotada produce una salida tambien acotada, para
cualquier condicion inicial acotada. Si observamos la ecuacion (8.58) podemos
afirmar que la condicion necesaria y suficiente para que el sistema sea estable
es que los polos de este, que aparecen en las fracciones del segundo termino
de la ecuacion, den origen a se
nales que decaigan exponencialmente. Esto se
traduce en que los polos del sistema deben tener magnitud estrictamente menor
que uno, es decir, deben estar ubicados sobre el disco unitario abierto del
plano complejo z . Es decir, para sistemas discretos, el lmite de estabilidad en
el plano complejo z en que se ubican sus polos, es la circunferencia unitaria.
Ejemplo 8.8. Consideremos un sistema con funci
on de transferencia:
H(z) =

(z 0, 2)
z 3 (z 1)(z 0, 8)

(8.59)

Esta funci
on tiene tres polos en el origen, que se originan en los retardos y
en la estructura de la ERS (vea ecuaciones (8.23) y (8.24)). Estos polos s
olo
introducen retardos en los modos naturales. Los otros polos de su funci
on de
transferencia est
an ubicados en z = 1, y z = 0, 8. Estos u
ltimos polos corresponden a frecuencias naturales del sistema. Uno de estos, el ubicado en z = 1, no
est
a en el disco unitario abierto, sino que justo sobre el lmite de estabilidad.

estabilidad
multiplicidad!polos
l
mite de estabilidad
circunferencia unitaria


206CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
sistemas discretos!estabilidad

Por tanto el sistema no es estable. Se deja al lector el verificar que una entrada
constante, diferente de cero, produce una salida que crece indefinidamente.
222

8.5.1.

An
alisis de polinomios

Al igual que en el caso de sistemas de tiempo continuo, es posible estudiar


la estabilidad de un sistema de tiempo discreto analizando el polinomio denominador de su funcion de transferencia, sin calcular explcitamente las races de
ese polinomio.
Supongamos que el denominador mencionado sea un polinomio de la forma:
p(z) = an z n + an1 z n1 + . . . + a2 z 2 + a1 z + a0

(8.60)

Entonces se trata de determinar si existen o no races de este polinomio cuya


magnitud sea igual o mayor que 1, o equivalentemente, si todas las raices estan
en el disco unitario abierto en el plano complejo z . Diremos que los polinomios
que tiene esta propiedad son polinomios estables.
A semejanza de lo que ocurre en el caso de sistemas de tiempo continuo,
podemos aprovechar algunas propiedades del polinomio (8.60) para descartar
algunas situaciones. Dos de estas propiedades son especialmente u
tiles
Propiedad 1 El coeficiente an1 cumple con:
an1 = an

n
X

(8.61)

i=1

donde 1 , 2 , . . . n son las races de p(z).


Esta propiedad es directa al notar que el polinomio p(s) puede escribirse
como:

p(z) = an

n
Y

i=1

(z i )

(8.62)

entonces, al expandir el producto (8.62) y observar el coeficiente que acompa


na a la potencia (n 1)-esima de z, se obtiene (8.61).
Propiedad 2 El coeficiente a0 cumple con:
a0 = (1)n an

n
Y

(8.63)

i=1

Esta propiedad tambien se puede demostrar expandiendo el producto


(8.62) y observando el termino constante.

8.5. ESTABILIDAD

207

La primera propiedad dice que para que el polinomio p(z) sea estable, entonces es necesario que |an1 | < n|an | ya que cada raz de p(z) debe tener
magnitud menor que 1. El resultado se obtiene al utilizar la desigualdad triangular: el m
odulo de la suma es menor que la suma de los m
odulos.
La segunda propiedad dice que la estabilidad de p(z) exige como condicion
necesaria que |a0 | < |an |. Este resultado se obtiene al considerar que cada factor
i en (8.63) debe tener magnitud menor que uno.
Las dos propiedades precedentes ayudan a descartar algunos polinomios bajo
analisis. El lector debe recordar que estas propiedades son necesarias pero no
suficientes para asegurar estabilidad. Tambien conviene tener presente que, a
diferencia del caso de tiempo continuo, un polinomio puede ser estable aunque
algunas de sus races sean positivas; esto implica que los coeficientes de un
polinomio p(z) estable pueden ser positivos, negativos o cero.
Una vez superada la etapa de la inspeccion se requiere un metodo de analisis
que proporcione una respuesta categorica sobre la estabilidad o inestabilidad del
polinomio. Una de las formas de realizar el estudio es transformar el problema
en uno en que podamos aplicar el algoritmo de Routh y, en general, todos los
resultados de la Seccion 7.5.1. Con este objetivo se puede usar, por ejemplo, la
transformacion bilineal:
z=

z+1
w+1
w =
w1
z1

(8.64)

donde w es una variable compleja auxiliar. Si expresamos la variable w en termino de su parte real y su parte imaginaria , es decir w = + j entonces
(8.64) se puede escribir como:
w+1
+ 1 + j
z=
=
= |z| =
w1
1 + j

( + 1)2 + 2
( 1)2 + 2

(8.65)

De la ecuacion (8.65) se puede ver que > 0 si y solo si |z| < 1. Tambien
se puede ver w esta en el eje imaginario ( = 0) si y solo si z esta sobre la
circunferencia unitaria (|z| = 1). As, si definimos la funcion racional P w (w)
como:



Pw (w) = p (z)

(8.66)
w+1
z= w1

entonces el polinomio p(z) tiene todas sus races al interior del disco unitario
si y solo si el polinomio numerador de Pw (w) tiene todas sus raices al interior
del semi-plano izquierdo. Por lo tanto, podemos usar el criterio de Routh para
probar el polinomio numerador de Pw (w) y as estudiar la estabilidad de p(z).
Ejemplo 8.9. Considere el polinomio p(z) = z 3 0, 8z 2 0, 25z + 0, 2. Se trata
de determinar si todas sus races al interior del disco unitario. Para ello primero
calculamos Pw (w), obteniendo:

desigualdad!triangular
bilineal!transformaci
on
Routh


208CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
Jury
Jury!algoritmo

Pw (w) =

0, 15w3 + 1, 85w 2 + 4, 65w + 1, 35


(w 1)3

(8.67)

Luego aplicamos Routh al numerador de Pw (w), construyendo el arreglo:


w3
w2
w1
w0

0, 15
1, 85
4, 5405
1, 35

4, 65
1, 35

Como no hay cambios de signo en la primera columna, sabemos que todos


los ceros de Pw (w) est
an al interior del semi-plano izquierdo, lo cual implica
que todas las races de p(z) est
an estrictamente al interior del disco unitario.
222
El metodo de la transformacion bilineal, aunque efectivo, puede llegar a
ser muy engorroso para polinomios de grado elevado. Tambien hace mas difcil
estudiar problemas de estabilidad condicionada a parametros. Para evitar estos
inconvenientes, se puede utilizar un algoritmo o criterio alternativo desarrollado
por Jury
zn
zn1

z0

n,n
n,0
n1,n1
n1,0
..
.
0,0

n,n1
n,1
n1,n2
n1,1

n,n2
n,2
n1,n3
n1,2

...
...
...
...

n,1
n,n1
n1,0
n1,n1

n,0
n,n

Cuadro 8.1: Arreglo de Jury


Consideremos el polinomio en (8.60) y el arreglo de la Tabla 8.1. Este arreglo
se construye como se indica, paso a paso, a continuacion:
(i) La primera fila se construye directamente con los coeficientes de polinomio
original en orden descendente, i.e. n,` = a` , ` = n, n 1, . . . , 0.
(ii) La segunda fila se construye a partir de la primera fila con los mismos
coeficientes, pero en orden ascendente.
(iii) La tercera fila es calculada a partir de las dos immediatamente anteriores
de acuerdo a la siguiente formula:

8.5. ESTABILIDAD

n1,n`

209

1 n,n
=
n,n n,0

n,`1
n,n`+1

` = 1, 2, . . . , n

(8.68)

Note que esta fila tiene un elemento menos que las dos anteriores.
(iv) La cuarta fila se construye a partir de la tercera fila con los mismos coeficientes, pero en orden inverso.
(v) La quinta fila se construye a partir de las dos filas precedentes usando
(8.68) con los coeficientes correspondientes. Esta regla de construccion se
aplica tambien a todas las filas impares que siguen, hasta la (2n + 1)esima, es decir, hasta calcular 0,0 . En cada una de estas filas, el n
umero
de coeficientes se reduce en uno.
(vi) La sexta fila, as como todas las filas pares que siguen, se construyen con
los mismos coeficientes de la fila impar inmediatamente anterior, pero en
orden inverso.
Jury formulo un teorema de estabilidad cuyas condiciones se verifican usando
el arreglo de la tabla 8.1. El teorema se enuncia a continuacion, sin demostracion,
ya que ella excede el marco de este texto. El lector interesado puede consultar
[10].

Teorema 8.1. El polinomio p(z) dado en (8.60), con an > 0, tiene todas
sus races estrictamente al interior del crculo unitario si y s
olo si `,` > 0
para ` = 0, 1, . . . , n 1.
222
A continuacion ejemplificamos el algoritmo, tanto en su mecanica como en
sus potenciales aplicaciones.
Ejemplo 8.10. Considere el polinomio p(z) = z 3 0, 5z 2 0, 64z + 0, 32.
Entonces n = 3, an = 1 > 0 y el arreglo de Jury resultante se muestra en la
Tabla 8.2.
Los terminos de la tercera, quinta y septima fila se calculan siguiendo el
procedimiento general descrito precedentemente, as:

2,2 =


1

0, 32


0, 32
1

; 2,1 =

1
1


1

0, 32



0, 8976 0, 48


0, 48 0, 8976 ; 1,0 =


0, 6409 0, 4531
1


=
0, 6409 0, 4531 0, 6409

1,1 =
0,0

1
1

1
0,8976


0, 64
;
0, 5

1
0,8976

2,0 =


0, 8976

0, 48

1
1


1

0, 32


0, 2952
0, 2952


0, 5
0, 64
(8.69)
(8.70)
(8.71)


210CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
z3
z2
z1
z0

3,3 = 1
0,32
2,2 = 0, 8976
-0,48
1,1 = 0, 6409
0, 4531
0,0 = 0, 3206

3,2 = 0, 5
-0,64
2,1 = 0, 2952
-0,2952
1,0 = 0, 4531
0, 6409

3,1 = 0, 64
-0,5
2,0 = 0, 48
0,8976

3,0 = 0, 32
1

Cuadro 8.2: Arreglo de Jury. Ejemplo 8.10

Al aplicar el teorema de Jury observamos que 3,3 = a3 > 0 y que `,` > 0,
` {0, 1, 2}. En consecuencia el polinomio p(z) tiene todas sus races dentro
del disco unitario.
222
Para apreciar el uso del algoritmo de Jury en estudios de estabilidad relativa
o condicional, consideraremos un ejemplo adicional.
Ejemplo 8.11. Sea un polinomio p(z) = z 2 + az + 0, 8. Se trata de estudiar
bajo que condiciones este polinomio tiene sus dos races con m
odulo menor que
uno. Note que n = 2 y an = a2 = 1 > 0.
Primero construimos el arreglo de Jury, el que aparece en la Tabla 8.3.
z2
z1
z0

2,2 = 1
0,8
1,1 = 0, 36
0,2a
a2
0,0 = 1 1,8
2

2,1 = a
a
1,0 = 0, 2a
0,36

2,0 = 0, 8
1

Cuadro 8.3: Arreglo de Jury. Ejemplo 8.11


El arreglo de la tabla muestra que la condici
on requerida por el teorema de
Jury (1,1 > 0, 0,0 > 0) se cumple si y s
olo si 1, 8 < a < 1, 8.
222

8.6.

Polos, ceros y la respuesta temporal

A continuacion examinaremos algunas propiedades fundamentales de los polos y ceros de la funcion de transferencia de un sistema de tiempo discreto, y su
influencia sobre las caractersticas de la respuesta de un sistema lineal.
Consideremos una funcion de transferencia de la forma general:

8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL


Qm
i=1 (z i )
H(z) = K d Q
n
z
l=1 (z l )

211

(8.72)

donde l C y i C. Si suponemos que no hay valores de l y de i tales que


l = i entonces, 1 , 2 , . . . , m and 1 , 2 , . . . , n son los ceros y los polos de
la funcion de transferencia, respectivamente (a estos u
ltimos hay que agregar
los d polos en el origen).
Estaremos particularmente interesados en aquellos ceros ubicados sobre la
circunferencia unitaria o en su cercana, y en aquellos polos al exterior del disco
unitario. Los polos y ceros ubicados en estas regiones juegan un rol fundamental
en la dinamica del sistema.
Una clase especial de funcion de transferencia es aquella que tiene todos
sus ceros y sus polos al interior del disco unitario en el plano complejo z .
Tradicionalmente estas se denominan funciones de transferencia de fase
mnima . Sin embargo, a similitud de la nomenclatura usada en sistemas de
tiempo continuo, reservaremos ese nombre para referirnos simplemente a funciones de transferencia sin ceros fuera del disco unitario, que tengan o no polos
en el. Diremos que un cero tiene fase no mnima si tiene magnitud mayor o,
al menos, igual a uno, de otra forma se denominara cero de fase mnima. Si
hablamos de una funci
on de transferencia estable nos referimos a que todos
sus polos se ubican sobre el disco unitario abierto; si decimos que inestable,
es porque al menos uno de sus polos se encuentra fuera del disco unitario, o
sobre el borde de este u
ltimo. Los polos en si mismos tambien se pueden denominar estables o inestables , si se encuentran dentro o fuera del disco unitario
abierto,respectivamente 2 .
A continuacion examinaremos la influencia sobre la respuesta transiente de
un sistema de los polos y ceros de su funcion de transferencia.

8.6.1.

Polos

Las funciones que se originan al aplicar la transformacion Zeta a las ERS


de sistemas lineales, son funciones racionales y siempre pueden descomponerse
en fracciones parciales. Cada uno de los terminos de esta expansion contiene
ya sea un polo real simple, un par de polos complejos conjugados o m
ultiples
combinaciones de polos repetidos. Por tanto, para conocer el efecto de los polos
en la respuesta transiente de un sistema basta conocer el efecto ocasionado por
los polos de primer y segundo orden y su interaccion.
Un polo de primer orden contribuye a la descomposicion en fracciones parciales, en general, con un termino de la forma:
H1 (z) =
donde K1 es la ganancia a continua.

K1 (1 a)
za

(8.73)

2 En ocasiones, por abuso de lenguaje, a los ceros de fase no m


nima tambi
en se les denomina
ceros inestables, dado que se encuentran en la regi
on del plano z en que los polos son
inestables.

fase m
nima
ceros!fase no m
nima
funci
on de transferencia!estable
polos


212CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
modos naturales

Mientras que un polo de segundo orden contribuye a la expansion con un


termino:
1 2 cos o + 2
(8.74)
z 2 2z cos o + 2
donde K2 es la ganancia a continua.
En el Captulo 4 se describio graficamente la relacion entre la ubicacion de
las frecuencias naturales (simples) y los modos naturales. Dado que los polos de
H(z), salvo aquellos ubicados en el origen, son iguales a las frecuencias naturales,
es conveniente repetir la descripcion grafica de esa relacion.
H2 (s) = K2

Figura 8.4: Relacion entre la ubicacion de los polos (de multiplicidad uno) y los
modos naturales (caso decreciente).

Cada polo genera un termino especfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos estan presentes tambien en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos

8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL

213
polos!r
apidos
polos!dominantes
polos!lentos

Figura 8.5: Relacion entre la ubicacion de los polos (de multiplicidad uno) y los
modos naturales (caso no decreciente).

con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicacion de este sobre el plano complejo z , exactamente equivalente a la
ubicacion de cada frecuencia natural sobre un plano complejo, como se vio en
el Captulo 4. Para ilustrar esto podemos apreciar en la Figura 8.4 las diferentes
respuestas a impulso de un sistema de un u
nico polo.
En forma analoga a lo que ocurre con los sistemas continuos en el tiempo,
nos referiremos, en general, como polos r
apidos a aquellos que se encuentran
mas cercanos al origen del plano z . Esto es equivalente que considerar que la
respuesta transiente asociada a estos polos desaparece mas rapido que aquella
asociada a los otros polos, tal como puede apreciarse en la figura 8.4. Por otro
lado, llamaremos polos dominantes o polos lentos a aquellos que se encuantran
al interior del disco unitario, pero mas cercanos al lmite de estabilidad (circunferencia unitaria) que el resto de los polos de sistema. Esto equivale a decir
que el transiente asociado a los polos dominantes decae mas lentamente que los
demas modos naturales.


214CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
ceros
controlabilidad
observabilidad

Por ejemplo, si tenemos un sistema cuyos polos estan ubicados en (0, 5; 0, 6


j0, 6; 0, 2; 0, 2+j0, 3), podemos decir que los polos dominantes es 0, 6j0, 6
y el polo mas rapido es el que se encuentra en 0, 2.

8.6.2.

Ceros

En general, el efecto de la ubicacion de los polos en la dinamica de un sistema puede entenderse sin demasiada dificultad dada su directa relacion con la
estabilidad y las caractersticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha mas
informacion que la aqu detallada. Por el contrario, a menudo se ha subestimado el efecto de los ceros en el analisis del comportamiento de un sistema. Sin
embargo, en los u
ltimos a
nos se ha vuelto a dar un vistazo al efecto de los ceros
sobre la respuesta de un sistema, que ahora son reconocidos por su importancia,
por ejemplo, al definir criterios de dise
no de sistemas de control. Es asi como,
mientras que los polos de un sistema estan asociados a la presencia de sus modos
naturales aislados, los ceros reflejan de alg
un modo la interacci
on entre estos,
por ejemplo, en el caso en que la salida de un sistema esta formada por la suma
de dos modos naturales diferentes. Ademas, a pesar que la ubicacion de los polos
determina los modos naturales de un sistema, es la ubicacion de los ceros la que
determina la proporci
on en que los modos aparecen combinados en la salida. En
estas combinaciones los modos naturales toman diferente fuerza, pudiendo ser
su efecto, en algunos casos, casi imperceptible. De hecho, la ubicacion relativa
de polos y ceros tiene directa relacion con los conceptos de observabilidad y
controlabilidad, como se detalla en el Captulo 10.
Veamos esto a traves de un ejemplo.

U (z)

z 0, 5

Y (z)

1
z 0, 8

Figura 8.6: Sistema discreto con interaccion aditiva entre dos estados.

Ejemplo 8.12. Consideremos el sistema de la Figura 8.6, cuya funci


on de
transferencia sistema esta dada por:

H(z) =

1
(0, 3 + 0, 2)z (0, 3 + 0, 1)
Y (z)
=
+
=
U (z)
z 0, 5 z 0, 8
(z 0, 5)(z 0, 8)

(8.75)

8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL

215

3+1
Este sistema tiene sus polos en p1 = 0, 5 y p2 = 0, 8 y un cero en c1 = 3+2
.
Es decir, la ubicaci
on est
a directamente relacionada con el peso de cada uno
de los modos naturales en la respuesta del sistema, por ejemplo, a un impulso
unitario en la entrada:

y[t] = (0, 5)t + (1 )(0,8)t

cancelaci
on!cuasiundershoot
contrarespuesta
respuesta!inversa

(8.76)

Si tomamos un valor de cercano a cero, por ejemplo = 0,01, la funci


on
de transferencia es:
H(z) = 0, 203

(z 0,5074)
(z 0, 5)(z 0, 8)

(8.77)

En esta puede observarse la cercana del cero al polo en z = 0, 5. La respuesta


a impulso ser
a en este caso:
y[t] = 0, 01(0, 5)t + 0, 99(0,8)t

(8.78)

En que se aprecia la peque


na magnitud con que aparece el modo natural m
as
r
apido. Es decir, a medida que el cero se acerca al polo en z = 0, 5 se produce
una cuasi-cancelaci
on , que ser
a total cuando = 0.
Invitamos al lector a estudiar el caso an
alogo cuando se acerca a 1 y cu
al
es su efecto sobre el otro modo natural del sistema. Adem
as puede analizarse
que sucede con el sistema cuando el par
ametro toma valores negativos. Que pasa
si = 1/3 o = 2/3 ?
222

8.6.3.

Respuesta inversa o contrarespuesta (undershoot)

La Figura 8.3 en la pagina 202 sugiere que existen casos en los que, en la
presencia de una excitacion mayor que cero, la respuesta del sistema se hace
negativa durante alg
un lapso no despreciable. Existe un resultado analogo al
Lema 7.1 en la pagina 182, respecto del rol de algunos ceros que estan ubicados
fuera del crculo unitario.
Lema 8.2. Considere un sistema lineal estable con funci
on de transferencia
H(z), y con un cero real en z = c, donde c > 1, entonces la respuesta a un
escal
on positivo se hace negativa durante uno o m
as lapsos no despreciables.
Demostraci
on
La respuesta del sistema est
a dada por:
Y (z) = H(z)
Entonces:
H(z)

Kz
;
z1

X
Kz
y[t]z t ;
=
z1
t=0

K>0

|z| > 1

(8.79)

(8.80)

Note que la regi


on de convergencia queda determinada, por un lado, por el hecho
que el sistema es estable, por lo cual la transformada de h[t] est
a bien definida


216CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
para |z| 1 y, por otro lado, por el hecho que la respuesta a un escal
on est
a bien
definida para |z| > 1. En consecuencia, la regi
on de convergencia para y[t] es
|z| > 1.
Si ahora, en la ecuaci
on (8.80), hacemos z = c (note que, por ser c > 1,
est
a en la regi
on de convergencia) obtenemos, aplicando el hecho que H(c) = 0
H(c)

X
K
=
y[t]ct = 0
c
t=0

(8.81)

Como la suma es cero, y ct > 0, t, necesariamente y[t] debe ser negativa


en uno o m
as lapsos, y positiva, el resto del tiempo.
El lema precedente justifica la presencia de undershoots, como el sugerido
en la Figura 8.3 en la pagina 202. Sin embargo, este comportamiento inverso se
puede manifestar en formas mas diversas, tal como se ilustra en la Figura 8.7.

Respuesta a escaln

Respuesta a escaln

1
0.5
0

0.5
1

1
0.5
0
0.5
1

10

20
30
Tiempo [s]

40

50

10

20
30
Tiempo [s]

40

50

Figura 8.7: Ejemplos de distintas formas de respuesta inversa en sistemas discretos.

8.7. PROBLEMAS PARA EL LECTOR

8.7.

217

Problemas para el lector

Problema 8.1. Determine la transformada Zeta de las siguientes funciones:


(i)
(ii)
(iii)
(iv)

y[t] = A cos(t + )
y[t] = t at

0 ; 0 t 1
y[t] = 1 ; 2 t 7

0 ;t 8
y[t] = (0, 5)t

Problema 8.2. Para los siguientes sistemas:


(i)
(ii)
(iii)
(iv)

y[t] y[t 1] = u[t]

y[t] = u[t] u[t 1]


y[t] 1, 4y[t 1] + 0, 48y[t 2] = 0, 08u[t]

y[t] y[t 1] 1, 1[t 2] = u[t 1] 0, 1u[t 2]

8.2.1 Determine su funci


on de transferencia,
8.2.2 Determine si son o no estables,
8.2.3 Determine y grafique su respuesta a delta de Kronecker, y
8.2.4 Determine y grafique su respuesta a escal
on unitario.
Problema 8.3. Considere un sistema definido por su ecuaci
on recursiva:
y[t + 2] y[t + 1] + 0, 5y[t] = u[t] 0, 5u[t 1]
8.3.1 Determine la funci
on de transferencia del sistema.
8.3.2 Determine la salida del sistema a entrada cero y condiciones iniciales
y[1] = 1 y y[1] = 1. Grafique.
8.3.3 Determine la salida del sistema si la entrada es u[t] = [t] [t 2].
Grafique.
Problema 8.4. Si N es un n
umero entero positivo, entonces considere los
siguientes sistemas:
(promediomovil)
(autoregresivo)

1
(u[t] + u[t 1] + . . . + u[t N ])
N
y[t] + y[t 1] + . . . + y[t N ] = u[t]
y[t] =

8.4.1 Determine su funci


on de transferencia,


218CAPITULO 8. ANALISIS
BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
8.4.2 Determine sus polos y ceros,
8.4.3 Determine y grafique su respuesta a delta de Kronecker, y
8.4.4 Determine y grafique su respuesta a escal
on unitario.
Problema 8.5. Para el sistema:
y[t] + 1 y[t 1] + 0 y[t 2] = u[t] u[t 1]
8.5.1 Determine condiciones sobre 0 , 1 y de manera que el sistema sea
estable.
8.5.2 Si u[t] = 0, 1 = 1, 0 = 0,16 y = 0, determine la condiciones
iniciales de manera que el la respuesta homogenea s
olo aparezca el modo
natural dominante.
8.5.3 Si no se conoce u[t] = 0, pero 1 = 1, 0 = 0,16, determine de
manera que en la salida solo aparezca el modo natural mas r
apido.
Problema 8.6. Se sabe que la respuesta de un sistema lineal a un escal
on
unitario en su entrada (con condiciones iniciales iguales a cero) est
a dada por:
i
h

(t 1) [t]
g[t] = 0, 5 (0, 4)t cos
3
Determine la funci
on de transferencia del sistema.

respuesta en
transformada
transformada
transformada
Bode
Nyquist

Captulo 9

Representaci
on de sistemas
lineales
9.1.

Ideas generales

La caracterizacion de la respuesta en frecuencia de un sistema lineal, as como su funcion de transferencia obtenida con la tranformacion de Fourier, la
transformacion de Laplace o la transformacion Zeta, son herramientas u
tiles
para el analisis, sntesis y dise
no de sistemas dinamicos en sus distintas aplicaciones, tales como procesamiento de se
nales y control automatico, entre otras.
Estas herramientas han sido ampliamente reconocido a traves de los a
nos y han
dado lugar tambien a una serie de formas especiales de representacion grafica.
En primer lugar, recordemos que la respuesta en frecuencia de un sistema
lineal y su funcion de transferencia estan caracterizadas por la misma funcion de
la frecuencia1 H(j) que, en general, toma valores complejos. Una de las formas
de representacion mas usuales se basa en graficos separados de la magnitud y la
fase de H(j), en donde la frecuencia, , es la variable independiente. La mas
conocida y usada de estas representaciones fue desarrollada por Hendrik Bode
en los a
nos cuarenta [4](o no?). Por otra parte, tambien es posible representar
H(j) en un solo grafico u
nico donde el eje de las abscisas corresponde a su parte
real, y el eje de ordenadas, a su parte imaginaria. Este se denomina diagrama
polar o de Nyquist. En esta u
ltima caracterizacion, la frecuencia queda implcita.
Finalmente en este Captulo introducimos la representacion en diagramas de
bloques, ampliamente usada en el dominio temporal, de Fourier, de Laplace y de
la transformada Zeta, dada su gran utilidad para representar sistemas complejos
mediante la interconeccion de sistemas mas simple, y la causalidad inherente de
las se
nales de entrada y de salida de estos sistemas dinamicos.
1 Ver

Lema 6.1 en la p
agina 129.

219

frecuencia
de Fourier
de Laplace
Zeta

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

220
Bode!diagramas de
Bode|textbf
diagramas!de Bode
ejes logar
tmicos
decada
octava
decibel
factores can
onicos

9.2.

Diagramas de Bode

9.2.1.

Tiempo continuo

Como ya hemos visto, un sistema de tiempo continuo puede ser caracterizado


por la funcion H( ). El diagrama de Bode correspondiente a esta funcion
esta formado por dos graficos: uno que describe la evolucion de su magnitud
|H( )| como funcion de la frecuencia angular , y el otro describe el angulo
de la respuesta en frecuencia H( ), tambien como funcion de la frecuencia
angular .
Los diagramas de Bode son dibujados con ejes especiales:
El eje de las abscisas es lineal en log 10 (), o logartmico en . Esto permite
una representacion compacta de la frecuencia en un gran rango de valores.
En este eje, la unidad es la decada, que corresponde a la distancia en el
eje que separa a una frecuencia cualquiera 1 y su m
ultiplo 101 . Una
unidad alternativa es la octava, que corresponde a la distancia entre 1 y
21 (doble de la frecuencia).
La magnitud de la respuesta en frecuencia es medida en decibeles [dB], es
decir, se representa la funcion:
|H( )|dB = 20 log10 |H( )|

(9.1)

Es decir, al igual que para la frecuencia, se utiliza un eje logartmico en


|H( )|.

El uso de ejes logartmicos proporciona varias ventajas, incluyendo precision por valores peque
nos y grandes de |H( )|, facilidad para construir
aproximaciones simples para |H( )|dB , y el hecho que la respuesta en frecuencia de sistemas en cascada puede ser obtenida sumando las respuestas
en frecuencia individuales.
El angulo es medido en una escala lineal en radianes o grados.
Los paquetes de software disponibles, tales como Matlab , incluyen comandos especiales para calcular la respuesta en frecuencia y dibujar los diagramas de
Bode. Sin embargo, es importante, para el manejo conceptual de la herramienta,
desarrollar la habilidad de hacer, en forma manual y rapida, un bosquejo de esos
diagramas, u
tiles para el analisis y el dise
no de las propiedades de un sistema o
de una se
nal.
Para desarrollar estas ideas consideraremos una funcion de transferencia que
puede expresarse como un producto de funciones particulares, que llamaremos
factores can
onicos, correspondientes a los siguientes tipos:
[B1]

[B2]

(1 + T )q , q {1; 1}

9.2. DIAGRAMAS DE BODE


[B3]
[B4]
[B5]

221
Bode!aproximaciones

( )q , q {1; 1}
"
 2 # q

+
1 + 2
q {1; 1}, 0 < 1.
n
n
e , > 0

donde el exponente q {1; 1} describe las dos opciones para cada factor: su
presencia en el numerador o en el denominador de la funcion H( ) dada.
A continuacion se presente un ejemplo ilustrativo.
Ejemplo 9.1. Considere la funci
on:
H( ) = 6

e0,1 ( + 2)
( + 1)(( )2 + + 4)

(9.2)

Que puede reescribirse como:


H( ) =

(3) (e0,1 ) (1 + 0, 5 )


 2
+
( ) (1 + ) 1 + 2 0, 25
2
2

(9.3)

222

As, en el caso general:


H( ) =

n
Y

F` ( )

(9.4)

`=1

donde cada uno de los factores elementales, F` ( ), es una funcion perteneciente


a alguno de los tipos [B1] a [B5]. Entonces

|H( )|dB = 20 log10 |H( )| =


H( ) =

n
X

n
X
`=1

20 log10 |F` ( )| =

n
X
`=1

|F` ( )|dB

F` ( )

(9.5)
(9.6)

`=1

Es decir:
La magnitud (en dB) de H( ) es igual a la suma de las magnitudes (en
dB) de F` ( ), y
El angulo de H( ) es igual a la suma de los angulos de F` ( )
En consecuencia, para poder construir aproximaciones para una funcion de
transferencia arbitraria, es suficiente desarrollar aproximaciones para cada uno
de los cinco factores canonicos, [B1] a [B5]. Esto es lo que haremos a continuacion.

222
Bode!as
ntotas

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

[B1]
En este caso F ( ) = K y su magnitud es exactamente:
|K|dB = 20 log10 |K|
es decir, es una recta horizontal. Por su parte, la fase es:
(
0
para K 0
K =
o
180 para K < 0

(9.7)

(9.8)

As, la fase de larespuesta en frecuencia tambien es una recta horizontal.


[B2]
En este caso F ( ) = (1 + T )q , donde q {1; 1}. Entonces:
p
|F ( )|dB = 20 q log10 1 + T 2 2 = 10 q log10 (1 + T 2 2 )
F ( ) = q arctan(T )

(9.9)
(9.10)

Podemos construir una aproximacion por trazos o asntotas para la magnitud, si observamos que:
1
= |F ( )|dB 0 [dB]
|T |
1

= |F ( )|dB 20q log10 (|T |)
|T |


(9.11)
(9.12)

Esto significa que la magnitud de la respuesta en frecuencia de una funcion


tipo [B2] puede aproximarse por dos asntotas: una de baja frecuencia, con
pendiente 0 [dB/dec] y otra de alta frecuencia, cuya pendiente es 20q [dB/dec].
Estas asntotas se intersectan en = 1/|T |. Cuando q = 1, a esta
p frecuencia
la curva exacta pasa
3
[dB]
m
a
s
abajo,
ya
que
|F
(j/|T
|)|
=
1/2 y basta

recordar que 20 log10 0, 5 3, 0103.


En la Figura 9.1 se muestra la aproximacion asintotica y la curva exacta para
una funcion tipo [B2], con q = 1, en termino de la frecuencia normalizada |T |.
La fase de la respuesta en frecuencia es mas difcil de aproximar de una
manera simple. Sabemos que para |T |  1 la fase es aproximadamente cero
y que para |T |  1, la fase es aproximadamente = 90 q signo(T ) [o ]. Una
aproximacion aceptable puede ser construida por tres rectas:
Una recta horizontal en 0 [o ] en el rango de frecuencia (; 0, 1/|T |), es
decir, hasta una decada antes de 1/|T |).
Una recta que une los puntos (0; 0, 1/|T |) y (10/|T |; ), es decir, desde
una decada antes hasta una decada despues de 1/|T |). Esta recta tiene
una pendiente de 0, 5 [o /dec] (para el caso con T > 0 y q = 1, esta
pendiente es 45 [o /dec]),

9.2. DIAGRAMAS DE BODE

223

Magnitud [dB]

10
0
10
20
30
40
50
2
10

10

10

10

|T|

10

Figura 9.1: Diagrama de Bode de magnitud para una funcion tipo [B2], con
q = 1
Y una recta horizontal en en el rango de frecuencia (10/|T |, ). As,
en alta frecuencia, la fase tiende a 90q[o ] signo(T ).
Esta aproximacion es exacta en = 1/|T |, donde la fase es 45q[o ].
En la Figura 9.2 se aprecia tanto la aproximacion asintotica, como la curva
exacta para el caso q = 1 y T > 0 . La frecuencia se ha normalizado a |T |.
20

Fase []

0
20
40
60
80
100
2
10

10

10

10

10

Figura 9.2: Diagrama de Bode de fase para una funcion tipo [B2], con q = 1

[B3]
En este caso, F ( ) = ( )q , q {1; 1}. La magnitud, en decibeles, esta dada
por:
|F ( )|dB = 20q log10 ||
(9.13)
De esta forma, considerando que el eje de abscisas esta en escala logartmica, la
magnitud es una recta con pendiente 20q [dB/dec].
La fase, en tanto, es:
F ( ) = 90 q[o ]
(9.14)

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

224

que corresponde a una recta horizontal en 90 q[o ].


[B4]
En este caso, el factor canonico es de la forma:
"
 2 # q

+
F ( ) = 1 + 2
n
n

(9.15)

en que q {1; 1} y 0 < 1. Se trata de un factor de segundo grado,


determinado por dos parametros: n y .
La magnitud es:
s
2
2
2
|F ( )|dB = 20 q log10
+ 4 2 2
1 2
n
n
!


2
2
2
2
1 2
= 10 q log10
+ 4 2
(9.16)
n
n
Y el angulo de fase es:



2n

q arctan
2
n2 

F ( ) =
2n

90q[ ] + q arctan
2 n2

< n

(9.17)

> n

Para construir una aproximacion por trazos o asntotas, primero observamos que:
 n = |F ( )|dB 0 [dB]
 n = |F ( )|dB 40q log10

(9.18)


(9.19)

40

Magnitud [dB]

as
ntotas

20

20
40
1
10

10

10

Figura 9.3: Diagrama de Bode de magnitud para una funcion tipo [B4], con
q = 1 y dos valores de .

9.2. DIAGRAMAS DE BODE

225

As, en baja frecuencia, la magnitud (en [dB]) puede ser aproximada por una
asntota horizontal en 0 [dB]. En alta frecuencia, la aproximacion asintotica es
una recta de pendiente 40q [dB/dec] que pasa por el punto (n ; 0). Sin embargo,
la curva exacta puede ser muy distinta a la aproximacion asintotica, dependiendo
del valor del parametro . Esto puede se ilustra en la Figura 9.3, donde se
muestran las curvas exactas para = 0, 01 and = 0, 1. La flecha indica la
direccion en la que aumenta . Note que en el caso lmite, cuando = 0, el
diagrama tiende a [dB].
En general, el diagrama de magnitud exhibe, a la frecuencia r , un pico
de resonancia Mr , valor que puede calcularse usando los metodos clasicos del
Calculo. Para simplificar el desarrollo, usaremos la frecuencia normalizada =
/n y el hecho que para q = 1, |F ( )|dB alcanza el maximo a la misma
frecuencia r a la que g() = (1 2 )2 +4 2 2 alcanza el mnimo. As, derivando
y haciendo igual a cero se obtiene:
dg()
= 2(1 2 )(2) + 8 2 = 0
d
donde se observa que la resonancia ocurre exactamente en:
p
p
r = 1 2 2 = r = n 1 2 2

(9.20)

(9.21)

Con esto, y la ecuacion (9.16), se obtiene:

Mr = |F ( r )| =

1
2

(9.22)

Finalmente, en (9.21)
se puede notar que el pico de resonancia existe para
q = 1 si y solo si < 1/ 2.
La fase de una funcion de tipo [B4], dada por (9.17), se puede tambien
aproximar por asntotas, con la misma prevencion que en el caso de la magnitud:
la precision de la aproximacion asimptotica depende crucialmente del valor de
. As:
 n = F ( ) 0 [o ]
 n = F ( ) 180 q[o ]

(9.23)
(9.24)

De esta forma, la aproximacion asintotica se compone de dos rectas horizontales: una en 0 [o ] y la otra en 180 q[o ]. En la Figura 9.4 se muestra el caso
de q = 1, donde se muestran dos curvas, para dos valores de (0, 01 y 0, 1).
En el grafico se muestra con una flecha la direccion en que crece . Note que a
medida que crece , la aproximacion asintotica se hace cada vez mas inexacta,
contrariamente a lo que ocurre con la aproximacion asintotica para la magnitud.
Siempre es posible refinar las aproximaciones inherentes en los diagramas
de Bode, en particular aprovechando herramientas como Maple que facilitan el
manejo de expresiones analticas complejas. En este caso, es posible obtener la
pendiente exacta del grafico de la fase de H( ) en la frecuencia de corte n ,
que permitira trazar una tercera asintota, de manera similar a la Figura 9.2.

resonancia

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

226
0

Fase [o]

50

100

150
200
1
10

10

/n

10

Figura 9.4: Diagrama de Bode de fase para una funcion tipo [B4], con q = 1
El siguiente codigo Maple establece supuestos sobre las variables q, , n y xi,
luego define la funcion H( ), obtiene la derivada respecto a = 10 (debido
a la escala logartmica en el eje horizontal), y la eval
ua en = n

Maple
>
>
>
>
>
>
>

assume(q,integer);
assume(xi>0,omega>0,omega_n>0);
interface(showassumed=0);
H(omega):=(1+2*xi*I*omega/omega_n+(I*omega/omega_n)^2)^q;
fase_H:=evalc(argument(H(omega)));
d_fase_H:=factor(diff(subs(omega=10^phi,fase_H),phi));
simplify(subs(phi=log10(omega_n),d_fase_H));

 2 !q

2( )
+
H( ) = 1 +
n
n




n
sen q arctan 2
2 2

 n

f aseH ( ) = arctan
n
cos q arctan 2
2 2
n


2
2 q 10 ln(10)n n + (10 )2
d
f aseH =
2
2
d
(n2 (10 )2 ) + (2(10 )n )

(9.25)

(9.26)

(9.27)

The last command line gives us the answer:



q ln(10)
d
2, 3 q

=
f aseH

=10n

(9.28)

9.2. DIAGRAMAS DE BODE

227

[B5]
En este caso, tenemos la funcion F ( ) = e , > 0, y por lo tanto:
|F ( )|dB = 1
F ( ) =

(9.29)
(9.30)

Note que el retardo puro solo introduce un angulo de fase lineal en frecuencia; sin embargo, dado que los diagramas de Bode usan una escala de frecuencia
logartmica, la fase no aparece como una recta, sino que como una curva exponencial. Esto u
ltimo se debe a que la fase puede tambien escribirse como:
F ( ) = = 10log10

(9.31)

La Figura 9.5 muestra el diagrama de Bode de fase en una escala de frecuencia normalizada, lo cual permite entender por que no existe una aproximacion
asintotica sencilla para este caso.
0

Fase [o]

100
200
300
400
500
600
1
10

10

10

Figura 9.5: Diagrama de Bode de fase para una funcion tipo [B5]
222
Con las aproximaciones para las clases [B1] a [B4], mas la representacion
exacta de la clase [B5], se puede construir una aproximacion global para una
funcion arbitraria H( ) usando (9.5)-(9.6). De esa forma, la aproximacion,
tanto para la magnitud (en [dB]) como para la fase (en [o ]) de H( ) se puede
calcular sumando las aproximaciones para cada uno de los factores canonicos.
A continuacion bosquejamos una forma sistematica de construir esas aproximaciones. Esto requiere tener presente las aproximaciones asntoticas de los
factores [B1]-[B4], que resumimos en las Tablas 9.1 y 9.2.
Note que las asntotas son rectas que se encuentran en puntos o frecuencias
de quiebre.
Con estas asntotas se puede desarrollar un proceso constructivo, tanto para
magnitud como para fase. La contribucion de factores tipo [B1] y [B5] es agregada al final en ambos diagramas. Lo mismo se aplica a la contribucion de un
factor tipo [B3] en el diagrama de fase. El procedimiento se desarrolla a traves
de los siguientes pasos:

retardo
retardo!diagrama de
Bode
Bode!aproximaci
on asint
otica
Bode!frecuencias de quiebre

228

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
Factor (` Z)

Asntota 1
0 [dB]

K
( )`

Asntota 2

20` log10 [dB]

(1 + T )

T R

2 !`

1 + 2
+
n
n
0<1

0 [dB]
<

1
|T |

0 [dB]
< n

20` log10 (|T |) [dB]


> |T1 |
 

40` log10
[dB]
n
> n

Cuadro 9.1: Aproximaciones asintoticas de magnitud de factores basicos

Paso 1 Escriba la funcion de transferencia, H( ) como producto de factores


[B1]-[B5].
Paso 2 Seleccione el rango de frecuencias en el cual desea construir la aproximacion asintotica.
Paso 3 Anote para cada factor, los puntos de quiebre de sus asntotas as como
la pendiente de ellas entre cada par de puntos de quiebre consecutivos.
Tome en inmediata consideracion los factores repetidos (tal como se ha
hecho en las Tablas 9.1 y 9.2).
Paso 4 En el diagrama de magnitud, dibuje la asntota2 del factor ( )` . Note
que esta asntota pasa por 0 [dB] en = 1.
Paso 5 Avance en el eje de frecuencias hasta encontrar el primer punto de
quiebre y sume la pendiente correspondiente.
Paso 6 Proceda hasta el siguiente punto de quiebre y sume la nueva pendiente
que aparece a la pendiente acumulada. Repita hasta llegar al final del
rango de frecuencias elegido.
Paso 7 Desplace verticalmente el diagrama de magnitud en 20 log 10 |K|.
Paso 8 Si H( ) incluye un factor ( )` , es decir, un factor tipo [B3], desplace
verticalmente el diagrama de fase en 90` [o]. Ademas, si K < 0, desplace
verticalmente el diagrama de fase en 180 [o ].
Paso 9 Si H( ) incluye un retardo, sustraiga la fase correspondiente del diagrama de fase.
2 Observe que en este caso, la as
ntota coincide con el diagrama exacto, tanto en magnitud
como en fase

9.2. DIAGRAMAS DE BODE

229

Factor (` Z)

Asntota 1

(1 signo(K))90 [o ]

Asntota 2

Asntota 3

45` log10 (10|T |) [o ]

90` [o ]

( )

(1 + T )

90` [o ]
`

0[ ]

T >0

<

(1 + T )`

1
|10T |

0 [o ]

T <0

 2 !`

1 + 2
+
n
n

<

1
|10T |

10
|T |

>

45` log10 (10|T |) [o ]

1
|10T |

1
|10T |

0 [o ]

0<1

<<

<<

10
|T |

10
|T |

90` [o ]
>

10
|T |

180` [o ]

< n

> n

Cuadro 9.2: Aproximaciones asintoticas de fase de factores basicos

Paso 10 Verifique que su resultado satisface las aproximaciones asintoticas,


tanto en magnitud como en fase, para frecuencias muy bajas ( 0) y para
frecuencias muy altas ( ). Corrija, si es necesario.
Para ilustrar el procedimiento, desarrollamos el siguiente ejemplo.
Ejemplo 9.2. Considere la respuesta en frecuencia dada por:
H( ) =

8( 2)( + 1)
( + 8)( 4)

(9.32)

Lo primero que debemos hacer es re-escribir H( ) como el producto de seis


factores (F1 ( ) a F6 ( )) can
onicos del tipo [B1] a [B5]. As se obtiene
H( ) = 0, 5 (1 0, 5 ) (1 + ) ( )1 (1 + 0, 125 )1 (1 0, 25 )1
|{z} |
{z
} | {z } | {z } |
{z
}|
{z
}
F1 :[B1]

F2 :[B2]

F3 :[B2]

F4 :[B3]

F5 :[B2]

F6 :[B2]

(9.33)
Diagrama de magnitud:
Supondremos luego que el rango de frecuencias de interes es [10 2 ; 102 ].
Los puntos de quiebre as como las pendientes entre dos puntos de quiebre
sucesivos se muestran en la Tabla 9.3. Observe que las pendientes se indican
como m
ultiplos de 20 [dB/dec]. En la u
ltima fila del cuadro se indica el efecto
neto de la contribuci
on de los distintos factores entre dos puntos de quiebre
sucesivos. Con los resultados de esa lnea se pueden completar los Pasos 4 a 6 del
procedimiento bosquejado. Finalmente se incorpora el factor [B1], desplazando
verticalmente el diagrama en 20 log 10 (0, 5) 6 [dB].

230

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

El gr
afico superior de la Figura 9.6 muestra la aproximaci
on asint
otica lograda as como la curva exacta.
(; 1]

(1; 2]

(2; 4]

(4; 8]

(8; 100]

F2
F3
F4
F5
F6

-1
0
0
0
0

-1
1
0
0
0

-1
1
1
0
0

-1
1
1
-1
0

-1
1
1
-1
-1

Ac.

-1

-1

Cuadro 9.3: Contribucion de pendientes entre puntos de quiebre. Diagrama de


magnitud

Diagrama de fase:
A similitud del caso de la magnitud construimos un cuadro donde se especifica la contribuci
on, en pendiente de la fase, de cada factor, entre dos puntos
sucesivos. Las pendientes son m
ultiplos de 45 [o/dec]. El lector es invitado a revisar nuevamente la Tabla 9.2 para tener en mente las caractersticas asnt
oticas
de cada factor.
La u
ltima lnea de la Tabla 9.4 muestra el efecto acumulado de los factores F3
a F6 . Con esta informaci
on podemos ejecutar los Pasos 4 a 6 del procedimiento
bosquejado.
Para el Paso 8 apreciamos que el efecto del factor F1 sobre la fase es nulo,
ya que se trata de una ganancia positiva. En cambio, el factor F2 s afecta la
fase, desplaz
andola en 90 [o ].
El diagrama asint
otico de fase resultante aparece en el gr
afico inferior de la
Figura 9.6 donde tambien se indica la curva exacta.
(; 0, 1]

(0, 1; 0, 2]

(0, 2; 0, 4]

(0, 4; 0, 8]

(0, 8; 10]

(10; 20]

(20; 40]

(40; 80]

(80; 100]

F3
F4
F5
F6

0
0
0
0

1
0
0
0

1
-1
0
0

1
-1
1
0

1
-1
1
-1

0
-1
1
-1

0
0
1
-1

0
0
0
-1

0
0
0
0

Ac.

-1

-1

Cuadro 9.4: Contribucion de pendientes entre puntos de quiebre. Diagrama de


fase
222
La complejidad de los sistemas, as como la necesidad de precision hacen que
el procedimiento descrito tenga un valor limitado. Por ello, es tambien impor-

9.2. DIAGRAMAS DE BODE

231

tante dominar el uso de herramientas computacionales modernas. En particular,


Matlab dispone del comando bode para calcular y dibujar exactamente estos
diagramas. Para la funcion del Ejemplo 9.2, primero la expandimos como cuociente de polinomios en , es decir:
8( )2 8 16
( )3 + 4( )2 32
Entonces, los diagramas de Bode obtienen con el codigo Matlab :
H( ) =

(9.34)

Matlab
>>H=tf([8 -8 -16],[1 4 -32 0]);
>>bode(H);

40
30

Magnitud [dB]

20
10
0
10
20
30
2
10

10

10

10

10

10

10

10

55

Fase [o]

60
65
70
75
80
85
90
2
10

10

Frecuencia [rad/s]

Figura 9.6: Diagramas de Bode de magnitud y fase para la respuesta en frecuencia del Ejemplo 9.2

9.2.2.

Tiempo discreto

La respuesta en frecuencia de sistemas de tiempo discreto tambien puede


describirse graficamente usando diagramas de Bode; sin embargo, en este caso,

232
espectro

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

no tienen la misma utilidad por dos razones fundamentales:


a) Debido a que la respuesta en frecuencia es periodica con perodo 2, entonces la idea de usar una escala logartmica de la frecuencia para incrementar el rango de descripcion, tiene utilidad limitada.
b) No se pueden construir aproximaciones simples, ya que aqu no aparecen
polinomios en , sino que polinomios en ej .
Sin embargo, es importante destacar que si consideramos una funcion H(e j )
como la tranformada de Fourier de una se
nal arbitraria h[t], no necesariamente
la respuesta a impulso de un sistema, el diagrama de bode es importante pues
refleja el contenido frecuencial de dicha funcion. Es decir, los diagramas de Bode
permiten representar el espectro de una se
nal arbitraria h[t].
Para ilustrar el diagrama de Bode en tiempo discreto, desarrollamos el siguiente ejemplo.
Ejemplo 9.3. Considere la funci
on:
H(ej ) =

0, 2
e2j 1, 5ej + 0, 7

(9.35)

Para obtener la magnitud y fase de esta funci


on compleja, primero es necesario aplicar la ecuaci
on de Euler ej = cos()+j sen(). Para facilitar el trabajo
algebraico, el siguiente c
odigo Maple permite obtener el modulo y el a
ngulo de
H(ej ).
Maple
> H:=0.2/(exp(2*I*theta)-1.5*exp(I*theta)+0.7);
> abs(H);
> argument(evalc(H));

|H(ej )| = p

0,2

( cos 2 + 1, 5 cos 0, 7)2 + ( sen 2 + 1, 5 sen )2




sen 2 1, 5 sen
j
H(e ) = arctan
cos 2 1, 5 cos + 0, 7

(9.36)
(9.37)

Se puede apreciar que las expresiones obtenidas no son simples de aproximar,


ya sea en baja o alta frecuencia, usando o no escala logaritmica en la frecuencia.
Sin embargo, en Matlab , resulta muy simple obtener el gr
afico de la magnitud
y el a
ngulo de la funci
on H(ej ), usando el comando bode. Note que este es el
mismo que se usa para tiempo continuo, por tanto se debe tener el cuidado
de definir la funci
on de transferencia en tiempo discreto. Con los siguientes
comandos, Matlab entrega los gr
aficos de la Figura 9.7, donde se aprecia una
lmite de la banda de frecuencia en = , producto de la periodicidad inherente
al an
alisis en frecuencia en tiempo discreto:

9.3. DIAGRAMAS POLARES

233
diagrama polar
polar!diagrama

Matlab
>> H=tf([0.2],[1 -1.5 0.7],-1);
>> bode(H);

Bode Diagram
5
0

Magnitude (dB)

5
10
15
20
25
0

Phase (deg)

90

180

270

360

10

10
Frequency (rad/sec)

Figura 9.7: Diagrama de Bode en tiempo discreto (Ejemplo 9.3).


222

9.3.

Diagramas polares

Aunque los diagramas de Bode son una poderosa herramienta para el analisis
y dise
no, se requieren los dos diagramas para interpretar correctamente ciertas
caractersticas del sistema. Una alternativa es utilizar un diagrama polar, en el
que la respuesta en frecuencia se representa en un solo grafico, donde el eje de
abscisas corresponde a la parte real de H( ) y el eje de ordenadas, a la parte
imaginaria de H( ). En esta descripcion, la frecuencia esta implcita (esta es
la limitacion principal del diagrama polar).

9.3.1.

Tiempo continuo

Para introducir el tema consideraremos un ejemplo.

234
cuadrante

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

Ejemplo 9.4. La respuesta en frecuencia de un sistema de tiempo continuo


est
a caracterizada por:
H( ) =

1
( + 3)(( )2 + 0, 4 + 1)

(9.38)

Si se eval
ua H( ) en un rango de frecuencias 0 < < y dibujamos
el resultado en en plano cartesiano se obtiene el resultado que aparece en el
diagrama polar de la Figura 9.8. Esta figura se obtiene con el siguiente c
odigo
Matlab :

Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>plot(real(h(1,:)), imag(h(1,:)))

El mismo grafico se obtiene al reemplazar el u


ltimo comando por plot(h(1,:)).
En la Figura 9.8 se han indicado adicionalmente algunos puntos que corresponden a distintas frecuencias donde 1 < 2 < 3 < 4 .
Aunque parezca curioso hablar de gr
aficos polares, y describirlos en termino
un gr
afico cartesiano, es s
olo una cuesti
on de lenguaje. De hecho, el mismo
diagrama polar se puede dibujar en otras coordenadas. En realidad, eso es lo
que hace el comando polar de Matlab . As, si usamos el c
odigo:

Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>polar(angle(h(1,:)), abs(h(1,:)));

se obtiene el gr
afico de la Figura 9.9.
222
Del ejemplo precedente se puede entender que, dependiendo de la aplicacion,
por facilidad de lectura se prefiera uno u otro sistema de coordenadas.
Para hacer un bosquejo de un diagrama polar se debe examinar magnitud
y fase de la respuesta en frecuencia. El analisis de la magnitud esta orientado a
determinar como vara a medida que la frecuencia va desde 0 hasta .
El analisis de la fase permite saber cuales cuadrantes recorre el grafico, ya
que ello s
olo es funci
on de la fase para [0, ). Siempre es conveniente saber
el comportamiento de la magnitud y la fase en alta y baja frecuencia, es decir:
0 e . Una forma alternativa es saber como evolucionan la parte real y la parte

9.3. DIAGRAMAS POLARES

235

0.1

=0

0.1
0.2

Parte imaginaria

1
0.3
0.4
0.5

0.6
0.7

0.8
0.9
0.5

0.4

0.3

0.2

0.1

Parte real

0.1

0.2

0.3

0.4

0.5

Figura 9.8: Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4).

imaginaria de la respuesta en frecuencia. Ellas tambien permiten determinar en


que cuadrante del plano complejo se encuentra el diagrama polar.
Para facilitar el analisis, examinaremos primero algunos casos simples. Estas
funciones no tienen la misma trascendencia que en el caso de Bode. La diferencia
radica en que el diagrama polar de una funcion complicada no puede obtenerse
por composicion simple de diagramas polares de funciones elementales, como
s se puede hacer al construir diagramas de Bode. El objetivo del estudio de estos
casos es inducir una metodologa para la construccion de diagramas polares.
[P1]

[P2]

1
T + 1

[P3]

( )q , q {1; 1}

[P4]

"

2

+1
+ 2
n

#1

0 < 1, n > 0.

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

236

90

120

60
0.8
0.6

150

30
0.4
0.2

180

=0

210

330

3
240

300
270

Figura 9.9: Diagrama polar. Coordenadas polar (Ejemplo 9.4).

[P5]

e , > 0

[P6]

1
,T >0
(T + 1)

[P7]

e
T + 1

[P8]

1
( )2

o2

Examinaremos, a continuacion, los rasgos principales del diagrama polar


para cada uno de los tipos basicos.
[P1]
En este caso el diagrama polar es un u
nico punto, R. Este punto corresponde a (K, 0).

9.3. DIAGRAMAS POLARES

237

[P2]
Podemos determinar la descomposicion cartesiana (partes real e imaginaria) y
la descomposicion polar (magnitud y fase). As:
1
T
j 2 2
2 T 2 + 1
T +1
1
|F ( )| =
2
T2 + 1
(
arctan(|T |) T > 0
F ( ) =
arctan(|T |)
T <0

(9.39)

F ( ) =

(9.40)
(9.41)

Entonces, examinando la caracterstica de fase, se observa que el diagrama


polar recorre el cuarto cuadrante para T > 0 y el primer cuadrante si T < 0. Por
otro lado la magnitud es monotonicamente decreciente, desde 1 (para = 0)
hasta cero (para = ); sin embargo, en este caso particular se puede decir algo
mas, porque es facil demostrar, usando (9.39) que las partes real e imaginaria
de F ( ) cumplen con
(<{F ( )} 0, 5)2 + (={F ( )} = 0, 25

(9.42)

lo cual indica que el diagrama polar es una semi-circunferencia centrada en


(0, 5; 0) con radio 0, 5. Esta semi-circunferencia esta en el cuarto cuadrante para
T > 0 y en el primero para T < 0.
Note ademas que el valor absoluto de T no afecta el diagrama, pues solamente
equivale a re-escalar la frecuencia, la cual se encuentra implcita como parametro
que hace recorrer la curva.
Ademas, de (9.41) vemos que la fase tiende a 0, 5signo(T ). Es decir,
cuando tiende a infinito, el diagrama polar tiende al origen, apegandose al eje
imaginario por abajo (T > 0) o al al eje imaginario por arriba (T < 0).
Los diagramas polares correspondientes a T > 0 y a T < 0 se muestran en
la Figura (9.10).
T>0

=0

0
0.2
0.4

0.6
0

2
0.5
Parte real

0.6
Parte imaginaria

Parte imaginaria

0.2

0.4

0.2
0

=0

0.2
1

T<0

0.5
Parte real

Figura 9.10: Diagramas polares para el caso [P1].

[P3]
En este caso, F ( ) = ( )q . Esta funcion tiene parte real cero para q {1; 1}.

238

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

As es que el diagrama polar coincide con el eje imaginario (semi-eje superior


para q = 1 y semi-eje inferior para q = 1). La fase es 0, 5q R+ . Para
valores de tendiendo a cero, la magnitud tiende a infinito. Para tendiendo
a infinito, la magnitud tiende a cero.
[P4]
En este caso conviene descomponer la funcion F ( ) en sus partes real e imaginaria en la forma
F ( ) =

n2
=
( )2 + 2n + n2
2 n3
( 2 n2 )n2

j
( 2 n2 )2 + 4 2 n2 2
( 2 n2 )2 + 4 2 n2 2

(9.43)

=0

0,25

Parte Imaginaria

0,15

0,1
6

=0,05
10

12

Parte Real

Figura 9.11: Diagrama polar de una funcion tipo [P4] para distintos valores de

La parte imaginaria de F ( ) es negativa R. Por lo tanto el diagrama


polar solo puede estar en el tercer y cuarto cuadrante. En cambio, la parte real
puede ser positiva o negativa, el punto de quiebre ocurre cuando = n . Para
< n la parte real es negativa, lo cual indica que el diagrama polar esta en
el cuarto cuadrante; para > n la parte real es negativa, lo cual indica que el
diagrama polar esta en el tercer cuadrante.
Ademas podemos examinar la evolucion de la fase a medida que progresa
desde 0 hasta . En eso podemos apoyarnos en el diagrama de Bode para la fase

9.3. DIAGRAMAS POLARES

239

de la respuesta en frecuencia para el sistema elemental [B4] (ver Figura 9.4 en


la pagina 226). Observamos que la fase decae monotonicamente a medida que
crece. Un aspecto de interes es que, cuando , el diagrama polar se acerca
al origen asintoticamente siguiendo el eje real negativo.
La Figura 9.11 muestra los diagramas polares de F ( ) tipo [P4], para distintos valores de . Note que el valor de n no altera los diagramas, porque este
parametro solo produce escalamiento de la frecuencia (ojo, esta afirmacion es
solo valida si n > 0; el lector es invitado a investigar el caso n < 0).
[P5]
La respuesta en frecuencia del retardo puro, e , tiene magnitud unitaria,
R, y con fase igual a , en consecuencia el diagrama polar es una
circunferencia unitaria con centro en el origen.
[P6]
La funcion F ( ), en este caso, puede descomponerse en sus partes real e imaginaria, en la forma:
F ( ) =

1
T + 1
T
1
=
=
j
(9.44)
(T + 1)
(1 + 2 T 2 )
(1 + 2 T 2 )
(1 + 2 T 2 )

La descomposicion en magnitud y fase esta dada por:


1

2 T 2 + 1
F ( ) = 0, 5 arctan(T )
|F ( )| =

(9.45)
(9.46)

De la ecuacion (9.44) se observa que la parte real es siempre negativa, y que


la parte imaginaria tambien es siempre negativa. Por lo tanto, el diagrama polar
de F ( ) esta confinado al cuarto cuadrante. De la ecuacion (9.45) se ve que
la magnitud decrece montonicamente a medida que la frecuencia aumenta. Esto
es consistente con la ecuacion (9.44), ya que de all sabemos que tanto la parte
real como la parte imaginaria decaen monotonicamente a cero.
De la ecuacion (9.46) se ve tambien que para = 0 la fase es 0, 5; sin
embargo, esto no implica que a esa frecuencia la parte real sea cero. De hecho,
de la ecuacion (9.44) se ve que la parte real, para = 0, es igual a T . Para
= la fase tiende a ; esto implica que el diagrama polar tiende al origen
acercandose asintoticamente al eje real negativo.
En la Figura 9.12 se muestra el diagrama polar de una funcion tipo [P6] con
T = 1. Se observa que la parte real viene desde (1; ) cuando = 0.
[P7]
La funcion en este caso es el producto de una funcion tipo [P5] y una funcion
tipo [P6]. Por lo tanto la magnitud resultante es el producto de las magnitudes
de los factores y la fase es la suma de la fase de los factores, es decir:
|F ( )| =

;
2 T 2 + 1

F ( ) = 0, 5 arctan(T )

(9.47)

retardo!diagrama polar
c
rculo unitario

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

240
espiral

10

12
1.5

0.5

0.5

Figura 9.12: Diagrama polar de una funcion tipo [P6] con T = 1

La magnitud es la misma de una funcion tipo [P6], lo cual implica que decae
monotonamente a medida que la frecuencia crece. Por su parte, la fase exhibe
un crecimiento monotono, en la direccion negativa; esta caracterstica se debe
al termino . Dado que la magnitud decae monotonamente, el crecimiento
de la fase genera una espiral hacia el origen.
0.02

0.01

Parte imaginaria

Parte imaginaria

1
2

0.02

3
4
3

0.01

0.03
0
2

1
Parte real
a)

0.04
0.04

0.02

0
Parte real

0.02

0.04

b)

Figura 9.13: a) Diagrama polar de una funcion tipo [P7] (T = 1 y = 2), y b)


detalle.
En la Figura 9.13.a) se muestra el diagrama polar de una funcion del tipo
[P7], con T = 1 y = 2. En la Figura 9.13.b) se observa un detalle (alrededor
del origen) del mismo diagrama.
[P8]
En este caso, F ( ) = 1/(( )2 o2 ). Para esta funcion el diagrama polar

9.3. DIAGRAMAS POLARES

241

empieza en (1/o2 ; 0) para = 0 y tiende rapidamente hacia a lo largo


del eje real negativo para o . En = o hay una discontinuidad, ya que
para esa frecuencia, el diagrama polar salta desde (; 0) a (; 0), luego, a
medida que se hace mayor que o , el diagrama polar tiende al origen para
.
222
Como ya hemos dicho, el diagrama polar de funciones complejas no se puede
obtener en forma simple usando los diagramas polares para los funciones tipo
[P1] a [P8]. Sin embargo, las ideas usadas para dibujar el diagrama polar de
cada una de esas funciones ayuda a construir los diagramas polares de funciones
mas complicadas. Incluso, algunos de los rasgos peculiares de las funciones tipo
[P1] a [P8] se propagan a las funciones compuestas, tal como se aprecia en el
siguiente ejemplo.
Ejemplo 9.5. Suponga que la respuesta en frecuencia de un sistema est
a dada
por una funci
on H( ) compuesta por un factor tipo [P2] y un factor tipo [P8].
La funci
on H( ) est
a dada por:
H( ) =

1
(0, 5 + 1)(( )2 + 1)

(9.48)

Se requiere dibujar el diagrama polar. Para ello primero descomponemos la


funci
on dada en sus partes real e imaginaria, es decir:
H( ) =

(0, 25 2

j
2
2
+ 1)( + 1)
(0, 25 + 1)( 2 + 1)

(9.49)

y en magnitud y fase:
|H( )| = p

1
0, 25 2

(9.50)

+ 1 | 2 1|

(
arctan(0, 5)
H( ) =
arctan(0, 5)

< 1
> 1

(9.51)

As, de las ecuaciones precedentes, podemos observar que:


la parte real, la parte imaginaria y la fase tienen una discontinuidad en
= 1 (esto es heredado del factor tipo [P8] en la funci
on H( ));
cuando < 1 la parte real es positiva y la parte imaginaria es negativa,
es decir, el diagrama polar est
a en el cuarto cuadrante;
cuando > 1 la parte real es negativa y la parte imaginaria es positiva,
es decir, el diagrama polar est
a en el segundo cuadrante;
cuando 1 la fase tiende a arctan(0, 5) y cuando 1+ la fase
tiende a arctan(0, 5);

discontinuidad

242

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION
dado que la discontinuidad de la fase es [rad], el diagrama polar salta
desde el cuarto cuadrante al segundo cuadrante cuando pasa por 1
[rad/s]; y
cuando la magnitud tiende a 0 y la fase tiende a 1, 5 [rad/s],
es decir, el diagrama polar tiende al origen acerc
andose asint
oticamente
al eje imaginario superior.

El diagrama polar para este ejemplo aparece en la Figura 9.14. Note que se
ha dibujado con lnea delgada la asntota del diagrama polar para 1 y para
1+ .
1.5

Parte imaginaria

0.5

=0

0.5

1.5
2

1
1.5

0.5

0.5

1.5

2.5

Parte real

Figura 9.14: Diagrama polar de H( ) para el Ejemplo 9.5.

222
Otro tipo de situaciones de interes son aquellas respuestas en frecuencia
donde el numerador es tambien un polinomio en . Note que en el caso de las
funciones tipo [P1] a [P8], esta situacion no ha sido incluida, ya que solo hemos
considerado funciones con numerador constante. Para observar los fenomenos
que puede provocar este numerador mas complejo consideraremos un u
ltimo
ejemplo.
Ejemplo 9.6. Un sistema tiene la respuesta en frecuencia dada por:
H( ) = 0, 001

( + 5)2 ( + 0, 1)
( + 0, 5)( + 0, 2)( + 0, 1)2

(9.52)

Para una funci


on tan compleja como esta, podemos deducir algunas rasgos
del diagrama polar:
El diagrama parte, para = 0, en (2, 5; 0);

9.3. DIAGRAMAS POLARES

243

Para es cero, y la fase es 270[o ];


En general, la magnitud y la fase cumplen con:
|H( )| =0, 001

( 2

( 2 + 25)2 ( 2 + 0, 01)
+ 0, 25)( 2 + 0, 04)( 2 + 0, 01)2 )

(9.53)

H( ) =2 arctan(0, 2) 3 arctan(10) arctan(2) arctan(5)


(9.54)
Parece difcil, a partir de las expresiones precedentes para magnitud y fase,
obtener algunos criterios para dibujar el diagrama polar. Recurriremos a Matlab usando el siguiente c
odigo:

Matlab
>>H=-0.001*tf(poly([-5 -5 0.1]),poly([-0.5 -0.2 -0.1 -0.1]));
>>w=logspace(-1,2,4000);
>>h=freqresp(H,w);subplot(221);plot(h(1,:));

El primer comando es equivalente a H=zpk([-5 -5 0.1],[-0.5 -0.2 -0.1


-0.1],-0.001). El resultado se muestra en la Figura 9.15.a).
2

0.8

Parte imaginaria

Parte imaginaria

0.6
0.4
0.2
0
0.2
0.4
2

x 10

2
4
6
8
10

1.5

0.5

Parte real

a)

0.5

12

Parte real

b)

4
3

x 10

Figura 9.15: a) Diagrama polar de H( ) para el Ejemplo 9.6, y b) detalle.


Aparentemente el diagrama no refleja la condici
on de la fase asint
otica
(270[o ]), ya que esta parece ser 360[o ]. Esta aparente contradicci
on es resuelta con un detalle del diagrama en torno al origen. Este detalle se muestra
en la Figura 9.15.b) y se obtiene con

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

244
diagrama polar!tiempo discreto
circulo unitario

Matlab
>> w2=logspace(0.3,3,4000);h2=freqresp(H,w2);
>> subplot(222);plot(h2(1,:));
222

9.3.2.

Tiempo discreto

Naturalmente que el mismo tipo de descripcion mediante diagramas polares


es aplicable a la respuesta en frecuencia de sistemas de tiempo discreto. Sin
embargo, en este caso es a
un mas difcil construir, a mano, una aproximacion
para el diagrama polar. La razon esencial es que la respuesta en frecuencia
H(ej ) es un cuociente de polinomios en ej (en vez de ser un cuociente de
polinomios en , como en el caso de sistemas de tiempo continuo). Ese rasgo
hace que las expresiones tanto para la magnitud como para las partes real e
imaginaria de H(ej ) sean expresiones muy complicadas de . Una herramienta
interesante, para dibujar diagramas polares de sistemas simples se deduce de la
Figura 9.16.

ej
=

=0

po

Figura 9.16: Interpretacion grafica de la respuesta en frecuencia (ej po )1


En la Figura 9.16 la circunferencia de radio unitario describe la ubicacion del
n
umero complejo ej , por lo tanto, el vector que se ha dibujado es ej po . As, si
consideramos un sistema cuya respuesta en frecuencia es F (ej ) = (ej po )1 ,
vemos que su magnitud es el recproco del largo del vector dibujado, y la fase
corresponde al negativo del angulo en la figura. A medida que crece desde 0
hasta , la punta del vector se desplaza desde (1, 0) hasta (1, 0). Esto implica
que la magnitud del vector crece monotonamente (para po R+ ) desde 1 po
hasta 1+po . As, la magnitud de F (ej ) decrece monotonamente desde (1po )1
hasta (1 + po )1 , y su fase va monotonamente tambien, desde 0 hasta [rad].
El diagrama polar esta por lo tanto en el cuarto y tercer cuadrantes.

9.3. DIAGRAMAS POLARES

245

La idea precedente puede ser usada en la determinacion de los rasgos principales de diagramas polares de funciones simples, como se ilustra en el ejemplo
siguiente.
Ejemplo 9.7. Un sistema de tiempo discreto tiene la respuesta en frecuencia
dada por:
ej zo
= 1 zo ej ; 0 < zo < 1
(9.55)
ej
Las caractersticas del diagrama polar pueden ser construidas a partir de la
Figura 9.17.
F (ej ) =

ej

=0

zo

Figura 9.17: Interpretacion grafica de la respuesta en frecuencia de 1 zo ejt .


Primero observamos que:
|F (ej )| =

|ej zo |
= |ej zo |
|ej |

F (ej ) = (ej zo ) ej =

(9.56)
(9.57)

Usando relaciones b
asicas de geometra, sabemos tambien que = .
As, la fase de F (ej ) es igual a , por su parte, la magnitud de F (ej ) es igual
al largo del vector ej zo .
Con los antecedentes anteriores vemos que la magnitud de F (ej ) va mon
otonamente desde 1 zo , para = 0, hasta 1 + zo , para = . Por su parte,
la fase empieza en 0 [rad] para = 0, luego crece hasta alcanzar un m
aximo
(siempre menor que /2), luego decae hasta llegar a cero nuevamente cuando
= . El diagrama polar est
a por lo tanto en el primer cuadrante.
222
Para funciones mas complejas es difcil estimar la forma en que evolucionan la
magnitud y la fase. En esos casos es preferible recurrir a software como Matlab

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

246

, que en el caso de Ejemplo 9.7 los siguientes comandos dan como resultado el
grafico de la Figura 9.18.

Matlab
>>
>>
>>
>>

F=tf([1 -0.7],[1 0],-1);


w=[0:0.01:pi];
h=freqresp(F,w);
plot(h(1,:))

0.8
0.7
0.6
Parte imaginaria

bloques
diagramas de bloques
sistema!interconexi
on
interconexi
on

0.5
0.4
0.3
0.2
0.1

1+zo

1zo

0.1
0.2
0.2

=0

0.2

0.4

0.6

0.8
1
Parte real

1.2

1.4

1.6

1.8

Figura 9.18: Diagrama polar para el Ejemplo 9.7.

9.4.

Diagramas de bloques

Una forma de representar la interconexion de sistemas es un diagrama en


bloques, donde cada uno de los bloques representa a uno de los sistemas participantes. A cada bloque se asocia una caracterizacion del sistema asociado,
tal como la respuesta a impulso con condiciones iniciales iguales a cero, o su
respuesta en frecuencia, o la funcion de transferencia, entre otras.
Un requisito clave en esta forma de representacion es que cada uno de los
sistemas participantes mantenga su caracterizacion original (la funcion de transferencia, por ejemplo) cuando se realiza la interconexion. Para entender esto,
considere las dos redes de la Figura 9.19. Los sistemas pueden ser caracterizados por sus respectivas funciones de transferencia H1 ( ) y H2 ( ) respectiva-

9.4. DIAGRAMAS DE BLOQUES

247
amplificador

mente, donde:
V2 ( )
R2
=
V1 ( )
C3 R1 R2 + R1 + R2
V4 ( )
C4 R5
=
H2 ( ) =
V3 ( )
C4 R5 + 1

H1 ( ) =

R1

v1 (t)

C3

(9.58)
(9.59)

C4
R2

v2 (t) v3 (t)

R5

v4 (t)

Figura 9.19: Sistemas a interconectar. Caracterizacion independiente


Al conectar directamente ambas redes (V2 ( ) = V3 ( )), la relacion entre
las variables es ahora:
R2 (R5 C4 + 1)
V2 ( )
=
V1 ( )
R1 R2 R5 C3 C4 2 + (R1 R2 C4 + R1 R5 C3 + R2 R5 C4 ) + R1 + R2
(9.60)
V4 ( )
R5 C4
V4 ( )
=
=
V2 ( )
V3 ( )
R 5 C4 + 1

(9.61)

Se aprecia que la funcion de transferencia entre V1 ( ) y V2 ( ) ya no


satisface (9.60) y esto hace que la funcion de transferencia entre V1 ( )y V4 ( )
sea distinta al producto H1 ( )H2 ( ), donde H1 ( ) y H2 ( ) estan dadas
en (9.58)(9.59).
Supongamos ahora que las redes de la Figura 9.19 son interconectadas a
traves de un amplificador de ganancia unitaria, tal como se muestra en la Figura
9.20.
R1

v1 (t)

C3

C4

+
R2

v2 (t)

v3 (t)

Figura 9.20: Sistemas interconectados

R5

v4 (t)

248

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

Ahora podemos ver que las transferencias entre V1 ( ) y V2 ( ) y entre


V3 ( ) y V4 ( ) son las mismas que en (9.58)(9.59). Por lo tanto la funcion de
transferencia entre V1 ( )y V4 ( ) es ahora igual al producto H1 ( )H2 ( ).
222

La discusion precedente se
nala la condicion implcita en los diagramas de
bloques: la funcion de transferencia de cada bloque sigue rigiendo la relacion
entre entrada y salida, aunque el bloque sea interconectado con otros.
La ventaja principal de estos diagramas es que permiten analizar un sistema
por partes, estudiando el rol que cada subsistema juega en el total. Esto es clave
en el analisis y sntesis de filtros, controladores y otros sistemas procesadores de
se
nales.
En la Tabla 9.5 se muestran algunos ejemplos de diagramas de bloques con
sus transferencias equivalentes.
Finalmente es necesario se
nalar que la representacion en diagramas de bloques se aplica sin distincion tanto a sistemas de tiempo continuo como a sistemas
de tiempo discreto, y tambien a sistemas hbridos, que combinan elementos en
ambos dominios, como se muestra en el Captulo 11.

9.4. DIAGRAMAS DE BLOQUES

249

Interconexi
on

H1 ( )

Transferencia equivalente

H2 ( )

H1 ( )

H1 ( )H2 ( )

H1 ( ) + H2 ( )
+

H2 ( )

H1 ( )

H2 ( )

H1 ( )H2 ( )
1 H1 ( )H2 ( )

H1 ( )

H1 ( )
1 H1 ( )H2 ( )

H2 ( )

H3 ( )
+
+

H1 ( )

H1 ( )

H2 ( )

H2 ( )

H3 ( )

(H1 ( ) + H3 ( ))H2 ( )
1 + H1 ( )H2 ( )

H1 ( )H2 ( )H3 ( )
1 + H2 ( ) + H1 ( )H2 ( )H3 ( )

Cuadro 9.5: Diagramas de bloques y transferencias equivalentes

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

250

9.5.

Problemas para el lector

Problema 9.1. Dibuje los diagramas de Bode, es decir, magnitud y fase,


de cada una de las funciones de transferencia que se presentan a continuaci
on.
Haga primero las aproximaciones asint
oticas y luego use Matlab para verificar:
a)
b)

15
+ 8s + 15
s
H2 (s) = 2
s 2s 3

H1 (s) =

s2

c)

H3 (s) =

1
s(0,2s + 1)

d)

H4 (s) =

6(s 3)
(s + 5)(s + 9)2

e)

H5 (s) = H4 (s)

f)

H6 (s) =

g)

H7 (s) =

h)

H8 (s) =

e2s
4s + 1
s2

1
+ 0,01s + 1

s2
s2 +3s+2

Problema 9.2. Construya los diagramas de Bode de la siguiente funci


on de
transferencia para = 0,1; 0,2; 0,5; 1; 5:
H(s) =

s + 1
(s + 1)(0,2s + 1)

Problema 9.3. Dados los diagramas de Bode de la Figura 9.21, proponga una
funci
on de transferencia H(s) que pueda ser representada aproximadamente por
ellos.
Problema 9.4. Con los diagramas de Bode de G(s) que aparecen en la Figura
9.22, determine en forma aproximada los diagramas de Bode para e2s G(s),
G(s)
s+1
s+1 G(s) y
s .
Problema 9.5. Dados los diagramas de Bode de G(s) de la Figura 9.23,
determine los diagramas de Bode para G(s).

9.5. PROBLEMAS PARA EL LECTOR

251

20
0
20
40
60
80
100

Fase (grados)

50
0
50
100
150
200
2
10

10

10

10

10

10

Frecuencia (rad/seg.)

Figura 9.21: Diagramas de Bode de H(s)

0
10
20
30
40
50
0

Fase (grados)

50

100

150

200
2
10

10

10

Frecuencia (rad/seg.)

Figura 9.22: Diagramas de Bode de G(s)

10

DE SISTEMAS LINEALES
CAPITULO 9. REPRESENTACION

0
5
10
15
20
25
0
20
Fase (grados)

252

40
60
80
100
1
10

10

10

Frecuencia (rad/seg.)

Figura 9.23: Diagramas de Bode de G(s)

10

variables!de estado|textbf
estado|textbf
espacio!de estado
modelo!en espacio de estado

Captulo 10

Representaci
on en variables
de estado.
10.1.

Conceptos fundamentales sobre modelos


de sistemas.

Uno de los aspectos esenciales que interesa en ciencias aplicadas e ingeniera


es la representacion de sistemas mediante un modelo, que lo describa con suficiente detalle y permita analizar sus propiedades fundamentales.
En la teora de sistemas estos modelos juegan un rol fundamental, pues son
imprescindibles para el analisis, la sntesis y el dise
no. En particular, el principal
objeto de contar con una representacion de un sistema es el poder predecir y
analizar el comportamiento del sistema en el tiempo.
Naturalmente existen diferentes formas de describir un sistema dado, dando
lugar a diferentes modelos, seg
un sea el aspecto del sistema que interesa describir
con mayor enfasis. Por ejemplo, si consideramos un motor electrico, podramos
estar interesados en el como un sistema de conversion electro-mecanica, un sistema termico, un sistema mecanico sujeto a vibraciones, o bien, estudiar el
comportamiento de los materiales que lo conforman.
En segundo lugar, no existe un u
nico modelo para un sistema, ya que al
modelar siempre existe alguna simplificacion implcita de la realidad, la cual,
en la mayor parte de los casos, resulta demasiado compleja para describir todos
sus aspectos.
De esta forma, una decision fundamental a la hora de modelar un sistema
es definir el objetivo del modelo, es decir, cuales son los aspectos esenciales que
queremos capturar.
La teora y herramientas existentes para modelar de sistemas son muy diversas, y en ellas se combinan leyes de la fsica, la qumica, la termodinamica,
ademas de teora de se
nales, procesamiento de datos, matematicas y herramientas numericas. De hecho, un modelo generalmente no se obtiene de una sola
253

254
sistema!din
amico
sistema!h
brido
muestreo
estado!del sistema
estado!variables de
variables!de estado
estado!vector de
vector!de estado
estado!espacio de
estado!trayectoria

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

vez, sino que se construye en un proceso iterativo, que considera la calidad de


los resultados obtenidos con el en las diferentes etapas, por ejemplo, para hacer
control sobre un sistema o predecir su comportamiento.
En este captulo, nos interesa introducir una clase especial de modelos, u
til
para describir sistemas din
amicos. Como ya hemos visto, estos sistemas se caracterizan por la interaccion de sus variables en el tiempo, y se describen, en
tiempo continuo, a traves de ecuaciones diferenciales (EDS en Cap. 3), y en
tiempo discreto, a traves de ecuaciones recursivas (ERS en Cap. 4).
Adem
as de estos dos tipos de sistemas din
amicos, en el dominio del tiempo
continuo y en el del tiempo discreto, se introducen sistemas hbridos en los que se
establece una relaci
on entre tiempo continuo y discreto a traves del muestreo.
En este captulo hemos enfatizado los conceptos, propiedades fundamentales,
interpretaciones fsicas y ejemplos, sin embargo, para un estudio en mayor profundidad de los topicos aqu presentados el lector puede consultar, por ejemplo,
las referencias [5], [8], [15], [18], [19], [20], [21].

10.2.

Conceptos fundamentales

10.2.1.

Introducci
on

Uno de los tipos de modelos utilizados con frecuencia para describir un sistema es aquel en un conjunto de ecuaciones que relaciona sus variables internas.
Estas variables se denominan variables de estado. En cada instante el conjunto de ellas, que toman un valor determinado, se denomina estado del sistema.
Sin embargo, a menudo usaremos las expresiones variables de estado y estado
del sistema como sinonimos.
La definicion dada es mas bien intuitiva y podra coincidir en realidad con
cualquier grupo de variables de un sistema dado. Por esto, seremos mas precisos:
Un conjunto de variables de estado de un sistema dado es aquel que permite
expresar cualquier variable del sistema como funci
on del estado presente y de
los valores presentes y futuros de las entradas del sistema.
En esta definicion hemos enfatizado en significado fsico de las variables de
estado. Sin embargo, existen tambien definiciones mas abstractas.
El conjunto de variables de estado usualmente se agrupan en un vector de
estado, el cual pertenece al llamado espacio de estado.
Es importante notar es que la evolucion del estado en el tiempo, es decir, su
trayectoria, puede ser obtenida a partir del estado presente y el valor futuro de
las entradas del sistema. De esta forma, los modelos de este tipo son siempre
ecuaciones diferenciales de primer orden, en el caso de sistemas continuos, o
ecuaciones recursivas de un paso, para sistemas discretos
Ademas, al conocer el estado del sistema en un instante dado t, podemos
entonces calcular la energa que en ese instante el sistema posee. En el caso de
sistemas fsicos, esta siempre depende de las variables del sistema, tales como velocidad, posicion, presion, voltaje y corriente, entre otras. Todas estas variables,

10.2. CONCEPTOS FUNDAMENTALES

255

por la definicion dada, se pueden obtener a partir del estado del sistema.
Esto sugiere ademas que podemos pensar el estado de un sistema de forma
mas general, ya que las variables de estado pueden ser cualquier funci
on de
variables del sistema. Esta observacion resulta muy importante pues establece
que el estado del sistema no necesariamente esta formado por variables reales
del sistema, permitiendo de esta forma un analisis mas general. Es mas, esta
misma observacion hace evidente que la eleccion de las variables de estado no
es u
nica.

10.2.2.

Modelos b
asicos en variables de estado

Si denotamos por x al vector de estado que corresponde a una eleccion en


particular de variables de estado para un sistema dado, entonces la forma general
del modelo en variables de estado es:
Para sistemas de tiempo continuo
dx
= F(x(t), u(t), t)
dt
y(t) = G(x(t), u(t), t)

(10.1)
(10.2)

donde u(t) es el vector de entrada y y(t) es el vector de salida del


sistema. En el caso de sistemas de una entrada y una salida, naturalmente
estos vectores se reducen a funciones escalares.
Para sistemas de tiempo discreto
x[t + 1] = Fd (x[t], u[t], t)
y[t] = Gd (x[t], u[t], t)

(10.3)
(10.4)

Donde, analogamente al caso de tiempo continuo, u[t] en el vector de


entradas y y[t] es el vector de salidas del sistema, y tambien para el
caso de sistemas SISO se reducen a funciones escalares.
Para ilustrar los conceptos presentados hasta el momento consideremos el
siguiente ejemplo:
Ejemplo 10.1. En la Figura 10.1, una fuerza externa f (t) se aplica a un sistema masa-resorte sujeto a un muro por un extremo. La posici
on d(t) se mide
con respecto a la posici
on en que el resorte se encuentra en su largo natural. El
movimiento de la masa es amortiguado por una fuerza de roce viscoso, proporcional a la velocidad de la masa, v(t).
Sabemos que para obtener la posici
on y la velocidad de la masa se debe
conocer su valor en alg
un instante inicial. Por tanto el vector de estado debe
tener dos componentes, i.e x(t) = [x1 (t) x2 (t)]T , y la elecci
on m
as natural en
este caso es:
x1 (t) = d(t)
x2 (t) = v(t) = x 1 (t)

(10.5)
(10.6)

256

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

transformaci
on del estado
estado!transformaci
on
similaridad
se~
nal!modelo de estado

v(t)
d(t)
K

f(t)

roce viscoso

Figura 10.1: Sistema masa-resorte.

Con esta elecci


on, se pueden aplicar las leyes de Newton para obtener:
f (t) = M

dv(t)
+ Kd(t) + Dv(t) = M x 2 (t) + Kx1 (t) + Dx2 (t)
dt

(10.7)

donde D es el coeficiente de roce viscoso, o constante de proporcionalidad.


De esta forma podemos escribir las ecuaciones de estado del sistema:
x 1 (t) = x2 (t)
K
D
1
x 2 (t) = x1 (t)
x2 (t) +
f (t)
M
M
M

(10.8)
(10.9)

Para resolver este sistema de ecuaciones diferenciales de primer orden, se


requiere conocer los valores x1 (0) y x2 (0), as como el valor de la excitaci
on
f (t), t 0.
Podemos apreciar tambien que la energa almacenada en el sistema, w(t),
queda expresada como:
1
1
2
2
K (d(t)) + M (v(t)) = x(t)T x(t)
(10.10)
2
2


M
donde es una matriz diagonal: = diag K
2 , 2 .
Finalmente, la no unicidad de la representaci
on en variables de estado se
puede apreciar si, en vez de la elecci
on hecha en (10.8), elegimos un nuevo
vector de estado x(t) que se relaciona con x(t) a traves de una matriz no singular
cualquiera T R22 , es decir:
w(t) =

x(t) = Tx(t)

(10.11)

M
as adelante, en la Secci
on 10.3.3, veremos en m
as detalle este tipo de
transformaciones.
222

10.2.3.

Se
nales descritas en espacio de estado

Las representaciones en variables de estado ademas de describir sistemas o


procesos, pueden ser tambien muy u
tiles para representar una gran variedad de
se
nales.

10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS

257

Para esto se utilizan modelos de estado sin excitaciones o se


nales de entrada.
Por tanto, la se
nal que se obtiene como salida del sistema solo depende de la
condicion inicial del vector de estado.
Este tipo de sistemas sin se
nal de entrada se denominan homog
eneos o
aut
onomos:
Para se
nales de tiempo continuo
dx(t)
= Ax(t)
dt
y(t) = Cx(t)

(10.12)
(10.13)

Para se
nales de tiempo discreto
x[t + 1] = Aq x[t]

(10.14)

y[t] = Cq x[t]

(10.15)

Las variables definidas en este tipo de modelos en espacio de estado, no


tienen un significado fsico, sin embargo, esta forma de describir se
nales resulta
muy u
til en diversas aplicaciones de la teora de se
nales.
Ejemplo 10.2. Supongamos la se
nal de tiempo continuo:
f (t) = 2 + 4 cos(5t) sen(5t)

(10.16)

Esta esta formada por una sinusoide m


as una constante, y puede interpretarse como la soluci
on de la ecuaci
on diferencial homogenea:
d f (t)
d 3 f (t)
+ 25
= 0;
dt 3
dt

sujeta a f (0) = 6; f(0) = 5 and f(0) = 100

(10.17)
Si ahora escogemos como variables de estado x1 (t) = f (t), x2 (t) = f(t) y
x3 (t) = f(t), entonces el modelo el espacio de estado de esta se
nal es:

0
1
0
dx(t)
0
1 x(t)
y(t) = [1 0 0] x(t)
(10.18)
= 0
dt
0 25 0

222

10.3.

Modelos de estado para sistemas continuos

En esta seccion se presentan los modelos en variables de estado para sistemas


de tiempo continuo. El analisis que se realiza esta centrado en sistemas lineales

se~
nal!de tiempo continuo
se~
nal!de tiempo discreto
sistema!tiempo continuo

258
retardo
linealizaci
on
punto de equilibrio

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

e invariantes en el tiempo, tal como se ha considerado en los captulos previos. Naturalmente los sistemas son en general no lineales, tal como se muestra
en las ecuaciones (10.1) y (10.2), pero pueden ser linealizados, tal como se hizo
en el captulo 1.
Otra restriccion importante es que los sistemas considerados no poseen retardos puros. Estos daran origen a un vector de estado de dimension infinita.
Sin embargo, en la Seccion 10.4 veremos que este tipo de sistemas pueden ser
representados en variables de estado usando un modelo del sistema muestreado.

10.3.1.

Linealizaci
on

Si consideramos el modelo de un sistema invariante en el tiempo, las ecuaciones (10.1)-(10.2) se reducen a:


dx
= F(x(t), u(t))
dt
y(t) = G(x(t), u(t))

(10.19)
(10.20)

Suponemos que el modelo (10.19)-(10.20) tiene, al menos, un punto de equilibrio dado por {xQ , uQ , yQ }. Este tro de vectores satisface:
0 = F(xQ , uQ )
yQ = G(xQ , uQ )

(10.21)
(10.22)

Note que el punto de equilibrio queda determinado haciendo las derivadas


iguales a cero.
Si consideramos una vecindad alrededor del punto de equilibrio, podemos
aproximar el modelo (10.19)-(10.20) por una serie de Taylor truncada (Apendice
A), de la forma:


F
F

(x(t)

x
)
+
(u(t) uQ ) (10.23)
x(t)
F(xQ , uQ ) +
Q
x x=xQ
u x=xQ
u=uQ
u=uQ


G
G
y(t) G(xQ , uQ ) +
(x(t) xQ ) +
(u(t) uQ ) (10.24)
x x=xQ
u x=xQ
u=uQ

u=uQ

Las ecuaciones (10.23) y (10.24) se pueden reescribir por lo tanto como:


dx(t)
= Ax(t) + Bu(t)
dt
y(t) = Cx(t) + Du(t)

(10.25)
(10.26)

donde las se
nales incrementales son:
x(t) = x(t) xQ ;

u(t) = u(t) uQ ;

y(t) = y(t) yQ

(10.27)

10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS


y las matrices de la representacion de estado son:



F
G
F
A=
; C=
;
; B=
x x=xQ
u x=xQ
x x=xQ
u=uQ

u=uQ

259


G
D=
u x=xQ

u=uQ

u=uQ

(10.28)
Para ilustrar esta forma de obtener un modelo lineal para un sistema no
lineal, se ilustra en el siguiente ejemplo.
Ejemplo 10.3. Considere el levitador electromagnetico que se muestra en la
Figura 10.2.
i(t)
R

h(t)

f(t)

e(t)

v(t)

mg

Figura 10.2: Levitador electromagnetico.


La esfera met
alica est
a sometida a dos fuerzas: su propio peso, mg, y la
fuerza de atracci
on generada por el electroim
an, f (t). La fuerza del electroim
an
se regula a traves de la fuente de voltaje, e(t) > 0, t. La fuerza de atracci
on
sobre la esfera, f (t), depende de la distancia h(t) y de la corriente, i(t). Esta
relaci
on se puede describir aproximadamente por la expresi
on
f (t) =

K1
i(t)
h(t) + K2

(10.29)

donde K1 y K2 son constantes positivas.


Aplicando los principios usuales en redes electricas y mec
anica, podemos
escribir las siguientes ecuaciones:
e(t) = Ri(t) + L

di(t)
dt

dh(t)
dt
K1
dv(t)
f (t) =
i(t) = mg + m
h(t) + K2
dt
v(t) =

(10.30)
(10.31)
(10.32)

260

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

A continuaci
on escogemos las variables de estado: la corriente i(t), la posici
on de la esfera h(t), y su velocidad v(t), es decir:

T 
T
x(t) = x1 (t) x2 (t) x3 (t) = i(t) h(t) v(t)
(10.33)

Note que esta elecci


on permite cuantificar directamente la energa almacenada en el sistema.
A partir de (10.30)-(10.32) obtenemos el modelo de estado del sistema:
dx1 (t)
R
1
di(t)
=
= x1 (t) + e(t)
dt
dt
L
L
dx2 (t)
dh(t)
=
= x3 (t)
dt
dt
dv(t)
dx3 (t)
K1
=
=
x1 (t) g
dt
dt
m(x2 (t) + K2 )

(10.34)
(10.35)
(10.36)

Para linealizar el modelo obtenido, necesitamos obtener primero el punto de


equilibrio alrededor del cual se har
a dicha linealizaci
on. La entrada al sistema
es el voltaje de la fuente e(t). Supongamos que el punto de equilibrio se obtiene
fijando e(t) = EQ , entonces, a partir de este, se puede calcular el estado del
sistema en el punto de equilibrio. Este queda caracterizado por las ecuaciones
(10.34)-(10.36), haciendo las derivadas iguales a cero:
R
1
x1Q + EQ = 0
L
L
x3Q = 0
K1
x1Q g = 0
m(x2Q + K2 )

EQ
(10.37)
R
=0
(10.38)
K1
K 1 EQ
=
x1Q K2 =
K2 (10.39)
mg
mgR

= x1Q =
= x3Q
= x2Q

El modelo linealizado queda expresado en terminos de la entrada incremental


e(t) y el estado incremental x(t) = [x1 (t), x2 (t), x3 (t)]T de la forma:
dx1 (t)
R
1
= x1 (t) + e(t)
dt
L
L
dx2 (t)
= x3 (t)
dt
Rg
Rmg 2
dx3 (t)
=
x1 (t)
x2 (t)
dt
EQ
K 1 EQ
Si consideramos como
mos comparar las u
ltimas
R

0
L

0
A=
0
Rg
Rmg 2

EQ
K 1 EQ

(10.40)
(10.41)
(10.42)

salida del sistema la posici


on de la esfera h(t), podeecuaciones con (10.25) y (10.26) para obtener:



1
0
0

T
1
; C = 1 ; D = 0 (10.43)
0
; B =

0
0
0
222

10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS

261

De aqui en adelante omitiremos el prefijo , pero el lector debe tener en


mente que los modelos obtenidos mediante linealizacion relacionan el estado
incremental, las entradas incrementales y las salidas incrementales, en
torno al punto de equilibrio.

10.3.2.

Modelos lineales en el espacio de estado

Consideramos el modelo en variables de estado, lineal e invariante en el


tiempo:
dx(t)
= Ax(t) + Bu(t)
dt
y(t) = Cx(t) + Du(t)

(10.44)
(10.45)

on inicial x(to ) = xo ,
Lema 10.1. Dada la ecuaci
on (10.44), sujeta a la condici
su soluci
on es:
Z t
A(tto )
x(t) = e
xo +
eA(t ) Bu( )d
t to
(10.46)
to

donde la matriz de transici


on eAt satisface:
eAt = I +

X
1 k k
A t
k!

(10.47)

k=1

(Para la definici
on de exponencial de una matriz ver Apendice F) Demostraci
on
Puede verificarse directamente al reemplazar (10.46) en la ecuaci
on (10.44),
usando la regla de Leibniz para la derivaci
on de la integral.
222
Con este resultado, dado un estado inicial x(to ) = xo la solucion de las
ecuaciones (10.44)(10.45) se puede expresar como:
Z t
y(t) = CeA(tto ) xo + C
eA(t ) Bu( )d + Du(t)
(10.48)
to

Din
amica del sistema
Como hemos visto en los Captulos 3 y 4, la salida de un sistema siempre
puede descomponerse en dos partes: una componente no forzada determinada
por las condiciones iniciales y formada por los modos naturales del sistema, y
una componente forzada por la se
nal de entrada al sistema. Esto mismo se ve
confirmado en la solucion de la ecuacion de estado (10.48), donde se aprecia la
componente no forzada xu (t), y la componente forzada xf (t), donde:
xu (t) = eA(tto ) xo
Z t
xf (t) =
eA(t ) Bu( )d
to

(10.49)
(10.50)

matriz!de
transici
on
exponencial!de una matriz

262
respuesta homog
enea
estabilidad
velocidad

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

Estructura de la respuesta homog


enea
Para analizar con mayor detalle el modelo en espacio de estado y su solucion,
consideremos to = 0 y la entrada u(t) = 0 t 0, es decir, el estado esta formado
solo por su parte no forzada u homog
enea. Entonces:
x(t) = eAt xo

(10.51)

Supondremos ademas que A Rn y que, por simplicidad, no tiene autovalores repetidos, sino que son todos diferentes 1 ,2 ,. . . , n , con sus n autovectores
v1 , v2 , . . . , vn linealmente independientes1 . En este caso podemos afirmar que
siempre existen constantes 1 , 2 , . . . , n tales que:
xo =

n
X

` v` ;

`=1

` C

(10.52)

Del algebra lineal (Apendice F) sabemos que los autovalores de la matriz Ak


son k1 , k2 ,. . . , kn con sus correspondientes autovectores v1 , v2 , . . . , vn . De
esta forma, se obtiene:
x(t) = e

At

xo =

! n
!

X
X
1 k k
A t
` v`
I+
k!
`=1
k=1

n
X
X 1
X
=
Ak v ` t k =
` v` +
` e ` t v`
k! | {z }
`=1

k=1

k
` v`

(10.53)

`=1

Esta ecuacion pone de manifiesto que la componente no forzada del vector


de estado es una combinaci
on lineal de modos de la forma {e` t }, cada uno de
los cuales esta asociado a un autovalor de A. Esto establece un resultado muy
importante:
Los frecuencias naturales de un sistema de tiempo continuo son iguales a los
valores propios de la matriz A de su representacion en variables de estado.
Es decir, la ecuacion caracterstica de un sistema esta dada por:
det(I A) = 0
Por tanto, la matriz A es la que determina:
la estructura de la respuesta no forzada u homogenea,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de respuesta.
1 Todo

conjunto de n vectores l.i. en Rn forman una base para Rn

(10.54)

10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS

263

El analisis previo puede extenderse al caso en que la matriz A posee valores


propios repetidos, utilizando la forma de Jordan (Apendice F).
En ausencia de se
nal de entrada, hemos visto que el estado del sistema resulta
ser una combinacion de modos naturales. Estos pertenecen al conjunto de funciones generadas por exponenciales reales o complejas, que pueden corresponder
a se
nales constantes, exponenciales reales y sinusoides puras o moduladas por
exponenciales, entre otras.
Ejemplo 10.4. Para ilustrar la diferentes aparici
on de diferentes tipos de modos naturales, y su interpretaci
on fsica consideremos nuevamente el sistema
del Ejemplo 10.1 en la p
agina 255. Para dicho sistema, obtuvimos el modelo en
variables de estado:
"
# "
#"
# " #
x 1 (t)
0
1
x1 (t)
0
=
+ 1 f (t)
(10.55)
K
D
x 2 (t)
M M
x2 (t)
M
en que x1 (t) y x2 (t) son respectivamente la posicion y la velocidad de la masa
M , y f (t) es la fuerza externa.
Las frecuencias naturales del sistema son los autovalores de la matriz A, es
decir, las soluciones de la ecuaci
on caracterstica:
det(I A) = 2 +
Estas son:
D

1,2 =
2M
Donde podemos apreciar que:

K
D
+
=0
M
M

D2
K

2
4M
M

(10.56)

(10.57)

Si no existe amortiguaci
on (D=0), los autovalores del sistema son imaginarios puros, y lospmodos naturales son oscilaciones sostenidas de frecuencia angular o = K/M . Esto coincide con la interpretaci
on fsica, pues
si no existe roce es natural pensar que si el resorte no se encuentra en su
largo natural o la masa posee velocidad inicial, esta permanecer
a oscilando
indefinidamente, aunque no exista fuerza externa.
Cuando el sistema est
a debilmente amortiguado ( D 2 < 4KM ), los autovalores de la matriz A son complejos conjugados con parte real negativa,
por tanto los modos naturales asociados son sinusoides amortiguadas exponencialmente. Esto coincide tambien con lo que sucede en la pr
actica,
pues en caso de existir una fuerza de roce no muy grande, la masa oscilar
a hasta detenerse en ealg
un momento en su posici
on de largo natural.
Finalmente, si la amortiguaci
on es muy grande ( D 2 > 4KM ), los autovalores de la matriz ser
an reales y negativos, lo cual indica que los autovalores son dos exponenciales decrecientes. En este caso, la existencia de
una fuerza de roce importante se traduce en que la masa no lograr
a oscilar
sino que es llevada por la fuerza del resorte hasta su posici
on de equilibrio,
y toda la energa contenida en el sistema se disipa r
apidamente en el roce.

264

Para ilustrar estas tres situaciones podemos utiliar Matlab , que permite
definir facilmente definir sistemas en variables de estado a traves del comando ss. La respuesta a una condici
on inicial se obtiene a traves del comando
initial. Para estas simulaciones consideramos tres diferentes valores para la
constante de roce viscoso D, mientras que los otros par
ametros son:
 
hmi
N
d(0) = 0, 3 [m]; and v(0) = 0, 05
M = 2 [kg]; K = 0, 1
m
s
(10.58)
Usando c
odigo Matlab como el siguiente se obtienen los gr
aficos de la Figura 10.3.

Matlab
>>
>>
>>
>>
>>

M=2 ; K=0.1 ; D=0 ;


x_o=[0.3 0.05];
A=[0 1;-K/M -D/M];B=[0;1/M];C=[1 0];d=0;
S=ss(A,B,C,d);
initial(S,x_o)

0.4

D=0
D=0.2
D=2

0.2
Amplitud

plano de fase

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

0
0.2
0.4

10

20

30

40

50

60

70

Tiempo (seg.)

Figura 10.3: Respuesta homogenea del sistema masa-resorte-roce.


En la Figura 10.4 se muestra la trayectoria que sigue el estado del sistema.
Se ha considerado la posici
on de la masa d(t) como coordenada horizontal, y la
velocidad, v(t), como coordenada vertical. Este tipo de diagrama se conoce como
plano de fase,. En Matlab , el mismo comando initial permite obtener la
trayectoria del estado mediante el siguiente codigo:

Matlab
>> [y,t,x]=initial(S,x_o);
>> plot(x(:,1),x(:,2))

10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS

265

0.1

modo forzado
soluci
on particular

0.08

xo=[0.3 0.05]

0.06

velocidad v(t)

0.04
0.02
0
0.02
0.04
0.06

D=0
D=0.2
D=2

0.08
0.1

0.5

0.4

0.3

0.2

0.1

distancia d(t)

0.1

0.2

0.3

0.4

0.5

Figura 10.4: Trayectorias en el espacio de estado del sistema masa-resorte-roce.

Note que, excepto en el caso en que no existe roce (D = 0), la masa llegar
aa
detenerse asint
oticamente, es decir, llega al origen del espacio de estado.
222
Estructura de la respuesta forzada
Cuando las condiciones iniciales del sistema son cero, el estado solo tendra su
componente forzada.
Z t
xf (t) =
eA(t ) Bu( )d
(10.59)
to

Esta parte del estado tambien incluye modos naturales, pero ademas contiene
los modos forzados o soluciones particulares, los cuales como hemos visto en
captulos precedentes, no dependen del sistema, sino que exclusivamente de la
se
nal de entrada u(t). En general, los modos forzantes presentes en la entrada
apareceran tambien en el estado. Sin embargo, es importante mencionar que un
caso especial sucede cuando los modos forzantes en la entrada coinciden con
alguno de los modos naturales del sistema.
Estabilidad del sistema
Tal como se menciono antes, la estabilidad de un sistema lineal e invariante
puede ser analizada usando la matriz de estado A.

266
equilibrio
inestable
punto de equilibrio
modo natural!dominante
resonancia

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

Por definicion, todas las variables de un sistema pueden expresarse como


funciones lineales de su estado y su entrada. Cuando la entrada al sistema u(t)
es un vector de funciones temporales acotadas, entonces las variables del sistema
seran acotadas si su estado lo es.
Tenemos entonces el siguiente resultado:
Teorema 10.1. Considere el sistema con la descripci
on en variables de estado
(10.44)-(10.45) donde los elementos de A, B, C y D est
an acotados. Entonces el
estado del sistema, y por tanto su salida, es acotado para toda entrada acotada
si, y s
olo si, los autovalores de la matriz A tienen parte real estrictamente
negativa.
222
Para apreciar la aplicacion de este teorema en la practica, retomemos el
sistema del levitador magnetico del Ejemplo 10.3. Para dicho sistema la matriz
A (en el modelo linealizado) esta dada por la expresion:
R

0
0

0
1
A= 0
(10.60)

Rg

Rmg 2

0
EQ
K 1 EQ

y sus autovalores o valores propios son las races de la ecuacion


s
s
!
!


Rmg 2
Rmg 2
R

+
det(I A) = +
L
K 1 EQ
K 1 EQ

(10.61)

Podemos apreciar que, del conjunto de autovalores de la matriz, existe uno


que es real y mayor que cero. Esto implica que el sistema es inestable, lo
cual coincide con el analisis del sistema desde el punto de vista fsico. Si bien
existe un punto de euilibrio para el sistema, al menos teoricamente, dado x 2Q
en la ecuacion (10.39)), este resulta ser un punto de equilibrio inestable, ya que
cualquier peque
na perturbacion sobre la esfera hara que esta o acelera hasta
adherirse al iman, o bien, cae al suelo.
Velocidad de respuesta y resonancia
Como ya hemos visto, en los sistemas estables la parte real de los autovalores
determina la velocidad a la cual los modos naturales decaen a cero. Los modos
mas lentos, que hemos denominado modos dominantes, determinan la velocidad
con que la salida del sistema alcanza el estado estacionario, es decir, determinan
la velocidad de respuesta del sistema.
Un segundo aspecto, de especial importancia en estructuras flexibles, es la
presencia de resonancias en un sistema, que estan asociadas a autovalores complejos. Desde el punto de vista fsico, la presencia de autovalores complejos tiene
relacion con la existencia de dos tipos de energa. En circuitos electricos, la energa electrostatica de condesadores y la energa electromagnetica en inductores.

10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS

267

En sistemas mecanicos, la energa cinetica de una masa en movimiento y la energa potencial debida a diferencia de nivel o a la compresion de un resorte. Los
principales problemas con este tipo sistemas ocurren cuando la se
nal de entrada
contiene energa en la banda de frecuencias cercana a la frecuencia con que el
sistema oscila en forma natural. En la practica, este problema puede traducirse
en oscilaciones de magnitud que el sistema simplemente no esta preparado para
soportar. Para ilustrar esta situacion examinaremos un ejemplo que ilustra el
fenomeno:
Ejemplo 10.5. Consideremos nuevamente el sistema masa-resorte-roce del
Ejemplo 10.1, en que las constantes tienen los valores:
M = 1[kg]

D = 13 [Ns/m]

K = 1[N/m]

(10.62)

Con lo cual los autovalores del sistema son las soluciones de:
det(I A) = 2 +

D
M

1,2 = 16

1
2

+
q

K
M

35
9

= 2 + 31 + 1 = 0

(10.63)

61 j

(10.64)

Por tanto, los modos naturales son de la forma e0,1667t cos(t+). Cualquier
excitaci
on que posea energa a frecuencias cercanas a = 1[rad/s] har
a que el
sistema entre en resonancia, haciendo que en la salida del sistema aparezcan
oscilaciones de magnitud significativa.
Se desarrolla una simulaci
on del comportamiento del sistema bajo dos excitaciones distintas: en el primer caso, la entrada es una sinusoide de frecuencia
= 1 [rad/s], y en el segundo caso, la excitaci
on una se
nal cuadrada de frecuencia fundamental o = 0, 333 [rad/s]. En ambos casos las condiciones iniciales
del sistema son cero. Los resultados se muestran en la Figura 10.5.
Podemos apreciar que, en el primer caso, se genera un fen
omeno de resonancia debido a que la frecuencia de la sinusoide es aproximadamente igual a
la frecuencia de oscilaci
on de los modos naturales del sistema. En el segundo
caso, tambien aparece un fen
omeno de resonancia; sin embargo, ahora se debe
a la tercera arm
onica de la excitaci
on , ya que la frequencia angular de ella
es 3o = 0, 999[rad/s], es decir, coincide casi exactamente con la frecuencia
natural de oscilaci
on del sistema.
222

10.3.3.

Transformaciones de similaridad

La eleccion de variables de estado para un sistema dado no es u


nica. Concretamente podemos tener un sistema con entrada u(t), salida y(t) y dos diferentes
elecciones para el vector de estado: x(t) y x(t) Rn , con sus matrices asociadas
{A, B, C, D} y {A, B, C, D}, respectivamente. El siguiente lema establece la
relacion entre ambos modelos.

transformaci
on del estado
estado!transformaci
on
similaridad

268
matriz!de transformaci
on

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
3

y(t)
u(t)

2
1
0
1
2
3

10

15

10

15

20

25

30

35

40

20

25

30

35

40

tiempo

y(t)
u(t)

2
1
0
1
2
3

tiempo

Figura 10.5: Resonancia en el sistema masa-resorte.

Lema 10.2. Dado un sistema cuyo vector de estado es x(t) y sus matrices son
{A, B, C, D}, entonces, dada la matriz de transformaci
on T Rnn no
singular, tenemos un nuevo vector de estado:
x(t) = T x(t)

(10.65)

El modelo de estado para la nueva representaci


on, queda expresado mediante
las matrices:
A = TAT1

B = TB

C = CT1

D=D

(10.66)

Demostraci
on
Dada la transformaci
on (10.65), en que T es no singular y, por tanto, invertible, tenemos que:
x(t) = T1 x(t)
(10.67)
Si reemplazamos entonces el vector de estado x(t) en las ecuaciones de estado
del sistema (10.44)-(10.45), obtenemos:

T1 x(t)
= AT1 x(t) + Bu(t)
y(t) = CT

x(t) + Du(t)

(10.68)
(10.69)

10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS

269

donde, al multiplicar la primera ecuaci


on por T por la izquierda, se obtiene:
A

B
z }| {
z}|{
1

x(t)
= TAT x(t) + TB u(t)

(10.70)

1
D u(t)
y(t) = CT
| {z } x(t) + |{z}
C

(10.71)

De esta forma se obtienen las ecuaciones (10.66).


222
Diferentes elecciones de las variables de estado pueden tener o no significado
fsico, sin embargo, existen representaciones que resultan mas simples del punto
de vista matematico, como veremos en la Seccion 10.6.
A pesar de las diferentes posibles representaciones, es natural que ciertas
importantes caractersticas y propiedades del sistema permanezcan invariantes,
cualquiera sea la representacion elegida. Si, por ejemplo, consideramos los autovalores del sistema, tenemos que:
det(I A) = det(TT1 TAT1 )

= det T(I A)T1

= det(T) det(I A) det(T


= det(I A)

(10.72)
(10.73)
1

(10.74)
(10.75)

Por tanto, la estabilidad, la naturaleza de la respuesta homogenea y la velocidad de respuesta del sistema son invariantes respecto a transformaciones de
similaridad del estado.
i (t)

+
vf (t)

i2 (t)

R1
C

L
iL (t)

R2

vC (t)

Figura 10.6: Red electrica


Ejemplo 10.6. En el circuito electrico de la Figura 10.6, si escogemos el vector
de estado como x(t) = [x1 (t) x2 (t)]T = [iL (t) vc (t)]T y la se
nal de entrada
u(t) = vf (t), entonces usando conocimientos b
asicos de redes electricas, tenemos
que:

1
0
dx(t) 0

L
1 u(t)
(10.76)
= 1
R1 + R2 x(t) +
dt

R1 C
C
R1 R2 C

270
funci
on de transferencia
polos
autovalores

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

Una elecci
on alternativa del vector de estado puede ser x(t) = [x 1 (t) x2 (t)]T =
T
[i(t) i2 (t)] . Donde puede probarse sin problema que


1 R2 1
x(t)
(10.77)
x(t) =
R2 0 1
{z
}
|
T

222

10.3.4.

Espacio de estado y funciones de transferencia

La representacion de sistemas mediante modelos de variables de estado es


una descripsion alternativa a las que hemos visto antes, tales como la ecuacion
diferencial del sistema (Captulo 3) y su funcion de transferencia asociada (Captulos 6 y 7). Sin embargo, en esta seccion veremos que los modelos en espacio de
estado permiten describir con mayor profundidad una conjunto mas general de
sistemas.
En primer lugar, el siguiente lema establece como obtener una representacion
en variables de estado de un sistema, dada su funcion de transferencia.
Lema 10.3. Dado un sistema lineal en invariante del tiempo con entrada con
funci
on de transferencia:
Y(s)
(10.78)
H(s) =
U(s)
En que U(s) y Y(s) son las transformadas de Laplace de la entrada u(t) y la
salida y(t). Entonces, dada un modelo de estado con matrices {A, B, C, D},
tenemos que:
H(s) = C(sI A)1 B + D
(10.79)
Adem
as, los polos de la funci
on de transferencia H(s) pertencen al conjunto
de los autovalores de la matriz A.
Demostraci
on
Usando la definici
on en la Secci
on 7.2, la funci
on de transferencia del sistema es la transformada de Laplace de la respuesta a impulso (delta de Dirac)
del sistema, con condiciones iniciales iguales a cero. Por lo tanto, si aplicamos
la transformada de Laplace a la ecuaci
on (10.44), tenemos que:
0

z }| {
z }| {
sX(s) x(0 ) = AX(s) + B L {(t)}
(sI A)X(s) = B

X(s) = (sI A)

(10.80)
(10.81)
(10.82)

De igual forma, aplicando Laplace a la ecuaci


on (10.45) y reemplazando la
transformada del vector de estado X(s), obtenemos:
Y(s) = H(s) = CX(s) + DL {(t)} = C(sI A)1 B + D

(10.83)

10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS

271

Por otro lado, para obtener los polos de la transferencia H(s) podemos reescribir la inversa de (sI A) usando las propiedades en el Apendice F. De esta
forma:
H(s) = C

CAdj(sI A)B + D det(sI A)


Adj(sI A)
B+D=
det(sI A)
det(sI A)

(10.84)

Lo que pone de manifiesto que todos los polos de H(s) son autovalores de la
matriz A.
222
Es importante notar que no necesariamente los polos de la funcion de
transferencia son todos los autovalores del sistema, pues la ecuacion (10.79)
puede tener cancelaciones encubiertas entre races del numerador (ceros) y races
del denominador (polos) . Esto se ilustra mejor a traves del siguiente ejemplo.
Ejemplo 10.7. Consideremos las matrices de un modelo de estado:


 


2 1
1
A=
; B=
; C= 0 1 ; D=0
0 3
0, 5
Entonces, la funci
on de transferencia asociada es:


 s+3
1
0 1
H(s) = C(sI A)1 B =
0
(s + 2)(s + 3)
=

0, 5
0, 5(s + 2)
=
(s + 2)(s + 3)
(s + 3)

1
s+2



1
0, 5

(10.85)

(10.86)
(10.87)

En este caso, la funci


on de transferencia tiene s
olo un polo, a pesar que la
matriz A posee dos autovalores. Se observa que existe una cancelaci
on entre un
polo y un cero en H(s). Este fen
omeno tiene relaci
on directa con las propiedades
del sistema que se estudian en la Secci
on 10.6.
222
Para interpretar este hecho en la practica, volvamos una vez mas al levitador magnetico del Ejemplo 10.3 en la pagina 259. Si consideramos la corriente
i(t) como salida, vemos de inmediato que la funcion de transferencia desde la
entrada e(t) a esta salida tiene solo un polo, a pesar que el vector de estado
tiene dimension tres. La explicacion de esto es que, en nuestro modelo fsico
simplificado, la corriente i(t) no es afectada por la posicion ni por la velocidad
vertical de la esfera. Note que la situacion seria diferente si consideraramos en
el modelo el efecto del cambio de posicion de la esfera en la inductancia del
electroiman.
De esta forma, vemos que la funci
on de transferencia puede no entregar la misma informaci
on que el modelo en variables de estado
para un sistema dado.

cancelaci
on

272

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

realizaci
on m
nima
Un problema
funci
on de transferencia!estrictamente propia

interesante es obtener una representacion de estado de un sistema a partir de su funcion de transferencia. El lector debe tener la precaucion
de considerar un modelo de estado adecuado, el cual no contenga cancelaciones
entre polos y ceros implcitas. Teniendo esto en cuenta, el modelo obtenido se
denomina realizaci
on mnima.
Existen diferentes metodos para obtener un modelo en variables de estado a
partir de la funcion de transferencia, y a continuacion ilustramos uno de ellos.
Consideremos la funcion de transferencia dada por
Bo (s)
bn1 sn1 + bn2 sn2 + . . . b1 s + b0
+ HT () =
+ HT ()
Ao (s)
sn + an1 sn1 + . . . + a1 s + a0
(10.88)
En primer lugar, podemos apreciar que D = HT (), por tanto basta considerar la funcion de transferencia H(s) = HT (s) HT (), que es estrictamente
propia.
Consideremos ahora v` (t) R cuya transformada de Laplace es V` (s) tal
que:
s`1
U (s)
` {1, 2, . . . , n}
(10.89)
V` (s) =
Ao (s)
HT (s) =

Esto implica que:


dv`1 (t)
` {2, . . . , n}
dt
n
X
Y (s) =
b`1 V` (s)
v` (t) =

(10.90)
(10.91)

`=1

n
X
s`1
sn
Ao (s)
a`1
U (s) =
U (s) +
U (s)
Ao (s)
Ao (s)
Ao (s)
`=1
|
{z
}
| {z }

U (s) =

sVn (s)

(10.92)

V` (s)

Ahora si escogemos como variables de estado x` (t) = v` (t), la ecuacion corresponde a:

A=

0
0
..
.

1
0
..
.

0
1
..
.

a0

a1

a2

C = b0

b1

b2

bn1 ;

0
0
..
.

0
0
..
.

an2

an1

D = HT ()


0
0


B = ...

0
1

(10.93)

(10.94)

Ejemplo 10.8. La funci


on de transferencia de un sistema est
a dada por:
H(s) =

4s 10
4s 10
= 3
(s + 2)2 (s 1)
s + 3s2 4

(10.95)

10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS273


Entonces una realizaci
on mnima para este sistema es:


0 1 0
0
A = 0 0 1 ; B = 0
4 0 3
1


C = 10 4 0 ; D = 0

(10.96)
(10.97)
222

Otro resultado importante, cuya demostracion se deja como ejercicio para el


lector, es
La funcion de transferencia de un sistema es invariante respecto a transformaciones de similaridad del estado

10.4.

Modelos de estado para sistemas discretos


y muestreados

En esta seccion estudiaremos la representacion de estado para sistemas de


tiempo discreto, usando como base los resultados ya obtenidos para sistemas de
tiempo continuo.
Antes de comenzar es importante distinguir que un modelo en tiempo discreto puede originarse de dos formas:
A partir de un sistema intrnsecamente discreto, y generalmente no lineal,
cuyas variables estan definidas solo en intantes de tiempo especficos t k .
Estos pueden originarse, por ejemplo, en el modelamiento de sistemas
economicos o en el modelamiento de procesos estocasticos.
O bien, a partir de la discretizaci
on de un sistema de tiempo continuo.
En este caso, interesa el valor las variables del sistema en instantes de
tiempo especficos. Esto se denomina muestreo. Los modelos de este tipo
son muy u
tiles cuando sistemas digitales, tales como microcontroladores,
computadores, controladores logicos programables (PLCs) u otros, deben
interactuar con sistemas reales de tiempo continuo, tales como estructuras mecanicas, valvulas, tanques, circuitos analogos, o con procesos industriales completos2 . Este tipo de sistemas se denominan sistemas
muestreados.
Cualquiera que sea el origen del modelo discreto, nos concentraremos en el
caso en que este es lineal e invariante en el tiempo, tal como lo hicimos en
el caso de tiempo continuo.
2 La conexi
on requiere de conversores Digital-An
alogo y An
alogo-Digital (DAC y ADC, sus
siglas en ingl
es, respectivamente)

sistema!discreto
sistema!muestreado
discretizaci
on
muestreo
PLC
conversor!digital-an
alogo(DAC)
conversor!an
alogo-digital(ADC)
DAC|seeconversor
ADC|seeconversor

274
linealizaci
on
sistema!muestreado
muestreo
sampling|seemuestreo
retentor

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

10.4.1.

Linealizaci
on de sistemas discretos

El equivalente en tiempo discreto de las ecuaciones (10.3)-(10.4) esta dado


por las expresiones no lineales:
x[t + 1] = Fd (x[t], u[t])

(10.98)

y[t] = Gd (x[t], u[t])

(10.99)

La linealizacion se realiza de manera analoga que para el caso continuo,


considerando primero un punto de equilibrio, dado por el tro {xQ , uQ , yQ },
que satisface las ecuaciones:
xQ = Fd (xQ , uQ )
yQ = Gd (xQ , uQ )

(10.100)
(10.101)

Podemos apreciar que el punto de equilibrio queda definido por un conjunto


de valores constantes para el estado del sistema y para su entrada, que deben
satisfacer (10.98)-(10.99). Esto implica un valor constante tambien en la salida
del sistema. El sistema discreto puede ser entonces linealizado en torno a este
punto de equilibrio, definiendo las se
nales:
x[t] = x[t] xQ ;

u[t] = u[t] uQ ;

y[t] = y[t] yQ

(10.102)

Obtenemos as el modelo en variables de estado:


x[t + 1] = Ad x[t] + Bd u[t]

(10.103)

y[t] = Cd x[t] + Dd u[t]

(10.104)

donde las matrices son:




Fd
Fd
; Bd =
;
Ad =
x x=xQ
u x=xQ
u=uQ

10.4.2.

u=uQ


Gd
Cd =
;
x x=xQ
u=uQ


Gd
Dd =
u x=xQ

u=uQ

(10.105)

Sistemas muestreados

Como hemos dicho antes, los modelos de tiempo discreto se obtienen a


menudo al hacer un muestreo3 de las entradas y salidas de un sistema de tiempo
continuo.
Cuando alg
un dispositivo digital se utiliza para actuar sobre un sistema de
tiempo continuo, la se
nal de actuacion o de comando sobre el solo se define en
ciertos instantes de tiempo especficos, y no para todo instante de tiempo t. Sin
embargo, siempre necesitaremos una se
nal continua para actuar sobre el sistema
(de tiempo continuo). Esta se
nal se obtiene usualmente a traves de un retentor,
el cual genera una se
nal constante por tramos, manteniendo el u
ltimo valor
especificado hasta que se define el siguiente. Este tipo de retentor se denomina
3 Sampling,

en ingl
es

10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS275


retentor de orden cero 4 . Es importante considerar que existen otras formas
de generar una se
nal de actuacion continua a partir de la secuencia discreta
(vease, por ejemplo, [3]).
Ademas de la se
nal de actuacion, es necesario medir las variables que nos
interesan de un sistema en los instantes de tiempo especficos que se requiera.
Es decir, debemos muestrear las se
nales de salida.
En la Figura 10.7 se describe la discretizacion de un sistema continuo. Si
suponemos un muestreo periodico, con periodo , nos interesa el valor de las
variables solo en los instantes k, en que k N. En las secciones posteriores
omitiremos el perodo de muestreo del argumento de las se
nales, usando
u(k) = u[t] para la entrada, y(k) = y[t] para la salida, y x(k) = x[t] para
el estado del sistema, donde ahora t representa los instantes de tiempo discreto.

Retentor
u[k]

(Hold)

uS (t)

Sistema de
Tiempo Continuo

Muestreo
(Sample)

y(t)

y[k]

Figura 10.7: Esquema de un sistema muestreado

Si consideramos el modelo en variables de estado, lineal, invariante y de


tiempo continuo definido en (10.44)-(10.45), con estado inicial x(k0 ) = x0 ,
entonces podemos usar la ecuacion (10.46) para calcular el valor del estado en
el proximo instante de muestreo:
x(k0 + ) = e

A(k0 +k0 )

x(k0 ) +

k0 +

eA(k0 + ) B u( )d

k0

(10.106)
Es mas, si u( ) es generada mediante un retentor de orden cero, entonces:
u( ) = u(k0 )

k0 < k 0 +

(10.107)

De esta forma, haciendo el cambio de variable = k0 + , se obtiene:


x(k0 + ) = eA x(k0 ) +

eA d B u(k0 )

(10.108)

Es mas, dado el estado y la entrada en un instante k0 , la salida del sistema


queda definida por la ecuacion (10.45), es decir:
y(k0 ) = C x(k0 ) + D u(k0 )
4 Zero

Order Hold o ZOH, en ingl


es

(10.109)

ZOH|seeretentor
muestreo!per
odo de
per
odo!de muestreo

276
exponencial!de una matriz

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

Por lo tanto, dado un sistema de tiempo continuo con un modelo en variables


de estado con matrices {A, B, C, D}, si muestreamos sus entradas y salidas cada
segundos, entonces, el sistema muestreado equivalente queda descrito por el
modelo de estado en tiempo discreto:
x(k + ) = Ad x(k) + Bd u(k)
y(k) = Cd x(k) + Dd u(k)

(10.110)
(10.111)

donde las matrices son:


Ad = eA

Bd =

eA d B ;

Cd = C

Dd = D

(10.112)

Existen diferentes metodos para obtener la matriz Ad definida mediante


la exponencial de una matriz en el extremo izquierdo de (10.112). Una opcion
es utilizar la definicion de la exponencial de una matriz en el Apendice F, sin
embargo, a menudo es mas simple calcularla empleando la transformada de
Laplace inversa, de manera que:


Ad = eA = L1 (sI A)1 t=

(10.113)

Note que el metodo propuesto involucra tres pasos esencialmente:


(i) Dada la matriz A, se obtiene la matriz inversa de (sI A).
(ii) A continuacion se aplica transformada de Laplace inversa a cada componente de (sI A)1 .
(iii) Finalmente, las funciones temporales en cada una de las entradas de la
matriz obtenida se eval
uan en t = .
Veamos a continuacion un ejemplo para aclarar e ilustrar las ideas presentadas hasta el momento.
agiEjemplo 10.9. Consideremos el sistema mec
anico del Ejemplo 10.1 en la p
na 255, que fue descrito en variables de estado seg
un las ecuaciones:
"

# "
x 1 (t)
0
=
K
x 2 (t)
M

1
D
M

#"

# "
#
x1 (t)
0
+
f (t)
1
x2 (t)
M

(10.114)

donde f (t) es la fuerza externa, y donde podemos escoger como salida del sistema
ya sea la posici
on de la masa, x1 (t), o su velocidad, x2 (t).
Para simplificar las expresiones, supongamos algunos valores para los par
ametros del sistema. Se fija la masa M = 1 [kg], la constante de roce viscoso D = 1, 2
[Ns/m] y la constante del resorte K = 0, 32 [N/m].

10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS277


La matriz Ad se obtiene usando (10.113), aplicando transformada de Laplace
inversa:
#1

1


s + 1,2
t=
"
0,4
2e
e0,8
=
0,4
0, 8(e
e0,8 )

"
s
Ad = L1
0, 32

2,5(e0,4 e0,8 )
e0,4 + 2e0,8

(10.115)

La matriz Bd se obtiene, seg


un (10.112), integrando:
Bd =

  
2e0,4 e0,8
2,5(e0,4 e0,8 )
0
d
0, 8(e0,4 e0,8 ) e0,4 + 2e0,8
1


0,4
0,8
6,25e
+ 3,125e
+ 3,125
=
2,5(e0,4 e0,8 )

(10.116)

Note que ambas matrices, Ad y Bd son funciones de . Por tanto, el perodo


de muestreo , tiene una clara influencia sobre el comportamiento del sistema
muestreado, tal como veremos m
as adelante.
222

10.4.3.

Modelos de estado lineales

Concentremonos ahora en el modelo en variables de estado, lineal e invariante


en el tiempo:
x[t + 1] = Ad x[t] + Bd u[t]

(10.117)

y[t] = Cd x[t] + Dd u[t]

(10.118)

Este puede corresponder a un modelo linealizado como (10.103)-(10.104),


o a un sistema muestreado como (10.110)-(10.111) donde se ha omitido del
argumento temporal.
Lema 10.4. Dado el sistema de tiempo discreto definido en las ecuaciones
(10.117) y (10.118), sujeto a la condici
on inicial x[to ] = xo , su soluci
on est
a dada por
(tto )1

x[t] = Ad (tto ) xo +

Ad (tto )i1 Bd u[i + to ]

i=0

on discreta.
donde Ad (tto ) es la matriz de transici
Demostraci
on

t to

(10.119)

matriz!de transici
on! discreta

278
respuesta!no forzada

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

on inicial x[to ] = xo ,
A partir de la ecuaci
on (10.117), usando la condici
puede determinarse completamente la trayectoria futura del estado. As:
x[to + 1] = Ad x[to ] + Bd u[to ]

(10.120)

x[to + 2] = Ad x[to + 1] + Bd u[to + 1]




= Ad Ad x[to ] + Bd u[to ] + Bd u[to + 1]

(10.121)

= Ad 2 x[to ] + Ad Bd u[to ] + Bd u[to + 1]


..
.

Por inducci
on, tenemos que:
`

x[to + `] = Ad x[to ] +

`1
X

Ad `1+i Bd u[to + i]

i=0

` 0

(10.122)

Este u
ltima ecuaci
on coincide con la ecuaci
on (10.119) al hacer ` = t to .
222
Con el resultado del lema anterior, podemos encontrar la solucion a la
ecuacion (10.118), pues la salida del sistema queda determinada en todo momento por el vector de estado:
y[t] = Cd Ad

(tto )

xo + C d

(tto )1 

X
i=0


Ad (tto )i1 Bd u[to + i] + Dd u[t]

(10.123)

Din
amica del sistema
El vector de estado que se obtiene al resolver las ecuaciones del sistema,
analogamente al caso de tiempo continuo, tiene dos componentes: la componente
no forzada, xu [t], y la forzada, xf [t], donde:
xu [t] = Ad (tto ) xo

(10.124)

(tto )1

xf [t] =

Ad (tto )i1 Bd u[to + i]

(10.125)

i=0

Estructura de la respuesta no forzada


Para simplificar el analisis del modelo y su solucion, aprovecharemos la invarianza en el tiempo, considerando el caso en que to = 0 and u[t] = 0 t 0,
i.e. el estado tiene solo su parte no forzada. En este caso:
x[t] = Ad t xo

(10.126)

10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS279


Por simplicidad asumiremos que Ad Rnn tiene n autovalores distintos
` , con n autovectores linealmente independientes v` , entonces siempre existe
un conjunto de n constantes ` tales que:
xo =

n
X

` v`

`=1

; ` C

(10.127)

Del algebra lineal (Apendice F) sabemos que los autovalores la matriz Ad t


son `t , para t N, con sus correspondientes autovectores v` . De esta forma, se
obtiene:
x[t] = Ad t xo = Ad t

n
X

` v` =

n
X
`=1

`=1

` Ad t v ` =
| {z }
`t v`

n
X

` `t v`

(10.128)

`=1

Esta ecuacion pone de manifiesto que la componente no forzada del estado


es una combinacion lineal de modos de la forma {` t }, cada uno esta asociado
con un autovalor de Ad . Esto establece un resultado muy importante:
Los frecuencias naturales de un sistema de tiempo discreto son iguales a los
valores propios de la matriz Ad de su representacion en variables de estado.
Es decir, la ecuacion caracterstica de un sistema esta dada por:
det(I Ad ) = 0

(10.129)

Analogamente al caso de los modelos de tiempo continuo, esto indica que la


matriz Ad determina:
la estructura de la respuesta no forzada,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de la respuesta.
El analisis previo puede extenderse al caso en que la matriz Ad posee valores
propios repetidos, utilizando la forma de Jordan (Apendice F).
En ausencia de entrada, el estado del sistema evoluciona como una combinacion de sus modos naturales, los cuales pertenecen a una clase definida de
funciones (Seccion 4.3.1). Estas se expresan como potencias de los autovalores reales o complejos, tal como se aprecia en la ecuacion (10.128), y estan
relacionadas con constantes, exponenciales reales, sinusoides puras o moduladas
por exponenciales, y otras funciones especiales que aparecen cuando hay autovalores repetidos.
Ejemplo 10.10. Para ilustrar estas ideas consideremos el sistema muestreado
que vimos en el Ejemplo 10.9. Si = 1, las matrices de la representaci
on de
estado son:




0, 3397
0, 8913 0, 5525
(10.130)
; Bd =
Ad =
0, 5525
0, 1768 0, 2283

estabilidad
velocidad

280
respuesta!forzada
estabilidad

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
Los autovalores del sistema son las soluciones de la ecuaci
on:


0, 8913 0, 5525
det(I Ad ) = det
0, 1768
0, 2283
= ( 0, 6703)( 0, 4493) = 0

(10.131)
(10.132)

Es decir, 1 = 0, 6703 y 2 = 0, 4493. Por lo tanto, la respuesta no forzada


es de la forma:
xu [t] = C1 (0, 6702)t + C2 (0, 4493)t
(10.133)
donde C1 y C2 dependen s
olo del estado inicial.
Podemos apreciar que cuando t tiende a infinito, xu [t] se hace cero, ya que
|1,2 | < 1. Adem
as, estos autovalores son reales positivos, por tanto los modos
naturales no contienen oscilaciones. Esto es esperable pues en el Ejemplo 10.9
se eligieron los par
ametros de manera que el sistema masa-resorte resulta sobre
amortiguado.
222
Estructura de la respuesta forzada
Si se considera la ecuacion (10.119) con condicion inicial cero, el estado solo
exhibe su componente forzada. Ademas de los modos naturales, esta se
nal incluye los modos forzados o particulares, que dependen del tipo de se
nal de
entrada u[t]. En general, los modos forzantes en la entrada tambien aparecerann en la salida del sistema, excepto en el caso que alguna de ellos coincida
con alguno un modo natural del sistema.
Estabilidad
La estabilidad de un sistema lineal, de tiempo discreto e invariante en el
tiempo tambien puede ser analizada a traves de la matriz Ad . Ya hemos establecido que todas las variables del sistema se pueden expresar como funciones
lineales del estado y la entrada. Cuando la entrada u[t] es un vector acotado en
el tiempo, entonces las variables del sistema permaneceran acotadas si y solo si
el estado esta acotado. Tenemos entonces el siguiente resultado:
Teorema 10.2. Dado un sistema descrito en variables de estado por las ecuaciones (10.117)-(10.118), donde Ad , Bd , Cd y Dd tienen elementos acotados.
Entonces, el estado del sistema estar
a acotado para toda entrada acotada si y
s
olo si los autovalores de la matriz Ad se encuentran en el interior del disco
unitario, i.e. |` | < 1 ; `.
222
Velocidad de respuesta y resonancia
Recordemos que los modos naturales de un sistema de tiempo discreto son
las potencias de los autovalores ` . Estos autovalores siempre pueden expresarse

10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS281


como un n
umero complejo en su forma exponencial, por lo tanto, un modo
natural puede escribirse como:
(` )t = |` | ej`

t

= |` |t ej` t

; donde ` = `

(10.134)

Por lo tanto, tenemos que:


La magnitud 0 < |` | < determina la velocidad con la que el modo
decae a cero, en el caso de sistemas estables (|` | < 1), o crece hasta
infinito, para sistema inestables (|` | > 1).
El angulo < ` determina la frecuencia discreta de oscilacion del
modo natural, medida en radianes.
A pesar que los modos naturales de un sistema estable decaen a cero, ellos
determinan la respuesta transiente del sistema. Para apreciar esto, generalmente
se utiliza la respuesta!a escal
on del sistema, con condiciones iniciales cero.
Ejemplo 10.11. Consideremos el sistema dicreto de primer orden:
x[t + 1] = ` x[t] + u[t]
y[t] = (1 ` )x[t]

(10.135)
(10.136)

Para obtener la respuesta a escal


on, usamos la ecuaci
on (10.123), donde
xo = 0 y u[t] = 1, t 0:
!
t1
X
ti1
Ad
Bd
(10.137)
y[t] = Cd
i=0

= (1 ` )
= 1 `t

t1
X
i=0

`ti1

= (1 ` )`t1

1 `t
1 `1

(10.138)
(10.139)

La salida, y[t] = yh [t] + yp [t] se muestra en la Figura 10.8, para diferentes


valores del u
nico autovalor ` . El transiente est
a dado por yh [t] = `t , mientras
que la respuesta estacionaria es yp [t] = 1.
222
En la (10.134) apreciamos que los autovalores de un sistema determinan
la amortiguacion de su respuesta transiente, sin embargo, tambien determinan
su frecuencia de oscilacion (cuando los autovalores tienen parte imaginaria no
nula). El problema que puede surgir cuando existen estos modos resonantes
es analogo al caso de tiempo continuo cuando la entrada el sistema contiene
una sinusoide u otra se
nal con energa en la banda de frecuencias cercana a la
frecuencia de oscilacion natural del sistema. A pesar que la salida del sistema
permanece acotada, ella puede alcanzar amplitudes intolerables para el sistema
fsico real.

transiente|seerespuesta!transitoria
respuesta!a escal
on
resonancia

282

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

per
odo!de muestreo
muestreo!per
odo de

y[k]

0.8
0.6
= 0.2
= 0.6
= 0.8

0.4
0.2
0

5
6
tiempo discreto k

10

Figura 10.8: Respuesta a escalon del sistema para diferentes autovalores.

Ejemplo 10.12. Consideremos el sistema discreto por:



 

1
1,2796 0, 81873
u[t]
x[t] +
x[t + 1] =
0
1
0


y[t] = 0 0, 5391 x[t]

(10.140)
(10.141)

Los autovalores del sistema se obtiene a partir de Ad :

1,2 = 0, 6398 j0, 6398 = 0, 9048 ej 4

(10.142)

Los modos naturales asociados, presentes en la respuesta transiente, son:





t
(10.143)
= 0, 9048t ej 4 t = 0, 9048t cos 4 t j sen 4 t
1,2

Los modos naturales est


an levemente amortiguados, ya que |1,2 | es cercano
a 1, y muestra una oscilaci
on de frecuencia 4 .
En los gr
aficos de la Figura 10.9 se muestra el efecto de resonancia en
 la
salida del sistema. En la parte superior, se ha considerado u[t] = sen 4 t , es
decir, la entrada tiene la misma frecuencia que los modos naturales. En la parte

. En este
inferior, en tanto, la entrada es una se
nal cuadrada de frecuencia 12
u
ltimo caso, la frecuencia de la tercera arm
onica de la entrada coincide con
la de los modos naturales.
222
Efecto del perodo de muestreo
Si observamos las ecuaciones (10.112), podemos notar que las matrices Ad y
Bd dependen de la eleccion del perodo de muestreo . Esta eleccion tendra un
efecto directo sobre la posicion de los polos del sistema.
Lema 10.5. Dado un sistema de tiempo continuo con {i , . . . , n }, si este
sistema es muestreado con un perodo de muestreo , entonces los autovalores
del sistema discreto resultante son {1 , . . . , ` }, en que:
` = e `

(10.144)

10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS283


5
y[k]
u[k]

10

15

20
25
tiempo discreto k

30

35

40

10

15

20
25
tiempo discreto k

30

35

40

3
y[k]
u[k]

2
1
0
1
2
3

Figura 10.9: Resonancia en la salida del sistema.

Demostraci
on
La matriz del sistema de tiempo continuo A puede ser diagonalizada utilizando sus autovalores:
A = T1 diag{1 , . . . , n }T

(10.145)

donde {1 , . . . , n } son los autovalores del sistema de tiempo continuo. Entonces, usando (10.112):
Ad = eA = eT

diag{1 ,...,n }T

= eT

diag{1 ,...,n }T

= T1 diag{e1 , . . . , en }T

(10.146)

donde el u
ltimo paso es consecuencia de la definici
on de la exponencial de una
matriz (Apendice F). De esta forma, a partir de (10.146) resulta evidente que
los autovalores de Ad son precisamente {e1 , . . . , en }.
222
En la Figura 10.10 se muestra la respuesta del sistema muestreado del Ejemplo 10.9, considerando x1 [t] como la salida del sistema, cuando inicialmente
xo = [1 0]T , para diferentes valores de . Se debe notar que el eje horizontal
corresponde a los instantes discretos t, por tanto los instantes de tiempo reales
son t [seg.]

284

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

retardo

Tiempo de muestreo =0.5

x1[k]

0.5

8
10
12
Tiempo de muestreo =1

14

16

18

20

8
10
12
Tiempo de muestreo =2

14

16

18

20

14

16

18

20

x1[k]

0.5

x1[k]

0.5

10
12
tiempo discreto k

Figura 10.10: Efecto del muestreo en los modos naturales

En base a lo anterior, es importante notar que:


La eleccion del perodo de muestreo es un aspecto fundamental a considerar
cuando se muestrea un sistema de tiempo continuo, de manera que sea los
suficientemente peque
no para reflejar fielmente las se
nales que se muestrean.
Ejemplo 10.13. Para ilustrat una mala elecci
on de , supongamos una se
nal
f (t) = A sen(o t) que es muestreada cada segundos, con = 2`/, ` N.
Entonces, la se
nal discreta resultante es f [t] = 0, t Z, es decir, una constante
!
222
Sistemas muestreados y retardos
En la seccion 10.3, mencionamos que no es posible describir sistemas con
retardos puros mediante modelos en variables de estado de dimension finita. Sin
embargo, este problema se puede ser evitado muestreando las se
nales. Esto se
ilustra a traves del siguiente ejemplo.
Ejemplo 10.14. Considere el sistema termico que se bosqueja en la Figura
10.11. La temperatura medida en el caudal, y(t), depende de la potencia que

10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS285

u(t)

Calefactor

y(t)
Sensor

flujo

Figura 10.11: Sistema termico con retardo.

entregue al fludo la fuente de calor. Esta es controlado por una se


nal de control
u(t). Los cambios en u(t) producen cambios en la temperatura y(t), pero con un
retardo de tiempo no despreciable. El sistema linealizado se representa mediante
la funci
on de transferencia:
Y (s)
e s K
= H(s) =
U (s)
s+

(10.147)

Donde U (s) e Y (s) son las transformadas de Laplace de u(t) e y(t) respectivamente.
Supongamos luego que las se
nales de entrada y salida son muestreadas cada
[s]. El retardo , tambien en segundos, es funci
on de la velocidad del flujo y
podemos suponer, por simplicidad, que es un m
ultiplo del intervalo de muestreo
, es decir, = m, m Z+ . Este retardo se convierte en un factor z m en el
denominador de la funci
on de transferencia en el dominio de la transformada
Zeta. Es decir, el retardo se convierte en un conjunto de m polos en el origen.
Adem
as, en base a la ecuaci
on (10.144), el autovalor del sistema continuo en
s = se transforman en un autovalor del sistema discreto en z = e . La
funci
on de transferencia resultante es:
K 1 e
Y [z]
= H[z] =
U [z]
z m (z e )

(10.148)

que puede expresarse mediante el modelo de estado discreto:


x1 [t + 1] = x2 [t]

(10.149)

x2 [t + 1] = x3 [t]
..
..
.
.
xm [t + 1] = xm+1 [t]

xm+1 [t + 1] = e
xm+1 [t] +
y[t] = x1 [t]

(10.150)

(10.151)
K
(1

)u[t]

(10.152)
(10.153)

A
un m
as, podemos interpretar las variables de estado xm+1 [t], . . . , x1 [t] como la temperatura en puntos equiespaciados entre el calefactor y el sensor de
temperatura (suponiendo un caudal de velocidad constante).
222

286
transformaci
on del estado
estado!transformaci
on
similaridad
funci
on de transferencia
matriz!adjunta

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

Cuando el retardo no es m
ultiplo exacto del perodo de muestreo , en la
funcion de transferencia aparecen un polo y un cero adicionales (consulte, por
ejemplo, [6]).

10.4.4.

Transformaciones de similaridad

Las diferentes elecciones del vector de estado para sistemas discretos se relacionan de la misma manera que para sistemas de tiempo continuo a traves de las
transformaciones de similaridad (Seccion 10.3.3). De igual forma, muchas de
las propiedades del sistema, como la ubicacion de las frecuencias naturales o autovalores, la controlabilidad y la observabilidad tambien permanecen invariantes
ante este tipo de transformaciones.

10.4.5.

Espacio de estado y funciones de transferencia

Para los sistemas de tiempo discreto la relacion entre los modelos en variables
de estado y aquellos mediante funciones de transferencia es analoga al caso de
tiempo continuo (Seccion 10.3.4).
Como hemos mencionado, el modelo en variables de estado de un sistema
lineal, invariante en el tiempo es una descripcion alternativa a la funcion de
transferencia, que a menudo entrega mayor informacion sobre el sistema.
Para un sistema de tiempo discreto, lineal e invariante, con entrada u[t] R m
y salida y[t] Rp , la funcion de transferencia, H[z], esta definida como:
Y[z] = H[z]U[z];

where [H[z]]ij =

Yi [z]
Uj [z]

(10.154)

Es decir, el elemento (i, j) en la matriz H[z] es la transformada Zeta de la


respuesta en la i-esima salida cuando se aplica un delta de Kronecker de amplitud unitaria en la j-esima entrada, con condiciones iniciales cero y las demas
entradas son iguales a cero t 0.
Por otro lado, si se aplica transformada Zeta a modelo en variables de estado
de tiempo discreto (10.117)-(10.118), con condiciones iniciales cero, tenemos:
X[z] = (zI Ad )1 Bd U[z]

(10.155)

Cd (zI Ad )1 Bd + Dd = H[z]

(10.157)

Y[z] = Cd X[z] + Dd U[z]

(10.156)

que se reduce a:
En adelante, nos concentraremos en los sistemas escalares o SISO, i.e. m =
p = 1, Bd , Cd T son vectores columna, y Dd = H[]. Podemos apreciar que en
este caso H[z] es un cuociente de polinomios en la variable z, i.e.
H[z] =

Cd Adj(zI Ad ) Bd + Dd det(zI Ad )
det(zI Ad )

(10.158)

donde Adj() denota la matriz adjunta de la matriz () (ver Apendice F.

10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS287


Analogamente al caso de tiempo continuo, podemos observar que los polos
de la funcion de transferencia pertenecen al conjunto de autovalores de la matriz Ad . Sin embargo, como se aprecia en el Ejemplo 10.7 en la pagina 271,
para el caso continuo, puede suceder que algunos de los autovalores de A d no
aparezcan como polos de la funcion de transferencia. Esto implica la existencia
de cancelaciones entre polos y ceros de la funcion de transferencia (ver Secciones
10.6.1 y 10.6.2, mas adelante).

cancelaci
on
realizaci
on m
nima
sistema!interconexi
on

El resultado central para sistemas de tiempo discreto es el mismo que para el


caso de sistemas de tiempo continuo : la funci
on de transferencia puede
no aportar la misma informaci
on que el modelo en variables de
estado para un mismo sistema.
Para obtener un modelo en variables de estado a partir de la funcion de
transferencia de un sistema discreto, podemos usar el mismo procedimiento
propuesto para sistemas continuos en la Seccion 10.3.4. En este caso, usamos
la transformada Zeta en lugar de la transformada de Laplace, que satisface la
propiedad (ver Apendice E):
F [z] = Z {f [t]}

zF [z] = Z {f [t + 1]}

(10.159)

Ejemplo 10.15. Consideremos el sistema discreto dado por su funci


on de
transferencia:
H[z] =

2z 2 z + 1
1,8z + 0, 04
= 2
+2
(z 0, 8)(z 0, 6)
z 1,4z + 0, 48

(10.160)

Una realizaci
on mnima para este sistema est
a dada por las matrices:

 

0
1
0
Ad =
; Bd =
(10.161)
0, 48 1,4
1


Cd = 0, 04 1,8 ; Dd = 2
(10.162)

222

Para sistemas de tiempo discreto tambien tenemos que la funci


on de
transferencia del sistema es invariante respecto a transformaciones
de similaridad.

10.5.

Modelos de estado para sistemas interconectados

Para construir modelos en espacio de estados de sistemas complejos estos


pueden ser a menudo descritos como la interconexion de sistemas mas simples.
Esta interconexion es usualmente la combinacion de tres tipos basicos de estructuras: conexion en serie, en paralelo y en realimentacion. En cada uno de

288
conexi
on!serie(cascada)
serie!conexi
on
cascada|seeconexi
on
conexi
on!paralelo
paralelo!conexi
on

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

estos casos nos interesa obtener un modelo en variables de estado del sistema
completo resultante.
Para el analisis que sigue consideramos dos sistemas, definidos mediante su
modelo en variables de estado:

dx1 (t)
= A1 x1 (t) + B1 u1 (t)
Sistema 1:
(10.163)
dt

y1 (t) = C1 x1 (t) + D1 u1 (t)

dx2 (t)
= A2 x2 (t) + B2 u2 (t)
Sistema 2:
(10.164)
dt

y (t) = C x (t) + D u (t)


2

2 2

2 2

Conexi
on en serie

La interconexion de sistemas que se muestra en la Figura 10.12 se denomina


conexion en serie o en cascada. Para obtener el modelo de estado deseado,
observamos que y2 (t) = u1 (t). Ademas, el sistema completo tiene como entrada
u(t) = u2 (t), y como salida y(t) = y1 (t). Con esto se obtiene:

 

 

x 1 (t)
A1 B1 C2 x1 (t)
B1 D 2
=
+
u(t)
(10.165)
x 2 (t)
x2 (t)
0
A2
B2


 x1 (t)

+ D1 D2 u(t)
(10.166)
y(t) = C1 D1 C2
x2 (t)

u(t)
u2(t)

x2(t)

u1(t)
y2(t)

x1(t)

y1(t)

y(t)

Figura 10.12: Conexion de sistemas en serie

Conexi
on en paralelo
La interconexion de sistemas que se muestra en la Figura 10.13 se denomina
conexion en paralelo. Para obtener el modelo de estado deseado, observamos
que la entrada es u(t) = u1 (t) = u2 (t) y que la salida para el sistema se expresa
como y(t) = y1 (t) + y2 (t). De esta forma, se obtiene:

  

 
x1 (t)
B1
x 1 (t)
A1 0
u(t)
(10.167)
+
=
B2
x 2 (t)
0 A2 x2 (t)



 x1 (t)
y(t) = C1 C2
+ D1 + D2 u(t)
(10.168)
x2 (t)

10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS289

u1(t)

x1(t)

u(t)

u2(t)

x2(t)

conexi
on!realimentaci
on
realimentaci
on
feedback!seerealimentaci
on
lazo de control
planta
controlador

y1(t)
y(t)

+
y2(t)

Figura 10.13: Conexion de sistemas en paralelo

Conexi
on en realimentaci
on
La interconexion de sistemas que se muestra en la Figura 10.14 se denomina
conexion en realimentacion o feedback (con realimentacion negativa unitaria), y
aparece normalmente asociada a la estructura basica del lazo de control realimentado, donde S1 es la planta y S2 es el controlador. Para obtener el modelo en
variables de estado del sistema en su conjunto, podemos apreciar que la entrada
al sistema completo satisface la ecuacion u(t) = u2 (t) + y1 (t), y que la salida
del sistema es y(t) = y1 (t). Si suponemos ademas que el sistema S1 (la planta)
es estrictamente propia, es decir, D1 = 0, se obtiene:
 

 


B1 D 2
A1 B1 D2 C1 B1 C2 x1 (t)
x 1 (t)
+
u(t)
(10.169)
=
x2 (t)
x 2 (t)
B2
B2 C1
A2



 x1 (t)
(10.170)
y(t) = C1 0
x2 (t)

u(t)

u2(t)
+

x2(t)

y2(t)
u1(t)

x1(t)

y1(t)

y(t)

Figura 10.14: Conexion de sistemas en realimentacion (feedback )

Es importante notar que es posible aplicar los mismos resultados anteriores


a modelos de estado de sistemas de tiempo discreto interconectados. El lector
interesado en mas detalles puede consultar, por ejemplo, [22].

290
sistema!propiedades
control
controlabilidad
sistema!controlable
estado!controlable
alcanzabilidad
sistema!alcanzable
estado!alcanzable

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

10.6.

Propiedades de los sistemas

10.6.1.

Controlabilidad, Alcanzabilidad y Estabilizabilidad

Una cuestion de interes, en especial pensando en el control de sistemas, es


bajo que condiciones es posible llevar el vector de estado a un punto especfico
del espacio de estado, a traves de las se
nales de entrada al sistema. Debemos
recordar que el estado de un sistema a menudo esta formado por variables
internas de este, tales como temperatura, presion, el nivel de alg
un estanque
u otras, que en pueden ser crticas e interesa mantenerlas controladas entre
algunos valores especficos. En esta seccion se revisan conceptos relacionados
con este objetivo.
Controlabilidad
El concepto de controlabilidad se refiere a determinar si, a partir de una
condicion inicial x0 , es posible o no llevar el vector de estado al origen,
x = 0, en un tiempo finito, usando la entrada u(t).
Ejemplo 10.16. Si observamos el modelo definido en (10.171), podemos apreciar que la entrada u(t) no tiene efecto alguno sobre el estado x 2 (t).


 
0
x 1 (t)
=
0
x 2 (t)

1
0



  
1
x1 (t)
u(t)
+
0
x2 (t)

(10.171)

Dado un estado inicial [x1 (0), x2 (0)]T , la entrada u(t) puede ser elegida para
llevar x1 (t) a cero, mientras que x2 (t) no sufre ning
un cambio. Diremos que
este sistema no es completamente controlable.
222
Formalmente, tenemos la siguiente definicion:
Definici
on 10.1. Un estado xo se dice controlable si existe un intervalo de
tiempo finito [0, T ] y una entrada {u(t), t [0, T ]} tal que x(T ) = 0. Si todos
los estados son controlables, entonces se dice que el sistema es completamente
controlable.
Alcanzabilidad
Un concepto relacionado con la controlabilidad es la alcanzabilidad, usado
en general para sistemas de tiempo discreto. Formalmente se define como:
Definici
on 10.2. Un estado x 6= 0 se dice alcanzable desde el origen, si dado
x(0) = 0, existe un intervalo de tiempo finito [0, T ] y una entrada {u(t), t
[0, T ]} tal que x(T ) = x. Si todos los estados del sistema son alcanzables se dice
que el sistema es completamente alcanzable.

10.6. PROPIEDADES DE LOS SISTEMAS

291

Para sistemas de tiempo continuo, lineales e invariantes, completa controlabilidad y alcanzabilidad son equivalentes. Sin embargo, el ejemplo siguiente
ilustra una diferencia entre estas propiedades para sistemas de tiempo discreto.
Ejemplo 10.17. Considere el sistema y la salida:



0, 5
1
0, 5
x[t + 1] =
x[t] = x[t] =
0, 25 0, 5
0, 25
|
{z
}

1
0, 5

t

x[0]

(10.172)

Ad

Podemos apreciar que el sistema es completamente controlable, pues x[t] = 0,


t 2 y x[0] R2 . Esto implica que cualquier estado inicial es controlable.
Sin embargo, ning
un estado diferente de cero es alcanzable desde el origen, ya
que si x[0] = 0, entonces x[t] = 0, t N.
222
Dada esta distincion entre controlabilidad y alcanzabilidad para sistemas discretos, en adelante usaremos el termino controlabilidad para referirnos al mas
fuerte de ambos conceptos. Sin embargo, en el contexto de sistemas lineales e invariantes en el tiempo, por lo general se habla indistintamente de controlabilidad
y alcanzabilidad.
Test de controlabilidad

Dado que no siempre es posible, a priori, determinar si un sistema es o no


controlable, se presenta a continuacion una manera sistematica para determinar
la completa controlabilidad de un sistema. Los conceptos involucrados sobre
matrices pueden ser consultados en el Apendice F.
Teorema 10.3. Considere el modelo de estado lineal e invariante en el tiempo,
donde A Rnn :

x(t)
= Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)

(10.173)
(10.174)

(i) El conjunto de todos los estados controlables es el espacio rango de la


matriz de controlabilidad c [A, B] donde:
4 
c [A, B] = B

AB

A2 B

...


An1 B

(10.175)

(ii) El modelo es completamente controlable si y s


olo si c [A, B] tiene rango
fila completo.
222
Ejemplo 10.18. Considere el modelo en variables de estado dado por (10.171),
con matrices de estado:

 

1
0 1
(10.176)
;
B=
A=
0
0 0

controlabilidad!test
alcanzabilidad!test
controlabilidad!matriz
matriz!de controlabilidad

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

292
similaridad
controlabilidad!p
erdida

La matriz de controlabilidad del sistema es:


c [A, B] = [B, AB] =

1
0

0
0

(10.177)

Claramente, el rango c [A, B] = 1, por tanto el sistema no es completamente controlable.


222
Este test puede ser aplicado indistamente para analizar la controlabilidad de
sistemas de tiempo continuo y la alcanzabilidad de sistemas de tiempo discreto.
La controlabilidad de un sistema es otra de las propiedades que no depende
de la eleccion de las variables de estado. Si consideramos una transformacion de
similaridad arbitraria T (ver Seccion 10.3.3) observamos que:
A

= (T1 A T)(T1 A T) . . . (T1 A T)


= T1 A (TT1 )A(TT1 ) . . . (TT1 )A T = T1 An T (10.178)

para todo n N, por lo tanto:


c [ A, B ] = T1 c [A, B]

(10.179)

Esto implica que la matrices c [ A, B ] y c [A, B] tienen el mismo rango,


pues T es no singular.
El lector puede verificar que los modelos en variables de estado usados para
describir se
nales en la Seccion 10.2.3 corresponden son no controlables. De hecho, cualquier modelo de estado en que B = 0 resulta ser no controlable
.
P
erdida de controlabilidad
La falta de controlabilidad en un sistema en ocasiones puede originarse en la
estructura misma del sistema, sin embargo, en otras ocasiones depende del valor
numerico de ciertos parametros. Esto se ilustra a traves del siguiente ejemplo.
Ejemplo 10.19. Considere el circuito en la Figura 10.15 en la p
agina siguiente.
En primer lugar, nos interesa obtener un modelo de el en variables de estado.
Eligiendo como variables de estado x1 (t) = iR1 (t) y x2 (t) = vC3 (t), y usando
leyes b
asicas de redes electricas para la parte izquierda del circuito, tenemos que:
iC1 = C1

d
(vi v+ );
dt

iR1 =

vi v +
;
R1

iR2 =

v+
;
R2

iC1 = iR2 iR1 (10.180)

Lo que permite obtener:


diR1 (t)
(R1 + R2 )
1
=
iR1 (t) +
vi (t)
dt
C1 R1 R2
C1 R 1 R2
v+ (t) = R1 iR1 (t) + vi (t)

(10.181)
(10.182)

10.6. PROPIEDADES DE LOS SISTEMAS

iR1(t)

R1

293

Op.Amp.
v+ (t)

v (t)

R3

vi (t)

C1

R2

vC3(t)

C3

vo (t)

Figura 10.15: Circuito electronico para el Ejemplo 10.19.

De manera similar, para el lado derecho del circuito tenemos que:


1
1
dvC3 (t)
=
vC3 (t) +
v (t)
dt
R3 C3
R3 C3
vo (t) = vC3 (t)

(10.183)
(10.184)

El amplificador operacional (ideal) asegura que v+ (t) = v (t), por tanto,


podemos combinar (10.181)(10.184) para obtener:


1
(R1 + R2 )
diR1 (t)


0

iR1 (t)
C1 R1 R 2
dt C1 R1 R2
vi (t) (10.185)
dv (t) =
1
R1
1 vC3 (t) +
C3

C3 R3
R3 C3
R3 C3
dt



 iR1 (t)
(10.186)
vo (t) = 0 1
vC3 (t)

La matriz de controlabilidad est


a dada por:

1
R1 R2 C1
c [A, B] = B AB =

1
R3 C3


(R1 + R2 )

(R1 R2 C1 )2

(R2 C1 + R3 C3 )
(R3 C3 )2 R2 C1

(10.187)

y su determinante es igual a:
det (c [A, B]) =

R2
(R1 C1 + R3 C3 )
(R1 R2 R3 C1 C2 )2

(10.188)

donde se observa que el sistema es completamente controlable si y s


olo si:
R1 C1 6= R3 C3

(10.189)

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

294
cancelaci
on
gramiano!controlabilidad
controlabilidad!gramiano

Esta condici
on tiene una interpretaci
on muy importante desde el punto de
vista de la funci
on de transferencia del sistema. Si se aplica transformada de
on de transferencia desde
Laplace a las ecuaciones (10.181)(10.184), la funci
Vi (s) a Vo (s), recordando que V+ (s) = V (s), est
a dada por:


1
1
s+
Vo (s)
Vo (s) V+ (s)
R1 C1
R 3 C3  

=
=

(10.190)
1
R1 + R 2
Vi (s)
V (s) Vi (s)
s+
s+
R3 C3
R 1 R2 C1
Donde se aprecia que la perdida de la completa controlabilidad cuando R 1 C1 =
on de un
R3 C3 (obtenida a partir de (10.188)), se traduce en una cancelaci
cero con un polo en la funci
on de transferencia. Siendo m
as especfico, el cero
de la mitad izquierda del circuito en la Figura 10.15 se cancela con el polo de
la otra parte del circuito. Este hecho ser
a analizado con mayor detalle en la
Secci
on 10.6.3.
222
Gramiano de controlabilidad
El test de controlabilidad da una respuesta afirmativa o negativa sobre la
(completa) controlabilidad de un sistema dado. Sin embargo, el saber que un
sistema es completamente controlable no dice nada respecto a que grado de
controlabilidad el sistema posee, es decir, que tan difcil es controlar un estado
del sistema.
Para sistemas estables es posible cuantificar el esfuerzo de control a traves
de la energa involucrada en la se
nal de entrada u(t) aplicada desde t =
para alcanzar el estado x(0) = x0 en t = 0:
J(u) =

0
2

ku(t)k dt =

u(t)T u(t)dt

(10.191)

Se puede demostrar [1] que la energa de control mnima necesaria es:


J(uopt ) = xT0 P1 x0 0

(10.192)

donde
P=

eAt BBT eA t dt

(10.193)

La matriz P Rn se denomina gramiano de controlabilidad, y es una


medida de la controlabilidad del vector de estado x(0).
Para apreciar por que esta matriz proporciona una medida de controlabilidad relativa, podemos recurrir a los resultados del Apendice F. Esta matriz P
es simetrica y por tanto todos sus autovalores {1 , 2 , . . . , n } son reales y distintos, y sus autovectores asociados {v1 , v2 , . . . , vn } son ortogonales y pueden

10.6. PROPIEDADES DE LOS SISTEMAS

295

elegirse de norma unitaria, es decir, kvi k2 = viT vi = 1. Entonces, la matriz


puede escribirse como:
P=

n
X
i=1

i vi viT

P1 =

n
X
i=1

T
1
i vi v i

(10.194)

Ademas, dado un vector x0 Rn , existen constantes reales 1 , . . . , n tales


que:
n
X
x0 =
i vi
(10.195)
i=1

As, sin perdida de generalidad, la ecuacion (10.192) se puede re-escribir


como:
n
X
(10.196)
i2 1
J(uopt ) = xT0 P1 x0 =
i
i=1

De (10.196) se observa que si x0 esta alineado con v` , donde ` es muy


peque
no, entonces el costo (energa) de llevar el estado desde el origen, en t =
, hasta x0 en t = 0, es muy grande y diremos que ese estado en particular
es difcilmente controlable.
Volviendo a la ecuacion (10.193), es importante destacar que la existencia
de esta integral esta garantizada pues el sistema es estable, y por lo tanto todos
los autovalores de la matriz A tienen parte real negativa. Es mas, el gramiano
de controlabilidad P definido en (10.193) satisface la ecuacion de Lyapunov:
AP + PAT + BBT = 0

(10.197)

Para sistemas de tiempo discreto, se puede realizar un analisis similar, donde


el gramiano de controlabilidad se define como:
Pd =

Ad t Bd Bd T (Ad T )t

(10.198)

t=0

que satisface la ecuacion de Lyapunov


Ad P d Ad T P d + B d B d T = 0

(10.199)

La suma definida (10.198) existe si y solo si el sistema de tiempo discreto es


estable, lo cual equivale a restringir los autovalores al interior del disco unitario:
Ejemplo 10.20. Consideremos nuevamente el modelo del circuito en el Ejemplo 10.19 en la p
agina 292, dado por (10.185)-(10.186). Si queremos apreciar
la informaci
on dada por el gramiano de controlabilidad, definido en (10.193),
cuando el modelo est
a cerca de perder la completa controlabilidad, podemos considerar valores para los par
ametros que aseguren R1 C1 R3 C3 . En particular,
elegimos:
R1 = R2 = R3 = 1[K];

C1 = 0,9[mF ];

C3 = 1[mF ]

(10.200)

Lyapunov!ecuaci
on
gramiano!controlabilidad!tiempo discr
controlabilidad!gramiano!tiempo discr

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

296

Note que hemos utilizado unidades especiales, donde mF corresponde a 10 3


[F] y K a 103 []. Esto hace que el tiempo sea medido en segundos, la corriente
en mili-amperes y la tensi
on, en Volts.
El modelo de estado queda descrito por:

  20

  10 
iR1 (t)
9
0
i R1 (t)
=
+ 9 vi (t)
(10.201)
1 1 vC3 (t)
1
v C3 (t)



 iR1 (t)
(10.202)
vo (t) = 0 1
vC3 (t)

En este caso, algunos estados, es decir ciertas combinaciones de valores de


valores para iR1 y vC3 , son m
as difciles de alcanzar que otros. Para verificar
esto podemos calcular el gramiano de controlabilidad definido en (10.193), resolviendo:
0 = AP + PAT + BBT

 
 20
p11 p12
p
9
0
+ 11
0=
p21
1 1 p21 p22

p12
p22



20
9
0

1
+
1

 10 
9

 10
9

(10.203)

1

(10.204)

Usando Matlab obtenemos:


Matlab
>>
>>
>>
>>
>>
>>

A=[-20/9 0; -1 -1];
B=[10/9 ; 1];
C=[1 0];
S=ss(A,B,C,0);
P=gram(S,c)
inv(P)

P=

0,2778
0,2586

0,2586
0,2414

P1 = 103

1,4616
1,5660

1,5660
1,6820

(10.205)

Los autovalores de P son 1 = 0,0003 y 2 = 0,5188 con sus correspondientes


autovectores v1 = [0,6818 0,7315]T y v2 = [0,7315 0,6818]T .
As podemos calcular, usando la ecuaci
on (10.192), la mnima energa de
control necesaria para llevar el estado x(t), from 0 in t = , to x0 in t = 0.
Suponemos que x0 is colineal con los autovectores:
x0 = v 1
x0 = v 2

J(uopt ) = 3141,7
J(uopt ) = 1,9274

(10.206)
(10.207)

donde claramente se verifica que la energa de control para alcanzar el estado


x0 = v1 es tres o
rdenes de magnitud mayor que la necesaria para alcanzar
x0 = v 2 .

10.6. PROPIEDADES DE LOS SISTEMAS

297

Tambien, si substitutimos los valores numericos de los par


ametros en la
on de transferencia resulta ser:
ecuaci
on (10.190), vemos que la funci

s + 1 + 91
1
Vo (s)

(10.208)
=
Vi (s)
(s + 1)
s + 20
9

donde observamos una cuasi-cancelaci


on de un polo con un cero.

222
Es posible generalizar el concepto de gramiano para inclur el caso de sistemas inestables, como el lector interesado puede conocer consultando [23].
Descomposici
on can
onica y estabilizabilidad
En el caso que un sistema no sea completamente controlable, este puede
decomponerse en un subsistema controlable y completamente incontrolable
tal como establece el siguiente lema.
Lema 10.6. Considere un sistema para el cual rango{c [A, B]} = t < n,
entonces existe una transformaci
on de similaridad x = T1 x, en que las nuevas
matrices de estado tienen la forma:


Ac A12
A = T1 AT =
(10.209)
0 Anc
 
Bc
(10.210)
B = T1 B =
0
donde Ac tiene dimensi
on k y el par (Ac , Bc ) es completamente controlable.
222
Este resultado establece cuales estados pueden y cuales no pueden ser llevados a cero. Para apreciar mejor este hecho, expresemos el estado y la salida de
la forma:


 

  
x c
Ac A12
xc
Bc
+
u
=
0
x nc
0 Anc xnc



 xc
y = Cc Cnc
+ Du
xnc

(10.211)
(10.212)

El subespacio controlable del modelo en variables de estado esta compuesto por todos los estados generados como combinacion de los estados en
xc . La estabilidad de este subespacio esta determinada por la ubicaion de los
autovalores de la matriz Ac .
Por otra parte, el subespacio no controlable esta formado por todos los
estados generador como combinacion lineal de los estados en xnc , y su estabilidad
queda determinada por los autovalores de la matriz Anc .

cancelaci
on!cuasidescomposici
on can
onica!alcanzabilida
subespacio!controlable

298
estabilizabilidad
sistema!estabilizable
cancelaci
on
forma can
onica!controlable
controlabilidad!forma can
onica
forma can
onica!del controlador
controlador!forma can
onica

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

De esta forma, la entrada no tiene efecto alguno sobre el subespacio no


controlable, por lo que podramos esperar que este subespacio fuera al menos
estable, de manera que sus estados decaigan naturalmente al origen. En este
caso el modelo en variables de estado se denomina estabilizable.
Una consecuencia clave de la descripcion dada por (10.211)-(10.212) es el
hecho que la funcion de transferencia queda dada por:
H(s) = Cc (sI Ac )1 Bc + D

(10.213)

La ecuacion (10.213) dice que los autovalores del subespacio no controlable


no aparecen como polos de la funcion de transferencia. Esto implica que existe
una cancelacion de los polos correspondientes a las races de det(sI A nc ).
Forma can
onica controlable
Lema 10.7. Considere un modelo de estado completamente controlable para
un sistema SISO. Entonces, existe una transformaci
on de similaridad tal que el
modelo de estado se puede expresar en la forma can
onica controlable:


0 0 ... 0
0
1
1 0 . . . 0


2
A0 = 0 1 . . . 0
B0 = 0
(10.214)

.. .. . .

..
.
..
. .

. ..
.
.
0

...

n1

donde:
n + n1 n1 + + 1 + 0 = det(I A)

(10.215)

es el polinomio caracterstico de A.
222
Lema 10.8. Considere un modelo de estado completamente controlable para un
sistema SISO. Entonces, existe una transformaci
on de similaridad que convierte
el modelo de estado en la forma can
onica del controlador:


n1 n2 . . . 1 0
1

1
0
0
.
.
.
0
0


1
...
0
0
A00 = 0
B00 = 0 (10.216)

..
..
..
.
.
..
..
..
.
.
.
.
0

...

donde:
n + n1 n1 + + 1 + 0 = det(I A)

(10.217)

es el polinomio caracterstico de A.
222

10.6. PROPIEDADES DE LOS SISTEMAS

10.6.2.

299

Observabilidad, Reconstructibilidad y Detectabilidad

Si consideramos el modelo de estado de un sistema dado, podemos es razonable suponer que si se observa su salida durante un intervalo de tiempo, entonces
podramos obtener informacion sobre su estado. La propiedad asociada a este
concepto se denomina observabilidad.
Observabilidad
La observabilidad de un sistema se refiere a la informacion que se puede
obtener sobre el estado a partir de mediciones de su salida.
Ejemplo 10.21. Si consideramos el sistema definido por el modelo en variables
de estado:




 


 x1 (t)
x1 (t)
1 0
x 1 (t)
(10.218)
y(t) = 1 0
=
x2 (t)
1 1 x2 (t)
x 2 (t)

Podemos apreciar que y(t) queda determinada por x1 (t), mientras que la otra
variable de estado x2 (t) no tiene influencia alguna sobre la salida. Por tanto el
sistema no es completamente observable, es decir, existe una parte del estado
de la cual nunca se obtendr
a informaci
on alguna.
222
Se puede formalizar la definicion de observabilidad de la siguiente forma:
Definici
on 10.3. El estado xo 6= 0 se dice no observable si dado x(0) = xo ,
y u(t) = 0 para t 0, entonces y(t) = 0 para t 0, es decir, la condici
on
inicial xo no tiene efecto alguno sobre la salida del sistema.
El sistema se dice completamente observable si no existe estado inicial,
diferente de cero, que sea no observable.
Reconstructibilidad
Otro concepto estrechamente relacionado al de observabilidad, es el que se
denomina reconstructibilidad. Este, para sistemas de tiempo discreto, se refiere a que se puede decir de x(K), habiendo observado valores pasados de la
salida y[t], durante 0 t K.
Para sistemas de tiempo continuo, lineales e invariantes, no es necesario hacer
distincion entre observabilidad y reconstructibilidad. Sin embargo, el siguiente
ejemplo ilustra que para sistemas de tiempo discreto, estos conceptos son diferentes.
Ejemplo 10.22. Considere el modelo en espacio de estado:
x[t + 1] = 0
y[t] = 0

x[0] = xo

(10.219)
(10.220)

observabilidad
estado!observable
sistema!observable
reconstructibilidad

300
observabilidad!test
observabilidad!matriz
matriz!de observabilidad

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

Este sistema es claramente reconstruible para todo K 1, ya que sabemos


que x[K] = 0 para K 1. Sin embargo, es no observable pues y[t] = 0, t sin
importar xo .
Dada la diferencia entre los conceptos de observabilidad y reconstructibilidad, en adelante usaremos el termino observabilidad para referirnos al mas
fuerte de ambos conceptos.
Test de observabilidad
Para contar con un criterio que permita determinar si un sistema es o no
observable, se presenta a continuacion el siguiente teorema.
Teorema 10.4. Considere el sistema en variables de estado, continuo, lineal e
invariante en el tiempo:

x(t)
= Ax(t) + Bu(t)

(10.221)

y(t) = Cx(t) + Du(t)

(10.222)

donde A Rnn .
(i) El conjunto de estados no observables es igual al subespacio nulo de la
matriz de observabilidad o [A, C] donde:

4 CA
o [A, C] = .
(10.223)
..
CAn1
(ii) El sistema es completamente observable si y solo si o [A, C] tiene rango
columna completo n.
222
Este test de observabilidad puede aplicarse indistintamente a sistemas de
tiempo discreto y continuo.
Ejemplo 10.23. Considere el siguiente modelo en espacio de estado:


 


3 2
1
A=
;
B=
;
C = 1 1
(10.224)
1
0
0
La matriz de observabilidad est
a dada por:
 

1
C
=
o [A, C] =
4
CA

1
2

(10.225)

Entonces el rango de o [A, C] = 2, lo que dice que el sistema es completamente observable.


222

10.6. PROPIEDADES DE LOS SISTEMAS

301

Ejemplo 10.24. Si observamos el modelo definido en (10.218), tenemos:






1 0
A=
;
C= 1 0
(10.226)
1 1
La matriz de observabilidad es:

1
o [A, C] =
1

0
0

(10.227)

El rango de o [A, C] = 1 < 2 y, por lo tanto, el sistema no es completamente


observable.
222
La observabilidad de un sistema es una propiedad que no depende de la
eleccion de las variables de estado. Analogamente al caso de la matriz de controlabilidad en la Seccion 10.6.1, puede demostrarse que el rango de la matriz
de observabilidad 10.223 en la pagina anterior es invariante respecto a transformaciones de similaridad.
P
erdida de observabilidad
La observabilidad de un sistema queda determinada basicamente por caractersticas propias de su estructura. Sin embargo, tambien es posible que la
observabilidad de un modelo se vea afectada por valores numericos particulares
en algunos de sus parametros, de manera analoga a lo que sucede con la controlabilidad, tal como se analizo en la Seccion 10.6.1. Es esperable que los
parametros afecten la completa observabilidad de un modelo de una manera
similar. Para esto se propone el siguiente ejemplo, que es el dual del Ejemplo 10.19 en la pagina 292.
Ejemplo 10.25. Consideremos el circuito de la Figura 10.16 en la p
agina
siguiente. Este corresponde al mismo de la Figura 10.15, pero en que se han
intercambiado las redes electricas a la derecha e izquierda del amplificador operacional. Por tanto, podemos utilizar ecuaciones similares a las antes obtenidas
para describir el sistema en variables de estado. En particular, se escoge x 1 (t) =
vC3 (t) y x2 (t) = iR1 (t).
Para la parte izquierda del circuito, tenemos:
1
1
dvC3 (t)
=
vC3 (t) +
vi (t)
dt
R3 C3
R3 C3
v+ (t) = vC3 (t)

(10.228)
(10.229)

Por su parte para la parte derecha:


diR1 (t)
(R1 + R2 )
1
=
iR1 (t) +
v (t)
dt
C1 R1 R2
C1 R1 R2
vo (t) = R1 iR1 (t) + v (t)

(10.230)
(10.231)

observabilidad!p
erdida

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

302

Op.Amp.
R3

v+ (t)

v (t)

R1

iR1(t)

vi (t)

C3

vC3(t)

R2

C1

vo (t)

Figura 10.16: Circuito electronico.

El amplificado operacional (ideal), conectado como un seguidor de voltaje,


asegura que v+ (t) = v (t), y por lo tanto podemos combinar los modelos de
estado dados por las ecuaciones (10.228) a (10.231), para obtener:

1
dvC3 (t)
R C

3 3
dt =
di (t)
1
R1
dt
C1 R1 R2

vo (t) = 1

1
0
vC3 (t)

+ R3 C3 vi (t) (10.232)

(R1 + R2 )

iR1 (t)
0
C1 R1 R2

 v (t)
C3

R1

iR1 (t)

La matriz de observabilidad es:


C
=
c [C, A] =

CA

(10.233)

1
1
1

R3 C3
R2 C1

R1

R1 + R 2

(10.234)

R2 C1

Para determinar el rango de esta matriz es necesario calcular su determinante:


1
det (c [C, A]) =
(R1 C1 + R3 C3 )
(10.235)
R3 C3 C1
donde se observa que el modelo del sistema es completamente observable si y
s
olo si R1 C1 6= R3 C3 , misma condici
on que se obtuvo en el Ejemplo 10.19 en
la p
agina 292.
Aplicando transformada de Laplace a las ecuaciones (10.230)(10.229) obten-

10.6. PROPIEDADES DE LOS SISTEMAS

303

emos la funci
on de transferencia de Vi (s) a Vo (s):


1
1
s+
V+ (s) Vo (s)
Vo (s)
R1 C1
R
C3 
3

=
=
R1 + R 2
1
Vi (s)
Vi (s) V (s)
s+
s+
R1 R2 C1
R3 C3

cancelaci
on
gramiano!observabilidad
observabilidad!gramiano

(10.236)

Cuando R1 C1 = R3 C3 se produce una perdida de la completa observabilidad


del sistema, que se traduce en una cancelaci
on de un polo con un cero en
la funci
on de transferencia, es decir, el polo del lado izquierdo del circuito en la
Figure 10.16 se cancela con el cero del lado derecho.
Es importante notar que, a pesar que el resutado similar es el mismo, existe un diferencia entre las funciones de transferencia (10.236) y (10.190) en la
on es diferentes en cada caso. La canp
agina 294, pues el orden de la cancelaci
celaci
on cero-polo se relaciona con la perdida de completa observabilidad y la
cancelaci
on polo-cero se relaciona con la perdida de completa controlabilidad.
Volveremos en m
as detalle a este punto en la Secci
on 10.6.3.
222
Gramiano de observabilidad
El test de observabilidad planteado en el Teorema 10.4 en la pagina 300
permite determinar si un sistema es o no es completamente observable. sin
embargo, en ocasiones puede ser de interes determinar el grado de observabilidad
de un sistema dado. Para el caso de sistemas estables, podemos cuantificar la
energa en la se
nal de salida y(t), en ausencia de se
nal de entrada (u(t) = 0), y
cuando el estado inicial es x(0) = x0 , mediante:
Z
Z
2
E(x0 ) =
ky(t)k dt =
y(t)T y(t)dt
(10.237)
0

Es posible demostrar que la energa en la salida del sistema esta dada por:
Z
ky(t)k2 dt = xo T Qxo
(10.238)
E(xo ) =
0

donde
Q=

eA t CT C eAt dt

(10.239)

La matriz Q se denomina gramiano de observabilidad, y cuantifica la


observabilidad del vector de estado x(0). Para apreciar mejor esto, podemos
recurrir a los resultados del Apendice F. La matriz Q es simetrica y por tanto
todos sus autovalores {1 , 2 , . . . , n } son reales y distintos, y sus autovectores
asociados {v1 , v2 , . . . , vn } son ortogonales y pueden elegirse de norma unitaria,
es decir, kvi k2 = viT vi = 1. Entonces, la matriz puede escribirse como:
Q=

n
X
i=1

i vi viT

(10.240)

304
Lyapunov!ecuaci
on

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

Ademas, dado un vector x0 Rn , existen constantes reales 1 , . . . , n tales


que:
n
X
x0 =
i vi
(10.241)
i=1

As, sin perdida de generalidad, la ecuacion (10.238) se puede re-escribir


como:
n
X
E(x0 ) = xT0 Qx0 =
i2 i
(10.242)
i=1

De (10.242) se observa que si x0 esta alineado con v` , donde ` es muy


peque
no, entonces el la energa presente en la salida debida a este estado inicial sera muy peque
na y diremos que ese estado en particular es difcilmente
observable.
Volviendo a la ecuacion (10.239), la existencia de la integral queda garantizada pues el sistema es estable, lo que asegura que los autovalores de la matriz
A tienen parte real negativa. Ademas, el gramiano de observabilidad Q definido
en (10.239) satisface la ecuacion de Lyapunov:
AT Q + QA + CT C = 0

(10.243)

Para sistemas estables de tiempo discreto, el gramiano de observabilidad


queda definido por:
Qd =

(Ad T )t Cd T Cd Ad t

(10.244)

t=0

que satisface la ecuacion de Lyapunov:


Ad T Q d Ad Q d + C d T C d = 0

(10.245)

Ejemplo 10.26. Consideremos nuevamente el sistema del Ejemplo 10.25, descrito por el modelo de estado (10.232)(10.233), para apreciar la utilidad del
gramiano de observabilidad (10.239), en especial cuando el modelo est
a pr
oximo
a perder la completa observabilidad, es decir, cuando R1 C1 R3 C3 .
Suponemos los mismos valores para las componentes R1 , R2 , R3 , C1 y C3 que
en el Ejemplo 10.20 en la p
agina 295, con lo que obtenemos:


  
 
v C3 (t)
1
0
vC3 (t)
1
+
v (t)
(10.246)
=
10
iR1 (t)
0 i
20
i R1 (t)
9
9



 vC3 (t)
vo (t) = 1 1
(10.247)
iR1 (t)
En este sistema ciertas combinaciones del estado (en t = 0) tendr
an poco
efecto en la salida. Para verificar esto podemos calcular el gramiano de observ-

10.6. PROPIEDADES DE LOS SISTEMAS

305
cancelaci
on!cuasidualidad

abilidad (10.193), resolviendo:


0 = AT Q + QA + CT C


 
10
1
q11 q12
q
9
0=
+ 11
q
q
q
0 20
21
22
21
9

q12
q22



1
10
9

0
1
+
1
20
9

(10.248)

1

(10.249)

Usando Matlab obtenemos:


Matlab
>>
>>
>>
>>
>>

A=[-1 0; 10/9 -20/9];


B=[1;0];
C=[1 -1];
S=ss(A,B,C,0);
Q=gram(S,o)

Q=

0,2414
0,2328

0,2328
0,2250

(10.250)

Los autovalores de Q son 1 = 0,0003 y 2 = 0,4661 con sus correspondientes autovectores v1 = [0,6946 0,7194]T y v2 = [0,7194 0,6946]T .
Ahora podemos evaluar el efecto de ciertos estados iniciales en la salida del
sistema. Consideraremos x0 = v1 y x0 = v2 para calcular la energa, tal como
se define en la ecuaci
on (10.238):
x0 = v 1
x0 = v 2

E(x0 ) = 0,000287
E(x0 ) = 0,4661

(10.251)
(10.252)

donde se observa que la energa debida el estado inicial x0 = v2 es tres o


rdenes
de magnitud mayor, lo que indica que existen ciertos estados que son poco observables en la salida.
La perdida de observabilidad tambien puede ser apreciado en la funci
on de
transferencia del sistema:

s + 1 + 19
Vo (s)
1

=
(10.253)
20
Vi (s)
(s + 1)
s+ 9

donde se aprecia que existe una cuasi-cancelaci


on entre un polo y un cero.
222
Principio de Dualidad

Podemos notar un paralelo notable entre los resultados del Teorema 10.3 en
la pagina 291 y del Teorema 10.4 en la pagina 300, y tambien entre las definiciones de los gramianos (10.193) y (10.239). Esto de pie a lo que se conoce como
el principio de dualidad, el cual se formaliza a continuacion:

306

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

sistema!dual
Teorema
descomposici
on can
onica!observabilidad
scrito por
subespacio!observable
trolable si
detectabilidad
sistema!detectable
servable.

10.5 (Dualidad). Considere el modelo en variables de estado dela 4-tupla (A, B, C, D). Entonces el sistema es completamente cony solo si el sistema dual (AT , CT , BT , DT ) es completamente ob222

Descomposici
on can
onica y detectabilidad
El teorema anterior puede ser a menudo utilizado para extender un resultado
sobre controlabilidad a un resultado sobre la observabilidad y vice versa. El dual
del Lema 10.6 en la pagina 297 es :
Lema 10.9. Si rango{o [A, C]} = k < n, existe una transformaci
on de similaridad x = T1 x, tal que las nuevas matrices de estado tienen la forma:


Ao
0
(10.254)
A = T1 AT =
A21 Ano


C = CT = Co 0
(10.255)

donde Ao tiene dimensi


on k y el par (Co , Ao ) is completamente observable.
222
Este resultado tiene una relevancia similar a la descomposicion canonica
asociada para el caso de la controlabilidad. Para apreciar esto, aplicamos el
dual del Lema 10.6 en la pagina 297 para expresar el estado (transformado) y
las ecuaciones de salida en la forma particionada que se muestra a continuacion:

 
 


x o (t)
Ao
0
xo (t)
Bo
=
+
u(t)
(10.256)
x no (t)
A21 Ano xno (t)
Bno



 xo (t)
+ Du(t)
(10.257)
y(t) = Co 0
xno (t)

La descripcion anterior pone en evidencia el problema que puede surgir cuando se intenta controlar un sistema usando solo su salida, pues en esta no aparece
informacion alguna sobre xno .
El subespacio observable de un modelo es el espacio formado por todos
los estados que se generan como combinaciones lineales de los estados en x o .
La estabilidad de este subespacio queda determinada por la ubicacion de los
autovalores de la matriz Ao .
El subespacio no observable de un modelo, es el espacio formado por
todos los estados generados como combinacion lineal de los estados en x no .
La estabilidad de este subespacio queda determinada por los autovalores de la
matriz Ano .
Si el subespacio no observable es estable, decimos que el sistema es detectable.
Una consecuencia clave de la descripcion (10.256)(10.257) podemos apreciarla en la funcion de transferencia del sistema que queda expresada como:
H(s) = Co (sI Ao )1 Bo + D

(10.258)

10.6. PROPIEDADES DE LOS SISTEMAS

307

Es decir, los autovalores del subespacio no observable no pertenecen al conjunto de polos de la funcion de transferencia del sistema. Esto implica que existe
una cancelacion de todos los polos correspondientes a las races de det(sIA no ).

Forma can
onica observable
Es posible obtener las formas canonicas duales a las presentadas en los Lemas
10.7 y 10.8. Para ilustrar esto presentamos a continuacion solo uno de los teoremas duales.
Lema 10.10. Considere un sistema escalar o SISO, completamente observable.
Entonces existe una transformaci
on de similaridad tal que lleva al modelo a la
forma can
onica observable:

bn1
n1 1
..

..
..
.

.
.

(10.259)
x(t)

= .
x(t) + . u(t)
.

..
.
1
b0
0
0
0


y(t) = 1 0 . . . 0 x(t) + Du(t)
(10.260)

222

10.6.3.

Descomposici
on Can
onica

En la seccion anterior se analizaron propiedades de los sistemas dinamicos, considerando aquellos que son solo parcialmente observables y controlables.
Estos pueden ser separados en subsistemas completamente controlables y completamente observables.
Los resultados de los Lemas 10.6 y 10.9 pueden combinarse para aquellos sistemas que no son ni completamente observables ni completamente controlables.
Podemos apreciar esto en el siguiente Teorema.
Teorema 10.6 (Descomposici
on Can
onica). Considere un sistema descrito
por un modelo en espacio de estado. Entonces, siempre existe una transformaci
on de similaridad T tal que el modelo transformado, con su nuevo vector de
estado x = T1 x toma la forma:


Aco
0
A13
0
B1
A21 A22 A23 A24
B2


;

A=
B=
C = C 1 0 C2 0
0
0 ;
0
A33
0
0
0
0
A34 A44
(10.261)
(i) El subsistema [Aco , B1 , C1 ] es completamente controlable y completamente
observable, y tiene la misma funci
on de transferencia que el sistema original (ver Lema 10.11 en la p
agina siguiente).

cancelaci
on
forma can
onica!observable
observabilidad!forma can
onica
descomposici
on can
onica

308

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

(ii) El subsistema:

  
0
B1 
,
, C1
A22
B2

Aco
A21

(10.262)

es completamente controlable.
(iii) El subsistema:

Aco
0

  
A13
B1 
, C1
,
0
A33

C2

(10.263)

es completamente observable.
222
La Figura 10.17 ilustra la estructura interna de un sistema de acuerdo al teorema anterior. En ella, x(t), xno (t), xnc (t) y xncno (t) representan la parte del
estado completamente controlable y observable, no observable, no controlable,
y no controlable ni observable, respectivamente.

u(t)

x(t)

y(t)

xno (t)

xnc (t)

xncno (t)

Figura 10.17: Estructura de un sistema de acuerdo a su controlabilidad y observabilidad.


La descomposicion canonica descrita en el Teorema 10.6 tiene una importante consecuencia para la funcion de transferencia del modelo, ya que esta solo
refleja el subespacio completamente observable y completamente controlable.
Lema 10.11. Considere la matriz de transferencia H(s) dada por:
Y(s) = H(s)U(s)

(10.264)

10.7. OBSERVADORES

309
realizaci
on m
nima
observador

Entonces:
H = C(sI A)1 B + D = C1 (sI Aco )1 B1 + D

(10.265)

on de
donde C1 , Aco y B1 son las de las ecuaciones (10.261). Esta descripci
estado es una realizaci
on mnima de la funci
on de transferencia.
222
Ademas, si denotamos por {M} el conjunto de autovalores de una matriz
M, entonces:
{A} = {Aco } {A22 } {A33 } {A44 }
donde:
{A}
{Aco }
{A22 }
{A33 }
{A44 }

Autovalores
Autovalores
Autovalores
Autovalores
Autovalores

del
del
del
del
del

sistema
subsistema
subsistema
subsistema
subsistema

(10.266)

controlable y observable
controlable pero no observable
no controlable pero observable
no controlable y no observable

Observamos que la controlabilidad de un sistema dado depende de la estructura de sus entradas, es decir, donde se aplican y como entran en el sistema
aquellas variables que son manipulables. Por tanto, los estados de un subsistema
pueden ser no controlables desde una entrada, pero completamente controlables
desde otra. Es importante tener esto en mente para el dise
no de sistemas de
control, pues en un proceso real no todas sus entradas pueden ser manipuladas,
y por tanto puede que sea imposible llevar las variables de la planta a ciertos
ubicaciones del espacio de estado.
Analogamente, la observabilidad de un sistema depende de que salidas se
consideren. Algunos estados pueden ser no observables desde una salida dada,
pero puede ser completamente observables desde otra. En el contexto del analisis
y dise
no de sistemas de control, esto se traduce en que puede ser difcil (imposible) obtener informacion sobre ciertas variables internas de la planta, a partir
de las salidas medidas disponibles.

10.7.

Observadores

Cuando las variables de estado de un sistema deben ser medidas para monitoreo, control u otros propositos, existen importantes aspectos tanto tecnicos
como economicos a considerar.
Un observador es un estimador de las variables de estado en base a un
modelo del sistema, mediciones de la salida de la planta y(t) y de su entrada
u(t).
El problema de observar el estado de un sistema es una generalizacion del
caso en que se desea medir indirectamente alguna variables de un sistema usando
un modelo de un sistema y otras variables mas faciles de medir.

310
error!estimaci
on
estimaci
on!error
observador!polinomio
Hurwitz!polinomio
error!modelo
modelo!error

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

10.7.1.

Din
amica del observador

Supongamos que un sistema tiene un modelo de estado dado por las ecuaciones (10.44)-(10.45) con D = 0 (sistema estrictamente propio). En este caso,
la estructura general de un observador clasico para el estado del sistema es
la que se muestra en la Figura 10.18, donde la matriz J es la ganancia del
observador.

u(t)

y(t)

Sistema
B

(sI-A)

-1

x^ (t)

J
Figura 10.18: Observador del estado clasico
La ecuacion que defines la dinamica del observador es entonces:
d
x(t)
= A
x(t) + Bu(t) + J(y(t) C
x(t))
dt

(10.267)

Una pregunta natural es: si contamos con un modelo del sistema y conocemos
su entrada, porque es necesario entonces usar la salida para estimar el estado?
no bastara con simular el sistema? La clave aqu es que no conocemos el
estado inicial del sistema, y por tanto no podramos obtener la trayectoria
del estado.
Si consideramos el error de estimacion del estado x
(t) = x(t) x
(t), su
dinamica se obtiene restando (10.267) de (10.44). Esto es:
d
x(t)
= (A JC)
x(t)
dt

(10.268)

donde observamos que el error de estimacion converge a cero si y solo si todos los
autovalores de la matriz A JC tienen parte real negativa, i.e., si el polinomio
del observador:
E(s) = det(sI A + JC)
(10.269)
es estrictamente Hurwitz.
Discusi
on
La ecuacion (10.268) es valida solo si el modelo es un representacion exacta
del sistema bajo analisis. Errores de modelado tendran consecuencias sobre
el observador, tales como error de estimacion diferente de cero.

10.7. OBSERVADORES

311

Si el par (A, C) es completamente observable, entonces los autovalores de


A JC pueden situarse arbitrariamente sobre region de estabilidad del
plano complejo. Por tanto, la velocidad de convergencia de la estimacion
es parte del dise
no del observador. Estos autovalores se conocen como los
polos del observador.
Si el par (A, C) es detectable, entonces el observador asegura error estacionario cero asitoticamente, a pesar que no todos los autovalores de la
matriz A JC pueden situarse a gusto.
Si el sistema no es completamente observable, y el subespacio no observable contiene modos inestables, entonces el error de estimacion no converge.
Ejemplo 10.27. Para ilustrar el uso de un observador consideremos nuevamente el modelo de estado del Ejemplo 10.8. En este caso particular, queremos
que los polos del observador se ubiquen en s = 4, s = 6 y s = 8. Entonces
la ganancia del observador J debe elegirse adecuadamente, por ejemplo, usando
Matlab :
Matlab
>>
>>
>>
>>

A=[ 0 1 0; 0 0 1; 4 0 -3];
B=[ 0; 0; 1];
C=[-10 4 0];
J=place(A,C,[-4 -6 -8])


J = 4,5247

7,5617

4,1543

T

(10.270)

Para apreciar la din


amica del observador, asumiremos que el estado inicial
del sistema es x(0) = [1 2 1]T y que la entrada del sistema es una se
nal
cuadrada de amplitud 1, y frecuencia igual a 1 [rad/s]. El observador se inicia
con x
(0) = 0. Entonces, la norma del error de estimaci
on, ||
x(t)|| evoluciona
como se muestra en la Figura 10.19
Es importante notar que, en este ejemplo, la planta es inestable, lo que significa que tanto el estado como su estimaci
on crecen indefinidamente. Sin embargo, bajo el supuesto de un modelo exacto, el error de estimaci
on converge a
cero.
222
Para darle una interpretacion fsica a la filosofa del uso de observadores,
veamos a continuacion otro ejemplo.
Ejemplo 10.28. La Figura 10.20 muestra el esquema de un sistema rotacional
en que la entrada es el torque (t). La potencia en el sistema se transmite a
traves de un sistema de engranajes en dos ruedas de radios r1 y r2 y momentos

polos!observador

312

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION
12

Norma del error

10
8
6
4
2
0
0

0.2

0.4

0.6

0.8

Tiempo [s]

1.2

1.4

1.6

1.8

Figura 10.19: Error de estimacion del estado

de inercia I1 e I2 , respectivamente. La rotaci


on de ambos ejes es amortiguada
por un roce viscoso con coeficientes D1 y D2 , y existe un resorte de torsi
on no
despreciable en el eje 2 que tambien ha sido modelado. La carga en el sistema se
ha includo como un momento de inercia I3 . Lo que nos interesa es estimar la
velocidad 3 de la carga want to estimate the load speed en base a la medici
on
de velocidad en el eje 1 1, 1 .

D1

1
I
1 1 1

r2
I2

r1

D2

K2

2 2
2

3
3

I3

Figura 10.20: Sistema rotacional

En primer lugar, es necesario obtener el modelo de estado del sistema, para


lo cual consideramos el mnimo conjunto de variables del sistemas que cuatifican la energa almacenada en el. El sistema tiene cuatro componentes capaces
de almacenar energa: tres momentos angulares y un resorte. Sin embargo, la
energa almacenada en I1 e I2 puede calcularse tanto a partir de 1 como de
2 ,i.e., necesitamos solo una de estas velocidades, ya que satisfacen la relaci
on:
1 (t)
r2
= ;
2 (t)
r1

and 1 (t)1 (t) = 2 (t)2 (t)

(10.271)

10.7. OBSERVADORES

313

Entonces, motivados por el modelado fsico, elegimos:


x1 (t) = 1 (t)

(10.272)

x2 (t) = 2 (t) 3 (t)


x3 (t) = 3 (t)

(10.273)
(10.274)

Usando algunos conocimientos de Mec


anica, tenemos:
d 1 (t)
+ 1 (t)
dt
d 2 (t)
r2
+ K2 (2 (t) 3 (t))
2 (t) = 1 (t) = D2 2 (t) + I2
r1
dt
d 3 (t)
0 = K2 (3 (t) 2 (t)) + I3
dt
(t) = D1 1 (t) + I1

(10.275)
(10.276)
(10.277)

Dado que escogimos 1 (t) como la variable medible del sistema, o sea, como
salida, obtenemos finalmente el modelo:
2

r 1 r 2 K2
r1 D2 + r22 D1
r22
2
0
r 2 I 2 + r 2 I 1
r2 I + r2 I
r1 I2 + r22 I1

1
2

1 2
2 1

dx(t)
r
1
(t)

=
x(t) +
0
1
0

dt
r2

K2
0
0
0
I3
{z
}
|
{z
}
|
B

(10.278)



1 (t) = 1 0 0 x(t)
| {z }

(10.279)

A continuaci
on, se escogen los siguientes valores para los par
ametros del
sistema:


N ms
(10.280)
r1 = 0, 25[m]; r2 = r3 = 0, 50[m]; D1 = D2 = 10
rad






Nm
N ms2
N ms2
K2 = 30
; I1 = 2,39
; I2 = I3 = 38,29
(10.281)
rad
rad
rad
Con estos valores tenemos que:

1,045 1,254
0
A = 0, 5
0
0, 784

0
1 ;
0

0, 084
B= 0
0

(10.282)

Para verificar la observabilidad, utilizamos el criterio presentado en la Secci


on 10.6.2, es decir, construimos la matriz de observabilidad:

C
1,0000
0
0
0
o = CA = 1,0450 1,2540
(10.283)
2
0, 4650
1,3104 1,2540
CA

314
ruido
filtro

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

En esta expresi
on podemos observar que la matriz o tiene rango completo,
pues claramente det o 6= 0, por tanto el sistema es completamente observable
desde la salida 1 (t).
Una vez que tenemos la estimaci
on del vector de estado, x
(t), la estimaci
on
del estado
3 (t) para 3 , se obtiene a partir de:
(t)

3 (t) = [0 0 1] x
| {z }

(10.284)

K3 T

donde
3 (t) puede obtenerse a partir de (10.267). Con esto:
d
x(t)
d
3 (t)
x(t) + K3 T B (t) + K3 T J1 (t) (10.285)
= K3 T
= K3 T (A JC)
| {z }
dt
dt
0

222

10.7.2.

Observadores y ruido de medici


on.

Hasta el momento en todos los analisis hecho asumido que tanto la entrada
de un sistema dado, u(t), como su salida, y(t), estan disponibles sin errores
de ning
un tipo. En general, esto es correcto solo respecto a la entrada, pues
usualmente esta es generada por el mismo que se emplea para estimar el estado.
Sin embargo, la medicion de la salida y(t), sera siempre en presencia de ruido.
Para analizar el efecto de este ruido de medicion, denotemos por ym (t) la
medicion, es decir, la salida real de la planta contaminada con ruido:
ym (t) = y(t) + v(t)

(10.286)

donde v(t) se denomina ruido de medicion aditivo. El error de medicion satisface


la ecuacion:
d
x(t)
= (A JC)
x(t) + Jv(t)
(10.287)
dt
Por tanto, tenemos que:

X(s)
= (sI A + JC)1 x
(0) + (sI A + JC)1 JV (s)

(10.288)

Es decir, el error debido al ruido sera peque


no si la funcion de transferencia
(sI A + JC)1 J es capaz de actuar como filtro para el ruido v(t).
Para ilustrar estas ideas, consideremos el siguiente ejemplo.
Ejemplo 10.29. Un sistema es modelado por las ecuaciones de estado:

 



1
2 1
; C = 1 1 ; D = 0
(10.289)
; B=
A=
0, 5
1 3

Supongamos que queremos estimar una variable del sistema z(t) = T x(t),
donde T = [1 1]. Entonces, una estimaci
on de esta variable es z(t), que se
obtiene como:
z(t) = T x
(t)
(10.290)

10.7. OBSERVADORES

315

Entonces, la parte ruidosa en la estimaci


on de z(t) es zv (t), cuya transformada de Laplace satisface
where Hv (s) = T (sI A + JC)1 J

Zv (s) = Hv (s)V (s);

(10.291)

A continuaci
on consideramos dos elecciones diferentes del polinomio del observador E(s). Estas son:
E1 (s) = (s + 0, 5)(s + 0, 75)

and E2 (s) = (s + 10)(s + 20)

(10.292)

El lector puede apreciar que esto se traduce en observadores que tendr


an
diferente velocidad, siendo el primero mucho m
as lento que el segundo. Con
estas elecciones calculamos las ganancias del observador, J1 y J2 , y las correspondientes funciones de transferencias de los filtros asociados:
1,875s + 5,625
s2 + 1,25s + 0, 375
144s + 432
H2 (s) = T (sI A + J2 C)1 J2 = 2
s + 30s + 200

H1 (s) = T (sI A + J1 C)1 J1 =

(10.293)
(10.294)

Para comparar ambos casos en la Figura 10.21, se muestra la respuesta en


frecuencia (diagrama de Bode) de cada uno de los filtros obtenidos. Es interesante notar que, a partir de los gr
aficos obtenidos podemos concluir que el filtro
m
as lento resulta ser m
as inmune a ruido de alta frecuencia, comparado con el
m
as lento.
40

Magnitud [dB]

20

|H2(j)|

0
20

|H (j)|
1

40
60
1
10

10

10
Frecuencia [rad/s]

10

10

Figura 10.21: Caracterstica de filtraje de los observadores

222
En base al ejemplo anterior tenemos que
En el dise
no de un observador, siempre existe un compromiso entre la velocidad de convergencia del error de observacion y la inmunidad de la estimacion
frente al ruido de medicion.

316
observador!de orden reducido
observador!de orden completo

EN VARIABLES DE ESTADO.
CAPITULO 10. REPRESENTACION

Una forma sistematica de encarar este problema es usar la teora de filtro


optimos, como los filtros de Kalman-Bucy. El lector interesado puede consultar,
por ejemplo, la referencia [2].
Existe una serie de otros observadores, incluso capaces de incorporar nolinealidades presentes en el sistema a observar. Sin embargo, uno de particular
interes es el observador de orden reducido, que basicamente asocia directamente la salida del sistema a una parte del estado, reduciendo la parte del
estado a estimar. Dada esta diferencia, el observador cl
asico presentado en esta
seccion tambien se denomina de orden completo (ver [13, 7],yuz01?).

muestreo|textbf
quantum|textbf
sistemas!digitales

Captulo 11

Sistemas hbridos
11.1.

Introducci
on

Uno de los paradigmas mas ricos de la ingeniera moderna es el uso de la


tecnologa digital en el procesamiento de se
nales. Esto se refleja en campos
tan distintos como las telecomunicaciones, la bioingeniera, la automatizacion,
el control automatico, el procesamiento de imagenes, procesamiento de voz, reconocimiento de patrones, etc. La amplitud y velocidad con las que la aplicacion
de este paradigma se consolida y se extiende parecen no tener lmites; ello se
debe a la velocidad con que progresa la electronica digital.
Los sistemas digitales usados en procesamiento de se
nales, cualquiera sea
el proposito de este, manejan se
nales que son discretas en magnitud (con discretizacion determinada por el n
umero de bits) y discretas en tiempo (debido a
que existe una sincronizacion con un reloj o temporizador). Por ejemplo, en un
computador con registros de 16 bits y una unidad procesadora central (CPU)
de 1 [GHz], se pueden representar n
umeros enteros positivos con magnitud cuya
discretizacion corresponde a 216 veces el valor maximo representado. Esto es
el quantum de magnitud. A su vez, las operaciones que se realizan en la CPU y
las transferencias de datos solo pueden iniciarse en instantes que son m
ultiplos
del perodo del reloj, es decir, m
ultiplos de 1 [ns].
Muchas veces se usan como sinonimo las expresiones digital y tiempo discreto. En rigor, no son sinonimos, ya que un registro digital tiene un valor que
esta definido en todo instante (tiempo continuo); lo que s ocurre es que solo
nos interesa analizar lo que pasa con ese valor almacenado en los instantes que
corresponden a m
ultiplos del ciclo del reloj, que es cuando se puede producir
alg
un cambio. Por esta u
ltima razon aceptaremos la sinonimia; sin embargo
debemos tener presente que si el dispositivo digital tiene una discretizacion muy
gruesa, es decir, un quantum grande, debido a un n
umero reducido de bits, es
necesario hacer un analisis de este efecto en el procesamiento de las se
nales
Una fraccion muy significativa de las aplicaciones en el campo del procesamiento de se
nales involucran la interaccion o interconexion de sistemas y
317

CAPITULO 11. SISTEMAS HIBRIDOS

318
sistemas!h
bridos
muestreo
reconstrucci
on
muestreo|textbf
muestreo!per
odo de
muestra

se
nales de tiempo continuo con sistemas y se
nales de tiempo discreto. Cuando un sistema incluye componentes tanto de tiempo continuo como de tiempo
discreto, se habla de sistemas hbridos.
La comunicacion de sistemas que procesan se
nales de distinta naturaleza requiere resolver dos problemas: el problema de muestreo, que permite transformar una se
nal de tiempo continuo en una se
nal de tiempo discreto y el problema
de reconstrucci
on, es decir, la transformacion de una se
nal de tiempo discreto
en una se
nal de tiempo continuo.
Si bien ya se abordo brevemente en la Seccion los modelos para sistemas
y se
nales muestreadas, en este captulo estudiaremos mas en profundidad la
solucion de esos problemas y su descripcion, tanto temporal como frecuencial.
Para una comprension acabada de los conceptos y resultados que se presentan
aca, se requiere que el lector tenga un dominio acabado de los captulos 3, 4 y
6.

11.2.

Muestreo de se
nales.

Supongamos que deseamos procesar digitalmente una se


nal de tiempo continuo f (t), entonces debemos tomar el valor de la se
nal en un instante dado,
es decir, una muestra y transformarla en una coleccion de bits, es decir, cuantizarla. Tecnicamente se requiere un muestreador y un conversor tal como se
indica, en forma simplificada, en la Figura 11.1. En esa figura, el muestreador
discretiza en el tiempo, y el conversor discretiza la amplitud de la se
nal. En
lo sucesivo, supondremos que la conversion A/D es de alta precision y de alta
velocidad, por lo cual se supondra que no hay error en la cuantizacion de la
amplitud y no hay retardo en la operacion.

t = t1
f (t)

f (t1 )

Conversor
A/D

fd (t1 )

Figura 11.1: Proceso de muestreo y cuantizacion


Para capturar la informacion contenida en la se
nal f (t), por simplicidad
se suele muestrear la se
nal en forma periodica, con perodo , es decir, con
frecuencia angular de muestreo m = 2/, lo cual significa que se obtiene una
secuencia {f (0), f (), f (2), . . .}. Esta secuencia puede ser tratada como una
secuencia discreta, y le son aplicables los metodos de analisis presentados para
las se
nales de tiempo discreto en el Captulo 4.
En este captulo enfocaremos nuestro analisis en la conexion dicsreto-continuo,
as como en los procesos de muestreo y de reconstruccion.
El primer fenomeno interesante de observar se relaciona con la seleccion
de la frecuencia de muestreo. Si la se
nal a muestrear es una constante, entonces, la infomacion codificada en la se
nal se captura con cualquier frecuencia


11.2. MUESTREO DE SENALES.
2

=1 [s]

319
2

=0,5 [s]

2
0

0.5

=0,05 [s]

2
0

0.5

0.5

Figura 11.2: Muestreo a diferentes frecuencias


de muestreo. Como contrapartida, si la se
nal cambia rapidamente, es necesario
muestrear rapido (comparativamente) para que la secuencia de tiempo discreto
capture esa dinamica de cambio. Las ambig
uedades que surgen de una eleccion
desacertada del perodo de muestreo se ilustran en el siguiente ejemplo.
Ejemplo 11.1. Suponga que f (t) = 2 cos(2t), es decir, se trata de una se
nal
sinuosidal de frecuencia 1 [Hz]. Consideremos ahora tres valores distintos para
la frecuencia de muestreo fm (m = 2fm )
(a) fm = 1 [Hz], es decir, = 1 [s]
(b) fm = 2 [Hz], es decir, = 0, 5 [s]
(c) fm = 20 [Hz], es decir, = 0, 05 [s]
Los tres casos son mostrados en los gr
aficos de la Figura 11.2
De un an
alisis somero de la Figura 11.2 se puede observar lo siguiente:
(i) El muestreo a fm = 1 [Hz] genera una secuencia de valores constantes.
Este resultado indica que el proceso de discretizaci
on temporal entrega un
resultado totalmente equvoco. En otras palabras, dado f [k], no hay forma
de recuperar la funci
on de tiempo continuo f (t). Note que si el mismo
muestreo se hubiera usado en la se
nal f (t) = 2 sen(2t), entonces, f [k]
hubiese sido cero k N.
(ii) El muestreo a fm = 2 [Hz] genera una secuencia de valores constantes de
signo alternado. Aunque se preserva la naturaleza peri
odica de la se
nal
f (t), as como su frecuencia exacta, el resultado tambien es equvoco, por
cuanto sera imposible recuperar la se
nal original a partir de sus muestras.
(iii) El muestreo a fm = 20 [Hz] genera una secuencia de valores que aproxima
en forma muy cercana la se
nal original. Demostraremos m
as adelante que,
en casos como este existe un procedimiento para recuperar la se
nal original
con el grado de exactitud tan grande como deseemos.

CAPITULO 11. SISTEMAS HIBRIDOS

320
4

x 10

Error

0
2
4
6

0.1

0.2

0.3

0.4

0.5
Tiempo [s]

0.6

0.7

0.8

0.9

Figura 11.3: Error de reconstruccion usando interpolacion c


ubica.

Para verificar la aseveraci


on anterior podemos intentar una reconstrucci
on
por interpolaci
on c
ubica (comando spline de Matlab) y dibujando el error
de reconstrucci
on, como se indica a continuaci
on

Matlab
>>tt=[0:1e-5:1];Delta=0.05;t=[0:Delta:1];
>>f=2*cos(2*pi*tt);fk=2*cos(2*pi*t);
>>faprox=spline(t,fk,tt); subplot(211);plot(tt,f-faprox);

La Figura 11.3 muestra que el error de reconstrucci


on es muy peque
no (del
orden de 104 ).

11.3.

An
alisis en frecuencia de se
nales muestreadas

Una vez que se obtiene la se


nal discreta f [k] podemos usar las herramientas
desarrolladas en el Captulo 6 para realizar un analisis espectral. En esta seccion
nos interesara relacionar ese analisis con el analisis espectral de la se
nal de
tiempo continuo f (t).
El principal resultado esta dado por el siguiente lema
Lema 11.1. Sea una se
nal de tiempo continuo f (t), muestreada peri
odicamente
con frecuencia angular de muestreo m [rad/s] (es decir, cada [s]), y sean
F ( ) y F [ej ] las transformadas de Fourier de f (t) y de la secuencia f [k] =
f (k) respectivamente. Entonces, se cumple que

11.3. ANALISIS
EN FRECUENCIA DE SENALES
MUESTREADAS

321
tren de impulsos
muestreo
impulsivo




2`
1 X
1 X
F
F ( `m )
=
F [e ] =

`=

donde

`=

(11.1)

Demostraci
on
Recordemos que

f [k] = f (k) =

`=

f (`)K [k `]

(11.2)

Por lo cual, podemos calcular el espectro de la secuencia usando TFD.


F [ej ] =

f (`)ej`

(11.3)

`=

Por otro lado supongamos que la se


nal original, f (t) es multiplicada por un
tren de impulsos, es decir,
f (t) = f (t)

k=

D (t k)
{z

m (t)

(11.4)

Entonces, la transformada de Fourier de esta secuencia impulsiva es la convoluci


on compleja de las transformadas de Fourier de la se
nal original y del tren
de impulsos, es decir,
Z
1
F (j)M ( j) d
F {f (t)} = F ( ) = F ( ) M ( ) =
2
(11.5)
Para calcular M ( ) notamos que m (t) es una se
nal peri
odica, de perodo
, por lo tanto se puede expandir en una serie exponencial de Fourier. As,
aplicando las definiciones de la secci
on 5.3.2, se obtiene
m (t) =

k=

(t k) =

1 X j 2` t
e

(11.6)

`=

a partir de lo cual, aplicando la transformaci


on de Fourier a la suma de exponenciales complejas, se llega a
M ( ) =




2`
2 X
D

`=

y, finalmente, reemplazando en (11.5) se obtiene

(11.7)

CAPITULO 11. SISTEMAS HIBRIDOS

322

1
F ( ) =
2




1 X
2`
F (j)M ( j) d =
F

(11.8)

`=

Ahora bien, el c
alculo de la transformaci
on de Fourier se puede realizar por
un camino alternativo. En efecto, a partir de (11.4) se tiene que
f (t) = f (t)

k=

D (t k) =

k=

f (k)D (t k)

(11.9)

de donde se llega a
F ( ) =

f (k)ejk

(11.10)

k=

Comparando (11.3), (11.8) y (11.10), se llega al resultado (11.1)


222

modelos|textbf

Captulo 12

Modelos
12.1.

Ideas generales

Una de las tareas mas interesantes y complejas en el analisis de sistemas


es la de construir modelos para describir cuantitativamente lo que ocurre en el
sistema bajo analisis.
Un modelo es siempre una representacion aproximada de la realidad y, en sus
aspectos esenciales, se relaciona ntimamente con el proposito que nos mueve a
obtener el modelo. Por ejemplo, un motor electrico puede tener distintos modelos
seg
un cual es el interes del analista: un modelo electromecanico, un modelo
termico, un modelo que describa los fenomenos vibratorios y de esfuerzos, etc.
En cualquier caso, una vez definido el proposito del modelo, este debe capturar los rasgos esenciales que hacen del sistema un ente particular y diferente
de los demas, tanto cualitativa como cuantitativamente.
Es importante se
nalar que el objetivo esencial de un modelo es tener
un mecanismo que permita predecir el comportamiento del sistema
bajo condiciones de excitaci
on distintas a las observadas. En otras palabras el modelo es un mecanismo de inferencia y prediccion.
El problema que queremos resolver aqu se puede definir de la siguiente
forma:

Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matematico que pueda replicar
en la forma mas precisa posible (bajo alg
un criterio de optimalidad) la
historia de datos disponibles y otras historias de datos que se puedan obtener
del mismo sistema, para validar el modelo obtenido.
Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Ademas la historia de datos del sistema
debe ser tal que permita observar los rasgos de interes del sistema. Por ejemplo,
323

CAPITULO 12. MODELOS

324

si el sistema que deseamos modelar es una red RC, no nos servira recolectar datos
del sistema cuando las fuentes que alimentan la red son constantes, porque en
ese caso sera imposible calcular los parametros de cualquier modelo dinamico.
Otra idea que aparece en la definicion del problema es que la construccion
del mejor modelo tiene asociado un criterio de calidad optima.
En la determinacion de un modelo existen pues, tres elementos
1. La seleccion de una clase de modelos, M. Por ejemplo, una ecuacion diferencial de cierto orden.
2. Un experimento que permite recolectar datos. Por ejemplo, el aplicar una
excitacion de amplio espectro al sistema.
3. Un criterio de optimizacion que permite seleccionar uno de los miembros
de la clase elegida en base a los datos experimentales. Por ejemplo, el
minimizar la suma (o integral) de los errores cuadraticos.
La clase de modelos se elige, en primera instancia, usando citerios fenomenologicos. Por ejemplo, si el comportamiento del sistema a modelar esta dominado por
3 componentes dinamicos, una clase razonable es el conjunto de las ecuaciones
diferenciales de tercer orden.
En muchos casos, el experimento no puede ser dise
nado de acuerdo a las
necesidades del analista, sino que se debe usar datos provenientes de la operacion
normal del sistema a modelar. Ademas, es com
un que se desee o necesite ir
refinando el modelo en forma recursiva (e incluso en tiempo real, es decir, se va
refinando el calculo a medida que se van obteniendo nuevos datos).
Tambien es crucial notar que el que se use un procedimiento de optimizacion
solo se garantiza, en el mejor de los casos, que se encontrara el modelo optimo
dentro de la clase elegida. Si el mecanismo generador de los datos no pertenece a
la clase de modelos elegida, como suele suceder, entonces siempre habra un error
de modelado, sin importar cuan informativo sea el experimento para recolectar
datos.
Los metodos mas robustos que se conocen para construir modelos son aquellos que usan un criterio de optimizacion cuadratica. En ellos concentraremos
nuestra atencion en lo que sigue.

12.2.

Modelado de sistemas de tiempo continuo.


Teora b
asica.

Para motivar la discusion y el tratamiento teorico del tema, consideramos el


siguiente ejemplo.
Ejemplo 12.1. Suponga que la clase de modelos elegida, M, est
a definida por
ym (t) = (u(t))3
donde u(t) es la entrada del sistema a modelar.

(12.1)


12.2. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. TEORIA BASICA.325
Suponga adem
as que se realiza un experimento recolector de datos en el sistema a modelar. Como resultado del mismo se obtienen datos1 de entrada y
salida, u(t) e y(t), en el intervalo [0; tf ]. Entonces el mejor valor de ,
, en
(12.1) se puede calcular minimizando un funcional de costo J() dado por
Z tf
2
J() =
(12.2)
(y( ) (u( ))3 d
0

entonces

= arg mn J()

(12.3)

La minimizaci
on se realiza derivando J() respecto de y haciendo esa
derivada igual a cero. Esto lleva a
1 Z tf
Z tf
6
y( )(u( ))3 d
(12.4)
(u( )) d

=
0

Note que si el sistema a modelar perteneciese a la clase de modelos elegida,


es decir, si existe o tal que y(t) = o (u(t))3 , entonces
= o , siempre que
u(t) 6= 0 en alg
un lapso no cero en el intervalo [0; tf ].
La ecuaci
on (12.4) arroja una estimaci
on del par
ametro una vez que se han
evoluciona a
recogido los datos. Existe una formulaci
on alternativa donde
medida que se obtienen m
as datos, tal como se demuestra a continuaci
on.
Para hacer el tratamiento m
as simple haremos las siguientes substituciones

p(t) =

Z

t
6

(u( )) d
0

(t) = (u(t))

1

(12.5)
(12.6)

Entonces, si reemplazamos tf por t en (12.4) tenemos que


Z t

(t) = p(t)
y( )( ) d

(12.7)

Luego, al derivar (12.5), se obtiene

dp(t)
d (p(t))
2
= (p(t)(t))
dt
dt

= ((t))

(12.8)

Al derivar (12.7) y al usar (12.8) se obtiene


d
(t)
= p(t)(t) (y(t)
(t)(t))
|
{z
}
dt

(12.9)

e(t)

donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo
y la entrada observada de la planta.
1 Note

que se trata de datos experimentales de la planta

predicci
on!error de

CAPITULO 12. MODELOS

326
regresi
on!vector de
regresores

(t) en tiempo real, como


Las ecuaciones (12.8) y (12.9) permiten calcular
se puede verificar en la simulaci
on implementada en el esquema SIMULINK
de la Figura 12.1. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e(t) en el
oscilloscopio, que ese sistema pertenece a la clase M.
u(t)

y(t)
SISTEMA
e

(u(1))^3

e (t)

p (0)

\phi (t)
K

1/s
p (t)

1/s
alfa (0)

alfa
alfa (t)

Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integracin correspondientes

Figura 12.1: Estimacion por mnimos cuadraticos


Note adem
as que, para que este programa SIMULINK funcione se debe asignar una condici
on distinta de cero a p(0) (en el bloque integrador correspondiente). Se invita al lector a observar el efecto de distintas elecciones para p(0).
En cambio, el valor inicial
(0) puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el parametro . En la primera, dada por la
ecuacion (12.4), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.8) y
(12.9), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuacion el metodo general para sistemas de tiempo
continuo.
La clase de modelos a usar, M, esta definida por
ym (t) = m (t)T

(12.10)

donde (t)m es un vector, llamado vector de regresion,. Los elementos de m (t)


son conocidos como regresores. Existen tres grandes lneas en la construccion
del vector de regresion:


12.2. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. TEORIA BASICA.327
En base a la entrada de la planta y la salida del modelo. Este enfoque es
la base de los llamados m
etodos de error de predicci
on, reconocidos
por su sigla inglesa PEM (prediction error methods).
En base a la entrada del modelo, la que resulta de medir la entrada a la
planta2 y a la salida del modelo. Esta eleccion genera los metodos conocidos como de errores en la variables
En base a la entrada de la planta y la salida de la planta. Esta eleccion es
la base del metodo clasico de estimaci
on por errores cuadr
aticos. Es
conocido por la sigla inglesa LSE (least squares errors). Ese el metodo mas
robusto y mas usado, y es el que usaremos en este texto. Distinguiremos
esta eleccion de las otras dos reemplazando m (t) por (t) en la derivacion
de las ecuaciones del metodo.
Por su parte, el vector Rp contiene los parametros 1 , 2 , . . . , p que
distinguen cada elemento en M.
Note que la expresion es bastante general, ya que la u
nica restriccion es que
el modelo sea lineal en los parametros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
p
(12.11)
ym (t) = a u(t) + b u(t) + c cos(u(t)) + d

Entonces, el modelo (12.11) puede ser puesto en la forma (12.10) con las
siguientes asociaciones
p
(t) = [ u(t) u(t) cos(u(t)) 1]T
(12.12)
= [a b c d ]T

(12.13)

Veremos ademas en una seccion siguiente que (12.10) puede describir sistemas dinamicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de
la clase M, debemos encontrar un estimado optimo, , para de modo que se
minimice
Z
tf

J( ) =

(y( ) ( )T )2 d

(12.14)

El producto ( )T corresponde a una estimacion de la salida del sistema


a modelar, utilizando el elemento generico de la clase M. La diferencia y( )
( )T es conocida como el error de prediccion (no confundir con los metodos PEM). El metodo de estimacion cuadratica permite determinar cual de
los elementos de M es el que arroja la prediccion con menor error cuadratico
acumulado. Esto es equivalente a seleccionar el optimo .
La minimizacion de (12.14) se hace a traves del procedimiento tradicional:
derivando respecto de la incognita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una funcion escalar respecto de un vector, la
derivada corresponde al gradiente . As el mejor estimado esta dado por
2 Hay

una diferencia entre ambos debido al ruido de medici


on

PEM
errores en las variables
predicci
on!error de
gradiente

CAPITULO 12. MODELOS

328

= arg mnp J( )

(12.15)

El procedimiento descrito lleva a


dJ( )
J( ) =
= 2
d

tf
0

( )(y( ) ( )T ) d

(12.16)

Al hacer cero el gradiente se obtiene el estimado dado por


=

Z

tf

( ) d
( )
0

1 Z

tf

( )y( ) d

(12.17)

Para demostrar que la expresion (12.17) minimiza el funcional, se debe calcular la segunda derivada (o Hessiano) de J( ), la que debe ser una matriz
positiva definida (ver Apendice F). Esto da
Z tf
d 2 J( )
( )T d
HJ ( ) =
( )
(12.18)
=2
d 2
0

Entonces el Hessiano HJ ( ) es positivo definido si el vector ( ) cumple


algunas condiciones muy poco exigentes3 en [0; tf ].
La expresion (12.17) proporciona una forma de construir el modelo, estimando , una vez que se han acumulado los datos en un lapso [0; tf ]. Tal como
se ilustro en el Ejemplo 12.1, es posible construir un estimado, (t), que vaya
evolucionando a medida que se van considerando nuevos datos. Esto aparece
resuelto en el siguiente teorema.

Teorema 12.1. Considere la clase M definida por (12.10), el funcional en


(12.14) y un experimento que permite construir ( ) para [0; t]. Entonces
el estimador o
ptimo, (t) se puede obtener a traves de

dP(t)
(t)
(t)T P(t)
= P(t)
dt
d(t)
(t)(y(t) (t)(t)) = P(t)
(t)e(t)
= P(t)
dt

(12.19)
(12.20)

Demostraci
on
Definamos previamente la matriz P(t) Rpp de la forma
P(t) =
3 Cuya

Z

( )T d
( )
0

deducci
on escapa al marco de este texto.

1

(12.21)

12.3. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. MODELOS LINEALES.329


y la matriz
Q(t) = P(t)1 =
entonces

( )T d
( )

(12.22)

dP(t)
dQ(t)
dP(t)Q(t)
=0=
Q(t) + P(t)
dt
dt
dt

(12.23)

dQ(t)
dP(t)
(t)
(t)T P(t)
= P(t)
P(t) = P(t)
dt
dt

(12.24)

Esto lleva a

donde hemos usado el hecho que


Q(t)
(t)T
= (t)
dt
Por otro lado, al usar (12.17)
Z tf

( )y( ) d
(t) = P(t)

(12.25)

(12.26)

con lo cual, al derivar se obtiene


Z
d
dP(t) tf
(t)y(t)
( )y( ) d + P(t)
=
dt
dt
0
Z tf
dQ(t)
(t)y(t)
P(t)
= P(t)
( )y( ) d +P(t)
dt
0
|
{z
}

(12.27)
(12.28)

(t)

lo que lleva a (12.20) al usar (12.25).

El Teorema 12.1 establece un procedimiento a traves del cual la estimacion


de los parametros del modelo se va obteniendo a medida que se dispone de nueva
informacion.

12.3.

Modelado de sistemas de tiempo continuo.


Modelos lineales.

La teora desarrollada en la seccion precedente se aplica a cualquier clase de


modelos M, con la u
nica condicion que los miembros de esa clase sean lineales
en el vector de parametros, es decir, tengan la forma (12.10). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en
el Ejemplo 12.1. Sin embargo, en esta seccion enfocaremos nuestra atencion en
modelos dinamicos lineales de tiempo continuo. Con este objetivo definiremos

CAPITULO 12. MODELOS

330

la clase M por la ecuacion diferencial (3.1), la que reproducimos a continuacion


(reemplazando y(t) por ym (t)).
dn ym (t)
dn1 ym (t)
dn1
dn2
+a
+.
.
.+a
y
(t)
=
b
u(t)+b
u(t)+. . .+b0 u(t)
n1
0
m
n1
n2
dtn
dtn1
dtn1
dtn2
(12.29)
Antes de desarrollar la metodologa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 12.2. La clase M es elegida como en (12.29), con n = 1, es decir
dym (t)
+ a0 ym (t) = b0 u(t)
(12.30)
dt
La primera opci
on para contruir la forma (12.10) en este caso es (note la
sustituci
on de ym (t) por y(t) en el vector (t))
(t) =

hR

t
0

u( )d

T
= b0 a 0

Rt
0

y( )d

iT

(12.31)
(12.32)

Sin embargo, esta forma de selecci


on del vector de regresi
on (t) no es razonable, porque basta que las se
nales tengan un valor medio distinto de cero (por
peque
no que sea) para que el vector (t) crezca sin lmites.
Intentaremos otro enfoque, usando el operador de Heaviside (definido en
(3.2). El modelo (12.30) puede ser re-escrito como
0 = ( + a0 )ym (t) + b0 u(t)

(12.33)

Supongamos se define un polinomio operador m


onico estable E() = + e 0
(e0 > 0), entonces (12.33) se puede escribir como
0=

b0
+ a0
ym (t) +
u(t)
E()
E()

(12.34)

Sumando ym (t) a ambos lados se obtiene


ym (t) = ym (t)

b0
ym (t)
u(t)
+ a0
ym (t) +
u(t) = (e0 a0 )
+ b0
(12.35)
E()
E()
E()
E()

As, una elecci


on natural es
(t) =

T
y(t)
E()
T
e0 a 0

u(t)
E()


= b0

(12.36)
(12.37)

Note que hemos reemplazado ym (t) por y(t) en el vector de regresi


on, as el
vector de regresi
on resulta dependiente s
olo de los datos de entrada y salida del
sistema a modelar, lo cual es consistente con la idea del metodo LSE.

12.3. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. MODELOS LINEALES.331


222
El Ejemplo 12.2 permite inducir una metodologa general.
Definamos

A() = n + an1 n1 + . . . a0

(12.38)

n1

(12.39)

B() = bn1
n

+ bn2

E() = + en1

n1

n2

+ . . . b0

+ . . . e0

(12.40)

donde E() es un polinomio operador estable.


Entonces el modelo (12.29) se puede escribir como
0=

B()
A()
ym +
u(t)
E()
E()

(12.41)

Si ahora sumamos ym (t) a ambos lados se obtiene


ym (t) =

E() A()
B()
ym +
u(t)
E()
E()

(12.42)

Entonces la eleccion de (t) consistente con el metodo LSE es


(t) =

n1 u(t)
E()

n2 u(t)
E()

u(t)
E()

n1 y(t)
E()

n2 y(t)
E()

T
y(t)
E()
(12.43)

y el vector de parametros es

= bn1

bn2

b0

en1 an1

en2 an2

T
e0 a0
(12.44)

Ejemplo 12.3. Supongamos que la clase M es el conjunto de ecuaciones diferenciales de tercer orden, lineales y de coeficientes constantes, entonces


2 u(t) u(t) u(t) 2 y(t) y(t) y(t)


(t) =
E()
E() E()
E()
E() E()
T

= b2 b1 b 0 e 2 a 2 e 1 a 1 e 0 a 0

T

(12.45)
(12.46)

donde E() es cualquier polinomio de tercer grado cuyas races tenga parte real
menor que cero.
222

CAPITULO 12. MODELOS

332

12.4.

Modelado de sistemas de tiempo discreto.


Teora b
asica.

La construccion de modelos para sistemas de tiempo continuo es de gran


interes conceptual. Sin embargo, la implementacion de las ecuaciones de esa
construccion requiere el uso de una maquina digital, en cuyo caso necesariamente
se debe usar una discretizacion y ello hade de mayor relvancia la construiccion
de sistemas de tiempo discreto.
Al igual que en el caso de tiempo continuo, usaremos un ejemplo para motivar
la discusion.
Ejemplo 12.4. Suponga que la clase de modelos elegida, M, est
a definida por
ym [k] = (u[k])3

(12.47)

donde u[k] es la entrada del sistema a modelar.


Suponga adem
as que se realiza un experimento recolector de datos en el sistema a modelar. Como resultado del mismo se obtienen datos4 de entrada y
salida, u[k] e y[k], en el intervalo [0; N ]. Entonces el mejor valor de ,
, en
(12.47) se puede calcular minimizando un funcional de costo J() dado por
J() =

N
X
`=1

(y[`] (u[`])3

entonces

= arg mn J()
R

2

(12.48)

(12.49)

La minimizaci
on se realiza derivando J() respecto de y haciendo esa
derivada igual a cero. Esto lleva a
"N
#1 N
X
X
6

=
(u[`])
y[`](u[`])3
(12.50)
`=1

`=1

Note que si el sistema a modelar perteneciese a la clase de modelos elegida,


= o , siempre que
es decir, si existe o tal que y[k] = o (u[k])3 , entonces
u[k] 6= 0 en alg
un lapso no cero en el intervalo [0; N ].
on del par
ametro una vez que se
La ecuaci
on (12.50) arroja una estimaci
han recogido los datos. Existe una formulaci
on alternativa donde
evoluciona
a medida que se obtienen m
as datos, tal como se demuestra a continuaci
on.
Para hacer el tratamiento m
as simple haremos las siguientes substituciones

p[k] =

"

N
X

(u[`])

`=1

[k] = (u[k])
4 Note

#1

que se trata de datos experimentales de la planta

(12.51)
(12.52)


12.4. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. TEORIA BASICA.333
predicci
on!error de

Entonces, si reemplazamos N por k en (12.50) tenemos que

[k] = p[k]

k
X

y[`][`]

(12.53)

`=1

Luego, al usar (12.51), se obtiene


p[k] =

p[k 1]
= p[k 1] p[k 1][k]2 p[k]
1 + p[k 1][k]2

(12.54)

Combinando (12.7) y (12.8) se obtiene


(12.55)

[k] =
[k 1] + p[k][k] (y[k]
[k 1][k])
{z
}
|
e[k]

donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo
y la entrada observada de la planta.
Las ecuaciones (12.54) y (12.55) permiten calcular
[k] en tiempo real, como
se puede verificar en la simulaci
on implementada en el esquema SIMULINK de
la Figura 12.2. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e[k] en el
oscilloscopio, que ese sistema pertenece a la clase M.
u[k]

y[k]

SISTEMA

p [0]

e [k]

z
p [k]
u(1)/(1+u(1)*u(2)^2)

(u(1))^3
\phi [k]

p
1

alfa [0]

z
alfa
alfa [k]

Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes

Figura 12.2: Estimacion por mnimos cuadraticos


Note adem
as que, para que este programa SIMULINK funcione se debe asignar una condici
on distinta de cero a p[0] (en el bloque de retardo correspondiente). Se invita al lector a observar el efecto de distintas elecciones para p[0].
En cambio, el valor inicial
[0] puede ser cualquier valor, incluyendo cero.

CAPITULO 12. MODELOS

334
regresi
on!vector de
regresores
PEM
errores en las variables

222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el parametro . En la primera, dada por la
ecuacion (12.50), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.54) y
(12.55), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuacion el metodo general sistemas de tiempo discreto.
La clase de modelos a usar, M, esta definida por
ym [k] = m [k]T

(12.56)

donde m [k] es un vector, llamado vector de regresion,. Los elementos de m [k]


son conocidos como regresores. Existen tres grandes lneas en la construccion
del vector de regresion, y ellas son las mismas que en el caso continuo:
m
etodos de error de predicci
on, (PEM) (prediction error methods).
metodo de errores en la variables
Metodo clasico de estimaci
on por errores cuadr
aticos (LSE)(least
squares errors). Distinguiremos esta eleccion de las otras dos reemplazando m [k] por [k] en la derivacion de las ecuaciones del metodo.
Por su parte, el vector Rp contiene los parametros 1 , 2 , . . . , p que
distinguen cada elemento en M.
Note que la expresion es bastante general, ya que la u
nica restriccion es que
el modelo sea lineal en los parametros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
p
(12.57)
ym [k] = a u[k] + b u[k] + c cos(u[k]) + d
Entonces, el modelo (12.57) puede ser puesto en la forma (12.56) con las
siguientes asociaciones
p
[k] = [ u[k] u[k] cos(u[k]) 1]T
(12.58)
= [a b c d ]T

(12.59)

Veremos ademas en una seccion siguiente que (12.56) puede describir sistemas dinamicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de
la clase M, debemos encontrar un estimado optimo, , para de modo que se
minimice
N
X
J( ) =
(12.60)
(y[`] [`]T )2
0

El producto [`]T corresponde a una estimacion de la salida del sistema a


[`]T
modelar, utilizando el elemento generico de la clase M. La diferencia y[`]


12.4. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. TEORIA BASICA.335
es conocida como el error de prediccion (no confundir con los metodos PEM). El
metodo de estimacion cuadratica permite determinar cual de los elementos de
M es el que arroja la prediccion con menor error cuadratico acumulado. Esto
es equivalente a seleccionar el optimo .
La minimizacion de (12.60) se hace a traves del procedimiento tradicional:
derivando respecto de la incognita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una funcion escalar respecto de un vector, la
derivada corresponde al gradiente . As el mejor estimado esta dado por
= arg mnp J( )
R

(12.61)

El procedimiento descrito lleva a


N

J( ) =

X
dJ( )
= 2
[`](y[`] [`]T )
d

(12.62)

`=1

Al hacer cero el gradiente se obtiene el estimado dado por


"N
#1 N
X
X
T
[`]
[`]
[`]y[`]
=
`=1

(12.63)

`=1

Para demostrar que la expresion (12.63) minimiza el funcional, se debe calcular la segunda derivada (o Hessiano) de J( ), la que debe ser una matriz
positiva definida (ver Apendice F). Esto da
N

HJ ( ) =

X
d 2 J( )
[`]T
=
2
[`]
d 2

(12.64)

k=1

Entonces el Hessiano HJ ( ) es positivo definido si el vector [`] cumple


algunas condiciones muy poco exigentes5 en 0 < ` N .
La expresion (12.63) proporciona una forma de construir el modelo, estimando , una vez que se han acumulado los datos en un lapso [0; tf ]. Tal como
se ilustro en el Ejemplo 12.4, es posible construir un estimado, [k], que vaya
evolucionando a medida que se van considerando nuevos datos. Esto aparece
resuelto en el siguiente teorema.
Teorema 12.2. Considere la clase M definida por (12.56), el funcional en
(12.60) y un experimento que permite construir [`] para 0 < ` N . Entonces
el estimador o
ptimo, [k] se puede obtener a traves de

[k]
[k]T P[k 1]
P[k 1]
[k]
1 + [k]T P[k 1]
[k](y[k] [k][k]) = P[k]
[k]e[k]
[k] = [k 1] + P[k]

P[k] = P[k 1]

5 Cuya

deducci
on escapa al marco de este texto.

(12.65)
(12.66)

predicci
on!error de
gradiente

CAPITULO 12. MODELOS

336
Demostraci
on

Definamos previamente la matriz P[k] Rpp de la forma


P[k] =

"

k
X

[`]
[`]

`=1

#1

(12.67)

y la matriz
Q[k] = P[k]1 =

k
X
`=1

[`]T = Q[k 1] + [k]


[k]T
[`]

(12.68)

entonces podemos aplicar el lema de inversi


on de matrices para obtener P[k](=
Q[k]1 ) en funci
on de P[k 1](= Q[k 1]1 ), lo cual lleva a (12.65).
Por otro lado, al usar (12.63) se tiene que

P[k]1[k] =

k
X

[`]y[`]

(12.69)

[`]y[`]

(12.70)

`=1

P[k 1]1[k 1] =

k1
X
`=1

lo cual lleva a
[`]y[`]
[k] = P[k]P[k 1]1[k 1] + P[k]

(12.71)

de donde, al usar (12.65), se obtiene (12.66).


222
El Teorema 12.2 establece un procedimiento a traves del cual la estimacion
de los parametros del modelo se va obteniendo a medida que se dispone de nueva
informacion.

12.5.

Modelado de sistemas de tiempo discreto.


Modelos lineales.

La teora desarrollada en la seccion precedente se aplica a cualquier clase de


modelos M, con la u
nica condicion que los miembros de esa clase sean lineales
en el vector de parametros, es decir, tengan la forma (12.56). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en
el Ejemplo 12.4. Sin embargo, en esta seccion enfocaremos nuestra atencion en
modelos dinamicos lineales de tiempo discreto. Con este objetivo definiremos la
clase M por la ecuacion diferencial (4.1), la que reproducimos a continuacion
(reemplazando y[k] por ym [k]).

12.5. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. MODELOS LINEALES.337

ym [k] + an1 ym [k 1] + . . . + a1 ym [k n + 1] + a0 ym [k n] =
bm u[k] + bm1 u[k 1] + . . . + b1 u[k m + 1] + b0 u[k m]

(12.72)

Antes de desarrollar la metodologa general, examinaremos un ejemplo muy


simple, para adquirir perspectiva
Ejemplo 12.5. La clase M es elegida como en (12.72), con n = 1, es decir
ym [k] + a0 ym [k 1] = b0 u[k]

(12.73)

La primera opci
on para contruir la forma (12.56) en este caso es (note la
sustituci
on de ym [k] por y[k] en el vector [k])

T
[k] = u[k] ym [k 1]

T
= b0 a 0

(12.74)
(12.75)

A diferencia del caso de tiempo continuo, esta forma de selecci


on del vector
on anterior puede ser
de regresi
on [k] es razonable y la metodologa de la secci
aplicada sin mayores dificultades.
222
El Ejemplo 12.5 permite inducir una metodologa general, ya que podemos
expresar la ecuacion (12.72) como
ym [k] = [k]T [k]

[k] = u[k] u[k 1]

[k] = bm

bm1

...

(12.76)
. . . u[k m]
b0

an1

ym [k 1]
an2

...

a0

ym [k 2]


...

ym [k n]
(12.77)
(12.78)

338

CAPITULO 12. MODELOS

serie de Taylor
Taylor

Ap
endice A

Series de Taylor
A.1.

Serie de Taylor en una variable

Considere una funcion g(x), donde x R y sea xQ un valor arbitrario en R,


tal que g(x) es continua en x = xQ .
Suponga ademas que g(x) es infinitamente diferenciable en x = xQ , es decir,
todas las derivadas de g(x) en x = xQ son continuas.
Entonces la funcion g(x) se puede expandir en serie de potencias de (xx Q ),
es decir, admite la siguiente representacion en una serie de Taylor



d x
1 d 2 x
1 d 3 x
2
g(x) = g(xQ ) +
(x xQ ) +
(x xQ ) +
(x xQ )3 + . . .
dt Q
2! dt 2 Q
3! dt 3 Q
(A.1)

X
i=0


1 d i x
(x xQ )i
i! dt i Q

(A.2)

n
donde ddt nx Q denota la derivada n-esima de g respecto de x y evaluada en
x = xQ .
A partir de esta expansion, podemos construir aproximaciones de primer,
segundo, tercer orden, etc. truncando la serie despues de la potencia de primer,
segundo, tercer grado, etc., respectivamente. Por ejemplo, la aproximacion de
primer orden es

d g
(A.3)
g1 (x) = k0 + k1 (x xQ );
k0 = g(xQ ); k1 =
dx Q

Esta aproximacion de primer orden se puede apreciar graficamente, como se


muestra en la Figura A.1.

dg
En esta figura m = k1 = dx
. Se observa que, en la medida que nos
Q

alejamos del punto de operacion, el error de modelado lineal aumenta.


339


APENDICE
A. SERIES DE TAYLOR

340

g(x)

g1 (x)
m

g(xQ )

xQ

Figura A.1: Aproximacion de primer orden para funcion no lineal de una variable.

A.2.

Serie de Taylor en dos variables

La misma idea resumida en la seccion anterior se puede extender al caso de


una funcion g(x1 , x2 ), con x1 R, x2 R.

Sea (x1Q , x2Q ) un par arbitrario tal que g(x1 , x2 ) es continua e infinitamente
diferenciable en x1 = x1Q , x2 = x2Q . Entonces g puede expandirse en serie de
potencias de (x1 x1Q ) y (x2 x1Q )




g
g
1 2 g
g(x1Q , yQ ) +
(x1 x1Q )2 +
(x1 x1Q ) +
(x2 x2Q ) +
x1 Q
x2 Q
2 x21 Q


2 f
1 2 g
2
(x1 x1Q )(x2 x2Q ) + . . . (A.4)
(x

x
)
+
2
2Q
2 x2
x1 x2
2 Q

donde el termino general de la expansion es



1 i+j g
(x1 x1Q )i (x2 x2Q )j
i!j! xi1 xj2
Q

(A.5)

En forma analoga al caso de una variable, podemos truncar esta serie para
tener aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la
aproximacion de primer orden esta dada por

A.3. EL CASO GENERAL

341

g1 (x1 , x2 ) = k0 + k11 (x1 x1Q ) + k12 (x2 x2Q )

A.3.

k0 = g(x1Q , x2Q )

d g
k11 =
dx1 Q

d g
k12 =
dx2 Q

(A.6)
(A.7)
(A.8)
(A.9)

El caso general

La idea desarrollada en las dos secciones anteriores se puede generalizar al


caso de una funcion g(x1 , x2 , . . . , xn ) con x1 R, x2 R, . . ., xn R.
Sea (x1Q , x2Q , . . . , xnQ ) una n-tupla tal que g(x1 , x2 , . . . , xn ) es continua e
infinitamente diferenciable en x1 = x1Q , x2 = x2Q , . . ., xn = xnQ . Entonces la
expansion en serie de Taylor esta dada por

g(x1 , x2 , . . . , xn ) = g(x1Q , x2Q , . . . , xnQ )

X
ni g
1

i1 ,i2 ,...,in



(x1 x1Q )i1 (x2 x2Q )i2 . . . (xn xnQ )in
i
i
i
1x 2x nx
i
!i
!

i
!

n
1
2
n Q
=0 1 2

(A.10)

donde ni = i1 + i2 + . . . + in .
La aproximacion de primer orden, por truncamiento de la serie es entonces

g1 (x1 , x2 , . . . , xn ) = k0 +

n
X
i=1

k1i (xi xiQ )

k0 = g(x1Q , x2Q , . . . , xnQ )



d g
k1i =
dxi

(A.11)
(A.12)
(A.13)

(A.14)

Es importante se
nalar que los desarrollos precedentes siguen siendo validos
aunque las variable x1 , x2 , . . ., xn sean funciones de una variable temporal u
otra variable independiente.

A.4.

Algunas reglas pr
acticas para la expansi
on
en serie

La teora general precedente permite construir algunas reglas basicas para


expandir funciones complicadas en serie de potencias.


APENDICE
A. SERIES DE TAYLOR

342

R1 Considere las funciones no lineales g(x) y h(x) y un punto de operacion


com
un dado por xQ , entonces las aproximaciones de primer orden para
las funciones que se indican son

d g(x)
(x xQ )
dx Q

d h(x)

(x xQ )
[R1,2]
h1 (x) = h(xQ ) +
dx Q

!
d g(x)
d h(x)
\
[R1,3]g(x) + h(x)1 = g(xQ ) + h(xQ ) +
(x xQ )
+
dx Q
dx Q

!


d
h(x)
d
g(x)
\ = g(xQ )h(xQ ) + h(xQ )
+ g(xQ )

(x xQ )
[R1,4] g(x)h(x)
1

dx Q
dx Q

[R1,1]

g1 (x) = g(xQ ) +

R2 La aproximacion de primer orden de g(x) =


operacion x = xQ , g(xQ ) = 0 es
g1 (x) =

d ` x(t)
dt `

d ` (x(t) xQ )
dt `

en torno al punto de

(A.15)

ik
h `
R3 La aproximacion de primer orden de g(x) = d dtx(t)
, k > 1 en torno al
`
ik1
h `
= 0 es
punto de operacion x = xQ , d dtx(t)
`
g1 (x) = 0

(A.16)

Ap
endice B

Bases matem
aticas para las
Series de Fourier
B.1.

Espacios vectoriales y bases ortogonales

En esta seccion se revisan los conceptos basicos de los espacios vectoriales,


incluyendo definiciones y propiedades. Se introducen ademas las ideas de ortogonalidad y bases, ideas matematicas abstractas de mucha utilidad para fundamentar el analisis mediante series de Fourier y otros topicos dentro de la teora
de sistemas como es, por ejemplo, la construccion de modelos y la estimacion
de se
nales utilizando el enfoque de mnimos cuadrados.

Definici
on B.1. Un espacio vectorial V es un conjunto de objetos ~v 1 , ~v2 , . . .
, llamados vectores, donde se definen dos operaciones: suma de dos vectores,
y multiplicaci
on por un escalar y que satisfacen las siguientes propiedades:
1.

Si ~vi V y ~vj V, entonces ~vi + ~vj V

2.

Si ~vi V y ~vj V, entonces ~vi + ~vj = ~vj + ~vi

3.

Si ~vi , ~vj , ~vk son vectores cualesquiera de V, entonces ~vi + (~vj + ~vk ) =
(~vi + ~vj ) + ~vk

4.

Existe un vector ~0 V, tal que para todo ~vi V se cumple ~vi + ~0 = ~vi

5.

Para cada ~vi V existe un vector ~vi V, tal que ~vi + (~vi ) = ~0

6.

Si ~vi V y es un escalar, entonces ~vi V

7.

Si ~vi y ~vj est


an en V y es un escalar, entonces (~vi + ~vj ) = ~vi + ~vj

8.

Si y son escalares y ~vi V, entonces ( + )~vi = ~vi + ~vi


343

344APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
9.

Si y son escalares y ~vi V, entonces (~vi ) = ()~vi

10.

Existe el escalar 1 tal que 1~vi = ~vi , para todo ~vi V

Existe un sinn
umero de conjuntos de elementos que son ejemplo de espacios vectoriales, de entre los cuales se deja al lector verificar que los siguientes
cumplen las propiedades recien enumeradas:
El espacio Rn en que los escalares son n
umeros reales,
El espacio Cn en que los escalares pueden ser n
umeros reales o bien complejos,
El conjunto de funciones reales seccionalmente continuas1 en un intervalo
[a, b], en que los escalares son n
umeros reales.

Definici
on B.2. Dado un conjunto de vectores G = {~v1 , . . . , ~vn } V, diremos
que el espacio generado por G, es el conjunto de todos los vectores de la
forma:
~v = 1~v1 + . . . + n~vn
Es decir, ~v es una combinaci
on lineal de ~v1 , . . . , ~vn .
Se deja al lector probar que el subespacio generado por el subconjunto de
vectores G V tambien cumple las propiedades de un espacio vectorial.
Definici
on B.3. Un conjunto de vectores ~v1 , . . . , ~vn se dice linealmente independiente, si la ecuaci
on:
1~v1 + . . . + n~vn = 0
se cumple s
olo para los escalares 1 = 2 = . . . = n = 0. En caso contrario
se dice que los vectores son linealmente dependientes.
La independencia lineal en un conjunto de vectores es una propiedad muy
importante pues nos permite afirmar que ninguno de los vectores del conjunto puede expresarse como una combinacion lineal de los demas vectores. Esta
demostracion se deja al lector.
Definici
on B.4. Dado un espacio vectorial V, diremos que un conjunto de
vectores B = {~v1 , . . . , ~vn } es base de V si:
1.
1 Es

{~v1 , . . . , ~vn } es linealmente independiente, y


decir, que poseen a lo m
as un n
umero finito de puntos de discontinuidad.

B.1. ESPACIOS VECTORIALES Y BASES ORTOGONALES


2.

345

{~v1 , . . . , ~vn } genera todo el espacio V.

En este caso diremos que el espacio vectorial V tiene dimensi


on igual a
n. Por ejemplo, el espacio de vectores en el plano tiene dimension n = 2, en
el espacio n = 3, mientras que existen otros espacios como por ejemplo el de
funciones que pueden tener dimension infinita.
Definici
on B.5. Dados dos vectores cualesquiera ~vi y ~vj en un espacio vectorial
V con escalares en C, entonces diremos que h~vi , ~vj i es un producto interno,
producto escalar o producto punto si cumple las siguientes propiedades:
1.

h~vi , ~vj i es un escalar

2.

h~vi , ~vj + ~vk i = h~vi , ~vj i + h~vi , ~vk i

3.

h~vi , ~vi i > 0 si ~vi 6= ~0

4.

h~vi , ~vj i = h~vj , ~vi i , en que () denota el complejo conjugado de ()


Este producto ademas induce una norma en el espacio vectorial V:
p
~vi = h~vi , ~vi i

Recordamos que una norma se define como sigue:



Definici
on B.6. Una norma en un espacio vectorial es una funci
on que
va del espacio V a R que cumple con :


1. ~vi 0 y ~vi = 0 si y s
olo si ~vi = ~0


2. ~vi = || ~vi en que || es el valor absoluto o m
odulo del escalar


3. ~vi + ~vj ~vi + ~vi ( desigualdad triangular) .

Con la norma inducida de esta forma con el producto interno en el espacio


vectorial podemos introducir la idea de distancia entre dos vectores:


d(~vi , ~vj ) = ~vi ~vj
Definici
on B.7. Un espacio vectorial donde se ha definido una norma, es decir,
se tiene una medida de distancia y longitud se denomina espacio euclideano
Ademas puede definirse el coseno del
angulo entre dos vectores como
h~vi , ~vj i

cos (~vi , ~vj ) =
~vi ~vj

norma
norma inducida
desigualdad triangular
distancia
\angulo entre vectores

346APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
Definici
on B.8. De la definici
on del a
ngulo entre dos vectores es claro que
podemos decir que dos vectores son ortogonales bajo el producto interno h, i,
si este producto es igual a cero. Es decir:
~vi ~vj h~vi , ~vj i = 0
Lema B.1. Supongamos un espacio vectorial V de dimension n, en que se tiene
una base de vectores:
B = {~v1 , ~v2 , . . . , ~vn }

(B.1)

Si los vectores de la base B son ortogonales entre si bajo un producto interno h, i, es decir:
(
0
; si i 6= j
(B.2)
h~vi , ~vj i =
> 0 ; si i = j
Entonces, un vector arbitrario ~u V se representa como una combinaci
on
lineal de los vectores de la base B de la forma:
~u = 1~v1 + 2~v2 + . . . + n~vn

(B.3)

en que cada coeficiente se calcula:


i =

h~vi , ~ui
h~vi , ~vi i

(B.4)

Demostraci
on
La representacion (B.3) se deduce de inmediato del hecho de tener un conjunto de n vectores linealmente independientes en un espacio vectorial V de
dimension n. Lo central que nos ata
ne en este caso es el calculo de los coeficientes (B.4).
Tomemos la ecuacion (B.3), y apliquemosle producto interno con alguno de
los vectores de la base (B.1):
h~vi , ~ui = h~vi , 1~v1 + 2~v2 + . . . + n~vn i

(B.5)

Si aplicamos la linealidad del producto interno


h~vi , ~ui = 1 h~vi , ~v1 i + 2 h~vi , ~v2 i + . . . + n h~vi , ~vn i

(B.6)

Y dada la ortogonalidad del conjunto B, los productos de la derecha son cero a


excepcion del que coinciden los ndices i :
h~u, ~vi i = i h~vi , ~vi i

(B.7)

B.2. CONVERGENCIA DE LAS SERIES DE FOURIER


De donde se demuestra el resultado (B.4).

347
222

Lema B.2. Desigualdad de Cauchy-Schwartz


Si vi y vj son dos vectores arbitrarios en un espacio euclideano, es decir, un
espacio vectorial con norma inducida por un producto interno, entonces
hvi , vj i2 hvi , vi i hvj , vj i

(B.8)

Demostraci
on
Primero se observa que esta desigualdad es inmediata si cualquiera de los
vectores, vi o vj , es el vector cero. As es suficiente considerar el caso en ambos
son no nulos.
Consideremos un vector (vi vj ), cuya norma es no negativa
0 h(vi vj ), (vi vj )i
2

(B.9)
2

= hvi , vi i 2hvi , vj i + hvj , vj i

(B.10)

De donde
2hvi , vj i 2 hvi , vi i + 2 hvj , vj i
p
p
Ahora, si tomamos = hvj , vj i y = hvi , vi i entonces

2 hvj , vj i hvi , vi ihvi , vj i 2hvi , vi ihvj , vj i

hvi , vj i hvj , vj i hvi , vi i

(B.11)

(B.12)
(B.13)

Donde elevando al cuadrado se tiene la desigualdad a demostrar.


222

B.2.

Convergencia de las Series de Fourier

B.2.1.

Convergencia de sucesiones y series

A continuacion se hace un breve repaso sobre convergencia de sucesiones y


series de funciones.
Definici
on B.9. Se dice que una sucesi
on de funciones {fk (x)} de funciones,
cada una definida en un intervalo I = [a, b], converge (puntualmente) en I, si
lm fk (x0 )

existe x0 I

(B.14)

348APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
Definici
on B.10. Se dice que una sucesi
on {fk (x)} de funciones, definidas en
un intervalo I = [a, b], converge uniformemente a una funci
on f (x) en el
intervalo I si
> 0 K > 0

tal que

k > K |f (x) fk (x)| <

a x b (B.15)

Estas dos definiciones sobre la convergencia de sucesiones son aplicables totalmente a series de funciones, ya que estas u
ltimas no son mas que sucesiones
de sumas parciales. Es decir, si se tiene una serie de funciones de la forma

S(x) =

fn (x)

(B.16)

n=1

Sus propiedades de convergencia estan dadas por la convergencia de la sucesion {Sk (x)}, que es la suma parcial k-esima
Sk (x) =

k
X

fn (x)

(B.17)

n=1

Definici
on B.11. Se dice que una serie de funciones

S(x) =

fn (x)

(B.18)

n=1

converge absolutamente si la serie de los valores absolutos de su termino


general converge, es decir, si

n=1

|fn (x)|

(B.19)

converge. Note que por comparaci


on de los terminos generales, si una serie
converge absolutamente, entonces tambien converge en el sentido usual 2
Lema B.3. M -Test de Weiertrass
Si tenemos una serie convergente de n
umeros reales positivos

Mk

(B.20)

k=1

Y una serie de funciones en un intervalo I = [a, b]

fk (x)

k=1
2 Sentido

usual significa que la serie (B.18) converge

(B.21)

B.2. CONVERGENCIA DE LAS SERIES DE FOURIER

349

Tales que
|fk (x)| Mk

(B.22)

Para cada k y para cada x I , entonces la serie de funciones


converge uniforme y absolutamente en el intervalo I.

k=1

fk (x)

Demostraci
on
Por comparacion entre los terminos de la serie numerica y la de funciones, se
sigue que para cada x0 en el intervalo I, la serie converge absolutamente. As la
serie converge puntualmente a una funcion lmite f (x) en a x b. Ahora



n

X

X



fk (x)
fk (x) =
f (x)



k=1

(B.23)

k=n+1

k=n+1

|fk (x)|

(B.24)

Mk

(B.25)

k=n+1

X
k=1

Mk

n
X

Mk

(B.26)

k=1

Donde en el lado derecho la expresion tiende a cero cuando n . Ya que


esta convergencia no depende del x que se elija en I, es uniforme.

B.2.2.

Convergencia de las Series de Fourier

Para estudiar la convergencia de la serie de Fourier de una funcion, a continuacion se desarrollan algunos lemas que permiten determinar que la norma
del vector de error en (t) = y(t) yn (t) tiende asintoticamente a cero, cuando
n .
Lema B.4. Desigualdad de Parseval
Si y(t) es una funci
on per
odica y A0 , A1 , ...An y B1 , ...Bn son (algunos de
los) coeficientes de su representaci
on en serie de Fourier entonces
1
T

T
2

T2

y 2 (t)dt A20 +


1X 2
Ak + Bk2
2

(B.27)

k=1

Demostraci
on
La norma al cuadrado del error que se comete, que se representa en la figura
5.8 a la derecha, es:

350APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER



en (t) 2 = hen (t), en (t)i

(B.28)

= hen (t), y(t) yn (t)i


= hen (t), y(t)i hen (t), yn (t)i

(B.29)
(B.30)

Pero seg
un (5.37) el segundo termino es cero, y usando (5.38)


en (t) 2 = hen (t), y(t)i
= hy(t), y(t)i hyn (t), y(t)i
* n
+
X

2


= y(t)
k fk (t), y(t)

2
= y(t)

(B.31)
(B.32)
(B.33)

k=1
n
X

k=1

k hfk (t), y(t)i

(B.34)

que puede reescribirse como

n
X





2
en (t) 2 = y(t) 2
k2 fk (t)

(B.35)

k=1

Si recordamos que la norma siempre es positiva o cero y se expresa mediante


integrales, y si calculamos la norma cuadratica de cada fk (t) de la base (5.23)
obtenemos
Z

T
2

T2

e2n (t)dt =

T
2

T2

"

y 2 (t)dt A20 T +

n 
X

k=1

T
T
A2k + Bk2
2
2

#

0 (B.36)

Con esto se obtiene la desigualdad de Parseval:


1
T

T
2

T2

y 2 (t)dt A20 +


1X 2
Ak + Bk2
2

(B.37)

k=1

222

Corollario B.1. De la ecuaci


on (B.27), se deduce adem
as que
2
k T

lm Ak = lm

2
lm Bk = lm
k
k T

Z
Z

T
2

T2

y(t) cos(k0 t)dt = 0

(B.38)

y(t) sen(k0 t)dt = 0

(B.39)

T
2

T2

B.2. CONVERGENCIA DE LAS SERIES DE FOURIER

351

Demostraci
on
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo
existe, entonces la serie del lado derecho, cuyo termino general es no-negativo,
esta acotada superiormente. Esto permite afirmar que converge, lo que a su
vez implica que el termino general se hace cero cuando n , por tanto, los
coeficientes Ak y Bk se hacen cero cuando k .
222
Lema B.5. La aproximaci
on o serie de Fourier truncada yn (t) de una funci
on
peri
odica y(t) de perodo T , puede escribirse como
2
yn (t) =
T

T
2

y(t + s)
T2

Demostraci
on

sen(0 (n + 12 )s)
 ds
2 sen 20 s

; 0 =

2
T

(B.40)

La aproximacion n-esima puede escribirse utilizando las ecuaciones (5.27)


n
X

yn (t) = A0 +

[Ak cos(k0 t) + Bk sen(k0 t)]

(B.41)

k=1

1
T
+

T
2

y( )d

n
X

k=1

2
T

2
T

(B.42)

T2

"

2
cos(k0 t)
T

T
2

y( )
T2
T
2

y( )
T2

"
"

1
+
2
1
+
2

T
2

2
y( ) cos(k0 )d + sen(k0 t)
T
T
2

n
X

k=1
n
X

k=1

T
2

T2

y( ) sen(k0 )d
(B.43)
#

{cos(k0 t) cos(k0 ) + sen(k0 t) sen(k0 )} d

(B.44)
#

cos(k0 ( t)) d

(B.45)

Pero se puede utilizar la siguiente identidad trigonometrica








 s
1
1
0
0 s sen
k
0 s = 2 sen
cos (k0 s) (B.46)
sen
k+
2
2
2
Y si se hace la suma desde 1 hasta n, obtenemos

sen



n+

1
2


n
 s
 s X
0
0
0 s sen
= 2 sen
cos (k0 s)
2
2
k=1

(B.47)

352APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
O bien,


n
sen n + 12 0 s
1 X

cos (k0 s) =
+
2
2 sen 12 0 s
k=1

(B.48)

Reemplazando en la integral se obtiene


2
yn (t) =
T

T
2

y( )

sen

T2



n + 12 0 ( t)

d
2 sen 20 ( t)

(B.49)

Si se considera t fijo y se hace el cambio s = t se obtiene


2
yn (t) =
T

T
2

y(t + s)

T2 t

sen



n + 12 0 s

ds
2 sen 20 s

(B.50)

En esta expresion, si la funcion y(t) tiene perodo T , entonces puede probarse


que la funcion en el integrando tambien es periodica en s, con perodo T . Esto
se deja como ejercicio al lector. Por lo tanto la integral puede calcularse en
cualquier intervalo de longitud T , en particular, en [ T2 , T2 ].
222
Lema B.6. Convergencia puntual.
Supongamos que y(t) es una funci
on peri
odica en (, ), de perodo T ,
entonces para cada t0 se cumple que
lm yn (t0 ) =

y(t+
0 ) + y(t0 )
2

(B.51)

En que y(t+
mites por la derecha y por la izquierda de y(t)
0 ) e y(t0 ) son los l
en t0 .

Demostraci
on
Primero, y como resultado previo, observemos que si integramos a ambos
lados de la ecuacion (B.48), obtenemos


Z T2
sen n + 12 0 s
T

(B.52)
=
1
T
2
2
sen

s
2
2 0
Ahora definamos la funcion

g(t) =

y(t+ ) + y(t )
2

(B.53)

Esta coincide con y(t) solo en sus puntos de continuidad y ademas hereda
su periodicidad. Podemos observar tambien que si t0 es una discontinuidad de
y(t), lo es tambien de g(t) y

B.2. CONVERGENCIA DE LAS SERIES DE FOURIER

353

y(t+
g(t+
0 ) + y(t0 )
0 ) + g(t0 )
=
2
2

(B.54)

g(t0 ) =

Consideremos lo que sucede con el error en (t0 ), entre g(t) y su representacion


en serie de Fourier, a medida que n tiende a infinito. Si usamos la igualdad recien
mencionada y la expresion (B.40) para la n-esima suma parcial, el error puede
escribirse

en (t0 ) = g(t0 ) gn (t0 )


(B.55)
Z T2
Z T2
1
1
sen(0 (n + 2 )s)
sen(0 (n + 2 )s)
2
2
 ds
 ds
g(t0 )
g(t0 + s)
=

0
T T2
T T2
2 sen 2 s
2 sen 20 s
(B.56)
Z T2
sen(0 (n + 12 )s)
2
 ds
=
[g(t0 ) g(t0 + s)]
(B.57)
T T2
2 sen 20 s
#
 
 
Z T2 "
1
2
g(t0 ) g(t0 + s)
1
2 0 s 
s ds
=
sen 0 n +
1
T T2
2
sen 21 0 s
2 0 s
(B.58)

La expresion entre corchetes dentro de la integral es seccionalmente continua


en el intervalo [ T2 , T2 ], siempre y cuando t0 sea un punto de continuidad de g(t),
lo que permite afirmar que el primer cuociente de la expresion entre corchetes
se transforma en la derivada cuando s 0. En estos puntos, usando la ecuacion
(B.39), se deduce que

lm en (t0 ) = 0

(B.59)

O, lo que es lo mismo,
lm gn (t0 ) = g(t0 ) =

g(t+
0 ) + g(t0 )
2

(B.60)

Ya que, en este caso t0 se ha supuesto un punto de continuidad, es decir,

g(t+
0 ) = g(t0 ) = g(t0 ).
En aquellos puntos (finitos) de discontinuidad de g(t), podemos definir la
funcion
G(t) = g(t + t0 ) g(t0 )
Si separamos esta funcion en sus partes par e impar

(B.61)

354APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER

G(t) + G(t)
2
g(t + t0 ) + g(t + t0 ) 2g(t0 )
=
2
G(t) G(t)
Gimpar (t) =
2
g(t + t0 ) g(t + t0 )
=
2
Gpar (t) =

(B.62)
(B.63)
(B.64)
(B.65)

La serie de Fourier de Gimpar (t) converge a cero en t = 0, pues es una


serie senoidal. Mientras que Gpar (t) es continua en t = 0 (cuya prueba se deja
al lector), por tanto su serie de Fourier converge a Gpar (0) = G(0). Con esto
podemos afirmar que la serie de Fourier de G(t) converge a cero en t = 0 y en
consecuencia
lm Gn (0) = 0 =
lm gn (t0 ) = g(t0 )
(B.66)
n

Es decir, la serie de Fourier de g(t) en t = t0 converge a g(t0 ), tambien en el


caso de los puntos de discontinuidad.
Ahora dada la definicion de g(t) en (B.53), su expresion en serie de Fourier
coincide con la de y(t), por tanto la convergencia puntual debe ser la misma.
En consecuencia, el lema queda demostrado.
222
Lema B.7. Convergencia uniforme
Supongamos que y(t) es una funci
on continua en (, ), de perodo T ,
cuya primera derivada y 0 (t) es seccionalmente continua. Entonces, su serie de
Fourier converge uniformemente a y(t) en cualquier intervalo [a, b]. Es decir,

> 0 N > 0

n > N |y(t) yn (t)| < t [a, b]

(B.67)

Demostraci
on
Sean
A0 +
A00 +

n=1

[An cos(n0 t) + Bn sen(n0 t)]

(B.68)

[A0n cos(n0 t) + Bn0 sen(n0 t)]

(B.69)

n=1

Las series de Fourier de y(t) e y 0 (t), respectivamente. Entonces, dada la


periodicidad de y(t), tenemos que

B.2. CONVERGENCIA DE LAS SERIES DE FOURIER

A00

1
=
T

T
2

y 0 (t)dt

355

(B.70)

T2

1
[y(T /2) y(T /2)]
T
=0
=

(B.71)
(B.72)

Mientras que para n > 0 tenemos

A0n =

2
T

T
2

T2

y 0 (t) cos(n0 t)dt

(B.73)

#
"
Z T2
T2
2

y(t) sen(n0 t)dt
y(t) cos(n0 t) T + n0
=
T
2
T2
Z T2
2
= n0
y(t) sen(n0 t)dt
T T2
= n0 Bn
Z T2
2
Bn0 =
y 0 (t) sen(n0 t)dt
T T2
#
"
Z T2
T2
2

y(t) cos(n0 t)dt
=
y(t) sen(n0 t) T n0
T
2
T2
Z T2
2
= n0
y(t) sen(n0 t)dt
T T2
= n0 An

(B.74)
(B.75)
(B.76)
(B.77)
(B.78)
(B.79)
(B.80)

Utilizando la desigualdad de Parseval (B.27), podemos afirmar que


2
q


 X
X
2
2
A0n + Bn0
n0 An 2 + Bn 2
(B.81)
=
n=1

n=1

T
2

T2

y 0 (t)2 dt <

(B.82)

p
Si se observa el termino general {n0 A2n + Bn2 } de la segunda serie, se
aprecia que pertenece al conjuto de todas las sucesiones cuadrado sumables,
al igual que la sucesion {1/(n0 )}. En ambas sucesiones n = 1, 2, . . . . En consecuencia el producto de estas sucesiones tambien es cuadrado sumable, por
tanto
 X
q
q

X
1
2
2
An 2 + B n 2
n0 An + Bn
=
n
0
n=1
n=1

(B.83)

356APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
Tambien converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.8)
|h(An , Bn ); (cos(n0 t), sen(n0 t))i| k(An , Bn )k k(cos(n0 t), sen(n0 t))k
(B.84)
q
p
An cos(n0 t) + Bn sen(n0 t) An 2 + Bn 2 cos2 (n0 t) + sen2 (n0 t)
(B.85)
q
(B.86)
= An 2 + B n 2
Con esto se puede comparar la serie
|A0 | +

n=1

|An cos(n0 t) + Bn sen(n0 t)|

(B.87)

con la serie convergente de constantes positivas


|A0 | +

q
X

An 2 + B n 2

(B.88)

n=1

el M -test de Weierstrass (vea el Lema B.3) asegura por tanto que


A0 +

[An cos(n0 t) + Bn sen(n0 t)]

(B.89)

n=1

converge uniformemente en cualquier intervalo cerrado. Pero, por el lema de


convergencia puntual antes visto, sabemos que esta serie converge a y(t) punto
a punto.
222
Con los resultados hasta aqu obtenidos estamos en condiciones ya de demostrar que la norma del error que se comete al representar en serie de Fourier
una funcion seccionalmente continua tiende asintoticamente a cero.
Lema B.8. Sea y(t) una funci
on definida en (, ), de periodo T , seccionalmente continua y con primera derivada seccionalmente continua. Entonces, si
yn (t) es la n-esima suma parcial de su representaci
on en serie de Fourier, la
norma del error en (t) = y(t) yn (t) es tal que
lm ken (t)k = 0

(B.90)

Demostraci
on
Es directa de (B.67), ya que si tomamos y(t) en el intervalo [ T2 , T2 ], y
denotamos por {t1 , t1 , . . . , tm } los puntos en que y(t) es discontinua dentro
de el, entonces, dado un > 0, para cada uno de los m + 1 subintervalos
( T2 , t1 ), . . . , (tk , tk+1 ), . . . , (tm , T2 ) existe una constante Nk tal que

B.2. CONVERGENCIA DE LAS SERIES DE FOURIER

357

n > Nk |y(t) yn (t)| <


|en (t)| < t (tk , tk+1 )

(B.91)
(B.92)

Si elegimos N = max{Nk }k=1,...,m+1 podemos asegurar que


n > N |en (t)| < t {[ T2 , T2 ] {t1 , . . . , tk+1 }}

(B.93)

Por tanto

ken (t)k2 =
=

T
2

T2
t1
T2

en 2 (t)dt

(B.94)

en 2 (t)dt + . . . +

tk+1

en 2 (t)dt + . . . +

tk

T
2

en 2 (t)2 dt (B.95)

tm

< 2 (t1 ( T2 )) + . . . + 2 (tk+1 tk ) + . . . + 2 ( T2 tm ) = 2 T


(B.96)
Con esto podemos afirmar, que dado un peque
nosiempre es posible escoger
N suficientemente grando de manera que |en (t)| < T , y por tanto converge
a cero.
222
Corollario B.2. Identidad de Parseval
Si y(t) es una funci
on per
odica y A0 , A1 , ...An y B1 , ...Bn son los coeficientes de su representaci
on en serie de Fourier, entonces
1
T

T
2

T2

y 2 (t)dt = A20 +


1X 2
Ak + Bk2
2

(B.97)

k=1

Demostraci
on
Es directa de la ecuacion (B.36), donde como consecuencia del lema anterior
(B.90), la norma del error, ademas de ser positiva, tiende asintoticamente a cero.
Por tanto la desigualdad (B.27) se transforma en la identidad (B.97).

La serie de Fourier es solo una representacion de la funcion y(t), en el sentido


que converge al mismo valor que y(t) en los puntos que esta funcion es
continua, y en aquellos en que hay discontinuidades o saltos, la serie converge
al promedio de los lmites laterales. Note que estas diferencias entre la se
nal
y su representacion en serie de Fourier no son detectadas por la funcion de
error minimizada, la cual puede de todos modos alcanzar el valor mnimo
(cero).

358APENDICE
B. BASES MATEMATICAS
PARA LAS SERIES DE FOURIER

transformada de Fourier
transformada de Fourier inversa

Ap
endice C

La transformaci
on de
Fourier
C.1.

Transformaci
on de Fourier en tiempo continuo

C.1.1.

Definici
on de la Transformada

Dada una funcion y(t) en el intervalo ] , [ , su transformada de


Fourier Y ( ) y su transformada de Fourier inversa quedan definidas por las
ecuaciones

F [y(t)] = Y ( ) =
F 1 [Y ( )] = y(t) =

y(t)e t dt

(C.1)

1
2

Y ( )e t d

(C.2)

Para que la transformada exista es suficiente que la funcion y(t) sea absolutamente integrable en el intervalo < t < , es decir:
Z



y(t) dt <

Existen funciones que a pesar de no cumplir con esta condicion, es posible


calcular su transformada de Fourier.
Veamos a manera de ejemplo como se puede obtener la transformada de
Fourier del delta de Dirac, a partir de la transformada de un pulso como el del
ejemplo 6.1 (pag. 121).
359


DE FOURIER
APENDICE
C. LA TRANSFORMACION

360

Ejemplo C.1. Consideremos un pulso centrado en el cero, de ancho y altura


1/, es decir, una funci
on

1
y (t) =
0

; |t| /2

; |t| > /2

Esta funci
on est
abien definida t ] , [, y el a
rea del pulso es unitaria
> 0. Su transformada de Fourier por tanto puede obtenerse, en base al
ejemplo 6.1 ya mencionado, o por la definici
on (C.1) ser
a
Z

/2

1 t
e
dt

1 
2 e 2
=
e


sen
2
=

Y ( ) =

/2

Puede apreciarse que a medida que 0, la funci


on se transforma en
un pulso mas alto y angosto, siendo esta funci
on una de las aproximaciones
asint
oticas del Delta de Dirac, pues es cero en todo instante, excepto t = 0, y
su integral es unitaria. En tanto, su trasnformada de Fourier se hace cada vez
m
as plana. Estas ideas se pueden apreciar en la figura C.1.
16

14

0.8
12

0.6

10

0.4

0.2
4

0.8 0.6 0.4 0.2 0

40

0.2

0.4

(a) Pulso y (t)

0.6

0.8

30

20

10

10

20
w

0.2

(b) Espectro Y ( )

1
Figura C.1: Pulso y su transformada para = 1, 41 , 16
.

Analticamente tenemos que en el lmite, cuando 0 :

30

40

DE FOURIER EN TIEMPO CONTINUO


C.1. TRANSFORMACION

y (t)

Y ( ) =

C.1.2.

sen(
2 )

361

(t)

Y ( ) = 1

Propiedades de la Transformada de Fourier

Existen diversas propiedades de la transformada de Fourier que resultan de


mucha utilidad en el analisis frecuencial de se
nales y su relacion con los sistemas
lineales, que ademas permiten ontener la transformada de Fourier de una funcion
a partir de algunas mas basicas.
Lema C.1. Simetra.
Sea y(t) una funci
on definida t, cuya transformada de Fourier es Y ( ),
entonces si consideramos la funci
on Y (t), en el dominio del tiempo ahora, su
transformada de Fourier es
F{Y (t)} = 2y( )

(C.3)

Demostraci
on
Es directa de reemplazar Y (t) en la definici
on de la transformada y recordando la ecuaci
on que define a y(t) como transformada inversa de Y ( )
Z

Y (t)e t dt

Z
1
Y (t)ejt() dt
= 2
2

F{Y (t)} =

= 2y( )

222
Ejemplo C.2. Consideremos una funci
on constante y(t) = C. Esta funci
on
no es absolutamente integrable, sin embargo, su transformada de Fourier puede
obtenerse en base a la transformada del Delta de Dirac:
F {y(t)} = F {C}

= C F {1}
= C 2()
= C 2()

Veamos ahora como se ve afectada la transformada de Fourier de una se


nal
cuando esta es desplazada en el tiempo, que puede ser el caso en que existe, por
ejemplo, retardo.


DE FOURIER
APENDICE
C. LA TRANSFORMACION

362
Desplazamiento en el tiempo
Desplazamiento en frecuencia

Lema C.2. Desplazamiento en el tiempo.


Si tenemos una funci
on y(t) definida para < t < , cuya transformada
de Fourier es Y ( ), entonces la transformada de Fourier de y(t t0 ) es
F{y(t t0 )} = e t0 Y ( )

(C.4)

Demostraci
on
Aplicando la definici
on de la Transformada de Fourier, para la funci
on y(t)
desplazada en el tiempo, tenemos que
Z

y(t t0 )e t dt
Z
t0
=e
y(t t0 )e (tt0 ) dt

F{y(t t0 )} =

Donde si se define t = t t0 se puede reescribir la integral como


F{y(t t0 )} = e t0

y(t )e t dt

= e t0 Y ( )
222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso
de amplitud A no est
a centrado en el origen, sino que se ha desplazado a la
derecha, ubic
andose en el intervalo [0, ] su transformada de Fourier ser
a

sen

2
F{y[0, ] (t)} = ejw 2 A

Si analizamos en que cambia realmente la transformada de Fourier del pulso


al desplazarlo en el tiempo, podemos apreciar que solo el angulo de Y ( ) es el
que se ve afectado, ya que su modulo permanece invariante. Esto era esperable
ya que la ubicacion del instante t = 0, cuando estamos considerando una funcion
definida para < t < , es arbitraria afectando solo las fases relativas de
sus componentes en frecuencia.
Veamos que pasa en la contraparte del lema de desplazamiento en el tiempo,
pero en el dominio de la frecuencia .
Lema C.3. Desplazamiento en la frecuencia.
Si tenemos, al igual que antes, una funci
on y(t) definida en toda la recta
real, es decir, para < t < , cuya transformada de Fourier es Y ( ),
entonces
F{eat y(t)} = Y ( a)

;a C

(C.5)

DE FOURIER EN TIEMPO CONTINUO


C.1. TRANSFORMACION

363

Demostraci
on
Si aplicamos la definici
on de la transformada a la funci
on y(t) multiplicada
por la exponencial peri
odica e 0 t tenemos que
Z

at

F{e y(t)} =

eat y(t)e t dt
y(t)e( a)t dt

En que se puede definir = a


Z

F{eat y(t)} =

y(t)e t dt

= Y ( )
= Y ( a)
222
Ejemplo C.4. Con este lema podemos obtener la transformada de Fourier de
una exponencial peri
odica, considerando en la ecuaci
on (C.5) a = 0 :
 0 t
 0 t
=F e
1
F e
= 2( 0 )
= 2( 0 )

Ya que el delta de Dirac es diferente de cero s


olo en el punto en que su
argumento es igual a cero.
A partir de esta transformada, utilizando la ecuaci
on de Euler, se pueden
obtener sin problema la del coseno y del seno:



e 0 t + e 0 t
F {cos(0 t)} = F
2





1
F e 0 t + F e 0 t
=
2
= [( + 0 ) + ( 0 )]



e 0 t e 0 t
2j
 0 t


j 
=
F e
+ F e 0 t
2
= j [( + 0 ) ( 0 )]

F {sin(0 t)} = F


DE FOURIER
APENDICE
C. LA TRANSFORMACION

364

Este lema tiene importantes aplicaciones en el analisis de se


nales que se
modulan en frecuencia y aquellas que son periodicas, como puede apreciarse en
los siguientes corolarios.
Corollario C.1. Modulaci
on.
Si tenemos una se
nal y(t) definida para todo t R, cuyo espectro (transformada de Fourier) es Y ( ), entonces
F{cos(0 t)y(t)} =

1
[Y ( 0 ) + Y ( + 0 )]
2

(C.6)

Demostraci
on
Esta es directa del lema anterior utilizando la ecuaci
on de Euler, es decir,
escribiendo cos(0 t) con exponenciales peri
odicas. Esto es

F{cos(0 t)y(t)} = F

1 0 t
(e
+ e 0 t )y(t)
2


1
F{e 0 t y(t)} + F{e 0 t y(t)}
2
1
= (Y ( 0 ) + Y ( + 0 ))
2

222
Se deja al lector la demostracion del corolario que se obtiene por analoga
en el caso que en vez de cos(0 t) se utiliza sen(0 t).
Ejemplo C.5. En ambos casos de modulaci
on planteados, cosenoidal y senoidal,
al hacer el producto de una se
nal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la se
nal. Esto permite llevar, por ejemplo, se
nales
de contenido de baja frecuencia (como la voz humana, en la banda de 04[kHz]),
a bandas de frecuencia para transmisi
on radial (por ejemplo 1[MHz]).
Esta idea se muestra en la figura C.2
|F {y(t)}|

4[kHz]

|F {y(t)cos(2106 t)}|

1[M Hz]

Figura C.2: Espectro de una se


nal de frecuencias audible y espectro de la se
nal
modulada.

Corollario C.2. Funciones Peri


odicas.
Si tenemos una se
nal peri
odica yT (t), en un intervalo de longitud T , esta
no es una funci
on absolutamente integrable y su transformada de Fourier no

DE FOURIER EN TIEMPO CONTINUO


C.1. TRANSFORMACION

365

puede obtenerse a traves de la definici


on (C.1). Sin embargo, sabemos ya que
una se
nal peri
odica podemos representarla mediante una Serie de Fourier (representaci
on en el tiempo) ya sea trigonometrica o con exponenciales peri
odicas.
En los desarrollos realizados adem
as ya hemos encontrado las expresiones para
las transformadas de Fourier de una constante, del coseno, del seno y de una exponencial peri
odica, por tanto, la transformada de Fourier de una se
al peri
odica
se puede obtener:

F {yT (t)} = F

Cn e

n t

n=

En que n = n2/T , y por linealidad


F {yT (t)} =
=

n=



Cn F e n t
Cn ( + n )

n=

Ejemplo C.6. Consideremos el tren de pulsos de la figura C.3 definido por

+1
y(t) = 1

y(t + 2)

; 0 |t| 2
; 2 < |t|
; |t| >
y(t)
1

t
1

Figura C.3: Tren de pulsos


La integral del valor absoluto de la funci
on claramente diverge, y si intentamos obtener la transformada de Fourier de esta funci
on utilizando la definici
on
on difcil de simplificar. En cambio, la funci
on y(t)
(C.1), llegamos a una expresi
puede expresarse mediante su serie de Fourier, que en este caso ser
a cosenoidal,
pues y(t) es par:


DE FOURIER
APENDICE
C. LA TRANSFORMACION

366

y(t) =

An cos(nt)

n=1

An =

y(t) cos(nt)dt

Calculando los coeficientes Bn , se obtiene

y(t) =

 n 
X
4
cos(nt)
sen
n
2
n=1

Luego,
Y ( ) =
=

 n 
X
4
sen
[( + n) + ( n)]
n
2
n=1

 n 
X
4
sen
( + n)
n
2
n=
n6=0

Es decir, los coeficientes An se transforman en las amplitudes de los deltas


de Dirac en el espectro Y ( ), como se puede apreciar en la figura C.4
0.6

1.2

0.8

0.4

0.6

0.2

0.4

0.2

10

10

10

0.2

0.2

0.4

(a) Coeficientes An

(b) Espectro Y ( )

Figura C.4:

Lema C.4. Escalamiento.


Sea y(t) una funci
on definita para t ] , [, y a una constante real
distinta de cero, entonces

DE FOURIER EN TIEMPO CONTINUO


C.1. TRANSFORMACION

F{y(at)} =

Y (j )
|a|
a

367

(C.7)

Demostraci
on
Si reemplazamos la funci
on escalada y(at) en la definici
on de la integral,
podemos ah definir una nueva variable t = at, pero se debe tener en cuenta
que el signo de a determina si los lmites de la integral se mantienen o se deben
intercambiar:

F{y(at)} =

y(at)e t dt

t dt

y(t )e a

a
Z
=

t dt

y(t )e a
a

; si a > 0
; si a < 0

Dado que el cambio de orden en los lmites de la integral es un cambio de


signo, ambas expresiones pueden juntarse en una sola:

F{y(at)} =

signo(a)
a

y(t )ej a t dt

Que es lo mismo que


F{y(at)} =

1
Y (j )
|a|
a
222

A partir de este lema puede verificarse directamente que


F{y(t)} = Y ( )

(C.8)

A continuacion veamos algunas propiedades de la transformada de Fourier


que tienen directa relacion con la aplicacion de esta en la solucion de las ecuaciones diferenciales y el analisis de sistemas, que se refieren a la transformada
de la derivada, de la integral y de la convolucion de funciones.
Lema C.5. Derivaci
on en t.
Sea y(t) una funci
on definida en toda la recta real talque y(t) 0 cuando
t , y cuya transformada de Fourier es Y ( ) . Entonces, la transformada
de Fourier de la derivada de y(t) con respecto al tiempo es


d y(t)
F
= Y ( )
(C.9)
dt


DE FOURIER
APENDICE
C. LA TRANSFORMACION

368
Demostraci
on

Si se aplica la definici
on de la transformada de Fourier a la derivada
y se integra por partes, se obtiene:

d y(t)
dt

d y(t) t
e
dt
dt
Z


+
= y(t)e t
=

d y(t)
dt ,

y(t)e t dt

Y dada la condici
on asint
otica sobre y(t) cuando t , s
olo sobrevive el
segundo termino
F

d y(t)
dt

y(t)e t dt

= Y ( )
222

Es importante hacer notar que este lema no garantiza la existencia de la


transformada de la derivada temporal de y(t), sino que, en caso de existir, su
expresion puede obtenerse utilizando (C.9). Para las derivadas de orden superior en tanto, tenemos el siguiente corolario, que se debe utilizar con la misma
precaucion antes mencionada:
Corollario C.3. Derivadas de orden superior
Para una funci
on y(t) definida como en el lema anterior, tenemos que
F

d n y(t)
dt n

= ( )n Y ( )

(C.10)

Demostraci
on
Se deja al lector, pues es directa por inducci
on, aplicando recursivamente el
lema anterior.
222
Lema C.6. Transformada de la integral.
Sea y(t) una funci
on definida en todos los reales, cuya transformada de
Fourier es Y ( ). Entonces, la transformada de su integral definida es
F

Z

y( )d

1
Y ( ) + Y (0)()

(C.11)

DE FOURIER EN TIEMPO CONTINUO


C.1. TRANSFORMACION

369

Demostraci
on
Para demostrar esta propiedad debemos en primer lugar observar que si
definimos 1 (t) como la integral definida de y(t), entonces
d 1 (t)
d
=
dt
dt

Z

= y(t)

y( )d

Pero tambien se cumple, para cualquier constante real k, que


d
(1 (t) + k) = y(t)
dt
Por tanto, aplicando Fourier y la ecuaci
on (C.9)
(1 ( ) + 2k()) = Y ( )

Luego, ya tenemos una forma para la transformada de la derivada, que es


1 ( ) =

1
Y ( ) 2k()

(C.12)

Por tanto nos resta encontrar el valor de k. Para esto consideremos nuevamente la integral indefinida 1 (t)

1 (t) =
=
=

y( )d

y( )d +
y( )d

y( )d

Z t

y(x)dx

Donde se ha cambiando la variable x = , en la segunda integral.


Si definimos

2 (t) =
2 ( ) =

y(x)dx

1
Y ( ) 2k()

Es su transformada de Fourier, seg


un la forma (C.12). Entonces podemos
retomar la funci
on 1 (t), y aplicarle transformada de Fourier


DE FOURIER
APENDICE
C. LA TRANSFORMACION

370

y( )d 2 (t)
Z

1 ( ) = 2
y( )d () 2 ( )



Z

1
1
y( )d ()
Y ( ) 2k() = 2
Y ( ) 2k()

1 (t) =

Donde si se observa que () = (), se puede despejar la constante k:


Z
1
k=
y( )d
2
Z


1

=
y( )e
d
2

=0
1
= Y (0)
2
Por tanto
1 ( ) =

1
Y ( ) + Y (0)()

222

Ejemplo C.7. El lema anterior puede utilizarse para obtener la transformada


del escal
on unitario (t) o funci
on de Heaviside, a partir de la transformada del
delta de Dirac.
Dada la definici
on del Delta Dirac y de la funci
on de Heaviside, tenemos que
Z

( )d =

0
1

;t < 0
;t > 0

= (t)
Por tanto,

F {(t)} = F

Z

( )d

1
=
F {(t)} + () F {(t)}|=0

1
=
+ ()

DE FOURIER EN TIEMPO CONTINUO


C.1. TRANSFORMACION

371

Lema C.7. Convoluci


on en el tiempo.
Sean y1 (t) e y2 (t), dos funciones definidas para < t < , cuyas transformadas de Fourier son Y1 ( ) e Y2 ( ), respectivamente. Entonces, la transformada de Fourier de la convoluci
on entre ellas es
F{y1 (t) y2 (t)} = Y1 ( )Y2 ( )

(C.13)

Recordando que la convoluci


on se define como:
y1 (t) y2 (t) =

y1 ( )y2 (t )d

(C.14)

Demostraci
on
Insertando la expresi
on de la convoluci
on en la transformada se obtiene

F{y1 (t) y2 (t)} =

Z

y1 ( )y2 (t )d

e t dt

donde si se intercambia el orden de integraci


on
F{y1 (t) y2 (t)} =

y1 ( )

Z


y2 (t )e t dt d

Que usando la ecuaci


on (C.4) es igual a
Z


y1 ( ) e Y2 ( ) d

Z
= Y2 ( )
y1 ( )e d

F{y1 (t) y2 (t)} =

= Y2 ( )Y1 ( )

222
Veamos a continuacion cual es la transformada de Fourier de un producto de
funciones que puede resultar u
til para el calculo de la transformada de Fourier
de alguna funcion mas complicada.
Lema C.8. Producto de funciones.
Sean y1 (t) e y2 (t) funciones definidas para < t < , cuyas transformadas de Fourier son Y1 ( ) e Y2 ( ), respectivamente. Entonces, la transformada de Fourier del producto entre ellas es
F{y1 (t)y2 (t)} =

1
Y1 ( ) Y2 ( )
2

(C.15)


DE FOURIER
APENDICE
C. LA TRANSFORMACION

372
Demostraci
on

Consideremos la transformada de Fourier inversa de la convoluci


on de funciones en
Z
1
Y1 ( ) Y2 ( )e t d
2

Z Z
1
Y1 (j)Y2 ( j)d e t d
=
2

F 1 {Y1 ( ) Y2 ( )} =

Intercambiando el orden de integraci


on
F 1 {Y1 ( ) Y2 ( )} =

1
2

Y1 (j)

Z


Y2 ( j)e t d d

Donde si se define j =
F

1
{Y1 ( ) Y2 ( )} =
2
= 2

Z

( +j)t

Y1 (j)
Y2 ( )e
d d



Z
Z
1
1
jt
j t

Y1 (j)e d
Y2 ( )e
d
2
2

= 2y1 (t)y2 (t)

Con lo que el lema queda demostrado.


222

Teorema C.1 (Teorema de Parseval. El caso de tiempo continuo). Sean


Y1 ( ) y Y2 ( ) las tranformadas de Fourier de las funciones (reales) y1 (t) e
y2 (t) respectivamente, definidas t ] , [. En tonces tenemos que
Z

1
y1 (t)y2 (t)dt =
2

Y1 ( )Y2 ( )d

(C.16)

Demostraci
on
Esto se demuestra con ayuda del lema de convoluci
on en el tiempo (C.13).
Seg
un este tenemos que

y1 (t) y2 (t) = F 1 {Y1 ( )Y2 ( )}


Z
1
y1 ( )y2 (t )d =
Y1 ( )Y2 ( )e t d
2

DE FOURIER EN TIEMPO CONTINUO


C.1. TRANSFORMACION

373

Si evaluamos en t = 0, queda
Z

y1 ( )y2 ( )d =

1
2

Y1 ( )Y2 ( )d

Donde si se reemplaza al lado izquierdo por t, y usamos la ecuaci


on (C.8)
que establece que F {y2 (t)} = Y2 ( ), entonces queda demostrado el lema.
222
Corollario C.4. Un caso especial del lema anterior es cuando se considera
y1 (t) = y2 (t) = y(t), con lo que la ecuaci
on (C.16) se transforma en
Z
Z
1
{y(t)}2 dt =
Y ( )Y ( )d
2

Pero dado que Y ( ) es el complejo conjugado de Y ( ), el integrando a


la derecha es la norma cuadrado de la transformada, es decir
Z
Z
1
2
2
{y(t)} dt =
|Y ( )| d
(C.17)
2

En la tabla C.1 se muestra un resumen de las propiedades hasta aqu revisadas y que sirven para el calculo de la transformada de Fourier de las funciones mas comunes, como las que se muestran en la tabla C.2


DE FOURIER
APENDICE
C. LA TRANSFORMACION

374

C.2.

Transformada de Fourier en tiempo discreto

C.2.1.

Definici
on de la transformada

transformada de Fourier discreta


transformada de Fourier discreta inversa

Dada una funcion definida en tiempo discreto y[k] , en que k Z , su


transformada de Fourier discreta Y (ej ) y su transformada de Fourier discreta
inversa quedan definidas por las ecuaciones

Fd {y(t)} = Y (ej ) =
Fd

y[k]ejk

(C.18)

k=



1
Y (ej ) = y[k] =
2

Y (j)ejk d

(C.19)

La transformada Y (ej ) definida en (C.18) resulta ser periodica, de perodo


2, por tanto la integral que define la transformada inversa (C.19), puede calcular en cualquier intervalo de longitud 2. De hecho, algunos textos la definen
en el intervalo [, ]
Para que la transformada exista es suficiente que la funcion y[k] sea absolutamente sumable en el intervalo < k < , es decir:

X


y[k] <

k=

Si bien existen funciones que no cumplen con esta condicion, a pesar de ello
poseen transformada de Fourier discreta.
A continuacion se muestran algunos ejemplos para ver como se obtiene la
transformada de Fourier discreta para un delta de Kronecker, para una secuencia
constante y para una exponencial decreciente discreta.
Ejemplo C.8. Consideremos primero la secuencia

y[k] = K [k] =

1
0

;k = 0
; k 6= 0

Es decir, un delta de Kronecker . Esta secuencia es absolutamente sumable, por tanto se cumple la condici
ojn suficiente para la existencia de su transformada discreta. Si calculamos esta usando la definici
on tenemos que la serie
infinita se traduce en un solo termino

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

Y (ej ) =

375

K [k]ejk

k=

= K [0]ej0
=1
Es decir, su transformada de Fourier discreta es constante. Podemos interpretar esto de manera an
aloga al delta de Dirac en tiempo continuo, cuya transformada tambien es constante y representa un espectro plano, o igual contenido
de frecuencias en todo el espectro.
Ejemplo C.9. Consideremos ahora el caso opuesto en que tenemos una secuencia constante que se escoge de amplitud uno por simplicidad. Es decir, la
secuencia que nos interesa es
k Z

y[k] = 1

Esta secuencia no es absolutamente sumable, ya que

k=

Sin embargo, si usamos la definici


on de la transformada tenemos que

Y (ej ) =

k=

1 ejk

En que la serie al lado derecho podemos interpretarla como una representaci


on
en serie exponencial de Fourier de alguna funci
on peri
odica, en que el coeficiente
es Ck = 1 , para todo k. Si recordamos, el coeficiente Ck en una serie de Fourier
exponencial para una funci
on peri
odica f () se calcula como
1
Ck =
T

T
2

f ()ej T

T2

Con lo que la funci


on se expresa como
f () =

k=

Ck ej T

De aqu podemos observar que el perodo de la funci


on peri
odica debe ser
T = 2, y para que la integral que define a Ck sea unitaria basta que la funci
on,
dentro del intervalo [, ] sea un delta Dirac de amplitud 2, centrado en
= 0.


DE FOURIER
APENDICE
C. LA TRANSFORMACION

376

Es decir, la transformada de Fourier discreta de la secuencia constante


y[k] = 1 es igual a

X
( 2n)
Y (ej ) = 2
n=

Esto se puede comprobar calculando la transformada de Fourier discreta inversa, mediante la integral (C.19), que dada la periodicidad basta calcularla en
cualquier intervalo de longitud 2
Z
1
y[k] =
Y (ej )ejk d
2
Z

X
1
( 2n)ejk d
2
=
2
n=
Z
()ejk d
=
=1

k Z

Ejemplo C.10. Consideremos ahora la se


nal
y[k] = k [k]

|| < 1

Su transformada de Fourier discreta ser


a

Y (ej ) =
=

k=0

k ejk
(ej )k

k=0

Que resulta ser una serie geometrica convergente ya que |e j | < 1. Por
tanto su suma es
Y (ej ) =

C.2.2.

1
1 ej

Propiedades de la transformada de Fourier discreta

A continuacion se detallan una serie de propiedades de la transformada de


Fourier discreta que resultan u
tiles para la obtencion de algunas transformadas
y para el analisis de sistemas.

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

377

Lema C.9. Linealidad


La transformada de Fourier discreta es una transformaci
on lineal, es decir,
si y1 [k] e y2 [k] son dos secuencias definidas k Z, cuyas transformadas de
Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces
Fd {y1 [k] + y2 [k]} = Y1 (ej ) + Y2 (ej )

(C.20)

Demostraci
on
Es directa de la definicion de la transformada (C.18), ya que

Fd {y1 [k] + y2 [k]} =

(y1 [k] + y2 [k])ejk

k=

y1 [k]ejk +

k=

y2 [k]ejk

k=

= Y1 (ej ) + Y2 (ej )

222
Lema C.10. Corrimiento en el tiempo.
Sea y[k] una secuencia de tiempo discreto definida k Z, cuya transformada de Fourier es Y (ej ) , y sea k0 un n
umero entero, entonces
Fd {y[k k0 ]} = ejk0 Y (ej )

k0 Z

(C.21)

Demostraci
on
Consideremos la definicion de la transformada (C.18), y tomemos k0 Z,
entonces

Fd {y[k k0 ]} =

k=

y[k k0 ]ejk

Sea k k0 = l, entonces k = l + k0 y reemplazando en la sumatoria


Fd {y[k k0 ]} =

y[l]ej(l+k0 )

l=

= ejk0

y[l]ejl

l=

=e

jk0

Y (ej )


DE FOURIER
APENDICE
C. LA TRANSFORMACION

378

222
Lema C.11. Corrimiento en frecuencia.
Sea y[k] una secuencia de tiempo discreto definida k Z, con transformada
Y (ej ) , y sea 0 < 0 < 2 un n
umero real, entonces consideremos la transformada de la secuencia original multiplicada por una exponencial peri
odica

Demostraci
on



Fd ej0 k y[k] = Y (ej(0 ) )

(C.22)

Para demostrar la propiedad anterior podemos considerar directamente la


definicion (C.18)

X


Fd ej0 k y[k] =
ej0 k y[k]ejk

k=

y[k]ej(0 )k

k=

Sea 0 = , entonces reemplazando

X


Fd ej0 k y[k] =
y[k]ejk
k=

= Y (ej )

= Y (ej(0 ) )

Note que si la frecuencia 0


/ ]0, 2[ , es decir, se encuentra fuera de la banda
que hemos considerado hasta ahora, siempre puede escribirse de la forma
0 = 0 + 2n
En que 0 ]0, 2[ y n Z, con lo que
ej0 = ej(0 +2n) = ej0 e2n = ej0
Recordemos que es justamente por esto que a la exponencial periodica e j()
le hemos denominado tambien exponencial periodica.
222
Para ilustrar esto veamos un ejemplo
Ejemplo C.11. Considere la secuencia de tiempo discreto


2
k
y[k] = cos
10

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

379

Para calcular su transformada de Fourier discreta, en vez de usar la definici


on podemos utilizar la propiedad (C.22), ya que el coseno puede escribirse en
terminos de exponenciales
y[k] = cos

2
k
10

ej 10 k + ej 10 k
2

Ambas exponenciales peri


odicas las podemos pensar como la secuencia constante y0 [k] = 1 multiplicada por la respectiva exponencial peri
odica. Es as como
bajo este punto de vista la transformada de Fourier discreta se puede obtener
en unos pocos pasos


Fd cos

2
k
10



1 n j 2 k o 1 n j 2 k o
Fd e 10
+ Fd e 10
2
2

X
X
1
1
2
2
+ 2n) + 2
+ 2n)
(
( +
= 2
2 n=
10
2 n=
10
=

n=

X
2
2
+ 2n) +
+ 2n)
( +
10
10
n=

Si restringimos la expresi
on de la transformada a la banda que nos ha interesado, es decir, [0, 2], tenemos que en ella s
olo existen dos de los deltas
de Dirac




2
18
2

k
) + (
)
= (
Fd cos

10
10
10
0<<2
2

1.5

1.8
1

1.6
1.4

0.5

Y(e )

y[k]

1.2

1
0.8

0.5

0.6
0.4

0.2
1.5
15

10

0
k

10

15

Figura C.5: Se
nal cosenoidal y[k] y su transformada discreta.
En la figura C.5, se muestra la secuencia peri
odica discreta y su espectro, es
decir, su transformada de Fourier discreta, formada por los dos deltas de Dirac
en el intervalo [0, 2].


DE FOURIER
APENDICE
C. LA TRANSFORMACION

380

Como consecuencia del lema anterior, que expresa el corrimiento en frecuencia que sufre el espectro de una secuencia discreta al ser multiplicado por una
exponencial periodica tenemos el siguiente corolario. Este determina el efecto
que tiene sobre la transformada de Fourier discreta el modular una secuencia
por alguna sinusoidal.
Corollario C.5. Sea y[k] una secuencia discreta definida para < k <
con transformada Y (ej ), y 0 < 0 < 2 un n
umero real. Entonces
i
h
1
(C.23)
Fd {cos(0 k)y[k]} =
Y (ej(+0 + Y (ej(0 )
2
i
h
j
Fd {sen(0 k)y[k]} =
(C.24)
Y (ej(+0 Y (ej(0 )
2
Demostraci
on
Como se menciono anteriormente resulta de la aplicacion del lema anterior,
ya que tanto cos(0 k) como sen(0 k) pueden escribirse en terminos de exponenciales periodicas.
Consideremos la ecuacion (C.23):

ej0 k + ej0 k
y[k]
2
1 

1  j0 k
y[k] + Fd ej0 k y[k]
= Fd e
2
2
i
1h
j(0
=
+ Y (ej(+0 )
Y (e
2

Fd {cos(0 k)y[k]} = Fd

La demostracion de (C.24) resulta analoga, por lo tanto se deja como ejercicio


para el lector.
222
Lema C.12. Inversi
on temporal.
Sea y[k] una secuencia de tiempo discreto definida k Z, con transformada
Y (ej ). Consideremos la transformada de la secuencia original invertida en el
tiempo, es decir
Fd {y[k]} = Y (ej )

(C.25)

Demostraci
on
Para demostrar la propiedad usamos la ecuacion (C.18), que define la transformada de Fourier discreta de una secuencia

Fd {y[k]} =

k=

y[k]ejk

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

381

Sea l = k, entonces
Fd {y[k]} =
=

l=

y[l]ej(l)
y[l]ej()l

l=

= Y (ej )
222
Corollario C.6. Note que si la secuencia y[k] est
a compuesta s
olo por valores
reales, entonces
Fd {y[k]} = Y (ej )
(C.26)
En que () denota al complejo conjugado de ()
Demostraci
on
Se deja como ejercicio al lector.

222

En base a las propiedades ya anlizadas estamos en condiciones de ver el


siguiente ejemplo.
Ejemplo C.12. Veamos como obtener ahora la transformada de Fourier discreta de un escal
on unitario en tiempo discrto, es decir, de la secuencia
y[k] = [k] =

0
1

;k < 0
;k 0

Para esto podemos apreciar que si definimos la secuencia


x[k] = [k] [k 1]
(
1 ;k = 0
=
0 ; k 6= 0
Es decir, resulta ser un delta de Kronecker. Esto tambien es v
alido, sin
embargo, si al escal
on [k] se le suma alguna constante, es decir

x[k] = [k] + C
x[k] x[k 1] = K [k]
Si aplicamos transformada de Fourier discreta a ambas ecuaciones anteriores
y utilizamos la propiedad de corrimiento en k


DE FOURIER
APENDICE
C. LA TRANSFORMACION

382

X(e ) = Fd {[k]} + C2

n=

X(ej ) ej X(ej ) = 1

( 2n)

De ambas ecuaciones se puede eliminar X(ej ) y despejar la transformada


que nos interesa

X
1
( 2n)
C2
Fd {[k]} =
1 ej
n=

Donde hemos obtenida la forma de la transformada del escal


on unitario discreto. Para obtener el valor de la constante C, podemos escribir el mismo escal
on
como
[k] = 1 [k] + K [k]
Donde podemos aplicar la transformada utilizando la forma de Fd {[k]}
obtenida, la propiedad de simetra temporal, y las transformadas del delta de
Kronecker y la constante, antes obtenidas.
1
C S() = S()
1 ej


1

S()
+1
1 ej

En que
S() = 2

n=

( 2n)

Donde podemos apreciar que S() es simetrica respecto a = 0, por lo tanto

C 2S() = S() +

1
1
+
+1
1 ej
1 ej
|
{z
}
0

C 2S() = S()
1
C=
2

Luego, la transformada de Fourier discreta del escal


on [k] es
Fd {[k]} =

X
1
( 2n)
+

1 ej
n=

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

383

Lema C.13. Sea y[k] una secuencia de tiempo discreto definida k Z, cuya
transformada es Y (ej ). Consideremos ahora la secuencia k y[k], su transformada, s
olo en el caso que exista, es igual a

Fd {k y[k]} = j

d Y (ej )
d

(C.27)

Demostraci
on
Se debe tener cuidado al aplicar esta propiedad, pues no garantiza la
existencia de la transformada de k y[k].
En caso de existir, podemos aplicar la transformada de Fourier inversa, usando la ecuacion (C.19) :

Fd

d Y (ej )
j
d

1
=
2

j
0

d Y (ej ) jk
e d
d

Donde se puede integrar por partes, eligiendo convientemente :


Fd

d Y (ej )
j
d

d Y (ej )
d
d
0
2 j Z 2
j jk

Y (ej )jkejk d
e Y (ej )
=
2 |
2
0
0
{z
}
j
=
2

j
k
2

1
=k
2
|

ejk

0
2

Y (ej )ejk d

2
0

Y (ej )ejk d
{z
}
y[k]

222

Ejemplo C.13. Calculemos la transformada de Fourier discreta de la secuencia


y[k] = kk [k]

|| < 1

Podemos aplicar la propiedad recien vista dado que conocemos la transformada de k [k]. De esta forma, tenemos que:


DE FOURIER
APENDICE
C. LA TRANSFORMACION

384

Fd



d Fd k [k]
k [k] = j

 d
1
d
=j
d 1 ej
1
(jej )
=j
(1 ej )2
ej
=
(1 ej )2

1.8

4.5

1.6

1.4

3.5
3
j

Y(e )

y[k]

1.2
1

2.5

0.8

0.6

1.5

0.4

0.2

0.5

0
5

10
k

15

20

25

Figura C.6: Secuencia y[k] = k(0,8)k [k] y la magnitud de su TFD.


En la figura C.6 se muestra la secuencia discreta y el m
odulo de su transformada discreta, cuando = 0,8

Lema C.14. Convoluci


on en tiempo discreto
Sean y1 [k] e y2 [k] dos secuencias definidas k Z, cuyas transformadas
de Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces la transformada de
Fourier discreta de la convoluci
on es :
Fd {y1 [k] y2 [k]} = Y1 (ej )Y2 (ej )

(C.28)

Demostraci
on
Recordemos en primer lugar que la convolucion de dos secuencias de tiempo
discreto y1 [k] e y2 [k] se define como :
y1 [k] y2 [k] =

l=

y1 [l]y2 [k l]

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

385

Usando esta expresion en la definicion (C.18) tenemos que :


!

X
X
Fd {y1 [k] y2 [k]} =
y1 [l]y2 [k l] ejk
k=

l=

Donde se pueden intercambiar las sumatorias y usar la propiedad de corrimiento en el tiempo discreto k :

Fd {y1 [k] y2 [k]} =


=

y1 [l]

l=

k=

y2 [k l]e

jk

y1 [l]ejl Y2 (ej )

l=

= Y2 (ej )

y1 [l]ejl

l=
j

= Y2 (e )Y1 (ej )
222
Lema C.15. Producto en el tiempo discreto
Sean y1 [k] e y2 [k] dos secuencias definidas k Z, cuyas transformadas
de Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces la transformada de
Fourier discreta del producto de ellas es :
Fd {y1 [k]y2 [k]} =

1
2

Y1 (ej )Y2 (ej() )d

(C.29)

Demostraci
on
Reemplazando el producto de las secuencias en la definicion (C.18) tenemos
que :
Fd {y1 [k]y2 [k]} =

y1 [k]y2 [k]ejk

k=

Aqui podemos escribir una de las secuencias seg


un la ecuacion (C.19) que
la expresa como la transformada de Fourier inversa. Con esto e intercambiando
de orden la sumatoria con la integral que aparece tenemos que :

Z 2

X
1
Y1 (ej )ejk d y2 [k]ejk
2 0
k=
!
Z 2

X
 jk
1
j
jk
=
Y1 (e )
d
e y2 [k] e
2 0

Fd {y1 [k]y2 [k]} =

k=


DE FOURIER
APENDICE
C. LA TRANSFORMACION

386

Donde si usamos la propiedad de corrimiento en frecuencia tenemos que


Fd {y1 [k]y2 [k]} =

1
2

Y1 (ej )Y1 (ej() )d


0

222
Teorema C.2 (Teorema de Parseval. El caso de tiempo discreto). Sean
y1 [k] e y2 [k] dos secuencias reales definidas k Z, cuyas transformadas de
Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces se cumple que:

k=

1
y1 [k]y2 [k] =
2

Y1 (ej )Y2 (ej )d

(C.30)

En que () denota el complejo conjugado de ().


Demostraci
on
En el lado izquierdo de la ecuaci
on (C.30) podemos reemplazar y1 [k], utilizando la definici
on de la transformada de Fourier discreta inversa dada por la
expresi
on (C.19) :

y1 [k]y2 [k] =

k=


Z 2

X
1
Y1 (ej )ejk d y2 [k]
2 0

k=

Aqui podemos intercambiar el orden entre la integral y la sumatoria, para


luego formar una expresi
on que corresponda a la transformada de y 2 [k] como se
aprecia a continuaci
on :

k=

1
y1 [k]y2 [k] =
2

1
=
2

1
2

Y1 (ej )
0

y2 [k]ejk

k=
2

Y1 (ej )
0

y2 [k]ejk

k=
2

Y1 (ej )Y2 (ej )d


222

Corollario C.7. Si y[k] es una secuencia discreta definida k Z, con transformada Y (ej ), entonces se cumple que:

k=

| y[k] |2 =

1
2

2
0

| Y (ej ) |2 d

(C.31)

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

387

Demostraci
on
Es directa de la ecuaci
on (C.30) ya que
y[k] y [k] = | y[k] |2

Y (ej )Y (ej ) = | Y (ej ) |2


222


DE FOURIER
APENDICE
C. LA TRANSFORMACION

388

f (t)
l
X

F {f (t)}
l
X

ai yi (t)

i=1

ai Yi ( )

Linealidad

i=1

dy(t)
dt

Y ( )

Derivacion

( )k Y ( )

Derivadas superiores

1
Y ( ) + Y (0)()

Integracion

y(t )

e Y ( )

Retardo

y(at)

1  
Y j
|a|
a

Escalamiento temporal

y(t)

Y ( )

Inversion temporal

Y1 ( )Y2 ( )

Convolucion

eat y1 (t)

Y1 ( a)

Desplazamiento en frecuencia

y(t) cos(o t)

1
{Y ( o ) + Y ( + o )}
2

Modulacion (cosenoidal)

y(t) sen(o t)

1
{Y ( o ) Y ( + o )}
j2

Modulacion (senoidal)

Y (t)

2y( )

Simetra

dk y(t)
dtk
Z

Descripcion

y( )d

y1 ( )y2 (t )d

y1 (t)y2 (t)

1
2

Y1 (j)Y2 ( j)d

Producto en el tiempo

Cuadro C.1: Propiedades de la transformada de Fourier.

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

t R

f (t)
1

2()

D (t)

(t)

() +

(t) (t to )
et (t)

<{} R+

tet (t)

<{} R+

e|t|

F {f (t)}

R+

1 e to

1
( )2
2

2
+ 2

cos(o t)

(( + o ) + ( o ))

sen(o t)

j (( + o ) ( o ))

cos(o t)(t)

(( + o ) + ( o )) +
2
2 + o2

o
j
(( + o ) ( o )) +
2
2
+ o2

sen(o t)(t)
et cos(o t)(t)

R+

+
( + )2 + o2

et sen(o t)(t)

R+

o
( + )2 + o2

Cuadro C.2: Tabla de tranformadas de Fourier

389


DE FOURIER
APENDICE
C. LA TRANSFORMACION

390

Fd {y[k]} = Y (ej )

y[k] , k Z
l
X

l
X

i yi [k]

i=1

i Yi (ej )

Descripcion
Linealidad

i=1

y[k]

Y (ej )

Inversion temporal

y[k k0 ] , k0 Z

ejk0 Y (ej )

Corrimiento temporal

ej0 k y[k]

Y (ej(0 ) )

Corrimiento en frecuencia

cos(0 k)y[k]
sen(0 k)y[k]

i
1h
Y (ej(+0 ) + Y (ej(0 )
2
i
jh
Y (ej(+0 ) Y (ej(0 )
2

ky[k]

l=

y1 [k]y2 [k]

k=

y1 [k]y2 [k]

k=

| y[k] |2

1
2

1
2

Modulacion senoidal

d Y (ej )
d

Y1 (ej )Y2 (ej )

y1 [l]y2 [k l]

Modulacion cosenoidal

Convolucion

Y1 (ej )Y2 (ej() )d

Producto en el tiempo

Y1 (ej )Y2 (ej )d

1
2

Teorema de Parseval

2
0

| Y (ej ) |2 d

Teorema de Parseval

Cuadro C.3: Propiedades de la transformada de Fourier discreta.

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

Fd {y[k]} = Y (ej )

t R

y[k]

391

K [k]

K [k k0 ]

ejk0

1 (k Z)

n=

( 2n)

X
1
( 2n)
+

1 ej
n=

[k]

1
1 ej

k [k] (|| < 1)

1
(1 ej )2

X
2
( 0 + 2n)

(k + 1)k [k] (|| < 1)


ej0 k

n=

cos(0 k)

n=

sen(0 k)

[( + 0 + 2n) + ( 0 + 2n)]

n=

cos(0 k + )

X


n=

sen(c k)
k

[( + 0 + 2n) ( 0 + 2n)]

ej ( + 0 + 2n) + ej ( 0 + 2n)

Y0 (ej(+2n) )

n=

(
1
Y0 (ej ) =
0
y[k] =

0
1

; |k| N
; |k| > N

kk [k] (|| < 1)

; || < c
; c < ||

2N +1
sen
2 
sen 21

ej
(1 ej )2

Cuadro C.4: Tabla de tranformadas de Fourier discretas


DE FOURIER
APENDICE
C. LA TRANSFORMACION

392

C.2.3.

Aspecto pr
actico: la transformada r
apida de Fourier

En las aplicaciones, en particular en el procesamiento digital de se


nales, no
se conoce la se
nal en forma analtica, sino que como una secuencia finita de
valores numericos. Lo mismo ocurre en otras aplicaciones, como en el procesameinto de imagenes, en donde la variable independiente puede ser una (o
mas) coordenada(s) espacial(es).
Dado que la informacion es una secuencia, la descripcion de la se
nal en el
dominio de la frecuencia solo puede ser lograda a traves de la Transformada
discreta de Fourier. Sin embargo, el calculo de esta solo puede ser aproximado,
puesto que la se
nal esta definida por un n
umero finito de valores.
De esta forma, un problema central en la calidad de la aproximacion guarda
relacion con la medida en que la se
nal truncada representa las caractersticas
espectrales de la se
nal a analizar. En este caso, estamos obteniendo una serie
de Fourier discreta que representa al tramo considerado de la secuencia y[k].
Recordemos que seg
un lo visto en el captulo anterior sobre series, al calcular
la serie de Fourier discreta de una secuencia de largo N , obtenemos una representacion en terminos de N exponenciales complejas de frecuencias 0 < 2,
que resulta ser periodica. De esta forma, dada una secuencia y[k] de longitud N ,
que puede provenir de una se
nal de tiempo continuo muestreada cada [seg], es
decir, y[k] = y(t = k), podemos representarla como una suma de exponenciales
complejas
y[k] =

N
1
X

Cn ejo nk ;

donde o =

n=0

donde

Cn =

N 1
1 X
y[k]ejo nk
N

2
N

(C.32)

(C.33)

k=0

Usualmente se define

WN = ejo = ej N

(C.34)

y la funcion
Hn = N C n =

N
1
X

y[k]WNnk

(C.35)

k=0

Con lo que la funcion se puede describir en terminos de los Hn seg


un
y[k] =

N 1
1 X
Hn WNnk
N n=0

(C.36)

A este par de ecuaciones, (C.35) y (C.36) se le denomina en muchos libros


como la Transformacion de Fourier Discreta1 y su inversa, por tanto debe tenerse
1 Discrete

Fourier Transform o DFT

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

393

precaucion al consultar la literatura para evitar confusion con la denominacion


que hemos usado en este texto.
Si se observa la ecuacion (C.35) esta puede entenderse como un producto
matricial en que el vector Hn es igual al producto de la matriz {WN }n,k =
{WNnk } por el vector y[k]. Es decir

0(N 1)
WN00
WN01
...
WN
H0
y[0]
1(N 1)
H1
y[1]
WN10
WN11
...
WN

.. =

..
.
.
.
.

..
..
..
..
.

(N
1)0
(N
1)1
(N
1)(N
1)
HN 1
y[N 1]
WN
WN
. . . WN
(C.37)
Hacer el producto matricial el lado derecho de la ecuacion anterior implica
N 2 multiplicaciones complejas, ademas de las sumas respectivas para el calculo
de cada Hn . Tambien se requieren algunas operaciones mas para el calculo de
las potencias de WN . Es decir, podemos apreciar que el calculo de la DFT es
un proceso O(N 2 ) 2 .
Sin embargo, la matriz involucrada en (C.37) esta formada por potencias de
2
WN = ej N , por tanto todos sus componentes son alguna de las races N -esimas
de la unidad, distribuida en torno a la circunferencia unitaria. Esta simetra de
hecho es el camino para reducir el n
umero de calculos necesarios para el calculo
de la DFT. Los algoritmos que hacen uso de estas simetras se comenzaron a
desarrollar mas fuertemente a partir de mediados de los a
nos 60 y reciben el
nombre generico de transformada r
apida de Fourier o FFT por su denominacion en ingles3 .
Para maximizar el aprovechamiento de las simetras es conveniente elegir
secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2v

para algun v Z+

(C.38)

Esto no implica perder generalidad, pues en los casos en que no pueden


tomarse mas valores de la secuencia original podemos completar con ceros hasta
la potencia de 2 mas cercana (aunque ello significa la introduccion de un grado
variable de inexactitud).
Consideremos la forma en que se calcula el coeficiente Hn , seg
un la ecuacion
(C.35). Si tenemos una secuencia de longitud N par, podemos separarla en una
que contenga los valores de y[k] cuando k es par y otra para los k impares. Es
decir:

Hn =

N
1
X

y[k]WNnk

(C.39)

k=0

N/21

X
r=0

2 Del

N/21
n(2r)

y[2r]WN

n(2r+1)

y[2r + 1]WN

(C.40)

r=0

orden de N 2 , es decir, si se duplica N el n


umero de c
alculos se cuadruplica !
Fourier Transform.

3 Fast

transformada r
apida
de Fourier


DE FOURIER
APENDICE
C. LA TRANSFORMACION

394

Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r + 1], son
secuencias de largo N/2, por lo que podra escribirse las sumatorias como la
serie de Fourier discreta modificada que les corresponde. Justamente esto sucede
en forma natural al observar que
n(2r)

WN

nr
= ej N n(2r) = ej N/2 nr = WN/2

(C.41)

Es decir, en la sumatoria aparecen las armonicas para secuencias de longitud


N/2. Con esta observacion la expresion para Hn queda
N/21

Hn =

N/21
n(2r)

y[2r]WN

r=0

r=0
Hnpar

n(2r)

y[2r + 1]WN

WNn

(C.42)

r=0

N/21

N/21

nr
+ WNn
y[2r]WN/2

nr
y[2r + 1]WN/2

(C.43)

r=0

+ WNn Hnimpar

(C.44)

Como antes mencionamos, para calcular los terminos Hn para una secuencia
de longitud N por el metodo directo, se requieren del aproximadamente N 2
multiplicaciones complejas en el producto matricial (C.37). Analogamente para
calcular cada uno de los terminos Hnpar y Hnimpar , que corresponden a secuencias
de largo N/2, requeriremos (N/2)2 multiplicaciones complejas para cada uno.
Y para poder formar cada uno de los N terminos Hn requerimos una u
nica
multiplicacion compleja mas, seg
un (C.44).
Es importante hacer notar que dado que las secuencias y[2r] e y[2r + 1] son
nr
N/2 periodicas en r, sus armonicas WN/2
, tambien lo son:
(l+N/2)

WN/2

l
= ej N/2 (l+N/2) = ej N/2 l ej2 = ej N/2 l = WN/2

(C.45)

Aplicando este nuevo enfoque para la secuencia de largo N necesitamos


 2
N
N +2
N2
N 2
(C.46)
2
Sin embargo, y he aqu la facilidad que entrega el suponer que N es una
potencia de 2, las secuencias y[2r] e y[2r + 1], tienen longitud par (N/2 tambien
sera potencia de 2), por tanto podemos aplicarles este mismo metodo. Es decir,
cada una puede separarse en dos subsecuencias de longitud N/4. Con esto el
n
umero de calculos necesarios seran
 2 !
 2
N
N
N
+2
(C.47)
N +2
=N +N +4
2
4
4
Y as sucesivamente con las secuencias de largo N/4, que pueden subdividirse
en subsecuencias de largo N/8.

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

395

En general una secuencia de largo N = 2v , podemos subdividiras v = log2 N


veces en subsecuencias de longitud menor. Y en cada etapa se realizan N multiplicaciones complejas. Por tanto podemos afirmar que este algoritmo es del
orden de N log2 N . En la figura C.7 se muestra una comparacion del n
umero de
multiplicaciones necesarias para calcular los terminos Hn de esta serie directamento o mediante este nuevo algoritmo denominado FFT. Para una secuencia
de largo N = 1024 = 210 con el primer metodo requerimos 1048576 multiplicaciones, mientras que usando la transformada rapida se requieren solo 10240, es
decir, 2 ordenes de magnitud menor.
2500

2000

1500

1000

500

10

15

20

25
N

30

35

40

45

50

Figura C.7: Comparacion N 2 (x) y N log2 N (*)


Veamos a continuacion un ejemplo para ilustrar el uso de la transformada
rapida
Ejemplo C.14. Considermos una secuancia discreta de longitud N = 8, cuyos
valores denominaremos y0 , y1 , y2 , y3 , y4 , y5 , y6 e y7 . Entonces usando la ecuaci
on
(C.44) tenemos que
Hn = Hnp + W8n Hni
En que Hnp y Hni son la serie formada por las subsecuencias pares e impares
de la secuencia original.
Esto se representa en la figura C.8, donde sobre las lineas de flujo se coloca
el factor que une a los datos
Note en la figura se ha hecho uso de la periodicidad de Hnp y Hni ya que, por
ejemplo,


DE FOURIER
APENDICE
C. LA TRANSFORMACION

396

H0p

W80

H1p

H0
H1

W81

H2p

H2

W82

H3p

H3

W83

H0i

W84

H1i

W85

H2i

W86

H3i

W87

H4
H5
H6
H7

Figura C.8: Primera etapa de la FFT para N = 8

H4 = H4i + W84 H4p


Pero, por la periodicidad
H4p = H0p
H4i = H0i
Por lo tanto,
H4 = H0i + W84 H0p
De manera an
aloga, para calcular los terminos de Hnp y Hni podemos aplicar
la misma idea

Hnp = Hnpp + W82n Hnpi


Hni = Hnip + W82n Hnii
an formadas por subsecuenDonde ahora las series Hnpp , Hnpi , Hnip y Hnii est
cias de largo 2, y tambien son peri
odicas de perodo 2. Como se ve en el esquema
de la figura C.9
Finalmente al subdividir nuevamente las secuencias quedan terminos individuales que corresponden a los 8 valores de la secuencia original considerada:

C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO

H0pp
H1pp
H0pi
H1pi
H0ip
H1ip
H0ii
H1ii

H0

W80

W80

W82

W81

W84
W86

H1
H2
W82

H3
W83

W80

W84

W82

W85

W84
W86

397

W86
W87

H4
H5
H6
H7

Figura C.9: Primera y segunda etapa de la FFT para N = 8

Hnpp = Hnppp + W84n Hnppi = y0 + W84n y1


Hnpi = Hnpip + W84n Hnpii = y2 + W84n y3
Hnip = Hnipp + W84n Hnipi = y4 + W84n y4
Hnii = Hniip + W84n Hniii = y6 + W84n y7
Estos productos calculos se agregan al esquema anterior, tal como se muestra
en la figura C.10, donde podemos apreciar claramente que en cada etapa se
realizan 8 multiplicaciones complejas, totalizando un total de 24. En caso de
haber hecho los c
alculos de manera directa hubiera resultado necesario ralizar
82 = 64 multiplicaciones.


DE FOURIER
APENDICE
C. LA TRANSFORMACION

398

y0
y1
y2
y3
y4
y5
y6
y7

W80
W84
W80
W84
W80
W84
W80
W84

H0

W80

W80

W82

W81

W84
W86

H1
H2
W82

H3
W83

W80

W84

W82

W85

W84
W86

Figura C.10: Las tres etapas de la FFT para N = 8

W86
W87

H4
H5
H6
H7

Transformada de Laplace!regi
on de
convergencia

Ap
endice D

La transformada de Laplace
D.1.

Transformada de Laplace

D.1.1.

Definici
on de la Transformada

Sea una se
nal de tiempo continuo y(t), 0 t < , entonces la Transformada de Laplace asociada a y(t), y su transformada inversa estan definidas
como

L {y(t)} = Y (s) =
L1 {Y (s)} = y(t) =

1
2j

est y(t)dt

(D.1)

+j

est Y (s)ds

(D.2)

Y (s) es la transformada de Laplace de y(t). El par transformada y su inversa


estan bien definidas si existe R y una constante positiva k < tales que
|y(t)| < ket ; t 0

(D.3)

La region <{s} se conoce como la regi


on de convergencia de la
transformada.
Asumimos que el lector ha conocido estas ideas anteriormente en alg
un curso
de matematicas, o bien puede consultar alg
un texto de ecuaciones diferenciales
como ref. a Blanchard??.
Ahora nos concentraremos en la importancia de esta transformada para el
analisis de sistemas, por ejemplo, para determinar respuestas a condiciones inicialesy a diferentes se
nales de entrada.

399


APENDICE
D. LA TRANSFORMADA DE LAPLACE

400

Lema D.1. Sea H(s) una funci


on racional estrictamente propia1 de la variable s con regi
on de convergencia <{s} > . SI denotamos como h(t) a su
correspondiente funci
on temporal, i.e.
H(s) = L [h(t)]

(D.4)

Entonces, para cualquier z0 talque <{z0 } > , tenemos


Z
h(t)ez0 t dt = lm H(s)
sz0

(D.5)

Demostraci
on
De la definici
on de la transformada de Laplace tenemos que, para todo s en
la regi
on de convergencia de la transformada, i.e. en <{s} >
Z
h(t)est dt
(D.6)
H(s) =
0

Por lo tanto se tiene que z0 est


a en la regi
on de convergencia de la transformada.
222
on necesaria
Corollario D.1. En la ecuaci
on D.5 se observa que como condici
para la convergencia de la integral del lado izquierdo se debe cumplir que
lm h(t)est = 0

(D.7)

Resultado que ser


a usado posteriormente.
Ilustramos esto con un ejemplo:
Ejemplo D.1. Considere la se
nal
y(t) = e+2t

t0

(D.8)

Entonces, su transformada de Laplace puede calcularse resolviendo la integral


(D.1) o usando Maple :
> y(t):=exp(2*t);
> with(inttrans):
Y(s) := laplace(y(t),t,s);
Dentro de Maple existe el paquete inttrans, que define la transformada de
Laplace y de Fourier, junto a sus inversas, adem
as de otras transformaciones
integrales. Las lneas de comando antes mostradas entregan como resultado
Y (s) =

1
s2

para

<{s} > 2

(D.9)

1 El orden del polinomio del numerador es estriciamente menor que el orden del polinomio
en el denominador

D.1. TRANSFORMADA DE LAPLACE

401

Ahora considere
Z

I(z0 ) =

ez0 t y(t)dt

(D.10)

Claramente para z0 = 3, tenemos


I(3) =

e3t e2t dt =

et dt = 1

(D.11)

Note que esto se podra haberse obtenido como consecuencia de lema D.1 ya
que
Y (3) =

1
=1
32

(D.12)

Sin embargo, si tomamos z0 = 1, entonces Y (1) = 1. Entonces claramente


I(z0 ) es . Esto est
a de acuerdo con el lema D.1 ya que z0 = 1 no est
a en el
interior de la regi
on de convergencia de la transformada.
222

D.1.2.

Propiedades de la Transformada de Laplace

La transformada de Laplace tiene propiedades muy u


tiles, las cuales se resumen en la Tabla D.2 en la pagina 415. En esta seccion se demuestran algunas
de estas.
Lema D.2. Linealidad
Sean y1 (t) e y2 (t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces
L {y1 (t) + y2 (t)} = Y1 (s) + Y2 (s)

, C

(D.13)

Demostraci
on
Esta propiedad es directa dado que la transformada de Laplace esta definida
mediante la integral (D.1) :
Z

(y1 (t) + y2 (t))est dt


Z
Z
=
y1 (t)dt +
y2 (t)dt

L {y1 (t) + y2 (t)} =

= Y1 (s) + Y2 (s)

222


APENDICE
D. LA TRANSFORMADA DE LAPLACE

402

Lema D.3. Derivada en t.


Sea y(t) una funci
on continua en (0, +) y sup
ongamos que
tinua por tramos, entonces
L

d y(t)
dt

d y(t)
dt

= sY (s) y(0 )

es con-

(D.14)

Demostraci
on
Seg
un la definici
on tenemos:
 Z

d y st
d y(t)
=
L
e dt
dt
0 dt
En esta si se integra por partes,
Z


y(t)est dt
= est y(t) + s
0
0


= lm est y(t) y(0 ) + sL {y(t)}
t

Si utilizamos el resultado (D.7) de la p


agina 400 obtenemos la expresi
on
esperada:


d y(t
L
= sY (s) y(0 )
(D.15)
dt
222
Maple tambien es capaz de reconocer esta y otras propiedades, mediante
los comandos:
> with(inttrans):
laplace(diff(y(t),t),t,s);
s laplace(y(t), t, s) y(0)
Corollario D.2. Derivadas de orden superior.
Si se extiende este resultado, aplicando este lema recursivamente a las derivadas
de orden superior puede demostrarse que

d n y(t)
dt n

= sn Y (s) sn1 y(0 )

d n1 y(0 )
dt n1

n Z+

(D.16)

donde Y (s) = L {y(t)}. Este resultado ser


a usado repetidamente para convertir ecuaciones diferenciales en ecuaciones algebraicas en la variable s. Adem
as
en la ecuaci
on (D.16) se incluyen las condiciones iniciales de la funci
on y sus
derivadas.

D.1. TRANSFORMADA DE LAPLACE

403

Ilustramos esto en el siguiente ejemplo, en que cada paso del desarrollo se


acompa
na por los comandos en Maple correspondientes.
Ejemplo D.2. Considere la ecuaci
on diferencial
> edo :=

diff(theta(t),t,t)+2*diff(theta(t),t)=v_a(t)

d
d 2
+2
= va (t)
(D.17)
dt 2
dt
Si tomamos transformada de Laplace a ambos lados de la ecuaci
on y aplicamos D.16 se obtiene
> EDO := laplace(edo,t,s);
) = Va (s)
s2 (s) + 2s(s) (s + 2)(0 ) (0
(D.18)

Suponiendo condiciones iniciales (0 ) = 0, (0


) = 0 y que la entrada es
un escal
on unitario en t = 0. Entonces
> theta(0):=0;
D(theta)(0):=0;
v_a(t):=Heaviside(t);
Theta(s):=solve(EDO,laplace(theta(t),t,s));


1
(s) =
Va (s)
s2 + 2s


1
1
=
2
s + 2s s
Expandiendo en fracciones parciales obtenemos
> Theta(s):=convert(Theta(s),parfrac,s);

(s) =

1
1
1
+

4(s + 2) 2s2
4s

(D.19)

Aqu, aplicando los resultados de la Tabla D.2 (p


agina 415 ), la salida para
t 0 es
> theta(t):=invlaplace(Theta(s),s,t);

(t) =

1
1 2t 1
e
+ t
4
2
4

(D.20)


APENDICE
D. LA TRANSFORMADA DE LAPLACE

404

Lema D.4. Integral en t


Sea y(t) una funci
on continua en el intervalo (0, +) , con transformada
de Laplace L {y(t)} = Y (s), entonces
L

Z

y( )d
0

1
Y (s)
s

(D.21)

Demostraci
on
Si reemplazamos la integral en la definicion de la transfomada (D.1), podemos hacer una integral por partes:

Z

y( )d
0

Z

Z
|

t
0

y( )d e|st
{zdt}
{z
} dv
u

est
y( )d
=

s 0
0
Z
1
y(t)est dt
=0+
s 0

y(t)

est
dt
s

222
Lema D.5. Derivada en s.
Sea y(t) una funci
on continua con L {y(t)} = Y (s), entonces
L {tn y(t)} = (1)n

d n Y (s)
ds n

Demostraci
on
Este resultado se establece derivando ambos lados de la ecuaci
on

Y (s) =

y(t)est dt

y as` obtenemos
dY (s)
=
ds



y(t)est dt
s

ty(t)est dt

= L {t y(t)}

(D.22)

D.1. TRANSFORMADA DE LAPLACE

405

Y el lema se obtiene aplicando esto repetidamente aunque, en rigor, para intercambiar derivada con integral se requieren ciertas propiedades de regularidad.
222
Este lema puede resultar u
til para obtener la transformada de Laplace de
funciones que aparecen multiplicadas por la variable t, como en el siguiente
ejemplo.
Ejemplo D.3. Consideremos la funci
on y(t) = t2 y obtengamos su transformada de Laplace.Seg
un la definici
on
Z

t2 est dt
L t2 =
0

Y para resolver se puede integrar por partes dos veces. Sin embargo, si se
aplica el lema D.5 tenemos



d2
L t2 1 = (1)2 2 L {1}
ds
d2 1
=
ds 2 s
d
1
=
2
ds
s
2
= 3
s

La propiedad en si y el ejemplo pueden realizarse en Maple , mediante los


siguientes comandos
>laplace(t*y(t),t,s);

laplace(y(t), t, s)
s

> y(t):= t^2;


laplace(y(t),t,s);
1
s3
Se deja al lector como ejercicio encontrar una expresi
on (no recursiva) para
L {tn }, usando el metodo de inducci
on.
2

Lema D.6. Desplazamiento en t.


Sea y(t a), a > 0 una versi
on desplazada de la funci
on y(t). Si (t a) es
la funci
on escal
on unitario que comienza en a, entonces
L {y(t a)(t a)} = esa Y (s)

(D.23)


APENDICE
D. LA TRANSFORMADA DE LAPLACE

406
Demostraci
on

Dado que la funci


on escal
on unitario es igual a 0 antes de a y 1 despues, la
transformada de Laplace puede calcularse con la definici
on
L {u(t a)y(t a)}

=
=
=

Z0

Za

(t a)y(t a)est dt
y(t a)est dt

y(t)es(t+a) dt
Z

esa
y(t)est dt
0

sa

Y (s)

De donde se obtiene el resultado deseado.


222
Note que
L {y(t a)t a} 6= L {y(t a)(t)}

Por lo tanto la transformada de Laplace del lado derecho no puede obtenerse


con ayuda del lema D.6, sino en base a la definicion o usando otras propiedades.
Ejemplo D.4. Para ver una aplicaci
on de este lema obtengamos la transformada de Laplace de un pulso p(t).
p(t) =

1
0

; si 0 t < a
; si t a

Esta se
nal puede escribirse usando la funci
on de Heaviside o escal
on unitario
(t) sin necesidad de definirla por tramos. En Maple
> assume(a>0);
p(t):=Heaviside(t)-Heaviside(t-a);
p(t) = (t) (t a)

Y usando la propiedad (D.23), o calculano con Maple , se obtiene


> P(s):=laplace(p(t),t,s);
1 1 as
e
s s
1
= 1 esa
s

P (s) =

D.1. TRANSFORMADA DE LAPLACE

407

Este ejemplo puede extenderse a cualquier funcion que este definida por
tramos, cuya transformada de otra forma se tendra que calcular separando la
integral (D.1) de la definicion.
Se deja al lector obtener una expresion para f (t)p(t) en que p(t) es el pulso
del ejemplo anterior, y f (t) es alguna funcion continua en el intervalo 0 < t < a.
A continuacion se presenta otro resultado relacionado con el desplazamiento
temporal de una funcion.
Lema D.7. Funci
on peri
odica.
Tomemos una funci
on perodica
y(t) =

n=0

yT (t nT )

(D.24)

en que yT (t) es cero fuera del intervalo [0, T ], es decir, yT (t) = [(t) (t
T )]y(t). Entonces la transformada de Laplace de y(t) es
L {y(t)} =
en que YT (s) = L {yT (t)}.

1
YT (s)
1 esT

(D.25)

Demostraci
on
Si se utiliza el resultado del lema D.6, al aplicar transformada de Laplace a
la ecuaci
on (D.24) tenemos por linealidad

L {y(t)} =

enT s YT (s)

n=0

Y (s) = YT (s)

enT s

n=0

y si recordamos la suma de una serie geometrica,




1 lmn enT s
Y (s) = YT (s)
1 esT
y dentro de la regi
on de convergencia lmn enT s 0
Y (s) =

1
YT (s)
1 esT
222


APENDICE
D. LA TRANSFORMADA DE LAPLACE

408

Lema D.8. Corrimiento en s


Sea y(t) una funci
on continua en el intervalo (0, +) , con transformada
de Laplace L {y(t)} = Y (s), entonces

Demostraci
on



L eat y(t) = Y (s a)

(D.26)

De la definicion (D.1), tenemos que




L eat y(t) =
=

eat y(t)est dt

y(t)e(sa)t dt

= Y (s a)
222
Lema D.9. Convoluci
on
Sean y1 (t) e y2 (t) funciones continuas en (0, +), talque son iguales a cero
para t < 0, cuyas transformadas de Laplace son Y1 (s) e Y2 (s), respectivamente.
Entonces la transformada de la convoluci
on entre y1 (t) e y2 (t) es:
L {y1 (t) y2 (t)} = Y1 (s)Y2 (s)

(D.27)

En que
y1 (t) y2 (t) =

t
0

y1 ( )y2 (t )d

(D.28)

Demostraci
on
Si las se
nales son causales, es decir, su valor es cero t < 0, entonces podemos
reescribirlas
y1 (t) = (t)y1 (t)
y2 (t) = (t)y2 (t)
Con esto, la convolucion es equivalente a
Z
y1 (t) y2 (t) =
y1 ( )( )y2 (t )(t )d

D.1. TRANSFORMADA DE LAPLACE

409

Si reemplazamos esta forma en la definicion (D.1), podemos cambiar el orden


de las integrales:

L {y1 (t) y2 (t)} =


=

Z

0
Z

y1 ( )( )y2 (t )(t )d est dt



Z
st
[y2 (t )(t )] e dt d
y1 ( )( )

Donde se puede aplicar la propiedad de corrimiento en t:


Z

y1 ( )( )es Y2 (s)d
Z
y1 ( )es d
= Y2 (s)

L {y1 (t) y2 (t)} =

= Y2 (s)Y1 (s)

222

Lema D.10. Producto en t


Sean y1 (t) e y2 (t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces la transformada del producto entre y1 (t) e y2 (t) es:
L {y1 (t)y2 (t)} =

1
2j

+j
j

Y1 ()Y2 (s )d

(D.29)

Demostraci
on
Si reemplazamos el producto de las funciones dentro de la definicion de la
transformada, podemos demostrar la propiedad escribiendo una de ellas como
la transformada inversa de su transformada de Laplace:

L {y1 (t)y2 (t)} =


=

0
Z
0

y1 (t)y2 (t)est dt


Z +j
1
t
Y1 ()e d y2 (t)est dt
2j j

Intercambiando el orden de las integrales y usando la propiedad de corrimiento s tenemos que


APENDICE
D. LA TRANSFORMADA DE LAPLACE

410

L {y1 (t)y2 (t)} =


=

1
2j
1
2j

Z
Z

+j

Y1 ()
j
+j
j

Z


et y2 (t)est dt d

Y1 ()Y2 (s )d
222

Teorema D.1. . [Teorema del Valor Final y Teorema del Valor Inicial]
Existen dos resultados que permiten obtener relaciones entre comportamientos asint
oticos de la funci
on y(t) y su tranformada Y (s). Estos se conocen como
el teorema del Valor Inicial y teorema del Valor Final.
(i) lm+ y(t) = lm sY (s)

(D.30)

(ii) lm y(t) = lm sY (s)

(D.31)

t0

s0

Las ecuaciones anteriores son v


alidas s
olo en caso que ambos lmites existan.
Demostraci
on
Las demostraciones se basan en resultados anteriores
(i) Teorema del Valor Inicial.
Supongamos primero que y(t) es continua en t = 0, i.e. y(0 ) = y(0+ ) =
y = 0. Si usamos la ecuaci
on (D.14) tenemos
Z

d y(t) st
e dt = sY (s) y(0 )
dt

pero la integral del lado izquierdo puede acotarse y usar la ecuaci


on (D.3)

Z
Z
d y(t) st
d y(t) st


e dt
dt e dt
dt
0
0
Z

ket est dt
0

e(s)t
=k
s + 0
y dado que la integral existe en la regi
on de convergencia <{s}
Z
k
d y(t) st
e dt
dt
s
0

D.1. TRANSFORMADA DE LAPLACE


y si s entonces

k
s

411

0, de donde se obtiene
lm sY (s) = lm y(t)

t0+

Ahora si la funci
on y(t) no es continua, podemos definir


y(t) = y(t) y(0+ ) y(0 )

(D.32)

que si es continua. Si aplicamos transformada de Laplace a la derivada de


y(t)
Z

d y(t) st
e dt = sY (s) y(0 )
dt

pero y(0 ) = y(0 ) es continua y aplicando Laplace a (D.32)


Z

h
d y(t) st
y(0+ ) y(0 ) i
e dt = s Y (s)
y(0 )
dt
s
= sY (s) y(0+ )

y nuevamente el lado izquierdo se hace cero cuando s .

222

(ii) Teorema del Valor Final.


Seg
un la ecuaci
on (D.14)
Z

d y(t)
dt = sY (s) y(0 )
dt

(D.33)

si tomamos lmite cuando s 0 a ambos lados de la ecuaci


on,
lm

s0

Z

d y(t) st
e dt
dt

= lm sY (s) y(0 )
s0

(D.34)

Podemos intercambiar lmite e integral suponiendo ciertas condiciones de regularidad:


Z

d y(t)
(D.35)
lm est dt = lm sY (s) y(0 )
s0
dt s0
0
Z
d y(t)
dt = lm sY (s) y(0 )
(D.36)
s0
dt
0
lm y(t) y(0 ) = lm sY (s) y(0 )
(D.37)
t

s0

lm y(t) = lm sY (s)

s0

(D.38)
222


APENDICE
D. LA TRANSFORMADA DE LAPLACE

412

Ejemplo D.5. Debe tenerse precauci


on de utilizar estos teoremas en caso solo
en que ambos limites existan tanto en el tiempo como en la variable compleja s.
Consideremos por ejemplo la transformada de Laplace de cos(0 t)
L {cos(0 t)} =

s
s2 + 02

si utilizamos el teorema del valor final


lm

s0

s2

s2 
=0
+ 02

cuando en realidad sabemos que


lm cos(0 t) = @

222
Ejemplo D.6. Una distinci
on importante de hacer es que en el caso en que la
respuesta de un sistema sea discontinua en t = 0 el teorema del Valor Inicial
entrega el valor de la salida en t = 0+ el que puede no coincidir con la condici
on
inicial dada. Veamos esto en un ejemplo simple en que tenemos un circuito como
el de la figura D.1 en que se conecta la batera de 1[V] en t = 0, y todas las
condiciones iniciales son cero.
R
+
vf (t)

C
i(t)

Figura D.1: Circuito RC

Por ley de voltajes de Kirchoff tenemos


vf (t) = vR (t) + vC (t)
Z
1 t
(t) = Ri(t) +
i( )d
C
y si derivamos a ambos lados,
d i(t)
1
d (t)
=R
+ i(t)
dt
dt
C

vc (t)

D.1. TRANSFORMADA DE LAPLACE

413

Si aplicamos transformada de Laplace, y consideramos la condici


on inicial igual
a cero
s
y despejando se obtiene


 1
1
= R sI(s) i(0 ) + I(s)
s
C

I(s) =

1
sR +

1
C

por tanto si aplicamos el teorema del valor inicial


i(0+ ) = lm sI(s)
s

= lm

s
sR +

1
C

1
R

que evidentemente es diferente a la corriente inicial t = 0 . Esto se comprueba


observando que la transformada inversa de I(s) es discontinua en t = 0
i(t) = L1 {I(s)}


1/R
1
=L
s + 1/RC
1
= et/RC (t)
R
La transformada de Laplace es una herramienta muy u
til en el estudio de
sistemas dinamicos ya que pemite convertir las ecuaciones diferenciales, en
el tiempo t, a ecuaciones algebraicas en la variable s.

Propiedades transformada de Laplace


Tabla transformadas de Laplace
Tabla transformadas de Laplace invers


APENDICE
D. LA TRANSFORMADA DE LAPLACE

414

f (t)
l
X

L {f (t)}
l
X

ai yi (t)

i=1

dk y(t)
dtk

Fi (s) = L {fi (t)}

ai Yi (s)

i=1

dy(t)
dt

Comentarios

sY (s) y(0 )
k

s Y (s)

Pk

i=1

y( )d
0

ki

1
Y (s)
s


di1 y(t)
dti1 t=0

donde Y (s) = L {y(t)}


donde Y (s) = L {y(t)}

dY (s)
ds

ty(t)

tk y(t)

(1)k

dk Y (s)
dsk

y(t )(t )

es Y (s)

eat y(t)

Y (s a)

k {1, 2, 3, . . .}
(t) :

escalon unitario

t
0

y1 ( )y2 (t )d
y1 (t)y2 (t)
lm y(t)

lm y(t)

t0+

Y1 (s)Y2 (s)
1
2j

y1 (t) = y2 (t) = 0 t < 0

+j

Y1 ()Y2 (s )d

lm sY (s)

s0

Convolucion compleja
y() debe estar bien definida

lm sY (s)

Cuadro D.1: Propiedades de la transformada de Laplace

D.1. TRANSFORMADA DE LAPLACE

f (t)

(t 0)

415

L {f (t)}

Region de Convergencia

1
s

>0

D (t)

|| <

(t )

es
s

>0

1
s2

>0

tn

n Z+

n!
sn+1

>0

et

1
s

> <{}

tet

1
(s )2

> <{}

s
+ o2

>0

sen(o t)

o
s2 + o2

>0

et sen(o t + )

(sen )s + o2 cos sen


(s )2 + o2

> <{}

cos(o t)

s2

t sen(o t)

2o s
(s2 + o2 )2

>0

t cos(o t)

s2 o2
(s2 + o2 )2

>0

(t) (t )

1 es
s

|| <

Cuadro D.2: Transformadas de Laplace de algunas funciones simples


APENDICE
D. LA TRANSFORMADA DE LAPLACE

416
fracciones parciales
polos

D.1.3.

Descomposici
on en fracciones parciales

Las ecuaciones (D.1) y (D.2) dan una forma de describir se


nales y sistemas
en el dominio de la variable s y poder volver al dominio del tiempo. Sin embargo,
la ecuacion (D.2) pocas veces se usa para obtener la transformada de Laplace
inversa de una funcion. La transformada de Laplace de muchas de las se
nales
que nos interesan son funciones racionales en s, por lo tanto, generalmente se usa
la descomposicion en fracciones parciales para obtener su transformada inversa,
por comparacion con transformadas conocidas.
Tomemos una funcion racional en s, en que se conocen las races del polinomio denominador, que llamaremos polos del sistema. En caso de no ser
una funcion estrictamente propia, siempre puede realizarse la division de los
polinomios de forma de tener un polinomio en s mas una funcion estrictamente
propia.
Ejemplo D.7. Supongamos, para empezar, una funci
on con un polinomio denominador de segundo orden
As + B
(D.39)
+ Cs + D
No es simple determinar a priori la transformada inversa de esta expresi
on,
pero si se pueden determinar las races del denominador. Supongamos que estas
son s = 1 y s = 2 , con 1 6= 2 . El metodo de fracciones parciales pretende
expresar una funci
on racional como suma de funciones racionales m
as simples,
que en nuestro caso nos permite identificar desde una tabla su tranformada de
Laplace inversa.
H1 (s) =

Y1 (s) =

s2

As + B

=
+
(s + 1 )(s + 2 )
s + 1
s + 2

(D.40)

Es decir, buscamos los coeficientes y . Para determinar estos lo primero


que puede hacerse es realizar la suma al lado derecho de (D.40) e igualar el
polinomio denominador resultante con el de la ecuaci
on (D.39)
As + B = ( + )s + 2 + 1

(D.41)

Estos polinomios son iguales si y s


olo si sus coeficientes son iguales:
+
2 + 1 1

= A
= B

(D.42)

Este sistema de ecuaciones puede resolverse obteniendo funalmente

A1 B
1 2
A2 + B
1 2

(D.43)

D.1. TRANSFORMADA DE LAPLACE

417

Finalmente teniendo estos valores de las constantes puede verse en la tabla


D.2 la tranformada inversa



1
+
= e1 t + e2 t
(D.44)
y1 (t) = L
s + 1
s + 2
222
En el ejemplo anterior al descomponer la funcion racional (D.39) en dos
fracciones (D.40), para encontrar las constantes se resolvio el sistema (D.42) de
dos ecuaciones y dos incognitas. Sin embargo, si el polinomio denominador es
de orden N el metodo desemboca en resolver un sistema de N ecuaciones y
N inc
ognitas !. Es por esto que en el siguiente ejemplo se muestra un metodo
mas practico.
Ejemplo D.8. Consideremos el sistema
2s + 1
(D.45)
+ 3s2 4s
Del polinomio denominador pueden calcularse los polos del sistema. Estos se
ubican en s = 0, 4, 1, Por lo cual interesa descomponerlo en la forma
Y2 (s) =

s3

2s + 1

= +
+
s3 + 3s2 4s
s
s+4 s1

(D.46)

Si multiplicamos por s ambos lados de la ecuaci


on
s
s
2s + 1
=+
+
s2 + 3s 4
s+4 s1
Y ahora si hacemos s = 0 se obtiene directamente la primera constante

1
=
4

Ahora para el segundo termino de (D.46) podemos multiplicar por (s + 4)


para reemplazar luego por la segunda raz s = 4

"
#
(s + 4)
(s + 4)
2s + 1
=
++

s(s 1)
s
s1
s=4

s=4

7
=
20

De manera an
aloga pueden encontrarse la tercera constante, multiplicando
por (s 1) y reemplazando s = 1

#
"
2s + 1
(s 1) (s 1)
+
+
=

s(s + 4)
s
s+4
s=1

s=1

3
5


APENDICE
D. LA TRANSFORMADA DE LAPLACE

418

Como puede verse este metodo de multiplicar por cada uno de los polinomios
factores del denominador, para luego reemplazar la variable s por la respectiva
raz, permite llegar de manera mucho m
as directa a los coeficientes de la descomposici
on (D.46). Con ayuda de la tabla D.2 se obtiene finalmente
 1
3 
7
4
20
1
y2 (t) = L
+
+ 5
s
s+4 s1
7
3
1
(D.47)
= e4t + et
4 20
5
222
Se deja al lector verificar que la funci
on obtenida es la misma que se obtiene
si se aplica el metodo del ejemplo D.7.
Cabe destacar que en el ejemplo D.8 se ha aprovechado que al multiplicar
por cada factor del denominador (s ) y reemplazar por s = todos los
terminos de la descomposicion en fracciones parciales se hacen cero, excepto el
1
coeficiente correspondiente a s
. Sin embargo, en caso de existir races repetidas, aparecera una indefinicion al reeplazar (s = ).
Ejemplo D.9. En el caso de races repetidas, la descomposici
on en fracciones
parciales no toma la forma (D.40), sino que se descompone como
Y3 (s) =

As + B
=
+
(s )2
s (s )2

(D.48)

Note que en esta expresi


on solamente el coeficiente puede ser obtenido
como en el ejemplo D.8, Porque no puede obtenerse el coeficiente ? C
omo
podra obtenerse ?
Una manera simple de llegar a la forma (D.48) es forzando a que aparezca
el termino (s ) en el numerador, separar y luego simplificar como se muestra
a continuacion
Y3 (s)

=
=

A(s ) + (A + B)
(s + )2
A + B
A
+
s (s + )2

(D.49)

Con lo cual puede obtenerse de la tabla D.2


y3 (t) = Aet + (A + B)tet

(D.50)
222

Cuando las races del polinomio denominador son n


umeros complejos, el
metodo visto en los ejemplos D.7,D.8 y D.9 puede aplicarse de igual forma. Los
coeficientes que se obtienen en este caso son complejos, pero ademas, dado que
el polinomio denominador tiene coeficientes reales, las races complejas aparecen siempre en pares complejos conjugados2 , los coeficientes de la expansion
2 Esto

como resultado del Teorema Fundamental del Algebra

D.1. TRANSFORMADA DE LAPLACE

419

en fracciones parciales tambien son complejos conjugados. Esto asegura que las
funciones exponenciales complejas que se obtienen en (D.44) son iguales a sinusoidales multiplicadas por exponenciales reales. Se deja al lector como ejercicio
esta demostracion.
Ejemplo D.10. Cuando el denominador de una funci
on racional de la forma
(D.39) tiene races complejas se suele escribir como
Y4 (s) =

As + B
;
s2 + 2n s + n2

0<1

(D.51)

Expresi
on en que se denomina factor de amortiguaci
on. Dado que en la tabla
D.2 tenemos s
olo expresiones en que el denominador es una suma de cuadrados,
podemos escribir la funci
on de la forma
Y4 (s) =

(s + n

As + B
p
+ (n 1 2 )2

)2

(D.52)

Y en el numerador de esta expresi


on puede construrse el termino (s + n )
para luego separar en dos terminos
A(s + n ) + (An + B)
D(s)
A(s + n ) (An + B)
=
+
D(s)
D(s)

Y4 (s) =

p
A(s + n ) (An + B) (n 1 2 )
p
+
=
D(s)
D(s)
(0 1 2 )

(D.53)

en que el denominador es

D(s) = (s + n )2 + (n

1 2 )2

(D.54)

Y aplicando transformada de Laplace inversa se llega a


y4 (t) = Aen t cos n

1 2 t+

p
(An + B) n t
p
e
sen n 1 2 t (D.55)
(n 1 2 )

222

Con estos ejemplos y un poco de practica no debiera resultar difcil obtener


transformadas de Laplace inversa de funciones racionales. En realidad hoy en
da cualquier software es capaz de obtener la expansion en fraccines parciales de
una funcion racional3 , e incluso transformadas inversas de Laplace, por lo tanto,
estos calculos pueden dejarse para el computador cuando resulten demasiado
engorrosos.
Por ejemplo, si usamos Maple para obtener la transformada de Laplace
inversa de la funcion racional (D.39), tenemos las siguientes lneas de comando
que arrojan el resultado que se aprecia mas adelante
3 Use

el comando residue de MATLAB

420

APENDICE
D. LA TRANSFORMADA DE LAPLACE

> H(s) := (A*s+B)/(s^2+C*s+D):


h(t) := invlaplace(H(s),s,t);

1
1
e 2 Ct DA cos( 12 4 D C 2 t)
1 e 2 Ct C 3 B cos( 12 4 D C 2 t)
+4
h(t) =
2
(4 D C 2 ) D
4 D C2

1
1
e 2 Ct C 2 A cos( 12 4 D C 2 t) e 2 Ct AC sen( 12 4 D C 2 t)

4 D C2
4 D C2

1
1
Ct

21 Ct
CB cos( 2 4 D C 2 t)
e 2 B sen( 12 4 D C 2 t)
e

+2
2
4 D C2
4 D C2

1
1 e 2 Ct CB cos( 21 4 D C 2 t)
+
2
D
Es importante notar que Maple , en este caso, ha supuesto que el termino 4D C 2 es estrictamente positivo, es decir, que las races del polinomio
denominador son reales y distintas. En consecuencia, si bien el uso de software
puede ayudar bastante en un desarrollo matematico, lo fundamental es entender
e interpretar lo resultados que se obtienen.

D.1. TRANSFORMADA DE LAPLACE

421

Y (s)

y(t) = L1 {Y (s)} ; t 0

D (t)

e s , > 0

D (t )

1
s

(t)

1
, n {2, 3, . . .}
sn

tn1
(n 1)!

k
s+

ket

e s
, > 0
s+

e(t ) (t )

a1 s + a 0
(s + 1 )(s + 2 )

C1 e1 t + C2 e2 t
C1 =

1 a1 a0
1 2

; C2 =

2 a1 +a0
1 2

a1 s + a 0
(s + )2

a1 et + (a0 a1 )tet

a1 s + a 0
(s + )2 + 02

h
i
et C1 cos(0 t) + C2 sen(0 t)
C1 = a 1 ; C 2 =

k
s(s + )
a1 s + a 0

s (s + )2 + 02

a0 a1
0


k
1 et
a
h

i
t
1

e
C
cos(
t)
+
C
sen(
t)
1
0
2
0
2

a0
+ 0

C1 = a 0 ; C 2 =

a0 a1 (2 +02 )
0

Cuadro D.3: Transformadas inversas de Laplace u


tiles

422

APENDICE
D. LA TRANSFORMADA DE LAPLACE

radio de convergencia

Ap
endice E

La Transformaci
on Zeta
E.1.

Definici
on de la Transformaci
on

Dada una se
nal de tiempo discreto f [k], 0 k < . La transformacion
Zeta, y la transformacion Zeta inversa, estan definidas por

Z {f [k]} = F (z) =

(E.1)

k=0

1
2j

Z 1 {F (z)} = f [k] =

f [k]z k

f (z)z k1 dz

(E.2)

La curva cerrada sobre la que se calcula la transformada Zeta inversa (E.2)


se elige de forma que para todos los valores de z sobre , la sumatoria en (E.1)
converge. Esto implica que depende de f [k], tal como se determina, en forma
constructiva, a continuacion.
La transformacion Zeta es la contraparte discreta de la Transformacion de
Laplace. Su justificacion surge de la necesidad de cubrir un rango mas amplio
de se
nales que el que puede ser tratado usando al transformacion de Fourier. En
el caso de la transformacion Zeta la transicion se puede describir como

k=

f [`]ej`

X
f [`]

k=0

|z|`

ej` ;

|z| >

(E.3)

Donde podemos definir z = |z|ej , y donde se denomina radio de convergencia de la transformacion.


Observe que, por un lado, hemos reducido la sumatoria al intervalo k N y
que por otro, hemos dividido la funcion f [`] por |z|` . Una eleccion adecuada de
puede hacer que en muchos casos en que la sumatoria de la izquierda no converge,
la suma de la derecha s lo haga. Por ejemplo, la se
nal f [k] = (1, 5)k [k] no tiene
423


ZETA
APENDICE
E. LA TRANSFORMACION

424

transformada de Fourier, pero si tiene transformada Zeta, para ello, basta elegir
|z| > 1, 5.
Para obtener (E.2), que describe la formula de la Transformacion Zeta inversa, podemos recurrir a la idea de ortogonalidad. Si ambos lados de la ecuacion
(E.1) son multiplicados por z k = |z|k ejk , y luego integramos en el intervalo
[0; 2], se obtiene
Z

F (z)z k d =
0

f [k]|z|k`

`=0

ej(k`) d

(E.4)

Por otra parte, sabemos que las exponenciales periodicas 1, ej , ej2 , ej3 , . . .
forman un conjunto de funciones ortogonales, ya que
(
Z 2
0
k 6= `
jk j`
j(`k)
he , e i =
(E.5)
e
d =
2 k = `
0
Con este resultado, (E.4) se simplifica a
1
f [k] =
2

F (z)z k d

(E.6)

Finalmente podemos reemplazar la integral con respecto a por una integral


respecto de z. Primero notamos que
d |z|ej
1
dz
=
= jz = d =
dz
d
d
jz

(E.7)

Luego, reemplazando la expresion para d en (E.6) se llega a la ecuacion


(E.2). Note que como recorre el intervalo [0; 2], nuestra primera interpretacion
de en (E.2) es la de una circunferencia de radio mayor que . La teora de
variables complejas permite demostrar que es suficiente que sea una curva
cerrada que encierre completamente la circunferencia de radio mayor que .
Ilustremos el calculo de la transformada Zeta y su inversa mediante un par
de ejemplos:
Ejemplo E.1. Considere la se
nal
y[k] = k [k]

(E.8)

Entonces, su transformada Zeta est


a dada por la serie geometrica:

X

X
1 (z 1 )k
(z 1 )k = lm
k z k =
Z k [k] =
k 1 (z 1 )
k=0

(E.9)

k=0

Donde la expresi
on al lado derecho converge si y s
olo si
|z 1 | < 1 |z| > ||

(E.10)

E.2. PROPIEDADES DE LA TRANSFORMADA ZETA

425

Entonces, en esta regi


on tenemos que


Z k [k] =

E.2.

z
1
=
1 z 1
z

(E.11)
222

Propiedades de la Transformada Zeta

La transformada Zeta posee una serie de propiedades, las cuales se resumen


en la Tabla E.1 en la pagina 433. En esta seccion se revisan algunas de ellas.
Lema E.1. Linealidad
Sean y1 [k] e y2 [k] dos secuencias discretas definidas para k [0, +), cuyas
transformadas Zeta son Y1 (z) e Y2 (z), respectivamente. Entonces
Z {y1 [k] + y2 [k]} = Y1 (z) + Y2 (z)

, C

(E.12)

Demostraci
on
Esta propiedad se demuestra sin problema ya que la transformada Zeta se
define mediante la sumatoria (E.1) :

L {y1 [k] + y2 [k]} =

(y1 [k] + y2 [k])z k

k=0

y1 [k]z k +

k=0

= Y1 (z) + Y2 (z)

y2 [k]z k

k=0

Se debe hacer notar que en este caso la region de convergencia de la combinacion lineal de las transformadas es la intersecci
on de la region de convergencia de cada una por separado.
222
Lema E.2. Escalamiento en z.
Sea y[k] una secuencia de tiempo discreto en que k (0, +), y sup
ongamos
que tenemos a C, entonces
z 


Z ak y[k] = Y
(E.13)
a

Demostraci
on

Seg
un la definicion tenemos:

z 
 z k
X

X
Z ak y[k] =
=Y
ak y[k]z k =
y[k]
a
a
k=0

k=0

(E.14)


ZETA
APENDICE
E. LA TRANSFORMACION

426

En este caso la region de convergencia de la nueva transformada tambien


resulta escalada.
222
Ejemplo E.2. Consideremos la transformada Zeta calculada para la secuencia
del ejemplo E.1, que establece
y1 [k] = k [k] Y1 (z) =
Si ahora consideramos la secuencia

z
z

; || < 1

y2 [k] = k y1 [k] = [k]


Su transformada Zeta, aplicando (E.13) es
 z 
1
= Y1 (z)
z
=
z
z
=
z1

Y2 (z) = Y1

Que converge si y solo si |z| > 1.


Ejemplo E.3. Consideremos ahora la secuencia que corresponde a una oscilaci
on de amplitud creciente o decreciente dependiendo del par
ametro r.
y[k] = r k cos(0 k)
Su transformada Zeta puede obtenerse escribiendo el coseno en terminos de
exponenciales complejas

1  j0 k
(re ) + (rej0 )k )
2
Usando el teorema, tenemos que
y[k] =



1   j0 k
Z (re ) + Z (rej0 )k )
2

1
z
z
=
+
2 z rej0
z rej0


1
z(2z 2r cos 0 )
=
2 z 2 z2r cos 0 + r2
z(z r cos 0 )
= 2
z z2r cos 0 + r2

Y (z) =

E.2. PROPIEDADES DE LA TRANSFORMADA ZETA

427

Lema E.3. Conjugaci


on.
Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta
es Y (z). Entonces, la transformada Zeta de la secuencia conjugada es
Z {y [k]} = Y (z )

(E.15)

Demostraci
on
Directa de la definicion (E.1)

Z {y [k]} =
=

y [k]z k

k=0

y[k](z )k

k=0

= {Y (z )}
222

Lema E.4. Desplazamientos en k.


Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta
es Y (z). Entonces, dado un entero k0 > 0, tenemos los siguientes resultados
para la transformada Zeta de la secuencia y[k] desplazada
Z {y[k k0 ]} = Y (z)z k0 + y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ]
(E.16)

k0 1
k0
k0
+ . . . + y[k0 1]z
(E.17)
Z {y[k + k0 ]} = Y (z)z y[0]z + y[1]z
Demostraci
on
Consideremos primero el caso en que la secuencia ha sido retrasada en k 0 ,
es decir, la ecuacion (E.16). Si usamos la definicion de la transformada (E.1), y
la escribimos por extension, tenemos que

Z {y[k k0 ]} =

k=0

y[k k0 ]z k

= y[k0 ] + y[k0 + 1]z 1 + . . . + y[1]z k0 +1 +

k=k0

y[k k0 ]z k

Si definimos en la sumatoria l = k k0 , entonces tenemos que k = l + k0 .


Por tanto si reordenamos al lado derecho de la u
ltima igualdad tendremos que


ZETA
APENDICE
E. LA TRANSFORMACION

428

Z {y[k k0 ]} =

y[l]z (l+k0 ) + y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ]

l=0

=z

k0

y[l]z

l=0

+ y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ]

Donde la ecuacion (E.16) queda demostrada.


Consideremos ahora el caso en que la secuencia y[k] es adelantada en k 0 .
Reemplazando en la definicion tenemos que

Z {y[k + k0 ]} =
=

y[k + k0 ]z k

k=0

y[l]z (lk0 )

l=k0

=z
=

k0

X
l=0

"

X
l=0

y[l]z

y[0] + y[1]z

+ . . . + y[k0 1]z

k0 +1

y[l]z l y[0]z k0 + y[1]z k0 1 + . . . + y[k0 1]z

Lo cual demuestra la segunda ecuacion del lema, (E.17).


222
Es importante observar que si la secuencia y[k], retrasada en k0 , ademas
se multiplica por un escalon unitario, tambien desplazado en k0 , entonces tendremos que
Z {y[k k0 ][k k0 ]} = Y (z)z k0

(E.18)

Ya que, en este caso, todas las condiciones iniciales seran iguales a cero.
Ejemplo E.4. Determine la transformada Zeta inversa de
Y (z) =

z k0
z

Esta transformada se puede reescribir de manera de poder aplicar la ecuaci


on
(E.18)
z
z
y[k] = k(k0 +1) [k (k0 + 1)]
Y (z) = z (k0 +1)

E.2. PROPIEDADES DE LA TRANSFORMADA ZETA

429

Lema E.5. Derivaci


on en z
Sea y[k] una secuencia en tiempo discreto para k (0, +) , con transformada Zeta Z {y[k]} = Y (z), entonces
Z {k y[k]} = z

d Y (z)
dz

(E.19)

Demostraci
on
De la definicion (E.1), tenemos que

Z {k y[k]} =
=

ky[k]z k

k=0

ky[k]z k

k=0

= z

(k)y[k]z k1

k=0

d Y (z)
= z
dz
222
Ejemplo E.5. Consideremos el caso en que la secuencia discreta a la cual
queremos calcularle su transformada Zeta es una rampa de tiempo discreto, es
decir:
y[k] = k[k]
Seg
un (E.19) su transformada ser
a


d
z
Z {k[k]} = z
dz z 1
(z 1) z
= z
(z 1)2
z
=
(z 1)2
Lema E.6. Convoluci
on
Sean y1 [k] e y2 [k] dos secuencias discretas causales, es decir, iguales a cero
para k < 0. Supongamos que sus transformadas Zeta son Y1 (z) e Y2 (z), respectivamente. Entonces la transformada de la convoluci
on discreta entre y 1 [k] e
y2 [k] es:


ZETA
APENDICE
E. LA TRANSFORMACION

430

L {y1 [k] y2 [k]} = Y1 (z)Y2 (z)

(E.20)

En que
y1 [k] y2 [k] =

k
X
l=0

y1 [l]y2 [k l]

(E.21)

Demostraci
on
Si las se
nales son causales, es decir, su valor es cero k < 0, entonces podemos
reescribirlas
y1 [k] = [k]y1 [k]
y2 [k] = [k]y2 [k]
Con esto, la convolucion es equivalente a
y1 [k] y2 [k] =

l=

y1 [l][l]y2 [k l][k l]

Si reemplazamos esta forma en la definicion (E.1), podemos cambiar el orden


de las sumatorias:

L {y1 [k] y2 [k]} =


=

k=0

l=

y1 [l][l]y2 [k l][k l] z k

y1 [l][l]

l=

k=0

y2 [k l][k l]z

Donde se puede aplicar la propiedad de corrimiento en k (E.18) y reducir la


sumatoria eliminando el [l]:

L {y1 [k] y2 [k]} =

y1 [l][l]z l Y2 (z)

l=

= Y2 (z)

y1 [l]z l

l=0

= Y2 (z)Y1 (z)
222

E.2. PROPIEDADES DE LA TRANSFORMADA ZETA

431

Teorema E.1 (Teorema del Valor Final y Teorema del Valor Inicial).
Existen dos resultados que relacionan el comportamiento asint
otico de la funci
on
y[k] y su tranformada Y (z). Estos se conocen como el teorema del Valor Inicial
y teorema del Valor Final en tiempo discreto.

lm Y (z) = y[0]

(E.22)

lm (z 1)Y (z) = lm y[k]

(E.23)

z
z1

Las ecuaciones anteriores son v


alidas s
olo en el caso que los lmites
existen, tanto en k como en z.
Demostraci
on
La ecuaci
on (E.22) se demuestra f
acilmente observando la definici
on de la
transformada Zeta de la secuencia y[k] escrita por extensi
on

Y (z) =

y[k]z k

k=0

= y[0] + y[1]z 1 + . . . + y[k]z k + . . .


La cual, si se lleva al lmite z se reduce a un solo termino
lm Y (z) = lm y[0] + lm y[1]z 1 + . . . + lm y[k]z k + . . .
z
z
z
|
|
{z
}
{z
}

= y[0]

Con lo que se demuestra el Teorema del Valor Inicial.


Para demostrar la ecuaci
on (E.23) consideremos la transformada Zeta de la
secuencia adelantada en una unidad menos la secuencia original

Z {y[k + 1] y[k]} = Z {y[k + 1]} Z {y[k]}


= zY (z) zy[0] Y (z) = (z 1)Y (z) zy[0]
Por otro lado, si aplicamos la definici
on tendremos que

Z {y[k + 1] y[k]} = lm

k
X
l=0

(y[l + 1] y[l])z l


ZETA
APENDICE
E. LA TRANSFORMACION

432
Propiedades transformada Zeta
Tabla transformada Zeta

Si igualamos ambas expresiones y hacemos posteriormente tender z 1 ,


tendremos que
)
(
k
X
lm {(z 1)Y (z) zy[0]} = lm lm
(y[l + 1] y[l])z l
z1

z1

lm {(z 1)Y (z)} y[0] = lm

z1

k
X
l=0

l=0

(y[l + 1] y[l])

lm {(z 1)Y (z)} y[0] = lm (y[k + 1]) y[0]

z1

Donde el u
ltimo paso al lado derecho se justifica ya que la sumatoria corresponde a una serie telescopica. De esta forma se demuestra el Teorema del
Valor Final, o valor de equilibrio.

La transformada Zeta es muy u


til en el estudio de sistemas dinamicos de
tiempo discreto, ya que pemite convertir las ecuaciones recursivas, que definen al sistema en el tiempo k, a ecuaciones algebraicas en la variable z.

E.2. PROPIEDADES DE LA TRANSFORMADA ZETA

y[k]
l
X

433

Y (z) = Z {y[k]}

ai yi [k]

i=1

l
X

Comentarios

ai Yi (z)

i=1

k y[k]

z

C, <{} > 0

y [k]

Y (z )

Conjugacion

y[k k0 ]

z k0 Y (z) + y[1]z k0 +1 + . . . + y[k0 ]

k0 Z +

y[k + k0 ]

z k0 Y (z) (y[0]z k0 + . . . + y[k0 1]z)

k 0 Z+

y[k k0 ][k k0 ]

z k0 Y (z)

k 0 Z+

ky[k]
k
X
l=0

y1 [l]y2 [k l]
y[0]

Y1 (z)Y2 (z)

Convolucion en k

lm Y (z)

T. del Valor Inicial

lm (z 1)Y (z)

T. del Valor Final

lm y[k]

dY (z)
dz

z1

Cuadro E.1: Propiedades de la transformada Zeta


ZETA
APENDICE
E. LA TRANSFORMACION

434

y[k]

(k 0)

Y (z) = Z {y[k]}

Region de Convergencia

K [k]

z C

z
z1

|z| > 1

z
(z 1)2

z
z

z
z ej0

ej0 k
cos(0 k)
sen(0 k)
k cos(0 k)
k sen(0 k)
cos(0 k + )
(

k
0

;0 k < N
;k N

|z| > 1
|z| > ||
|z| > 1

z(z cos 0 )
z 2 2z cos 0 + 1

|z| > 1

z2

|z| > 1

z sen 0
2z cos 0 + 1

z(z cos 0 )
z 2 2z cos 0 + 2

|z| > ||

z2

|z| > ||

z sen 0
2z cos 0 + 2

z 2 cos z cos cos 0 + sen sen 0


z 2 2z cos 0 + 1
1 (z 1 )N
1 z 1

Cuadro E.2: Transformada Zeta de algunas funciones simples

|z| > 1
|z| > 0

matrices|textbf
matriz!definici
on
matriz!elementos

Ap
endice F

Matrices. Definiciones y
Propiedades
11 de septiembre de 2003

En este apendice se presenta una revision de conceptos y propiedades relacionadas con matrices, como soporte para varios de los captulos del texto y
como referencia para topicos mas avanzados. En varios de los resultados que se
presentan se han omitido demostraciones y detalles excesivos, para los cuales se
incluyen las referencias necesarias orientadas al lector mas interesado.

F.1.

Conceptos B
asicos

Intuitivamente se puede decir que una matriz no es mas que un arreglo


rectangular de filas y columnas, cuyos elementos pertenecen a un conjunto dado
(n
umeros reales, complejos, o bien funciones u otros objetos matematicos), en
el cual se encuentra definida la suma y la multiplicacion. Mas formalmente:
Definici
on F.1. Una matriz es un arreglo de n m objetos pertenecientes a un
conjunto K, dispuestos rectangularmente en n filas y m columnas (n, m enteros
positivos). Al conjunto de dichas matrices lo denotaremos por Mnm (K), o
simplemente por Knm .
Definici
on F.2. Los objetos dentro de dicho arreglo se denominan elementos
de la matriz, y denotaremos por aij el elemento situado en la i-esima fila y
j-esima columna.
De esta forma tenemos que una matriz A = {aij } es de la forma:
435

436

APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

matriz!cuadrada

a11

a21

A = {aij } =

.
..

an1

a11

...

a22

...

..
.

..

an2

...

a1m

a2m

..
.

anm

(F.1)

en que todos los elementos de A pertenecen al conjunto K, es decir:


aij K

i {1, . . . , n}, j {1, . . . , m}

(F.2)

Una matriz con igual n


umero de filas y columnas se denomina cuadrada.
Dos matrices se dicen iguales si y solo si son iguales elemento por elemento,
es decir, dadas A, B Knm :
A=B

aij = bij

i, j

(F.3)

El conjunto K satisface por lo general las propiedades de cuerpo, y usualmente consideraremos el conjunto de los n
umeros reales R o de los complejos C.
Recordemos que:
Lema F.1. Un conjunto K, junto a las operaciones suma y multiplicacion se
denomina un cuerpo, si y s
olo si, para todo a, b, c K:
1.- La suma (+) satisface las siguientes propiedades:
(a) cerradura, es decir, a + b K

(b) asociatividad, es decir, a + (b + c) = (a + b) + c


(c) conmutatividad, es decir, a + b = b + a
(d) existe 0 K (cero o neutro aditivo) tal que a + 0 = 0 + a = a

(e) para cada a K existe el inverso aditivo (a) K tal que a +


(a) = a + a = 0

2.- La multiplicacion () satisface las siguientes propiedades:


(a) cerradura, es decir, a b K

(b) asociatividad, es decir, a (b c) = (a b) c

(c) existe 1 K (uno, identidad o neutro multiplicativo) tal que


a1=1a=a

(d) existe 0 K tal que a 0 = 0 a = 0 (propiedad absorbente del


cero).


F.1. CONCEPTOS BASICOS

437

(e) para cada a K existe el inverso multiplicativo a1 K tal que


a a1 = a1 a = 1

(f ) conmutatividad, es decir, a b = b a

(g) distributividad, es decir, a (b + c) = a b + a c

Vectores
Una matriz formada por n filas y 1 columna se denomina vector columna.
En base a esta definicion podemos afirmar que una matriz de nm esta formada
por m vectores columna, cada uno con n elementos.
Una matriz formada por 1 fila y m columnas se denomina vector fila.
Analogamente, en base a esta definicion podemos decir que una matriz de n m
esta formada por n vectores fila, cada uno con m elementos.
En general, cuando se defina un vector de dimensi
on p nos referiremos a un
vector columna formado por p elementos.

Traza de una matriz


Definici
on F.3. Dada A = {aij } Knn , la traza de A, que denotamos por
tr(A), es la suma de los elementos diagonales de A, es decir
tr(A) =

n
X

aii

(F.4)

i=1

Matrices especiales
Definici
on F.4. Dada A = {aij } Knm , la matriz traspuesta de A, que
denotamos por AT , es la que resulta de intercambiar sus filas con sus columnas,
es decir,
A = {aij }

AT = {aji }
(F.5)
En base a la definicion, diremos que una matriz A es sim
etrica si y solo si
AT = A, es decir, si y solo si la matriz A es igual a su traspuesta. Naturalmente
para satisfacer esta condicion la matriz debe ser cuadrada.
Para el caso de matrices con coeficientes o elementos complejos (es decir, en
C) resulta mas com
un hablar de matrices hermitianas:
Definici
on F.5. Dada A = {aij } Cnm , se define la matriz hermitiana de
A, que denotamos por AH , como la matriz conjugada traspuesta de A, donde
la conjugaci
on se aplica a cada elemento:
AH = (A )T = (AT ) = {aji }

(F.6)

Una consecuencia natural de esta definicion es que toda matriz real y simetrica es hermitiana.
Para matrices cuadradas, tenemos las siguientes definiciones:

vector!columna
vector!fila
matriz!traza
traza
matriz!traspuesta
matriz!sim
etrica
matriz!hermitiana


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

438
matriz!diagonal
matriz!triangular superior
matriz!triangular inferior
matriz!identidad
determinante
matriz!determinante

Definici
on F.6. Dada una matriz A = {aij } Knn , diremos que:

la matriz A es diagonal si y s
olo si aij = 0 i 6= j , es decir, todos sus
elementos fuera de la diagonal principal de la matriz son cero.
la matriz A es triangular superior si y s
olo si aij = 0 i > j, es decir,
todos los elementos bajo la diagonal principal son cero.
la matriz A es triangular inferior si y solo si AT es triangular superior.

Dentro del conjunto de matrices diagonales, la matriz identidad es de


especial interes y su denominacion se justifica en base a las propiedades del
producto matricial definido mas adelante. Esta se define como:
Definici
on F.7. La matriz identidad de dimensi
on n, que denotamos por I n ,
se define como una matriz diagonal, cuyos elementos no nulos son iguales a 1,
es decir:

In =

..
.

F.2.

...

...

..
.

..

...

Knn

..
.

(F.7)

Determinante de una matriz

A menudo en matematicas resulta u


til representar las propiedades de un
objeto mediante un solo n
umero. Es as como para matrices cuadradas se define
el determinante de la matriz. Este es un escalar asociado a una matriz
cuadrada y que, como veremos mas adelante, tiene directa relacion con su rango,
la existencia de su inversa, y con el calculo de los autovalores.
Definici
on F.8. Dada la matriz A = {aij } Knn , su determinante es un
escalar asociado a la matriz que se denota por:
|A| = det A

(F.8)

cuya definici
on constructiva se muestra a continuaci
on.

Expansi
on de Laplace1
El calculo del determinante puede ser definido por induccion. Sin embargo,
previo a su definicion presentamos dos conceptos previos necesarios:
1 Roger A. Horn & Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1990,
p
ag. 7

F.2. DETERMINANTE DE UNA MATRIZ

439

Definici
on F.9. Dada la matriz A = {aij } Knn :
se define Aij K(n1)(n1) como la ij-esima menor de A. Esta es una
matriz que resulta de eliminar la i-esima fila y la j-esima columna de la
matriz A.
se define el escalar:
Cij = (1)i+j det Aij

(F.9)

como el ij-esimo cofactor de la matriz A


De esta forma, el determinante de A se define en terminos del determinante
de sus menores:
det A =

n
X

(1)i+j aij det Aij =

n
X

(1)i+j aij det Aij

(F.10)

i=1

j=1

o bien, mediante desarrollo por cofactores:


det(A) =

n
X
j=1

aij Cij =

n
X

aij Cij

(F.11)

i=1

De esta forma, al definir el determinante para matrices formadas por un u


nico
elemento, queda definido el calculo del determinante para todas las matrices de
dimensiones mayores:
"


det a11 = a11 = a11






a11 a12


= a11 a22 a12 a21





a21 a22











a11 a12 a13










a21
a22 a23







a12
a21 a22 a23 = a11









a31





a32 a33


a31 a32 a33


..
.

(F.12)

(F.13)







a21
a23

+ a13




a31

a33




a22



a32

(F.14)

(F.15)

menor
matriz!menor
cofactor
matriz!cofactor
cofactor!desarrollo

440
singular
matriz!singular
matriz!no singular
matriz!rango
rango
rango!columna
rango!columna
matriz!rango
rango
rango completo

APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

Existe una serie de reglas que pueden facilitar el calculo del determinante de
una matriz que estan mas alla del objetivo de este apendice. Sin embargo, una
observacion u
til para reducir el n
umero de calculos necesarios para obtener el
determinante de una matriz es elegir la fila (o columna) que contenga el mayor
n
umero de ceros, para hacer el desarrollo en (F.10).
Podemos ademas hacer las siguientes observaciones:
Si la matriz A tiene una fila o una columna formada solo por ceros, entonces det(A) = 0.
Si det(A) = 0 se dice que la matriz es singular. En caso contrario, se dice
que la matriz es no singular.
Si la matriz A de n n es diagonal o triangular (superior o inferior),
entonces det(A) = a11 a22 . . . ann

Rango de una matriz


En la definicion que sigue se hace mencion a los conceptos de combinacion
lineal e independencia lineal en espacios vectoriales, que el lector interesado
puede revisar en el Apendice B.
Definici
on F.10. Dada la matriz A = {aij } Knm :
Se define el rango columna de una matriz A al m
aximo n
umero de
columnas linealmente independientes.
Se define el rango fila de una matriz A al m
aximo n
umero de filas linealmente independientes.
Se define el rango de una matriz A al mnimo entre su rango fila y su
rango columna.
Finalmente, se dice que A es de rango completo si su rango es igual al
mnimo entre su n
umero de filas o de columnas.
Ejemplo F.1. La matriz:

A = 2

(F.16)

tiene rango fila igual a 2, pues la tercera fila es la suma de las dos primeras,
mientras que tiene rango columna igual a 3, pues las 3 columnas a la izquierda
son linealmente independientes, y en R3 estas conforman una base, es decir,
cualquier otro vector se puede escribir como combinaci
on lineal de elementos de
esta base. Su rango, por ende, es igual a 2, y no es de rango completo.

F.3. OPERACIONES CON MATRICES

441
222

Una matriz cuadrada es de rango completo si y solo si es no singular.

F.3.

Operaciones con matrices

Suma de matrices
La suma de dos matrices se define como la suma elemento por elemento.
Naturalmente, la condicion para que esta suma tenga sentido es que ambas
tengan las mismas dimensiones. Bajo esta condicion:
C=A+B=

cij = aij + bij

(F.17)

donde A = aij , B = bij y C = cij pertenecen a Mnm (K).


La suma de matrices hereda sus propiedades directamente de las propiedades
de la suma en el conjunto K al que pertenecen sus elementos, en el Lema F.1.
Es decir, se cumple la cerradura, asociatividad, conmutatividad, existencia del
neutro y del inverso aditivo.
En particular, se define la matriz cero (o neutro aditivo) 0nm como la
matriz cuyos elementos son todos 0. De esta forma A + 0 = A. Asimismo,
la matriz inversa aditiva de A, que se denota por A, esta formada por el
inverso aditivo de cada elemento de A. Esto es A = {aij } y de esta forma
A + A = 0.
Nota: En Matlab es posible sumar un escalar c a cada elemento de una
matriz A Cnn , haciendo abuso de notaci
on, con la expresi
on
>> A+c
cuyo resultado es una matriz en la cual el elemento ij-esimo es igual a a ij +c

Producto matriz por escalar


Definici
on F.11. Dado un escalar K y una matriz A Knm , entonces
el producto matriz por escalar se define como
A = {aij } = {aij } Knm

(F.18)

es decir, es la matriz que se obtiene de multiplicar cada elemento de la matriz


A por el escalar
Asi como la suma de matrices hereda sus propiedades de las propiedades de
la suma en el cuerpo K, el producto por escalar las hereda de la multiplicacion.
De esta forma, el conjunto Mnm (K) con el producto por escalar satisface las
propiedades de un espacio vectorial (ver Apendice . . . ). Es mas, siempre es
posible establecer un isomorfismo entre Mnm (K) y un espacio vectorial de
dimension nm.

matrices!suma
espacio!vectorial

442
producto!matrices
matriz!producto

APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

Lema F.2. Propiedades del producto matriz por escalar


Dados los escalares , K y las matrices A, B Knm , se cumplen las
siguientes propiedades:
(a) cerradura, es decir, A Knm
(b) asociatividad, es decir, ()A = (A)
(c) conmutatividad, es decir, A = A
(d) distributividad escalar, es decir, ( + )A = A + A
(e) distributividad matricial, es decir, (A + B) = A + B
(f ) Existe el elemento neutro 1 K , tal que 1 A = A

Producto matricial
El producto de matrices puede entenderse como una extension del producto
punto o producto interno usual dos vectores v, w Kn , definido como:
hv, wi = v w =

n
X

vk wk

(F.19)

k=1

De esta forma, tenemos la siguiente definicion:


Definici
on F.12. Dadas las matrices A Knp y B Kpm , el producto
matricial entre A y B se define como la matriz C Knm tal que:
AB = {aik }{bkj } = {cij } = C

(F.20)

en que cada elemento de C es:


cij =

p
X

k=1

aik bkj = hai , bj i

(F.21)

donde ai es la i-esima fila de A y bj denota la j-esima columna de B.


Note que:
la condicion para la existencia del producto matricial es que el
n
umero de columnas de A sea igual al n
umero de filas de B.
usando la ecuacion (F.19), podemos ver que el elemento ij-esimo de C
es el producto punto entre el i-esimo vector fila de A y el j-esimo vector
columna de B
el producto punto puede expresarse como producto matricial, es decir, en
la ecuacion (F.19):
hv, wi = (v )T w
(F.22)

F.4. INVERSA DE UNA MATRIZ

443

Lema F.3. Propiedades del producto matricial


Dadas las matrices A, B y C , de dimensiones adecuadas, se cumplen las
siguientes propiedades:
(a) asociatividad matricial, es decir, (AB)C = A(BC)
(b) asociatividad escalar, es decir, (AB) = (A)B
(c) distributividad, es decir, (A + B)C = AC + BC
(d) En general, no existe conmutatividad, es decir, AB 6= BA
(e) Dada la matriz A Knm , existe la matriz identidad In y la matriz identidad Im , tal que In A = A = AIm
(f ) Si AB = C , entonces (det A)(det B) = det C

F.4.

Inversa de una matriz

Revisando las propiedades del producto matricial en el Lema F.3, podemos


apreciar que no se menciona nada sobre la existencia de un inverso multiplicativo
para una matriz A dada. De hecho, en esta seccion veremos que no toda matriz
posee un inverso multiplicativo, el que solo existe bajo ciertas condiciones.
Definici
on F.13. Dada una matriz A, se define la matriz inversa de A, que
denotamos por A1 , como la matriz (si es que existe) que satisface:
AA1 = A1 A = I

(F.23)

donde I representa la matriz identidad.


Si esta matriz A1 existe, diremos que la matriz A es invertible o no
singular.
Note que:
no todas las matrices poseen una inversa,
de la ecuacion (F.23), se deduce que la matriz A y su inversa A1 , deben
ser cuadradas y de la misma dimension,
la inversa de A, si existe, es u
nica.
para matrices singulares y/o no cuadradas es posible definir su inversa por
la derecha, por la izquierda o su inversa generalizada. 2
En el siguiente lema se establecen condiciones equivalentes que garantizan
la invertibilidad de una matriz A dada, en diferentes contextos:
2 http://www.ee.ic.ac.uk/hp/staff/dmb/matrix

matriz!inversa
matriz!no singular
inversa de una matriz
inversa generalizada
matriz!inversa generalizada

444
matriz!adjunta
adjunta de una matriz
matriz!particionada

APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

Lema F.4. Existencia de la inversa de A


Dada una matriz A Knn , entonces las siguientes condiciones son equivalentes:
(a) A es no singular.
(b) A1 existe.
(c) rango A = n.
(d) las filas de A son linealmente independientes.
(e) las columnas de A son linealmente independientes.
(f ) det A 6= 0.
El calculo de la inversa de una matriz puede definirse en terminos de su
matriz adjunta:
Definici
on F.14. Dada una matriz A Kn , se define su matriz adjunta
como la traspuesta de la matriz de sus cofactores, es decir:
Adj A = {Cij }T

(F.24)

en que Cij son los definidos en la ecuaci


on (F.9)
Entonces, tenemos el siguiente resultado:
Lema F.5. Inversa de una matriz
Dada una matriz A Kn no singular, entonces su inversa A1 es:
A1 =

1
Adj A
det A

(F.25)

Demostraci
on:
Usando la expansi
on de Laplace (F.10), entonces se puede probar que:
(Adj A)A = A (Adj A) = (det A) I

(F.26)
222

Matrices particionadas
Toda matriz puede ser particionada de forma tal que se expresa como una
matriz de macro elementos, cada uno de ellos es en si mismo otra matriz. Se
dice, en estos casos que la matriz esta definida por bloques. Considere una matriz
A Cnm , entonces:

F.4. INVERSA DE UNA MATRIZ

445

A11

A21

A = {aij } =

.
..

Ap1

A12

A13

A22

A23

..
.

..
.

...

Ap2

Ap3

donde Aij Cni mj y ademas se cumple que


p
X

q
X

ni = n;

A1q

A2q

..
.

Apq

mj = m

(F.27)

(F.28)

j=1

i=1

Por ejemplo, si

A=

(F.29)

Entonces, una particion posible es dividir la matriz A en un arreglo de 2 2


bloques, donde

A11

= 0

2
3
1

7
0

"

; A12 = 5 ; A21 = 2
2

3
2

2 ; A22 = 4 (F.30)

Lema de Inversi
on Matricial
En esta seccion presentamos un importante resultado que resulta u
til en
aquellos casos que se requiere manipular (calcular determinantes o inversas)
matrices de grandes dimensiones, o bien, matrices definidas por bloques. Para
esto consideramos una matriz cuadrada, definida por bloques, de la forma:


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

446
inversion matricial
matriz!particionada

A11

A=

A21

en que:
A11 Cpp

A12 Cpq

A12

C(p+q)(p+q)

A22
;

A21 Cqp

(F.31)

A22 Cqq

(F.32)

De esta forma, si se definen la siguiente matrices auxiliares:


11 = A11 A12 A1
22 A21
22 = A22

(F.33)

A21 A1
11 A12

(F.34)

entonces, tenemos el siguiente resultado preliminar:


Lema F.6 (Inversa de una matriz particionada). Considere las ecuaciones
(F.31) (F.34). Si las matrices A11 , A2 , 11 y 22 son no singulares, entonces
la matriz A es no singular y su inversa es:

o bien:

A1 =

A1 =

1
1
1
A1
11 + A11 A12 22 A21 A11
1
1
22 A21 A11

1
11
1
A1
22 A21 11

1
A1
11 A12 22

1
22

1
1
11 A12 A22

1
1
1
A1
22 + A22 A21 11 A12 A22

(F.35)

(F.36)

En particular, dadas submatrices como las que forman la matriz (F.31),


entonces:
1
1
1
1
1
11 = A11 + A11 A12 22 A21 A11

(F.37)

Ademas, dadas submatrices como las que forman la matriz (F.31), se tiene
que:
1
1
1
A1
11 A12 22 = 11 A12 A22

(F.38)

Finalmente, el determinante de la matriz definida en (F.31), se puede calcular como:


det(A) = det(A11 ) det(22 )

(F.39)

F.4. INVERSA DE UNA MATRIZ

447

o bien:
det(A) = det(A22 ) det(11 )

(F.40)

Demostraci
on:
La matriz A puede reescribirse en la forma:

A=

y de la forma:

A=

Ip

A21 A11 1

Iq

Ip

A12 A22 1

Iq

A11

A12

22

11

A21

A22

(F.41)

(F.42)

Calculando los determinantes de las matrices en estas ecuaciones, se prueba


(F.39) y (F.40). Se debe observar que esto asegura que det(A) 6= 0, es decir, A
es no singular. Ahora, se observa que:

y, adem
as:

A11

A12

22

Ip
A21 A11 1

A11 1 A12 (22 )1

A11 1

0
Iq

(22 )1

1

Ip
=
A21 A11 1

0
Iq

(F.43)

(F.44)

Estas dos ecuaciones se pueden utilizar cuando se aplica inversi


on matricial
en la ecuaci
on (F.41):
A1 =

A11
0

A12
22

1 

Ip
A21 A11 1

0
Iq

1

(F.45)

Reemplazando y haciendo el producto matricial, se prueba la ecuaci


on (F.35).
La ecuaci
on (F.36) se prueba de manera an
aloga.
Finalmente, la ecuaci
on (F.37) se obtiene de igualar los bloques superiores
izquierdos en las matrices (F.35) y (F.36), mientras que la ecuaci
on (F.38) de
forma an
aloga, pero igualando los bloques superiores derechos.
222
A partir de las ecuaciones en el lema anterior, se obtienen el siguiente lema
que, considerando algunos casos particulares para la matriz A en (F.31), representa resultados mas simples, tambien de amplia utilidad.


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

448
autovalores|textbf
autovectores|textbf
valores caracter
sticos|textbf
vectores
caracter
sticos|textbf
matriz!autovalores
autovalores
valores propios

Lema F.7 (Lema de inversi


on matricial). Dadas las matrices:
B Kmn

C Knn

D Knm

(F.46)

entonces se tienen las siguientes relaciones:


D(Im BD)1 = (In DB)1 D
D)

(C + DB)

(Im + BC

= Im B(C DB)

Demostracion:

D(In + BC

det Im BD = det In DB


=C

(F.47)
1

(F.48)
1

D)

BC

(F.49)
(F.50)

La ecuacion (F.47), es directa de (F.38), haciendo A11 = Im , A12 = B,


A21 = D y A22 = In .
La ecuacion (F.48), se obtiene a partir de (F.37), haciendo A11 = Im ,
A12 = B, A21 = D y A22 = C.
La ecuacion (F.49), tambien se obtiene a partir de (F.37), pero haciendo
A11 = C, A12 = D, A21 = B y A22 = Im .
Finalmente, (F.50) se obtiene a partir de las ecuaciones (F.39) y (F.40),
pero considerando A11 = In , A12 = D, A21 = B y A22 = Im .
222

F.5.

Autovalores y autovectores

En diferentes problemas, tanto en matematica como en ingeniera, dada una


matriz A Knn se tiene la siguiente ecuacion:
A v = v

; v 6= 0

(F.51)
n

en que interesa encontrar el (o los) vector(es) v K y escalar(es) K que


permiten reemplazar el producto matriz-vector al lado izquierdo de (F.51), por
un producto escalar-vector (lado derecho). Naturalmente, nos interesa encontrar
soluciones no triviales de la ecuacion (F.51).
Definici
on F.15. Valores y vectores propios
Dada una matriz A Knn y la ecuaci
on (F.51), entonces:
los escalares {i } que satisfacen esta ecuaci
on se denominan valores propios, autovalores o eigenvalores, y
los correspondientes vectores {vi } se denominan vectores propios, autovectores o eigenvectores

F.5. AUTOVALORES Y AUTOVECTORES

449

Las soluciones de la ecuacion (F.51) vienen dadas por el siguiente lema:


Lema F.8. Ecuaci
on caracterstica
Cada autovalor de la matriz A en (F.51) satisface la ecuaci
on caracterstica:
det(I A) = 0

(F.52)

El lado izquierdo de esta ecuaci


on es el polinomio caracterstico, p(),
de orden n, y posee n raices complejas.
Demostraci
on:
La ecuacion (F.51) puede reescribirse como:
v Av = 0
(I A) v = 0

(F.53)
(F.54)

Entonces el resultado se prueba por contradiccion: si la ecuacion (F.52) no


se cumple, entonces la matriz (I A) es no singular, y al multiplicar por su
inversa al lado izquierdo se tiene:
(I A)1 (I A)v = v = 0

lo que contradice la condicion v 6= 0

(F.55)
222

Definici
on F.16. Espectro y radio espectral
El conjunto de n autovalores de una matriz A Knn se denomina el
espectro de A, y se denota por:
(A) = {1 , 2 , . . . , n }

(F.56)

Asimismo, se define el radio espectral de A como:


(A) = max{|| : (A)}

(F.57)

Este justamente corresponde al radio del disco m


as peque
no centrado en
el origen del plano complejo C que incluye todos los autovalores de A.
Cada uno de los valores propios de A puede usarse en la ecuacion (F.51)
para determinar su vector propio asociado resolviendo para v. Este sistema
posee infinitas soluciones dado que justamente el autovalor i se ha obtenido
forzando su determinante a ser cero (F.52). Sin embargo, basta elegir uno de
estos vectores como solucion ya que el lector puede verificar que si vi es un vector
propio asociado al autovalor i tambien lo es el vector vi , para cualquier escalar
. Para disminuir la multiplicidad de soluciones en el calculo de autovectores,
se normalizan las soluciones de modo que su norma euclidiana sea 1, es decir
||vi || = 1.
Cuando los autovalores son distintos entre s, los autovectores son linealmente independientes. Sin embargo, cuando hay autovalores repetidos, puede
ocurrir que los autovectores asociados sean linealmente dependientes.

polinomio caracter
stico
espectro
radio espectral


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

450
matrices!similares
similaridad!transformaci
on de
congruencia

Diagonalizaci
on
Cuando los autovectores vi de la matriz A que satisfacen la ecuacion (F.51),
son linealmente independientes, pueden agruparse en una matriz T no singular:
#
"
T = v1

v2

...

(F.58)

vn

Lema F.9. Diagonalizaci


on
Dada una matriz A Knn , sin autovalores repetidos, y la matriz T definida
en (F.58), formada por sus autovectores, se tiene que:
T1 AT = P

(F.59)

en que P es la matriz diagonal formada por los autovalores de A, es decir:


P = diag{1 , 2 , . . . , n }

(F.60)

Demostraci
on
Usando la ecuacion (F.58), podemos escribir:
"

AT = A v
1
"
= Av1
"

= 1 v1

v2
Av2
2 v2

...

vn

...
...

Avn

(F.61)
#

n vn

= T diag{1 , 2 , . . . , n }

(F.62)
(F.63)
(F.64)

Y el resultado se obtiene multiplicando por la izquierda por la inversa de la


matriz no singular T.
222
Definici
on F.17. Cuando dos matrices A y P satisfacen la ecuaci
on (F.59), se
denominan matrices similares, y la transformacion A T1 AT se denomina
transformacion de similaridad.
Analogamente a la definicion F.17 de similaridad entre matrices, se define
tambien el concepto de congruencia:
Definici
on F.18. Dos matrices A, B Knn se dicen:
H

congruentes si y s
olo si existe una matriz no singular S tal que B =
SH AS, y

F.5. AUTOVALORES Y AUTOVECTORES

451

congruentes si y s
olo si existe una matriz no singular S tal que B =
ST AS.
Naturalmente estos conceptos son equivalentes si S es una matriz real.

Forma de Jordan
En el caso que una matriz A posea autovalores repetidos, es decir, con multiplicidad, pueden darse dos situaciones diferentes respecto a la digonalizacion.
Supongamos que un autovalor i con multiplicidad ni 2, entonces:
1.

el autovalor i da origen a ni autovectores linealmente independientes en


la ecuacion (F.51), o bien

2.

el autovalor i da origen a menos de ni autovectores linealmente independientes

En el primer caso, no hay problema en construir la matriz T en (F.58), y


por tanto se obtiene la matriz diagonal P en (F.59), sin problema alguno.
Sin embargo, en el segundo caso, se pueden obtener construir los vectores
(l.i.) necesarios para la matriz T a partir de la siguiente cadena de vectores
propios:

(A i I)vi,0 = 0
(A i I)vi,1 = vi,0

(F.65)

(A i I)vi,2 = vi,1
..
.

Note que, en estricto rigor, solo vi,0 es un autovector; en cambio vi,j j =


1, 2, . . . , k no lo son y reciben el nombre de autovectores generalizados.
Si suponemos que el u
nico valor propio repetido es i con multiplicidad
k, pero con un solo vector propio obtenido en (F.51) y el resto mediante las
ecuaciones (F.65), entonces la matriz T definida en (F.58) se construye ahora
como:


T = v1 . . . vi,k vi,k1 . . . vi,0 . . . vn
{z
}
|

(F.66)

asociados a i

y la matriz P en (F.59) ya no es diagonal, sino que tiene la forma de Jordan:

multiplicidad!autovalores
autovectores!generalizados
Jordan!forma de
matriz!forma de Jordan


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

452
autovectores!generalizados

P = JA

.
..

0
..

...
.
Ji
..

...

..
.

(F.67)

en que la matriz Ji Kkk es un bloque sobre la diagonal principal de JA de


la forma:

Ji =

...

..
.

i
..

..

(F.68)

Note que, en estricto rigor, solo vi,0 es un autovector; en cambio vi,j , j =


1, 2, . . . , k, no lo son y reciben el nombre de autovectores generalizados.
Note ademas que todo bloque de Jordan, Ji , es una matriz triangular y por
lo tanto cumple con
tr(Ji ) = ni i ;

det(Ji ) = i ni

(F.69)

aR

(F.70)

Ejemplo F.2. Considere la matriz 3 :

2 0

A = a 2

1 1

Sus autovalores se obtiene f


acilmente de la ecuaci
on caracterstica (F.52):
3 Hoffman

& Kunze, Linear Algebra 2ed. 1971, Prentice-Hall, p.247

F.5. AUTOVALORES Y AUTOVECTORES

det(I A) = ( 2) ( + 1) = 0

453

1 = 2
2 = 1

(multiplicidad 2)

(F.71)

Caso 1 : a = 0
Usando la ecuaci
on (F.51) se obtienen los autovectores:

(1 I A)v1 = 0

(2 I A)v2 = 0

0
0
1
0


0
1



=0
0
1



1
3


0
2



=0
3 0
2



1 0
2

v1 =

1
1

(1 + 1 )/3

0




v2 = 0




2

(F.72)

(F.73)

Es claro que para obtener un autovector v2 asociado a 2 = 1 basta escoger


cualquier valor para 2 6= 0, por ejemplo 2 = 1. Sin embargo, la expresi
on para
v1 nos dice que existen dos grados de libertad, 1 y 1 , es decir, es posible
obtener 2 vectores linealmente independientes:

v1 =

3
0

1
1
1
v1, + v1,
=
+
=
1

3 0
3 3
3
3



(1 + 1 )/3
1
1

Con esto tenemos la matriz de transformaci


on:

(F.74)

454

APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

"

T= v
1,

v1,

v2

= 0

0
3
1

(F.75)

Con lo que se obtiene:

1
T AT = 0

0
2
0

=P
0

(F.76)

Caso 2 : a 6= 0
Usando la ecuaci
on (F.51) se obtienen los autovectores:

0
0

(1 I A)v1 = a 0

1 1

v =0
0
1

3 0 0

(2 I A)v2 = a 3 0 v2 = 0

1 1 0

0




v1 = 3 = v1,0




1

0




v 2 = 0




1

(F.77)

(F.78)

Para obtener el segundo autovector asociado a 1 usamos la cadena de vectores (F.65):

F.5. AUTOVALORES Y AUTOVECTORES

455

(A 1 I)v1,1 = v1,0

(F.79)

0 0 0 0


a 0 0 = 3


1 1 3

(F.80)

Donde se obtiene = 3/a y = 3 + 1 3/a. Por simplicidad escogemos = 0, luego v1,1 = [ 3/a , 1 3/a , 0 ]T . Con esto tenemos la matriz de
transformaci
on:

"

T = v1,1

v1,0

v2

3/a

= 1 3/a

Con lo que se obtiene:

1
T AT = 1

0
2
0

3 0

1 1

(F.81)

= JA
0

(F.82)

Lema F.10. Sea una matriz A Cnn con autovalores 1 , 2 , 3 , . . . , n , entonces

tr(A) =
det(A) =

n
X
i=1
n
Y

(F.83)

(F.84)

i=1

Demostraci
on
Primero observamos que siempre existe una matriz no singular T, tal que
T1 AT = diag{J1 , J2 , . . . , Jq }

(F.85)

456

APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

donde Ji Cni ni , i = 1, 2, . . . , q, son bloques de Jordan, donde ni es un entero


mayor o igual a 1. Entonces, para la traza se cumple, usando (F.69), que
tr(T1 AT) =

q
X
i=1

tr(Ji ) =

q
X

ni i

(F.86)

i=1

es decir, tr(T1 AT) es igual a la suma de todos los autovalores de A. Por otro
lado
tr(T1 AT) = tr(ATT1 ) = tr(A)

(F.87)

lo cual cierra la demostracion para la traza.


Para el determinante, se tiene, usando (F.69), que
det(T1 AT) =

q
Y

i=1

det(Ji ) =

q
Y

i n i

(F.88)

i=1

es decir, tr(T1 AT) es igual al producto de todos los autovalores de A. Por


otro lado
det(T1 AT) = det(ATT1 ) = det(A)

(F.89)

222
Una propiedad fundamental de la transformacion similar es que se preservan
ciertas caractersticas, tal como se plantea a continuacion.
Lema F.11. Sean A y B dos matrices similares. Entonces, tienen los mismos
autovalores, el mismo determinante y la misma traza.
Demostraci
on
Si A y B son similares, entonces existe T no singular tal que B = T1 AT.
Entonces, los autovalores de B son las races de det(I B) = 0. Si ahora
usamos la similaridad tenemos que
det(I B) = det(T1 T T1 AT) = det T1 (I A)T

= det (I A)TT1 = det(I A)

(F.90)
(F.91)

lo cual demuestra que la transformacion similar preserva los autovalores.


Para demostrar la preservacion de determinante y traza se aplica directamente el Lema F.10.
222
Los lemas que siguen presentan propiedades adicionales de autovalores y
autovectores.
Lema F.12 (Propiedades de autovalores y autovectores). Los autovalores y autovectores de una matriz A C nn tienen las siguientes propiedades

F.6. NORMAS DE VECTORES Y MATRICES

457

P1 La matriz A y la matriz Ak , tienen los mismos autovectores k entero.


P2 Si los autovalores de A son 1 , 2 , . . . , n , entonces los autovalores de Ak
son k1 , k2 , . . . , kn .
P3 Si A es hermitiana, es decir, A = AH Cnn , entonces todos sus autovalores son reales.
P4 Si A es hermitiana, entonces sus n autovectores son linealmente independientes. Esto tambien implica que, en este caso, A es diagonalizable.
P5 Si A es hermitiana entonces sus autovectores v1 , v2 , . . . , vn son ortogonales
entre s.
Lema F.13 (Descomposici
on espectral). Si A es hermitiana con autovalores 1 , 2 , . . . , n y autovectores asociados v1 , v2 , . . . , vn , con ||vi || = 1 para
i = 1, 2, . . . , n, entonces
n
X
(F.92)
i vi viH
A=
i=1

Las demostraciones de los lemas precedentes son dejadas como ejercicios


para el lector.

F.6.

Normas de vectores y matrices

Norma de vectores
El concepto de norma, y sus propiedades, ya fue definido en el apendice . . . ,
en el contexto de espacios vectoriales (Definicion B.6 pag 322).
En particular la norma ahi empleada es la que queda inducida por el producto
interno entre vectores. Sin embargo, para vectores existen otras normas que
pueden definirse, que tambien satisfacen las propiedades en la Definicion B.6:
1.

La norma euclideana (o norma l2 ) en Cn , definida como:


kvk2 = (|v1 |2 + . . . + |vn |2 )1/2

(F.93)

Esta es la norma mas comun, pues representa la distancia usual dos puntos
en Cn . Note que tambien se deriva del producto punto usual (F.19) en Cn ,
es decir, kvk22 = hv, vi = v v
2.

La norma suma (o norma l1 ) en Cn , definida como:


kvk1 = |v1 | + . . . + |vn |

3.

(F.94)

La norma max (o norma l ) en Cn , definida como:


kvk = max{|v1 |, . . . , |vn |}

(F.95)

458
desigualdad!Cauchy--Schwarz
norma-$1$
Fr
obenius
norma-$2$
matriz!norma-$2$
matriz!norma Fr
obenius
norma-$\infty$
matriz!norma-$\infty$

4.

APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES
La norma p en Cn , con p 1 definida como:
kvkp = (|v1 |p + . . . + |vn |p )1/p

(F.96)

Se deja al lector (como buen ejercicio) representar todos los vectores que
estan a distancia 1 del origen, en cada una de estas normas, por ejemplo, en C
o R2 .

Norma de matrices
Para definir la norma de una matriz, o equivalentemente, la distancia entre
dos matrices, una primera forma seria considerar simplemente el isomorfismo
entre espacio Mnm (K) y el espacio vectorial Knm . Sin embargo, al considerar
simplemente la norma en un espacio vectorial de mayores dimensiones, no es
posible establecer relaciones con propiedades caractersticas de las matrices,
como son el producto matricial, el determinante y el espectro, entre otras. Por
esto, tenemos la siguiente definicion, mas adecuada:
Definici
on F.19. Una norma matricial es una funci
on que va de M(K) R
talque, para A, B de dimensiones adecuadas, satisface:
1.

kAk 0, y kAk = 0 si y s
olo si A = 0

2.

kAk = ||kAk para todo escalar K

3.

kA + Bk kAk + kBk , es decir, la desigualdad triangular usual.

4.

kABk kAkkBk , que se denomina desigualdad de CauchySchwartz


Las normas matriciales mas usuales son:

1.

La norma suma (o norma-1) definida para A = {aij } Cnm como:


kAk1 =

2.

i=1 j=1

|aij |

(F.97)

La norma euclideana, norma Fr


obenius o norma-2, definida para A =
{aij } Knm como:

kAk2 =
3.

n X
m
X

n X
m
X
i=1 j=1

1/2

|aij |2

q
tr(AH A)

(F.98)

La norma max (o norma-) en Knm , definida como:


kAk = max{aij }
i,j

(F.99)

F.6. NORMAS DE VECTORES Y MATRICES


4.

459

La norma-p en Knm , con p 1 definida como:


1/p

m
n X
X
|aij |p
kAkp =

(F.100)

i=1 j=1

Ademas de las anteriores, la forma mas natural de definir una norma matricial es inducirla a traves de una norma vectorial de la siguiente forma:

norma-p
matriz!norma-p
norma!inducida
matriz!norma inducida
norma espectral
norma!spectral
matriz!norma spectral
n
umero de condicionamiento
matriz, condici
on

Definici
on F.20. Dada una matriz A Knm y una norma vectorial k k,
definimos la norma matricial inducida como:
kAk = max kAvk

(F.101)

kvk=1

La norma inducida puede definirse tambien de una serie de formas equivalentes:


kAk = max kAvk = max kAvk = max
kvk=1

kvk1

kvk6=0

kAvk
kvk

(F.102)

Varias de las normas antes definidas, pueden expresarse en terminos de la


norma inducida, eligiendo la norma vectorial adecuada. Sin embargo, existe una
serie de normas matriciales independientes de esta definicion. Entre ellas, una
de las mas importantes es:
Definici
on F.21. Se define la norma espectral de una matriz A K nm
como:

kAk2 = max{ : es un autovalor de A A}


(F.103)
Finalmente, y como aplicacion de la definicion de norma entre matrices, se
considera la relacion entre normas de una matriz y el calculo de su inverso.
Este calculo puede ser muy sensible a errores numericos, en especial cuando una
matriz esta cerca de ser singular. De esta forma se define:
Definici
on F.22. Dada una matriz A, se define el n
umero de condicionamiento, o n
umero de condici
on, para la inversion con respecto a la norma matricial
k k como:
(A) =

kAk kA1 k

si A es no singular
si A es singular

(F.104)

Note que (A) = kAk kA1 k kAA1 k kIk 1 para toda matriz A.
De esta forma, cuando (A) es grande, la matriz se dice mal condicionada. Si (A) es cercano a 1, la matriz se dice bien condicionada, y si (A) =
1, entonces la matriz A se dice perfectamente condicionada.


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

460
matriz!unitaria
teorema de Schur

Cuando una matriz es mal condicionada, el calculo del inverso puede tener
errores muy grandes, y es aconsejable recurrir a metodos de inversion numericamente robustos.
Un caso especial de n
umero de condicion de una matriz real es cuando se
usa la norma spectral en (F.104). En ese caso
(A) =

F.7.

|max |
|min |

(F.105)

Tipos especiales de matrices

Matrices unitarias
Definici
on F.23. Una matriz U Cnn se dice unitaria, si y s
olo si UH U =
In , es decir, si su inversa es igual a su matriz hermitiana o conjugada traspuesta.
En particular, si la matriz es real, es decir, U Rnn , se dice que U es real
ortogonal.
Es m
as, si dos matrices son similares a traves de una matriz de transformacion unitaria, es decir:
UH AU = P

(F.106)

las matrices A y P se denominan unitaria equivalentes, o (real) ortogonal


equivalentes, si U es real.
Este tipo particular de matrices poseen interesantes propiedades, entre ellas:
los vectores columna de U forman un conjunto ortonormal;
los vectores fila de U forman un conjunto ortonormal;
la transformacion w = Uv preserva longitudes, es decir, w H w = vH v.
Por esto se dice que A es una isometra euclideana
Si bien toda matriz con autovalores no repetidos es similar a una matriz
diagonal, no siempre la matriz de transformacion es unitaria. Sin embargo, el
siguiente teorema nos dice que toda matriz es unitaria equivalente a una matriz
triangular superior:
Teorema F.1. Teorema de Schur de triangularizacion unitaria.
Dada una matriz A Cnn con autovalores 1 , . . . , n , existe una matriz unitaria U, tal que la matriz:
UH AU = T = {tij }

(F.107)

es triangular superior, con elementos sobre la diagonal tii = i , i = 1, . . . , n.

F.7. TIPOS ESPECIALES DE MATRICES

461

La demostracion de este teorema es por construccion, pero consideramos


que va mas alla del objetivo de este apendice. Sin embargo, la importancia (y
utilidad) fundamental del resultado anterior es que toda matriz A puede transformarse, a traves de una matriz unitaria U, a una matriz T cuyos autovalores
se encuentran sobre la diagonal. Por ello, este resultado se aplica en una serie
de algoritmos, por ejemplo, en Matlab .
Ademas, el Teorema de Schur sirve de base para una serie de otros resultados,
entre ellos el siguiente teorema:
Teorema F.2. Teorema de CayleyHamilton
Sea pA () el polinomio caracteristico de una matriz A Mnn definido en
(F.52). Entonces:
pA (A) = 0

(F.108)

es decir, toda matriz satisface su propia ecuaci


on caracteristica.

Matrices normales
Definici
on F.24. Una matriz A Knn se dice normal, si y solo si AH A =
H
AA , es decir, A conmuta con su matriz hermitiana o compleja conjugada.
Con ayuda del Teorema de Schur, puede probarse que una matriz A es
normal si y solo si es unitaria diagonalizable, es decir, si existe una matriz
unitaria U talque UH AU es diagonal.
Recuerde ademas, del Lema F.12 que toda matriz hermitiana (simetrica, en
el caso de matrices reales) es normal y, por tanto unitaria diagonalizable, es
decir:
A = AH

A = UH DU

(F.109)

en que UH U = I y D es diagonal y contiene los autovalores de A.

Matrices positivas
Una clase de matrices hermitianas (real simetricas) que aparece en m
ultiples
aplicaciones son aquellas que poseen (o no) la propiedad de ser positivas.
Consideremos, por ejemplo, la expansion en serie de Taylor de una funcion
en dos variables (apendice A, p.317) en torno a un punto (xo , yo ):

Cayley-Hamilton
teorema de Cayley-Hamilton
matriz!normal


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

462
hessiano
matriz!positiva definida


f (x, y)

(xo ,yo )


= f (xo , yo ) + f

(xo ,yo )

y

"

1
+
2 x


H(f )

x

+ ...

(xo ,yo )

y

(F.110)

donde x = x xo , y = y yo , f es el gradiente de f (x, y), y H(f ) es el


hessiano o matriz de las segundas derivadas de la funcion f (x, y):
2

2
H(f ) =

f
x2
2f
yx

f
xy
2f
y 2

(F.111)

Del Calculo Diferencial, sabemos que f (x, y) tiene un mnimo y es convexa


en una vecindad del punto (xo , yo ) si se cumplen dos condiciones en dicho punto:
f = 0 , es decir, el gradiente es cero, en cuyo caso se dice que (xo , yo ) es
un punto crtico; y
vT H(f )v > 0 , es decir, el termino cuadratico en (F.110) es positivo, para
todo vector v = [x, y]T
Este tipo de problemas dan pie a la siguiente definicion:
Definici
on F.25. Matriz positiva definida
Una matriz hermitiana A de dimension n se dice definida positiva si
vH Av > 0 para todo vector v Cn , ||v|| 6= 0.
Una matriz hermitiana A de dimension n se dice semidefinida positiva
si vH Av 0 para todo vector v Cn
Analogamente, una matriz hermitiana A de dimension n se dice (semi)definida negativa si la matriz A es (semi)definida negativa (respectivamente).
Una matriz hermitiana que no cae en ninguna de las categorias anteriores
se denomina indefinida.
Lema F.14. Una matriz A hermitiana es definida positiva, si y s
olo si todos
sus autovalores son reales y positivos, y es positiva semidefinida positiva si todos
sus autovalores son no negativos

F.7. TIPOS ESPECIALES DE MATRICES

463
matriz!diagonal
matriz!ra
z de

Demostraci
on
Considere el Lema F.13, entonces
A=

n
X
i=1

i vi viH

(F.112)

donde los autovectores tienen largo unitario (en norma-2). Entonces al multiplicar (F.112), por la izquierda, por v`H , y, por la derecha, por v` se tiene
que
v`H Av` = `

(F.113)

Por otro lado, dado que una matriz hermitiana tienen un conjunto ortonormal de autovectores, entonces, todo vector v Cnn , puede expresarse como
v=

n
X

j vj

(F.114)

j=1

para un conjunto no vaco de valores 1 , 2 , . . . n .


As
vH Av =

n
X
j=1

j vjH

n
X
i=1

i vi viH

n
X

j vj

(F.115)

j=1

Finalmente, aplicando (F.113), se llega a


vH Av =

n
X
`=1

|` |2 `

(F.116)

Lo cual lleva al resultado deseado (para definida positiva) al considerar que


vH Av > 0 si y solo si ` > 0 para ` = 1, 2, . . . , n. Un razonamiento similar
permite alcanzar el resultado para positiva semidefinida.
222
El lema precedente se aplica, y demuestra, mutatis mutandis, para el caso
de matrices negativa definidas y negativa semi-definidas.
Otra forma de reconocer una matriz definida positiva se basa en el concepto
de dominancia diagonal. Esto es: una matriz se dice estrictamente diagonal
dominante si cada elemento sobre la diagonal principal es mayor que la suma
de los valores absolutos de los demas elementos en la respectiva fila. De esta
forma, tenemos:
Lema F.15. Si una matriz hermitiana A tiene todos sus elementos sobre la
diagonal principal positivos y es estricamente diagonal dominante, entonces es
definida positiva.
Finalmente, y de forma analoga a la raz cuadrada de n
umeros positivos, se
define la raz cuadrada de una matriz definida positiva:

dominante


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

464
matriz!ra
z
matriz!exponencial
matriz!nilpotente
matriz!idempotente
matriz!diagonal por bloques
matriz!triangular por bloques
matriz!permutaci\on

Definici
on F.26. Una matriz hermitiana A es positiva definida si y s
olo si
existe una matriz no singular B, tal que A = BH B. Dicha matriz B se define
como la raz cuadrada de A y se denota por B = A1/2 . Se debe notar que
si B es raz cuadrada de A, entonces tambien lo es UB, donde U es cualquier
matriz unitaria.

Otras matrices
Definici
on F.27. Dada una matriz A Knn , se defina la matriz exponencial de A, usando la expansion en serie de Taylor usual, es decir:
eA = I + A +

X
1 2
1 n
A + ... =
A
2!
n!
n=0

(F.117)

Definici
on F.28. Una matriz A Knn se dice nilpotente, si y s
olo si existe
un entero positivo, q, tal que:
Aq = 0

(F.118)

Definici
on F.29. Una matriz A Knn se dice idempotente, si y s
olo si :
A2 = A

(F.119)

nn

Definici
on F.30. Una matriz A K
se dice diagonal por bloques, si y
solo si sus u
nicos elementos distintos de cero pueden ser agrupados en submatrices Ai Kni ni sobre su diagonal, es decir:

A1 0 . . . 0
0 A2 . . . 0

A= .
(F.120)
..
..
..
..
.
.
.
0

en que

Pk

i=1

...

Ak

ni = n

De manera analoga puede extenderse el concepto de matriz triangular (tanto


superior como inferior), a matrices triangulares por bloques.
Definici
on F.31. Una matriz P Knn se denomina matriz de permutaci
on
si uno y s
olo uno de los elementos sobre cada fila y columna es igual a 1, y el
resto son 0.
Ejemplo F.3. Considere la matriz de permutaci
on:

0 1 0
P = 1 0 0
0 0 1

(F.121)

La denominaci
on resulta natural pues multiplicar cualquier vector por esta matriz equivale a permutar sus elementos, por ejemplo:

F.7. TIPOS ESPECIALES DE MATRICES

465
matriz!circulante
matriz!Toeplitz


1
2
P 2 = 1
3
3

Definici
on F.32. Una matriz A
cada una de sus filas resulta de la

a1
an

..
.
a2

(F.122)

Knn se denomina matriz circulante si


rotaci
on de la primera, es decir:

a2 . . .
an
a1 . . . an1

(F.123)
.. . .
..
.
.
.
a3 . . .
a1

Note que una matriz circulante puede ser escrita en terminos de la matriz
de permutacion circular :

0 1 0 ... 0
0 0 1 . . . 0
n1

X
.. .. . .

.
.
.
.
ak+1 Ck
(F.124)
C = . .
A=
.
.
.

k=0
0
...
1
1 0
... 0

En que C0 = Cn = I y {a1 , . . . , ak } son los elementos de la primera fila de


la matriz A.

Definici
on F.33. Una matriz A Knn se denomina matriz Toeplitz si
todos los elementos sobre cada diagonal son iguales, es decir:

a0
a1
a2 . . .
an
a1
a0
a1 . . . an1

..
..
.
.
..
.. ...
(F.125)
A= .

an+1
...
. . . a0
a1
an
an+1 . . . a1
a0
Note que una matriz Toeplitz puede ser escrita en terminos de las matrices
un paso adelante F y un paso atr
as B:

0
..
.
F=

0
0

entonces:

1
..
.
0

...
..
.
..
.
...

0
..
.

1
0

A=

n
X

k=1

1
B=F =
.
..
0
T

ak Fk +

n
X

k=1

...
..
.
..
.
...

ak Bk

0
..
1

..
.

(F.126)

(F.127)


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

466
matriz!Vandermonde
valores singulares

Definici
on F.34. Una matriz A Knn se denomina matriz de Vandermonde si es de la forma:

1
1

A = .
..
1

x1
x2
..
.

x21
x22
..
.

...
...
..
.

xn

x2n

...

x1n1
x2n1

..
.

(F.128)

xnn1

Puede probarse que el determinante de una matriz de Vandermonde es:


det A =

n
Y

i,j=1
i>j

(xi xj )

(F.129)

Este tipo de matrices aparece, por ejemplo, en el calculo de la transformada


discreta de Fourier y en problemas de interpolacion donde se buscan los coeficientes de un polinomio p(x) = a0 + a1 x + . . . + an1 xn1 = y, a partir de n
pares de datos (x1 , y1 ), . . . , (xn , yn ):
p(x1 ) = a0 + a1 x1 + . . . + an1 x1n1 = y1

F.8.

p(x2 ) = a0 + a1 x2 + . . . +
..
.

an1 x2n1

p(xn ) = a0 + a1 xn + . . . +

an1 xnn1

= y2

(F.130)
(F.131)
(F.132)

= yn

(F.133)

Valores singulares

Hemos visto a lo largo de este apendice que existen diferentes formas de caracterizar una matriz expresandola o relacionandola con otra equivalente bajo
alg
un criterio. Entre estos se ha definido la igualdad de matrices, la diagonalizacion (o similaridad), la congruencia y la equivalencia unitaria (teorema de
Schur). Sin embargo, un importante desarrollo del analisis matricial de amplia
aplicacion en diferentes areas de la Ingeniera (y otras disciplinas) es la descomposicion en valores singulares, que representa una extension de la diagonalizacion
mediante autovalores, pero que permite incluir el caso de matrices singulares y
matrices no cuadradas.
Teorema F.3. Descomposici
on en valores singulares
Dada una matriz A Knm de rango k q = mn{n, m}, entonces esta puede
expresarse como:
A = VWH
en que:

(F.134)

F.8. VALORES SINGULARES

467

las matrices V Knn y W Knn son unitarias, es decir, VH V = In


y W H W = Im ;
los elementos de la matriz = {ij } Knm son:
ij = 0

i 6= j

(F.135)

11 22 . . . kk > k+1,k+1 = . . . = qq = 0

(F.136)

los elementos {ii } = {i } = { i }, en i son los autovalores de AH A,


que quedan por tanto u
nicamente determinados;
las columnas de V son autovectores de AAH , y las columnas de W son
autovectores de AH A (ordenados seg
un los autovalores i = i2 );
Si n m y AAH no tiene autovalores repetidos, entonces diferentes ma- Chequear si es necesario que
trices V en la representaci
on (F.134) quedan relacionados por una matriz sean diferentes
diagonal D = diag{ej1 , . . . , ejn } con i R. Esto es:
A = V1 W1H = V2 W2H

V2 = V 1 D

(F.137)

si n < m, entonces la elecci


on de W no es u
nica;
si n = m = k (A, cuadrada y de rango completo), entonces dada V,
entonces la matriz W queda u
nicamente determinada;
si n m, la unicidad de V y W queda determinada considerando AH ; y
si A es real, entonces V, y W pueden escogerse todas reales.
Los elementos {i } sobre la diagonal de la matriz se denominan valores
singulares de la matriz A.
La descomposicion en valores singulares (F.134) para una matriz A arbitraria
no siempre es directa de obtener. Sin embargo, en el caso particular de una
matriz no singular (justamente el caso n = m = k en el teorema anterior) la
descomposicion puede obtenerse directamente siguiendo los siguientes pasos:
1.

Se forma la matriz hermitiana AAH y se calcula su diagonalizacion unitaria AAH = UUH , a traves del calculo de sus autovalores {i } (que
son positivos) y su correspondientes autovectores normalizados {u i }.

2.

De esta forma se elige = 1/2 y V = U = [u1 . . . un ].

3.

Finalmente, W = AH V1

Para el caso de una matriz cuadrada singular A, se puede aplicar el mismo


procedimiento a la matriz A = A + In , con  tal que A es no singular, y
luego obtener el lmite cuando  0.
Algunas aplicaciones de los valores singulares son:


APENDICE
F. MATRICES. DEFINICIONES Y PROPIEDADES

468

Permite definir normas de matrices: La norma espectral de una matriz


A, definida en (F.103), no es mas que el mayor valor singular, es decir,
1 .
Ademas, el lector puede verificar que la norma Frobenius definida en (F.98)
satisface la identidad:

kAk2 =

q
X
i=1

i2

!1/2

(F.138)

Entrega el numero de condicionamiento, con respecto a la norma espectral,


como (A) = kAk kA1 k = 1 /n 1, que a menudo se utiliza como la
medida estandar para la dificultad involucrada en invertir la matriz A.
Dada una matriz A = VWH , podemos definir la inversa generalizada
(Moore-Penrose) de A, como A = W VH , en que es la traspuesta
de en que los valores singulares de A se reemplazan por sus recprocos.
El lector puede verificar que:
1.

AA y A A son hermitianas,

2.

AA A = A, y

3.

A AA = A .

La inversa generalizada coincide naturalmente con la inversa usual en el


caso de matrices no singulares.
Ademas, una de la aplicaciones de A es en el metodo de mnimos cuadrados (ver cap modelos), en que para resolver el sistema Ax = b se busca el
vector x tal que kAx bk2 resulta minima. El lector puede verificar que
x = A b resuelve este problema.

Bibliografa
[1] B.D.O. Anderson and John Moore. Linear Optimal Control. Prentice Hall,
Englewood Cliffs, N.J., 1971.
[2] B.D.O. Anderson and John Moore. Optimal filtering. Prentice Hall, Englewood Cliffs, N.J., 1979.
[3] K.J.
Astrom and B. Wittenmark. Computer controlled systems. Theory
and design. Prentice Hall, Englewood Cliffs, N.J., second edition, 1990.
[4] H.W. Bode. Network analysis and feedback amplifier design. Van Nostrand,
New York, 1945.
[5] R.C. Dorf and R. Bishop. Modern Control Systems. Prentice Hall, Englewood Cliffs, New Jersey, 9th edition, 1997.
[6] G.F. Franklin and J.D. Powel. Digital Control of Dynamics Systems.
Addison-Wesley, second edition, 1990.
[7] G.F. Franklin, J.D. Powell, and A. Emami-Nagiri. Feedback Control of
Dynamics Systems. Addison-Wesley Pub. Co., Reading, Mass., 1991.
[8] G.C. Goodwin, S. Graebe, and M.E. Salgado. Control System Design.
Prentice Hall, New Jersey, 2001.
[9] Hwei P. Hsu. An
alisis de Fourier. Fondo Educativo Interamericano S.A.,
1973.
[10] E. Jury. Sample Data Control Systems. John Wiley and Sons, 1958.
[11] J.W. Kitchen. Calculus of one variable. Addison Wesley, 1968.
[12] D.L. Kreider, R.G. Kuller, D.R. Ostberg, and F.W. Perkins. Introducci
on
al an
alisis lineal. Fondo Educativo Interamericano S.A., 1971.
[13] H. Kwakernaak and R. Sivan. Linear Optimal Control Systems. Wiley
Interscience, New York, 1972.
[14] R.H. Middleton and G.C. Goodwin. Digital Control and Estimation. A
Unified Approach. Prentice Hall, Englewood Cliffs, New Jersey, 1990.
469

470

BIBLIOGRAFIA

[15] K. Ogata. State Space Analisys of Control Systems. Prentice-Hall, Inc.,


Englewood Cliffs, New Jersey, 1967.
[16] A.V. Oppenheim and R.W. Schafer. Discrete - Time Signal Processing.
Prentice-Hall International, Inc., 2nd edition, 1999.
[17] Churchill R. and Brown J. Complex Variable and Applications. McGraw
Hill Book Company, 1984.
[18] H.H. Rosenbrock. State Space and Multivariable Theory. John Wiley and
Sons, New York, 1970.
[19] D.G. Schultz and J.L. Melsa. State Function and Linear Control Systems.
McGraw Hill Book Company, New York, 1967.
[20] D.W. Wiberg. Theory and Problems of State Space and Linear Systems.
McGraw Hill Book Company, New York, 1971.
[21] Lotfi A. Zadeh and Charles A. Desoer. Linear System Theory: the state
space approach. McGraw Hill Book Company, New York, 1963.
[22] K. Zhou. Essentials of Robust Control. Prentice Hall, Englewood Cliffs,
New Jersey, 1998.
[23] K. Zhou, G. Salomon, and E. Wu. Balanced realization and model reduction for unstable systems. International Journal of Robust and Nonlinear
Control, 9:183198, 1999.

Index
angulo
de desfase, 88, 104
angulo entre vectores, 341
angulo
de desfase, 94
de disparo, 96

cancelacion, 271, 287, 294, 298, 303,


307
cuasi-, 181, 215, 297, 305
cascada, vease conexion
causalidad, 62
Cayley-Hamilton, 457
ceros, 158, 180, 214
fase no mnima, 177, 211
lentos, 182
rapidos, 182
circulo unitario, 244
circunferencia unitaria, 205
cofactor, 435
desarrollo, 435
condiciones iniciales, 1, 62, 157, 192
conexion
paralelo, 288
realimentacion, 289
serie(cascada), 288
congruencia, 446
constante de tiempo, 25
constantes indeterminadas, 40, 67
contrarespuesta, 182, 215
control, 290
controlabilidad, 180, 214, 290
forma canonica, 298
gramiano, 294
tiempo discreto, 295
matriz, 291
perdida, 292
test, 291
controlador, 289
forma canonica, 298
conversor
analogo-digital(ADC), 273
digital-analogo(DAC), 273

Zeta
transformada, 191
ADC, vease conversor
adjunta de una matriz, 440
alcanzabilidad, 290
test, 291
amplificador, 247
amplitud, 88, 104
ancho de banda, 124
aperiodicas
se
nales, 117
armonicas, 94, 107
asntotas, 224
autovalores, 40, 270, 444, 444
autovectores, 444
generalizados, 447, 448
bilineal
transformacion, 207
bloques, 246
Bode, 219, 220
aproximacion asintotica, 227
aproximaciones, 221
asntotas, 222
diagramas de, 220
frecuencias de quiebre, 227
crculo unitario, 71, 239
471

472
convolucion, 53, 79
cuadrante, 234
DAC, vease conversor
decada, 220
decibel, 220
delta de Dirac, 21, 120
en frecuencia, 160
en frecuencia, 198
delta de Kronecker, 27
descomposicion canonica, 307
alcanzabilidad, 297
observabilidad, 306
desfase, 94
desigualdad
CauchySchwarz, 454
triangular, 207
desigualdad triangular, 341
Desplazamiento en el tiempo, 358
Desplazamiento en frecuencia, 358
detectabilidad, 306
determinante, 434
diagrama polar, 233
tiempo discreto, 244
diagramas
de Bode, 220
diagramas de bloques, 246
Dirac, 21
disco unitario, 71
discontinuidad, 241
discretizacion, 63, 273
distancia, 341
dualidad, 305
ecuacion caracterstica, 40, 66, 262,
279
ecuacion de recursion, 61
ecuacion diferencial
del sistema, 156
ecuacion diferencial del sistema, 35
EDS, 156
ejes logartmicos, 220
elimina banda, 135, 149
energa, 143
entrada, 1, 158
equilibrio estable, 38, 64

INDEX
equilibrio inestable, 266
error, 98
estimacion, 310
modelo, 311
errores en las variables, 323, 330
escalon
respuesta a, 161, 200
escalon unitario, 21, 27
espacio
de estado, 253
vectorial, 437
espectro, 134, 232, 445
continuo, 122
de lnea, 94
en frecuencia, 94
espectro de lnea, 109
espiral, 240
estabilidad, 43, 71, 171, 205, 262,
279, 280
estabilizabilidad, 298
estado, 253
alcanzable, 290
controlable, 290
del sistema, 254
espacio de, 254
observable, 299
transformacion, 256, 267, 286
trayectoria, 254
variables de, 254
vector de, 254
estado inicial, 3
estimacion, 309
error, 310
Euler, 26, 31
exponencial, 24, 29
creciente, 24, 30
de una matriz, 261, 276
exponencial imaginaria, 26
factor de amortiguamiento, 183
factores canonicos, 220
fase, 88, 104
fase mnima, 177, 211
feedback
seerealimentacion, 289
filtraje, 133

INDEX
filtro, 314
forma canonica
controlable, 298
del controlador, 298
observable, 307
Fourier, 87, 117
Frobenius, 454
fracciones parciales, 128, 146, 156,
178, 193, 412
frecuencia, 88, 104
angular, 88, 104
de corte, 135, 149
fundamental, 107
frecuencia fundamental, 94
frecuencia natural
amortiguada , 184
dominante, 44, 72
no amortiguada, 183
frecuencias de corte, 136
frecuencias naturales, 40, 68
funcion muestreo, 23
funcion
generalizada, 120
racional, 157, 159
funcion de transferencia, 125, 145,
156, 157, 192, 270, 286
estable, 177
tiempo discreto, 196
bipropia, 158, 197
ceros, 158, 197
con retardo, 159
estable, 211
estrictamente propia, 158, 197,
272
grado relativo, 158, 177, 197
impropia, 158
multiplicidad, 158
polos, 158, 197
propia, 158, 197
ganancia, 42, 69
a continua, 42, 69
a modo forzante, 42, 68, 88, 110,
129, 145, 205
gradiente, 324, 331
grado relativo, 158, 197, 203

473
gramiano
controlabilidad, 294
tiempo discreto, 295
observabilidad, 303
Heaviside, 21, 36
operador, 36
hessiano, 458
homogeneidad, 5
Hurwitz
polinomio, 173, 310
impulso
respuesta a, 158
respuesta a, 161, 200
impulso unitario, 21, 27
independencia lineal, 93
integrador, 7
interconexion, 246
inversa de una matriz, 439
inversa generalizada, 439
inversion matricial, 442
Jordan
forma de, 448
Jury, 208
algoritmo, 208
lmite de estabilidad, 172, 205
Laplace, 155
lazo de control, 289
linealizacion, 9, 258, 274
Lyapunov
ecuacion, 295, 304
matrices, 431
similares, 446
suma, 437
matriz
de Fourier, 109
adjunta, 286, 440
autovalores, 444
circulante, 461
cofactor, 435
cuadrada, 432
de controlabilidad, 291
de observabilidad, 300

474
de transformacion, 268
de transicion, 261
discreta, 277
definicion, 431
determinante, 434
diagonal, 434
diagonal dominante, 459
diagonal por bloques, 460
elementos, 431
exponencial, 460
forma de Jordan, 448
hermitiana, 433
idempotente, 460
identidad, 434
inversa, 439
inversa generalizada, 439
menor, 435
nilpotente, 460
no singular, 436, 439
norma Frobenius, 454
norma inducida, 455
norma spectral, 455
norma-2, 454
norma-, 454
norma-p, 455
normal, 457
particionada, 440, 442
permutacion, 460
positiva definida, 458
producto, 438
raz, 460
raz de, 459
rango, 436
simetrica, 433
singular, 436
Toeplitz, 461
traspuesta, 433
traza, 433
triangular inferior, 434
triangular por bloques, 460
triangular superior, 434
unitaria, 456
Vandermonde, 462
matriz, condicion, 455
menor, 435
modelo, 4

INDEX
en espacio de estado, 253
error, 311
linealizado, 9
peque
na se
nal, 14
validacion, 319
modelos, 319
modo forzado, 42, 68, 265
modo forzante, 40, 68, 205
ganancia a, 42, 68
modo natural
dominante, 44, 72, 266
modos
naturales, 161
modos naturales, 40, 68, 89, 104, 212
muestra, 318
muestreo, 201, 254, 273, 274, 317,
318, 318
perodo de, 275, 282
multiplicidad, 158
polos, 172
autovalores, 447
polos, 197, 205
n
umero de condicionamiento, 455
norma, 341
inducida, 455
spectral, 455
norma espectral, 455
norma inducida, 341
norma-1, 454
norma-2, 454
norma-, 454
norma-p, 455
Nyquist, 219
observabilidad, 180, 214, 299
forma canonica, 307
gramiano, 303
matriz, 300
perdida, 301
test, 300
observador, 309
de orden completo, 316
de orden reducido, 316
polinomio, 310
octava, 220

INDEX
operador, 3
operador adelanto, 62
ortogonalidad, 93
paralelo
conexion, 288
Parseval, 102, 123, 143
pasa altos, 134, 149
pasa bajos, 134, 149
pasa banda, 135, 149
PEM, 323, 330
perodo, 88, 104
de muestreo, 275, 282
infinito, 117
plano de fase, 264
planta, 289
PLC, 273
polar
diagrama, 233
polinomio caracterstico, 66, 445
polinomio caractrerstico, 197
polos, 158, 178, 211, 270, 412
dominantes, 180, 213
lentos, 180, 213
observador, 311
rapidos, 180, 213
prediccion
error de, 321, 323, 329, 331
producto
matrices, 438
promedio movil, 62
Propiedades transformada de Fourier, 384
Propiedades transformada de Fourier discreta., 386
Propiedades transformada de Laplace,
409
Propiedades transformada Zeta, 428
punto de equilibrio, 11, 13, 258, 266
punto de operacion, 9, 14
quantum, 317
radio de convergencia, 419
radio espectral, 445
rampa unitaria, 23, 28

475
rango, 436
columna, 436
rango completo, 436
realimentacion, 289
realizacion mnima, 272, 287, 309
reconstruccion, 318
reconstructibilidad, 299
regresion
vector de, 322, 329
regresores, 322, 329
resonancia, 92, 106, 225, 266, 281
respuesta
a [t], 78
a (t), 50
a [t], 76
a escalon, 50, 76
a impulso, 52, 78, 158, 200
a escalon, 161, 200, 281
a impulso, 161
estacionaria, 204
forzada, 280
inversa, 182, 215
no forzada, 278
respuesta a (t), 52
respuesta en frecuencia, 89, 90, 104,
110, 124, 134, 145, 171, 199,
219
respuesta estacionaria, 49, 75
respuesta homogenea, 39, 65, 262
respuesta particular, 39, 67
respuesta transitoria, 49, 75
respuestas, 2
retardo, 159, 204, 227, 258, 284
diagrama de Bode, 227
diagrama polar, 239
retentor, 274
Routh, 207
algoritmo, 175
ruido, 314
salida, 158
sampling, vease muestreo
se
nal
de tiempo continuo, 155
de tiempo continuo, 257
de tiempo discreto, 257

476
modelo de estado, 256
no acotada, 155
se
nal causal, 53, 80
se
nal incremental, 14
se
nales, 2, 21
de prueba, 21
de tiempo discreto, 27
serie
conexion, 288
Serie de Fourier, 93
serie de Fourier, 87, 88, 118
cosenoidal, 98
senoidal, 95
exponencial, 101
serie de Taylor, 335
similaridad, 256, 267, 286, 292
transformacion de, 446
singular, 436
sinuosoide
aperiodica, 30
sinusoidal, 88, 103
sinusoide, 25
amortiguada, 26
amplitud, 26
desfase, 26
discreta, 30
amortiguada, 31
formula de Euler, 26
frecuencia, 26
frecuencia angular, 26
perodo, 26
sistema, 1
estable, 89, 104, 134, 137, 158
inestable, 38, 64
no lineal, 87
alcanzable, 290
algebraico, 4, 6
controlable, 290
detectable, 306
dinamico, 2, 155, 254
discreto, 273
dual, 306
estabilizable, 298
estable, 150, 155
hbrido, 254
inestable, 155

INDEX
interconexion, 246, 287
lineal, 110
muestreado, 273, 274
observable, 299
propiedades, 290
tiempo continuo, 257
sistemas
digitales, 317
hbridos, 318
sistemas discretos
estabilidad, 206
sistemas lineales, 5
solucion homogenea, 39, 65
solucion particular, 39, 67, 265
SPI, 172
subespacio
controlable, 297
observable, 306
superposicion, 5
Tabla de transformadas de Fourier,
385
Tabla de transformadas de Fourier
discretas, 387
Tabla transformada Zeta, 428
Tabla transformadas de Laplace, 409
Tabla transformadas de Laplace inversas, 409
Taylor, 335
teorema de Cayley-Hamilton, 457
teorema de Schur, 456
transformacion del estado, 256, 267,
286
Transformada de Fourier, 120
transformada de Fourier, 55, 82, 117,
117, 120, 219, 355
discreta, 140
discreta inversa, 140
inversa, 120
discreta, 199
transformada de Fourier discreta, 370
transformada de Fourier discreta inversa, 370
transformada de Fourier inversa, 355
Transformada de Laplace
region de convergencia, 395

INDEX
transformada de Laplace, 55, 155,
219
definicion, 156
inversa, 156
region de convergencia, 156
transformada rapida de Fourier, 389
transformada Zeta, 82, 191, 219
inversa, 191
traza, 433
undershoot, 182, 215
valor final, 162, 200
valor inicial, 168
valores caractersticos, 40, 444
valores propios, 40, 444
valores singulares, 462
variables
de estado, 253, 254
vector
columna, 433
de estado, 254
fila, 433
vectores caractersticos, 444
velocidad, 44, 72, 262, 279
ZOH, vease retentor

477

Anda mungkin juga menyukai