Anda di halaman 1dari 3

PARTE 1

Estado: Se define estado de un sistema como la mínima cantidad de


información necesaria en un instante, para que conociendo la entrada a
partir de ese instante, se pueda determinar cualquier variable del sistema en
cualquier instante posterior.

Variables de Estado: Es el conjunto de variables que definen el estado


de un sistema en un instante determinado, este conjunto de variables
reciben el nombre de Vector de Estado.

Espacio de Estado: Es el espacio vectorial en el cual el vector de estado


toma valores, y por lo tanto su dimensión es la misma que la cantidad
variables de estado.

Propiedades de las Variables de Estado.

1. Unicidad: es decir, cada variable de estado es única


2. Continuidad: las trayectorias en el espacio de estado son funciones
continuas
3. Transitividad: dada una trayectoria del vector de estado en el espacio
de estado, donde se conoce el estado en 3 instantes de tiempo
diferentes, si se quiere conocer el estado en un instante de tiempo t4,
da el mismo si parto de la información proporcionada de cualquiera de
los 3 estados conocidos.
Principio de causalidad.
Este principio postula que todo efecto-todo evento- debe tener
siempre una causa y que en idénticas circunstancias, una causa siempre
tendrá el mismo efecto.

Sistemas Determinísticos.
Son sistemas en donde la salida puede determinarse conociendo las
entradas y la dinámica del sistema y esta es única, y que dada las mismas
condiciones siempre se producirá la misma salida, son sistemas en donde no
se considera el azar o la incertidumbre.
Aunque partiendo de sistemas determinísticos, dependiendo de la
complejidad del sistema y del número de variables a considerar se puede
llegar a sistemas estocásticos.

Sistemas Estocásticos
Un sistema Estocástico es aquel en donde el estado de un sistema está
determinado por las acciones predecibles del proceso como por elementos
aleatorios, y por este motivo se necesitan métodos probabilísticos para
poder determinar o estimar cuáles serán las salidas.

Control Multivariables
Aplicable a sistemas que poseen múltiples salidas y entradas y donde
cada una de ellas está relacionada unas con otras, es decir una salida puede
depender de varias salidas y viceversa.

Control Adaptativo
Es un tipo de control no-lineal, y busca que el sistema se adapte a
variaciones en el comportamiento de su dinámica y a perturbaciones.

Control Óptimo
Es una técnica matemática usada para resolver problemas de
optimización de sistemas que evolucionan en el tiempo y que son
susceptibles a ser influenciados por fuerzas externas.

Para entender mejor este tipo de control, podemos plantearlo de la


siguiente manera, supóngase que se tiene un vector de estado y que se
quiere que este alcance un objetivo, un lugar en el espacio de estado, el
control optimo consiste en conseguir cual es la trayectoria que maximiza este
objetivo y lo realiza mediante el uso de un vector llamado Control de Estado

Anda mungkin juga menyukai