CSD_ Conceitos Fundamentais
-
Upload
rodrigo-barbosa -
Category
Documents
-
view
214 -
download
0
description
Transcript of CSD_ Conceitos Fundamentais
ENGENHARIA DE COMPUTAÇÃO
ENGENHARIA DE CONTROLE E AUTOMAÇÃO
Controle Digital de Sistemas Dinâmicos
Base: Apostila Análise e Controle de Sistemas Lineares
Prof. Valdemir Carrara
Universidade Braz Cubas
Conceitos Fundamentais
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Sistemas são conjuntos de componentes que atuam juntos realizando determinada finalidade.
Um sistema pode ser constituído de sub-sistemas, e pode também ser parte de um sistema maior.
Sistemas dinâmicos são sistemas que variam no tempo, segundo leis físicas que podem ser modeladas matematicamente.
Uma planta é também um conjunto de componentes, ou parte de uma máquina, ou uma máquina como um todo, com a finalidade de desempenhar uma determinada operação.
Uma planta necessariamente não engloba o equipamento que efetua o seu controle, enquanto que um sistema pode representar ambos.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Uma planta é um “sistema” que precisa ser controlado. Sob este ponto de vista, a planta pode até conter um controlador interno de um ou mais de seus componentes, mas estes controladores não são vistos externamente.
Uma perturbação é um esforço ou sinal que afeta a resposta do sistema ou de uma planta. A perturbação é considerada geralmente na forma aditiva à dinâmica, isto é, sobrepõe-se ao modelo matemático exato da dinâmica.
Contudo, certas perturbações exibem características não aditivas que dependem do estado da planta e atuam de forma não-linear.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Controle realimentado ou controle em malha fechada é uma operação que reduz a diferença entre a saída (resposta) de um sistema ou planta a uma referência externa pré-estabelecida.
Um sistema de controle de temperatura ambiente por meio de um equipamento de ar-condicionado ou um simples termostato são exemplos de controle realimentado.
A figura ilustra a representação gráfica de um controle realimentado. O controlador calcula o sinal de atuação com base na discrepância entre a saída da planta e a referência externa.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Servo-sistemas são controladores de posição, velocidade ou de aceleração. Um servosistema é composto por um elemento sensor, pela lógica de controle e pelo atuador (de posição, velocidade ou aceleração).
Reguladores automáticos são sistemas controladores em malha fechada onde o sinal de referência é constante e não pode ser alterado.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Sistemas em malha aberta ou controladores em malha aberta são sistemas no qual o controlador não necessita da informação da saída ou do estado da planta para utilizar no sinal de atuação.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Modelos de sistemas são representações que permitem estabelecer relações entre causa e efeito de sistemas dinâmicos.
Os modelos podem ser físicos ou matemáticos.
Modelos físicos assemelham-se a sistemas reais, porém mais simples, embora representativos das características mais importantes.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Modelos físicos assemelham-se a sistemas reais, porém mais simples, embora representativos das características mais importantes.
Os modelos matemáticos procuram representar o comportamento dinâmico dos sistemas por meio de equações matemáticas (equações de derivadas, equações de diferenças).
Pode-se prever o comportamento dinâmico de uma planta pela análise do seu modelo físico ou matemático.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Por exemplo, seja o sistema dinâmico mostrado na figura, composto por: uma massa m, uma mola de coeficiente k; e um amortecedor de
amortecimento b. Este sistema, que se desloca na
vertical, pode representar um sistema de suspensão de um veículo.
A equação matemática que descreve o movimento do conjunto em função do deslocamento xo da massa e da extremidade do amortecedor e mola, xi,é também mostrada na figura.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
O diagrama mostrado ilustra os diferentes tipos de sistemas e os modelos matemáticos utilizados na sua representação.
Sistemas determinísticos, ao contrário, possuem uma dinâmica previsível que pode ser modelada matematicamente. Se o sistema for determinístico, ele pode ser modelado por parâmetros concentrados ou distribuídos.
Sistemas dinâmicos estocásticos possuem um comportamento imprevisível, e devem ser modelados utilizando métodos probabilísticos.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Sistema a parâmetros concentrados significa que, dado as condições do sistema num instante, é possível prever a sua condição em qualquer instante.
Um exemplo de um sistema com parâmetros concentrados é o sistema massa-mola-amortecedor . Este tipo de sistema é descrito por uma equação diferencial no tempo (df/dt).
Parâmetros distribuídos, o estado é uma função de outros parâmetros.
A distribuição de temperatura numa placa aquecida, por sua vez, é um sistema com parâmetros distribuídos, uma vez que a temperatura em cada ponto depende da posição do ponto e do tempo.
Sistemas a parâmetros distribuídos são governados por equações diferenciais parciais (f/x).
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Parâmetros concentrados, ele poderá ser modelado por:
funções contínuas; ou funções discretas no tempo.
Sistemas discretos são aqueles que assumem valores apenas em determinados instantes de tempo. Eles podem, eventualmente, ser modelados por funções contínuas.
A propriedade discreta pode tanto estar no próprio sistema quanto na forma de se medir o sistema. Se a medição for discreta, a intervalos regulares no tempo, este sistema é considerado discreto.
Exemplos de sistema discretos são: o número de habitantes contaminados a cada ano pelo vírus da gripe, a temperatura máxima do dia observada durante um ano num dado local, etc.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Parâmetros concentrados, ele poderá ser modelado por:
funções contínuas; ou funções discretas no tempo.
Se um sistema dinâmico contínuo for simulado num computador, ele passa a ser discreto, uma vez que é impossível obter o valor do estado a cada instante de tempo, mas somente nos pontos calculados pelo computador.
Na prática, porém, considera-se que o cálculo efetuado pelo computador é preciso o suficiente para que o sistema possa ser admitido como contínuo.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Dentro de sistemas contínuos, o comportamento dinâmico pode ser linear ou não linear.
Sistemas lineares são descritos por equações lineares que se assemelham à equação de uma reta.
Se o sistema for linear, os coeficientes da equação linear podem ser constantes ou então variar lentamente no tempo.
Os sistemas não lineares possuem termos com o quadrado, ou o cubo, ou o seno ou ainda a função exponencial das variáveis de estado.
Se os coeficientes variam rapidamente no tempo, é muito provável que este sistema não seja linear.
Exemplos de sistemas com parâmetros variantes no tempo são aeronaves e foguetes. Neles, a massa do veículo varia conforme o combustível é consumido, e as características dinâmicas sofrem influência desta variação.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Os sistemas podem ainda depender de apenas uma ou de mais de uma variável de estado. No primeiro caso tem-se os sistemas monovariáveis e no segundo tem-se sistemas multivariáveis.
A figura da massa mola mostra um exemplo de sistema monovariável.
Porém, o conjunto completo de suspensão de um veículo seria um sistema multivariável, já que dependeria do número de rodas presentes no veículo
Para cada roda, acrescenta-se uma equação a mais no modelo matemático e, portanto, mais uma variável de estado.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Serão utilizados no curso apenas modelos matemáticos, uma vez que eles permitem efetuar a análise do comportamento dinâmico dos sistemas, bem como sua controlabilidade, isto é, a verificação se estes sistemas podem ou não ser controlados e como deve ser este controle.
Serão abordados sistemas lineares na quase totalidade do curso, principalmente, em virtude de que a teoria de controle moderna deriva exclusivamente de sistemas lineares.
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Um sistema y = H(x) é linear se obedece à relação:
H(α x1 + βx2 ) = α H(x1) + β H(x2) = α y1 +β y2
Seja a equação diferencial de 2ª ordem:
A equação é linear , pois se , tem-se:
Conclui-se que:
Controle de Sistemas Dinâmicos
Conceitos Fundamentais I
Nem todos os sistemas físicos reais são lineares. A grande maioria deles é não linear até um certo grau.
Não significa que a teoria de controle de sistemas lineares não possa ser aplicada a sistemas não lineares, mas sim que se deve proceder a uma linearização (quando possível) do sistema a fim de tornar o controle menos suscetível às não linearidades.
Nem sempre esta prática resulta num sistema controlável.