Einführung

Einordnung der Regelungs- und Steuerungstechnik

Automatisierte industrielle Prozesse sind gekennzeichnet durch selbsttätig arbeitende Maschinen und Geräte, die häufig sehr komplexe Anlagen oder Systeme bilden. Die Teilsysteme derselben werden heute durch die übergeordnete, stark informationsorientierte Leittechnik koordiniert. Zu ihren wesentlichen Grundlagen zählen die Regelungs- und Steuerungstechnik sowie die Prozessdatenverarbeitung. Ein typisches Merkmal von Regel- und Steuerungssystemen ist, dass sich in ihnen eine zielgerichtete Beeinflussung gewisser Größen (Signale) und eine Informationsverarbeitung abspielt, die N. Wiener [1] veranlasste, für die Gesetzmäßigkeiten dieser Regelungs- und Steuerungsvorgänge (in der Technik, Natur und Gesellschaft) den Begriff der Kybernetik einzuführen. Da Regelungs- und Steuerungstechnik weitgehend geräteunabhängig sind, soll im Weiteren mehr auf die systemtheoretischen als auf die gerätetechnischen Grundlagen eingegangen werden.

Darstellung im Blockschaltbild

In einem Regel- oder Steuerungssystem erfolgt eine Verarbeitung und Übertragung von Signalen. Derartige Systeme werden daher auch als Übertragungssysteme (oder Übertragungsglieder) bezeichnet. Diese besitzen eine eindeutige Wirkungsrichtung, die durch die Pfeilrichtung der Ein- und Ausgangssignale angegeben wird, und sind rückwirkungsfrei. Bei einem Eingrößensystem wirkt jeweils ein Eingangs- und Ausgangssignal x e(t) bzw. x a(t). Bei Mehrgrößensystemen sind es dementsprechend mehrere Größen am Eingang oder Ausgang des Übertragungsgliedes (auch Teilsystem genannt). Einzelne Übertragungsglieder werden dabei durch Kästchen dargestellt, die über Signale untereinander zu größeren Einheiten (Gesamtsystemen) verbunden werden können. Der Begriff des Systems reicht dabei vom einfachen Eingrößensystem über das Mehrgrößensystem bis hin zu hierarchisch gegliederten Mehrstufensystemen. Bild 1-1 zeigt ein einfaches Beispiel eines Blockschemas. Die wichtigsten bei Blockschaltbildern verwendeten Symbole sind in Tabelle  1-1 aufgeführt.

Tab. 1-1 Die wichtigsten Symbole für Signalverknüpfungen und Systeme im Blockschaltbild
Bild 1-1
figure 1

Beispiel für ein Blockschaltbild

Unterscheidung zwischen Regelung und Steuerung

Nach DIN 19 226 [2] ist „Regeln ein Vorgang, bei dem eine Größe, die Regelgröße, fortlaufend erfasst (gemessen), mit einer anderen Größe, der Führungsgröße, verglichen und abhängig vom Ergebnis dieses Vergleichs im Sinne der Angleichung an die Führungsgröße beeinflusst wird. Der sich daraus ergebende Wirkungsablauf findet in einem geschlossenen Kreis, dem Regelkreis, statt“. Demgegenüber ist „Steuern“ der Vorgang in einem System, bei dem eine oder mehrere Größen als Eingangsgrößen andere Größen als Ausgangsgrößen aufgrund der dem System eigentümlichen Gesetzmäßigkeiten beeinflussen. Kennzeichnend für das Steuern ist der offene Wirkungsablauf über das einzelne Übertragungsglied oder die Steuerkette.

Aus dem Blockschaltbild (Bild 1-2a) erkennt man leicht, dass die Regelung durch folgende Schritte charakterisiert wird:

–:

Messung der Regelgröße y,

–:

Bildung der Regelabweichung e = w − y durch Vergleich des Istwertes der Regelgröße y mit dem Sollwert w (Führungsgröße),

–:

Verarbeitung der Regelabweichung derart, dass durch Verändern der Stellgröße u die Regelabweichung vermindert oder beseitigt wird.

Vergleicht man nun eine Steuerung mit einer Regelung, so lassen sich folgende Unterschiede leicht feststellen:

Bild 1-2
figure 2

Gegenüberstellung a einer Regelung und b einer Steuerung im Blockschaltbild

Die Regelung

–:

stellt einen geschlossenen Wirkungsablauf (Regelkreis) dar;

–:

kann wegen des geschlossenen Wirkungsprinzips allen Störungen z entgegenwirken (negative Rückkopplung);

–:

kann instabil werden, d. h., Schwingungen im Kreis klingen dann nicht mehr ab, sondern wachsen auch bei beschränkten Eingangsgrößen w und z (theoretisch) über alle Grenzen an.

Die Steuerung

–:

stellt einen offenen Wirkungsablauf (Steuerkette) dar;

–:

kann nur den Störgrößen entgegenwirken, auf die sie ausgelegt wurde; andere Störeinflüsse sind nicht beseitigbar;

–:

kann, sofern das zu steuernde Objekt selbst stabil ist, nicht instabil werden.

Gemäß Bild 1-2a besteht ein Regelkreis aus 4 Hauptbestandteilen: Regelstrecke, Messglied, Regler und Stellglied.

Anhand dieses Blockschaltbildes ist zu erkennen, dass die Aufgabe der Regelung einer Anlage oder eines Prozesses (Regelstrecke) darin besteht, die vom Messglied zeitlich fortlaufend erfasste Regelgröße y(t) unabhängig von äußeren Störungen z(t) entweder auf einem konstanten Sollwert w(t) zu halten (Festwertregelung oder Störgrößenregelung) oder y(t) einem veränderlichen Sollwert w(t) (Führungsgröße) nachzuführen (Folgeregelung, Nachlauf- oder Servoregelung). Diese Aufgabe wird durch ein Rechengerät, den Regler R, ausgeführt. Der Regler bildet die Regelabweichung e(t) = w(t) − y(t), also die Differenz zwischen Sollwert w(t) und Istwert y(t) der Regelgröße, verarbeitet diese entsprechend seiner Funktionsweise (z. B. proportional, integral oder differenzial) und erzeugt ein Signal u R(t), das über das Stellglied als Stellgröße u(t) auf die Regelstrecke einwirkt und z. B. im Falle der Störgrößenregelung dem Störsignal z(t) entgegenwirkt. Durch diesen geschlossenen Signalverlauf ist der Regelkreis gekennzeichnet, wobei die Reglerfunktion darin besteht, eine eingetretene Regelabweichung e(t) möglichst schnell zu beseitigen oder zumindest klein zu halten. Die hier benutzten Symbole werden in Anlehnung an die international üblichen Bezeichnungen im Folgenden verwendet.

Beispiele von Regel- und Steuerungssystemen

Anhand einiger typischer Anwendungsfälle wird im Folgenden die Wirkungsweise einer Regelung und einer Steuerung gezeigt, ohne dass dabei bereits die interne Funktionsweise der Geräte erläutert wird. Bild 1-3 zeigt die schematische Gegenüberstellung einer Regelung und einer Steuerung für eine Raumheizungsanlage. Bei der Steuerung, Bild 1-3a, wird die Außentemperatur ϑ A über einen Temperaturfühler gemessen und dem Steuergerät zugeführt. Das Steuergerät verstellt in Abhängigkeit von ϑ A über den Motor M und das Ventil V den Heizwärmestrom \(\dot{Q}\). Am Steuergerät kann die Steigung der Kennlinie \(\dot{Q}=f(\vartheta _{{\text{A}}})\) voreingestellt werden. Wie aus dem Blockschaltbild hervorgeht, kompensiert eine gut eingestellte Steuerung nur die Auswirkungen einer Änderung der Außentemperatur \(z_{2}\ \hat{=}\ \vartheta _{{\text{A}}}\), jedoch nicht Störungen der Raumtemperatur, z. B. durch Öffnen eines Fensters oder durch starke Sonneneinstrahlung. Im Falle einer Regelung der Raumtemperatur ϑ R, Bild 1-3b, wird diese gemessen und mit dem eingestellten Sollwert w (z. B. w = 20 °C) verglichen. Weicht die Raumtemperatur vom Sollwert ab, so wird über einen Regler (R), der die Abweichung verarbeitet, der Heizwärmestrom \(\dot{Q}\) verändert. Sämtliche Änderungen der Raumtemperatur ϑ R werden vom Regler verarbeitet und möglichst beseitigt. Anhand der Blockschaltbilder erkennt man wiederum den geschlossenen Wirkungsablauf der Regelung (Regelkreis) und den offenen der Steuerung (Steuerkette).

Bild 1-3
figure 3

Gegenüberstellung a einer Steuerung und b einer Regelung für eine Raumheizung: Schemaskizzen und zugehörige Blockschaltbilder

Bild 1-4 zeigt einige weitere Anwendungsbeispiele für Regelungen. Daraus erkennt man anschaulich den Unterschied zwischen Festwertregelungen und Folgeregelungen. So muss z. B. bei einer Dampfturbine die Drehzahl entsprechend dem fest eingestellten Sollwert eingehalten werden (Festwertregelung), während bei der Kursregelung der Sollwert bei der Umfahrung eines Hindernisses u. U. verändert wird und die Kursregelung dann die Aufgabe hat, das Schiff diesem Sollkurs nachzuführen (Folgeregelung).

Wie diese Beispiele bereits zeigen, kann die Signalübertragung in Regel- und Steuerungssystemen in verschiedenen Formen, d. h. durch mechanische, hydraulische, pneumatische oder elektrische Hilfsenergie erfolgen. Unabhängig von der technischen Realisierung werden die Signale im Weiteren aber nur hinsichtlich ihrer Information betrachtet und i. Allg. als reine (einheitenlose) mathematische Funktionen aufgefasst.

Bild 1-4
figure 4

a–d. Anwendungsbeispiele für Regelungen

Das eingangs gezeigte Beispiel der Raumheizungssteuerung stellt einen bestimmten Typ einer Steuerung dar, der in die Gruppe der Führungssteuerungen fällt, die im Beharrungszustand durch einen festen Zusammenhang zwischen Eingangs- und Ausgangsgrößen, z. B. durch die Heizkurve, charakterisiert sind. Daneben gibt es noch die so genannten Programmsteuerungen, zu denen die Zeitplansteuerungen, Wegplansteuerungen und Ablaufsteuerungen sowie deren Kombinationen zählen. Zeitplansteuerungen laufen nach einem festen Zeitplan ohne Rückmeldungen ab. Wegplansteuerungen schalten in einzelnen Schritten erst dann weiter, wenn bestimmte Bedingungen erreicht sind, die durch Rückmeldesignale (nicht zu verwechseln mit der Rückkopplung in Regelkreisen), z. B. durch Endschalter, realisiert werden können. Ablaufsteuerungen sind durch ein bestimmtes festes oder variierbares Programm gekennzeichnet, das schrittweise abläuft, wobei die Einzelschritte durch Rückmeldesignale ausgelöst werden. Ein typisches Beispiel für eine kombinierte Zeitplan- und Ablaufsteuerung ist der Waschautomat.

Da Programmsteuerungen heute weitgehend in digitaler Technik ausgeführt werden, bezeichnet man sie häufig auch als binäre Steuerungen. In diesen binären Steuerungen werden Signale verwendet, die nur zwei Werte annehmen können. Auf diesem Prinzip beruhen die modernen speicherprogrammierbaren Steuerungen (SPS), auf die ausführlich im Kapitel  14 eingegangen wird. Die Kapitel 2 bis 13 befassen sich mit der Behandlung regelungstechnischer Gesichtspunkte.

Modelle und Systemeigenschaften

Mathematische Modelle

Das statische und dynamische Verhalten eines Regel- oder Steuerungssystems kann entweder durch physikalische oder andere Gesetzmäßigkeiten analytisch beschrieben oder anhand von Messungen ermittelt und in einem mathematischen Modell, z. B. durch Differenzialgleichungen, algebraische oder logische Gleichungen usw. dargestellt werden. Die spezielle Form hängt hinsichtlich ihrer Struktur und ihrer Parameter dabei im Wesentlichen von den Systemeigenschaften ab. Die wichtigsten Eigenschaften von Regelsystemen sind im Bild 2-1 dargestellt. Mathematische Systemmodelle, die das Verhalten eines realen Systems in abstrahierender Form – eventuell vereinfacht, aber doch genügend genau – beschreiben, bilden gewöhnlich die Grundlage für die Analyse oder Synthese des realen technischen Systems sowie häufig auch für dessen rechentechnischer Simulation [1]. So lassen sich bereits im Entwurfsstadium verschiedenartige Betriebsfälle anhand einer Simulation des Systems leicht überprüfen.

Bild 2-1
figure 5

Gesichtspunkte zur Beschreibung der Eigenschaften von Regelungssystemen

Systemeigenschaften

Lineare und nichtlineare Systeme

Man unterscheidet bei Systemen gewöhnlich zwischen dem dynamischen und dem statischen Verhalten. Das dynamische Verhalten oder Zeitverhalten beschreibt den zeitlichen Verlauf der Systemausgangsgröße x a(t) bei vorgegebener Systemeingangsgröße x e(t). Somit stellen x e(t) und x a(t) zwei einander zugeordnete Größen dar. Als Beispiel dafür sei im Bild 2-2 die Antwort x a(t) eines Systems auf eine sprungförmige Veränderung der Eingangsgröße x e(t) betrachtet. In diesem Beispiel beschreibt x a(t) den zeitlichen Übergang von einem stationären Anfangszustand zur Zeit t ≤ 0 in einen stationären Endzustand (theoretisch für t → ∞) x a(∞).

Variiert man nun – wie im Bild 2-3 dargestellt – die Sprunghöhe x e,s  =  const und trägt die sich einstellenden stationären Werte der Ausgangsgröße x a,s = x a(∞) über x e,s auf, so erhält man die statische Kennlinie

$$\begin{aligned}\displaystyle x_{{\text{a,s}}}=f(x_{{\text{e,s}}})\;,\end{aligned}$$
(2-1)
Bild 2-2
figure 6

Beispiel für das dynamische Verhalten eines Systems

Bild 2-3
figure 7

Beispiel für a das dynamische und b das statische Verhalten eines Systems

die das statische Verhalten oder Beharrungsverhalten des Systems in einem gewissen Arbeitsbereich beschreibt. Gleichung ( 2-1) gibt also den Zusammenhang der Signalwerte im Ruhezustand an. Bei der weiteren Verwendung von (2-1) soll allerdings der einfacheren Darstellung wegen auf die Schreibweise x a,s = x a und x e,s = x e übergegangen werden, wobei x a und x e jeweils stationäre Werte von x a(t) und x e(t) darstellen. Beschreibt (2-1) eine Geradengleichung, so bezeichnet man das System als linear. Für ein lineares System gilt das Superpositionsprinzip, das folgenden Sachverhalt beschreibt: Lässt man nacheinander auf den Eingang eines Systems n beliebige Eingangsgrößen x e i (t) einwirken und bestimmt man die Systemantworten x a i (t), so ergibt sich die Systemantwort auf die Summe der n Eingangsgrößen als Summe der n Antworten x a i (t). Ist das Superpositionsprinzip nicht erfüllt, so ist das System nichtlinear.

Lineare kontinuierliche Systeme können gewöhnlich durch lineare Differenzialgleichungen beschrieben werden. Als Beispiel sei eine gewöhnliche lineare Differenzialgleichung betrachtet:

$$\sum^{n}_{{i=0}}a_{i}(t)\frac{{\text{d}}^{i}x_{{\text{a}}}(t)}{{\text{d}}t^{i}}=\sum^{n}_{{j=0}}b_{{\! j}}(t)\frac{{\text{d}}^{j}x_{{\text{e}}}(t)}{{\text{d}}t^{j}}\;.$$
(2-2)

Wie man leicht sieht, gilt auch hier das Superpositionsprinzip. Da heute für die Behandlung linearer Systeme eine weitgehend abgeschlossene Theorie zur Verfügung steht, ist man beim Auftreten von Nichtlinearitäten i. Allg. bemüht, eine Linearisierung durchzuführen. In vielen Fällen ist es möglich, durch einen linearisierten Ansatz das Systemverhalten hinreichend genau zu beschreiben. Die Durchführung der Linearisierung hängt vom jeweiligen nichtlinearen Charakter des Systems ab. Daher wird im Weiteren zwischen der Linearisierung einer statischen Kennlinie und der Linearisierung einer nichtlinearen Differenzialgleichung unterschieden.

  • (a) Linearisierung einer statischen Kennlinie

    Wird die nichtlineare Kennlinie für das statische Verhalten eines Systems durch x a = f(x e), also durch (2-1), beschrieben, so kann diese nichtlineare Gleichung im jeweils betrachteten Arbeitspunkt (\(\bar{x}_{{\text{e}}},\bar{x}_{{\text{a}}}\)) in die Taylor-Reihe

    $$\begin{aligned}\displaystyle x_{{\text{a}}}=&\displaystyle\; f(\bar{x}_{{\text{e}}})+\frac{{\text{d}}f}{{\text{d}}x_{{\text{e}}}}\bigg|_{{x_{{\text{e}}}=\bar{x}_{{\text{e}}}}}(x_{{\text{e}}}-\bar{x}_{{\text{e}}})\\ \displaystyle&\displaystyle+\frac{1}{2!}\cdot\frac{{\text{d}}^{2}f}{{\text{d}}x^{2}_{{\text{e}}}}\bigg|_{{x_{{\text{e}}}=\bar{x}_{{\text{e}}}}}(x_{{\text{e}}}-\bar{x}_{{\text{e}}})^{2}+\ldots\end{aligned}$$
    (2-3)

    entwickelt werden, siehe A 9.2.1 und A 11.2.1. Sind die Abweichungen (\(x_{{\text{e}}}-\bar{x}_{{\text{e}}}\)) vom Arbeitspunkt klein, so können die Terme mit den höheren Ableitungen vernachlässigt werden, und aus (2-3) folgt die lineare Beziehung

    $$\begin{aligned}\displaystyle&\displaystyle x_{{\text{a}}}-\bar{x}_{{\text{a}}}\approx K(x_{{\text{e}}}-\bar{x}_{{\text{e}}})\;,\\ \displaystyle\text{mit}\quad&\displaystyle\bar{x}_{{\text{a}}}=f(\bar{x}_{{\text{e}}})\quad{\text{und}}\quad K=\frac{{\text{d}}f}{{\text{d}}x_{{\text{e}}}}\bigg|_{{x_{{\text{e}}}=\bar{x}_{{\text{e}}}}}\;.\end{aligned}$$
    (2-4)

    Dieselbe Vorgehensweise ist auch für eine Funktion mit zwei oder mehreren unabhängigen Variablen \(x_{{\text{a}}}~=~f(x_{{\text{e}_{\text{1}}}},x_{{\text{e}_{\text{2}}}})\) möglich. In diesem Fall erhält man analog zu (2-4) die lineare Beziehung

    $$x_{{\text{a}}}-\bar{x}_{{\text{a}}}\approx K_{1}(x_{{\text{e}_{\text{1}}}}-\bar{x}_{{\text{e}_{\text{1}}}})+K_{2}(x_{{\text{e}_{\text{2}}}}-\bar{x}_{{\text{e}_{\text{2}}}})\;.$$
    (2-5)

    (b) Linearisierung nichtlinearer Differenzialgleichungen

    Ein nichtlineares dynamisches System mit der Eingangsgröße x e(t) = u(t) und der Ausgangsgröße x a(t) = y(t) werde beschrieben durch die nichtlineare Differenzialgleichung 1. Ordnung

    $$\dot{y}(t)=f[\, y(t),u(t)]\;,$$
    (2-6)

    die in der Umgebung einer Ruhelage ( \(\,\bar{y},\bar{u}\)) linearisiert werden soll. Eine Ruhelage \(\bar{y}\) zu einer konstanten Eingangsgröße \(\bar{u}\) ist dadurch gekennzeichnet, dass y(t) zeitlich konstant ist, d. h., es gilt \(\dot{y}(t)=0\). Man erhält zu einer gegebenen Eingangsgröße \(\bar{u}\) die Ruhelagen des Systems durch Lösen der Gleichung \(0=f(\,\bar{y},\bar{u})\). Bezeichnet man mit y*(t) die Abweichung der Variablen y(t) von der Ruhelage \(\bar{y}\), dann gilt \(y(t)=\bar{y}+y^{{\ast}}(t)\), und daraus folgt \(\dot{y}(t)=\dot{y}^{{\ast}}(t)\). Ganz entsprechend ergibt sich für die zweite Variable \(u(t)=\bar{u}+u^{{\ast}}(t)\). Die Taylor-Reihenentwicklung von (2-6) um die Ruhelage (\(\bar{y},\bar{u}\)) liefert bei Vernachlässigung der Terme mit den höheren Ableitungen näherungsweise die lineare Differenzialgleichung

    $$\dot{y}^{{\ast}}(t)\approx Ay^{{\ast}}(t)+Bu^{{\ast}}(t)\;,$$
    (2-7)

    mit

    $$\begin{aligned}\displaystyle A=\frac{\partial f(y,u)}{\partial y}\bigg|_{{\displaystyle{y=\bar{y}\atop{u=\bar{u}}}}}\quad{\text{und}}\quad B=\frac{\partial f(y,u)}{\partial u}\bigg|_{{\displaystyle{u=\bar{u}\atop{y=\bar{y}}}}}\;.\end{aligned}$$

    Ganz entsprechend kann auch bei nichtlinearen Vektordifferenzialgleichungen

    $$\begin{aligned}\displaystyle\dot{\boldsymbol{x}}(t)&\displaystyle=\boldsymbol{f}[\boldsymbol{x}(t),\boldsymbol{u}(t)]\,,\quad{\text{mit}}\\ \displaystyle{\boldsymbol{x}}(t)&\displaystyle=[x_{1}(t)\ldots x_{n}(t)]^{{\text{T}}}\,,\\ \displaystyle{\boldsymbol{u}}(t)&\displaystyle=[{u}_{1}(t)\ldots u_{r}(t)]^{{\text{T}}}\end{aligned}$$
    (2-8)

    vorgegangen werden. Dabei stellen f(x, u), x(t) und u(t) Spaltenvektoren dar. Hierbei liefert die Linearisierung die lineare Vektordifferenzialgleichung

    $$\dot{\boldsymbol{x}}^{{\ast}}(t)=\boldsymbol{Ax}^{{\ast}}(t)+\boldsymbol{Bu}^{{\ast}}(t)\;,$$
    (2-9)

    wobei A und B als Jacobi-Matrizen die partiellen Ableitungen enthalten:

    $$\boldsymbol{A}=\left[\begin{array}[]{ccc}\displaystyle\frac{\partial f_{1}(\boldsymbol{x},\boldsymbol{u})}{\partial x_{1}}&\ldots&\displaystyle\frac{\partial f_{1}(\boldsymbol{x},\boldsymbol{u})}{\partial x_{n}}\\ \vdots&&\vdots\\ \displaystyle\frac{\partial f_{n}(\boldsymbol{x},\boldsymbol{u})}{\partial x_{1}}&\ldots&\displaystyle\frac{\partial f_{n}(\boldsymbol{x},\boldsymbol{u})}{\partial x_{n}}\end{array}\right]_{{\displaystyle\boldsymbol{x}=\displaystyle\bar{\boldsymbol{x}}\atop{\displaystyle\boldsymbol{u}=\displaystyle\bar{\boldsymbol{u}}}}}$$
    (2-10)
    $$\boldsymbol{B}=\left[\begin{array}[]{ccc}\displaystyle\frac{\partial f_{1}(\boldsymbol{x},\boldsymbol{u})}{\partial u_{1}}&\ldots&\displaystyle\frac{\partial f_{1}(\boldsymbol{x},\boldsymbol{u})}{\partial u_{r}}\\ \vdots&&\vdots\\ \displaystyle\frac{\partial f_{n}(\boldsymbol{x},\boldsymbol{u})}{\partial u_{1}}&\ldots&\displaystyle\frac{\partial f_{n}(\boldsymbol{x},\boldsymbol{u})}{\partial u_{r}}\end{array}\right]_{{\displaystyle\boldsymbol{x}=\displaystyle\bar{\boldsymbol{x}}\atop{\displaystyle\boldsymbol{u}=\displaystyle\bar{\boldsymbol{u}}}}}$$
    (2-11)

Systeme mit konzentrierten und verteilten Parametern

Man kann sich ein Übertragungssystem aus endlich vielen idealisierten einzelnen Elementen zusammengesetzt denken, z. B. Ohm'schen Widerständen, Kapazitäten, Induktivitäten, Dämpfern, Federn, Massen usw. Derartige Systeme werden als Systeme mit konzentrierten Parametern bezeichnet. Diese werden durch gewöhnliche Differenzialgleichungen beschrieben. Besitzt ein System unendlich viele, unendlich kleine Einzelelemente der oben angeführten Art, dann stellt es ein System mit verteilten Parametern dar, das durch partielle Differenzialgleichungen beschrieben wird. Ein typisches Beispiel hierfür ist eine elektrische Leitung. Der Spannungsverlauf auf einer Leitung ist eine Funktion von Ort und Zeit und damit nur durch eine partielle Differenzialgleichung beschreibbar.

Zeitvariante und zeitinvariante Systeme

Sind die Systemparameter nicht konstant, sondern ändern sie sich in Abhängigkeit von der Zeit, dann ist das System zeitvariant (zeitvariabel, nichtstationär). Ist das nicht der Fall, dann wird das System als zeitinvariant bezeichnet. Beispiele für zeitvariante Systeme sind: Rakete (Massenänderungen), Kernreaktor (Abbrand), chemische Prozesse (Verschmutzung).

Häufiger und wichtiger sind zeitinvariante Systeme, deren Parameter konstant sind. Bei diesen Systemen hat z. B. eine zeitliche Verschiebung des Eingangssignals x e(t) um t 0 eine gleiche Verschiebung des Ausgangssignals x a(t) zur Folge, ohne dass dabei x a(t) sonst verändert wird.

Systeme mit kontinuierlicher und diskreter Arbeitsweise

Ist eine Systemvariable (Signal) y, z. B. die Eingangs- oder Ausgangsgröße eines Systems, zu jedem beliebigen Zeitpunkt gegeben, und ist sie innerhalb gewisser Grenzen stetig veränderlich, dann spricht man von einem kontinuierlichen Signalverlauf (Bild  2-4a). Kann das Signal nur gewisse diskrete Amplitudenwerte annehmen, dann liegt ein quantisiertes Signal vor (Bild 2-4b). Ist hingegen der Wert des Signals nur zu bestimmten diskreten Zeitpunkten bekannt, so handelt es sich um ein zeitdiskretes (oder kurz: diskretes) Signal (Bild 2-4c). Sind die Signalwerte zu äquidistanten Zeitpunkten mit dem Intervall T gegeben, so spricht man von einem Abtastsignal mit der Abtastperiode T. Systeme, in denen derartige Signale verarbeitet werden, bezeichnet man auch als Abtastsysteme. In sämtlichen Regelsystemen, in denen ein Digitalrechner z. B. die Funktionen eines Reglers übernimmt, können von diesem nur zeitdiskrete quantisierte Signale verarbeitet werden (Bild 2-4d).

Bild 2-4
figure 8

Unterscheidungsmerkmale für kontinuierliche und diskrete Signale a kontinuierlich, b quantisiert, c zeitdiskret, d zeitdiskret und quantisiert

Systeme mit deterministischen oder stochastischen Variablen

Eine Systemvariable kann entweder deterministischen oder stochastischen Charakter aufweisen. Diedeterministischen oder stochastischen Eigenschaften beziehen sich sowohl auf die in einem System auftretenden Signale als auch auf die Parameter des mathematischen Systemmodells. Im deterministischen Fall sind die Signale und das mathematische Modell eines Systems eindeutig bestimmt. Das zeitliche Verhalten des Systems lässt sich somit reproduzieren. Im stochastischen Fall hingegen können sowohl die auf das System einwirkenden Signale als auch das Systemmodell, z. B. ein Koeffizient der Systemgleichung, stochastischen, also regellosen Charakter, besitzen. Der Wert dieser in den Signalen oder im System auftretenden Variablen kann daher zu jedem Zeitpunkt nur durch stochastische Gesetzmäßigkeiten beschrieben werden und ist somit nicht mehr reproduzierbar.

Kausale Systeme

Bei einem kausalen System hängt die Ausgangsgröße x a(t 1) zu einem beliebigen Zeitpunkt t 1 nur vom Verlauf der Eingangsgröße x e(t) bis zu diesem Zeitpunkt t 1 ab. Es muss also erst eine Ursache auftreten, bevor sich eine Wirkung zeigt. Alle realen Systeme sind daher kausal.

Stabile und instabile Systeme

Ein System ist genau dann stabil, wenn jedes beschränkte zulässige Eingangssignal x e(t) ein ebenfalls beschränktes Ausgangssignal x a(t) zur Folge hat. Ist dies nicht der Fall, dann ist das System instabil (Bild 2-5).

Bild 2-5
figure 9

a stabiles und b instabiles Systemverhalten x a(t) bei beschränkter Eingangsgröße x e(t)

Eingrößen- und Mehrgrößensysteme

Ein System, welches genau eine Eingangs- und eine Ausgangsgröße besitzt, heißt Eingrößensystem. Ein System mit mehreren Eingangsgrößen und/oder Ausgangsgrößen heißt Mehrgrößensystem. Große Systeme sind häufig in mehreren Stufen angeordnet. Man bezeichnet sie deshalb auch als Mehrstufensysteme (Bild  2-6).

Bild 2-6
figure 10

Symbolische Darstellung des Systembegriffs: a Eingrößensystem, b Mehrgrößensystem, c Mehrstufensystem

Neben den hier diskutierten Systemeigenschaften gibt es noch einige weitere. So sind beispielsweise die Steuerbarkeit und Beobachtbarkeit eines Systems wesentliche Eigenschaften, die das innere Systemverhalten beschreiben.

Beschreibung linearer kontinuierlicher Systeme im Zeitbereich

Beschreibung mittels Differenzialgleichungen

Das Übertragungsverhalten linearer kontinuierlicher Systeme kann durch lineare Differenzialgleichungen beschrieben werden. Im Falle von Systemen mitkonzentrierten Parametern führt dies auf gewöhnlichelineare Differenzialgleichungen gemäß (2-2) in 2.2, während bei Systemen mit verteilten Parametern sich partielle lineare Differenzialgleichungen als mathematische Modelle zur Systembeschreibung ergeben. Anhand einiger Beispiele soll die Aufstellung der das System beschreibenden Differenzialgleichungen gezeigt werden.

Elektrische Systeme

Für die Behandlung elektrischer Netzwerke benötigt man die Kirchhoff'schen Gesetze:

1.:

Die Summe der Ströme in einem Knotenpunkt ist gleich Null: \(\sum{{i}_{i}}=0\).

2.:

Die Summe der Spannungen bei einem Umlauf in einer Masche ist gleich Null: \(\sum{u}_{i}=0\).

Wendet man diese Gesetze auf die beiden Maschen und den Knoten A des in Bild 3-1 dargestellten Schwingkreises an und setzt voraus, dass i 3 = 0 ist, so erhält man nach kurzer Rechnung die lineare Differenzialgleichung 2. Ordnung mit konstanten Koeffizienten

$$T^{2}_{2}\frac{{\text{d}}^{2}x_{{\text{a}}}}{{\text{d}}t^{2}}+T_{1}\frac{{\text{d}}x_{{\text{a}}}}{{\text{d}}t}+x_{{\text{a}}}\,=\, x_{{\text{e}}}+T_{1}\frac{{\text{d}}x_{{\text{e}}}}{{\text{d}}t}\;,$$
(3-1)
Bild 3-1
figure 11

Ein elektrischer Schwingkreis

mit den Abkürzungen T 1 = RC und \(T_{2}=\sqrt{LC}\). Zur eindeutigen Lösung müssen noch die beiden Anfangsbedingungen x a(0) und \(\dot{x}_{{\text{a}}}(0)\) gegeben sein.

Mechanische Systeme

Zum Aufstellen der Differenzialgleichungen von mechanischen Systemen benötigt man die folgenden Gesetze:

–:

Newton'sches Gesetz,

–:

Kräfte- und Momentengleichgewichte,

–:

Erhaltungssätze von Impuls, Drehimpuls und Energie.

Als Beispiel für ein mechanisches System soll die Differenzialgleichung eines gedämpften Schwingers nach Bild 3-2 ermittelt werden. Dabei bezeichnen c die Federkonstante, d die Dämpfungskonstante und m die Masse desselben. Die Größen x 1( = x a), x 2 und x e beschreiben jeweils die Geschwindigkeiten in den gekennzeichneten Punkten. Die Anwendung obiger Gesetze liefert nach kurzer Zwischenrechnung dieselbe Differenzialgleichung (3-1) wie bei dem zuvor betrachteten elektrischen Schwingkreis, wobei allerdings T 1 = md und \(T_{2}=\sqrt{m/c}\) gilt. Beide Systeme sind daher analog zueinander.

Bild 3-2
figure 12

Gedämpfter mechanischer Schwinger

Thermische Systeme

Zur Bestimmung der Differenzialgleichungen thermischer Systeme benötigt man

–:

die Erhaltungssätze der inneren Energie oder Enthalpie sowie

–:

die Wärmeleitungs- und Wärmeübertragungsgesetze.

Als Beispiel soll das mathematische Modell des Stoff- und Wärmetransports in einem dickwandigen, von einem Fluid durchströmten Rohr gemäß Bild 3-3 betrachtet werden. Zunächst werden die folgenden vereinfachenden Annahmen getroffen:

–:

Die Temperatur, sowohl im Fluid, als auch in der Rohrwand, ist nur von der Koordinate z abhängig.

–:

Der gesamte Wärmetransport in Richtung der Rohrachse wird nur durch den Massetransport, nicht aber durch Wärmeleitung innerhalb des Fluids oder der Rohrwand bewirkt.

–:

Die Strömungsgeschwindigkeit des Fluids ist im ganzen Rohr konstant und hat nur eine Komponente in z-Richtung.

–:

Die Stoffwerte vom Fluid und Rohr sind über die Rohrlänge konstant.

–:

Nach außen hin ist das Rohr ideal isoliert.

Mit folgenden Bezeichnungen

ϑ(z, t)

Fluidtemperatur

Θ(z, t)

Rohrtemperatur

\(\dot{m}\)

Fluidstrom

L

Rohrlänge

w F

Fluidgeschwindigkeit

ϱ F, ϱ R

Dichte (Fluid, Rohr)

c F, c R

spezifische Wärmekapazität (Fluid, Rohr)

α

Wärmeübergangszahl Fluid/Rohr

D i , D a

innerer und äußerer Rohrdurchmesser

Bild 3-3
figure 13

Ausschnitt aus dem untersuchten Rohr

sollen nun die Differenzialgleichungen des mathematischen Modells hergeleitet werden. Betrachtet wird ein Rohrelement der Länge d z. Das zugehörige Rohrwandvolumen sei dV R, das entsprechende Fluidvolumen sei dV F. Für die im Bild 3-3 eingetragenen Wärmemengen gilt:

$$\begin{aligned}\displaystyle{\text{d}}Q_{1}&\displaystyle=c_{{\text{F}}}\vartheta\dot{m}\ {\text{d}}t\\ \displaystyle{\text{d}}Q_{2}&\displaystyle=c_{{\text{F}}}\left(\vartheta+\frac{\partial\vartheta}{\partial z}{\text{d}}z\right)\dot{m}\,{\text{d}}t\\ \displaystyle{\text{d}}Q_{3}&\displaystyle=\alpha(\vartheta-\Theta)\pi D_{{\text{i}}}\,{\text{d}}z\,{\text{d}}t\;.\end{aligned}$$

Während des Zeitintervalls dt ändert sich im Fluidelement dV F die gespeicherte Wärmemenge um

$$\begin{aligned}\displaystyle{\text{d}}Q_{{\text{F}}}=\varrho _{{\text{F}}}\frac{\pi}{4}D^{2}_{{\text{i}}}{\text{d}}z\, c_{{\text{F}}}\frac{\partial\vartheta}{\partial t}{\text{d}}t\;.\end{aligned}$$

Nun lässt sich die Wärmebilanzgleichung für das Fluid im betrachteten Zeitintervall dt angeben:

$${\text{d}}Q_{{\text{F}}}={\text{d}}Q_{1}-{\text{d}}Q_{2}-{\text{d}}Q_{3}\;.$$
(3-2)

Für die Wärmespeicherung im Rohrwandelement d V R folgt andererseits im selben Zeitintervall:

$$\begin{aligned}\displaystyle{\text{d}}Q_{{\text{R}}}=\varrho _{{\text{R}}}\frac{\pi}{4}\left(D^{2}_{{\text{a}}}-D^{2}_{{\text{i}}}\right){\text{d}}z\; c_{{\text{R}}}\frac{\partial\Theta}{\partial t}{\text{d}}t\;.\end{aligned}$$

Damit lässt sich nun die Wärmebilanzgleichung für das Rohrwandelement angeben. Es gilt

$${\text{d}}Q_{{\text{R}}}={\text{d}}Q_{3}\;,$$
(3-3)

da nach den getroffenen Voraussetzungen an der Rohraußenwand eine ideale Wärmeisolierung vorhanden ist. Werden in (3-2) und (3-3) die zuvor aufgestellten Beziehungen eingesetzt, so erhält man mit den Abkürzungen

$$\begin{aligned}\displaystyle K_{1}=\frac{\alpha\pi D_{{\text{i}}}}{\displaystyle{\frac{\pi}{4}}D^{2}_{{\text{i}}}\varrho _{{\text{F}}}c_{{\text{F}}}}\,,\quad K_{2}=\frac{\alpha\pi D_{{\text{i}}}}{\displaystyle{\frac{\pi}{4}}\left(D^{2}_{{\text{a}}}-D^{2}_{{\text{i}}}\right)\varrho _{{\text{R}}}c_{{\text{R}}}}\end{aligned}$$

und

$$\begin{aligned}\displaystyle\quad\displaystyle w_{{\text{F}}}=\frac{\dot{m}}{\displaystyle{\frac{\pi}{4}}D^{2}_{{\text{i}}}Q_{{\text{F}}}}\end{aligned}$$

die beiden partiellen Differenzialgleichungen

$$\begin{aligned}\displaystyle\frac{\partial\vartheta}{\partial t}+w_{{\text{F}}}\frac{\partial\vartheta}{\partial z}=K_{1}(\Theta-\vartheta)\end{aligned}$$
(3-4a)

und

$$\begin{aligned}\displaystyle\frac{\partial\Theta}{\partial t}=K_{2}(\vartheta-\Theta)\;,\end{aligned}$$
(3-4b)

die das hier behandelte System beschreiben. Zur Lösung wird außer den beiden Anfangsbedingungen ϑ(z ,0) und Θ(z ,0) auch noch die Randbedingung ϑ(0, t) benötigt.

Als Spezialfall ergibt sich das dünnwandige Rohr, bei dem dQ 3 = 0 wird, da keine Wärmespeicherung stattfindet. Für diesen Fall geht (3-4a) über in

$$\frac{\partial\vartheta}{\partial t}+w_{{\text{F}}}\frac{\partial\vartheta}{\partial z}=0\;.$$
(3-5)

Bei Systemen mit örtlich verteilten Parametern braucht die Eingangsgröße x e(t) nicht unbedingt in den Differenzialgleichungen aufzutreten, sie kann vielmehr auch in die Randbedingungen eingehen. Im vorliegenden Fall wird als Eingangsgröße die Fluidtemperatur am Rohreingang betrachtet:

$$\begin{aligned}\displaystyle x_{{\text{e}}}(t)=\vartheta(0,t)\ t> 0.\end{aligned}$$

Entsprechend wird als Ausgangsgröße x a((t)) = ϑ(L, t) die Fluidtemperatur am Ende des Rohres der Länge L definiert. Unter der zusätzlichen Annahme ϑ(z ,0) = 0 erhält man als Lösung von (3-5)

$$x_{{\text{a}}}(t)=x_{{\text{e}}}(t-T_{{\text{t}}})\quad{\text{mit}}\quad T_{{\text{t}}}=\frac{L}{w_{{\text{F}}}}\;.$$
(3-6)

Diese Gleichung beschreibt somit den reinen Transportvorgang im Rohr. Die Zeit T t, um die die Ausgangsgröße x a(t) der Eingangsgröße x e(t) nacheilt, wird als Totzeit bezeichnet.

Beschreibung mittels spezieller Ausgangssignale

Die Übergangsfunktion (Normierte Sprungantwort)

Für die weiteren Überlegungen wird der Begriff der Sprungfunktion (auch Einheitssprung) benötigt:

$$\sigma(t)=\left\{\begin{array}[]{l@{\quad}l@{\quad}l}1\hfil\quad&\text{f{\"u}r}\hfil\quad&t\geq 0\\ 0\hfil\quad&\text{f{\"u}r}\hfil\quad&t<0\end{array}\right.\;.$$
(3-7)

Die sogenannte Sprungantwort lässt sich definieren als die Reaktion x a(t) des Systems auf eine sprungförmige Veränderung der Eingangsgröße

$$\begin{aligned}\displaystyle x_{{\text{e}}}(t)=\hat{x}_{{\text{e}}}\sigma(t)\quad{\text{mit}}\quad\hat{x}_{{\text{e}}}={\text{const}}\;,\end{aligned}$$

vgl. Bild 3-4.

Die Übergangsfunktion stellt dann die auf die Sprunghöhe \(\hat{x}_{{\text{e}}}\) bezogene Sprungantwort

$$h(t)=\frac{1}{\hat{x}_{{\text{e}}}}x_{{\text{a}}}(t)$$
(3-8)

dar, die bei einem kausalen System die Eigenschaft h(t) = 0 für t < 0 besitzt.

Bild 3-4
figure 14

Zur Definition der Übergangsfunktion h(t) und der Gewichtsfunktion g(t)

Die Gewichtsfunktion (Impulsantwort)

Die Gewichtsfunktion g(t) ist definiert als die Antwort des Systems auf die Impulsfunktion (Einheitsimpuls oder Dirac-Impuls) δ(t). Dabei ist δ(t) keine Funktion im Sinne der klassischen Analysis, sondern muss als verallgemeinerte Funktion oder Distribution aufgefasst werden [1], vgl. A 8.3. Der Einfachheit halber wird σ(t) näherungsweise als Rechteckimpulsfunktion

$$r_{{\varepsilon}}=\left\{\begin{array}[]{l@{\quad}l@{\quad}l}\displaystyle\frac{1}{\varepsilon}\hfil\quad&{\text{f{\"u}r}}\hfil\quad&0\leq t\leq\varepsilon\\ 0\hfil\quad&{\text{sonst}}\hfil\quad\end{array}\right.$$
(3-9)

mit kleinem positiven ε beschrieben (vgl. Bild  3-5). Somit ist die Impulsfunktion definiert durch

$$\delta(t)=\lim _{{\varepsilon\to 0}}r_{{\varepsilon}}(t)$$
(3-10)

mit den Eigenschaften

$$\begin{aligned}\displaystyle\delta(t)=0\quad\text{f{\"u}r}\quad t\not=0\quad{\text{und}}\quad\int\limits^{\infty}_{{-\infty}}\delta(t)\,{\text{d}}t=1\;.\end{aligned}$$
Bild 3-5
figure 15

a Annäherung der δ(t)-Funktion; b symbolische Darstellung der δ-Funktion

Gewöhnlich wird die δ-Funktion gemäß Bild 3-5b für t = 0 symbolisch als Pfeil der Länge 1 dargestellt. Man bezeichnet die Länge 1 als die Impulsstärke (zu beachten ist, dass für die Höhe des Impulses dabei weiterhin δ(0) = ∞ gilt). Im Sinne der Distributionentheorie besteht zwischen der δ-Funktion und der Sprungfunktion σ(t) der Zusammenhang

$$\delta(t)=\frac{{\text{d}}\sigma(t)}{{\text{d}}t}\;.$$
(3-11)

Entsprechend gilt zwischen der Gewichtsfunktion g(t) und der Übergangsfunktion h(t) die Beziehung

$$g(t)=\frac{{\text{d}}}{{\text{d}}t}h(t)\;.$$
(3-12a)

Bezeichnet man den Wert von h(t) für t = 0+ mit h(0+), so lässt sich h(t) in der Form

$$\begin{aligned}\displaystyle h(t)=h_{0}(t)+h(0+)\,\sigma(t){}\end{aligned}$$

darstellen, wobei angenommen wird, dass der sprungfreie Anteil h 0(t) auf der gesamten t-Achse stetig und stückweise differenzierbar ist. Damit kann (3-12a) auch in der Form

$$g(t)=\dot{h}(t)=\dot{h}_{0}(t)+h(0+)\,\delta(t)$$
(3-12b)

geschrieben werden.

Das Faltungsintegral (Duhamel'sches Integral)

Bei den folgenden Überlegungen wird als das zu beschreibende dynamische System die Regelstrecke mit der Eingangsgröße x e(t) = u(t) und der Ausgangsgröße x a(t) = y(t) gewählt. Es sei jedoch darauf hingewiesen, dass diese Überlegungen selbstverständlich allgemein gültig sind. Das Übertragungsverhalten eines kausalen linearen zeitinvarianten Systems ist durch die Kenntnis eines Funktionspaares [y i (t); u i (t)] eindeutig bestimmt. Kennt man insbesondere die Gewichtsfunktion g(t), so kann für ein beliebiges Eingangssignal u(t) das Ausgangssignal y(t) mithilfe des Faltungsintegrals

$$y(t)=\int\limits^{t}_{0}g(t-\tau)u(\tau)\,{\text{d}}\tau$$
(3-13)

bestimmt werden, siehe A 25.6. Umgekehrt kann bei bekanntem Verlauf von u(t) und y(t) durch eine Umkehrung der Faltung die Gewichtsfunktion g(t) berechnet werden. Sowohl die Gewichtsfunktion g(t) als auch die Übergangsfunktion h(t) sind für die Beschreibung linearer Systeme von großer Bedeutung, da sie die gesamte Information über deren dynamisches Verhalten enthalten.

Zustandsraumdarstellung

Zustandsraumdarstellung für Eingrößensysteme

Am Beispiel des im Bild 3-6 dargestellten RLC-Netzwerkes soll die Systembeschreibung in Form der Zustandsraumdarstellung in einer kurzen Einführung behandelt werden. Das dynamische Verhalten des Systems ist für alle Zeiten t ≥ t 0 vollständig definiert, wenn

–:

die Anfangswerte u C(t 0), i(t 0) und

–:

die Eingangsgröße u K(t) für t ≥ t 0

bekannt sind. Durch diese Angaben lassen sich dieGrößen i(t) und u C(t) für alle Werte t ≥ t 0 bestimmen. Die Größen i(t) und u C(t) charakterisieren den „Zustand“ des Netzwerkes und werden aus diesem Grund als dessen Zustandsgrößen bezeichnet. Für dieses Netzwerk gelten folgende Beziehungen:

$$\begin{aligned}\displaystyle&\displaystyle L\frac{{\text{d}}i}{{\text{d}}t}+Ri+u_{\text{C}}=u_{{\text{K}}}\;,\end{aligned}$$
(3-14a)
$$\begin{aligned}\displaystyle&\displaystyle C\frac{{\text{d}}u_{\text{C}}}{{\text{d}}t}=i\;.\end{aligned}$$
(3-14b)
Bild 3-6
figure 16

RLC-Netzwerk

Aus (3-14a,b) erhält man

$$\begin{aligned}\displaystyle LC\frac{{\text{d}}^{2}u_{\text{C}}}{{\text{d}}t^{2}}+RC\frac{{\text{d}}u_{\text{C}}}{{\text{d}}t}+u_{\text{C}}=u_{{\text{K}}}\;.\end{aligned}$$

Diese lineare Differenzialgleichung 2. Ordnung beschreibt das System bezüglich des Eingangs-Ausgangs-Verhaltens vollständig. Man kann aber zur Systembeschreibung auch die beiden ursprünglichen linearen Differenzialgleichungen 1. Ordnung, also (3-14a,b), benutzen. Dazu fasst man diese beiden Gleichungen zweckmäßigerweise mithilfe der Vektorschreibweise zu einer linearen Vektordifferenzialgleichung 1. Ordnung

$$\left[\begin{array}[]{c}\displaystyle\frac{{\text{d}}i}{{\text{d}}t}\\ \displaystyle\frac{{\text{d}}u_{\text{C}}}{{\text{d}}t}\end{array}\right]\,=\,\left[\begin{array}[]{cc}\displaystyle-\frac{R}{L}&\;\displaystyle-\frac{1}{L}\\ \displaystyle\frac{1}{C}&0\end{array}\right]\left[\begin{array}[]{c}i\\ u_{\text{C}}\end{array}\right]+\left[\begin{array}[]{c}\displaystyle\frac{1}{L}\\ 0\end{array}\right]u_{{\text{K}}}$$
(3-15)

mit dem Anfangswertvektor

$$\begin{aligned}\displaystyle\left[\begin{array}[]{c}i(t_{0})\\ u_{\text{C}}(t_{0})\end{array}\right]\end{aligned}$$

zusammen. Diese lineare Vektordifferenzialgleichung 1. Ordnung beschreibt den Zusammenhang zwischen der Eingangsgröße und den Zustandsgrößen. Man benötigt nun aber noch eine Gleichung, die die Abhängigkeit der Ausgangsgröße von den Zustandsgrößen und der Eingangsgröße angibt. In diesem Beispiel gilt, wie man direkt sieht, für die Ausgangsgröße

$$\begin{aligned}\displaystyle y(t)=u_{\text{C}}(t)\;.\end{aligned}$$

Gewöhnlich stellt die Ausgangsgröße eine Linearkombination der Zustandsgrößen und der Eingangsgröße dar. Allgemein hat die Zustandsraumdarstellung für Eingrößensysteme daher folgende Form:

$$\begin{aligned}\displaystyle\boldsymbol{\dot{x}}&\displaystyle=\boldsymbol{Ax}+\boldsymbol{b}u\;,\quad\boldsymbol{x}(t_{0})=\boldsymbol{x}_{0}\;,\end{aligned}$$
(3-16)
$$\begin{aligned}\displaystyle y&\displaystyle=\boldsymbol{c}^{{\text{T}}}\boldsymbol{x}+\text{d}u\;.\end{aligned}$$
(3-17)

Dabei beschreibt (3-16) ein lineares Differenzialgleichungssystem 1. Ordnung für die Zustandsgrößen x 1, x 2, …, x n , die zum Zustandsvektor \(\boldsymbol{x}=[x_{1}\ldots x_{n}]^{{\text{T}}}\) zusammengefasst werden, wobei die Eingangsgröße u multipliziert mit dem Vektor b als Störterm auftritt. Gleichung (3-17) ist dagegen eine rein algebraische Gleichung, die die lineare Abhängigkeit der Ausgangsgröße von den Zustandsgrößen und der Eingangsgröße angibt. Mathematisch beruht die Zustandsraumdarstellung auf dem Satz, dass man jede lineare Differenzialgleichung n-ter Ordnung in n gekoppelte Differenzialgleichungen 1. Ordnung umwandeln kann.

Vergleicht man die Darstellung gemäß (3-16) und (3-17) mit den Gleichungen des oben betrachteten Beispiels, so folgt:

$$\begin{aligned}\displaystyle&\displaystyle x=\left[\begin{array}[]{c}x_{1}\\ x_{2}\end{array}\right]=\left[\begin{array}[]{c}i\\ u_{\text{C}}\end{array}\right]\,,\quad x_{0}=\left[\begin{array}[]{c}i(t_{0})\\ u_{\text{C}}(t_{0})\end{array}\right]\,,\end{aligned}$$
$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{A}=\left[\begin{array}[]{cc}\displaystyle-\frac{R}{L}&\,\displaystyle-\frac{1}{L}\\ \displaystyle\frac{1}{C}&0\end{array}\right]\,,\quad\boldsymbol{b}=\left[\begin{array}[]{c}\displaystyle\frac{1}{L}\\ 0\end{array}\right]\,;u=u_{{\text{K}}}\,,\end{aligned}$$
$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{c}^{{\text{T}}}=[0,1]\,;\quad d=0\,.\end{aligned}$$

Zustandsraumdarstellung für Mehrgrößensysteme

Für lineare Mehrgrößensysteme mit r Eingangsgrößen und m Ausgangsgrößen gehen (3-16), (3-17) in die allgemeine Form

$$\begin{aligned}\displaystyle\dot{\boldsymbol{x}}&\displaystyle=\boldsymbol{Ax}+\boldsymbol{Bu}\ \text{mit der Anfangsbedingung}\ \boldsymbol{x}(t_{0})\;,\end{aligned}$$
(3-18)
$$\begin{aligned}\displaystyle\boldsymbol{y}&\displaystyle=\boldsymbol{Cx}+\boldsymbol{Du}\end{aligned}$$
(3-19)

über, wobei die folgenden Beziehungen gelten:

$$\begin{aligned}\displaystyle\begin{array}[]{l@{\quad}l@{\quad}l}\text{Zustandsvektor}\quad\hfil\quad&\quad&\boldsymbol{x}=\left[\begin{array}[]{l}x_{1}\\ \vdots\\ x_{n}\end{array}\right]\;,\\ \begin{array}[]{l}\textrm{Eingangsvektor}\\ {\rm(Steuervektor)}\end{array}\quad\hfil\quad&\quad&\boldsymbol{u}=\left[\begin{array}[]{l}u_{1}\\ \vdots\\ u_{r}\end{array}\right]\;,\\ \text{Ausgangsvektor}\quad\hfil\quad&\quad&\boldsymbol{m}=\left[\begin{array}[]{l}y_{1}\\ \vdots\\ y_{m}\end{array}\right]\;,\end{array}\end{aligned}$$
$$\begin{aligned}\displaystyle\begin{array}[]{l@{\quad}l@{\quad}l}\text{Systemmatrix}\hfil\quad&\boldsymbol{A}\hfil\quad&(n\times n)-\text{Matrix}\;,\\ \text{Steuermatrix}\hfil\quad&\boldsymbol{B}\hfil\quad&(n\times r)-\text{Matrix}\;,\\ \text{Ausgangs- oder}\hfil\quad&\boldsymbol{C}\hfil\quad&(m\times n)-\text{Matrix}\;,\\ \text{Beobachtungsmatrix}\hfil\quad\\ \text{Durchgangsmatrix}\hfil\quad&\boldsymbol{D}\hfil\quad&(m\times r)-\text{Matrix}\;.\end{array}\end{aligned}$$

Selbstverständlich schließt die allgemeine Darstellung von (3-18) und (3-19) auch die Zustandsraumdarstellung des Eingrößensystems mit ein.

Die Verwendung der Zustandsraumdarstellung hat verschiedene Vorteile, von denen hier einige genannt seien:

1.:

Ein- und Mehrgrößensysteme können formal gleich behandelt werden.

2.:

Diese Darstellung ist sowohl für die theoretische Behandlung (analytische Lösungen, Optimierung) als auch für die numerische Berechnung gut geeignet.

3.:

Die Berechnung des Verhaltens des homogenen Systems unter Verwendung der Anfangsbedingung x(t 0) ist sehr einfach.

4.:

Schließlich gibt diese Darstellung einen besseren Einblick in das innere Systemverhalten. So lassen sich allgemeine Systemeigenschaften wie die Steuerbarkeit oder Beobachtbarkeit des Systems mit dieser Darstellungsform definieren und überprüfen.

Durch (3-18) und (3-19) werden lineare Systeme mit konzentrierten Parametern beschrieben. Die Zustandsraumdarstellung lässt sich jedoch auch auf nichtlineare Systeme mit konzentrierten Parametern erweitern:

$$\begin{aligned}\displaystyle&\displaystyle\dot{\boldsymbol{x}}=\boldsymbol{f}_{1}(\boldsymbol{x},\boldsymbol{u},t)&\displaystyle\text{(Vektordifferenzialgleichung)}\,,\end{aligned}$$
(3-20)
$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{y}=\boldsymbol{f}_{2}(\boldsymbol{x},\boldsymbol{u},t)&\displaystyle(\text{Vektorgleichung})\;.\end{aligned}$$
(3-21)

Der Zustandsvektor x(t) stellt für den Zeitpunkt t einen Punkt in einem n-dimensionalen euklidischen Raum (Zustandsraum) dar. Mit wachsender Zeit t ändert dieser Zustandspunkt des Systems seine räumliche Position und beschreibt dabei eine Kurve, die als Zustandskurve oder Trajektorie des Systems bezeichnet wird.

Beschreibung linearer kontinuierlicher Systeme im Frequenzbereich

Die Laplace-Transformation [1]

Die Laplace-Transformation kann als wichtiges Hilfsmittel zur Lösung linearer Differenzialgleichungen mit konstanten Koeffizienten angesehen werden. Bei regelungstechnischen Aufgaben erfüllen die zu lösenden Differenzialgleichungen meist die zum Einsatz der Laplace-Transformation notwendigen Voraussetzungen. Die Laplace-Transformation ist eine Integraltransformation, die einer großen Klasse von Originalfunktionen f(t) umkehrbar eindeutig eine Bildfunktion F(s) zuordnet, siehe A 23.2. Diese Zuordnung erfolgt über das Laplace-Integral von f(t), also durch

$$F(s)=\int\limits^{\infty}_{0}f(t){\text{e}}^{{-st}}{\text{d}}t=\mathcal{L}\{ f(t)\}\;,$$
(4-1)

wobei im Argument dieser Laplace-Transformierten F(s) die komplexe Variable s = σ + j ω auftritt und L die Operatorschreibweise darstellt. Die Voraussetzungen für die Gültigkeit von (4-1) sind:

(a):

f(t) = 0 für t < 0;

(b):

das Integral in (4-1) muss konvergieren.

Bei der Behandlung dynamischer Systeme ist die Originalfunktion f(t) gewöhnlich eine Zeitfunktion. Da die komplexe Variable s die Frequenz ω enthält, wird die Bildfunktion F(s) oft auch als Frequenzfunktion bezeichnet. Damit ermöglicht die Laplace-Transformation gemäß (4-1) den Übergang vom Zeitbereich (Originalbereich) in den Frequenzbereich (Bildbereich).

Die sogenannte Rücktransformation oder inverse Laplace-Transformation, also die Gewinnung der Originalfunktion aus der Bildfunktion wird durch das Umkehrintegral

$$f(t)=\frac{1}{2\pi{\text{j}}}\int\limits^{{c+{\text{j}}\,\infty}}_{{c-{\text{j}}\,\infty}}F(s){\text{e}}^{{st}}{\text{d}}s=\mathcal{L}^{{-1}}\{ F(s)\}\,,\quad t> 0$$
(4-2)

ermöglicht, wobei f(t) = 0 für t < 0 gilt, siehe A 23.2.

Die Laplace-Transformation ist eine umkehrbar eindeutige Zuordnung von Originalfunktion und Bildfunktion. Daher braucht in vielen Fällen das Umkehrintegral gar nicht berechnet zu werden; es können vielmehr Korrespondenztafeln verwendet werden, in denen für viele Funktionen die oben genannte Zuordnung enthalten ist, siehe Tabelle A 23.2.

Die Lösung von Differenzialgleichungen mithilfe der Laplace-Transformation erfolgt gemäß Bild 4-1 in folgenden drei Schritten:

1.:

Transformation der Differenzialgleichung in den Bildbereich,

2.:

Lösung der algebraischen Gleichung im Bildbereich,

3.:

Rücktransformation der Lösung in den Originalbereich.

Bild 4-1
figure 17

Schema zur Lösung von Differenzialgleichungen mit der Laplace-Transformation

Beispiel: Gegeben ist die Differenzialgleichung

$$\begin{aligned}\displaystyle\ddot{f}(t)+3\dot{f}(t)+2f(t)={\text{e}}^{{-t}}\end{aligned}$$

mit den Anfangsbedingungen \(f(0+)=\dot{f}(0+)=0\). Die Lösung erfolgt in den zuvor angegebenen Schritten:

1.:

Schritt:

$$\begin{aligned}\displaystyle s^{2}F(s)+3sF(s)+2F(s)=\frac{1}{s+1}\;.\end{aligned}$$
2.:

Schritt:

$$\begin{aligned}\displaystyle F(s)=\frac{1}{s+1}\cdot\frac{1}{s^{2}+3s+2}\;.\end{aligned}$$
3.:

Schritt: Vor der Rücktransformation wird F(s) in Partialbrüche zerlegt, da die Korrespondenztafeln nur bestimmte Standardfunktionen enthalten:

$$\begin{aligned}\displaystyle F(s)=\frac{1}{s+2}-\frac{1}{s+1}+\frac{1}{(s+1)^{2}}\;.\end{aligned}$$

Mittels der Korrespondenzen aus Tabelle A 23-2 folgt durch die inverse Laplace-Transformation als Lösung der gegebenen Differenzialgleichung:

$$\begin{aligned}\displaystyle f(t)={\text{e}}^{{-2t}}-{\text{e}}^{{-t}}+t{\text{e}}^{{-t}}\,.\end{aligned}$$

Wie man leicht anhand dieses Beispiels erkennt, ist die Lage der Pole s 1, s 2 und s 3 für den Verlauf von f(t) ausschlaggebend. Da hier sämtliche Pole von F(s) negativen Realteil besitzen, ist der Verlauf von f(t) gedämpft, d. h., er klingt für t → ∞ auf null ab. Wäre jedoch der Realteil eines Poles positiv, dann würde für t → ∞ auch f(t) unendlich groß werden. Da bei regelungstechnischen Problemen die Originalfunktion f(t) stets den zeitlichen Verlauf einer im Regelkreis auftretenden Systemgröße darstellt, lässt sich das Schwingungsverhalten dieser Systemgröße f(t) durch die Untersuchung der Lage der Polstellen der zugehörigen Bildfunktion F(s) direkt beurteilen. Auf diese so entscheidende Bedeutung der Lage der Polstellen einer Bildfunktion wird im Kapitel 6 ausführlich eingegangen.

Die Fourier-Transformation [2]

Oben wurde die Laplace-Transformation für Zeitfunktionen f(t) mit der Eigenschaft f(t) = 0 im Bereich t < 0 behandelt. Zeitfunktionen mit dieser Eigenschaft kommen hauptsächlich bei technischen Einschaltvorgängen vor. Für Zeitfunktionen im gesamten t-Bereich −∞ ≤ t ≤ +∞ wird die Fourier-Transformierte (F-Transformierte, Spektral- oder Frequenzfunktion)

$$F({\,\text{j}}\omega)=\mathcal{F}\{ f(t)\}=\int\limits^{\infty}_{{-\infty}}f(t){\text{e}}^{{-\text{j}\omega t}}{\text{d}}t$$
(4-3)

und die inverse Fourier-Transformierte

$$f(t)=\mathcal{F}^{{-1}}\{ F({\,\text{j}}\omega)\}=\frac{1}{2\pi}\int\limits^{\infty}_{{-\infty}}F({\,\text{j}}\omega){\text{e}}^{{\,{\text{j}}\omega t}}{\text{d}}\omega$$
(4-4)

benutzt, wobei mit den Operatorzeichen F und F −1 formal die Fourier-Transformation bzw. ihre Inverse gekennzeichnet wird.

Da die Fourier-Transformierte meist eine komplexe Funktion ist, können ebenfalls die Darstellungen

$$\begin{aligned}\displaystyle&\displaystyle F(\,{\text{j}}\omega)=R^{{\prime}}(\omega)+{\text{j}}I^{{\prime}}(\omega)\end{aligned}$$
(4-5)
$$\begin{aligned}\displaystyle\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\;{\text{und}}\quad&\displaystyle F(\,{\text{j}}\omega)=A^{{\prime}}(\omega){\text{e}}^{{{\text{j}}\varphi^{{\prime}}(\omega)}}\end{aligned}$$
(4-6)

unter Verwendung von Real- und Imaginärteil R′(ω) und I′(ω) oder von Amplituden- und Phasengang A′(ω) und φ′(ω) gewählt werden, wobei

$$A^{{\prime}}(\omega)=|F({\,\text{j}}\omega)|=\sqrt{R^{{{}^{{\prime}}2}}(\omega)+I^{{{}^{{\prime}}2}}(\omega)}$$
(4-7)

auch als Fourier-Spektrum oder Amplitudendichtespektrum von f(t) bezeichnet wird, und außerdem für den Phasengang gilt:

$$\varphi^{{\prime}}(\omega)={\text{arctan}}\frac{I^{{\prime}}(\omega)}{R^{{\prime}}(\omega)}\;.$$
(4-8)

Ähnlich wie die Laplace-Transformation stellt die Fourier-Transformation eine umkehrbar eindeutige Zuordnung zwischen Zeitfunktion f(t) und Frequenz- oder Spektralfunktion F( j ω) her. Die wichtigsten Funktionspaare sind in Tabelle A 23.1 zusammengestellt. Wegen Analogien von Fourier- und Laplace-Transformation vgl. A 23.1 und A 23.2.

Der Begriff der Übertragungsfunktion

Definition

Lineare, kontinuierliche, zeitinvariante Systeme mit konzentrierten Parametern, ohne Totzeit werden durch die Differenzialgleichung

$$\sum^{n}_{{i=0}}a_{i}\frac{{\text{d}}^{i}x_{{\text{a}}}(t)}{{\text{d}}t^{i}}=\sum^{m}_{{j=0}}b_{{\! j}}\frac{{\text{d}}^{j}x_{{\text{e}}}(t)}{{\text{d}}t^{j}}\,,\quad m\leq n$$
(4-9)

beschrieben. Sind alle Anfangswerte gleich null und wendet man auf beide Seiten von (4-9) die Laplace-Transformation an, so folgt nach kurzer Umformung

$$\frac{X_{{\text{a}}}(s)}{X_{{\text{e}}}(s)}=\frac{b_{0}+b_{1}s+\ldots+b_{m}s^{m}}{a_{0}+a_{1}s+\ldots+a_{n}s^{n}}=G(s)=\frac{Z(s)}{N(s)}\;,$$
(4-10)

wobei Z(s) und N(s) das Zähler- bzw. Nennerpolynom von G(s) sind. Die das Übertragungsverhalten des Systems vollständig charakterisierende Funktion G(s) wird Übertragungsfunktion des Systems genannt. Ist noch eine Totzeit T t zu berücksichtigen, dann erhält man anstelle von (4-9)

$$\sum^{n}_{{i=0}}a_{i}\frac{{\text{d}}_{i}x_{{\text{a}}}{{(t)}}}{{\text{d}}t^{{i}}}=\sum^{m}_{{j=0}}b_{{\! j}}\frac{{\text{d}}^{j}x_{{\text{e}}}(t-T_{{\text{t}}})}{{\text{d}}t^{{j}}}\;.$$
(4-11)

Die Laplace-Transformation liefert in diesem Fall die transzendente Übertragungsfunktion

$$G(s)=\frac{Z(s)}{N(s)}{\text{e}}^{{-sT_{{\text{t}}}}}\;.$$
(4-12)

Die Erregung eines linearen Systems durch einen Einheitsimpuls δ(t) liefert als Ausgangsgröße die Gewichtsfunktion: x a(t) = g(t), vgl. 3.2.2. Es ist nun wegen L{δ(t)} = 1 und mit (4-10)

$$\mathcal{L}\{ g(t)\}=X_{{\text{a}}}(s)=X_{{\text{a}}}(s)/X_{{\text{e}}}(s)=G(s)\;;$$
(4-13)

d. h., die Übertragungsfunktion G(s) ist identisch mit der Laplace-Transformierten der Gewichtsfunktion. Das Ergebnis (4-13) folgt auch durch Laplace-Transformation aus der Beziehung (3-13):

$$\mathcal{L}\{ x_{{\text{a}}}(t)\}=\mathcal{L}\left\{\int\limits^{t}_{{0}}g(t-\tau)x_{{\text{e}}}(\tau){\text{d}}\tau\right\}=G(s)X_{{\text{e}}}(s)\,.$$
(4-14)

Pole und Nullstellen der Übertragungsfunktion

Häufig ist es zweckmäßig, die rationale Übertragungsfunktion G(s) gemäß (4-10) faktorisiert in der Form

$$G(s)=\frac{Z(s)}{N(s)}=k_{0}\frac{(s-s_{{\text{N1}}})(s-s_{{\text{N2}}})\ldots(s-s_{{\text{N$m$}}})}{(s-s_{{\text{P1}}})(s-s_{{\text{P2}}})\ldots(s-s_{{\text{P$n$}}})}$$
(4-15)

darzustellen. Da aus physikalischen Gründen nur reelle Koeffizienten a i , b j vorkommen, können die Nullstellen s N j bzw. die Polstellen s P i von G(s) reell oder konjugiert komplex sein. Pole und Nullstellen lassen sich anschaulich in der komplexen s-Ebene entsprechend Bild 4-2 darstellen. Ein lineares zeitinvariantes System ohne Totzeit wird somit durch die Angabe der Pol- und Nullstellenverteilung sowie des Faktors k 0 vollständig beschrieben. Darüber hinaus haben die Pole der Übertragungsfunktion eine weitere Bedeutung. Betrachtet man das ungestörte System (x e(t) ≡ 0) nach (4-9) und will man den Zeitverlauf der Ausgangsgröße x a(t) nach Vorgabe von n Anfangsbedingungen ermitteln, so hat man die zugehörige homogene Differenzialgleichung

$$\sum^{n}_{{i=0}}a_{i}\frac{{\text{d}}^{i}x_{{\text{a}}}(t)}{{\text{d}}t^{i}}=0$$
(4-16)

zu lösen. Wird für (4-16) der Lösungsansatz x a(t) = est gemacht, so erhält man als Bestimmungsgleichung für s die charakteristische Gleichung

$$\sum^{n}_{{t=0}}a_{i}s^{i}=0\;.$$
(4-17)

Diese Beziehung geht also unmittelbar durch Nullsetzen des Nenners (N(s) = 0) aus G(s) hervor, sofern N(s) und Z(s) teilerfremd sind. Die Nullstellen s k der charakteristischen Gleichung stellen somit Pole  s Pj der Übertragungsfunktion dar. Da das Eigenverhalten (x e(t) ≡ 0) allein durch die charakteristische Gleichung beschrieben wird, enthalten somit die Pole s P j der Übertragungsfunktion diese Information vollständig.

Bild 4-2
figure 18

Pol- und Nullstellenverteilung einer Übertragungsfunktion in der s-Ebene

Das Rechnen mit Übertragungsfunktionen

Für das Zusammenschalten von Übertragungsgliedern lassen sich nun einfache Rechenregeln zur Bestimmung der Übertragungsfunktion herleiten.

a):

Hintereinanderschaltung: Aus der Schaltung entsprechend Bild  4-3 folgt

$$\begin{aligned}\displaystyle Y(s)=G_{{2}}(s)G_{{1}}(s)U(s)\;.\end{aligned}$$

Damit ergibt sich als Gesamtübertragungsfunktion der Hintereinanderschaltung

$$G(s)=\frac{Y(s)}{U(s)}=G_{1}(s)G_{2}(s)\;.$$
(4-18)
b):

Parallelschaltung: Für die Ausgangsgröße des Gesamtsystems nach Bild 4-4 erhält man

$$\begin{aligned}\displaystyle Y(s)&\displaystyle=X_{{\text{a}}}(s)\\ \displaystyle&\displaystyle=X_{{\text{a1}}}(s)+X_{{\text{a2}}}(s)=\left[G_{1}(s)+G_{2}(s)\right]U(s)\;,\end{aligned}$$

und daraus ergibt sich als Gesamtübertragungsfunktion der Parallelschaltung

$$G(s)=\frac{Y(s)}{U(s)}=G_{1}(s)+G_{2}(s)\;.$$
(4-19)
c):

Kreisschaltung: Aus Bild  4-5 folgt unmittelbar für die Ausgangsgröße

$$\begin{aligned}\displaystyle Y(s)=X_{{\text{a}}}(s)=[U(s)(\mp)X_{{\text{a2}}}(s)]G_{1}(s)\;.\end{aligned}$$

Mit X a2(s) = G 2(s) Y(s) erhält man daraus die Gesamtübertragungsfunktion der Kreisschaltung

$$\begin{aligned}\displaystyle G(s)=\frac{Y(s)}{U(s)}&\displaystyle=\frac{G_{1}(s)}{1+G_{1}(s)G_{2}(s)}.\end{aligned}$$
(4-20)

Da die Ausgangsgröße von G 1(s) über G 2(s) wieder an den Eingang zurückgeführt wird, spricht man auch von einer Rückkopplung. Dabei unterscheidet man zwischen positiver Rückkopplung (Mitkopplung) bei positiver Aufschaltung von X a2(s) und negativer Rückkopplung (Gegenkopplung) bei negativer Aufschaltung von X a2(s).

Bild 4-3
figure 19

Hintereinanderschaltung zweier Übertragungsglieder

Bild 4-4
figure 20

Parallelschaltung zweier Übertragungsglieder

Bild 4-5
figure 21

Kreisschaltung zweier Übertragungsglieder

Zusammenhang zwischen G(s) und der Zustandsraumdarstellung

Wendet man auf die Zustandsraumdarstellung eines Eingrößensystems, in 3.3.1 beschrieben durch (3-16) und (4-17) mit x(t 0) = 0, die Laplace-Transformation an, so folgt aus

$$\begin{aligned}\displaystyle s\boldsymbol{X}(s)&\displaystyle=\boldsymbol{AX}(s)+\boldsymbol{b}U(s)\quad{\text{und}}\\ \displaystyle Y(s)&\displaystyle=\boldsymbol{c}^{{\text{T}}}\boldsymbol{X}(s)+\text{d}U(s)\end{aligned}$$

nach Elimination von X(s) nach kurzer Rechnung die Übertragungsfunktion

$$G(s)=\frac{Y(s)}{U(s)}=\boldsymbol{c}^{{\text{T}}}(s\boldsymbol{I}-\boldsymbol{A})^{{-1}}\,\boldsymbol{b}+d\;.$$
(4-21)

I ist dabei die Einheitsmatrix. Gleichung (4-21) stimmt natürlich mit (4-10) überein, wenn beide mathematischen Modelle dasselbe System beschreiben.

Die komplexe G-Ebene

Die komplexe Übertragungsfunktion G(s) beschreibt eine lokal konforme Abbildung der s-Ebene auf die G-Ebene, vgl. A 19. Wegen der bei dieser Abbildung gewährleisteten Winkeltreue wird das orthogonale Netz achsenparalleler Geraden σ =  const und ω =  const der s-Ebene in ein wiederum orthogonales, aber krummliniges Netz der G-Ebene – wie im Bild 4-6 dargestellt – abgebildet. Dabei bleibt „im unendlich Kleinen“ auch die Maßstabstreue erhalten. Einen sehr wichtigen speziellen Fall erhält man für σ = 0 und ω ≥ 0. Er repräsentiert die konforme Abbildung der positiven Imaginärachse der s-Ebene und wird als Ortskurve des Frequenzganges G( j ω) des Systems bezeichnet.

Bild 4-6
figure 22

Lokal konforme Abbildung der Geraden σ =  const und ω =  const der s-Ebene in die G-Ebene

Die Frequenzgangdarstellung

Definition

Wie bereits kurz erwähnt, geht für σ = 0, also für den Spezialfall s = j ω, die Übertragungsfunktion G(s) in den Frequenzgang G(j ω) über. Während die Übertragungsfunktion G(s) mehr eine abstrakte, nicht messbare Beschreibungsform zur mathematischen Behandlung linearer Systeme darstellt, kann der Frequenzgang G(j ω) unmittelbar auch anschaulich physikalisch interpretiert werden. Dazu wird zunächst der Frequenzgang als komplexe Größe

$$G({\text{j}}\omega)=R(\omega)+{\text{j}}I(\omega)\;,$$
(4-22)

mit dem Realteil R(ω) und dem Imaginärteil I(ω), zweckmäßigerweise durch seinen Amplitudengang A(ω) und seinen Phasengang φ(ω) in der Form

$$G({\text{j}}\omega)=A(\omega)\text{e}^{{{\text{j}}\varphi(\omega)}}$$
(4-23)

dargestellt. Denkt man sich nun die Systemgröße x e(t) sinusförmig mit der Amplitude \(\widehat{x}_{{\text{e}}}\) und der Frequenz ω erregt, also durch

$$x_{{\text{e}}}(t)=\widehat{x}_{{\text{e}}}\sin\omega t\;,$$
(4-24)

dann wird bei einem linearen kontinuierlichen System die Ausgangsgröße mit derselben Frequenz ω mit anderer Amplitude \(\widehat{x}_{{\text{a}}}\) und mit einer gewissen Phasenverschiebung φ = φ(ω) ebenfalls sinusförmige Schwingungen ausführen:

$$x_{{\text{a}}}(t)=\widehat{x}_{{\text{a}}}\sin(\omega t+\varphi)\;.$$
(4-25)

Führt man dieses Experiment für verschiedene Frequenzen ω = ω ν  (ν = 1,2, …) mit \(\widehat{x}_{{\text{e}}}=\) const durch, dann stellt man eine Frequenzabhängigkeit der Amplitude \(\widehat{x}_{{\text{a}}}\) des Ausgangssignals sowie der Phasenverschiebung φ fest, und somit gilt für die jeweilige Frequenz ω ν

$$\begin{aligned}\displaystyle\widehat{x}_{{\text{a,$\nu$}}}=\widehat{x}_{{\text{a}}}(\omega _{{\nu}})\quad{\text{und}}\quad\varphi _{{\nu}}=\varphi(\omega _{{\nu}})\;.\end{aligned}$$

Aus dem Verhältnis der Amplituden \(\widehat{x}_{{\text{a}}}\) und \(\widehat{x}_{{\text{e}}}\) lässt sich nun der Amplitudengang des Frequenzganges

$$A(\omega)=\frac{\widehat{x}_{{\text{a}}}(\omega)}{\widehat{x}_{{\text{e}}}}=|G({\text{j}}\omega)|=\sqrt{{R}^{2}(\omega)+{I}^{2}(\omega)}$$
(4-26)

als frequenzabhängige Größe definieren. Weiterhin wird die frequenzabhängige Phasenverschiebung φ(ω) als Phasengang des Frequenzganges bezeichnet. Es gilt somit

$$\varphi(\omega)=\arg G({\text{j}}\omega)=\arctan\frac{I(\omega)}{R(\omega)}\;.$$
(4-27)

Aus diesen Überlegungen ist ersichtlich, dass durch Verwendung sinusförmiger Eingangssignale x e(t) unterschiedlicher Frequenz der Amplitudengang A(ω) und der Phasengang φ(ω) des Frequenzganges G(j ω) direkt gemessen werden können. Der gesamte Frequenzgang G(j ω) für alle Frequenzen 0 ≤ ω ≤ ∞ beschreibt ähnlich wie die Übertragungsfunktion G(s) oder die Übergangsfunktion h(t) das Übertragungsverhalten eines linearen kontinuierlichen Systems vollständig.

Ortskurvendarstellung des Frequenzganges

Trägt man für das oben behandelte Experiment für jeden Wert von ω ν mithilfe von A(ω ν ) und φ(ω ν ) den jeweiligen Wert von \(G(\,{\text{j}}\omega _{{\nu}})=A(\omega _{{\nu}}){\text{e}}^{{\,{\text{j}}\varphi(\omega _{{\nu}})}}\) in die komplexe G-Ebene ein, so erhält man die in ω parametrierte Ortskurve des Frequenzganges, die auch als Nyquist-Ortskurve bezeichnet wird. Bild  4-7 zeigt eine solche aus 8 Messwerten experimentell ermittelte Ortskurve.

Bild 4-7
figure 23

Beispiel für eine experimentell ermittelte Frequenzgangortskurve

Die Ortskurvendarstellung von Frequenzgängen hat u. a. den Vorteil, dass die Frequenzgänge sowohl von hintereinander als auch von parallel geschalteten Übertragungsgliedern sehr einfach grafisch konstruiert werden können. Dabei werden die zu gleichen ω-Werten gehörenden Zeiger der betreffenden Ortskurven herausgesucht. Bei der Parallelschaltung werden die Zeiger addiert (Parallelogrammkonstruktion); bei der Hintereinanderschaltung werden die Zeiger multipliziert, indem die Längen der Zeiger multipliziert und ihre Winkel addiert werden.

Darstellung des Frequenzganges durch Frequenzkennlinien (Bode-Diagramm)

Trägt man den Betrag A(ω) und die Phase φ(ω) des Frequenzganges G(j ω) = A(ω) e j φ(ω) getrennt über der Frequenz ω auf, so erhält man den Amplitudengang oder die Betragskennlinie sowie den Phasengang oder die Phasenkennlinie des Übertragungsgliedes. Beide zusammen ergeben die Frequenzkennlinien oder das Bode-Diagramm (Bild 4-8). A(ω) (ggf. nach Normierung auf die Dimension 1) und ω werden logarithmisch und φ(ω) linear aufgetragen. Es ist dabei üblich, A(ω) auf die Einheit Dezibel (dB) zu beziehen. Laut Definition gilt

$$\begin{aligned}\displaystyle A_{{\text{dB}}}(\omega)=20\ {\text{lg}}\ A(\omega)\;.\end{aligned}$$

Die logarithmische Darstellung bietet besondere Vorteile bei der Hintereinanderschaltung von Übertragungsgliedern, zumal sich kompliziertere Frequenzgänge, wie sie beispielsweise aus

$$G(s)=K\frac{(s-s_{{\text{N1}}})\ldots(s-s_{{{\text{N}}m}})}{(s-s_{{\text{P1}}})\ldots(s-s_{{{\text{P}}n}})}$$
(4-28)

mit s = j ω hervorgehen, als Hintereinanderschaltung der Frequenzgänge einfacher Übertragungsglieder der Form

$$G_{i}(\,{\text{j}}\omega)=(\,{\text{j}}\omega-s_{{{\text{N}}i}})\quad{\text{f{\"u}r}}\quad i=1,2,\ldots,m$$
(4-29)
$${\text{und}}\quad G_{{m+i}}(\omega)=\frac{1}{{\text{j}}\omega-s_{{{\text{P}}i}}}\quad{\text{f{\"u}r}}\quad i=1,2,\ldots,n$$
(4-30)
Bild 4-8
figure 24

Darstellung des Frequenzganges durch Frequenzkennlinien (Bode-Diagramm)

darstellen lassen. Es gilt dann

$$G({\text{j}}\omega)=KG_{1}(\,{\text{j}}\omega)G_{2}(\,{\text{j}}\omega)\ldots G_{{n+m}}(\,{\text{j}}\omega)\;.$$
(4-31)

Aus der Darstellung

$$\begin{aligned}\displaystyle&\displaystyle G({\text{j}}\omega)=KA_{1}(\omega)A_{2}(\omega)\\ \displaystyle&\displaystyle\qquad\ldots A_{{n+m}}(\omega){\text{e}}^{{\,{\text{j}}[\varphi _{1}(\omega)+\varphi _{2}(\omega)+\ldots+\varphi _{{n+m}}(\omega)]}}\end{aligned}$$
(4-32)

bzw. aus A(ω) = |G(j ω)| erhält man den logarithmischen Amplitudengang

$$A_{{\text{dB}}}(\omega)=K_{{\text{dB}}}+A_{{\text{1dB}}}(\omega)+A_{{\text{2dB}}}(\omega)+\ldots A_{{n+m{\text{dB}}}}(\omega)$$
(4-33)

und den Phasengang

$$\varphi(\omega)=\varphi _{0}(\omega)+\varphi _{1}(\omega)+\ldots+\varphi _{{n+m}}(\omega)\;,$$
(4-34)

wobei φ 0(ω) = 0° für K > 0 und φ 0(ω) = −180° für K < 0.

Der Gesamtfrequenzgang einer Hintereinanderschaltung ergibt sich also durch Addition der einzelnen Frequenzkennlinien.

Das Verhalten der wichtigsten Übertragungsglieder

Für die nachfolgend behandelten Übertragungsglieder ist jeweils der Verlauf der Übergangsfunktion h(t) und des Frequenzganges G(j ω) in Tabelle 4-1 zusammengestellt.

Das proportional wirkende Glied (P-Glied)

a):

Darstellung im Zeitbereich:

$$x_{{\text{a}}}(t)=Kx_{{\text{e}}}(t)\;.$$
(4-35)

K wird als Verstärkungsfaktor oder als Übertragungsbeiwert des P-Gliedes bezeichnet.

b):

Übertragungsfunktion:

$$G(s)=K\;.$$
(4-36)
c):

Frequenzgang:

$$G({\,\text{j}}\omega)=K\;.$$
(4-37)

Die Ortskurve von G(j ω) stellt für sämtliche Frequenzen einen Punkt auf der reellen Achse mit dem Abstand K vom Nullpunkt dar, d. h., der Phasengang φ(ω) ist null für K > 0 oder −180° für K < 0, während für den logarithmischen Amplitudengang

$$\begin{aligned}\displaystyle A_{{\text{dB}}}(\omega)=20\ {\text{lg}}\ K=K_{{\text{dB}}}={\text{const}}\end{aligned}$$

gilt.

Das integrierende Glied (I-Glied)

a):

Darstellung im Zeitbereich:

$$x_{{\text{a}}}(t)=\frac{1}{T_{{\text{I}}}}\int\limits _{{0}}^{t}x_{{\text{e}}}(\tau)\,{\text{d}}\tau+x_{{\text{a}}}(0)\;.$$
(4-38)

T I ist eine Konstante mit der Dimension Zeit und wird deshalb als Integrationszeitkonstante bezeichnet.

b):

Übertragungsfunktion:

$$G(s)=\frac{1}{sT_{\text{I}}}\;.$$
(4-39)
c):

Frequenzgang:

$$G({\text{j}}\omega)=\frac{1}{{\text{j}}\omega T_{{\text{I}}}}=\frac{1}{\omega T_{{\text{I}}}}{\text{e}}^{{-{\text{j}}\frac{\pi}{2}}}\;,$$
(4-40)

mit dem Amplituden- und Phasengang

$$A(\omega)=\frac{1}{\omega T_{{\text{I}}}}\quad{\text{und}}\quad\varphi(\omega)=-\frac{\pi}{2}={\text{const}}$$
(4-41)

und dem logarithmischen Amplitudengang

$$A_{{\text{dB}}}(\omega)=-20\,{\text{lg}}\,\omega T_{{\text{I}}}=-20\,{\text{lg}}\frac{\omega}{\omega _{{\text{e}}}}\;,$$
(4-42)

wobei ω e = 1∕T I als Eckfrequenz definiert wird.

Tab. 4-1 Übertragungsglieder mit Übergangsfunktion und Frequenzgang

Das differenzierende Glied (D-Glied)

a):

Darstellung im Zeitbereich:

$$x_{{\text{a}}}(t)=T_{{\text{D}}}\frac{{\text{d}}}{{\text{d}}t}x_{{\text{e}}}(t)\;.$$
(4-43)
b):

Übertragungsfunktion:

$${\text{G}}(s)=sT_{{\text{D}}}\;.$$
(4-44)
c):

Frequenzgang:

$$G({\text{j}}\omega)={\text{j}}\omega T_{{\text{D}}}=\omega T_{{\text{D}}}{\text{e}}^{{\,{\text{j}}{\frac{\pi}{2}}}}\;,$$
(4-45)

mit dem logarithmischen Amplitudengang

$$A_{{\text{dB}}}(\omega)=20\,{\text{lg}}\,\omega T_{{\text{D}}}=20\,{\text{lg}}\frac{\omega}{\omega _{{\text{e}}}}$$
(4-46)

und dem Phasengang

$$\varphi(\omega)=\frac{\pi}{2}={\text{const}}\;.$$
(4-47)

Es ist leicht ersichtlich, dass die Übertragungsfunktionen von I- und D-Glied durch Inversion ineinander übergehen. Daher können die Kurvenverläufe für den Amplituden- und Phasengang des D-Gliedes durch Spiegelung der entsprechenden Kurvenverläufe des I-Gliedes an der 0-dB-Linie bzw. an der Linie φ = 0 gewonnen werden.

Das Verzögerungsglied 1. Ordnung (PT1-Glied)

a):

Darstellung im Zeitbereich:

$$x_{{\text{a}}}(t)\,+\, T\dot{x}_{{\text{a}}}(t)=Kx_{{\text{e}}}(t)\,,\quad{\text{mit}}\quad x_{{\text{a}}}(0)=x_{{\text{a0}}}\;.$$
(4-48)
b):

Übertragungsfunktion:

$$G(s)=\frac{K}{1+sT}\;.$$
(4-49)
c):

Frequenzgang:

$$G({\text{j}}\omega)=K\frac{1-{\text{j}}\displaystyle{\frac{\omega}{\omega _{{\text{e}}}}}}{1+\displaystyle{\left(\frac{\omega}{\omega _{{\text{e}}}}\right)^{2}}}$$
(4-50)

mit der Knickfrequenz ω e = 1∕T. T wird als Zeitkonstante definiert. Als Amplitudengang ergibt sich

$$A(\omega)=|G({\text{j}}\omega)|=K/\sqrt{1+\left(\frac{\omega}{\omega _{{\text{e}}}}\right)^{2}}$$
(4-51)

und als Phasengang

$$\varphi(\omega)=\arctan\frac{I(\omega)}{R(\omega)}=-\arctan\frac{\omega}{\omega _{{\text{e}}}}\;.$$
(4-52)

Aus (4-51) lässt sich der logarithmische Amplitudengang

$$A_{{\text{dB}}}(\omega)=20\,{\text{lg}}\ K-20\ {\text{lg}}\sqrt{1+\left(\frac{\omega}{\omega _{{\text{e}}}}\right)^{2}}$$
(4-53)

herleiten. Gleichung (4-53) kann asymptotisch durch zwei Geraden approximiert werden:

α):

Im Bereich ωω e ≪ 1 durch die Anfangsasymptote

$$\begin{aligned}\displaystyle A_{{\text{dB}}}(\omega)\approx 20\ {\text{lg}\,}K=K_{{\text{dB}}}\,,\\ \displaystyle wobei\ \varphi(\omega)\approx 0\ wird.\end{aligned}$$
β):

Im Bereich ωω e ≫ 1 durch die Endasymptote

$$\begin{aligned}\displaystyle A_{{\text{dB}}}(\omega)\approx 20\ {\text{lg}\,}K-20\ {\text{lg}}\frac{\omega}{\omega _{{\text{e}}}}\,,\\ \displaystyle wobei\ \varphi(\omega)\approx-\frac{\pi}{2}\ gilt.\end{aligned}$$

Der Verlauf der Anfangsasymptote ist horizontal, wobei die Endasymptote eine Steigung von –20∕Dekade aufweist. Als Schnittpunkt beider Geraden ergibt sich ωω e = 1. Die maximale Abweichung des Amplitudenganges von den Asymptoten tritt bei ω = ω e auf und beträgt \(\Updelta A_{{\text{dB}}}(\omega _{{\text{e}}})=-20\ {\text{lg}}\sqrt{2}\,\hat{=}-3\,{\text{dB}}\).

Das Verzögerungsglied 2. Ordnung (PT2-Glied und PT2S-Glied)

Das Verzögerungsglied 2. Ordnung ist gekennzeichnet durch zwei voneinander unabhängige Energiespeicher. Je nach den Dämpfungseigenschaften bzw. der Lage der Pole von G(s) unterscheidet man beim Verzögerungsglied 2. Ordnung zwischen schwingendem und aperiodischem Verhalten. Besitzt ein Verzögerungsglied 2. Ordnung ein konjugiert komplexes Polpaar, dann weist es schwingendes Verhalten (PT2S-Verhalten) auf. Liegen die beiden Pole auf der negativ reellen Achse, so besitzt das Übertragungsglied ein verzögerndes PT2-Verhalten.

a):

Darstellung im Zeitbereich:

$$T^{{\prime 2}}_{2}\frac{{\text{d}}^{2}x_{{\text{a}}}(t)}{{\text{d}}t^{2}}+T^{{\prime}}_{1}\frac{{\text{d}}x_{{\text{a}}}(t)}{{\text{d}}t}+x_{{\text{a}}}(t)=Kx_{{\text{e}}}(t)\,.$$
(4-54)
b):

Übertragungsfunktion:

$$G(s)=\frac{K}{1+T_{1}^{{\prime}}s+T^{{\prime 2}}_{{2}}s^{2}}=\frac{K}{(1+T_{1}s)(1+T_{2}s)}\;.$$
(4-55)

Führt man nun Begriffe ein, die das Zeitverhalten charakterisieren, und zwar den Dämpfungsgrad \(D=T^{{\prime}}_{1}/2T^{{\prime}}_{2}\) sowie die Eigenfrequenz (der nicht gedämpften Schwingung) \(\omega _{0}=1/T^{{\prime}}_{2}\), so erhält man aus (4-55)

$$G(s)=\frac{K}{1+\displaystyle{\frac{2D}{\omega _{0}}}s+\displaystyle{\frac{1}{\omega^{2}_{0}}}s^{2}}\;.$$
(4-56)
c):

Frequenzgang:

$$G({\text{j}}\omega)=K\frac{\left[1-\left(\displaystyle{\frac{\omega}{\omega _{0}}}\right)^{2}\right]-{\text{j}}\cdot 2D\displaystyle{\frac{\omega}{\omega _{0}}}}{\left[1-\left(\displaystyle{\frac{\omega}{\omega _{0}}}\right)^{2}\right]^{2}+\left[2D{\dfrac{\omega}{\omega _{0}}}\right]^{2}}\;.$$
(4-57)

Somit lautet der zugehörige Amplitudengang

$$A(\omega)=\frac{K}{\sqrt{\left[1-\left(\displaystyle{\frac{\omega}{\omega _{0}}}\right)^{2}\right]^{2}+\left[2D{\dfrac{\omega}{\omega _{0}}}\right]^{2}}}$$
(4-58)

und der Phasengang

$$\varphi(\omega)=-\arctan\frac{2D\displaystyle{\frac{\omega}{\omega _{0}}}}{1-\left(\displaystyle{\frac{\omega}{\omega _{0}}}\right)^{2}}.$$
(4-59)

Für den logarithmischen Amplitudengang ergibt sich aus (4-58)

$$\begin{aligned}\displaystyle A_{{\text{dB}}}(\omega)=&\displaystyle\; 20\ {\text{lg}}\ K\\ \displaystyle&\displaystyle-20\ {\text{lg}}\sqrt{\left[1-\left(\frac{\omega}{\omega _{0}}\right)^{2}\right]^{2}+\left[2D\frac{\omega}{\omega _{0}}\right]^{2}}\;\;.\end{aligned}$$
(4-60)

Der Verlauf von A dB(ω) lässt sich durch folgende Asymptoten approximieren:

α):

Im Bereich ωω 0 ≪ 1 durch die Anfangsasymptote

$$\begin{aligned}\displaystyle A_{{\text{dB}}}(\omega)\approx 20\ {\text{lg}}\ K\quad\text{mit}\quad\varphi(\omega)\approx 0\;.\end{aligned}$$
β):

Im Bereich ωω 0 ≫ 1 durch die Endasymptote

$$\begin{aligned}\displaystyle&\displaystyle A_{{\text{dB}}}(\omega)\approx 20\ {\text{lg}}\ K-40\ {\text{lg}}\left(\frac{\omega}{\omega _{0}}\right)\\ \displaystyle&\displaystyle{\text{mit}}\qquad\varphi(\omega)\approx-\uppi\;.\end{aligned}$$

Die Endasymptote stellt im Bode-Diagramm eine Gerade mit der Steigung –40dB/Dekade dar. Als Schnittpunkt beider Asymptoten folgt die auf ω 0 normierte Kreisfrequenz ωω 0 = 1. Der tatsächliche Wert von A dB(ω) kann bei ω = ω 0 beträchtlich vom Asymptotenschnittpunkt abweichen. Für D < 0,5 liegt der Wert oberhalb, für D > 0,5 unterhalb der Asymptoten. Bild 4-9 zeigt für 0 < D ≤ 2,5 und K = 1 den Verlauf von A dB(ω) und φ(ω) im Bode-Diagramm. Daraus ist ersichtlich, dass beim Amplitudengang ab einem bestimmten Dämpfungsgrad D für die einzelnen Kurvenverläufe jeweils ein Maximalwert existiert. Dieser Maximalwert tritt für die einzelnen D-Werte bei der sogenannten Resonanzfrequenz

$$\omega _{{\text{r}}}=\omega _{0}\sqrt{1-2D^{2}}\quad{\text{f{\"u}r}}\quad 0\leq D\leq{\mathrm{0{,}707}}$$
(4-61)

auf. Für den Maximalwert des Amplitudenganges mit K = 1 erhält man

$$A_{{\max}}(\omega)=A(\omega _{{\text{r}}})=\frac{1}{2D\sqrt{1-D^{2}}}\,.$$
(4-62)

Das Eigenverhalten des Übertragungsgliedes wird durch die Pole der Übertragungsfunktion gemäß ( 4-56), also aus seiner charakteristischen Gleichung

$$N(s)=0=1+\frac{2D}{\omega _{0}}s+\frac{1}{\omega^{2}_{0}}s^{2}$$
(4-63)

bestimmt. Als Pole der Übertragungsfunktion ergeben sich

$$s_{{1,2}}=-\omega _{0}D\pm\omega _{0}\sqrt{D^{2}-1}\,.$$
(4-64)

In Abhängigkeit von der Lage der Pole in der s-Ebene lässt sich nun anschaulich das Schwingungsverhalten eines Verzögerungsgliedes 2. Ordnung beschreiben. Dazu wird zweckmäßigerweise der Verlauf der zugehörigen Übergangsfunktion h(t) gewählt. Tabelle 4-2 zeigt in Abhängigkeit von D die Lage der Pole der Übertragungsfunktion und die dazugehörigen Übergangsfunktionen dieses Systems.

Bild 4-9
figure 25

Bode-Diagramm eines Verzögerungsgliedes 2. Ordnung (K = 1)

Tab. 4-2 Lage der Pole und Übergangsfunktion für Übertragungsglieder 2. Ordnung (PT2- und PT2S-Verhalten)

Bandbreite eines Übertragungsgliedes

Einen wichtigen Begriff stellt die Bandbreite eines Übertragungsgliedes dar. Verzögerungsglieder mit Proportionalverhalten, wie z. B. PT1-, PT2- und PT2S-Glieder sowie PT n -Glieder (Hintereinanderschaltung von n PT1-Gliedern), besitzen so genannte Tiefpasseigenschaften, d. h., sie übertragen vorzugsweise tiefe Frequenzen, während hohe Frequenzen von Signalen entsprechend dem stark abfallenden Amplitudengang abgeschwächt übertragen werden. Zur Beschreibung dieses Übertragungsverhaltens führt man den Begriff der Bandbreite ein. Als Bandbreite eines Tiefpassgliedes bezeichnet man die Frequenz ω b, bei der der logarithmische Amplitudengang gegenüber der horizontalen Anfangsasymptote um –3 dB abgefallen ist, siehe Bild 4-10.

Bild 4-10
figure 26

Zur Definition der Bandbreite ω b bei Übertragungssystemen mit Tiefpassverhalten ( ω r Resonanzfrequenz, ω 0 Eigenfrequenz der ungedämpften Schwingung)

Systeme mit minimalem und nichtminimalem Phasenverhalten

Durch eine Übertragungsfunktion, die keine Pole und Nullstellen in der rechten s-Halbebene besitzt, wird ein System mit Minimalphasenverhalten beschrieben. Es ist dadurch charakterisiert, dass bei bekanntem Amplitudengang A(ω) = |G(j ω)| im Bereich 0 ≤ ω < ∞ der zugehörige Phasengang φ(ω) aus A(ω) mithilfe des Bode'schen Gesetzes [3] berechnet werden kann und das dabei ermittelte φ(ω) betragsmäßig den kleinstmöglichen Phasenverlauf zu dem vorgegebenen A(ω) besitzt. Weist eine Übertragungsfunktion in der rechten s-Halbebene Pole und/oder Nullstellen auf, dann hat das entsprechende System nichtminimales Phasenverhalten. Der zugehörige Phasenverlauf hat stets größere Werte als der bei dem entsprechenden System mit Minimalphasenverhalten, das denselben Amplitudengang besitzt. Die Übertragungsfunktion eines nichtminimalphasigen Übertragungsgliedes G b(s) lässt sich immer durch Hintereinanderschaltung des zugehörigen Minimalphasengliedes und eines reinen phasendrehenden Gliedes, die durch die Übertragungsfunktionen G a(s) und G A(s) beschrieben werden, darstellen:

$$G_{{\text{b}}}(s)=G_{{\text{A}}}(s)G_{{\text{a}}}(s)\;.$$
(4-65)

Ein phasendrehendes Glied, auch Allpassglied genannt, ist dadurch charakterisiert, dass der Betrag seines Frequenzganges G A(j ω) für alle Frequenzen gleich eins ist. So lautet z. B. die Übertragungsfunktion des Allpassgliedes 1. Ordnung

$$G_{{\text{A}}}(s)=\frac{1-sT}{1+sT}\;,$$
(4-66)

woraus als Amplitudengang A A(ω) = 1 und als Phasengang φ A(ω) = −2 arctan ωT folgen. Dieses Allpassglied überstreicht einen Winkel φ A(ω) von 0° bis −180°. Die Bedingung für Allpassglieder, d. h. |G A( j ω)| = 1, wird nur von Übertragungsgliedern erfüllt, bei denen die Nullstellenverteilung von G A(s) in der s-Ebene spiegelbildlich zur Polverteilung bezüglich der jω-Achse ist.

Ein typisches System mit nichtminimalem Phasenverhalten ist das Totzeitglied (PT t-Glied), das durch die Übertragungsfunktion

$$G(s)={\text{e}}^{{-sT_{{\text{t}}}}}$$
(4-67)

und den Frequenzgang

$$G({\text{j}}\omega)={\text{e}}^{{-{\text{j}}\omega T_{{\text{t}}}}}$$
(4-68)

mit dem Amplitudengang

$$A(\omega)=|G({\text{j}}\omega)|=|\cos\omega T_{{\text{t}}}-{\text{j}}\sin\omega T_{{\text{t}}}|=1$$
(4-69)

sowie dem Phasengang (im Bogenmaß)

$$\varphi(\omega)=-\omega T_{{\text{t}}}$$
(4-70)

beschrieben wird. Die Ortskurve von G(j ω) stellt somit einen Kreis um den Koordinatenursprung dar, der mit ω = 0 auf der reellen Achse bei R(ω) = 1 beginnend mit wachsenden ω-Werten fortwährend durchlaufen wird, da der Phasenwinkel ständig zunimmt.

Bei Systemen mit Minimalphasenverhalten kann man eindeutig aus dem Amplitudengang A(ω) den Phasengang φ(ω) bestimmen. Dies gilt jedoch für Systeme mit nichtminimalem Phasenverhalten nicht. Die Überprüfung, ob ein System Minimalphasenverhalten aufweist oder nicht, lässt sich aus dem Verlauf von φ(ω) und A dB(ω) für hohe Frequenzen leicht abschätzen. Bei einem Minimalphasensystem, das durch die gebrochen rationale Übertragungsfunktion G(s) = Z(s)∕N(s) dargestellt wird, wobei der Zähler Z(s) vom Grade m und der Nenner N(s) vom Grade n ist, erhält man nämlich für ω → ∞ den Phasengang

$$\varphi(\infty)=-90^{{\circ}}(n-m)\;.$$
(4-71)

Bei einem System mit nichtminimalem Phasenverhalten wird dieser Wert stets größer. In beiden Fällen wird der logarithmische Amplitudengang für ω → ∞ die Steigung −20(n − m) dB/Dekade besitzen.

Das Verhalten linearer kontinuierlicher Regelkreise

Dynamisches Verhalten des Regelkreises

Bild 5-1 zeigt das Blockschema des geschlossenen Regelkreises mit den 4 klassischen Bestandteilen: Regler, Stellglied, Regelstrecke und Messglied. Meist ist es zweckmäßig, Regler und Stellglied zur Regeleinrichtung zusammenzufassen, während das Messglied oft der Regelstrecke zugerechnet wird. Man gelangt somit zur vereinfachten Beschreibung gemäß Bild  5-2. Da die Störgröße z gewöhnlich an einer anderen Stelle in der Regelstrecke eingreift als die Stellgröße u, stellt die Regelstrecke ein System mit mindestens zwei Eingangsgrößen dar (sofern nur eine Störung vorhanden ist). Im Allgemeinen wirkt auch jede dieser beiden Eingangsgrößen mit verschiedenem Übertragungsverhalten auf die Regelgröße  y.  Es wird daher unterschieden zwischen dem Stellverhalten und dem Störverhalten der Regelstrecke, die durch die Übertragungsfunktionen G SU(s) und G SZ(s) beschrieben werden. Weiterhin kennzeichnet die Übertragungsfunktion G R(s) das Übertragungsverhalten der Regeleinrichtung (im Weiteren meist wieder nur als „Regler“ bezeichnet). Wie aus Bild 5-2 leicht abzulesen ist, gilt im geschlossenen Regelkreis für die Regelgröße

Bild 5-1
figure 27

Die Grundbestandteile eines Regelkreises

Bild 5-2
figure 28

Blockschaltbild des Regelkreises

$$\begin{aligned}\displaystyle Y(s)=&\displaystyle\,\frac{G_{{\text{SZ}}}(s)}{1+G_{{\text{R}}}(s)\, G_{{\text{SU}}}(s)}Z(s)\\ \displaystyle&\displaystyle+\frac{G_{{\text{R}}}(s)\, G_{{\text{SU}}}(s)}{1+G_{{\text{R}}}(s)\, G_{{\text{SU}}}(s)}W(s)\,.\end{aligned}$$
(5-1)

Anhand dieser Beziehung lassen sich Übertragungsfunktionen für die beiden Aufgabenstellungen einer Regelung (vgl. I.3) unterscheiden:

a):

Für W(s) = 0 erhält man als Übertragungsfunktion des geschlossenen Regelkreises für Störverhalten (Festwertregelung oder Störgrößenregelung)

$$G_{{\text{Z}}}(s)=\frac{Y(s)}{Z(s)}=\frac{G_{{\text{SZ}}}(s)}{1+G_{{\text{R}}}(s)\, G_{{\text{SU}}}(s)}\;.$$
(5-2)
b):

Für Z(s) = 0 folgt entsprechend als Übertragungsfunktion des geschlossenen Regelkreises für Führungsverhalten (Nachlauf- oder Folgeregelung)

$$G_{{\text{W}}}(s)=\frac{Y(s)}{W(s)}=\frac{G_{{\text{R}}}(s)\, G_{{\text{SU}}}(s)}{1+G_{{\text{R}}}(s)\, G_{{\text{SU}}}(s)}\;.$$
(5-3)

Beide Übertragungsfunktionen G Z(s) und G W(s) enthalten gemeinsam den dynamischen Regelfaktor

$$\begin{aligned}\displaystyle&\displaystyle R(s)=1/[1+G_{0}(s)]\end{aligned}$$
(5-4)
$$\begin{aligned}\displaystyle\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!{\text{mit}}&\displaystyle G_{0}(s)=G_{{\text{R}}}(s)G_{{\text{SU}}}(s)\;.\end{aligned}$$
(5-5)

Schneidet man für W(s) = 0 und Z(s) = 0 den Regelkreis gemäß Bild 5-3 an einer beliebigen Stelle auf, und definiert man unter Berücksichtigung der Wirkungsrichtung der Übertragungsglieder die Eingangsgröße x e(t) sowie die Ausgangsgröße x a(t), so erhält man als Übertragungsfunktion des offenen Regelkreises

$$G_{{\text{offen}}}(s)=\frac{X_{{\text{a}}}(s)}{X_{{\text{e}}}(s)}=-G_{{\text{R}}}(s)G_{{\text{SU}}}(s)=-G_{0}(s)\;.$$
(5-6)

Allerdings hat sich (inkorrekterweise) in der Regelungstechnik durchgesetzt, dass meist G 0(s) als Übertragungsfunktion des offenen Regelkreises definiert wird. Für den geschlossenen Regelkreis erhält man durch Nullsetzen des Nennerausdrucks in (5-2) und (5-3) aus der Bedingung

$$1+G_{0}(s)=0$$
(5-7)

die charakteristische Gleichung in der Form

$$a_{0}+a_{1}s+a_{2}s^{2}+\ldots+a_{n}s^{n}=0\;,$$
(5-8)

sofern G 0(s) eine gebrochen rationale Übertragungsfunktion darstellt.

Bild 5-3
figure 29

Offener Regelkreis

Stationäres Verhalten des Regelkreises

Sehr häufig lässt sich das Übertragungsverhalten des offenen Regelkreises durch eine allgemeine Standardübertragungsfunktion der Form

$$\displaystyle G_{{0}}(s)=\frac{K_{{0}}}{s^{{k}}}\cdot\frac{1+\beta _{{1}}s+\ldots+\beta _{{m}}s^{{m}}}{1+\alpha _{{1}}s+\ldots+\alpha _{{n-k}}s^{{n-k}}}\text{e}^{{-T_{{\text{t}}}s}}\,,\quad m\leq n$$
(5-9)

beschreiben, wobei durch die (ganzzahlige) Konstante k = 0,1,2, … der Typ der Übertragungsfunktion G 0(s) im Wesentlichen charakterisiert wird. K 0 = K RK S stellt die Verstärkung des offenen Regelkreises dar und wird auch als Kreisverstärkung bezeichnet; K R und K S sind die Verstärkungsfaktoren von Regler und Regelstrecke. G 0(s) weist somit z. B. für

k = 0:

Proportionales Verhalten

(P-Verhalten)

k = 1:

Integrales Verhalten

(I-Verhalten)

k = 2:

Doppelt-integrales Verhalten

(I2-Verhalten)

auf. Es sei nun angenommen, dass der in (5-9) auftretende Term der gebrochen rationalen Funktion nur Pole in der linken s-Halbebene besitzt. Damit kann im Weiteren für die einzelnen Typen der Übertragungsfunktion G 0(s) bei verschiedenen Signalformen der Führungsgröße w(t) oder der Störgröße z(t) das stationäre Verhalten des geschlossenen Regelkreises für t → ∞ untersucht werden.

Mit E(s) = W(s) − Y(s) folgt aus (5-1) und (5-5) für die Regelabweichung

$$E(s)=\frac{1}{1+G_{{0}}(s)}[W(s)-Z(s)]\;.$$
(5-10)

Unter der Voraussetzung, dass der Grenzwert der Regelabweichung e(t) für t → ∞ existiert, gilt mithilfe des Grenzwertsatzes der Laplace-Transformation für den stationären Endwert der Regelabweichung

$$\lim _{{t\rightarrow\infty}}e(t)=\lim _{{s\rightarrow 0}}sE(s)\;.$$
(5-11)

Für den Fall, dass alle Störgrößen auf den Streckenausgang bezogen werden, folgt aus (5-10), dass – abgesehen vom Vorzeichen – beide Arten von Eingangsgrößen, also Führungs- oder Störgrößen, gleich behandelt werden können. Im Folgenden wird daher stellvertretend für beide Signalarten die Bezeichnung X e(s) als Eingangsgröße gewählt. Mithilfe von (5-10) und (5-11) lassen sich nun die stationären Endwerte der Regelabweichung für die unterschiedlichsten Signalformen von x e(t) bei verschiedenen Typen der Übertragungsfunktion G 0(s) des offenen Regelkreises berechnen. Diese Werte charakterisieren das statische Verhalten des geschlossenen Regelkreises. Sie sollen im Folgenden für die wichtigsten Fälle bestimmt werden.

Bei den weiteren Betrachtungen werden gemäß Bild 5-4 folgende Testsignale zugrunde gelegt:

Bild 5-4
figure 30

Verschiedene Eingangsfunktionen x e(t), die häufig für Störgrößen z(t) und Führungsgrößen w(t) zugrunde gelegt werden: a sprungförmiger, b rampenförmiger und c parabolischer Signalverlauf

a):

Sprungförmige Erregung:

$$X_{{\text{e}}}(s)=\frac{x_{{\text{e0}}}}{s}\;,$$
(5-12)

wobei x e 0 die Sprunghöhe darstellt.

b):

Rampenförmige Erregung:

$$X_{{\text{e}}}(s)=\frac{x_{{\text{e1}}}}{s^{{2}}}\;,$$
(5-13)

wobei x e 1 die Geschwindigkeit des rampenförmigen Anstiegs des Signals x e(t) beschreibt.

c):

Parabelförmige Erregung:

$$X_{{\text{e}}}(s)=\frac{x_{{\text{e2}}}}{s^{{3}}}\;,$$
(5-14)

wobei x e 2 ein Maß für die Beschleunigung des parabolischen Signalanstiegs x e(t) ist.

Für die Regelabweichung gilt nach (5-10)

$$E(s)=\frac{1}{1+G_{{0}}(s)}X_{{\text{e}}}(s)\;,$$
(5-15)

wobei sich der Unterschied zwischen Führungs- und Störverhalten nur im Vorzeichen von X e(s) bemerkbar macht (Störverhalten: X e(s) = −Z(s); Führungsverhalten: X e((s)) = W((s))). Setzt man in diese Beziehung nacheinander (10) bis (14) ein, dann lässt sich damit die entsprechende Regelabweichung für verschiedene Typen der Übertragungsfunktion G 0(s) berechnen. Die Ergebnisse sind in Tabelle 5-1 dargestellt. Daraus folgt, dass die bleibende Regelabweichung e , die das statische Verhalten des Regelkreises charakterisiert, in all den Fällen, wo sie einen endlichen Wert annimmt, um so kleiner gehalten werden kann, je größer die Kreisverstärkung K 0 gewählt wird. Bei P-Verhalten des offenen Regelkreises bedeutet dies auch, dass die bleibende Regelabweichung e um so kleiner wird, je kleiner der statische Regelfaktor

$$R=\frac{1}{1+K_{{0}}}$$
(5-16)

wird.

Häufig führt jedoch eine zu große Kreisverstärkung K 0 schnell zur Instabilität des geschlossenen Regelkreises, wie in Kapitel 6 ausführlich besprochen wird. Daher ist bei der Festlegung von K 0 gewöhnlich ein entsprechender Kompromiss zu treffen, vorausgesetzt, dass nicht schon durch die Wahl eines geeigneten Reglertyps die bleibende Regelabweichung verschwindet.

Tab. 5-1 Bleibende Regelabweichung für verschiedene Systemtypen von G 0(s) und unterschiedliche Eingangsgrößen x e(t) (Führungs- und Störgrößen, falls alle Störgrößen auf den Ausgang der Regelstrecke bezogen sind)

Der PID-Regler und die aus ihm ableitbaren Reglertypen

Die gerätetechnische Ausführung eines Reglers umfasst die Bildung der Regelabweichung, sowie deren weitere Verarbeitung zur Reglerausgangsgröße u R(t) gemäß Bild 5-1 oder direkt zur Stellgröße u(t), falls das Stellglied mit dem Regler zur Regeleinrichtung entsprechend Bild 5-2 zusammengefasst wird. Die meisten in der Industrie eingesetzten linearen Reglertypen sind Standardregler, deren Übertragungsverhalten sich auf die drei idealisierten linearen Grundformen des P-, I- und D-Gliedes zurückführen lässt. Der wichtigste Standardregler weist PID-Verhalten auf. Die prinzipielle Wirkungsweise dieses PID-Reglers lässt sich anschaulich durch die im Bild  5-5 dargestellte Parallelschaltung je eines P-, I- und D-Gliedes erklären. Aus dieser Darstellung folgt als Übertragungsfunktion des PID-Reglers

$$G_{{\text{R}}}(s)=\frac{U_{{\text{R}}}(s)}{E(s)}=K_{{\text{P}}}+\frac{K_{{\text{I}}}}{s}+K_{{\text{D}}}s\;.$$
(5-17)
Bild 5-5
figure 31

Zwei gleichwertige Blockschaltbilder des PID-Reglers

Durch Einführen der Größen

K R

 = K P

Verstärkungsfaktor

T I

\(=\displaystyle\frac{K_{{\text{P}}}}{K_{{\text{I}}}}\)

Integralzeit oder Nachstellzeit

T D

\(=\displaystyle\frac{K_{{\text{D}}}}{K_{{\text{P}}}}\)

Differenzialzeit oder Vorhaltezeit

lässt sich (5-17) so umformen, dass neben dem dimensionsbehafteten Verstärkungsfaktor K R nur die beiden Zeitkonstanten T I und T D in der Übertragungsfunktion

$$G_{{\text{R}}}(s)=K_{{\text{R}}}\left(1+\frac{1}{T_{{\text{I}}}s}+T_{{\text{D}}}s\right)$$
(5-18)

auftreten. Diese drei Größen K R, T I und T D sind gewöhnlich in bestimmten Wertebereichen einstellbar; sie werden daher auch als Einstellwerte des Reglers bezeichnet. Durch geeignete Wahl dieser Einstellwerte lässt sich ein Regler dem Verhalten der Regelstrecke so anpassen, dass ein möglichst günstiges Regelverhalten entsteht. Aus ( 5-18) folgt für den zeitlichen Verlauf der Reglerausgangsgröße

$$u_{{\text{R}}}(t)=K_{{\text{R}}}e(t)+\frac{K_{{\text{R}}}}{T_{{\text{I}}}}\int\limits^{{t}}_{{0}}e(\tau)\,\text{d}\tau+K_{{\text{R}}}T_{{\text{D}}}\frac{{\text{d}}e(t)}{{\text{d}}t}\;.$$
(5-19)

Damit lässt sich nun leicht für eine sprungförmige Änderung von e(t), also e(t) = σ(t), die Übergangsfunktion h(t) des PID-Reglers bilden. Sie ist im Bild  5-6a dargestellt.

Bild 5-6
figure 32

Übergangsfunktion a des idealen und b des realen PID-Reglers

Bei den bisherigen Überlegungen wurde davon ausgegangen, dass sich das D-Verhalten im PID-Regler realisieren lässt. Gerätetechnisch kann jedoch das ideale D-Verhalten nicht verwirklicht werden. Bei tatsächlich ausgeführten Reglern ist das D-Verhalten stets mit einer gewissen Verzögerung behaftet, sodass anstelle des D-Gliedes in der Schaltung von Bild 5-5 ein DT1-Glied mit der Übertragungsfunktion

$$G_{{\text{D}}}(s)=K_{{\text{D}}}\frac{T{s}}{1+T{s}}$$
(5-20)

zu berücksichtigen ist. Damit erhält man als Übertragungsfunktion des realen PID-Reglers oder genauer des PIDT1-Reglers die Beziehung

$$G_{{\text{R}}}(s)=K_{{\text{P}}}+\frac{K_{{\text{I}}}}{s}+K_{{\text{D}}}\frac{T{s}}{1+T{s}}\;,$$
(5-21)

und durch Einführung der Reglereinstellwerte K R = K P, T I = K RK I und T D = K DTK R folgt daraus

$$G_{{\text{R}}}(s)=K_{{\text{R}}}\left(1+\frac{1}{T_{{\text{I}}}s}+T_{{\text{D}}}\frac{s}{1+T\! s}\right)$$
(5-22)

Die Übergangsfunktion h(t) des PIDT1-Reglers ist im Bild  5-6b dargestellt.

Als Sonderfälle des PID-Reglers erhält man für:

a):

T D = 0 den PI-Regler mit der Übertragungsfunktion

$$G_{{\text{R}}}(s)=K_{{\text{R}}}\left(1+\frac{1}{T_{{\text{I}}}s}\right)\,;$$
(5-23)
b):

T I → ∞ den PD-Regler mit der Übertragungsfunktion

$$G_{{\text{R}}}(s)=K_{{\text{R}}}(1+T_{{\text{D}}}s)$$
(5-24)

bzw. den PDT1-Regler mit der Übertragungsfunktion

$$G_{{\text{R}}}(s)=K_{{\text{R}}}\left(1+T_{{\text{D}}}\frac{s}{1+Ts}\right);$$
(5-25)
c):

für T D = 0 und T I → ∞ den P-Regler mit der Übertragungsfunktion

$$G_{{\text{R}}}(s)=K_{{\text{R}}}\;.$$
(5-26)

Die Übergangsfunktionen dieser Reglertypen sind im Bild 5-7 dargestellt.

Neben den hier behandelten Reglertypen, die durch entsprechende Wahl der Einstellwerte sich direkt aus einem PID-Regler (Universalregler) herleiten lassen, kommt manchmal auch ein reiner I-Regler zum Einsatz. Die Übertragungsfunktion des I-Reglers lautet

$$G_{{\text{R}}}(s)=K_{{\text{I}}}\frac{1}{s}=\frac{K_{{\text{R}}}}{T_{{\text{I}}}s}\;.$$
(5-27)

Erwähnt sei noch, dass D-Glieder nicht direkt als Regler eingesetzt werden, sondern nur in Verbindung mit P-Gliedern beim PD- und PID-Regler auftreten.

Wendet man die hier vorgestellten Regler z. B. auf Regelstrecken mit P-Verhalten an und stört den so entstandenen Regelkreis mit einem Sprung der Höhe z 0, so lassen sich folgende qualitative Aussagen machen [1]:

Bild 5-7
figure 33

Übergangsfunktionen der aus dem PID-Regler ableitbaren Reglertypen: a P-Regler, b PI-Regler, c PD-Regler (ideal) und d PDT1-Regler (realer PD-Regler)

a):

Der P-Regler weist ein relativ großes maximales Überschwingen y maxK Sz 0 der normierten Regelgröße, eine große Ausregelzeit t 3 % (dies ist der Zeitpunkt, bei dem die Differenz |y(t) − y(∞)| < 3 % des stationären Endwertes der Regelstreckenübergangsfunktion beträgt), sowie eine bleibende Regelabweichung auf.

b):

Der I-Regler besitzt aufgrund des langsam einsetzenden I-Verhaltens ein noch größeres maximales Überschwingen als der P-Regler, dafür aber keine bleibende Regelabweichung.

c):

Der PI-Regler vereinigt die Eigenschaften von P- und I-Regler. Er liefert ungefähr ein maximales Überschwingen und eine Ausregelzeit wie der P-Regler und weist keine bleibende Regelabweichung auf.

d):

Der PD-Regler besitzt aufgrund des „schnellen“ D-Anteils eine geringere maximale Überschwingweite als die unter a) bis c) aufgeführten Reglertypen. Aus demselben Grund zeichnet er sich auch durch die geringste Ausregelzeit aus. Aber auch hier stellt sich eine bleibende Regelabweichung ein, die allerdings geringer ist als beim P-Regler, da der PD-Regler im Allgemeinen aufgrund der phasenanhebenden Wirkung des D-Anteils mit einer höheren Verstärkung K R betrieben wird.

e):

Der PID-Regler vereinigt die Eigenschaften des PI- und PD-Reglers. Er besitzt ein noch geringeres maximales Überschwingen als der PD-Regler und weist aufgrund des I-Anteils keine bleibende Regelabweichung auf. Durch den hinzugekommenen I-Anteil wird die Ausregelzeit jedoch größer als beim PD-Regler.

Tabelle 5-2 zeigt mögliche Ausführungsformen der verschiedenen Reglertypen mit einem als Invertierer beschalteten Operationsverstärker.

Tab. 5-2 Realisierung der wichtigsten linearen Standardregler mittels Operationsverstärker

Stabilität linearer kontinuierlicher Regelsysteme

Definition der Stabilität

Ein lineares zeitinvariantes Übertragungssystem heißt (asymptotisch) stabil, wenn seine Gewichtsfunktion asymptotisch auf null abklingt, d. h., wenn gilt

$$\lim _{{t\rightarrow\infty}}g(t)=0\;.$$
(6-1)

Geht dagegen die Gewichtsfunktion betragsmäßig mit wachsendem t gegen unendlich, so nennt man das System instabil. Als Sonderfall sollen noch solche Systeme betrachtet werden, bei denen der Betrag der Gewichtsfunktion mit wachsendem t einen endlichen Wert nicht überschreitet oder einem endlichen Grenzwert zustrebt. Diese Systeme werden als grenzstabil bezeichnet. (Beispiele: ungedämpftes PT2S-Glied, I-Glied.)

Die Stabilitätsbedingung gemäß (6-1) kann auch als Bedingung für G(s) formuliert werden. Ist G(s) als rationale Übertragungsfunktion

$$G(s)=\frac{Z(s)}{N(s)}=\frac{Z(s)}{a_{{0}}+a_{{1}}s+\ldots+a_{{n}}s^{{n}}}$$
(6-2)

gegeben, und sind s k  = σ k  + j ω k die Pole der Übertragungsfunktion G(s), also die Wurzeln des Nennerpolynoms

$$N(s)=a_{{n}}(s-s_{{1}})(s-s_{{2}})\ldots(s-s_{{n}})=\sum^{{n}}_{{i=0}}a_{{i}}s^{{i}}\;,$$
(6-3)

so setzt sich die zugehörige Gewichtsfunktion

$$\begin{aligned}\displaystyle g(t)=\sum^{{n}}_{{j=1}}g_{{j}}(t)\end{aligned}$$

aus n Summanden der Form

$$g_{{j^{{\prime}}}}(t)=c_{{\! j}}t^{{\,\mu}}{\text{e}}^{{s_{{i}}t}}\quad(\mu=0,1,2,\ldots;j=1,2,\ldots,n)$$
(6-4)

zusammen. Dabei ist c j im Allgemeinen eine komplexe Konstante, und die Zahl μ wird für mehrfache Pole s i größer als null. Bildet man den Betrag dieser Funktion, so erhält man

$$\begin{aligned}\displaystyle|g_{{j}}(t)|=|c_{{\! j}}t^{{\,\mu}}{\text{e}}^{{s_{{i}}t}}|=|c_{{\! j}}|t^{{\,\mu}}{\text{e}}^{{\sigma _{{i}}t}}\;.\end{aligned}$$

Ist nun σ i  < 0, so strebt die e-Funktion gegen 0, und damit der ganze Ausdruck, selbst wenn μ > 0 ist.

Diese Überlegung macht deutlich, dass (6-1) genau dann erfüllt ist, wenn sämtliche Pole von G(s) einen negativen Realteil haben. Ist der Realteil auch nur eines Pols positiv, oder ist der Realteil eines mehrfachen Pols gleich null, so wächst die Gewichtsfunktion mit t über alle Grenzen.

Es genügt also, zur Stabilitätsuntersuchung die Pole der Übertragungsfunktion G(s) des Systems, d. h. die Wurzeln s i seiner charakteristischen Gleichung

$$P(s)\equiv a_{{0}}+a_{{1}}s+a_{{2}}s+\ldots+a_{{n}}s^{{n}}=0$$
(6-5)

zu überprüfen. Es lassen sich nun die folgenden notwendigen und hinreichenden Stabilitätsbedingungen formulieren:

a):

Asymptotische Stabilität

Ein lineares Übertragungssystem ist genau dann asymptotisch stabil, wenn für alle Wurzeln s i (i = 1,2,…, n) seiner charakteristischen Gleichung Re s i  < 0 gilt oder, anders ausgedrückt, wenn alle Pole seiner Übertragungsfunktion in der linken s-Halbebene liegen.

b):

Instabilität

Ein lineares System ist genau dann instabil, wenn mindestens ein Pol seiner Übertragungsfunktion in der rechten s-Halbebene liegt, oder wenn mindestens ein mehrfacher Pol (Vielfachheit μ ≥ 2) auf der imaginären Achse der s-Ebene liegt.

c):

Grenzstabilität

Ein lineares System ist genau dann grenzstabil, wenn kein Pol der Übertragungsfunktion in der rechten s-Halbebene liegt, keine mehrfachen Pole auf der imaginären Achse auftreten und auf dieser mindestens ein einfacher Pol vorhanden ist.

Für regelungstechnische Problemstellungen ist es oft nicht notwendig, die Wurzeln von (6-5) genau zu bestimmen. Für die Stabilitätsuntersuchung interessiert den Regelungstechniker nur, ob alle Wurzeln der charakteristischen Gleichung in der linken s-Halbebene liegen oder nicht. Hierfür gibt es einfache Kriterien, sog. Stabilitätskriterien, mit welchen dies leicht überprüft werden kann.

Algebraische Stabilitätskriterien

Das Hurwitz-Kriterium [1]

Mithilfe dieses Kriteriums lässt sich einfach prüfen, ob das durch (6-5) beschriebene charakteristische Polynom P(s) zu einem asymptotisch stabilen System gehört. Notwendige und hinreichende Bedingungen für asymptotisch stabiles Verhalten des betrachteten Systems sind, dass

a):

die Koeffizienten von P(s) alle von Null verschieden sind und positives Vorzeichen haben und

b):

folgende n Determinanten positiv sind, vgl. A 6.1:

$$\begin{aligned}\displaystyle D_{1}&\displaystyle=a_{{n-1}}> 0\,,\quad D_{2}=\left|\begin{array}[]{ll}a_{{n-1}}&a_{n}\\ a_{{n-3}}&a_{{n-2}}\end{array}\right|> 0\;,{}\end{aligned}$$
$$\begin{aligned}\displaystyle D_{3}&\displaystyle=\left|\begin{array}[]{l@{\quad}l@{\quad}l}a_{{n-1}}\hfil\quad&a_{n}\hfil\quad&0\\ a_{{n-3}}\hfil\quad&a_{{n-2}}\hfil\quad&a_{{n-1}}\\ a_{{n-5}}\hfil\quad&a_{{n-4}}\hfil\quad&a_{{n-3}}\end{array}\right|> 0\;,\end{aligned}$$
(6-6)
$$\begin{aligned}\displaystyle\begin{array}[]{l}D_{{n-1}}=\left|\begin{array}[]{llll}a_{{n-1}}&a_{n}&\ldots&0\\ a_{{n-3}}&a_{{n-2}}&\ldots&\cdot\\ \cdot&\cdot&\ldots&\cdot\\ \cdot&\cdot&\ldots&\cdot\\ 0&0&\ldots&a_{1}\end{array}\right|> 0\;,\\ D_{n}=a_{0}D_{{n-1}}> 0\;.\end{array}\end{aligned}$$

Während für ein System 2. Ordnung die Determinantenbedingungen von selbst erfüllt sind, sobald nur die Koeffizienten a 0, a 1, a 2 positiv sind, erhält man für den Fall eines Systems 3. Ordnung als Hurwitzbedingungen

$$\begin{aligned}\displaystyle&\displaystyle D_{1}=a_{2}> 0\;,\quad D_{2}=\left|\begin{array}[]{ll}a_{2}&a_{3}\\ a_{0}&a_{1}\end{array}\right|=a_{1}a_{2}-a_{0}a_{3}> 0\\ \displaystyle{\text{und}}&\displaystyle\qquad D_{3}=\left|\begin{array}[]{l@{\quad}l@{\quad}l}a_{2}\hfil\quad&a_{3}\hfil\quad&0\\ a_{0}\hfil\quad&a_{1}\hfil\quad&a_{2}\\ 0\hfil\quad&0\hfil\quad&a_{0}\end{array}\right|=a_{0}D_{2}> 0\,.\end{aligned}$$

Das Routh-Kriterium [2]

Sind die Koeffizienten a i des charakteristischen Polynoms P(s) zahlenmäßig vorgegeben, so kann man zur Überprüfung der Stabilität eines Systems anstelle des Hurwitz-Kriteriums auch das Routh'sche Verfahren verwenden. Dabei werden die Koeffizienten a i (i = 0,1,…, n) in folgender Form in den ersten beiden Zeilen des Routh-Schemas angeordnet, das insgesamt (n + 1) Zeilen enthält:

$$\begin{aligned}\displaystyle\begin{array}[]{ll}\begin{array}[]{l}\\ n\\ n-1\\ n-2\\ n-3\\ \vdots\\ 3\\ 2\\ 1\\ 0\\ \end{array}&\begin{array}[]{|llllll}a_{n}&a_{{n-2}}&a_{{n-4}}&a_{{n-6}}&\ldots&0\\ a_{{n-1}}&a_{{n-3}}&a_{{n-5}}&a_{{n-7}}&\ldots&0\\ \hline b_{{n-1}}&b_{{n-2}}&b_{{n-3}}&b_{{n-4}}&\ldots&0\\ c_{{n-1}}&c_{{n-2}}&c_{{n-3}}&c_{{n-4}}&\ldots&0\\ \\ d_{{n-1}}&d_{{n-2}}&0\\ e_{{n-1}}&e_{{n-2}}&0\\ f_{{n-1}}&0\\ g_{{n-1}}\end{array}\end{array}\end{aligned}$$

Die Koeffizienten b n − 1, b n − 2, b n − 3, … in der dritten Zeile ergeben sich durch die Kreuzproduktbildung aus den beiden ersten Zeilen:

$$\begin{aligned}\displaystyle\begin{array}[]{lll}b_{{n-1}}&=&\displaystyle\frac{a_{{n-1}}a_{{n-2}}-a_{n}a_{{n-3}}}{a_{{n-1}}}\;,\\ b_{{n-2}}&=&\displaystyle\frac{a_{{n-1}}a_{{n-4}}-a_{{n}}a_{{n-5}}}{a_{{n-1}}}\;,\\ b_{{n-3}}&=&\displaystyle\frac{a_{{n-1}}a_{{n-6}}-a_{n}a_{{n-7}}}{a_{{n-1}}}\;,\ldots\end{array}\end{aligned}$$

Bei den Kreuzprodukten wird immer von den Elementen der ersten Spalte ausgegangen. Die Berechnung dieser b-Werte erfolgt so lange, bis alle restlichen Werte null werden. Ganz entsprechend wird die Berechnung der c-Werte aus den beiden darüberliegenden Zeilen durchgeführt:

$$\begin{aligned}\displaystyle\begin{array}[]{lll}c_{{n-1}}&=&\displaystyle\frac{b_{{n-1}}a_{{n-3}}-a_{{n-1}}b_{{n-2}}}{b_{{n-1}}}\;,\\ c_{{n-2}}&=&\displaystyle\frac{b_{{n-1}}a_{{n-5}}-a_{{n-1}}b_{{n-3}}}{b_{{n-1}}}\;,\\ c_{{n-3}}&=&\displaystyle\frac{b_{{n-1}}a_{{n-7}}-a_{{n-1}}b_{{n-4}}}{b_{{n-1}}}\;,\ldots\end{array}\end{aligned}$$

Aus diesen beiden neu gewonnenen Zeilen werden in gleicher Weise weitere Zeilen gebildet, wobei sich schließlich für die letzten beiden Zeilen die Koeffizienten

$$\begin{aligned}\displaystyle\begin{array}[]{lll}f_{{n-1}}&=&\displaystyle\frac{e_{{n-1}}d_{{n-2}}-d_{{n-1}}e_{{n-2}}}{e_{{n-1}}}\quad{\text{und}}\\ g_{{n-1}}&=&e_{{n-2}}\end{array}\end{aligned}$$

ergeben. Nun lautet das Routh-Kriterium:

Das charakteristische Polynom P(s) mit den positiven Koeffizienten a i (i = 0,1,2,…, n) beschreibt genau dann ein asymptotisch stabiles System, wenn alle Koeffizienten in der ersten Spalte des Routh-Schemas positiv sind:

$$\begin{aligned}\displaystyle\begin{array}[]{l}b_{{n-1}}> 0\;,c_{{n-1}}> 0\;,\ldots,d_{{n-1}}> 0\;,\; e_{{n-1}}> 0\;,\\ f_{{n-1}}> 0\;,g_{{n-1}}> 0\;.\end{array}\end{aligned}$$

Beispiel:

$$\begin{aligned}\displaystyle P(s)=240+110s+50s^{2}+30s^{3}+2s^{4}+s^{5}\end{aligned}$$

Das Routh-Schema lautet hierfür:

$$\begin{aligned}\displaystyle\begin{array}[]{ll}\begin{array}[]{l}5\\ 4\\ 3\\ 2\\ 1\\ 0\end{array}&\begin{array}[]{|lrrr}\quad\,\,\,\! 1&\quad 30&\quad 110&\quad 0\\ \quad\,\,\,\! 2&\quad 50&\quad 240&\quad 0\\ \hline\quad\,\,\,\! 5&-10&\quad 0\\ \;\;\; 54&240\\ \ -32,44&\quad 0\\ \;\;\! 240\end{array}\end{array}\end{aligned}$$

Da in der 1. Spalte des Routh-Schemas ein Koeffizient negativ wird, ist das zugehörige System instabil.

Das Nyquist-Verfahren [3]

Dieses Verfahren ermöglicht, ausgehend vom Verlauf des Frequenzganges G 0(j ω) des offenen Regelkreises, eine Aussage über die Stabilität des geschlossenen Regelkreises. Für die praktische Anwendung genügt es, dass der Frequenzgang G 0(j ω) grafisch vorliegt, z. B. auch in Form experimentell ermittelter Frequenzgänge. Dieses Kriterium ist sehr allgemein anwendbar. Es ermöglicht nicht nur die Stabilitätsanalyse von Systemen mit konzentrierten Parametern, sondern auch von solchen mit verteilten Parametern oder Totzeit-Systemen. Das Kriterium kann entweder in der Ortskurvendarstellung oder in der Frequenzkennliniendarstellung formuliert werden.

Das Nyquist-Kriteriumin der Ortskurvendarstellung

Der offene Regelkreis wird durch die Übertragungsfunktion

$$G_{{0}}(s)=G_{{\text{S}}}(s)G_{{\text{R}}}(s)=Z_{{0}}(s)/N_{{0}}(s)\;,$$
(6-7)

also durch die beiden teilerfremden Polynome Z 0(s) und N 0(s) beschrieben, für deren Grad gilt:

$${\text{Grad}}\ Z_{{0}}(s)=m<n={\text{Grad}}\ N_{{0}}(s)\;.$$
(6-8)

Aus dem Nenner der Übertragungsfunktion des geschlossenen Regelkreises oder aus 1 + G 0(s) = 0 folgt das charakteristische Polynom des geschlossenen Regelkreises

$$P(s)\equiv N_{{\text{g}}}(s)=N_{{0}}(s)+Z_{{0}}(s)=0\;,$$
(6-9)

das den Grad n besitzt. Bezeichnet man die Pole des geschlossenen Regelkreises, also die Wurzeln von P(s), mit α i und diejenigen des offenen Regelkreises mit β i , so ist folgende Darstellung möglich:

$$G^{{\prime}}(s)=1+G_{{0}}(s)=\frac{N_{{\text{g}}}(s)}{N_{{0}}(s)}=k^{{\prime}}_{{0}}\displaystyle\frac{\prod\limits^{{n}}_{{i=1}}(s-\alpha _{{i}})}{\prod\limits^{{n}}_{{i=1}}(s-\beta _{{i}})}\;.$$
(6-10)

Es sei nun angenommen, dass von den n Polen α i des geschlossenen Regelkreises

  • N in der rechten s-Halbebene,

  • ν auf der imaginären Achse und

  • (n − N − ν) in der linken s-Halbebene liegen.

Entsprechend sollen von den n Polen β i des offenen Regelkreises

  • P in der rechten s-Halbebene,

  • μ auf der imaginären Achse und

  • (n − P − μ) in der linken s-Halbebene liegen.

Bildet man aus (6-10) mit s = j ω den Frequenzgang G( j ω), so gilt für dessen Phasengang

$$\varphi(\omega)=\arg\,[G^{{\prime}}(\,{\text{j}}\omega)]=\arg[N_{{\text{g}}}(\,{\text{j}}\omega)]-\arg[N_{{0}}(\,{\text{j}}\omega)]\;.$$
(6-11)

Durchläuft ω den Bereich 0 ≤ ω ≤ ∞, so setzt sich die Änderung der Phase Δφ = φ(∞) − φ(0) aus den Anteilen der Polynome N g( j ω) und N 0( j ω) zusammen:

$$\Updelta\varphi=\Updelta\varphi _{{\text{g}}}-\Updelta\varphi _{{0}}\;.$$
(6-12)

Zu Δφ liefert jede Wurzel der Polynome N g(s) oder N 0(s) einen Beitrag von +π∕2 bzw. −π∕2, wenn sie in der linken s-Halbebene liegt, und jede Wurzel rechts der imaginären Achse liefert einen Beitrag von −π∕2 bzw. +π∕2. Diese Phasenänderungen erfolgen stetig mit ω. Jede Wurzel j δ auf der imaginären Achse bewirkt dagegen eine sprungförmige Phasenänderung beim Durchlauf von j ω durch j δ. Dieser unstetige Phasenanteil kann im Weiteren unberücksichtigt bleiben. Für den stetigen Anteil Δφ s der Phasenänderung Δφ erhält man dann aus (6-12)

$$\Updelta\varphi _{{\text{s}}}=[2(P-N)+\mu-\nu]\pi/2\;.$$
(6-13)

Da der Frequenzgang des offenen Regelkreises G 0( j ω) vorgegeben ist, sind die Werte von P und μ meist bekannt. Mit dem Verlauf von G 0( j ω) ist aber auch Δφ s bekannt. Deshalb kann aus (6-13) ermittelt werden, ob N > 0 oder/und ν > 0 ist, d. h., ob und wie viele Pole des geschlossenen Regelkreises in der rechten s-Halbebene und auf der imaginären Achse liegen.

Zur Ermittlung von Δφ s wird die Ortskurve von G′( j ω) = 1 + G 0( j ω) gezeichnet und der Phasenwinkel überprüft. Zweckmäßigerweise verschiebt man jedoch diese Kurve um den Wert 1 nach links und verlegt den Drehpunkt des Zeigers vom Koordinatenursprung nach dem Punkt (−1,j 0) der G 0( j ω)-Ebene, der nun auch als kritischer Punkt bezeichnet wird. Somit braucht man gemäß Bild 6-1 nur die Ortskurve G 0( j ω) des offenen Regelkreises zu zeichnen, um die Stabilität des geschlossenen Regelkreises zu überprüfen. Dabei gibt nun Δφ s die stetige Winkeländerung des Fahrstrahls vom kritischen Punkt (−1,j 0) zum laufenden Punkt der Ortskurve G 0( j ω) für 0 ≤ ω ≤ ∞ an. Da der geschlossene Regelkreis genau dann asymptotisch stabil ist, wenn N = ν = 0 ist, und außerdem die Größen N und ν nichtnegativ sind, folgt aus (6-13) die allgemeine Fassung des Nyquist-Kriteriums:

  • Der geschlossene Regelkreis ist dann und nur dann asymptotisch stabil, wenn die stetige Winkeländerung

    $$\Updelta\varphi _{{\text{s}}}=P\pi+\mu\pi/2$$
    (6-14)

    ist.

Bild 6-1
figure 34

Ortskurve von G′(j ω) und G 0(j ω)

Das Nyquist-Kriterium gilt auch dann, wenn der offene Regelkreis eine Totzeit enthält. Es ist das einzige der hier behandelten Stabilitätskriterien, das für diesen Fall anwendbar ist.

Beispiel:

Bei einem Regelkreis, der aus einem P-Regler und einer reinen Totzeitregelstrecke besteht, lautet die charakteristische Gleichung

$$\begin{aligned}\displaystyle 1+G_{{0}}(s)=1+K_{{\text{R}}}K_{{\text{S}}}\ {\text{e}}^{{-sT_{{\text{t}}}}}=0\;.\end{aligned}$$

Die Ortskurve von \(G_{{0}}({\text{j}}\omega)=K_{{0}}{\text{e}}^{{-{\text{j}}\omega T_{{\text{t}}}}}\) (mit K 0 = K R K S) beschreibt einen Kreis mit dem Radius |K 0|, der für 0 ≤ ω ≤ ∞ unendlich oft im Uhrzeigersinn durchlaufen wird. Da der offene Regelkreis stabil ist, gilt P = 0 und μ = 0. Gemäß Bild 6-2 können zwei Fälle unterschieden werden:

a):

K 0 < 1: Δφ s = 0. Der geschlossene Regelkreis ist somit stabil.

b):

K 0 > 1: Δφ s = −∞. Der geschlossene Regelkreis weist instabiles Verhalten auf.

Bild 6-2
figure 35

Ortskurve des Frequenzganges eines reinen Totzeitgliedes mit der Verstärkung K 0 für a stabiles und b instabiles Verhalten des geschlossenen Regelkreises

Das Nyquist-Kriteriumin der Frequenzkennliniendarstellung

Der zur Ortskurve von G 0( j ω) gehörende logarithmische Amplitudengang A 0 dB(ω) ist für die Schnittpunktfrequenzen der Ortskurve mit der reellen Achse im Intervall (−∞, −1) stets positiv. Andererseits entspricht diesen Schnittpunkten der Ortskurve jeweils der Schnittpunkt des Phasenganges φ 0(ω) mit den Geraden ±180°, ±540° usw., also einem ungeraden Vielfachen von 180°. Im Falle eines „positiven“ Schnittpunktes der Ortskurve erfolgt der Übergang des Phasenganges über die entsprechende ±(2 k + 1) 180°-Linie von unten nach oben und umgekehrt von oben nach unten bei einem „negativen“ Schnittpunkt gemäß Bild 6-3. Diese Schnittpunkte sollen im Weiteren als positive (+) und negative (–) Übergänge des Phasenganges φ 0(ω) über die jeweilige ±(2 k + 1) 180°-Linie definiert werden, wobei k = 0,1,2, … gilt. Beginnt die Phasenkennlinie bei −180°, so zählt dieser Punkt als halber Übergang mit dem entsprechenden Vorzeichen. Damit lässt sich das Nyquist-Kriterium in der für die Frequenzkennliniendarstellung passenden Form aufstellen:

Bild 6-3
figure 36

Frequenzkennliniendarstellung von \(G_{{0}}(\,{\text{j}}\omega)=A_{{0}}(\omega)\ {\text{e}}^{{{\text{j}}{\varphi _{0}}(\omega)}}\) und Definition der positiven (+) und negativen (–) Übergänge des Phasenganges φ 0(ω) über die −180°-Linie

  • Der offene Regelkreis mit der Übertragungsfunktion G 0(s) besitze P Pole in der rechten s-Halbebene und möglicherweise einen einfachen oder doppelten Pol bei s = 0. Wenn für die ω-Werte, bei denen A 0 dB > 0 ist, S + die Anzahl der positiven und S die Anzahl der negativen Übergänge des Phasenganges φ 0(ω) über ±(2 k + 1) 180°-Linien ist, so ist der geschlossene Regelkreis genau dann asymptotisch stabil, wenn für die Differenz D = S + − S die Beziehung

    $$D=S^{{+}}-S^{{-}}=\left\{\begin{array}[]{ccl}\displaystyle\frac{P}{2}&\;{\text{f{\"u}r}}\;&\;\mu=0,1\\ \displaystyle\frac{P+1}{2}&\;{\text{f{\"u}r}}\;&\;\mu=2\end{array}\right.$$
    (6-15)

    gilt. Für den speziellen Fall, dass der offene Regelkreis stabil ist (P = 0, μ = 0) muss also die Anzahl der positiven und negativen Schnittpunkte gleich groß sein (D = 0).

Vereinfachte Formen des Nyquist-Kriteriums

In vielen Fällen ist der offene Regelkreis stabil, also P = 0 und μ = 0. In diesem Fall folgt aus (6-14) für die Winkeländerung Δφ s = 0. Dann kann das Nyquist-Kriterium wie folgt formuliert werden:

  • Ist der offene Regelkreis asymptotisch stabil, so ist der geschlossene Regelkreis genau dann asymptotisch stabil, wenn die Ortskurve des offenen Regelkreises den kritischen Punkt (−1,j 0) weder umkreist noch durchdringt.

Eine andere Fassung des vereinfachten Nyquist-Kriteriums, die auch angewandt werden kann, wenn G 0(s) Pole bei s = 0 besitzt, ist die sogenannte Linke-Hand-Regel:

  • Der offene Regelkreis habe nur Pole in der linken s-Halbebene außer einem 1- oder 2-fachen Pol bei s = 0 (P-, I- oder I2-Verhalten). In diesem Fall ist der geschlossene Regelkreis genau dann asymptotisch stabil, wenn der kritische Punkt (−1,j 0) in Richtung wachsender ω-Werte gesehen links der Ortskurve von G 0( j ω) liegt.

Die Linke-Hand-Regel lässt sich auch für das Bode-Diagramm formulieren:

  • Der offene Regelkreis habe nur Pole in der linken s-Halbebene, außer möglicherweise einen 1- oder 2-fachen Pol bei s = 0 (P-, I- oder I2-Verhalten).

    In diesem Fall ist der geschlossene Regelkreis genau dann asymptotisch stabil, wenn G 0( j ω) für die Durchtrittsfrequenz ω D bei A 0 dB(ω D) = 0 den Phasenwinkel φ 0(ω D) = arg G 0( j ω D) > −180° hat.

Dieses Stabilitätskriterium bietet auch die Möglichkeit einer praktischen Abschätzung der „Stabilitätsgüte“ eines Regelkreises. Je größer der Abstand der Ortskurve vom kritischen Punkt ist, desto weiter ist der geschlossene Regelkreis vom Stabilitätsrand entfernt. Als Maß hierfür benutzt man die Begriffe Phasenrand und Amplitudenrand, die in Bild  6-4 erklärt sind. Der Phasenrand

$$\varphi _{{\text{R}}}=180^{{\circ}}+\varphi _{{0}}(\omega _{{\text{D}}})$$
(6-16)

ist der Abstand der Phasenkennlinie von der −180°-Geraden bei der Durchtrittsfrequenz ω D, d. h. beim Durchgang der Amplitudenkennlinie durch die0-dB-Linie (|G 0| = 1). Als Amplitudenrand

$$A_{{\text{R dB}}}=A_{{\text{0 dB}}}(\omega _{{\text{S}}})$$
(6-17)

wird der Abstand der Amplitudenkennlinie von der 0-dB-Linie beim Phasenwinkel φ 0 = −180° bezeichnet.

Für eine gut gedämpfte Regelung, z. B. im Sinne der weiter unten behandelten betragsoptimalen Einstellung, sollten etwa folgende Werte eingehalten werden:

$$\begin{aligned}\displaystyle A_{{\text{R}\,\text{dB}}}\,\hat{=}&\displaystyle\left\{\begin{array}[]{l}\ -12\ {\text{dB bis}}\ -20\ \text{dB bei F{\"u}hrungsverhalten}\\ -{\mathrm{3{,}5}}\ {\text{dB bis}}-{\mathrm{9{,}5}}\ \text{dB bei St{\"o}rverhalten}\end{array}\right.\\ \displaystyle\varphi _{{\text{R}}}=&\displaystyle\left\{\begin{array}[]{l}40^{{\circ}}\ {\text{bis}}\ 60^{{\circ}}\ \text{bei F{\"u}hrungsverhalten}\\ 20\ \ {\text{bis}}\ 50^{{\circ}}\ \ \text{bei St{\"o}rverhalten}\,.\end{array}\right.\end{aligned}$$
Bild 6-4
figure 37

Phasen- und Amplitudenrand φ R bzw. A R a in der Ortskurvendarstellung und b im Bode-Diagramm

Die Durchtrittsfrequenz ω D stellt ein Maß für die dynamische Güte des Regelkreises dar. Je größer ω D, desto größer ist die Grenzfrequenz des geschlossenen Regelkreises, und desto schneller die Reaktion auf Sollwertänderungen oder Störungen. Als Grenzfrequenz ist dabei jene Frequenz ω g zu betrachten, bei der der Betrag des Frequenzganges des geschlossenen Regelkreises nahezu den Wert Null erreicht hat.

Das Wurzelortskurvenverfahren

Der Grundgedanke des Verfahrens [1]

Das Wurzelortskurvenverfahren erlaubt, aus der bekannten Pol- und Nullstellenverteilung der Übertragungsfunktion G 0(s) des offenen Regelkreises in der s-Ebene in anschaulicher Weise einen Schluss auf die Wurzeln der charakteristischen Gleichung des geschlossenen Regelkreises zu ziehen. Variiert man beispielsweise einen Parameter des offenen Regelkreises, so verändert sich die Lage der Wurzeln der charakteristischen Gleichung des geschlossenen Regelkreises in der s-Ebene. Die Wurzeln beschreiben somit in der s-Ebene Bahnen, die man als Wurzelortskurven (WOK) des geschlossenen Regelkreises definiert. Die Kenntnis der Wurzelortskurve, die meist in Abhängigkeit von einem Parameter dargestellt wird, ermöglicht neben der Aussage über die Stabilität des geschlossenen Kreises auch eine Beurteilung der Stabilitätsgüte, z. B. durch den Abstand der Pole von der imaginären Achse. Die WOK eignet sich daher nicht nur zur Analyse, sondern vorzüglich auch zur Synthese von Regelkreisen. Zur Bestimmung der WOK geht man von der Übertragungsfunktion des offenen Regelkreises

$$G_{{0}}(s)=k_{{0}}\frac{\prod\limits^{{m}}_{{\mu=1}}(s-s_{{\text{N}\mu}})}{\prod\limits^{{n}}_{{\nu=1}}(s-s_{{\text{P}\nu}})}=k_{{0}}G(s)$$
(7-1a)

aus, wobei k 0 > 0, m ≤ n und s N μ  ≠ s P ν gelte. Gleichung (7-1a) kann auch in der Form

$$G_{{0}}(s)=k_{{0}}\frac{\prod\limits^{{m}}_{{\mu=1}}|s-s_{{\text{N}\mu}}|}{\prod\limits^{{n}}_{{\nu=1}}|s-s_{{\text{P}\nu}}|}{\text{e}}^{{{\text{j}}\left(\sum\limits^{{m}}_{{\mu=1}}\varphi _{{\text{N}\mu}}-\sum\limits^{{n}}_{{\nu=1}}\varphi _{{\text{P}\nu}}\right)}}$$
(7-1b)

dargestellt werden. Die charakteristische Gleichung des geschlossenen Regelkreises ergibt sich mit (7-1a) aus

$$1+k_{{0}}G(s)=0\;.$$
(7-2)

Hieraus folgt

$$G(s)=-1/k_{{0}}\;.$$
(7-3)

Die Gesamtheit aller komplexen Zahlen s i  = s i (k 0), die diese Beziehung für 0 ≤ k 0 ≤ ∞ erfüllen, stellen die gesuchte WOK dar. Durch Aufspalten von (7-1b) in Betrag und Phase erhält man die Amplitudenbedingung

$$|G(s)|=\frac{1}{k_{{0}}}=\frac{\prod\limits^{{m}}_{{\mu=1}}|s-s_{{\text{N}\mu}}|}{\prod\limits^{{n}}_{{\nu=1}}|s-s_{{\text{P}\nu}}|}$$
(7-4)

und die Phasenbedingung

$$\begin{aligned}\displaystyle\varphi(s)&\displaystyle=\arg[G(s)]=\sum\limits^{{m}}_{{\mu=1}}\varphi _{{\text{N}\mu}}-\sum\limits^{{n}}_{{\nu=1}}\varphi _{{\text{P}\nu}}\\ \displaystyle&\displaystyle=\pm 180^{{\circ}}(2k+1)\end{aligned}$$
(7-5)

mit k = 0,1,2, … . Hierbei kennzeichnen φ N μ und φ P ν die zu den komplexen Zahlen (s − s N ν ) bzw. (s − s P ν ) gehörenden Winkel. Offensichtlich ist die Phasenbedingung von k 0 unabhängig. Alle Punkte der komplexen s-Ebene, die die Phasenbedingung erfüllen, stellen also den geometrischen Ort aller möglichen Pole des geschlossenen Kreises dar, die durch die Variation des Vorfaktors k 0 entstehen können. Die Kodierung dieser WOK, d. h. die Zuordnung zwischen den Kurvenpunkten und den Werten von k 0, erhält man durch Auswertung der Amplitudenbedingung entsprechend (7-4).

Regeln zur Konstruktion von Wurzelortskurven

Wie Bild 7-1 zeigt, könnte die Konstruktion von Wurzelortskurven unter Verwendung von (7-5) grafisch durchgeführt werden. Dieses Vorgehen ist jedoch nur zur Überprüfung der Phasenbedingung einzelner Punkte der s-Ebene zweckmäßig. Für die Konstruktion einer WOK werden daher folgende Regeln angewandt:

1.:

Die WOK ist symmetrisch zur reellen Achse.

2.:

Die WOK besteht aus n Ästen. (n − m) Äste enden im Unendlichen. Alle Äste beginnen mit k 0 = 0 in den Polen der charakteristischen Gleichung des offenen Regelkreises, m Äste enden mit k 0 → ∞ in den Nullstellen des offenen Regelkreises. Die Anzahl der in einem Pol beginnenden bzw. in einer Nullstelle endenden Äste der WOK ist gleich der Vielfachheit der Pol- bzw. Nullstelle.

3.:

Es gibt n − m Asymptoten mit Schnitt im Wurzelschwerpunkt auf der reellen Achse (σ a, j 0) mit

$$\sigma _{{\text{a}}}=\frac{1}{n-m}\left\{\sum^{{n}}_{{\nu=1}}{\text{Re}}\ s_{{\text{P}\nu}}-\sum^{{m}}_{{\mu=1}}{\text{Re}}\ s_{{\text{N}{\mu}}}\right\}\;.$$
(7-6)
4.:

Ein Punkt auf der reellen Achse gehört dann zur WOK, wenn die Gesamtzahl der rechts von ihm liegenden Pole und Nullstellen ungerade ist.

5.:

Mindestens ein Verzweigungs- bzw. Vereinigungspunkt existiert dann, wenn ein Ast der WOK auf der reellen Achse zwischen zwei Pol- bzw. Nullstellen verläuft; dieser reelle Punkt genügt der Beziehung

$$\sum^{n}_{{r=1}}\,\frac{1}{s-s_{{{\text{P}}\nu}}}\,=\,\sum^{m}_{{\mu=1}}\frac{1}{s-s_{{\text{N}\mu}}}$$
(7-7)

für s = σ v als Verzweigungs- bzw. Vereinigungspunkt. Sind keine Pol- oder Nullstellen vorhanden, so ist der entsprechende Summenterm gleich null zu setzen.

6.:

Austritts- und Eintrittswinkel aus Pol- bzw. in Nullstellenpaaren der Vielfachheit \({r}_{{{\text{p}}_{\varrho}}}\) bzw. \({r}_{{{\text{N}}_{\varrho}}}\):

$$\varphi _{{{\text{P}}\varrho,{\text{A}}}}=\frac{1}{{r}_{{{\text{P}}\varrho}}}\left\{-\sum^{n}_{{\nu=1\atop{\nu\pm\varrho}}}\varphi _{{{\text{P}}\nu}}+\sum^{m}_{{\mu=1}}\varphi _{{{\text{N}}\mu}}\pm 180^{\circ}(2k+1)\right\}$$
(7-8a)
$$\varphi _{{{\text{N}}\varrho,{\text{E}}}}=\frac{1}{{r}_{{{\text{N}}\varrho}}}\left\{-\sum^{n}_{{\mu=1\atop{\mu\pm\varrho}}}\varphi _{{{\text{N}}\mu}}+\sum^{m}_{{\nu=1}}\varphi _{{{\text{P}}\nu}}\pm 180^{\circ}(2k+1)\right\}.$$
(7-8b)
7.:

Belegung der WOK mit k 0-Werten: Zum Wert s gehört der Wert

$$k_{0}=\displaystyle\frac{\prod\limits^{{n}}_{{\nu=1}}|s-s_{{{\text{P}}\nu}}|}{\prod\limits^{{m}}_{{\mu=1}}|s-s_{{{\text{N}}\mu}}|}\;,$$
(7-9)

(für m = 0 ist der Nenner gleich eins).

8.:

Asymptotische Stabilität des geschlossenen Regelkreises liegt für alle k 0-Werte vor, die auf der WOK links von der imaginären Achse liegen. Die Schnittpunkte der WOK mit der imaginären Achse liefern die kritischen Werte k 0, krit.

Bild 7-1
figure 38

Überprüfung der Phasenbedingung

Ein typisches Beispiel für den Verlauf der WOK für den Fall der Übertragungsfunktion des offenen Systems

$$\begin{aligned}\displaystyle G_{0}(s)=\frac{k_{0}(s+1)}{s(s+2)(s^{2}+12s+40)}\end{aligned}$$

zeigt Bild 7-2. Aus dem Verlauf dieser WOK kann z. B. entnommen werden, dass für k 0 > 644 der geschlossene Regelkreis Pole in der rechten s-Halbebene aufweist und daher instabil wird. Weitere typische Fälle sind in Tabelle 7-1 aufgeführt.

Bild 7-2
figure 39

Die Wurzelortskurve des Regelkreises mit der Übertragungsfunktion des offenen Systems \(G_{0}(s)=\displaystyle\frac{k_{0}(s+1)}{s(s+2)(s+6+2{\text{j}})(s+6-2{\text{j}})}.\)

Tab. 7-1 Typische Beispiele für Pol- und Nullstellenverteilungen von G 0(s) und zugehörige Wurzelortskurve des geschlossenen Regelkreises

Entwurfsverfahren für lineare kontinuierliche Regelsysteme

Problemstellung

Eine der wichtigsten Aufgaben stellt für den Regelungstechniker der Entwurf oder die Synthese eines Regelkreises dar. Diese Aufgabe, zu der streng genommen auch die komplette gerätetechnische Auslegung gehört, sei im Folgenden auf das Problem beschränkt, für eine vorgegebene Regelstrecke einen geeigneten Regler zu entwerfen, der die an den Regelkreis gestellten Anforderungen möglichst gut oder mit geringstem technischen Aufwand erfüllt. An den Regelkreis werden gewöhnlich folgende Anforderungen gestellt:

1.:

Als Mindestforderung muss der Regelkreis selbstverständlich stabil sein.

2.:

Störgrößen z(t) sollen einen möglichst geringen Einfluss auf die Regelgröße y(t) haben.

3.:

Die Regelgröße y(t) soll einer zeitlich sich ändernden Führungsgröße w(t) möglichst genau und schnell folgen.

4.:

Der Regelkreis soll möglichst unempfindlich (robust) gegenüber nicht zu großen Parameteränderungen sein.

Um die unter 2. und 3. gestellten Anforderungen zu erfüllen, müsste gemäß Forderung 3 im Idealfall für die Führungsübertragungsfunktion

$$G_{{\text{W}}}(s)=\frac{Y(s)}{W(s)}=\frac{G_{0}(s)}{1+G_{0}(s)}=1$$
(8-1)

und bei einer Störung z. B. am Ausgang der Regelstrecke für die Störungsübertragungsfunktion gemäß Forderung 2

$$G_{{\text{Z}}}(s)=\frac{Y(s)}{Z(s)}=\frac{1}{1+G_{0}(s)}=0$$
(8-2)

gelten. Eine strenge Verwirklichung dieser Beziehungen ist jedoch aus physikalischen und technischen Gründen nicht möglich, da hierzu unendlich große Stellgrößen erforderlich wären. Für eine praktische Anwendung muss daher stets überlegt werden, welche Abweichung vom idealen Fall zugelassen werden kann.

Entwurf im Zeitbereich

Gütemaße im Zeitbereich

Bei der Beurteilung der Güte einer Regelung erweist es sich als zweckmäßig, den zeitlichen Verlauf der Regelgröße y(t) bzw. der Regelabweichung e(t) unter Einwirkung wohldefinierter Testsignale zu betrachten. Als das wohl wichtigste Testsignal wird dazu gewöhnlich eine sprungförmige Erregung der Eingangsgröße des untersuchten Regelkreises verwendet. So kann man beispielsweise für eine sprungförmige Erregung der Führungsgröße den im Bild 8-1a dargestellten Verlauf der Regelgröße y(t) = h W(t) beobachten.

Bild 8-1
figure 40

Typische Antwort eines Regelkreises bei einer sprungförmigen Änderung a der Führungsgröße und b der Störgröße

Zur Beschreibung dieser Führungsübergangsfunktion werden die folgenden Begriffe eingeführt:

–:

Die maximale Überschwingweite \(e_{{\max}}\) gibt den Betrag der maximalen Regelabweichung an, die nach erstmaligem Erreichen des Sollwertes (100 %) auftritt.

–:

Die \(t_{{\max}}\)-Zeit beschreibt den Zeitpunkt des Auftretens der maximalen Überschwingweite.

–:

Die Anstiegszeit T a ergibt sich aus dem Schnittpunkt der Tangente im Wendepunkt W von h W(t) mit der 0 %- und 100 %-Linie. Häufig wird allerdings die Tangente auch im Zeitpunkt t 50 verwendet, bei dem h W(t) gerade 50 % des Sollwertes erreicht hat. Zur besseren Unterscheidung soll dann für diesen zweiten Fall die Anstiegszeit mit T a ,50 bezeichnet werden.

–:

Die Verzugszeit T u ergibt sich aus dem Schnittpunkt der oben definierten Wendetangente mit der t-Achse.

–:

Die Ausregelzeit t ε ist der Zeitpunkt, ab dem der Betrag der Regelabweichung kleiner als eine vorgegebene Schranke ε ist (z. B. ε = 3 %, also ±3 % Abweichung vom Sollwert).

–:

Als Anregelzeit t an bezeichnet man den Zeitpunkt, bei dem erstmalig der Sollwert (100 %) erreicht wird. Es gilt näherungsweise t an ≈ T u + T a.

In ähnlicher Weise lässt sich gemäß Bild 8-1b auch das Störverhalten charakterisieren. Hierbei werden ebenfalls die Begriffe „maximale Überschwingweite“ und „Ausregelzeit“ definiert.

Von den hier eingeführten Größen kennzeichnen im Wesentlichen e max und t ε die Dämpfung und t an, T a und t max die Schnelligkeit, also die Dynamik des Regelverhaltens, während die bleibende Regelabweichung e das statische Verhalten charakterisiert.

Integralkriterien

Aus Bild 8-1a ist ersichtlich, dass die Fläche zwischen der 100 %-Geraden und der Führungsübergangsfunktion h W(t) sicherlich ein Maß für die Abweichung des Regelkreises vom idealen Führungsverhalten darstellt. Ebenso ist in Bild 8-1b die Fläche zwischen der Störübergangsfunktion h Z(t) und der t-Achse ein Maß für die Abweichung des Regelkreises vom Fall der idealen Störungsunterdrückung. In beiden Fällen handelt es sich um die Gesamtfläche unterhalb der Regelabweichung e(t) = w(t) − y(t), mit der man die Abweichung vom idealen Regelkreis beschreiben kann. Es liegt nahe, als Maß für die Regelgüte ein Integral der Form

$$I_{k}=\int\limits^{\infty}_{0}f_{{{k}}}[e(t)]\,{\text{d}}t$$
(8-3)

einzuführen, wobei für f k [e(t)] gewöhnlich die in Tabelle 8.1 angegebenen verschiedenen Funktionen, wie z. B. e(t), |e(t)|,  e 2(t) usw., verwendet werden. In einem derartigen integralen Gütemaß lassen sich zeitliche Ableitungen der Regelabweichung sowie zusätzlich die Stellgröße u(t) berücksichtigen. Die wichtigsten dieser Gütemaße I k sind in Tabelle 8-1 zusammengestellt.

Tab. 8-1 Die wichtigsten Gütemaße für Integralkriterien

Mithilfe solcher Gütemaße lassen sich die Integralkriterien folgendermaßen formulieren:

Eine Regelung ist im Sinne des jeweils gewählten Integralkriteriums umso besser, je kleiner I k ist. Somit erfordert ein Integralkriterium stets die Minimierung von I k , wobei dies durch geeignete Wahl der noch freien Entwurfsparameter oder Reglereinstellwerte r 1, r 2, … geschehen kann. Damit lautet das Integralkriterium schließlich

$$I_{k}=\int\limits^{\infty}_{0}f_{k}[e(t)]\,{\text{d}}t=I_{k}({r}_{1},{r}_{2},\ldots)\mathop{=}\limits^{!}\,{\text{Min}}\;.$$
(8-4)

Dabei kann das gesuchte Minimum sowohl im Innern als auch auf dem Rand des durch die möglichen Einstellwerte begrenzten Definitionsbereiches liegen. Dies ist zu beachten, da beide Fälle eine unterschiedliche mathematische Behandlung erfordern. Im ersten Fall handelt es sich gewöhnlich um ein absolutes Optimum, im zweiten um ein Randoptimum.

Quadratische Regelfläche

Aufgrund der verschiedenartigen Anforderungen, die beim Entwurf von Regelkreisen gestellt werden, ist es nicht möglich, für alle Anwendungsfälle ein einziges, gleichermaßen gut geeignetes Gütemaß festzulegen. In sehr vielen Fällen hat sich jedoch das Minimum der quadratischen Regelfläche als Gütekriterium sehr gut bewährt. Es besitzt außerdem den Vorteil, dass es für die wichtigsten Fälle auch leicht berechnet werden kann. Zur Berechnung der quadratischen Regelfläche wird die Parseval'sche Gleichung

$$I_{3}=\int\limits^{\infty}_{0}e^{2}(t)\,{\text{d}}t=\frac{1}{2\pi{\text{j}}}\int\limits^{{+{\text{j}}\infty}}_{{-{\text{j}}\infty}}E(s)E(-s)\,{\text{d}}s$$
(8-5)

verwendet. Ist E(s) eine gebrochen rationale Funktion

$$E(s)=\frac{C(s)}{D(s)}=\frac{c_{0}+c_{1}s+\ldots+c_{{n-1}}s^{{n-1}}}{d_{0}+d_{1}s+\ldots+d_{n}s^{{n}}}\;,$$
(8-6)

deren sämtliche Pole in der linken s-Halbebene liegen, dann lässt sich das Integral in (8-5) durch Residuenrechnung bestimmen. Bis n = 10 liegt die Auswertung dieses Integrals in tabellarischer Form vor [1]. Tabelle  8-2 enthält die Integrale bis n = 4.

Tab. 8-2 Quadratische Regelfläche I 3, n für n = 1 bis n = 4

Ermittlung optimaler Einstellwerte eines Reglers nach dem Kriterium der minimalen quadratischen Regelfläche [2]

Bei vorgegebenem Führungs- bzw. Störsignal ist die quadratische Regelfläche

$$I_{3}=\int\limits^{\infty}_{0}[e(t)-e_{\infty}]^{2}\,{\text{d}}t=I_{3}({r}_{1},{r_{2}},\ldots)$$
(8-7)

nur eine Funktion der zu optimierenden Reglerparameter r 1, r 2, … . Die optimalen Reglerparameter sind nun diejenigen, durch die I 3 minimal wird. Zur Lösung dieser einfachen mathematischen Extremwertaufgabe

$$I_{3}({r}_{1},{r}_{2},\ldots)\mathop{=}\limits^{!}{\text{Min}}$$
(8-8)

gilt unter der Voraussetzung, dass der gesuchte Optimalpunkt (r 1 opt, r 2 opt, …) nicht auf dem Rand des möglichen Einstellbereichs liegt, somit für alle partiellen Ableitungen von I 3

$$\frac{\partial{I}_{3}}{\partial{r}_{1}}\bigg|_{{r_{{\text{2 opt}}}r_{{\text{3 opt}}},\ldots}}=0\,,\quad\frac{\partial{I}_{3}}{\partial{r}_{2}}\bigg|_{{r_{{\text{1 opt}}}r_{{\text{3 opt}}},\ldots}}=0\,,\ldots$$
(8-9)

Diese Beziehung stellt einen Satz von Bestimmungsgleichungen für die Extrema von (8-7) dar. Im Optimalpunkt muss I 3 ein Minimum werden. Ein derartiger Punkt kann nur im Bereich stabiler Reglereinstellwerte liegen. Beim Auftreten mehrerer Punkte, die (8-8) erfüllen, muss u. U. durch Bildung der zweiten partiellen Ableitungen von I 3 geprüft werden, ob der betreffende Extremwert ein Minimum ist. Treten mehrere Minima auf, dann beschreibt das absolute Minimum den Optimalpunkt der gesuchten Reglereinstellwerte r i  = r i  opt (i = 1,2, …).

Am Beispiel einer Reglerstrecke mit der Übertragungsfunktion

$$G_{{\text{S}}}(s)=\frac{1}{(1+s)^{3}}\;,$$
(8-10)

die mit einem PI-Regler mit der Übertragungsfunktion

$$G_{{\text{R}}}(s)=K_{{\text{R}}}\left(1+\frac{1}{T_{{\text{I}}}s}\right)\;,$$
(8-11)

zu einem Regelkreis zusammengeschaltet wird, soll die Ermittlung von K R opt und T I opt nach der minimalen quadratischen Regelfläche I 3 für eine sprungförmige Störung am Eingang der Regelstrecke gezeigt werden.

1. Schritt: Bestimmung des Stabilitätsrandes: Aus der charakteristischen Gleichung dieses Systems 4. Ordnung,

$$T_{{\text{I}}}s^{4}+3T_{{\text{I}}}s^{3}+3T_{{\text{I}}}s^{2}+T_{{\text{I}}}(1+K_{{\text{R}}})s+K_{{\text{R}}}=0\;,$$
(8-12)

erhält man nach Anwendung z. B. des Hurwitz-Kriteriums als Grenzkurven des Stabilitätsbereichs

$$K_{{\text{R}}}=0{\text{ und }}T_{{\text{I}\,\text{ stab}}}=9K_{{\text{R}}}/[(1+K_{{\text{R}}})(8-K_{{\text{R}}})]\,.$$
(8-13)

Der Bereich stabiler Reglereinstellwerte ist in Bild 8-2 dargestellt.

Bild 8-2
figure 41

Das Regelgütediagramm für das untersuchte Beispiel

2. Schritt: Bestimmung der quadratischen Regelfläche: Die Laplace-Transformierte der Regelabweichung E(s) lautet im vorliegenden Fall

$$\begin{aligned}\displaystyle E(s)=\frac{-T_{\text{I}}}{K_{{\text{R}}}+(1+K_{{\text{R}}})T_{{\text{I}}}s+3T_{{\text{I}}}s^{2}+3T_{{\text{I}}}s^{3}+T_{{\text{I}}}s^{4}}\;.\end{aligned}$$

Wendet man darauf den entsprechenden Ausdruck aus Tabelle  8-2 an, so erhält man die quadratische Regelfläche

$$I_{3}=\frac{T_{\text{I}}(8-K_{{\text{R}}})}{2\, K_{{\text{R}}}\left\{(1+K_{{\text{R}}})(8-K_{{\text{R}}})-\displaystyle{\frac{9K_{{\text{R}}}}{T_{{\text{I}}}}}\right\}}\;.$$
(8-14)

3. Schritt: Bestimmung des Optimalpunktes (K R opt, T I opt): Da der gesuchte Optimalpunkt im Innern des Stabilitätsbereichs liegt, muss dort notwendigerweise

$$\frac{\partial I_{3}}{\partial K_{{\text{R}}}}=0\quad{\text{und}}\quad\frac{\partial I_{3}}{\partial T_{{\text{I}}}}=0$$
(8-15a,b)

gelten. Jede dieser beiden Bedingungen liefert eine Optimalkurve T I(K R) in der (K R, T I)-Ebene, deren Schnittpunkt, falls er existiert und im Innern des Stabilitätsbereichs liegt, der gesuchte Optimalpunkt ist. Aus (8-15a,b) erhält man die Optimalkurven

$$\begin{aligned}\displaystyle&\displaystyle{T}_{{\text{I}\,\text{ opt}\,\text{1}}}=\frac{9K_{{\text{R}}}(16-K_{{\text{R}}})}{(8-K_{{\text{R}}})^{2}(1+2K_{{\text{R}}})}\\ \displaystyle\end{aligned}$$
(8-16a,b)
$$\begin{aligned}\displaystyle\!\!\!\!\!\!\!\!\!\!\!\!\!\!{\text{und}}\quad&\displaystyle{T}_{{\text{I}\,\text{ opt}\,\text{2}}}=\frac{18K_{{\text{R}}}}{(1+K_{{\text{R}}})(8-K_{{\text{R}}})}\;.{}\end{aligned}$$

Beide Optimalkurven gehen durch den Ursprung (Maximum von I 3 auf dem Stabilitätsrand) und haben, wie die Kurve für den Stabilitätsrand nach (8-13), bei K R = 8 einen Pol. Durch Gleichsetzen der beiden rechten Seiten von (16a) und (16b) erhält man den gesuchten Optimalpunkt mit den Koordinaten

$$\begin{aligned}\displaystyle{K}_{{\text{R opt}}}=5\quad{\text{und}}\quad T_{{\text{I}\,\text{opt}}}=5\;.\end{aligned}$$

Der Optimalpunkt liegt im Bereich stabiler Reglereinstellwerte.

4. Schritt: Zeichnen des Regelgütediagramms: Vielfach will man den Verlauf von I 3(K R, T I) in der Nähe des gewählten Optimalpunktes kennen, um das Verhalten des Regelkreises bei Veränderung der Reglerparameter abschätzen zu können. Ein Optimalpunkt, in dessen Umgebung I 3(K R, T I) stark ansteigt, kann nur dann gewählt werden, wenn die einmal eingestellten Werte möglichst genau eingehalten werden.

Nun ermittelt man Kurven T Ih(K R), auf denen die quadratische Regelfläche konstante Werte annimmt (Höhenlinien), und zeichnet einige in das Stabilitätsdiagramm ein. Gleichung (8-14), nach T I aufgelöst, liefert als Bestimmungsgleichung für die gesuchten Höhenlinien

$$\begin{aligned}\displaystyle T_{{{\text{Ih}}_{{1,2}}}}=&\displaystyle\; K_{{\text{R}}}\left[I_{3}(K_{{\text{R}}}+1)\pm\,\sqrt{I^{2}_{3}(K_{{\text{R}}}+1)^{2}-\frac{18I_{3}}{8-K_{{\text{R}}}}}\,\right]\,.\end{aligned}$$
(8-17)

Die Höhenlinien I 3 = const stellen geschlossene Kurven in der (K R, T I)-Ebene dar. Zusammen mit der Grenzkurve des Stabilitätsrandes bilden sie das Regelgütediagramm nach Bild 8-2. Die optimalen Reglereinstellwerte hängen von der Art und dem Eingriffsort der Störgröße ab. Auch sind diese Werte für Führungsverhalten anders als für Störverhalten.

Die Berechnung optimaler Reglereinstellwerte nach dem quadratischen Gütekriterium ist im Einzelfall recht aufwändig. Daher wurden für die Kombinationen der wichtigsten Regelstrecken mit Standardreglertypen (PID-, PI-, PD- und P-Regler) die optimalen Einstellwerte in allgemein anwendbarer Form berechnet und für Regelstrecken bis 4. Ordnung tabellarisch dargestellt [2].

Empirisches Vorgehen

Viele industrielle Prozesse weisen Übergangsfunktionen mit rein aperiodischem Verhalten gemäß Bild 8-3 auf, d. h., ihr Verhalten kann durch PT n -Glieder sehr gut beschrieben werden. Häufig können diese Prozesse durch das vereinfachte mathematische Modell

$$G_{{\text{S}}}(s)=\frac{K_{{\text{S}}}}{1+Ts}{\text{e}}^{{-T_{{\text{t}}}s}}\;,$$
(8-18)

das ein Verzögerungsglied 1. Ordnung und ein Totzeitglied enthält, hinreichend gut approximiert werden. Bild 8-3 zeigt die Approximation eines PT n -Gliedes durch ein derartiges PT1Tt-Glied. Dabei wird durch die Konstruktion der Wendetangente die Übergangsfunktion h S(t) mit folgenden drei Größen charakterisiert: K S (Übertragungsbeiwert oder Verstärkungsfaktor der Regelstrecke), T a (Anstiegszeit) und T u (Verzugszeit). Bei einer groben Approximation nach (8-18) wird dann meist T t = T u und T = T a gesetzt.

Für Regelstrecken der hier beschriebenen Art wurden zahlreiche Einstellregeln für Standardregler in der Literatur [3] angegeben, die teils empirisch, teils durch Simulation an entsprechenden Modellen gefunden wurden. Die wohl am weitesten verbreiteten empirischen Einstellregeln sind die von Ziegler undNichols [4]. Diese Einstellregeln wurden empirisch abgeleitet, wobei die Übergangsfunktion des geschlossenen Regelkreises je Schwingungsperiode eine Amplitudenabnahme von ca. 25 % aufwies. Bei der Anwendung dieser Einstellregeln kann zwischen folgenden zwei Fassungen (Tabelle 8-3) gewählt werden:

Tab. 8-3 Reglereinstellwerte nach Ziegler und Nichols
Bild 8-3
figure 42

Beschreibung der Übergangsfunktion h S(t) durch K S, T a und T u

a):

Methode des Stabilitätsrandes (I): Hierbei geht man in folgenden Schritten vor:

1.:

Der jeweils im Regelkreis vorhandene Standardregler wird zunächst als reiner P Regler geschaltet.

2.:

Die Verstärkung K R dieses P-Reglers wird so lange vergrößert, bis der geschlossene Regelkreis Dauerschwingungen ausführt. Der dabei eingestellte K R-Wert wird als kritische Reglerverstärkung K R krit bezeichnet.

3.:

Die Periodendauer T krit (kritische Periodendauer) der Dauerschwingung wird gemessen.

4.:

Man bestimmt nun anhand von K R krit und T krit mithilfe der in Tabelle 8-3 angegebenen Formeln die Reglereinstellwerte K R, T I und T D.

b):

Methode der Übergangsfunktion (II): Häufig wird es bei einer industriellen Anlage nicht möglich sein, den Regelkreis zur Ermittlung von K R krit und T krit im grenzstabilen Fall zu betreiben. Im Allgemeinen bereitet jedoch die Messung der Übergangsfunktion h S(t) der Regelstrecke keine Schwierigkeiten. Daher erscheint in vielen Fällen die zweite Form der Ziegler-Nichols-Einstellregeln, die direkt von der Steigung der Wendetangente K ST a und der Verzugszeit T u der Übergangsfunktion ausgeht, als zweckmäßiger. Dabei ist zu beachten, dass die Messung der Übergangsfunktion h S(t) nur bis zum Wendepunkt W erforderlich ist, da die Steigung der Wendetangente bereits das Verhältnis K ST a beschreibt. Anhand der Messwerte T u und K ST a sowie mithilfe der in Tabelle 8-3 angegebenen Formeln lassen sich dann die Reglereinstellwerte einfach berechnen.

Entwurf im Frequenzbereich [5]

Kenndaten des geschlossenen Regelkreises im Frequenzbereich und deren Zusammenhang mit den Gütemaßen im Zeitbereich

Ein Regelkreis, dessen Übergangsfunktion h W(t) einen Verlauf entsprechend Bild 8-1a aufweist, besitzt gewöhnlich einen Frequenzgang G W( j ω) mit einer Amplitudenüberhöhung, der sich qualitativ im Bode-Diagramm nach Bild  8-4 darstellen lässt. Zur Beschreibung dieses Verhaltens eignen sich folgende teilweise bereits eingeführten Kenndaten: (a) Resonanzfrequenz ω r, (b) Amplitudenüberhöhung A W max dB, (c) Bandbreite ω b und (d) Phasenwinkel φ b = φ(ω b). Für die weiteren Überlegungen wird die Annahme gemacht, dass der geschlossene Regelkreis näherungsweise durch ein PT2S-Glied mit der Übertragungsfunktion

$$G_{{\text{W}}}(s)=\frac{G_{0}(s)}{1+G_{0}(s)}=\frac{\omega^{2}_{0}}{s^{2}+2\, D\omega _{0}s+\omega^{2}_{0}}$$
(8-19)

beschrieben werden kann, wobei die Kenndaten der Eigenfrequenz ω 0 und des Dämpfungsgrades D das Regelverhalten vollständig charakterisieren. Dies ist sicherlich dann mit guter Näherung möglich, wenn die reale Führungsübertragungsfunktion ein dominierendes Polpaar besitzt, das in der s-Ebene der jω-Achse am nächsten liegt, somit die langsamste Eigenbewegung beschreibt und damit das dynamische Eigenverhalten des Systems am stärksten beeinflusst, sofern die übrigen Pole hinreichend weit links davon liegen. Aus der zu (8-19) gehörenden Übergangsfunktion h W(t) können folgende dämpfungsabhängige Größen berechnet werden:

a):

Maximale Überschwingweite:

$$e_{{\max}}=h_{{\text{W}}}(t_{{\max}})-1={\text{e}}^{{-\left(\frac{D}{\sqrt{1-D^{2}}}\right)\pi}}=f_{1}(D)\;.$$
(8-20)
b):

Anstiegszeit T a, 50: Die Anstiegszeit wird nachfolgend nicht über die Wendetangente, sondern über die Tangente im Zeitpunkt t = t 50 (vgl. Bild  8-1a) bestimmt, bei dem h W(t) gerade 50 % des stationären Wertes \(h_{{\text{W}_{\infty}}}=1\) erreicht hat. Die Berechnung liefert

$$\begin{aligned}\displaystyle\omega _{{0}}T_{{\text{a, 50}}}&\displaystyle=\frac{\sqrt{1-D^{2}}}{{\text{e}}^{{-Df{\ast\atop 2}(D)}}\sin\left(\sqrt{1-D^{2}}f_{2}^{\ast}(D)\right)}\\ \displaystyle&\displaystyle=f_{2}(D)\;,\end{aligned}$$
(8-21)

wobei \(f_{{2}}^{\ast}(D)=\omega _{{0}}t_{{50}}\) numerisch bestimmt werden muss [8].

c):

Ausregelzeit t ε : Wählt man ε = 3 %, dann erhält man über die Einhüllende des Schwingungsverlaufs

$$\omega _{{0}}t_{{{3}\%}}\approx\frac{1}{D}[{\mathrm{3{,}5}}-{\mathrm{0{,}5}}\ln(1-D^{2})]=f_{3}(D)\;.$$
(8-22)
d):

Bandbreite ω b und Phasenwinkel φ b: Aus der in Bild 8-4 dargestellten Definition der Bandbreite folgt

$$\frac{\omega _{{\text{b}}}}{\omega _{0}}=\sqrt{(1-2D^{2})+\sqrt{(1-2D^{2})^{2}+1}}=f_{4}(D)$$
(8-23)

und

$$\begin{aligned}\displaystyle\varphi _{{\text{b}}}&\displaystyle={\text{arctan}}\frac{2D\sqrt{(1-2D^{2})+\sqrt{(1-2D^{2})^{2}+1}}}{2D^{2}-\sqrt{(1-2D^{2})^{2}+1}}\\ \displaystyle&\displaystyle=f_{5}(D)\;.\end{aligned}$$
(8-24)

Weiterhin erhält man mit (8-21) aus (8-23)

$$\omega _{{\text{b}}}T_{{\text{a,50}}}=f_{2}(D)f_{4}(D)=f_{6}(D).$$
(8-25)

Der Verlauf der Funktionen f 1(D) bis f 6(D) ist im Bild  8-5 dargestellt. Durch Approximation von f 4(D), f 5(D) und f 6(D) lassen sich dann folgende Faustformeln ableiten:

1.:
$$\begin{aligned}\displaystyle\displaystyle\frac{\omega _{{\text{b}}}}{\omega _{0}}\approx{\mathrm{1{,}8}}-{\mathrm{1{,}1}}D\quad{\text{f{\"u}r}}\quad{\mathrm{0{,}3}}<D<{\mathrm{0{,}8}}\;,\end{aligned}$$
(8-26)
2.:
$$\begin{aligned}\displaystyle&\displaystyle|\varphi _{{\text{b}}}|\approx\pi-{\mathrm{2{,}23}}D\quad{\text{f{\"u}r}}\quad 0\leq D\leq{\mathrm{1{,}0}}\;,\end{aligned}$$
(8-27)
$$\begin{aligned}\displaystyle&\displaystyle{(\varphi _{\text{b}}\text{im Bogenma{\ss}})}{}\end{aligned}$$
3.:
$$\begin{aligned}\displaystyle\omega _{{\text{b}}}T_{{\text{a, 50}}}\approx{\mathrm{2{,}3}}\quad{\text{f{\"u}r}}\quad{\mathrm{0{,}3}}<D<{\mathrm{0{,}8}}\;.\end{aligned}$$
(8-28)
Bild 8-4
figure 43

Bode-Diagramm des geschlossenen Regelkreises bei Führungsverhalten

Bild 8-5
figure 44

Abhängigkeit der Kenngrößen f 1(D) bis f 6(D) von der Dämpfung D des geschlossenen Regelkreises mit PT2S-Verhalten

Kenndaten des offenen Regelkreises und deren Zusammenhang mit den Gütemaßen des geschlossenen Regelkreises im Zeitbereich

Im Folgenden wird davon ausgegangen, dass der offene Regelkreis Verzögerungsverhalten besitzt und somit ein Bode-Diagramm gemäß Bild  8-6 aufweist. Zur Beschreibung dieses Frequenzganges G 0( j ω) werden folgende Kenndaten verwendet: (a) Durchtrittsfrequenz ω D, (b) Phasenrand φ R und (c) Amplitudenrand  A R dB. Es sei wiederum angenommen, dass das dynamische Verhalten des geschlossenen Regelkreises angenähert durch ein dominierendes konjugiert komplexes Polpaar charakterisiert werden kann und somit durch (8-19) beschrieben wird. In diesem Fall folgt aus (8-19) als Übertragungsfunktion des offenen Regelkreises

$$G_{0}(s)=\frac{G_{{\text{W}}}(s)}{1-G_{{\text{W}}}(s)}=\frac{\omega^{2}_{0}}{s(s+2D\omega _{0})}\;.$$
(8-29)

Das zu (8-29) gehörende Bode-Diagramm weicht von dem in Bild  8-6 dargestellten wesentlich ab, da dieses offensichtlich keinen I-Anteil besitzt und von höherer als 2. Ordnung ist. In der Nähe der Durchtrittsfrequenz ω D weisen allerdings beide Bode-Diagramme einen ähnlichen Verlauf auf und somit lässt sich G 0( j ω) gemäß Bild 8-6 in der Nähe der Durchtrittsfrequenz ω D durch (8-29) approximieren. Damit erhält die zugehörige Führungsübertragungsfunktion G W(s) ein dominierendes konjugiert komplexes Polpaar. Um die für ein System 2. Ordnung hergeleiteten Gütespezifikationen auch auf Regelsysteme höherer Ordnung übertragen zu können, sollte man daher beim Entwurf anstreben, dass deren Betragskennlinien |G 0( j ω)| in der Nähe von ω D mit etwa 20dB/Dekade abfallen. Für (8-29) ist dies nur erfüllt, wenn ω D < ω 0 ist. Aus (8-29) erhält man mit der Bedingung |G 0( j ω D)| = 1 die Kenngröße

Bild 8-6
figure 45

Bode-Diagramm des offenen Regelkreises

$$\frac{\omega _{{\text{D}}}}{\omega _{0}}=\sqrt{\sqrt{4D^{4}+1}-2D^{2}}=f_{7}(D)\;,$$
(8-30)

aus der für ω D < ω 0 schließlich die Bedingung D > 0,42 folgt. Wählt man also als Dämpfungsgrad einen Wert D > 0,42, dann ist gewährleistet, dass die Beitragskennlinie \(|G_{{0}}|_{{\text{dB}}}\) des offenen Regelkreises in der Umgebung der Durchtrittsfrequenz ω D mit 20 dB∕Dekade abfällt. Außerdem zeigt Bild 8-7, dass für den geschlossenen Regelkreis gerade das Intervall 0,5 < D < 0,7 einen Bereich günstiger Dämpfungswerte darstellt, da hierbei sowohl die Anstiegszeit als auch die maximale Überschwingweite vom Standpunkt der Regelgüte aus akzeptable Werte annehmen. Dies bedeutet aber andererseits, dass dann auch Phasen- und Amplitudenrand φ R und A R dB günstige Werte besitzen. Die Durchtrittsfrequenz ω D stellt ein wichtiges Gütemaß für das dynamische Verhalten des geschlossenen Regelkreises dar. Je größer ω D, desto größer ist gewöhnlich die Bandbreite ω b von G W( j ω) und desto schneller ist auch die Reaktion auf Sollwertänderungen.

Bild 8-7
figure 46

Übergangsfunktion h W(t) des geschlossenen Regelkreises mit PT2S-Verhalten

Neben (8-30) lassen sich weitere wichtige Zusammenhänge zwischen den Kenndaten für das Zeitverhalten des geschlossenen Regelkreises und den Kenndaten für das Frequenzverhalten des offenen und damit teilweise auch des geschlossenen Regelkreises angeben. So folgt aus (8-30) unter Verwendung von (8-21) direkt

$$\omega _{{\text{D}}}T_{{\text{a, 50}}}=f_{2}(D)f_{7}(D)=f_{{\text{8}}}(D)\;.$$
(8-31)

Der Verlauf von f 8(D) ist im Bild 8-8 dargestellt. Es lässt sich leicht nachprüfen, dass dieser Kurvenverlauf in guter Näherung im Bereich 0  <  D < 1 durch die Näherungsformel

$$\omega _{{\text{D}}}T_{{\text{a, 50}}}\approx{\mathrm{1{,}5}}-\frac{e_{{\max}}[\text{in }\%]}{250}$$
(8-32a)

oder

$$\omega _{{\text{D}}}T_{{\text{a, 50}}}\approx{\mathrm{1{,}5}}\quad{\text{f{\"u}r}}\quad e_{{\max}}\leq{20}\%\quad\text{oder }D> {\mathrm{0{,}5}}$$
(8-32b)

beschrieben werden kann. Ein weiterer Zusammenhang ergibt sich aus der Durchtrittsfrequenz ω D fürden Phasenrand

$$\begin{aligned}\displaystyle\varphi _{{\text{R}}}={\text{arctan}}\left(2D\frac{\omega _{0}}{\omega _{{\text{D}}}}\right)={\text{arctan}}\left[2D\frac{1}{f_{7}(D)}\right]=f_{9}(D)\end{aligned}$$
(8-33)
Bild 8-8
figure 47

Abhängigkeit der Kenndaten f 7(D) bis f 9(D) von der Dämpfung D des geschlossenen Regelkreises mit PT2S-Verhalten

Bild 8-8 enthält den grafischen Verlauf dieser Funktion. Man kann hier durch Überlagerung von f 9(D) mit f 1(D) zeigen, dass im Bereich 0,3 ≤ D ≤ 0,8, also für die hauptsächlich interessierenden Werte der Dämpfung, die Näherungsformel

$$\begin{aligned}\displaystyle\varphi _{{\text{R}}}\,[{\text{in }}{{}^{\circ}}]+e_{{\max}}\,[{\text{in }}\%]\approx 70\end{aligned}$$
(8-34)

gilt.

Reglerentwurf nach dem Frequenzkennlinien-Verfahren

Ausgangspunkt dieses Verfahrens ist die Darstellung des Frequenzganges G 0( j ω) des offenen Regelkreises im Bode-Diagramm. Die zu erfüllenden Spezifikationen des geschlossenen Regelkreises werden zunächst als Kenndaten des offenen Regelkreises formuliert. Die eigentliche Syntheseaufgabe besteht dann darin, durch Wahl einer geeigneten Reglerübertragungsfunktion G R(s) den Frequenzgang des offenen Regelkreises so zu verändern, dass er die geforderten Kenndaten erfüllt. Das Verfahren läuft im Wesentlichen in folgenden Schritten ab:

  • 1. Schritt: Gewöhnlich sind bei einer Syntheseaufgabe die Kenndaten für das Zeitverhalten des geschlossenen Regelkreises, also \(e_{{\max}},T_{{\text{a, 50}}}\) und e vorgegeben. Aufgrund dieser Werte werden mithilfe von Tabelle 5-1 der Verstärkungsfaktor K 0, aus der Faustformel für ω DT a, 50 ≈ 1,5 gemäß (8-32b) die Durchtrittsfrequenz ω D und über (8-34) φ R [in °] \({\approx}\, 70-e_{{\max}}\) [in %] der Phasenrand φ R berechnet, sowie zweckmäßigerweise aus f 1(D) der Dämpfungsgrad D bestimmt.

  • 2. Schritt: Zunächst wird als Regler ein reines P-Glied gewählt, sodass der im 1. Schritt ermittelte Wert von K 0 eingehalten wird. Durch Einfügen weiterer geeigneter Reglerübertragungsglieder (oft auch als Kompensations- oder Korrekturglieder bezeichnet) verändert man G 0 so, dass man die übrigen im 1. Schritt ermittelten Werte ω D und φ R erhält, und dabei in der näheren Umgebung der Durchtrittsfrequenz ω D der Amplitudenverlauf \(|G_{0}(\,{\text{j}}\omega)|_{{\text{dB}}}\) mit etwa 20 dB/Dekade abfällt. Diese zusätzlichen Übertragungsglieder des Reglers werden meist in Reihenschaltung mit den übrigen Regelkreisgliedern angeordnet.

  • 3. Schritt: Es muss nun geprüft werden, ob das ermittelte Ergebnis tatsächlich den geforderten Spezifikationen entspricht. Dies kann entweder durch Simulation an einem Rechner direkt durch Ermittlung der Größen von e max, T  a, 50 und e erfolgen oder indirekt unter Verwendung der Formeln zur Berechnung der Amplitudenüberhöhung \(A_{{{\text{W}\,\text{max}}}}=1/(2D\sqrt{1-D^{2}})\) und der Bandbreite ω b ≈ 2,3∕T a, 50. Diese Werte werden eventuell noch überprüft, indem man anhand der Frequenzkennlinien des offenen Regelkreises die Frequenzkennlinien des geschlossenen Regelkreises berechnet. Hieraus ist ersichtlich, dass dieses Verfahren nicht zwangsläufig im ersten Durchgang bereits den geeigneten Regler liefert. Es handelt sich hierbei vielmehr um ein systematisches Probierverfahren, das gewöhnlich erst bei mehrmaligem Wiederholen zu einem befriedigenden Ergebnis führt. Zum Entwurf des Reglers reichen bei diesem Verfahren die im Kapitel 5 vorgestellten Standardreglertypen gewöhnlich nicht mehr aus. Der Regler muss – wie oben bei Schritt 2 gezeigt wurde – aus verschiedenen Einzelübertragungsgliedern synthetisiert werden. Dabei sind die in 8.3.4 behandelten beiden Übertragungsglieder, die eine Phasenanhebung bzw. eine Phasenabsenkung ermöglichen, von besonderem Interesse.

Korrekturglieder für Phase und Amplitude

Derartige Übertragungsglieder, meist als Phasenkorrekturglieder bezeichnet, werden verwendet, um in gewissen Frequenzbereichen die Phase oder Amplitude anzuheben oder abzusenken. Die Übertragungsfunktion dieser Glieder ist

$$G_{{\text{R}}}(s)=\frac{1+Ts}{1+\alpha Ts}=\frac{1+\dfrac{s}{1/T}}{1+\dfrac{s}{1/(\alpha T)}}\;.$$
(8-35)

Daraus ergibt sich für s = j ω der Frequenzgang

$$G_{{\text{R}}}(\,{\text{j}}\omega)=\frac{{1+\text{j}\displaystyle{\frac{\omega}{\omega _{Z}}}}}{1+\text{j}\displaystyle{\frac{\omega}{\omega _{{\text{N}}}}}}$$
(8-36)

mit den beiden Eckfrequenzen

$$\omega _{{\text{Z}}}=\frac{1}{T}\quad{\text{und}}\quad\omega _{{\text{N}}}=\frac{1}{\alpha T}\;.$$
(8-37a,b)

Hierbei gilt für das phasenanhebende Glied (Lead-Glied)

$$\begin{aligned}\displaystyle 0<\alpha<1\quad{\text{und}}\quad m_{{\text{h}}}=\displaystyle\frac{1}{\alpha}=\omega _{{\text{N}}}/\omega _{{\text{Z}}}> 1\;.\end{aligned}$$

und für das phasenabsenkende Glied (Lag-Glied)

$$\begin{aligned}\displaystyle\alpha> 1\quad{\text{und}}\quad m_{{\text{s}}}=\alpha=\omega _{{\text{Z}}}/\omega _{{\text{N}}}> 1\;.\end{aligned}$$

Bild 8-9 zeigt für beide Übertragungsglieder das zugehörige Bode-Diagramm. Man erkennt leicht die Symmetrieeigenschaften beider Korrekturglieder, die eine gleichartige Darstellung mit den entsprechenden Kenngrößen gemäß Tabelle 8-4 und dem Phasendiagramm nach Bild 8-10 ermöglichen. Für beide Glieder wird die untere Eckfrequenz mit ω u, die obere Eckfrequenz mit ω o bezeichnet.

Bild 8-9
figure 48

Bode-Diagramm a des phasenanhebenden und b des phasenabsenkenden Übertragungsgliedes

Tab. 8-4 Gemeinsame Darstellung des phasenanhebenden und phasenabsenkenden Gliedes

Reglerentwurf mit dem Wurzelortskurvenverfahren

Bild 8-10
figure 49

Phasendiagramm für Phasenkorrekturglieder

Der Reglerentwurf mithilfe des Wurzelortskurvenverfahrens schließt unmittelbar an die Überlegungen in 8.3.1 an. Dort wurden die Forderungen an die Überschwingweite, die Anstiegszeit und die Ausregelzeit für den geschlossenen Regelkreis mit einem dominierenden Polpaar in Bedingungen für den Dämpfungsgrad D und die Eigenfrequenz ω 0 der zugehörigen Übertragungsfunktion G W(s) umgesetzt.Mit D und ω 0 liegen aber unmittelbar die Pole der Übertragungsfunktion G W(s) fest. Es muss nun eine Übertragungsfunktion G 0(s) des offenen Regelkreises so bestimmt werden, dass der geschlossene Regelkreis ein dominierendes Polpaar an der gewünschten Stelle erhält, die durch die Werte ω 0 und D vorgegeben ist. Einen solchen Ansatz bezeichnet man auch als Polvorgabe. Mit dem Wurzelortskurvenverfahren besitzt man ein grafisches Verfahren, mit dem eine Aussage über die Lage der Pole des geschlossenen Regelkreises gemacht werden kann. Es bietet sich an, das gewünschte dominierende Polpaar zusammen mit der Wurzelortskurve (WOK) des fest vorgegebenen Teils des Regelkreises in die komplexe s-Ebene einzuzeichnen und durch Hinzufügen von Pol- und Nullstellen des Reglers im offenen Regelkreis die WOK so zu verformen, dass zwei ihrer Äste bei einer bestimmten Verstärkung K 0 das gewünschte dominierende, konjugiert komplexe Polpaar schneiden. Bild  8-11 zeigt, wie man prinzipiell durch Hinzufügen eines Pols die WOK nach rechts und durch Hinzufügen einer Nullstelle die WOK nach links verformen kann.

Bild 8-11
figure 50

Verbiegen der Wurzelortskurve a nach rechts durch Hinzufügen eines zusätzlichen Pols, b nach links durch eine zusätzliche Nullstelle im offenen Regelkreis

Analytische Entwurfsverfahren

Vorgabe des Verhaltens des geschlossenen Regelkreises

Die gewünschte Führungsübertragungsfunktion \(G_{{\text{W}}}(s)\mathop{=}\limits^{{!}}K_{{\text{W}}}(s)\) des Regelkreises wird im einfachsten Falle durch

$$K_{{\text{W}}}(s)=\frac{\beta _{0}}{\beta _{0}+\beta _{1}s+\ldots+\beta _{u}s^{u}}$$
(8-38)

festgelegt. Für einen derartigen Regelkreis existieren verschiedene Möglichkeiten, sogenannte Standardformen, um die Übergangsfunktion h W(t) sowie die Polverteilung von K W(s) bzw. die Koeffizienten des Nennerpolynoms β(s) aus tabellarischen Darstellungen zu entnehmen [5]. Eine dieser Standardformen ist z. B. gegeben durch

$$K_{{\text{W}}}(s)=\frac{5^{k}(1+{\varkappa}^{2})\omega^{{k+2}}_{0}}{(s+\omega _{0}+{\text{j}}{\varkappa}\omega _{0})(s+\omega _{0}-{\text{j}}{\varkappa}\omega _{0})(s+5\omega _{{0}})^{{k}}}\;,$$
(8-39)

also durch einen reellen k-fachen Pol (k = u − 2) und ein komplexes Polpaar. Tabelle 8-5 enthält für verschiedene Werte von k und ϰ die zeitnormierten Übergangsfunktionen h W(ω 0t). Durch geeignete Wahl von k, ϰ und ω 0 lässt sich für zahlreiche Anwendungsfälle meist eine Führungsübertragungsfunktion finden, die die gewünschten Gütemaße im Zeitbereich erfüllt.

Tab. 8-5 Übertragungsverhalten bei Vorgabe eines komplexen Polpaares und eines reellen k-fachen Pols für (8-39)

Das Verfahren nach Truxal-Guillemin [6]

Bei dem im Bild 8-12 dargestellten Regelkreis sei das Verhalten der Regelstrecke durch die gebrochen rationale Übertragungsfunktion

$$G_{{\text{S}}}(s)=\frac{d_{0}+d_{1}s+d_{2}s^{2}+\ldots+d_{m}s^{m}}{c_{0}+c_{1}s+c_{2}s^{2}+\ldots+c_{n}s^{n}}=\frac{D(s)}{C(s)}$$
(8-40)

gegeben. Dabei sollen das Zähler- und Nennerpolynom D(s) und C(s) keine gemeinsamen Wurzeln besitzen; weiterhin sei G S(s) auf c n  = 1 normiert, und es gelte m < n. Zunächst wird angenommen, dass G S(s) stabil sei und minimales Phasenverhalten besitze. Für den zu entwerfenden Regler wird die Übertragungsfunktion

Bild 8-12
figure 51

Blockschaltbild des zu entwerfenden Regelkreises

$$G_{{\text{R}}}(s)=\frac{b_{0}+b_{1}s+b_{2}s^{2}+\ldots+b_{w}s^{w}}{a_{0}+a_{1}s+a_{2}a^{2}+\ldots+a_{z}s^{z}}=\frac{B(s)}{A(s)}$$
(8-41)

angesetzt und ebenfalls normiert mit a z = 1. Aus Gründen der Realisierbarkeit des Reglers muss w ≤ z gelten. Der Regler soll nun so entworfen werden, dass sich der geschlossene Regelkreis entsprechend einer gewünschten, vorgegebenen Führungsübertragungsfunktion

$$K_{{\text{W}}}(s)=\frac{\alpha _{0}+\alpha _{1}s+\ldots+\alpha _{v}s^{v}}{\beta _{0}+\beta _{1}s+\ldots+\beta _{u}s^{u}}=\frac{\alpha(s)}{\beta(s)}\quad u> v$$
(8-42)

verhält, wobei K W(s) unter der Bedingung der Realisierbarkeit des Reglers frei wählbar sein soll. Aus der Führungsübertragungsfunktion des geschlossenen Regelkreises,

$$G_{{\text{W}}}(s)=\frac{G_{{\text{R}}}(s)G_{{\text{S}}}(s)}{1+G_{{\text{R}}}(s)G_{{\text{S}}}(s)}\mathop{=}\limits^{{!}}K_{{\text{W}}}(s)\;,$$
(8-43)

erhält man die Reglerübertragungsfunktion

$$G_{{\text{R}}}(s)=\frac{1}{G_{{{\text{S}}}}(s)}\cdot\frac{K_{{\text{W}}}(s)}{1-K_{{\text{W}}}(s)}$$
(8-44)

oder mit den oben angegebenen Zähler- und Nennerpolynomen

$$G_{{\text{R}}}(s)=\frac{B(s)}{A(s)}=\frac{C(s)\alpha(s)}{D(s)[\beta(s)-\alpha(s)]}\;.$$
(8-45)

Die Realisierbarkeitsbedingung für den Regler

$$\begin{aligned}\displaystyle{\text{Grad}}\, B(s)=w=n+v\leq\,{\text{Grad}}\, A(s)=z=u+m\end{aligned}$$

liefert somit

$$u-v\geq n-m\;.$$
(8-46)

Der Polüberschuss (u − v) der gewünschten Übertragungsfunktion K W(s) für das Führungsverhalten des geschlossenen Regelkreises muss also größer oder gleich dem Polüberschuss (n − m) der Regelstrecke sein. Im Rahmen dieser Forderung ist die Ordnung von K W(s) zunächst frei wählbar. Nach (8-44) enthält der Regler die reziproke Übertragungsfunktion 1∕G S(s) der Regelstrecke; es liegt hier also eine vollständige Kompensation der Regelstrecke vor. Dies lässt sich auch in einem Blockschaltbild veranschaulichen, wenn man in (8-44) K W(s) explizit als „Modell“ einführt (Bild 8-13). Bei der physikalischen Realisierung des Reglers G R(s) ist natürlich von (8-45) auszugehen, da eine direkte Realisierung von 1∕G S(s) nicht möglich ist. Dieses Verfahren ist in erweiterter Form auch für minimalphasige und instabile Regelstrecken anwendbar [5].

Bild 8-13
figure 52

Kompensation der Regelstrecke

Algebraisches Entwurfsverfahren

Bei diesem Verfahren soll entsprechend Bild 8-12 für eine durch (8-40) beschriebene Regelstrecke ein Regler gemäß (8-41) so entworfen werden, dass der geschlossene Regelkreis sich nach einer gewünschten, vorgegebenen Führungsübertragungsfunktion, (8-42), verhält. Dabei wird die Ordnung von Zähler- und Nennerpolynom der Reglerübertragungsfunktion gleich groß gewählt (w = z). Die Pole des geschlossenen Regelkreises sind die Wurzeln der charakteristischen Gleichung, die man aus 1 + G R(s) G S(s) = 0 unter Berücksichtigung der in (8-40) und (8-41) definierten Polynome zu

$$\beta(s)=A(s)C(s)+B(s)D(s)=0$$
(8-47)

erhält. Daraus folgt mit (8-42)

$$\beta(s)=\beta _{0}+\beta _{1}s+\ldots+\beta _{u}s^{u}=\beta _{u}\prod^{u}_{{i=1}}(s-s_{i})=0\;.$$
(8-48)

Dieses Polynom besitzt die Ordnung u = z + n; seine Koeffizienten hängen von den Parametern der Regelstrecke und des Reglers ab und sind lineare Funktionen der gesuchten Reglerparameter. Andererseits ergeben sich die Koeffizienten β i unmittelbar aus den vorgegebenen Polen s i des geschlossenen Regelkreises. Der Koeffizientenvergleich von (8-47) und (8-48) liefert die eigentlichen Synthesegleichungen, nämlich ein lineares Gleichungssystem für die 2 z + 1 unbekannten Reglerkoeffizienten a 0, a 1, …, a z − 1, b 0, b 1, …, b z:

$$\begin{aligned}\displaystyle\beta _{i}=&\displaystyle\, b_{0}d_{i}+b_{1}d_{{i-1}}+\ldots+b_{{w}}d_{{i-w}}\\ \displaystyle&\displaystyle+a_{0}c_{i}+a_{1}c_{{i-1}}+\ldots+a_{z}c_{{i-z}}\;,\end{aligned}$$
(8-49)

wobei d k  = 0 für k < 0 und k > m, c k  = 0 für k < 0 und k > n sowie w = z nach Voraussetzung gilt. Die Zahl der Gleichungen ist u = z + n. Daraus ergibt sich als Bedingung für die eindeutige Auflösbarkeit die Ordnung des Reglers zu z = n − 1.

Für Regelstrecken mit integralem Verhalten genügt die Reglerordnung z = n − 1; bei Regelstrecken mit proportionalem Verhalten, oder wenn Störgrößen am Eingang integraler Regelstrecken berücksichtigt werden müssen, sollte die Verstärkung des Reglers beeinflussbar sein. Dies geschieht dadurch, dass man die Reglerordnung um 1 erhöht, d. h. z = n setzt, sodass das Gleichungssystem unterbestimmt wird. Der so erzielte zusätzliche Freiheitsgrad erlaubt nun eine freie Wahl der Reglerverstärkung K R, die zweckmäßig als reziproker Verstärkungsfaktor eingeführt wird:

$$1/K_{{\text{R}}}=c_{{\text{R}}}=a_{0}/b_{0}\;.$$
(8-50)

Allerdings erhöht sich damit auch die Ordnung des geschlossenen Regelkreises; sie ist jetzt doppelt so groß wie die Ordnung der Regelstrecke.

  • a) Berücksichtigung der Nullstellen des geschlossenen Regelkreises

    Bei dem oben beschriebenen Vorgehen ergeben sich die Nullstellen der Führungsübertragungsfunktion

    $$K_{{\text{W}}}(s)\mathop{=}\limits^{!}G_{{\text{W}}}(s)=\frac{B(s)D(s)}{A(s)C(s)+B(s)D(s)}$$
    (8-51)

    von selbst. Zwar können die Nullstellen der Regelstrecke, also die Wurzeln von D(s), bei der Wahl der Polverteilung berücksichtigt und eventuell kompensiert werden, das Polynom B(s) entsteht aber erst beim Reglerentwurf und muss nachträglich beachtet werden. Dies geschieht am einfachsten dadurch, dass man vor den geschlossenen Regelkreis, also in die Wirkungslinie der Führungsgröße, entsprechend Bild  8-14a ein Korrekturglied (Vorfilter) mit der Übertragungsfunktion

    $$G_{{\text{K}}}(s)=c_{{\text{K}}}/B_{{\text{K}}}(s)$$
    (8-52)

    schaltet, mit dem sich die Nullstellen des Reglers und der Regelstrecke kompensieren lassen. Dies lässt sich aus Stabilitätsgründen allerdings nur für Nullstellen durchführen, deren Realteil negativ ist. Bezeichnet man die Teilpolynome von B(s) und D(s), deren Wurzeln in der linken s-Halbebene liegen als B +(s) und D +(s) sowie die Teilpolynome, deren Wurzeln in der rechten s-Halbebene bzw. auf der imaginären Achse liegen entsprechend als B (s) und D (s), so lassen sich die Zählerpolynome B(s) und D(s) wie folgt aufspalten:

    $$\begin{aligned}\displaystyle B(s)=B^{-}(s)B^{+}(s)\quad{\text{und}}\quad D(s)=D^{-}(s)D^{+}(s)\;.\end{aligned}$$

    Für den Fall, dass B(s) und C(s) sowie A(s) und D(s) teilerfremd sind, also im geschlossenen Regelkreis der Regler weder Pol- noch Nullstellen der Regelstrecke kompensiert, lässt sich das Nennerpolynom der Übertragungsfunktion des Korrekturgliedes wie folgt bestimmen:

    $$B_{{\text{K}}}(s)=B^{+}(s)D^{+}(s)\;.$$
    (8-53)

    Damit erhält man als Führungsübertragungsfunktion

    $$G_{{\text{W}}}(s)=\frac{c_{{\text{K}}}B^{-}(s)D^{-}(s)}{A(s)C(s)+B(s)D(s)}\;.$$
    (8-54)

    Wenn sowohl der Regler als auch die Regelstrecke minimalphasiges Verhalten und deren Übertragungsfunktionen keine Nullstellen auf der imaginären Achse aufweisen, lassen sich sämtliche Nullstellen des geschlossenen Regelkreises kompensieren, sodass man anstelle von (8-54) die Beziehung

    $$G_{{\text{W}}}(s)=\frac{c_{{\text{K}}}}{A(s)C(s)+B(s)D(s)}\;.$$
    (8-55)

    erhält. Soll der geschlossene Regelkreis auch vorgegebene Nullstellen enthalten, so ist in der Übertragungsfunktion G K(s) des Korrekturgliedes ein entsprechendes Zählerpolynom vorzusehen. Der Zählerkoeffizient c K des Korrekturgliedes dient dazu, den Verstärkungsfaktor K W der Führungsübertragungsfunktion G W(s) gleich 1 zu machen. Dies erreicht man mit

    $$c_{{\text{K}}}=\beta _{0}/(b_{0}^{-}d^{-}_{0})\;.$$
    (8-56)

    Im Falle eines Reglers mit I-Anteil wird a 0 = 0 und c R = 0. Dann folgt direkt

    $$c_{{\text{K}}}=b^{+}_{0}d^{+}_{0}\;.$$
    (8-57)

    Wird der Regler gemäß Bild 8-14b in den Rückkopplungszweig des Regelkreises geschaltet, so ändert das am Eigenverhalten des so entstandenen Systems gegenüber dem der Konfiguration nach Bild 8-14a nichts. Allerdings erscheinen nun nicht mehr die Nullstellen der Übertragungsfunktion des Reglers, sondern deren Polstellen als Nullstellen in der Übertragungsfunktion des geschlossenen Regelkreises. Es gelten jetzt analoge Überlegungen bei der Bestimmung des Nennerpolynoms in der Übertragungsfunktion des Korrekturgliedes

    $$A_{{\text{K}}}(s)=A^{+}(s)D^{+}(s)\;.$$
    (8-58)

    Als Führungsübertragungsfunktion erhält man

    $$G_{{\text{W}}}(s)=\frac{c_{{\text{K}}}A^{-}(s)D^{-}(s)}{A(s)C(s)+B(s)D(s)}\;,$$
    (8-59)

    wobei für einen proportional wirkenden Regler

    $$c_{{\text{K}}}(s)=\beta _{0}/\left(a^{-}_{0}d_{0}^{-}\right)$$
    (8-60)

    gilt. Es sei darauf hingewiesen, dass für einen integrierenden Regler im Rückkopplungszweig keine Führungsregelung realisierbar ist.

  • b) Lösung der Synthesegleichungen

    Das durch (8-49) beschriebene Gleichungssystem kann leicht in Matrixschreibweise dargestellt werden. Dabei werden die gesuchten Reglerparameter in einem Parametervektor zusammengefasst. Für integrale Regelstrecken (c 0 = 0) mit der Reglerordnung z = n − 1 und Normierung c n  = 1 lautet damit das Synthese-Gleichungssystem:

    $$\begin{aligned}\displaystyle\left[\begin{array}[]{lllllclllll}d_{0}&&&&&|&0\\ d_{1}&d_{0}&&\textbf{0}&&|&c_{1}&0&&\textbf{0}\\ d_{2}&d_{1}&d_{0}&&&|&c_{2}&c_{1}&0\\ \vdots&\vdots\,\ddots&\ddots&&&|&\vdots&\vdots&\ddots&\ddots\\ &&&&&|&c_{{n-2}}&c_{{n-3}}&\ldots&c_{1}&0\\ d_{{n-1}}&d_{{n-2}}&&d_{1}&d_{0}&|&c_{{n-1}}&c_{{n-2}}&\ldots&c_{2}&c_{1}\\ \multicolumn{11}{l}{\text{-- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- --}}\\ 0&d_{{n-1}}&d_{{n-2}}&\ldots&d_{1}&|&1&c_{{n-1}}&c_{{n-2}}&\ldots&c_{2}\\ &&d_{{n-1}}&\ldots&d_{2}&|&&1&c_{{n-1}}&\ldots&c_{3}\\ &&&&&|&&&\ddots&\ddots&\vdots\\ &\textbf{0}&&\ddots&\vdots&|&&\textbf{0}&&&c_{{n-1}}\\ &&&&d_{{n-1}}&|&&&&&1\end{array}\right]\left[\begin{array}[]{l}b_{0}\\ b_{1}\\ b_{2}\\ \vdots\\ b_{{n-2}}\\ b_{{n-1}}\\ \text{-- --}\\ a_{{0}}\\ a_{{1}}\\ \vdots\\ a_{{n-3}}\\ a_{{n-2}}\\ \end{array}\right]=\left[\begin{array}[]{l}\beta _{0}\\ \beta _{1}\\ \beta _{2}\\ \vdots\\ \beta _{{n-2}}\\ \beta _{{n-1}}\\ \text{-- --}\\ \beta _{{n}}\\ \beta _{{n+1}}\\ \vdots\\ \beta _{{2n-3}}\\ \beta _{{2n-2}}\\ \end{array}\right]-\left[\begin{array}[]{l}0\\ 0\\ 0\\ \vdots\\ 0\\ 0\\ \text{-- --}\\ c_{{1}}\\ c_{{2}}\\ \vdots\\ c_{{n-2}}\\ c_{{n-1}}\\ \end{array}\right]\end{aligned}$$
    (8-61a)

    und

    $$\begin{aligned}\displaystyle a_{{n-1}}=\beta _{u}\;.\end{aligned}$$
    (8-61b)

    Für Regelstrecken mit proportionalem Verhalten oder bei Störungen am Eingang integraler Regelstrecken, bei der man die Reglerordnung auf z = n erhöht, erhält man mit den Beziehungen

    $$\begin{aligned}\displaystyle a_{0}=c_{{\text{R}}}b_{0}\quad{\text{und}}\quad b_{0}=\beta _{0}/(d_{0}+c_{{\text{R}}}c_{0})\end{aligned}$$

    das Synthese-Gleichungssystem

    $$\begin{aligned}\displaystyle&\displaystyle\left[\begin{array}[]{lllllclllll}d_{0}&&&&&|&c_{0}\\ d_{1}&d_{0}&&\textbf{0}&&|&c_{1}&c_{0}&&\textbf{0}\\ d_{2}&d_{1}&d_{0}&&&|&c_{2}&c_{1}&c_{0}\\ \vdots&\quad\ddots&\ \ddots&&&|&\vdots&&&\ddots\\ &&&&&|&&&&&c_{{0}}\\ d_{{n-1}}&d_{{n-2}}&\ldots&d_{1}&d_{0}&|&c_{{n-1}}&c_{{n-2}}&&\ldots&c_{1}\\ \multicolumn{11}{l}{\text{-- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- -- --}}\\ 0&d_{{n-1}}&d_{{n-2}}&\ldots&d_{1}&|&1&c_{{n-1}}&&\ldots&c_{2}\\ &&&&&|&&1\\ &&\ddots&&\vdots&|&&\quad\ddots&\ddots&&\vdots\\ &\textbf{0}&&&&|&&\textbf{0}&&&c_{{n-1}}\\ &&&&d_{{n-1}}&|&&&&&1\end{array}\right]\left[\begin{array}[]{l}b_{1}\\ b_{2}\\ b_{3}\\ \vdots\\ b_{{n}}\\ \text{-- --}\\ a_{{1}}\\ a_{{2}}\\ \vdots\\ a_{{n-1}}\\ \end{array}\right]=\left[\begin{array}[]{l}\beta _{1}\\ \beta _{2}\\ \beta _{3}\\ \vdots\\ \beta _{{n}}\\ \text{-- -- -- }\\ \beta _{{n+1}}\\ \\ \vdots\\ \beta _{{2n-1}}\\ \end{array}\right]-b_{0}\left[\begin{array}[]{c}d_{1}+c_{{\text{R}}}c_{1}\\ d_{2}+c_{{\text{R}}}c_{2}\\ \vdots\\ d_{{n-1}}+c_{{\text{R}}}c_{{n-1}}\\ c_{{\text{R}}}\\ \text{-- -- -- -- -- -- --}\\ 0\\ \vdots\\ 0\\ \end{array}\right]\begin{array}[]{l}-\end{array}\left[\begin{array}[]{l}0\\ 0\\ \vdots\\ 0\\ c_{{0}}\\ \text{-- --}\\ c_{{1}}\\ \vdots\\ c_{{n-1}}\\ \end{array}\right]\end{aligned}$$
    (8-62a)

    und

    $$\begin{aligned}\displaystyle a_{n}=\beta _{u}\;.\end{aligned}$$
    (8-62b)

    Die Matrizen jeweils der linken Seiten von (8-61a) und (8-62a) sind regulär. Damit sind die Synthesegleichungen eindeutig lösbar. Die Lösung kann bei Systemen niedriger Ordnung noch von Hand durchgeführt werden, zweckmäßigerweise wird aber die numerische Progammiersprache MATLAB hierzu verwendet.

Bild 8-14
figure 53

Kompensation der Reglernullstellen a mit Regler im Vorwärtszweig und b mit Regler im Rückkopplungszweig

Nichtlineare Regelsysteme

Allgemeine Eigenschaften nichtlinearer Regelsysteme

Die Einteilung nichtlinearer Übertragungssysteme erfolgt entweder nach mathematischen Gesichtspunkten (Form der das Regelsystem beschreibenden Differenzialgleichung) oder nach den wichtigsten nichtlinearen Eigenschaften, die insbesondere bei technischen Systemen auftreten. Hierzu zählen die stetigen und nichtstetigen nichtlinearen Systemkennlinien, die in Tabelle 9-1 zusammengestellt sind. Dabei unterscheidet man zwischen eindeutigen Kennlinien (z. B. die Fälle 1 bis 4) und doppeldeutigen Kennlinien (z. B. die Fälle 5 bis 7). Die Kennlinien können symmetrisch oder unsymmetrisch zur x e-Achse sein. Oftmals empfiehlt sich auch eine Unterteilung in ungewollte und gewollte Nichtlinearitäten. Zur Behandlung nichtlinearer Regelkreise, insbesondere

zur Stabilitätsanalyse eignen sich – in Anbetracht des Fehlens einer allgemeinen Theorie – folgende spezielle Methoden:

  • a) Methode der harmonischen Linearisierung,

  • b) Methode der Phasenebene,

  • c) Zweite Methode von Ljapunow sowie das

  • d) Stabilitätskriterium von Popov.

Im Übrigen wird man oft bei der Analyse und Synthese nichtlinearer Systeme direkt von der Darstellung im Zeitbereich ausgehen, d. h., man muss versuchen, die Differenzialgleichungen zu lösen. Hierbei ist die Simulation, z. B. mittels Simulink einer blockorientiertnen grafischen Erweiterung der numerischen Programmiersprache MATLAB ein wichtiges Hilfsmittel.

Regelkreis mit Zwei- und Dreipunktreglern

Während bei einem stetig arbeitenden Regler die Reglerausgangsgröße im zulässigen Bereich jeden beliebigen Wert annehmen kann, stellt sich bei Zwei- oder Dreipunktreglern gemäß Bild 9-1 die Reglerausgangsgröße jeweils nur auf zwei oder drei bestimmte Werte (Schaltzustände) ein. Bei einem Zweipunktregler können dies z. B. die beiden Stellungen „Ein“ und „Aus“ eines Schalters sein, bei einem Dreipunktregler z. B. die drei Schaltzustände „Vorwärts“, „Rückwärts“ und „Ruhestellung“ zur Ansteuerung eines Stellgliedes in Form eines Motors. Somit werden diese Regler durch einfache Schaltglieder realisiert, deren Kennlinien in Tabelle  9-1 enthalten sind. Zweipunktregler werden häufig bei einfachen Temperatur- oder Druckregelungen (z. B. Bügeleisen, Pressluftkompressoren u. a.) verwendet. Dreipunktregler eignen sich hingegen zur Ansteuerung von Motoren, die als Stellantriebe in zahlreichen Regelkreisen eingesetzt werden. Ein typisches Kennzeichen der Arbeitsweise dieser Regler, insbesondere der Zweipunktregler, ist, dass sie bei Erreichen des Sollwertes kleine periodische Schwingungen (auch Arbeitsbewegung genannt) um diesen herum ausführen. Damit diese stabile Arbeitsbewegung zustande kommt und keine zu hohe Schalthäufigkeit auftritt, dürfen reine Zweipunktregler entweder nur mit totzeitbehafteten Regelstrecken zusammengeschaltet werden, oder aber das Zweipunktverhalten muss durch eine möglichst einstellbare Hysteresekennlinie erweitert werden.

Bild 9-1
figure 54

Regelkreis mit Zwei- oder Dreipunktregler

Tab. 9-1 Zusammenstellung der wichtigsten nichtlinearen Regelkreisglieder

Regelkreise mit einem Zwei- oder Dreipunktregler werden auch als Relaissysteme bezeichnet. Gemäß Bild 9-2 können diese Reglertypen zusätzlich auch durch eine innere Rückführung mit einem einstellbaren Zeitverhalten versehen werden. Das Rückführnetzwerk ist dabei linear. Die so entstehenden Regler weisen annähernd das Verhalten linearer Regler mit PI-, PD- und PID-Verhalten auf. Daher werden sie oft als quasistetige Regler bezeichnet. Diese Reglertypen besitzen näherungsweise folgende Übertragungsfunktionen [1]:

a):

Zweipunktregler mit verzögerter Rückführung (PD-Verhalten): Nach Bild 9-2a gilt

$$G_{{\text{R}}}(s)\approx\frac{1}{K_{{\text{R}}}}(1+T_{{\text{r}}}s)\;.$$
(9-1)
b):

Zweipunktregler mit verzögert-nachgebender Rückführung (PID-Verhalten): Nach Bild 9-2b gilt

$$G_{{\text{R}}}(s)\approx\frac{T_{{{\text{r1}}}}+T_{{{\text{r2}}}}}{K_{{\text{R}}}T_{{{\text{r1}}}}}\,\cdot\,\left[1+\frac{1}{(T_{{\text{r1}}}+T_{{\text{r2}}}){{s}}}+\frac{T_{{\text{r1}}}T_{{\text{r2}}}}{T_{{\text{r1}}}+T_{{\text{r2}}}}{{s}}\right]\,\!.$$
(9-2)
c):

Dreipunktregler mit verzögerter Rückführung und nachgeschaltetem integralem Stellglied (PI-Verhalten): Nach Bild  9-2c gilt

$$G_{{\text{R}}}(s)\approx\frac{1}{G_{{\text{r}}}(s)}G_{{\text{m}}}(s)=\frac{T_{{\text{r}}}}{K_{{\text{r}}}T_{{\text{m}}}}\left(1+\frac{1}{T_{{\text{r}}}s}\right)\;.$$
(9-3)
Bild 9-2
figure 55

Die wichtigsten Zwei- und Dreipunktregler mit interner Rückführung

Analyse nichtlinearer Regelsysteme mithilfe der Beschreibungsfunktion

Definition der Beschreibungsfunktion

Nichtlineare Systeme sind unter anderem wesentlich dadurch gekennzeichnet, dass ihr Stabilitätsverhalten – im Gegensatz zu dem linearer Systeme – von den Anfangsbedingungen bzw. von der Erregung abhängig ist. Es gibt gewöhnlich stabile und instabile Zustände eines nichtlinearen Systems. Dazwischen existieren bestimmte stationäre Dauerschwingungen oder Eigenschwingungen, die man als Grenzschwingungen bezeichnet, weil unmittelbar benachbarte Einschwingvorgänge für t → ∞ von denselben entweder weglaufen oder auf sie zustreben. Diese Grenzschwingungen können stabil, instabil oder semistabil sein. Zum Beispiel stellt die ,,Arbeitsbewegung“ von Zwei- und Dreipunktreglern eine stabile Grenzschwingung dar. Das Verfahren der harmonischen Linearisierung, oft auch als Verfahren der harmonischen Balance bezeichnet, dient nun dazu, bei nichtlinearen Regelkreisen zu klären, ob solche Grenzschwingungen auftreten können, welche Frequenz und Amplitude sie haben und ob sie stabil oder instabil sind. Es handelt sich – dies sei ausdrücklich betont – um ein Näherungsverfahren zur Untersuchung des Eigenverhaltens nichtlinearer Regelkreise.

Bei diesem Verfahren wird für das nichtlineare Regelkreiselement die Beschreibungsfunktion als eine Art „Ersatzfrequenzgang“ eingeführt. Erregt man ein nichtlineares Übertragungsglied mit ursprungssymmetrischer Kennlinie am Eingang sinusförmig, so ist das Ausgangssignal eine periodische Funktion mit derselben Frequenz, jedoch keine Sinusschwingung. Bezieht man die Grundschwingung des Ausgangssignals x a(t) – wie bei der Bildung des Frequenzganges – auf das sinusförmige Eingangssignal \(x_{{\text{e}}}(t)=\hat{x}_{{\text{e}}}\sin\omega t\), so erhält man die Beschreibungsfunktion \(N(\hat{x}_{{\text{e}}},\omega)\). In der komplexen Ebene ist die Beschreibungsfunktion als eine Schar von Ortskurven mit \(\hat{x}_{{\text{e}}}\) und ω als Parameter darstellbar. Betrachtet man jedoch nur statische Nichtlinearitäten, so ist deren Beschreibungsfunktion frequenzunabhängig und durch eine Ortskurve \(N(\hat{x}_{{\text{e}}})\) darstellbar. Die Beschreibungsfunktionen sind für zahlreiche einfache Kennlinien tabelliert [2].

Stabilitätsuntersuchung mittels der Beschreibungsfunktion

Die Methode der harmonischen Linearisierung stellt ein Näherungsverfahren zur Untersuchung von Frequenz und Amplitude der Dauerschwingungen in nichtlinearen Regelkreisen dar, die ein nichtlineares Übertragungsglied enthalten bzw. auf eine solche Struktur zurückgeführt werden können. Geht man davon aus, dass die linearen Übertragungsglieder – bedingt durch die meist vorhandene Tiefpasseigenschaft – die durch das nichtlineare Glied bedingten Oberwellen der Stellgröße u unterdrücken, dann kann – ähnlich wie für lineare Regelkreise – eine „charakteristische Gleichung“

$$N(\hat{x}_{{\text{e}}})G(\,{\text{j}}\omega)+1=0\;,$$
(9-4)

auch Gleichung der harmonischen Balance genannt, aufgestellt werden. Diese Gleichung beschreibt die Bedingung für Dauerschwingungen oder Eigenschwingungen. Jedes Wertepaar \(\hat{x}_{{\text{e}}}=x_{{\text{G}}}\) und ω = ω G das (9-4) erfüllt, beschreibt eine Grenzschwingung des geschlossenen Kreises mit der Frequenz ω G und der Amplitude x G. Die Bestimmung solcher Wertepaare (x G, ω G) aus dieser Gleichung kann analytisch oder grafisch erfolgen. Bei der grafischen Lösung benutzt man das Zweiortskurvenverfahren, wobei ( 9-4) auf die Form

$$N(\hat{x}_{{\text{e}}})=-\frac{1}{G(\,{\text{j}}\omega)}$$
(9-5)

gebracht wird. In der komplexen Ebene stellt man nun die beiden Ortskurven \(N(\hat{x}_{{\text{e}}})\) und −1∕G( j ω) dar. Durch deren Schnittpunkt ist die Grenzschwingung gegeben. Die Frequenz ω G der Grenzschwingung wird an der Ortskurve des linearen Systemteils, die Amplitude x G an der Ortskurve der Beschreibungsfunktion abgelesen. Besitzen beide Ortskurven keinen gemeinsamen Schnittpunkt, so gibt es keine Lösung von (9-4) und es existiert keine Grenzschwingung des Systems. Allerdings gibt es aufgrund methodischer Fehler des hier betrachteten Näherungsverfahrens Fälle, in denen das Nichtvorhandensein von Schnittpunkten beider Ortskurven sogar zu qualitativ falschen Resultaten führt [2].

Ein Schnittpunkt der beiden Ortskurven stellt gewöhnlich eine stabile Grenzschwingung dar, wenn mit wachsendem \(\hat{x}_{{\text{e}}}\) der Betrag der Beschreibungsfunktion abnimmt. Eine instabile Grenzschwingung ergibt sich, wenn \(|N(\hat{x}_{{\text{e}}})|\) mit \(\hat{x}_{{\text{e}}}\) zunimmt. Diese Regel gilt nicht generell, ist jedoch in den meisten praktischen Fällen anwendbar. Sie gilt insbesondere bei mehreren Schnittpunkten (mit verschiedenen ω-Werten) nur für denjenigen mit dem kleinsten ω-Wert.

Analyse nichtlinearer Regelsysteme in der Phasenebene

Die Analyse nichtlinearer Regelsysteme im Frequenzbereich ist, wie oben gezeigt wurde, nur mit mehr oder weniger groben Näherungen möglich. Um exakt zu arbeiten, muss man im Zeitbereich bleiben, also die Differenzialgleichungen des Systems unmittelbar benutzen. Hierbei eignet sich besonders die Beschreibung in der Phasen- oder Zustandsebene als zweidimensionalem Sonderfall des Zustandsraumes [3].

Zustandskurven

Es sei ein System betrachtet, das durch die gewöhnliche Differenzialgleichung 2. Ordnung

$$\ddot{y}-f(\, y,\dot{y},u)=0$$
(9-6)

beschrieben wird, wobei \(f(y,\dot{y},u)\) eine lineare oder nichtlineare Funktion sei. Durch die Substitution x 1 ≡ y und \(x_{2}\equiv\dot{y}\) führt man (9-6) in ein System zweier simultaner Differenzialgleichungen 1. Ordnung

$$\left.\begin{array}[]{l}\dot{x}_{1}=x_{2}\\ \dot{x}_{2}=f(x_{1},x_{2},u)\end{array}\right\}$$
(9-7)

über. Die beiden Größen x 1 und x 2 beschreiben den Zustand des Systems in jedem Zeitpunkt vollständig. Trägt man in einem rechtwinkligen Koordinatensystem x 2 als Ordinate über x 1 als Abszisse auf, so stellt jede Lösung y(t) der Systemgleichung (9-6) eine Kurve in dieser Zustands- oder Phasenebene dar, die der Zustandspunkt (x 1, x 2) mit einer bestimmten Geschwindigkeit durchläuft (Bild 9-3a). Man bezeichnet diese Kurve als Zustandskurve, Phasenbahn oder auch als Trajektorie. Wichtig ist, dass zu jedem Punkt der Zustandsebene bei gegebenem u(t) eine eindeutige Trajektorie gehört. Insbesondere für u(t) = 0 beschreiben die Trajektorien das Eigenverhalten des Systems. Zeichnet man von verschiedenen Anfangsbedingungen (x 10, x 20) aus die Phasenbahnen, so erhält man eine Kurvenschar, das Phasenporträt (Bild 9-3b). Damit ist zwar der entsprechende Zeitverlauf von y(t) nicht explizit bekannt, er lässt sich jedoch leicht aus (9-7) berechnen. Allgemein besitzen Zustandskurven folgende Eigenschaften [2]:

1.:

Jede Trajektorie verläuft in der oberen Hälfte der Phasenebene (x 2 > 0) von links nach rechts und in der unteren Hälfte der Phasenebene (x 2 < 0) von rechts nach links.

2.:

Trajektorien schneiden die x 1-Achse gewöhnlich senkrecht. Erfolgt der Schnitt der Trajektorien mit der x 1-Achse nicht senkrecht, dann liegt ein singulärer Punkt vor.

3.:

Die Gleichgewichtslagen eines dynamischen Systems werden stets durch singuläre Punkte gebildet. Diese müssen auf der x 1-Achse liegen, da sonst keine Ruhelage möglich ist. Dabei unterscheidet man verschiedene singuläre Punkte: Wirbelpunkte, Strudelpunkte, Knotenpunkte und Sattelpunkte.

4.:

Im Phasenporträt stellen die in sich geschlossenen Zustandskurven Dauerschwingungen dar. Die früher erwähnten stationären Grenzschwingungen bezeichnet man in der Phasenebene als Grenzzyklen. Diese Grenzzyklen sind wiederum dadurch gekennzeichnet, dass zu ihnen oder von ihnen alle benachbarten Trajektorien konvergieren bzw. divergieren. Entsprechend dem Verlauf der Trajektorien in der Nähe eines Grenzzyklus unterscheidet man stabile, instabile und semistabile Grenzzyklen [2].

Bild 9-3
figure 56

Systemdarstellung in der Phasenebene: a Trajektorie mit Zeitkodierung, b Phasenporträt

Anwendung der Methode der Phasenebene zur Untersuchung von Relaissystemen

Je nach Regelstrecke und Reglertyp erfolgt die Umschaltung der Stellgröße auf einer speziellen Schaltkurve. Zwei derartige Beispiele sind in den Bildern  9-4 und 9-5 für eine I2-Regelstrecke dargestellt. Bei dem im Bild 9-5 dargestellten Fall wird die Regelstrecke in möglichst kurzer Zeit von einem beliebigen Anfangszustand x 1(0) in die gewünschte Ruhelage (x 1 = 0 und x 2 = 0) gebracht. Dieses Problem tritt bei technischen Systemen recht häufig auf, besonders bei der Steuerung bewegter Objekte (Luft- und Raumfahrt, Förderanlagen, Walzantriebe, Fahrzeuge). Wegen der Begrenzung der Stellamplitude kann diese Zeit nicht beliebig klein gemacht werden. Bei diesem Beispiel befindet sich während des zeitoptimalen Vorgangs die Stellgröße immer an einer der beiden Begrenzungen; für das System 2. Ordnung ist eine Umschaltung erforderlich. Dieses Verhalten ist für zeitoptimale Regelsysteme charakteristisch. Diese Tatsache wird durch den Satz von Feldbaum [4] bewiesen.

Bild 9-4
figure 57

Blockschaltbild und Phasendiagramm einer Relaisregelung mit geneigter Schaltgerade

Bild 9-5
figure 58

Blockschaltbild und Phasendiagramm einer zeitoptimalen Regelung für x 1(0) ≠ 0 und x 2(0) = 0

Im vorliegenden Beispiel vom Bild 9-5 ergibt sich das optimale Regelgesetz nach Struktur und Parametern von selbst [3]. Entgegen den bisherigen Gewohnheiten, einen bestimmten Regler vorzugeben (z. B. mit PID-Verhalten) und dessen Parameter nach einem bestimmten Kriterium zu optimieren, wird in diesem Fall über die Reglerstruktur keine Annahme getroffen. Sie ergibt sich vollständig aus dem Optimierungskriterium (minimale Zeit) zusammen mit den Nebenbedingungen (Begrenzung, Randwerte, Systemgleichung). Man bezeichnet diese Art der Optimierung, im Gegensatz zu der Parameteroptimierung vorgegebener Reglerstrukturen, gelegentlich auch als Strukturoptimierung. Diese Art von Problemstellung lässt sich mathematisch als Variationsproblem formulieren und zum Teil mithilfe der klassischen Variationsrechnung oder mithilfe des Maximumprinzips von Pontrjagin [5] lösen.

Stabilitätstheorie nach Ljapunow

Mithilfe der direkten Methode von Ljapunow [6] (siehe A 32.2) ist es möglich, eine Aussage über die Stabilität der Ruhelage (x = 0) also des Ursprungs des Zustandsraumes, zu machen, ohne dass man die explizite Lösung x(t) der das nichtlineare Regelsystem beschreibenden Differenzialgleichung

$$\dot{\boldsymbol{x}}=\boldsymbol{f}[\boldsymbol{x}(t),\boldsymbol{u}(t),t],\quad\boldsymbol{x}(t_{0})=\boldsymbol{x}_{0}$$
(9-8)

kennt. Man bezeichnet dann alle Lösungen x(t) als einfach stabil, deren Trajektorien in der Nähe einer stabilen Ruhelage beginnen und für alle Zeiten in der Nähe der Ruhelage bleiben. Sie müssen nicht gegen diese konvergieren. Die Ruhelage x(t) = 0 des Systems gemäß (9-8) heißt asymptotisch stabil, wenn sie stabil ist und wenn für alle Trajektorien x(t), die hinreichend nahe bei der Ruhelage beginnen,

$$\begin{aligned}\displaystyle\lim\limits _{{t\to\infty}}\|\boldsymbol{x}(t)\|=\mathbf{0}\end{aligned}$$

gilt.

Der Grundgedanke der direkten Methode von Ljapunow

Eine Funktion V(x) heißt positiv definit in einer Umgebung Ω des Ursprungs x = 0, falls

$$\begin{aligned}\displaystyle&\displaystyle V(\boldsymbol{x})> 0\quad\text{f{\"u}r alle}\quad\boldsymbol{x}\in\Omega,\boldsymbol{x}\neq\mathbf{0}\quad{\text{und}}\\ \displaystyle&\displaystyle V(\boldsymbol{x})=0\quad{\text{f{\"u}r}}\quad\boldsymbol{x}=\mathbf{0}\end{aligned}$$

gilt. V(x) heißt positiv semidefinit in Ω, wenn sie auch für x ≠ 0 den Wert null annehmen kann, d. h., wenn

$$\begin{aligned}\displaystyle&\displaystyle V(\boldsymbol{x})\geq 0\quad\text{f{\"u}r alle}\quad\boldsymbol{x}\in\Omega\quad{\text{und}}\\ \displaystyle&\displaystyle V(\boldsymbol{x})=0\quad{\text{f{\"u}r}}\quad\boldsymbol{x}=\mathbf{0}\end{aligned}$$

wird.

Eine wichtige Klasse von Funktionen V(x) hat die quadratische Form

$$V({\boldsymbol{x}})=\boldsymbol{x}^{{\text{T}}}\boldsymbol{P}\boldsymbol{x}\;,$$
(9-9)

wobei P eine symmetrische Matrix ist. Die quadratische Form ist positiv definit, falls alle Hauptdeterminanten von P positiv sind.

Stabilitätssätze von Ljapunow

Satz 1::

Stabilität im Kleinen.

Das System \(\boldsymbol{\dot{x}}=\boldsymbol{f}(\boldsymbol{x})\) besitze die Ruhelage x = 0. Existiert eine Funktion V(x), die in einer Umgebung Ω der Ruhelage folgende Eigenschaften besitzt:

1.:

V(x) und der dazugehörige Gradient ∇ V(x) sind stetig,

2.:

V(x) ist positiv definit,

3.:

\(\dot{V}(\boldsymbol{x})=[\nabla V(\boldsymbol{x})]^{{\text{T}}}\boldsymbol{f}(\boldsymbol{x})\) ist negativ semidefinit,

dann ist die Ruhelage stabil. Eine solche Funktion V(x) wird als Ljapunow-Funktion bezeichnet.

Satz 2::

Asymptotische Stabilität im Kleinen.

Ist \(\dot{V}(\boldsymbol{x})\) in Ω negativ definit, so ist die Ruhelage asymptotisch stabil.

Der Zusatz „im Kleinen“ soll andeuten, dass eine Ruhelage auch dann stabil ist, wenn die Umgebung Ω, in der die Bedingungen erfüllt sind, beliebig klein ist. Man benutzt bei einer solchen asymptotisch stabilen Ruhelage mit sehr kleinem Einzugsbereich, außerhalb dessen nur instabile Trajektorien verlaufen, den Begriff der „praktischen Instabilität“.

Satz 3::

Asymptotische Stabilität im Großen.

Das System \(\dot{\boldsymbol{x}}=\boldsymbol{f}(\boldsymbol{x})\) habe die Ruhelage x = 0. Es sei V(x) eine skalare Funktion und Ω k ein Gebiet des Zustandsraums, definiert durch V(x) < k, k > 0. Ist nun

1.:

Ω k beschränkt,

2.:

V(x) und ∇ V(x) stetig in Ω k ,

3.:

V(x) positiv definit in Ω k ,

4.:

\(\dot{V}(\boldsymbol{x})=[\nabla V(\boldsymbol{x})]^{{\text{T}}}\boldsymbol{f}(\boldsymbol{x})\) negativ definit in Ω k ,

dann ist die Ruhelage asymptotisch stabil und Ω k gehört zu ihrem Einzugsbereich.

Wesentlich hierbei ist, dass der Bereich Ω k , in dem V(x) < k ist, beschränkt ist. In der Regel ist der gesamte Einzugsbereich nicht identisch mit Ω k , d. h., er ist größer als Ω k .

Satz 4::

Globale asymptotische Stabilität.

Das System \(\boldsymbol{\dot{x}}=\boldsymbol{f}(\boldsymbol{x})\) habe die Ruhelage x = 0.

Existiert eine Funktion V(x), die im gesamten Zustandsraum folgende Eigenschaften besitzt:

1.:

V(x) und ∇ V(x) sind stetig,

2.:

V(x) ist positiv definit,

3.:

\(\dot{V}(\boldsymbol{x})=[\nabla V(\boldsymbol{x})]^{{\text{T}}}\boldsymbol{f}(\boldsymbol{x})\) ist negativ definit, und ist außerdem

4.:

\(\lim\limits _{{\| x\|\rightarrow\infty}}V(\boldsymbol{x})=\infty\),

so ist die Ruhelage global asymptotisch stabil.

Mit diesen Kriterien lassen sich nun die wichtigsten Fälle des Stabilitätsverhaltens eines Regelsystems behandeln, sofern es gelingt, eine entsprechende Ljapunow-Funktion zu finden. Gelingt es nicht, so ist keine Aussage möglich.

Ermittlung geeigneter Ljapunow-Funktionen

Hat man beispielsweise eine Ljapunow-Funktion gefunden, die zwar nur den Bedingungen von Satz 1 genügt, so ist damit noch keineswegs ausgeschlossen, dass die Ruhelage global asymptotisch stabil ist, denn das Verfahren nach Ljapunow liefert nur eine hinreichende Stabilitätsbedingung. Ein systematisches Verfahren, das mit einiger Sicherheit zu einem gegebenen nichtlinearen System die beste Ljapunow-Funktion liefert, gibt es nicht. Für lineare Systeme mit der Zustandsraumdarstellung

$$\boldsymbol{\dot{x}}=\boldsymbol{Ax}$$
(9-10)

kann man allerdings zeigen, dass der Ansatz einer quadratischen Form entsprechend (9-9) mit einer positiv definiten symmetrischen Matrix P immer eine Ljapunow-Funktion liefert. Die zeitliche Ableitungvon V(x) liefert mit (9-10)

$$\dot{V}(\boldsymbol{x})=\boldsymbol{x}^{{\text{T}}}\boldsymbol{[A}^{\text{T}}\boldsymbol{P}+\boldsymbol{PA]x}\;.$$
(9-11)

Diese Funktion besitzt wiederum eine quadratische Form, die bei asymptotischer Stabilität negativ definit sein muss. Mit einer positiv definiten Matrix Q gilt also

$$\boldsymbol{A}^{{\text{T}}}\boldsymbol{P}+\boldsymbol{PA}=-\boldsymbol{Q}\;.$$
(9-12)

Man bezeichnet diese Beziehung auch als Ljapunow-Gleichung. Gemäß Satz 4 gilt folgende Aussage: Ist die Ruhelage x = 0 des Systems nach (9-10) global asymptotisch stabil, so existiert zu jeder positiv definiten Matrix Q eine positiv definite Matrix P, die (9-12) erfüllt. Man kann also ein beliebiges positiv definites Q vorgeben, die Ljapunow-Gleichung nach P auflösen und anhand der Definitheit von P die Stabilität überprüfen.

Für nichtlineare Systeme ist ein solches Vorgehen nicht unmittelbar möglich. Es gibt jedoch verschiedene Ansätze, die in vielen Fällen zu einem befriedigenden Ergebnis führen. Hierzu gehören die Verfahren von Aiserman [7] und Schultz-Gibson [8].

Das Stabilitätskriterium von Popov

Es ist naheliegend, bei einem nichtlinearen Regelkreis den linearen Systemteil mit der Übertragungsfunktion G(s) vom nichtlinearen abzuspalten. Dabei ist der Fall eines Regelkreises mit einer statischen Nichtlinearität entsprechend Bild 9-6 von besonderer Bedeutung. Für diesen Fall wurde von V. Popov [9] ein Stabilitätskriterium angegeben, das anhand des Frequenzgangs G(j ω) des linearen Systemteils ohne Verwendung von Näherungen eine hinreichende Bedingung für die Stabilität liefert.

Absolute Stabilität

Bild 9-6
figure 59

Standardregelkreis mit einer statischen Nichtlinearität

Die nichtlineare Kennlinie des im Bild 9-6 dargestellten Standardregelkreises darf in einem Bereich verlaufen, der durch zwei Geraden begrenzt wird, deren Steigung K 1 und K 2 > K 1 sei (Bild 9-7). Man bezeichnet ihn als Sektor [K 1, K 2]. Es gilt also für eine Kennlinie, die in diesem Sektor liegt

$$\begin{aligned}\displaystyle K_{1}\leq\frac{F(e)}{e}\leq K_{2}\,,\quad e\neq 0\;.\end{aligned}$$

Diese Kennlinie geht außerdem durch den Ursprung (F(0) = 0) und sei im Übrigen eindeutig und stückweise stetig. Unter diesen Bedingungen ist folgende Definition der Stabilität des betrachteten nichtlinearen Regelkreises zweckmäßig:

Bild 9-7
figure 60

Zur Definition der absoluten Stabilität

Definition::

Absolute Stabilität.

Der nichtlineare Regelkreis in Bild 9-6 heißt absolut stabil im Sektor [K 1, K 2], wenn es für jede Kennlinie F(e), die vollständig innerhalb dieses Sektors verläuft, eine global asymptotisch stabile Ruhelage des geschlossenen Regelkreises gibt.

Zur Vereinfachung ist es zweckmäßig, den Sektor [K 1, K 2] auf einen Sektor [0, K] zu transformieren. Dies geschieht, ohne dass sich das Verhalten des Regelkreises ändert, dadurch, dass anstelle von F(e) und G(s) die Beziehungen

$$\begin{aligned}\displaystyle F^{\prime}(e)&\displaystyle=F(e)-K_{1}e\quad{\text{und}}\\ \displaystyle G^{\prime}(s)&\displaystyle=G(s)/[1+K_{1}G(s)]\end{aligned}$$

eingeführt werden. F′(e) verläuft nun im Sektor 0, K mit K = K 2 − K 1. Für die weiteren Betrachtungen wird davon ausgegangen, dass diese Transformation bereits durchgeführt ist, wobei jedoch nicht die Bezeichnungen F′(e) und G′(s) verwendet werden sollen, sondern der Einfachheit halber F(e) und G(s) beibehalten werden.

Formulierung des Popov-Kriteriums

Für das lineare Teilsystem in Bild 9-6 gelte

$$G(s)=\frac{b_{0}+b_{1}s+\ldots+b_{m}s^{m}}{a_{0}+a_{1}s+\ldots+s^{n}}\quad m<n\;.$$
(9-13)

Hier darf G(s) keine Pole mit positivem Realteil enthalten, und es sollen zunächst auch Pole mit verschwindendem Realteil ausgeschlossen werden. Dann gilt das Popov-Kriterium:

  • Der Regelkreis nach Bild 9-6 ist absolut stabil im Sektor [0, K], falls eine beliebige reelle Zahl q existiert, sodass für alle ω ≥ 0 die Popov-Ungleichung

    $${\text{Re}}[(1+{\text{j}}\omega q)G(\,{\text{j}}\omega)]+\frac{1}{K}> 0$$
    (9-14)

    erfüllt ist.

Da der Sektor [0, K] auch die Möglichkeit zulässt, dass F(e) = 0 und somit u = 0 sein darf, entspricht dies der Untersuchung des Stabilitätsverhaltens des linearen Teilsystems. Absolute Stabilität im Sektor [0, K] setzt jedoch voraus, dass dann im vorliegenden Fall das lineare Teilsystem asymptotisch stabil ist. Dies ist aber beim Vorhandensein von Polen auf der imaginären Achse nicht mehr der Fall. Deshalb muss der Fall F(e) = 0 ausgeschlossen werden, indem man als untere Sektorgrenze eine Gerade mit beliebig kleiner positiver Steigung γ benutzt, also den Sektor [γ, K] betrachtet. Damit gilt das Popov-Kriterium auch für solche Systeme, wobei jedoch zusätzlich gefordert werden muss, dass der geschlossene Regelkreis mit der Verstärkung γ (linearer Fall) asymptotisch stabil ist. Dies ist immer erfüllt, wenn das lineare Teilsystem einen einfachen Pol bei s = 0 besitzt.

Geometrische Auswertung der Popov-Ungleichung

Schreibt man die Popov-Ungleichung (9-14) in der Form

$${\text{Re}}[G({\text{j}}\omega)]-q\omega\,{\text{Im}}[G({\text{j}}\omega)]+\frac{1}{K}> 0\;,$$
(9-15)

so lässt sich Re [G(j ω)] als Realteil und ω Im [G(j ω)] als Imaginärteil einer modifizierten Ortskurve, der sogenannten Popov-Ortskurve, definieren, die demnach beschrieben wird durch

$$G^{\ast}(\,{\text{j}}\omega)={\text{Re}}[G({\text{j}}\omega)]+{\text{j}}\omega\;{\text{Im}}[G({\text{j}}\omega)]=X+{\text{j}}Y\;.$$
(9-16)

Indem man nun allgemeine Koordinaten X und Y für den Real- und Imaginärteil von G*( j ω) ansetzt, erhält man aus der Ungleichung (9-15) die Beziehung

$$X-qY+1/K> 0\;.$$
(9-17)

Diese Ungleichung wird durch alle Punkte der X, Y-Ebene erfüllt, die rechts von einer Grenzlinie mit der Gleichung

$$X-qY+1/K=0$$
(9-18)

liegen. Diese Grenzlinie ist eine Gerade, deren Steigung 1∕q beträgt und deren Schnittpunkt mit der X-Achse bei −1∕K liegt. Man nennt diese Gerade die Popov-Gerade. Ein Vergleich von ( 9-15) mit (9-18) zeigt, dass das Popov-Kriterium genau dann erfüllt ist, wenn die Popov-Ortskurve vollständig rechts der Popov-Geraden verläuft. Diese Zusammenhänge sind in Bild  9-8 dargestellt. Daraus ergibt sich folgendes Vorgehen bei der Anwendung des Popov-Kriteriums:

Bild 9-8
figure 61

Zur geometrischen Auswertung des Popov-Kriteriums

1.:

Man zeichnet gemäß (9-16) die Popov-Ortskurve G*( j ω) in der X, jY-Ebene.

2a.:

Ist K gegeben, so versucht man, eine Gerade durch den Punkt −1∕K auf der X-Achse zu legen, mit einer solchen Steigung 1∕q, dass die Popov-Gerade vollständig links der Popov-Ortskurve liegt. Gelingt dies, so ist der Regelkreis absolut stabil. Gelingt es nicht, so ist keine Aussage möglich.

Hier zeigt sich die Verwandtschaft zum Nyquist-Kriterium, bei dem zumindest der kritische Punkt −1∕K der reellen Achse ebenfalls links der Ortskurve liegen muss. Oft stellt sich auch die Aufgabe, den größten Sektor [0, K krit] der absoluten Stabilität zu ermitteln. Dann wird der zweite Schritt entsprechend modifiziert:

2b.:

Man legt eine Tangente von links so an die Popov-Ortskurve, dass der Schnittpunkt mit der X-Achse möglichst weit rechts liegt. Dies ergibt die maximale obere Grenze K krit. Man nennt diese Tangente auch die kritische Popov-Gerade (Bild 9-9).

Bild 9-9
figure 62

Ermittlung des maximalen Wertes K krit

Der maximale Sektor [0, K krit] wird als Popov-Sektor bezeichnet. Da das Popov-Kriterium nur eine hinreichende Stabilitätsbedingung liefert, ist es durchaus möglich, dass der maximale Sektor der absoluten Stabilität größer als der Popov-Sektor ist. Er kann jedoch nicht größer sein als der Hurwitz-Sektor [0, K H], der durch die maximale Verstärkung K H des entsprechenden linearen Regelkreises begrenzt wird und der sich aus dem Schnittpunkt der Ortskurve mit der X-Achse ergibt.

Lineare zeitdiskrete Systeme: Digitale Regelung

Arbeitsweise digitaler Regelsysteme

Beim Einsatz digitaler Regelsysteme erfolgt die Abtastung eines gewöhnlich kontinuierlichen Prozesssignals f(t) meist zu äquidistanten Zeitpunkten, also mit einer konstanten Abtastperiodendauer oder auch Abtastzeit T bzw. Abtastfrequenz ω p = 2 πT. Ein solches Abtastsignal oder zeitdiskretes Signal wird somit beschrieben durch die Zahlenfolge

$$f(kT)=\{ f(0),f(T),f(2T),\ldots\}$$
(10-1)

mit k ≥ 0 und f(kT) = 0 für k < 0, die meist auch abgekürzt als f(k) bezeichnet wird. Den prinzipiellen Aufbau eines Abtastsystems, bei dem ein Prozessrechner als Regler eingesetzt ist, zeigt Bild 10-1. Bei dieser digitalen Regelung, oft auch DDC-Betrieb genannt (DDC, direct digital control), wird der analoge Wert der Regelabweichung e(t) in einen digitalen Wert e(kT) umgewandelt. Dieser Vorgang entspricht einer Signalabtastung und erfolgt periodisch mit der Abtastzeit T. Infolge der beschränkten Wortlänge des hierfür erforderlichen Analog-Digital-Umsetzers (ADU) entsteht eine Amplitudenquantisierung. Diese Quantisierung oder auch Diskretisierung der Amplitude, die ähnlich auch beim Digital-Analog-Umsetzer (DAU) auftritt, ist im Gegensatz zur Diskretisierung der Zeit ein nichtlinearer Effekt. Allerdings können die Quantisierungsstufen im Allgemeinen so klein gemacht werden, dass der Quantisierungseffekt vernachlässigbar ist. Die Amplitudenquantisierung wird deshalb in den folgenden Ausführungen nicht berücksichtigt.

Bild 10-1
figure 63

Prinzipieller Aufbau eines Abtastregelkreises

Der digitale Regler (Prozessrechner) berechnet nach einer zweckmäßig gewählten Rechenvorschrift ( Regelalgorithmus) die Folge der Stellsignalwerte u(kT) aus den Werten der Folge e(kT). Da nur diskrete Signale auftreten, kann der digitale Regler als diskretes Übertragungssystem betrachtet werden.

Die berechnete diskrete Stellgröße u(kT) wird vom Digital-Analog-Umsetzer in ein analoges Signal \(\overline{u}(t)\) umgewandelt und jeweils über eine Abtastperiode kT ≤ t < (k + 1) T konstant gehalten. Dieses Element hat die Funktion eines Haltegliedes, und \(\overline{u}(t)\) stellt – sofern das Halteglied nullter Ordnung ist – ein treppenförmiges Signal dar.

Eine wesentliche Eigenschaft solcher Abtastsysteme besteht darin, dass das Auftreten eines Abtastsignals in einem linearen kontinuierlichen System an der Linearität nichts ändert. Damit ist die theoretische Behandlung linearer diskreter Systeme in weitgehender Analogie zu der Behandlung linearer kontinuierlicher Systeme möglich. Dies wird dadurch erreicht, dass auch die kontinuierlichen Signale nur zu den Abtastzeitpunkten kT, also als Abtastsignale betrachtet werden. Damit ergibt sich für den gesamten Regelkreis eine diskrete Systemdarstellung, bei der alle Signale Zahlenfolgen sind.

Darstellung im Zeitbereich

Werden bei einem kontinuierlichen System Eingangs- und Ausgangssignal mit der Abtastzeit T synchron abgetastet, so erhebt sich die Frage, welcher Zusammenhang zwischen den beiden Folgen u(kT) und y(kT) besteht. Geht man von der das kontinuierliche System beschreibenden Differenzialgleichung aus, so besteht die Aufgabe in der numerischen Lösung derselben. Beim einfachsten hierfür in Frage kommenden Verfahren, dem Euler-Verfahren, werden die Differenzialquotienten durch Rückwärts-Differenzenquotienten mit genügend kleiner Schrittweite T approximiert:

$$\begin{aligned}\displaystyle&\displaystyle\frac{{\text{d}}f}{{\text{d}}t}\bigg|_{{t=kT}}\approx\frac{f(kT)-f[(k-1)T]}{T}\end{aligned}$$
(10-2a)
$$\begin{aligned}\displaystyle&\displaystyle\frac{{\text{d}}^{2}f}{{\text{d}}t^{2}}\bigg|_{{t=kT}}\approx\frac{f(kT)-2f[(k-1)T]+f[(k-2)T]}{T^{2}}\,.\end{aligned}$$
(10-2b)

Dadurch geht die Differenzialgleichung in eine Differenzengleichung über. Mithilfe einer solchen Differenzengleichung kann die Ausgangsfolge y(k) rekursiv aus der Eingangsfolge u(k) für k = 0,1,2, … berechnet werden. Allerdings handelt es sich dabei um eine Näherungslösung, die nur für kleine Schrittweiten T genügend genau ist.

Die allgemeine Form der Differenzengleichung zur Beschreibung eines linearen zeitinvarianten Eingrößensystems n-ter Ordnung mit der Eingangsfolge u(k) und der Ausgangsfolge y(k) lautet:

$$\begin{aligned}\displaystyle&\displaystyle y(k)+\alpha _{1}y(k-1)+\alpha _{2}y(k-2)+\ldots+\alpha _{n}y(k-n)\\ \displaystyle&\displaystyle=\beta _{0}u(k)+\beta _{1}u(k-1)+\ldots+\beta _{n}u(k-n)\;.\end{aligned}$$
(10-3a)

Durch Umformen ergibt sich eine rekursive Gleichung für y(k),

$$y(k)=\sum^{n}_{{\nu=0}}\beta _{\nu}u(k-\nu)-\sum^{n}_{{\nu=1}}\alpha _{\nu}y(k-\nu)\;,$$
(10-3b)

die gewöhnlich zur numerischen Berechnung der Ausgangsfolge y(k) verwendet wird. Die Größen y(k − ν) und u(k − ν), ν = 1,2, …, n,  sind die zeitlich zurückliegenden Werte der Ausgangs- bzw. Eingangsgröße, die im Rechner gespeichert werden. Wie bei einer Differenzialgleichung werden auch bei einer Differenzengleichung Anfangswerte für k = 0 berücksichtigt.

Ähnlich wie bei linearen kontinuierlichen Systemen die Gewichtsfunktion g(t) zur Beschreibung des dynamischen Verhaltens verwendet wurde, kann für diskrete Systeme als Antwort auf den diskreten Impuls

$$u(k)=\delta _{{\text{d}}}(k)=\left\{\begin{array}[]{l@{\quad}l@{\quad}l}1\hfil\quad&{\text{f{\"u}r}}\hfil\quad&k=0\\ 0\hfil\quad&{\text{f{\"u}r}}\hfil\quad&k\neq 0\end{array}\right.$$
(10-4)

die Gewichtsfolge g(k) eingeführt werden. Zwischen einer beliebigen Eingangsfolge u(k), der zugehörigen Ausgangsfolge y(k) und der Gewichtsfolge g(k) besteht für lineare diskrete Systeme analog zu (3-13) der Zusammenhang über die Faltungssumme

$$y(k)=\sum^{\infty}_{{\nu=0}}u(\nu){{g}}(k-\nu)\;,$$
(10-5)

wobei anstelle der oberen Summengrenze auch die Variable k gesetzt werden darf.

Der Übergang zwischen kontinuierlichen und zeitdiskreten Signalen wird bei dem im Bild 10-1 dargestellten Abtastsystem durch den Analog-Digital-Umsetzer realisiert. Für eine mathematische Beschreibung eines solchen Systems ist jedoch eine einheitliche Darstellung der Signale erforderlich. Dazu wird eine Modellvorstellung entsprechend Bild 10-2 benutzt. Es wird also ein δ-Abtaster eingeführt, der eine Folge von gewichteten δ-Impulsen erzeugt. Diese Folge wird beschrieben durch die Pseudofunktion

$$f^{\ast}(t)=f(t)\sum^{\infty}_{{k=0}}\delta(t-kT)=\sum^{\infty}_{{k=0}}f(kT)\delta(t-kT)\;,$$
(10-6)

bei der die δ-Impulse durch Pfeile repräsentiert werden, deren Höhe jeweils dem Gewicht, also der ,,Fläche“ des zugehörigen δ-Impulses, entspricht. Die Pfeilhöhe ist somit gleich dem Wert von f(t) zu den Abtastzeitpunkten t = kT, also gleich f(kT). Diese Pseudofunktion f*(t) stellt neben der Zahlenfolge entsprechend (10-1) eine weitere Möglichkeit zur mathematischen Beschreibung eines Abtastsignals dar. Die Bildung des im Bild 10-2 dargestellten treppenförmigen Signals \(\overline{f}(t)\) aus dem Signal f*(t) erfolgt durch ein Halteglied nullter Ordnung mit der Übertragungsfunktion

$$H_{0}(s)=(1-\text{e}^{{-T\! s}})/s\;.$$
(10-7)

Mit diesem Halteglied lässt sich der Abtastregelkreis durch eine der im Bild 10-3 dargestellten Blockstrukturen beschreiben. Fasst man jetzt Halteglied, Regelstrecke und δ-Abtaster zu einem Block zusammen (Bild 10-3b), so treten im Regelkreis nur noch Abtastsignale auf. Man erhält damit eine vollständige diskrete Darstellung des Regelkreises.

Bild 10-2
figure 64

δ-Abtaster und Halteglied

Bild 10-3
figure 65

Äquivalente Blockschaltbilder eines Abtastregelkreises

Die z-Transformation

Definition der z-Transformation

Für die Darstellung der Abtastung eines kontinuierlichen Signals wurden oben bereits zwei äquivalente Möglichkeiten beschrieben: entweder die Zahlenfolge f(k) gemäß (10-1) oder die Impulsfolge f*(t) als Zeitfunktion gemäß (10-6). Durch Laplace-Transformation von (10-6) erhält man die komplexe Funktion

$$F^{\ast}(s)=\sum^{\infty}_{{k=0}}f(kT){\text{e}}^{{-kT\! s}}\;.$$
(10-8)

Da in dieser Beziehung die Variable s immer nur in Verbindung mit eTs auftritt, wird deshalb anstelle von eTs die komplexe Variable z eingeführt, indem man

$${\text{e}}^{{T\! s}}={z}\,,\quad{\text{bzw}}.\quad s=\frac{1}{T}\ln\ {z}$$
(10-9)

setzt. Damit geht F*(s) in die Funktion

$$F_{{\!\text{z}}}({z})=\sum^{\infty}_{{k=0}}f(kT){z}^{{-k}}$$
(10-10)

über, wobei wegen der Substitution entsprechend (10-9) die Beziehungen

$$F^{\ast}(s)=F_{{\!\text{z}}}({\text{e}}^{{T\! s}})\quad{\text{und}}\quad F_{{\!\text{z}}}({z})=F^{\ast}\left(\frac{1}{T}\ \ln\ z\right)$$
(10-11)

gelten. Man bezeichnet die Funktion F z(z) als z-Transformierte der Folge f(kT), siehe A 23.3. Da für die weiteren Überlegungen anstelle von f(kT) meist die abgekürzte Schreibweise f(k) benutzt wird, erfolgt die Definition der z-Transformation für diese Form durch

$${\mathcal{Z}}\{ f(k)\}=F_{{\!\text{z}}}({z})\ =\sum^{\infty}_{{k=0}}f(kT){z}^{{-k}}\;,$$
(10-12)

wobei das Symbol Z als Operator der z-Transformation zu verstehen ist. Der Index z dient zur Unterscheidung dieser Transformierten gegenüber der Laplace-Transformierten F(s) von f(t).

Für die wichtigsten Zeitfunktionen f(t) sind in Tabelle A 23.3 die z-Transformierten zusammengestellt. Die Haupteigenschaften und Rechenregeln der z-Transformation sind denen der Laplace-Transformation analog, siehe A 23.2.

Da F z(z) die z-Transformierte der Zahlenfolge f(k) für k = 0,1,2, … darstellt, liefert die inverse z-Transformation von F z(z),

$${\mathcal{Z}}^{{-1}}\{ F_{{\!\text{z}}}({z})\}=f(k)\;,$$
(10-13)

wieder die Zahlenwerte f(k) dieser Folge, also die diskreten Werte der zugehörigen Zeitfunktion f(t)| t = kT für die Zeitpunkte t = kT. Da, die z-Transformation umkehrbar eindeutig ist, kommen für die inverse z-Transformation zunächst natürlich die sehr ausführlichen Tabellenwerke [4-1, 4-2] in Betracht, aus denen unmittelbar korrespondierende Transformationen entnommen werden können. Für kompliziertere Fälle, die nicht in den Tabellen enthalten sind oder auf solche in den Tabellen zurückgeführt werden können, kann die Berechnung auf verschiedene Arten durchgeführt werden. Hierzu gehören die Potenzreihenentwicklung von ( 10-12), die Partialbruchzerlegung von F z(z) in Standardfunktionen und die Auswertung des komplexen Kurvenintegrals

$$f(k)=\frac{1}{2\pi{\text{j}}}\oint F_{{\!\text{z}}}({z}){z}^{{k-1}}\,{\text{dz}}\,,\quad k=1,2,\ldots$$
(10-14)

mithilfe der Residuenberechnung [3]

$$f(k)=\sum _{i}{\text{Res}}\,\{ F_{{\!\text{z}}}({z}){z}^{{k-1}}\} _{{z=a_{i}}}\;.$$
(10-15)

Hierbei sind die Größen a i die Pole von F z(z) z k − 1, also die Pole von F z(z).

Darstellung im Frequenzbereich

Die Übertragungsfunktion diskreter Systeme

Ein lineares diskretes System n-ter Ordnung wird durch die Differenzengleichung ( 10-3) beschrieben. Wendet man hierauf den Verschiebungssatz der z-Transformation an, so erhält man

$$\begin{aligned}\displaystyle&\displaystyle Y_{{\text{z}}}({z})(1+\alpha _{1}{z}^{{-1}}+\alpha _{2}{z}^{{-2}}+\ldots+\alpha _{n}{z}^{{-n}})\\ \displaystyle&\displaystyle=U_{{\text{z}}}({z})(\beta _{0}+\beta _{1}{z}^{{-1}}+\ldots+\beta _{n}{z}^{{-n}})\end{aligned}$$
(10-16)

woraus direkt als Verhältnis der z-Transformierten von Eingangs- und Ausgangsfolge die z-Übertragungsfunktion des diskreten Systems

$$G_{{\text{z}}}({z})=\frac{Y_{{\text{z}}}({z})}{U_{{\text{z}}}({z})}=\frac{\beta _{0}+\beta _{1}{z}^{{-1}}+\ldots+\beta _{n}{z}^{{-n}}}{1+\alpha _{1}{z}^{{-1}}+\ldots+\alpha _{n}{z}^{{-n}}}$$
(10-17)

definiert werden kann. Dabei sind die Anfangswerte der Differenzengleichung als null vorausgesetzt. In Analogie zu den kontinuierlichen Systemen ist die z-Übertragungsfunktion G z(z) auch als z-Transformierte der Gewichtsfolge g(k) definiert:

$$G_{{\text{z}}}({z})={\mathcal{Z}}\{{g}(k)\}\;.$$
(10-18)

Dies folgt unmittelbar aus der z-Transformation der Faltungssumme gemäß (10-5) und dem Vergleich mit (10-17).

Mit der Definition der z-Übertragungsfunktion hat man die Möglichkeit, diskrete Systeme formal ebenso zu behandeln wie kontinuierliche Systeme. Beispielsweise lassen sich zwei Systeme mit den z-Übertragungsfunktionen G 1z(z) und G 2z(z) hintereinander schalten, und man erhält dann als Gesamtübertragungsfunktion

$$G_{{\text{z}}}({z})=G_{{\text{1z}}}({z})G_{{\text{2z}}}({z})\;.$$
(10-19)

Entsprechend ergibt sich für eine Parallelschaltung

$$G_{{\text{z}}}({z})=G_{{\text{1z}}}({z})+G_{{2\text{z}}}({z})\,.$$
(10-20)

Wie im kontinuierlichen Fall kann bei Systemen mit P-Verhalten (Systemen mit Ausgleich) auch der Verstärkungsfaktor K bestimmt werden, der sich bei sprungförmiger Eingangsfolge u(k) = 1 für k ≥ 0 als stationärer Endwert der Ausgangsfolge y(∞) über den Endwertsatz der z-Transformation zu

$$K=G_{{\text{z}}}(1)=\left(\sum^{n}_{{\nu=0}}\beta _{\nu}\right)\left/\left(1+\sum^{n}_{{\nu=1}}\right.\alpha _{\nu}\right)$$
(10-21)

ergibt.

Die z-Übertragungsfunktion kontinuierlicher Systeme

Zur theoretischen Behandlung von digitalen Regelkreisen wird auch für die kontinuierlichen Teilsysteme eine diskrete Systemdarstellung benötigt, also eine z-Übertragungsfunktion. Dazu betrachtet man den gestrichelt dargestellten Teil des Abtastregelkreises von Bild 10-3b. Gesucht ist nun das Übertragungsverhalten zwischen den Abtastsignalen u*(t) und y*(t). Betrachtet man zunächst die Gewichtsfunktion g HG (t) des kontinuierlichen Systems einschließlich Halteglied, also

$$\begin{aligned}\displaystyle{{g}}_{{HG}}(t)=\mathcal{L}^{{-1}}\{ H(s)G(s)\}\;,\end{aligned}$$

so erhält man hierzu durch Abtasten die Gewichtsfolge

$${{g}}_{{HG}}(kT)=\mathcal{L}^{{-1}}\{ H(s)G(s)\}|_{{t=kT}}\;.$$
(10-22)

Damit ergibt sich die z-Transformierte

$$HG_{{\text{z}}}({z})={\mathcal{Z}}\{\mathcal{L}^{{-1}}\{ H(s)G(s)\}|_{{t=kT}}\}$$
(10-23)

für die Bestimmung von HG z(z) aus G(s), die häufig auch als

$$HG_{{\text{z}}}({z})=Z\{ H(s)G(s)\}$$
(10-24)

geschrieben wird, wobei das Symbol Z die in (10-23) enthaltene doppelte Operation Z{L −1{…}| t = kT } kennzeichnet. Es wäre somit falsch, HG z(z) als z-Transformierte der Übertragungsfunktion H(s) G(s) zu betrachten; richtig ist vielmehr, dass HG z(z) die z-Transformierte der Gewichtsfolge g HG (kT) ist. Außerdem ist zu beachten, dass die durch (10-24) beschriebene Operation nicht umkehrbar eindeutig ist.

Verwendet man in (10-24) ein Halteglied nullter Ordnung gemäß (10-7), so folgt mit H(s) = H 0(s) anstelle von (10-24) speziell

$$H_{0}G_{{\text{z}}}({z})=(1-{z}^{{-1}})Z\left\{\frac{G(s)}{s}\right\}=\frac{z-1}{z}Z\left\{\frac{G(s)}{s}\right\}.$$
(10-25)

Generell stellt HG z(z) die diskrete Beschreibung des kontinuierlichen Systems mit der Übertragungsfunktion G(s) dar. Besitzt G(s) noch eine Totzeit

$$G(s)=G^{\prime}(s)\,{\text{e}}^{{-T_{{\text{t}}}s}}\;,$$
(10-26)

so ergibt sich – sofern T t = dT gewählt wird (d ganzzahlig) – für die zugehörige diskrete Übertragungsfunktion

$$HG_{{\text{z}}}({z})=HG^{\prime}_{{\text{z}}}({z})\,{z}^{{-d}}\;.$$
(10-27)

Hieraus ist ersichtlich, dass die Totzeit nur eine Multiplikation von HG z(z) mit z d bewirkt, d. h., die z-Übertragungsfunktion bleibt eine rationale Funktion. Dies vereinfacht natürlich die Behandlung von Totzeit-Systemen im diskreten Bereich außerordentlich.

Die mithilfe des Euler-Verfahrens ermittelte Differenzengleichung lässt sich leicht in eine z-Über-tragungsfunktion umwandeln. Zur Verallgemeinerung wird (10-2a) auf ein I-Glied angewandt, das durch die Beziehung

$$\dot{y}(t)=u(t)\quad{\text{bzw}}.\quad Y(s)=\frac{1}{s}U(s)$$
(10-28)

beschrieben wird. Daraus folgt als Differenzengleichung

$$\begin{aligned}\displaystyle y(k)=y(k-1)+Tu(k)\;,\end{aligned}$$

die bekannte Beziehung für die Rechteck-Integration. Die Anwendung der z-Transformation auf diese Beziehung liefert

$$\begin{aligned}\displaystyle Y_{{\text{z}}}({z})(1-{z}^{{-1}})=TU_{{\text{z}}}({z})\;,\end{aligned}$$

und hieraus folgt

$$\begin{aligned}\displaystyle Y_{{\text{z}}}({z})=\frac{T{z}}{{z}-1}U_{{\text{z}}}({z})\;.\end{aligned}$$

Durch Vergleich mit (10-28) ergibt sich für die entsprechenden Übertragungsfunktionen somit die Korrespondenz

$$\frac{1}{s}\rightarrow\frac{Tz}{{z-1}}\;.$$
(10-29)

Bei Systemen höherer Ordnung geht man nun bei der Anwendung der approximierten z-Transformation so vor, dass man aus der Korrespondenz von ( 10-29) die Substitutionsbeziehung

$$s\approx\frac{z-1}{T{z}}$$
(10-30)

bildet und in G(s) einsetzt, woraus sich die approximierte z-Übertragungsfunktion G z(z) ergibt. Allerdings ist nun G z(z) nicht mehr mit der Funktion vergleichbar, die durch die exakte Transformation mit Halteglied entsteht.

Eine etwas genauere Approximationsbeziehung erhält man aus (10-9),

$$\begin{aligned}\displaystyle s=\frac{1}{T}{\ln\! z}\;,\end{aligned}$$

durch die Reihenentwicklung der ln-Funktion:

$$s=\displaystyle\frac{1}{T}\cdot 2\left[\frac{z-1}{z+1}+\frac{1}{3}\left\{\frac{z-1}{z+1}\right\}^{3}+\displaystyle\frac{1}{5}\left\{\frac{z-1}{z+1}\right\}^{5}+\ldots\right]\;.$$
(10-31)

Durch Abbruch nach dem ersten Glied entsteht die Tustin-Formel

$$s\approx\frac{2}{T}\cdot\frac{z-1}{z+1}\;,$$
(10-32)

mit der wiederum durch Substitution G z(z) aus G(s) näherungsweise für kleine Werte von T berechnet werden kann [4].

Stabilität diskreter Regelsysteme

Stabilitätsbedingungen

Ein diskretes Regelsystem, beschrieben durch (10-3b) oder (10-5) oder auch in der Form

$$G_{{\text{z}}}(z)=\frac{\beta _{0}{z}^{n}+\beta _{1}{z}^{{n-1}}+\ldots+\beta _{n}}{z^{n}+\alpha _{1}{z}^{{n-1}}+\ldots+\alpha _{n}}\;,$$
(10-33)

ist stabil, wenn zu jeder beschränkten Eingangsfolge u(k) auch die Ausgangsfolge y(k) beschränkt ist. Unter Benutzung dieser Stabilitätsdefinition kann man nun mithilfe der Faltungssumme (10-5) folgende notwendige und hinreichende Stabilitätsbedingung formulieren: Ist g(k) die Gewichtsfolge eines diskreten Systems, so ist dieses System genau dann stabil, wenn

$$\sum^{\infty}_{{k=0}}|{{g}}(k)|<\infty$$
(10-34)

ist.

Diese Stabilitätsbedingung im Zeitbereich ist allerdings recht unhandlich. Durch Übergang in den komplexen Bereich der z-Transformierten G z(z) von g(k) erhält man folgende notwendige und hinreichende Stabilitätsbedingung in der z -Ebene:

Das durch die rationale Funktion G z(z) gemäß (10-33) bestimmte Abtastsystem ist genau dann stabil, wenn alle Pole z i von G z(z) innerhalb des Einheitskreises der z-Ebene liegen, d. h., wenn gilt

$$|{z}_{i}|<1\quad{\text{f{\"u}r}}\quad i=1,2,\ldots,n\;.$$
(10-35)

Diese Stabilitätsbedingung folgt unmittelbar aus der Analogie zwischen der s-Ebene für kontinuierliche und der z-Ebene für diskrete Systeme. Die linkes-Halbebene wird mithilfe der Substitution (10-9),

$$\begin{aligned}\displaystyle{z=\text{e}}^{{T\! s}}\quad{\text{mit}}\quad s=\sigma+{\text{j}}\omega\;,\end{aligned}$$

in das Innere des Einheitskreises der z-Ebene abgebildet, wobei

$$\begin{aligned}\displaystyle&\displaystyle|{z|=\text{e}}^{{T\sigma}}\end{aligned}$$
(10-36a)
$$\begin{aligned}\displaystyle{\text{und}}\quad&\displaystyle\quad\varphi={\text{arg}}\ z=\omega T\end{aligned}$$
(10-36b)

gilt. Da im kontinuierlichen Fall für asymptotische Stabilität alle Pole s i der Übertragungsfunktion G(s) in der linken s-Halbebene (Re(s i ) < 0) liegen müssen, folgt aus den Abbildungsgesetzen der z-Transformation, dass entsprechend bei einem diskreten System alle Pole z i der z-Übertragungsfunktion G z(z) im Innern des Einheitskreises liegen müssen, wie oben bereits festgestellt wurde. Anhand von (10-36a,b) lässt sich leicht zeigen, dass die gesamte linke s-Halbebene (σ < 0) in das Innere des Einheitskreises 0 ≤ |z| < 1 und die rechte s-Halbebene (σ > 0) in das Äußere des Einheitskreises |z| > 1 abgebildet wird. Der jω-Achse der s-Ebene entspricht der Einheitskreis der z-Ebene (|z| = 1), der bei deren Abbildung unendlich oft durchlaufen wird. Anhand dieser Überlegungen ist leicht ersichtlich, dass Linien konstanter Dämpfung (σ =  const) in der s-Ebene bei dieser Abbildung in Kreise um den Ursprung der z-Ebene übergehen. Linien konstanter Frequenz (ω =  const) in der s-Ebene werden in der z-Ebene als Strahlen abgebildet, die im Ursprung der z-Ebene mit konstantem Winkel φ = ωT beginnen. Je größer die Frequenz, desto größer wird also auch der Winkel φ dieser Geraden (Bild 10-4).

Bild 10-4
figure 66

Abbildung der s-Ebene in die z-Ebene. a Abbildung der linken s-Halbebene in das Innere des Einheitskreises der z-Ebene, b Abbildung der Linien σ =  const in Kreise der z-Ebene, c Abbildung der Linien ω =  const in Strahlen aus dem Ursprung der z-Ebene

Stabilitätskriterien

Zur Überprüfung der oben definierten Stabilitätsbedingungen, dass alle Pole z i von G z(z) innerhalb des Einheitskreises der z-Ebene liegen müssen, stehen auch bei diskreten Systemen Kriterien zur Verfügung, die ähnlich wie bei linearen kontinuierlichen Systemen von der charakteristischen Gleichung

$$f(z)=\gamma _{0}+\gamma _{1}z+\ldots+\gamma _{n}z^{n}=0\;.$$
(10-37)

ausgehen. Diese Beziehung folgt aus (10-33) durch Nullsetzen und triviale Umbenennung des Nennerpolynoms.

Eine einfache Möglichkeit, die Stabilität eines diskreten Systems zu überprüfen, besteht in der Verwendung der w-Transformation

$$w=\frac{z-1}{z+1}\quad{\text{oder}}\quad{z}=\frac{1+w}{1-w}\;.$$
(10-38)

Diese Transformation bildet das Innere des Einheitskreises der z-Ebene in die linke w-Ebene ab. Damit werden bei einem stabilen System alle Wurzeln z i der charakteristischen Gleichung in der linken w-Halbebene abgebildet. Mit (10-38) erhält man als charakteristische Gleichung in der w-Ebene

$$\gamma _{0}+\gamma _{1}\left[\frac{1+w}{1-w}\right]+\ldots+\gamma _{n}\left[\frac{1+w}{1-w}\right]^{n}=0\;.$$
(10-39)

Hierauf kann das Routh- oder Hurwitz-Kriterium (siehe 6.2) angewandt werden. Dieser Weg ist jedoch nicht erforderlich, wenn speziell für diskrete Systeme entwickelte Stabilitätskriterien verwendet werden, wie beispielsweise das Kriterium von Jury [5] oder das Schur-Cohn-Kriterium [6]. Im Folgenden sei kurz das Vorgehen beim Jury-Stabilitätskriterium gezeigt.

Zunächst wird in (10-37) das Vorzeichen so gewählt, dass

$$y_{n}> 0$$
(10-40)

wird. Dann berechnet man das in Tabelle 10-1 dargestellte Koeffizientenschema. Zu diesem Zweck schreibt man die Koeffizienten γ i in den ersten beiden Reihen vor- und rückwärts – wie dargestellt – an. Jeder nachfolgende Satz zweier zusammengehöriger Reihen wird berechnet aus folgenden Determinanten:

$$\begin{aligned}\displaystyle\begin{array}[]{l}b_{k}=\left|\begin{array}[]{c@{\quad}c}\gamma _{0}\hfil\quad&\gamma _{{n-k}}\\ \gamma _{n}\hfil\quad&\gamma _{k}\end{array}\right|,\quad c_{k}=\left|\begin{array}[]{c@{\quad}c}b_{0}\hfil\quad&b_{{n-1-k}}\\ b_{{n-1}}\hfil\quad&b_{k}\end{array}\right|\\ d_{k}=\left|\begin{array}[]{c@{\quad}c}c_{0}\hfil\quad&c_{{n-2-k}}\\ c_{{n-2}}\hfil\quad&c_{k}\end{array}\right|,\ldots\\ s_{0}=\left|\begin{array}[]{c@{\quad}c}r_{0}\hfil\quad&r_{3}\\ r_{3}\hfil\quad&r_{0}\end{array}\right|,\quad s_{1}=\left|\begin{array}[]{c@{\quad}c}r_{0}\hfil\quad&r_{2}\\ r_{3}\hfil\quad&r_{1}\end{array}\right|,\quad s_{2}=\left|\begin{array}[]{c@{\quad}c}r_{0}\hfil\quad&r_{1}\\ r_{3}\hfil\quad&r_{2}\end{array}\right|.\end{array}\end{aligned}$$
Tab. 10-1 Koeffizienten zum Jury-Stabilitätskriterium

Die Berechnung erfolgt solange, bis die letzte Reihe mit den drei Zahlen s 0, s 1 und s 2 erreicht ist. Das Jury-Stabilitätskriterium besagt nun, dass für asymptotisch stabiles Verhalten folgende notwendigen und hinreichenden Bedingungen erfüllt sein müssen:

a):
$$\begin{aligned}\displaystyle f(1)> 0\ {\text{und}}\ (-1)^{n}f(-1)> 0\end{aligned}$$
(10-41)
b):

außerdem folgende (n − 1) Bedingungen:

$$\begin{array}[]{lll}|\gamma _{0}|<\gamma _{n}> 0&\quad&|d_{0}|> |d_{{n-3}}|\\ |b_{0}|> |b_{{n-1}}|&\quad&\vdots\\ |c_{0}|> |c_{{n-2}}|&\quad&|s_{0}|> |s_{2}|\;.\end{array}$$
(10-42)

Ist eine dieser Bedingungen nicht erfüllt, dann ist das System instabil. Bevor das Koeffizientenschema aufgestellt wird, muss zuerst f(z = 1) und f(z = −1) berechnet werden. Erfüllt eine dieser Beziehungen die zugehörige obige Ungleichung nicht, dann liegt bereits instabiles Verhalten vor.

Regelalgorithmen für die digitale Regelung

PID-Algorithmus

Eine der einfachsten Möglichkeiten, einen Regelalgorithmus für die digitale Regelung zu realisieren, besteht darin, die Funktion des konventionellen analogen PID-Reglers einem Prozessrechner zu übertragen. Dazu muss der PID-Regler mit verzögertem D-Verhalten und der Übertragungsfunktion

$$G_{{\text{PID}}}(s)=K_{{\text{R}}}\left[1+\frac{1}{{{T}}_{\text{I}}s}+\frac{T_{{\text{D}}}s}{1+T_{{\text{v}}}s}\right]$$
(10-43)

in einen diskreten Algorithmus umgewandelt werden. Da hierbei der Zeitverlauf des Eingangssignals, nämlich die Regelabweichung e(t) beliebig sein kann, ist die Bestimmung der z-Übertragungsfunktion des diskreten PID-Reglers nur näherungsweise möglich.

Für die Berechnung des I-Anteils wird die Tustin-Formel (10-32) benutzt, wodurch eine Integration nach der Trapezregel beschrieben wird. Zur Diskretisierung des D-Anteils erweist sich eine Substitution nach (10-30) als günstiger, sodass man insgesamt für den PID-Algorithmus die z-Übertragungsfunktion

$$\begin{aligned}\displaystyle D_{{\text{PID}}}({z})=&\displaystyle\, K_{{\text{R}}}\left[1+\displaystyle\frac{T}{2T_{\text{I}}}\cdot\frac{z+1}{z-1}\right.\\ \displaystyle&\displaystyle+\left.\displaystyle\frac{T_{{\text{D}}}}{T}\cdot\frac{z-1}{{z}(1+T_{{\text{v}}}/T)-T_{{\text{v}}}/T}\right]\end{aligned}$$
(10-44)

erhält. Fasst man die einzelnen Terme zusammen, so ergibt sich eine z-Übertragungsfunktion 2. Ordnung mit den Polen z = 1 und z = −c 1

$$D_{{\text{PID}}}({z})=\frac{U_{{\text{z}}}({z})}{E_{{\text{z}}}({z})}=\frac{d_{0}+d_{1}{z}^{{-1}}+d_{2}{z}^{{-2}}}{(1-{z}^{{-1}})(1+c_{1}{z}^{{-1}})}\;,$$
(10-45)

deren Koeffizienten aus den Parametern K R, T I, T D und T v wie folgt berechnet werden:

$$\begin{aligned}\displaystyle d_{0}&\displaystyle=\frac{K_{{\text{R}}}}{1+T_{{\text{v}}}/T}\left[1+\frac{T+T_{{\text{v}}}}{2T_{\text{I}}}+\frac{T_{{\text{D}}}+T_{{\text{v}}}}{T}\right]\,,\end{aligned}$$
(10-46a)
$$\begin{aligned}\displaystyle d_{1}&\displaystyle=\frac{K_{{\text{R}}}}{1+T_{{\text{v}}}/T}\left[-1+\frac{T}{2T_{\text{I}}}-\frac{2(T_{{\text{D}}}+T_{{\text{v}}})}{T}\right]\;,\end{aligned}$$
(10-46b)
$$\begin{aligned}\displaystyle d_{2}&\displaystyle=\frac{K_{{\text{R}}}}{1+T_{{\text{v}}}/T}\left[\frac{T_{{\text{D}}}+T_{{\text{v}}}}{T}-\frac{T_{{\text{v}}}}{2T_{\text{I}}}\right]\;,\end{aligned}$$
(10-46c)
$$\begin{aligned}\displaystyle c_{1}&\displaystyle=-\frac{T_{{\text{v}}}}{T+T_{{\text{v}}}}\;.\end{aligned}$$
(10-46d)

Die zugehörige Differenzengleichung

$$\begin{array}[]{lll}u(k)=&d_{0}e(k)+d_{1}e(k-1)+d_{2}e(k-2)\\ &+(1-c_{1})u(k-1)+c_{1}u(k-2)\end{array}$$
(10-47)

erhält man direkt aus (10-45) durch inverse z-Transformation. Gleichung (10-47) wird auch als Stellungs- oder Positionsalgorithmus bezeichnet, da hier die Stellgröße direkt berechnet wird. Im Gegensatz dazu wird beim Geschwindigkeitsalgorithmus jeweils die Änderung der Stellgröße

$$\Updelta u(k)=u(k)-u(k-1)$$
(10-48)

berechnet, wobei die entsprechende Differenzengleichung lautet:

$$\begin{array}[]{l@{\quad}l@{\quad}l}\Updelta u(k)=\hfil\quad&d_{0}e(k)+d_{1}e(k-1)\hfil\quad\\ \quad&+d_{2}e(k-2)-c_{1}\Updelta u(k-1)\;.\hfil\quad\end{array}$$
(10-49)

Durch Anwendung der z-Transformation folgt aus (10-49) direkt die z-Übertragungsfunktion des Geschwindigkeitsalgorithmus

$$D^{\prime}_{{\text{PID}}}({z})=\frac{\Updelta U_{{\text{z}}}({z})}{E_{{\text{z}}}({z})}=\frac{d_{0}+d_{1}{z}^{{-1}}+d_{2}{z}^{{-2}}}{1+c_{1}{z}^{{-1}}}\;.$$
(10-50)

In der Praxis wird der Geschwindigkeitsalgorithmus immer dann angewendet, wenn das Stellglied speicherndes Verhalten hat, wie es z. B. bei einem Schrittmotor der Fall ist.

Die hier besprochenen PID-Algorithmen stellen aufgrund ihrer Herleitung quasistetige Regelalgorithmen dar. Wählt man dabei die Abtastzeit T mindestens 1∕10 kleiner als die dominierende Zeitkonstante des Systems, so können unmittelbar die Parameter des kontinuierlichen PID-Reglers in ( 10-46a) bis (10-46d) eingesetzt werden, wie sie durch Optimierung, aufgrund von Einstellregeln oder Erfahrungswerten bekannt sind. Am meisten verbreitet sind die von Takahashi [7] für diskrete Regler entwickelten Einstellregeln, die sich weitgehend an die Regeln von Ziegler-Nichols (siehe 8) anlehnen.

Die Reglerparameter können entweder anhand der Kennwerte des geschlossenen Regelkreises an der Stabilitätsgrenze bei Verwendung eines P-Reglers (Methode I) oder anhand der gemessenen Übergangsfunktion der Regelstrecke (Methode II) ermittelt werden. Die hierfür notwendigen Beziehungen sind in Tabelle 10-2 für den P-, PI- und PID-Regler zusammengestellt. Dabei beschreiben die Größen K R krit den Verstärkungsfaktor eines P-Reglers an der Stabilitätsgrenze und T krit die Periodendauer der sich einstellenden Dauerschwingung. Bezüglich der Wahl der Größe von T v ist darauf zu achten, dass bei kleinen Abtastzeiten das durch den Analog-Digital-Umsetzer verursachte „Quantisierungsrauschen“ am Reglereingang nicht zu sehr verstärkt wird.

Tab. 10-2 Einstellwerte für diskrete Regler nach Takahashi

Selbstverständlich kann der PID-Algorithmus auch mit größeren Abtastzeiten eingesetzt werden. Allerdings ist es dann nicht mehr möglich, die Parameter nach den zuvor erwähnten Regeln einzustellen. Sehr gute Ergebnisse erhält man in diesem Fall durch Optimierung der Parameter.

Der Entwurf diskreter Kompensationsalgorithmen

Der diskrete Entwurf ist besonders dann interessant, wenn die Abtastzeit so groß gewählt wird, dass nicht mehr von einem quasistetigen Betrieb ausgegangen werden kann. In diesem Fall erhält man aus dem Prinzip der Kompensation der Regelstrecke ein sehr einfaches und leistungsfähiges Syntheseverfahren fürdiskrete Regelalgorithmen, das es ermöglicht, die diskrete Führungsübertragungsfunktion des geschlossenen Regelkreises nahezu beliebig vorzugeben. Ausgangspunkt ist ein Abtastregelkreis in diskreter Darstellung gemäß Bild 10-5, wobei die Regelstrecke, die kein sprungfähiges Verhalten besitzen soll (b 0 = 0), durch die z-Übertragungsfunktion (der einfacheren Beschreibung halber wird im Folgenden auf den Index z verzichtet)

$$G(z)=\frac{B({z})z^{{-d}}}{A(z)}=\frac{b_{1}z^{{-1}}+\ldots+b_{n}z^{{-n}}}{1+a_{1}z^{{-1}}+\ldots+a_{n}z^{{-n}}}z^{{-d}}$$
(10-51)

und der diskrete Regler durch D(z) beschrieben werden. Hierbei ist d die diskrete Totzeit der Regelstrecke, für die d = T t T gilt. Die Führungsübertragungsfunktion dieses Regelkreises lautet:

Bild 10-5
figure 67

Diskreter Regelkreis

$$G_{{\text{W}}}(z)=\frac{Y(z)}{W(z)}=\frac{D(z)G(z)}{1+D(z)G(z)}\;.$$
(10-52)

Nun gibt man für G W(z) ein gewünschtes Übertragungsverhalten in Form einer „Modellübertragungsfunktion“ K W(z) vor mit der Forderung

$$\begin{aligned}\displaystyle G_{{\text{W}}}(z)\stackrel{!}{=}K_{{\text{W}}}(z)\;.\end{aligned}$$

Damit löst man (10-52) nach D(z) auf und erhält analog zu (8-44) die Übertragungsfunktion des Reglers

$$D(z)=\frac{1}{G(z)}\cdot\frac{K_{{\text{W}}}(z)}{1-K_{{\text{W}}}(z)}\;.$$
(10-53)

Diese Beziehung stellt die Grundgleichung der diskreten Kompensation dar.

Treten in G(z) Pole und/oder Nullstellen außerhalb des Einheitskreises der z-Ebene auf, so muss K W(z) die folgenden Bedingungen erfüllen

$$\begin{aligned}\displaystyle&\displaystyle K_{{\text{W}}}(z)=B^{-}(z)K_{1}(z)z^{{-d}}\end{aligned}$$
(10-54)
$$\begin{aligned}\displaystyle\text{und}&\displaystyle 1-K_{{\text{W}}}(z)=A^{-}(z)K_{2}(z)\;,\end{aligned}$$
(10-55)

wobei A (z) und B (z) die Teilpolynome von A(z) = A +(z) A (z) und B(z) = B +(z) B (z) darstellen, deren Wurzeln außerhalb und auf dem Einheitskreis liegen, d. h., es gilt |z i | ≥ 1, während für A +(z) und B +(z) die Beziehung |z i | < 1 gilt. Bei der Wahl von K 1(z) und K 2(z) ist weiter – wegen der stationären Genauigkeit für Führungsverhalten – die Bedingung K W(1) = 1 einzuhalten. Diese Bedingung wird mit (10-54) und (10-55) gerade erfüllt durch die Ansätze

$$\begin{aligned}\displaystyle&\displaystyle\displaystyle K_{1}(z)=\frac{B_{{\text{K}}}(z)P(z)}{N(z)}\end{aligned}$$
(10-56)
$$\begin{aligned}\displaystyle\displaystyle{\text{und}}&\displaystyle K_{2}(z)=\frac{\left(1-z^{{-1}}\right)Q(z)}{N(z)}\;.\end{aligned}$$
(10-57)

In diesen beiden Beziehungen können die Polynome N(z) und B K(z) noch frei gewählt werden.

Damit ist K W(z) vollständig festgelegt. Die unbekannten Polynome P(z) und Q(z) werden mit minimaler Ordnung so bestimmt, dass B K(z) und N(z) alle frei wählbaren Parameter enthalten. Durch Einsetzen von (10-54) in (10-55) folgt unter Berücksichtigung von (10-56) und (10-57) die Polynomgleichung

$$N(z)-A^{-}(z)(1-z^{{-1}})Q(z)=B^{-}(z)B_{{\text{K}}}(z)P(z)z^{{-d}}$$
(10-58)

zur Bestimmung von P(z) und Q(z). Durch Einsetzen von (10-54) bis (10-57) und (10-51) in (10-53) erhält man schließlich als Beziehung für den allgemeinen Kompensationsalgorithmus

$$D(z)=\frac{A^{+}(z)B_{{\text{K}}}(z)P(z)}{B^{+}(z)Q(z)(1-z^{{-1}})}\;.$$
(10-59)

Für den Fall, dass alle Pole und Nullstellen von G(z) im Bereich |z i| < 1 liegen, werden (10-54) bis (10-59) vereinfacht, indem die Polynome A +(z), A (z), B +(z) und B (z) B K(z) P(z) ersetzt werden durch A(z), 1, B(z) und P′(z) [3], wobei P′(z) und N(z) frei wählbar sind.

Kompensationsalgorithmus für endliche Einstellzeit

Das Verfahren der diskreten Kompensation bietet die Möglichkeit, Regelkreise mit endlicher Einstellzeit (deadbeat response) zu entwerfen. Dies ist eine für Abtastsysteme typische Eigenschaft, die bei kontinuierlichen Regelsystemen nicht erreicht werden kann.

Es soll also K W(z) nun so gewählt werden, dass der Einschwingvorgang nach einer sprungförmigen Sollwertänderung innerhalb von n E = q + d Abtastschritten abgeschlossen ist. Offensichtlich wird diese Bedingung erfüllt, wenn K W(z) ein endliches Polynom in z −1 der Ordnung n E ist. Dies ist gewährleistet, wenn

$$\begin{aligned}\displaystyle N(z)=1\end{aligned}$$

gewählt wird. Außerdem muss auch die Stellgröße nach n E Abtastwerten einen konstanten Wert annehmen [3]. Somit ergibt sich für die Modellübertragungsfunktion des Führungsverhaltens des geschlossenen Regelkreises

$$K_{{\text{W}}}(z)=B(z)B_{{\text{K}}}(z)P(z)z^{{-d}}\;.$$
(10-60)

Nach kurzer Zwischenrechnung erhält man für die Übertragungsfunktion des Reglers mit endlicher Einstellzeit

$$D(z)=\frac{A^{+}(z)B_{{\text{K}}}(z)P(z)}{Q(z)(1-z^{{-1}})}$$
(10-61)

und als Bestimmungsgleichung für P(z) und Q(z)

$$1-A^{-}(z)(1-z^{{-1}})Q(z)=B(z)B_{{\text{K}}}(z)P(z)z^{{-d}}\;.$$
(10-62)

P(z) und Q(z) können bei entsprechender Wahl von B K(z) mit (10-62) durch Koeffizientenvergleich gewonnen werden und ermöglichen so einen Entwurf, der den Anteil A (z) der Streckenübertragungsfunktion berücksichtigt.

Für den speziellen Fall stabiler Regelstrecken führt das folgende Vorgehen auf sehr einfache Weise unmittelbar zum Entwurf eines Reglers mit endlicher Einstellzeit. Benutzt man in (10-60) noch die Abkürzung

$$B^{\ast}(z)=B(z)B_{{\text{K}}}(z)=\sum\limits^{q}_{{i=0}}b^{\ast}_{i}z^{{-1}}\;,$$
(10-63)

dann erhält man für die Übertragungsfunktion des zugehörigen Reglers [3]

$$D(z)=\frac{A(z)B_{{\text{K}}}(z)/B^{\ast}(1)}{1-[B^{\ast}(z)/B^{\ast}(1)]\, z^{{-d}}}\;.$$
(10-64)

Wählt man beispielsweise B K(z) = 1, so wird q = n, also gleich der Ordnung der Regelstrecke. Damit ergibt sich als minimale Anzahl von Abtastschritten n E = n + d für die Ausregelung eines Sollwertsprunges, wodurch die minimale Ausregelzeit festgelegt wird. Bezüglich der Wahl von B K(z) können verschiedene Kriterien angewendet werden. Einerseits erhöht sich mit der Ordnung von B K(z) die Reglerordnung und damit bei einem Sollwertsprung die Anzahl der Abtastschritte bis zum Erreichen des stationären Endwertes der Regelgröße. Andererseits kann aber auch durch geeignete Wahl von B K(z) das Stellverhalten verbessert werden [3].

Zustandsraumdarstellung linearer Regelsysteme

Allgemeine Darstellung

Aufgrund ihrer Gemeinsamkeiten werden nachfolgend kontinuierliche und diskrete Systeme gemeinsam dargestellt und – soweit erforderlich – durch (a) und (b) in den Gleichungsnummern unterschieden. Eine Mehrgrößenregelstrecke wird durch die Zustandsgleichung

$$\begin{aligned}\displaystyle\boldsymbol{\dot{x}}(t)&\displaystyle=\boldsymbol{A}\boldsymbol{x}(t)+\boldsymbol{Bu}(t)\,,\qquad\boldsymbol{x}(t_{0})=\boldsymbol{x}_{0}\end{aligned}$$
(11-1a)
$$\begin{aligned}\displaystyle\boldsymbol{x}(k+1)&\displaystyle=\boldsymbol{A}_{{\text{d}}}\boldsymbol{x}(k)+\boldsymbol{B}_{{\text{d}}}\boldsymbol{u}(k)\,,\quad\boldsymbol{x}(0)=\boldsymbol{x}_{0}\end{aligned}$$
(11-1b)

und durch die Ausgangsgleichung

$$\begin{aligned}\displaystyle\boldsymbol{y}(t)&\displaystyle=\boldsymbol{Cx}(t)+\boldsymbol{Du}(t)\end{aligned}$$
(11-2a)
$$\begin{aligned}\displaystyle\boldsymbol{y}(k)&\displaystyle=\boldsymbol{C}_{{\text{d}}}\boldsymbol{x}(k)+\boldsymbol{D}_{{\text{d}}}\boldsymbol{u}(k)\end{aligned}$$
(11-2b)

beschrieben, vgl. 3.3. Bei der Umrechnung eines kontinuierlichen Systems der Darstellung (a) in dem diskreten Fall von (b) existiert folgender Zusammenhang: C d = C und D d = D, sowie

$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{A}_{{\text{d}}}=\boldsymbol{I}+\boldsymbol{SA}\quad{\text{und}}\quad\boldsymbol{B}_{{\text{d}}}=\boldsymbol{SB}\end{aligned}$$
(11-3)
$$\begin{aligned}\displaystyle{\text{mit}}&\displaystyle\boldsymbol{S}=T\sum\limits^{\infty}_{{\nu=0}}\boldsymbol{A}^{{\nu}}\frac{T^{{\nu}}}{(\nu+1)!}\;,\end{aligned}$$
(11-4)

wobei T die Abtastzeit ist, und I die Einheitsmatrix kennzeichnet. Die unendliche Reihe in (11-4) muss bei der praktischen Auswertung nach einer endlichen Zahl von Gliedern abgebrochen werden. Dabei wird zweckmäßigerweise ein zulässiger Abbruchfehler durch die Norm des Zuwachsterms vorgeschrieben.

Die Lösung von (11-1) lautet

$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{x}(t)=\boldsymbol{\Phi}(t)\boldsymbol{x}_{0}+\int\limits^{t}_{{0}}\boldsymbol{\Phi}(t-\tau)\boldsymbol{Bu}(\tau){\text{d}}\tau\;,\end{aligned}$$
(11-5a)
$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{x}(k)=\boldsymbol{\Phi}(k)\boldsymbol{x}_{0}+\sum\limits^{{k-1}}_{{j=0}}\boldsymbol{A}_{{\text{d}}}^{{k-j-1}}\boldsymbol{B}_{{\text{d}}}\boldsymbol{u}(j)\;,\end{aligned}$$
(11-5b)
$${\text{wobei}}\quad\boldsymbol{\Phi}(t)={\text{e}}^{{\boldsymbol{A}t}}\,,\quad\boldsymbol{\Phi}(k)=\boldsymbol{A}^{k}_{{\text{d}}}$$
(11-6a,b)

als Fundamental- oder Übergangsmatrix bezeichnet wird. Diese Matrix spielt bei den Methoden des Zustandsraums eine wichtige Rolle. Sie ermöglicht auf einfache Weise die Berechnung des Systemzustands für alle Zeiten t allein aus der Kenntnis eines Anfangszustands x 0 und des Zeitverlaufs des Eingangsvektors. Der Term Φx 0 in (11-5) beschreibt die homogene Lösung der Zustandsgleichung, die auch als Eigenbewegung oder als freie Reaktion des Systems bezeichnet wird. Der zweite Term entspricht der partikulären Lösung, also dem durch die äußere Erregung gegebenen Anteil ( erzwungene Reaktion). Zur Berechnung von Φ existieren verschiedene Methoden [1]. Eine einfache Möglichkeit besteht in der Berechnung im Frequenzbereich:

$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{\Phi}(t)=\mathcal{L}^{{-1}}\{(s\boldsymbol{I}-\boldsymbol{A})^{{-1}}\}\;,\end{aligned}$$
(11-7a)
$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{\Phi}(k)=\mathcal{Z}^{{-1}}\{(z\boldsymbol{I}-\boldsymbol{A}_{{\text{d}}})^{{-1}}z\}\;.\end{aligned}$$
(11-7b)

Andererseits bietet sich für diskrete Systeme die rekursive Form

$$\boldsymbol{\Phi}(k+1)=\boldsymbol{A}_{{\text{d}}}\boldsymbol{\Phi}(k)\quad{\text{mit}}\quad\boldsymbol{\Phi}(0)=\boldsymbol{I}$$
(11-8)

zur einfachen Berechnung an.

Das Übertragungsverhalten der durch (11-1) beschriebenen Mehrgrößenregelstrecke lässt sich auch durch die Übertragungsmatrix \(\underline{\boldsymbol{G}}\) in der Darstellung

$$\boldsymbol{Y}(s)=\underline{\boldsymbol{G}}(s)\boldsymbol{U}(s)\,,\quad\boldsymbol{Y}(z)=\underline{\boldsymbol{G}}(z)\boldsymbol{U}(z)$$
(11-9a,b)

beschreiben, wobei die Elemente \(G_{{ij}}\; von\;\underline{\boldsymbol{G}}(i=1,2,\ldots,m;j=1,2,\ldots,r)\) die Teilübertragungsfunktionen des Mehrgrößensystems sind. Für \(\underline{\boldsymbol{G}}\) gilt

$$\begin{aligned}\displaystyle&\displaystyle\underline{\boldsymbol{G}}(s)=\boldsymbol{C}(s\boldsymbol{I}-\boldsymbol{A})^{{-1}}\boldsymbol{B}+\boldsymbol{D}\;,\end{aligned}$$
(11-10a)
$$\begin{aligned}\displaystyle&\displaystyle\underline{\boldsymbol{G}}(z)=\boldsymbol{C}_{{\text{d}}}(z\boldsymbol{I}-\boldsymbol{A}_{{\text{d}}})^{{-1}}\boldsymbol{B}_{{\text{d}}}+\boldsymbol{D}_{{\text{d}}}\;.\end{aligned}$$
(11-10b)

Im Falle eines Eingrößensystems geht z. B. (11-10a) über in die Übertragungsfunktion:

$$G(s)=\boldsymbol{c}^{{\text{T}}}(s\boldsymbol{I}-\boldsymbol{A})^{{-1}}\boldsymbol{b}+d\;.$$
(11-11)

Aus (11-10) bzw. (11-11) erhält man unmittelbar die charakteristische Gleichung des offenen Systems durch Berechnung der Determinanten

$$\begin{aligned}\displaystyle&\displaystyle P^{{\ast}}(s)=|(s\boldsymbol{I}-\boldsymbol{A})|=0\;,\end{aligned}$$
(11-12a)
$$\begin{aligned}\displaystyle&\displaystyle P^{\ast}(z)=|(z\boldsymbol{I}-\boldsymbol{A}_{{\text{d}}})|=0\;,\end{aligned}$$
(11-12b)

wobei die sich aus diesem Polynom ergebenen Wurzeln die Pole des Systems darstellen, die auch als Eigenwerte von A bzw. A d anzusehen sind. Zur Beurteilung der Stabilität kann die Lage dieser Pole in der s- oder z-Ebene herangezogen werden.

Normalformen für Eingrößensysteme

Der kürzeren Schreibweise wegen erfolgt im Weiteren die Darstellung nur für kontinuierliche Systeme, die durch die Übertragungsfunktion

$$G(s)=\frac{Y(s)}{U(s)}=\frac{b_{0}+b_{1}s+\ldots+b_{{n-1}}s^{{n-1}}+b_{n}s^{n}}{a_{0}+a_{1}s+\ldots+a_{{n-1}}s^{{n-1}}+s^{{n}}}$$
(11-13)

beschrieben werden. Um für derartige Systeme eine Zustandsraumdarstellung anzugeben, können Standardformen gewählt werden:

a):

Regelungsnormalform:

$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{A}=\left[\begin{array}[]{cccccc}0&1&0&0&\ldots&0\\ 0&0&1&0&&0\\ 0&0&0&1&&0\\ \vdots&&&&\ddots&\vdots\\ 0&0&0&0&\cdots&1\\ -a_{0}&-a_{1}&-a_{2}&-a_{3}&\cdots&-a_{{n-1}}\end{array}\right]\;,\\ \displaystyle&\displaystyle\end{aligned}$$
(11-14a,b)
$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{B}=\boldsymbol{b}=\left[\begin{array}[]{c}0\\ 0\\ 0\\ \vdots\\ 0\\ 1\end{array}\right]\;,{}\end{aligned}$$
$$\begin{aligned}\displaystyle\boldsymbol{C}&\displaystyle=\boldsymbol{c}^{{\text{T}}}\\ \displaystyle&\displaystyle=[(b_{0}-b_{n}a_{0}),(b_{1}-b_{n}a_{1}),\ldots(b_{{n-1}}-b_{n}a_{{n-1}})]\;,\\ \displaystyle\boldsymbol{D}&\displaystyle=d=b_{n}\,.\end{aligned}$$
(11-15c,d)

Die Struktur der Matrix A wird als Frobenius-Form oder Regelungsnormalform bezeichnet. Sie ist dadurch gekennzeichnet, dass sie in der untersten Zeile genau die negativen Koeffizienten ihres charakteristischen Polynoms (normiert auf a n  = 1) enthält.

b) :

Beobachtungsnormalform:

$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{A}=\left[\begin{array}[]{cccccc}0&0&\ldots&0&0&-a_{0}\\ 1&0&&\vdots&\vdots&\vdots\\ 0&1&&\vdots&\vdots&\vdots\\ 0&0&\ldots&0&0&-a_{{n-3}}\\ \vdots&\vdots&&1&0&-a_{{n-2}}\\ 0&0&\ldots&0&1&-a_{{n-1}}\end{array}\right]\;,\\ \displaystyle&\displaystyle&\displaystyle&\displaystyle&\displaystyle&\displaystyle&\displaystyle\end{aligned}$$
(11-16a,b)
$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{b}=\left[\begin{array}[]{c}b_{0}\;-b_{n}a_{0}\\ b_{1}\;-b_{n}a_{1}\\ \vdots\\ b_{{n-3}}\;-b_{n}a_{{n-3}}\\ b_{{n-2}}\;-b_{n}a_{{n-2}}\\ b_{{n-1}}\;-b_{n}a_{{n-1}}\end{array}\right]\;,\\ \displaystyle&\displaystyle\boldsymbol{C}={\boldsymbol{c}}^{{\text{T}}}=[0\; 0\;\ldots\; 0\; 1]\,,\;\boldsymbol{D}=d=b_{n}\,.{}\end{aligned}$$

Man erkennt unmittelbar, dass diese Systemdarstellung dual zur Regelungsnormalform ist, insofern als die Vektoren b und c gerade vertauscht sind, während die Matrix A eine transponierte Frobenius-Form besitzt, in der die negativen Koeffizienten des charakteristischen Polynoms als Spalte auftreten.

c) :

Diagonalform: Für einfache reelle Pole folgt:

$$\begin{aligned}\displaystyle&\displaystyle&\displaystyle\boldsymbol{A}=\left[\begin{array}[]{cccc}s_{1}&0&\ldots&0\\ 0&s_{2}&&\vdots\\ \vdots&&\ddots&0\\ 0&\ldots&0&s_{{n}}\end{array}\right],\ \boldsymbol{b}=\left[\begin{array}[]{c}1\\ 1\\ \vdots\\ 1\end{array}\right]\end{aligned}$$
(11-17a,b)
$$\begin{aligned}\displaystyle&\displaystyle&\displaystyle{\text{und}}\quad\boldsymbol{c}^{{\text{T}}}=[c_{1}\ c_{2}\ \ldots\ c_{n}]\,.{}\end{aligned}$$

In dieser Darstellung sind die Zustandsgleichungen entkoppelt. Das System zerfällt in n voneinander unabhängige Einzelsysteme 1. Ordnung, wobei jedem dieser Teilsysteme genau ein Pol des Systems zugeordnet ist. Die Systemmatrix hat Diagonalform und besitzt die Pole als Diagonalelemente. Treten mehrfache und/oder komplexe Pole auf, so ist eine blockdiagonale Struktur der Matrix in Form einer Jordan-Matrix [1] erforderich.

Steuerbarkeit und Beobachtbarkeit

Das dynamische Verhalten eines Übertragungssystems wird, wie oben gezeigt wurde, durch die Zustandsgrößen vollständig beschrieben. Bei einem gegebenen System sind diese jedoch in der Regel nicht bekannt; man kennt gewöhnlich nur den Ausgangsvektor y(t) sowie den Steuervektor u(t). Dabei sind für die Analyse und den Entwurf eines Regelsystems folgende Fragen interessant, die eine erste Näherung der Begriffe Steuerbarkeit und Beobachtbarkeit ergeben:

–:

Gibt es irgendwelche Komponenten des Zustandsvektors x(t) des Systems, die keinen Einfluss auf den Ausgangsvektor y(t) ausüben? Ist dies der Fall, dann kann aus dem Verhalten des Ausgangsvektors y(t) nicht auf den Zustandsvektor x(t) geschlossen werden, und es liegt nahe, das betreffende System als nicht beobachtbar zu bezeichnen.

–:

Gibt es irgendwelche Komponenten des Zustandsvektors x(t) des Systems, die nicht vom Eingangsvektor (Steuervektor) u(t) beeinflusst werden? Ist dies der Fall, dann ist es naheliegend, das System als nicht steuerbar zu bezeichnen.

Die von Kalman [2] eingeführten Begriffe Steuerbarkeit und Beobachtbarkeit spielen in der modernen Regelungstechnik eine wichtige Rolle und ermöglichen eine schärfere Definition dieser soeben erwähnten Systemeigenschaften.

Definition der Steuerbarkeit::

Das durch (11-1) beschriebene lineare System ist vollständig zustandssteuerbar, wenn es für jeden Anfangszustand x(t 0) eine Steuerfunktion u(t) gibt, die das System innerhalb einer beliebigen endlichen Zeitspanne t 0 ≤ t ≤ t 1 in den Endzustand x(t 1) = 0 überführt.

Für die Steuerbarkeit eines linearen zeitinvarianten Systems ist folgende Bedingung notwendig und hinreichend:

$${\text{Rang}}\ [\boldsymbol{B}|\boldsymbol{AB}|\ldots|\boldsymbol{A}^{{n-1}}\boldsymbol{B}]=n\,.$$
(11-18)

Das bedeutet, die (n × nr)-Hypermatrix

$$\begin{aligned}\displaystyle\boldsymbol{S}_{1}=[\boldsymbol{B}|\boldsymbol{AB}|\ldots|\boldsymbol{A}^{{n-1}}\boldsymbol{B}]\end{aligned}$$

muss n linear unabhängige Spaltenvektoren enthalten. Bei Eingrößensystemen ist S 1 eine quadratische Matrix, deren n Spalten linear unabhängig sein müssen. In diesem Fall kann der Rang von S 1 anhand der Determinante |S 1| überprüft werden. Ist |S 1| ≠ 0 dann besitzt S 1 den vollen Rang.

Definition der Beobachtbarkeit::

Das durch (11-1) und (11-2b) beschriebene lineare System ist vollständig beobachtbar, wenn man bei bekannter Steuerfunktion u(t) und bekannten Matrizen A und C aus der Messung des Ausgangsvektors y(t) über ein endliches Zeitintervall t 0 ≤ t ≤ t 1 den Anfangszustand x(t 0) eindeutig bestimmen kann.

Zur Prüfung der Beobachtbarkeit eines linearen zeitinvarianten Systems bildet man die (n × nm)-Hypermatrix

$$\begin{aligned}\displaystyle\boldsymbol{S}_{2}^{{\text{T}}}=[\boldsymbol{C}^{{\text{T}}}|(\boldsymbol{CA})^{{\text{T}}}|\ldots|(\boldsymbol{CA}^{{n-1}})^{{\text{T}}}]\;.\end{aligned}$$

Das System ist genau dann beobachtbar, wenn gilt

$${\text{Rang}}\ \boldsymbol{S}_{2}={n}\;.$$
(11-19)

Diese Bedingung kann auch mithilfe der transponierten Matrix S T2 ausgedrückt werden:

$$\begin{aligned}\displaystyle{\text{Rang}}[\boldsymbol{C}^{{\text{T}}}|\boldsymbol{A}^{{\text{T}}}\boldsymbol{C}^{{\text{T}}}|\ldots|(\boldsymbol{A}^{{\text{T}}})^{{n-1}}\boldsymbol{C}^{{\text{T}}}]=n\;,\end{aligned}$$

woraus man durch Vergleich mit (11-18) erkennt, dass Beobachtbarkeit und Steuerbarkeit duale Systemeigenschaften sind.

Synthese linearer Regelsysteme im Zustandsraum

Das geschlossene Regelsystem

Ist eine Regelstrecke in der Zustandsraumdarstellung nach (11-1),

$$\begin{aligned}\displaystyle\boldsymbol{\dot{x}}=\boldsymbol{Ax}+\boldsymbol{Bu}\quad{\text{mit}}\quad\boldsymbol{x}_{0}=\boldsymbol{x}(0)\;,\end{aligned}$$

und (11-2b),

$$\begin{aligned}\displaystyle\boldsymbol{y}=\boldsymbol{Cx}+\boldsymbol{Du}\;,\end{aligned}$$

gegeben, so bieten sich für ihre Regelung folgende zwei wichtige Möglichkeiten an:

a):

Rückführung des Zustandsvektors x,

b):

Rückführung des Ausgangsvektors y.

Die Blockstrukturen beider Möglichkeiten sind in Bild 11-1 dargestellt. Die Rückführung erfolge in beiden Fällen über konstante Verstärkungs- oder Reglermatrizen

$$\begin{aligned}\displaystyle\boldsymbol{F}_{{(r\,\times\, n)}}\quad{\text{oder}}\quad\boldsymbol{F}^{{\prime}}_{{(r\,\times\, m)}}\;,\end{aligned}$$

die oft auch als Rückführmatrizen bezeichnet werden.

Beide Blockstrukturen weisen des Weiteren für die Führungsgröße je ein Vorfilter auf, das ebenfalls durch eine konstante Matrix

$$\begin{aligned}\displaystyle\boldsymbol{V}_{{(r\,\times\, m)}}\quad{\text{oder}}\quad\boldsymbol{V}^{{\prime}}_{{(r\,\times\, m)}}\end{aligned}$$

beschrieben wird. Dieses Vorfilter sorgt dafür, dass der Ausgangsvektor y im stationären Zustand mit dem Führungsvektor w (m × 1) übereinstimmt. Für jede der beiden Regelkreisstrukturen lässt sich nun ebenfalls eine Zustandsraumdarstellung angeben.

Bild 11-1
figure 68

Regelung durch Rückführung a des Zustandsvektors x und b des Ausgangsvektors y

Bei dem Regelsystem mit Rückführung des Zustandsvektors erhält man die Zustandsraumdarstellung

$$\begin{aligned}\displaystyle&\displaystyle\qquad\boldsymbol{\dot{x}}=\boldsymbol{(A-BF)x}+\boldsymbol{BVw}\end{aligned}$$
(11-20)
$$\begin{aligned}\displaystyle&\displaystyle{\text{und}}\ \ \boldsymbol{y}=\boldsymbol{(C-DF)x}+\boldsymbol{DVw}\;.\end{aligned}$$
(11-21)

Diese beiden Beziehungen haben eine ähnliche Struktur wie (11-1) und (11-2b). Somit gelten für den Übergang vom offenen zum geschlossenen Regelsystem die früher bereits eingeführten Beziehungen, nur dass nun die entsprechenden Korrespondenzen zwischen (11-1) und (11-20), bzw. (11-2b) und (11-21), verwendet werden müssen. So erhält man z. B. mit der Systemmatrix (A − BF) die zur Stabilitätsuntersuchung des geschlossenen Systems erforderliche charakteristische Gleichung

$$P(s)=|s\boldsymbol{I}-(\boldsymbol{A}-\boldsymbol{BF})|=0\;,$$
(11-22)

aus der die Pole bzw. Eigenwerte des Regelkreises bestimmt werden können. Bei dem Regelsystem mit Rückführung des Ausgangsvektors erhält man die Zustandsraumdarstellung

$$\begin{aligned}\displaystyle\boldsymbol{\dot{x}}=&\displaystyle\,[\boldsymbol{A}-\boldsymbol{BF^{{\prime}}}(\boldsymbol{I}+\boldsymbol{DF^{{\prime}}})^{{-1}}\boldsymbol{C}]\boldsymbol{x}\\ \displaystyle&\displaystyle+\ \boldsymbol{B}(\boldsymbol{I}+\boldsymbol{F^{{\prime}}D})^{{-1}}\boldsymbol{V^{{\prime}}w}\;.\end{aligned}$$
(11-23)
$$\begin{aligned}\displaystyle&\displaystyle{\text{und}}\quad\boldsymbol{y}=(\boldsymbol{I}+\boldsymbol{DF^{{\prime}}})^{{-1}}(\boldsymbol{Cx}+\boldsymbol{DV^{{\prime}}w})\;.\end{aligned}$$
(11-24)

Im Folgenden soll für den Fall der Zustandsvektorrückführung die Berechnung der Matrix V des Vorfilters angegeben werden. Dabei werden folgende Voraussetzungen gemacht:

–:

Die Regler- oder Rückführmatrix F sei bereits bekannt.

–:

Die Anzahl von Stell- und Führungsgrößen sei gleich (r = m).

–:

Zusätzlich gelte D = 0.

Das Ziel des Entwurfs des Vorfilters ist, V so zu berechnen, dass im stationären Zustand Führungs- und Regelgrößen übereinstimmen. Als Lösung ergibt sich [1]

$$\boldsymbol{V}=[\boldsymbol{C}(\boldsymbol{BF}-\boldsymbol{A})^{{-1}}\boldsymbol{B}]^{{-1}}\;.$$
(11-25)

Der Grundgedanke der Reglersynthese

Im Gegensatz zur klassischen Ausgangsgrößenregelung gehen die Verfahren zur Synthese linearer Regelsysteme im Zustandsraum von einer Rückführung der Zustandsgrößen gemäß Bild 11-1a aus, da diese ja das gesamte dynamische Verhalten der Regelstrecke beschreiben. Diese Struktur nennt man Zustandsgrößenregelung. Der Regler wird hierbei durch die konstante (r × n)-Matrix F beschrieben. Er entspricht bezüglich der Zustandsgrößen einem P-Regler. Während man bei der klassischen Synthese dynamische Regler benutzt, um aus der Ausgangsgröße beispielsweise einen D-Anteil zu erzeugen, kann hier der D-Anteil direkt oder indirekt als Zustandsgröße der Regelstrecke entnommen werden.

Die Standardverfahren im Zustandsraum gehen zunächst davon aus, dass für t > 0 keine Führungs- und Störungssignale vorliegen. Damit hat der Regler F die Aufgabe, die Eigendynamik des geschlossenen Regelsystems zu verändern. Die homogene Differenzialgleichung, die das Eigenverhalten des geschlossenen Regelsystems beschreibt, erhält man aus ( 11-20):

$$\boldsymbol{\dot{x}}=(\boldsymbol{A}-\boldsymbol{BF})\boldsymbol{x}=\boldsymbol{\tilde{A}x}\quad{\text{mit}}\quad\boldsymbol{x}(0)=\boldsymbol{x}_{0}\;.$$
(11-26)

Die Aufgabe der Regelung besteht nun darin, das System von einem Anfangszustand x(0) in einen gewünschten Endzustand x(t e) = 0 überzuführen. Dazu haben sich im Wesentlichen die nachfolgend aufgeführten drei Verfahren besonders bewährt. Gewöhnlich wird für deren Anwendung vorausgesetzt, dass die Regelstrecke steuerbar ist und dass ihre Zustandsgrößen verfügbar (z. B. messbar) sind. Allerdings genügt meist bereits die Voraussetzung, dass die Regelstrecke stabilisierbar ist, d. h., dass instabile Pole der Regelstrecke durch den Regler stabilisiert, also in die linke s-Halbebene verschoben werden können.

Die modale Regelung

Der Grundgedanke der modalen Regelung besteht darin, die bestehenden Zustandsgrößen x i (t) des offenen Systems geeignet zu transformieren, sodass die neuen Zustandsgrößen \(x^{\ast}_{i}(t)\) möglichst entkoppelt werden und getrennt geregelt werden können. Da der Steuervektor u nur r Komponenten besitzt, können nicht mehr als r modale Zustandsgrößen \(x^{\ast}_{i}(t)\) unabhängig voneinander beeinflusst werden. Jede der r ausgesuchten modalen Zustandsgrößen \(x^{\ast}_{i}(t)\) wirkt genau auf eine modale Steuergröße \(u^{\ast}_{i}(t)\), sodass die Reglermatrix F Diagonalform erhält, sofern die Eigenwerte des offenen Systems einfach sind. Bei mehrfachen Eigenwerten ist eine derartige vollständige Entkopplung der Zustandsgleichungen im Allgemeinen nicht mehr möglich. Unter Verwendung der Jordan-Form lässt sich dennoch eine weitgehende Entkopplung erreichen.

Das Verfahren der Polvorgabe

Das dynamische Eigenverhalten des geschlossenen Regelsystems wird im Wesentlichen durch die Lage der Pole bzw. durch die Lage der Eigenwerte der zugehörigen Systemmatrix bestimmt. Durch die Elemente f ij der Reglermatrix F können die Pole des offenen Systems aufgrund der Rückkopplung von x(t) an bestimmte gewünschte Stellen in der s-Ebene verschoben werden. Will man alle Pole verschieben, so muss das offene System steuerbar sein. Praktisch geht man so vor, dass die gewünschten Pole s i des geschlossenen Regelsystems vorgegeben und dazu die Reglerverstärkungen f ij ausgerechnet werden.

Ein allgemein anwendbares Verfahren [1] für Ein- und Mehrgrößensysteme liefert die Reglermatrix

$$\boldsymbol{F}=-[\boldsymbol{e}_{{\! j1}}\boldsymbol{e}_{{\! j2}}\ldots\boldsymbol{e}_{{\! jn}}][{\boldsymbol{\Psi}}_{{\! j_{1}}}(s_{1}){\boldsymbol{\Psi}}_{{\! j_{2}}}(s_{2})\ldots{\boldsymbol{\Psi}}_{{\! j_{n}}}(s_{n})]^{{-1}}\;,$$
(11-27)

wobei \(\boldsymbol{e}_{{\! j_{\nu}}}\) Einheitsvektoren sind und alle Pole s i bei der Berechnung der Spaltenvektoren \({\boldsymbol{\Psi}}_{{\! j_{i}}}(s_{i})\) berücksichtigt werden müssen. Diese Spaltenvektoren erhält man mit Φ(s) = L{Φ(t)} nach (7a) aus der (n × r)-Matrix

$${\boldsymbol{\Psi}}(s)={\boldsymbol{\Phi}}(s)\boldsymbol{B}=[{\boldsymbol{\Psi}}_{1}(s)\ldots{\boldsymbol{\Psi}}_{r}(s)]\;,$$
(11-28)

indem für alle n vorgegebenen Pole s i die (n × nr)-Matrix

$$\begin{aligned}\displaystyle[\boldsymbol{\Psi}(s_{1}){\boldsymbol{\Psi}}(s_{2})\ldots\boldsymbol{\Psi}(s_{n})]\end{aligned}$$

gebildet wird und daraus n linear unabhängige Spaltenvektoren \({\boldsymbol{\Psi}}_{{\! j_{1}}}(s_{1}),\ldots\) \({\boldsymbol{\Psi}}_{{\! j_{n}}}(s_{n})\) für die Berechnung von F ausgewählt werden, wobei j beliebige Werte von 1 bis r annehmen darf. Bei Eingrößensystemen (r = 1) ist die Wahl der (n × n)-Matrix [Ψ 1(s 1) …Ψ(s n )] eindeutig. Bei Mehrgrößensystemen bieten sich zum Aufbau der entsprechenden Matrix mehrere Möglichkeiten an. Aufgrund dieser Mehrdeutigkeit kann es verschiedene Reglermatrizen F geben, die zur gleichen charakteristischen Gleichung führen.

Bei einer Eingrößenregelstrecke, die in der Regelungsnormalform nach ( 11-15c,d) vorliegt, deren charakteristische Gleichung

$$P^{\ast}(s)=a_{0}+a_{1}s+\ldots+a_{{n-1}}s^{{n-1}}+s^{n}$$
(11-29)

lautet und die durch einen Zustandsregler

$$\begin{aligned}\displaystyle u=vw-\boldsymbol{f}^{{\text{T}}}\boldsymbol{x}\end{aligned}$$

so geregelt werden soll, dass der geschlossene Regelkreis mit den vorgegebenen Polen s i die charakteristische Gleichung

$$P(s)=p_{0}+p_{1}s+\ldots+p_{{n-1}}s^{{n-1}}+s^{n}$$
(11-30)

erfüllt, ergeben sich die gesuchten Elemente des Rückführvektors zu

$$\boldsymbol{f}^{{\text{T}}}=[(p_{0}-a_{0})(p_{1}-a_{1})\ldots(p_{{n-1}}-a_{{n-1}})]\;.$$
(11-31)

Optimaler Zustandsregler nach dem quadratischen Gütekriterium

In Anlehnung an das klassische, für Eingrößenregelsysteme eingeführte Kriterium der quadratischen Regelfläche unter Einbeziehung des Stellgrößenaufwandes lässt sich generell für Mehrgrößenregelsysteme die Gütevorschrift

$$\begin{aligned}\displaystyle I=&\displaystyle\,\boldsymbol{x}^{{\text{T}}}(t_{{\text{e}}})\boldsymbol{Sx}(t_{{\text{e}}})\\ \displaystyle&\displaystyle+\int\limits^{{t_{{\text{e}}}}}_{{t_{0}}}[\boldsymbol{x}^{{\text{T}}}(t)\boldsymbol{Qx}(t)+\boldsymbol{u}^{{\text{T}}}(t)\boldsymbol{R\ u}(t)]\,{\text{d}}t\stackrel{!}{=}{\text{Min}}\end{aligned}$$
(11-32)

verwenden. Das Problem des Entwurfs eines optimalen Zustandsreglers lässt sich nach diesem Kriterium nun wie folgt formulieren: Für eine in der Zustandsraumdarstellung (11-1) und (11-2b) gegebene Regelstrecke ist eine Reglermatrix F so zu ermitteln, dass ein optimaler Stellvektor

$$\boldsymbol{u}^{\ast}(t)=-\boldsymbol{F}^{\ast}\boldsymbol{x}$$
(11-33)

das System von einem Anfangswert x(t 0) derartig in die Ruhelage x(t e) = 0 überführt, dass das obige Kriterium (11-32) erfüllt wird. Q ist eine positiv semidefinite, R eine positiv definite jeweils symmetrische Bewertungsmatrix, die häufig in Diagonalform gewählt wird, S ist eine symmetrische positiv semidefinite Matrix, die den Endzustand bewertet. Das Problem hierbei besteht in der günstigen Wahl dieser drei Matrizen. Hierbei sollten weniger mathematische als vielmehr ingenieurmäßige Gesichtspunkte berücksichtigt werden. Als optimale Reglermatrix ergibt sich bei der Lösung dieser Aufgabe

$$\boldsymbol{F^{\ast}}=\boldsymbol{R}^{{-1}}\boldsymbol{B}^{{\text{T}}}\boldsymbol{K}\;,$$
(11-34)

wobei K die positiv definite, symmetrische und zeitlich konstante Lösungsmatrix der algebraischen Matrix-Riccati-Gleichung

$$\boldsymbol{KA}+\boldsymbol{A}^{{\text{T}}}\boldsymbol{K}-\boldsymbol{KBR}^{{-1}}\boldsymbol{B}^{{\text{T}}}\boldsymbol{K}+\boldsymbol{Q}=\boldsymbol{0}$$
(11-35)

ist. Die Lösung lässt sich mittels MATLAB [4] einfach ermitteln.

Das Messproblem

Bis jetzt wurde bei der Reglersynthese vorausgesetzt, dass alle Zustandsgrößen messbar sind. In vielen Fällen stehen jedoch die Zustandsgrößen nicht unmittelbar zur Verfügung. Oft sind sie auch nur reine Rechengrößen und damit nicht direkt messbar. In diesen Fällen verwendet man einen so genannten Beobachter, der aus den gemessenen Stell- und Ausgangsgrößen einen Näherungswert \(\boldsymbol{\hat{x}}(t)\) für den Zustandsvektor x(t) liefert. Dieser Näherungswert \(\boldsymbol{\hat{x}}(t)\) konvergiert im Falle deterministischer Signale gegen den wahren Wert x(t), d. h., es gilt

$$\lim\limits _{{t\to\infty}}\,[\boldsymbol{x}(t)-\boldsymbol{\hat{x}}(t)]=\boldsymbol{0}\;.$$
(11-36)

Die so entstehende Struktur eines Zustandsreglers mit Beobachter zeigt Bild 11-2. Für den Entwurf eines Beobachters eignen sich ähnlich wie beim Reglerentwurf Verfahren der Polvorgabe [1].

Bild 11-2
figure 69

Zustandsregler mit Beobachter

Die Anordnung eines Zustandsbeobachters in Form eines Identitätsbeobachters (der im Wesentlichen ein Modell der Regelstrecke darstellt) zeigt Bild  11-3. Dabei erhält die Reglermatrix F als Eingangsgröße anstelle von x den geschätzten Zustandsvektor \(\boldsymbol{\hat{x}}\). Das Gesamtsystem besitzt nun die Ordnung 2 n. Das Gesamtsystem kann durch folgende Zustandsraumdarstellung für die beiden Teilsysteme direkt anhand von Bild 11-3 angegeben werden:

$$\left[\begin{array}[]{c}\dot{\hat{\boldsymbol{x}}}\\ \dot{\tilde{\boldsymbol{e}}}\end{array}\right]=\left[\begin{array}[]{c@{\quad}c}(\boldsymbol{A}-\boldsymbol{BF})\hfil\quad&\boldsymbol{B}\boldsymbol{F}\\ \boldsymbol{0}\hfil\quad&(\boldsymbol{A}-\boldsymbol{F}_{{\text{B}}}\boldsymbol{C})\end{array}\right]\left[\begin{array}[]{c}\hat{\boldsymbol{x}}\\ \tilde{\boldsymbol{e}}\end{array}\right]+\left[\begin{array}[]{c}\boldsymbol{BV}\\ \boldsymbol{0}\end{array}\right]\boldsymbol{w}\;,$$
(11-37)

wobei \(\tilde{\boldsymbol{e}}=\boldsymbol{x}-\hat{\boldsymbol{x}}\) als Rekonstruktionsfehler oder Schätzfehler bezeichnet wird. Zur Untersuchung der Stabilität des Gesamtsystems verwendet man die charakteristische Gleichung

$$\begin{aligned}\displaystyle P_{{\text{G}}}(s)&\displaystyle=\left|s{\boldsymbol{I}}-\left[\begin{array}[]{c@{\quad}c}(\boldsymbol{A}-\boldsymbol{BF})\hfil\quad&\boldsymbol{B}\boldsymbol{F}\\ \boldsymbol{0}\hfil\quad&(\boldsymbol{A}-\boldsymbol{F}_{{\text{B}}}\boldsymbol{C})\end{array}\right]\right|\\ \displaystyle&\displaystyle=\left|\begin{array}[]{c@{\quad}c}s\boldsymbol{I}-(\boldsymbol{A}-\boldsymbol{BF})\hfil\quad&-\boldsymbol{B}\boldsymbol{F}\\ \boldsymbol{0}\hfil\quad&s\boldsymbol{I}-(\boldsymbol{A}-\boldsymbol{F}_{{\text{B}}}\boldsymbol{C})\end{array}\right|=0\;.\end{aligned}$$

Hieraus folgt schließlich

$$\begin{aligned}\displaystyle P_{{\text{G}}}(s)&\displaystyle=|s\boldsymbol{I}-\boldsymbol{A}+\boldsymbol{BF}|\cdot|s\boldsymbol{I}-\boldsymbol{A}+\boldsymbol{F}_{{\text{B}}}\boldsymbol{C}|\\ \displaystyle&\displaystyle=P(s)P_{{\text{B}}}(s)=0\;,\end{aligned}$$
(11-38)

wobei P(s) die charakteristische Gleichung des geschlossenen Regelsystems ohne Beobachter und P B(s) die charakteristische Gleichung des Beobachters darstellt. Gleichung (11-38) enthält als wichtige Aussage das Separationsprinzip:

Bild 11-3
figure 70

Geschlossenes Regelsystem mit Zustandsbeobachter

  • Sofern das durch die Matrizen A, B, C vorgegebene offene System vollständig steuerbar und beobachtbar ist, können die n Eigenwerte der charakteristischen Gleichung des Beobachters und die n Eigenwerte der charakteristischen Gleichung desgeschlossenen Regelsystems (ohne Beobachter) separat vorgegeben werden.

Anders formuliert besagt das Separationsprinzip auch, dass das Gesamtsystem stabil ist, sofern der Beobachter und das geschlossene Regelsystem (ohne Beobachter) je für sich stabil sind. Hieraus folgt, dass stets eine Reglermatrix F durch eine gewünschte Polvorgabe so entworfen werden kann, als ob alle Zustandsgrößen messbar wären. Dann kann in einem getrennten Entwurfsschritt durch entsprechende Polvorgabe der Beobachter ermittelt werden, wobei im Allgemeinen die Beobachterpole etwas links von den Polen des geschlossenen Regelsystems gewählt werden.

Die hier dargestellten optimalen Entwurfsverfahren für Zustandsregler lassen sich z. B. durch Ausgangsrückführungen erweitern und modifizieren, sodass sie auch direkt für Störgrößen- und Führungsgrößenregelungen eingesetzt werden können [3].

Systemidentifikation

Die Systemidentifikation hat zum Ziel, für ein dynamisches System, z. B. die Regelstrecke, ein mathematisches Modell zu ermitteln. Dies kann einerseits durch Beschreibung der in einem System sich abspielenden Elementarvorgänge mittels physikalischer Gesetzmäßigkeiten, z. B. mit Bilanzgleichungen, erfolgen. Andererseits besteht aber bei einer experimentellen Identifikation die Möglichkeit, einfacher, schneller und hinreichend genau ein für regelungstechnische Zwecke geeignetes mathematisches Modell zur Beschreibung des Eingangs-Ausgangs-Verhaltens eines Übertragungssystems zu ermitteln, wobei sich an die Messung der Zeitverläufe der Ein- und Ausgangssignale eine deterministische oder statistische Auswertung mit dem Ziel der Ermittlung eines mathematischen Modells anschließt.

Deterministische Verfahren zur Systemidentifikation

Bei diesen Verfahren werden bestimmte leicht reproduzierbare Testsignale zur Erregung der Eingangsgrößen eines dynamischen Systems verwendet. Die Auswertung des zugehörigen Ausgangssignals ermöglicht dann meist eine einfache Ermittlung eines mathematischen Modells. Als Testsignale werden gewöhnlich sprungförmige, rechteckimpulsförmige, rampenförmige oder sinusförmige Signale verwendet [1]. Speziell für aperiodische Übergangsfunktionen kann die Identifikation schnell und meist mit hinreichender Genauigkeit durchgeführt werden.

Wendetangenten- und Zeitprozentkennwerte-Verfahren

Bei diesen Verfahren wird versucht, eine vorgegebene Übergangsfunktion h 0(t) durch bekannte einfache Übertragungsglieder anzunähern, wobei die Modellstruktur gewöhnlich angenommen wird und die darin enthaltenen Koeffizienten zu bestimmen sind. Als Zeitprozentkennwert wird der Zeitpunkt t m bezeichnet, bei dem h 0(t m )∕K jeweils den Wert m % des stationären Endwertes bei 100 % erreicht, wobei K den Verstärkungsfaktor des Systems darstellt. Bei der Wendetangentenkonstruktion ergeben sich aus h 0(t) als Systemkennwerte die Verzugszeit T u und die Anstiegszeit  T a. Liegt für eine PT n -Regelstrecke (bestehend aus n hintereinander geschalteten PT1-gliedern) eine gemessene Übergangsfunktion vor, so kann aus dem Verhältnis T aT u der Wendetangentenkonstruktion (siehe Bild  12-1) beurteilt werden, ob sie sich zu einer Approximation durch ein PT2-Glied mit

$$\begin{aligned}\displaystyle G(s)=\frac{K}{(1+T_{1}s)(1+T_{2}s)}\end{aligned}$$
(12-1)
Bild 12-1
figure 71

Diagramm zur Umrechnung der Verzugszeit T u und der Anstiegszeit T a auf die Einzelzeitkonstanten T 1 und T 2

eignet. Dies ist möglich für T aT u ≥ 9,64. Durch die Approximation mittels eines PT n -Gliedes mit gleichen Zeitkonstanten,

$$\begin{aligned}\displaystyle G(s)=K/(1+Ts)^{n}\;,\end{aligned}$$
(12-2)

lassen sich Übergangsfunktionen auch mit wesentlich kleineren T aT u-Werten anhand von Tabelle 12-1 und der Wendetangentenkonstruktion durch (12-2) gut annähern.

Tab. 12-1 Zur Approximation einer Übergangsfunktion durch ein mathematisches Modell gemäß (12-2)

Da die Wendetangentenkonstruktion oft nicht hinreichend genau durchgeführt werden kann, wird man in vielen Fällen besser die genauer ablesbaren Zeitprozentkennwerte benutzen. Für das mathematische Modell gemäß ( 12-2) sind im Bild  12-2 die entsprechendenbezogenen Zeitprozentkennwerte in Abhängigkeit von n dargestellt.

Bild 12-2
figure 72

Bezogene Zeitprozentkennwerte für das mathematische Modell gemäß (12-2) in Abhängigkeit von der Systemordnung n

Sehr gute Ergebnisse liefert eine weitere Zeitprozentkennwertmethode, bei der die Approximation mit einem PT n -Glied mit zwei unterschiedlichen Zeitkonstanten,

$$G(s)=\frac{K}{(1+Ts)(1+\mu Ts)^{{n-1}}}\;,$$
(12-3)

im Bereich n = 1,2, …,6 und 1∕20 ≤ μ ≤ 20 durchgeführt wird [2].

Identifikation im Frequenzbereich

Mithilfe des oben dargestellten Frequenzkennlinien-Verfahrens (Bode-Diagramm) lässt sich für einen gemessenen Frequenzgang bei minimalphasigen Systemen bereits aus dem Verlauf des Amplitudenganges durch grafische Ermittlung der Eckfrequenzen ein gutes mathematisches Modell herleiten. Allgemein und auch bei nichtminimalphasigen Systemen anwendbar sind Verfahren, mit deren Hilfe der gemessene Verlauf z. B. der Ortskurve durch eine gebrochen rationale Funktion approximiert wird [3].

Berechnung des Frequenzganges aus der Übergangsfunktion [4]

Wird ein Regelkreisglied durch eine Sprungfunktion der Höhe K* erregt, dann erhält man die Sprungantwort h*(t) und somit gilt definitionsgemäß für die Übergangsfunktion h(t) = h*(t)∕K*. Der exakte Zusammenhang zwischen h(t) und dem Realteil R(ω) und Imaginärteil I(ω) von G(j ω) lautet:

$$\begin{aligned}\displaystyle R(\omega)&\displaystyle=\omega\int\limits^{{\infty}}_{0}h(t)\sin\omega t\,{\text{d}}t\end{aligned}$$
(12-4a)
$$\begin{aligned}\displaystyle I(\omega)&\displaystyle=\omega\int\limits^{{\infty}}_{0}h(t)\cos\omega t\,{\text{d}}t\;.\end{aligned}$$
(12-4b)

und daraus folgt durch Approximation

$$\begin{aligned}\displaystyle R(\omega)&\displaystyle\approx\frac{1}{K^{*}}\left[h_{0}-\frac{1}{\omega\Updelta t}\sum^{N}_{{\nu=0}}p_{\nu}\sin(\omega\nu\,\Updelta t)\right]\end{aligned}$$
(12-5a)
$$\begin{aligned}\displaystyle I(\omega)&\displaystyle\approx\frac{1}{K^{*}}\left[\frac{1}{\omega\Updelta t}\sum^{N}_{{\nu=0}}p_{\nu}\cos(\omega\nu\,\Updelta t)\right]\;,\end{aligned}$$
(12-5b)

wenn man die Übergangsfunktion in N + 2 Punkten, also im Intervall t 0 ≤ t ≤ t N + 1, durch einen Geradenzug stückweise in äquidistanten Zeitintervallen Δt approximiert. Dabei gilt für die Hilfsgröße

$$\begin{aligned}\displaystyle p_{\nu}=\left\{\begin{array}[]{l@{\quad}l@{\quad}l}h_{1}-h_{0}\hfil\quad&{\text{f{\"u}r}}\hfil\quad&\nu=0\\ h_{{\nu-1}}-2h_{\nu}+h_{{\nu+1}}\hfil\quad&{\text{f{\"u}r}}\hfil\quad&\nu=1,2,\ldots,N\;,\end{array}\right.\end{aligned}$$

wobei die Werte h i  (i = 0,1,…, N + 1) direkt aus h(t) abgelesen werden. Dieses Verfahren kann für jede beliebige Übergangsfunktion angewandt werden, die sich für t → ∞ einer Geraden mit beliebiger endlicher Steigung nähert. Das Verfahren lässt sich für beliebige Eingangssignale erweitern [1].

Berechnung der Übergangsfunktion aus dem Frequenzgang [5]

Zwischen der Übergangsfunktion h(t) und dem Frequenzgang G(j ω) = R(ω) + j I(ω) besteht der exakte Zusammenhang [1]:

$$h(t)=R(0)+\frac{2}{\pi}\int\limits^{{\infty}}_{0}\frac{I(\omega)}{\omega}\cos\omega t\,{\text{d}}\omega\,,\quad t> 0$$
(12-6a)

oder

$$h(t)=\frac{2}{\pi}\int\limits^{\infty}_{{0}}\frac{R(\omega)}{\omega}\sin\omega t\,{\text{d}}\omega\,,\quad t> 0\;.$$
(12-6b)

Verwendet man z. B. (12-6a), so wird der Verlauf von

$$v(\omega)=\frac{I(\omega)}{\omega},\quad\omega\geq 0\,,\quad v(0)\neq\infty\;,$$
(12-7)

als gegeben vorausgesetzt. Durch einen Geradenzug wird v(ω) im Bereich 0 ≤ ω ≤ ω N so approximiert, dass für ω ≥ ω N der Verlauf von v(ω) ≈ 0 wird. Dann folgt für die Übergangsfunktion unter Verwendung von (12-6a) die Approximation

$$h(t)\approx R(0)-\frac{2}{\pi t^{2}}\sum^{N}_{{\nu=0}}b_{\nu}\cos\omega _{\nu}t\,,\quad t> 0\;,$$
(12-8)

mit

$$\begin{aligned}\displaystyle b_{v}=\left\{\begin{array}[]{l}\displaystyle\frac{v_{1}-v_{0}}{\omega _{1}-\omega _{0}};\quad\omega _{0}=0\quad{\text{f{\"u}r}}\quad\nu=0\\ \displaystyle\frac{v_{{\nu+1}}-v_{\nu}}{\omega _{{\nu+1}}-\omega _{\nu}}-\frac{v_{\nu}-v_{{\nu-1}}}{\omega _{\nu}-\omega _{{\nu-1}}}\;{\text{f{\"u}r}}\;\nu=1,2,\ldots,N\end{array}.\right.\end{aligned}$$

Die Werte von v ν (ν = 0,1,…, N) werden dabei direkt aus dem Verlauf von v(ω) bei geeignet gewählten Frequenzwerten ω = ω ν entnommen, wobei v N  = v N + 1 = 0 gewählt wird.

Statistische Verfahren zur Systemidentifikation [6]

Bei stochastisch gestörten Regelsystemen kann meist die Voraussetzung gemacht werden, dass der stochastische Prozess stationär und ergodisch ist. Dies bedeutet einerseits, dass die Berechnung der die Signalebeschreibenden Verteilungs- und Dichtefunktionen unabhängig vom gewählten Anfangszeitpunkt der Messung ist, und andererseits, dass die über ein Ensemble von gleichartigen Messungen gebildeten Erwartungswerte mit den zeitlichen Mittelwerten jeder einzelnen Messung übereinstimmen. Unter diesen Voraussetzungen kann für ein Regelkreisglied aus den stochastischen Signalverläufen der Ein- und Ausgangsgröße ein mathematisches Modell für das Übertragungsverhalten bestimmt werden.

Korrelationsanalyse

Die Autokorrelationsfunktion (AKF)

$$R_{{xx}}(\tau)=\lim _{{T\rightarrow\infty}}\frac{1}{2T}\int\limits^{T}_{{-T}}x(t)x(t+\tau)\,{\text{d}}t$$
(12-9)

und die Kreuzkorrelationsfunktion (KKF)

$$R_{{xy}}(\uptau)=\lim _{{T\rightarrow\infty}}\frac{1}{2T}\int\limits^{{T}}_{{-T}}x(t)y(t+\tau)\,{\text{d}}t$$
(12-10)

beschreiben die gegenseitige Abhängigkeit bzw. den Verwandtschaftsgrad zwischen x(t) und x(t + τ) bzw. y(t  +  τ). Diese Funktionen haben folgende Eigenschaften:

a):
$$\begin{aligned}\displaystyle R_{{xx}}(\tau)=R_{{xx}}(-\tau)\;.\end{aligned}$$
(12-11)
b):
$$\begin{aligned}\displaystyle R_{{xx}}(0)\geq R_{{xx}}(\tau)\;.\end{aligned}$$
(12-12)

R xx (0) beschreibt die mittlere Signalleistung von x(t).

c):

Für verschwindenden Mittelwert von x(t) gilt bei nicht periodischen Signalen

$$\begin{aligned}\displaystyle\lim\limits _{{\tau\rightarrow\infty}}R_{{xx}}(\tau)=0\;.\end{aligned}$$
(12-13)
d):

Für das stochastische Signal

$$\begin{aligned}\displaystyle v(t)=x(t)+A\cos(\omega t+\vartheta)\quad\omega\neq 0\end{aligned}$$

folgt

$$\begin{aligned}\displaystyle R_{{vv}}(\tau)=R_{{xx}}(\tau)+\dfrac{A^{2}}{2}\cos\omega\tau\;,\end{aligned}$$
(12-14)

und für v(t) = x(t) + A 0 ergibt sich

$$\begin{aligned}\displaystyle R_{{vv}}(\tau)=R_{{xx}}(\tau)+A^{2}_{0}\;.\end{aligned}$$
(12-15)
g):
$$\begin{aligned}\displaystyle R_{{xy}}(\tau)=R_{{yx}}(-\tau)\;.\end{aligned}$$
(12-16)
h):

Sofern x(t) oder y(t) mittelwertfrei ist, gilt

$$\begin{aligned}\displaystyle\lim\limits _{{\tau\rightarrow\pm\infty}}R_{{xy}}(\tau)=0\;.\end{aligned}$$
(12-17)

Die AKF und KKF sind leicht messbare Funktionen. Sie können entweder mit einer digitalen Messwerterfassungsanlage oder mit einem speziellen Korrelator ermittelt werden.

Spektrale Leistungsdichte

Die spektrale Leistungsdichte eines Signals x(t) (auch als Leistungsdichtespektrum oder Leistungsspektrum bezeichnet) ergibt sich formal aus der Fourier-Transformation von R xx (τ), also

$$S_{{\! xx}}(\omega)=\mathcal{F}\{ R_{{xx}}(\tau)\}=2\!\!\int\limits^{{\infty}}_{0}\!\! R_{{xx}}(\tau)\cos\omega\tau\,{\text{d}}\tau\,.$$
(12-18)

Durch inverse Fourier-Transformation erhält man umgekehrt

$$R_{{xx}}(\tau)=\mathcal{F}^{{-1}}\{ S_{{\! xx}}(\omega)\}=\frac{1}{\pi}\int\limits^{{\infty}}_{0}S_{{\! xx}}(\omega)\cos\omega\tau\,{\text{d}}\omega.$$
(12-19)

In entsprechender Weise kann für die KKF zwischen zwei stochastischen Signalen x(t) und y(t) das Kreuzleistungsspektrum

$$S_{{\! xy}}(\,{\text{j}}\omega)=\mathcal{F}\{ R_{{xy}}(\tau)\}=\int\limits^{{\infty}}_{{-\infty}}{R}_{{xy}}(\tau)\,{\text{e}}^{{-{\text{j}}\omega\tau}}\,{\text{d}}\tau$$
(12-20)

mit

$$R_{{xy}}(\tau)=\mathcal{F}^{{-1}}\{ S_{{\! xy}}(\,{\text{j}}\omega)\}=\frac{1}{2\pi}\int\limits^{{\infty}}_{{-\infty}}S_{{\! xy}}(\,{\text{j}}\omega)\,{\text{e}}^{{{\text{j}}\omega\tau}}\,{\text{d}}\omega$$
(12-21)

definiert werden. Da gewöhnlich R xy (τ) keine gerade Funktion ist, stellt S xy im Gegensatz zu S xx eine komplexe Funktion dar.

Statistische Bestimmung dynamischer Eigenschaften linearer Systeme

Für ein lineares dynamisches System mit dem stochastischen Eingangssignal u(t) und dem stochastischen Ausgangssignal y(t) lässt sich über das Faltungsintegral unter Verwendung der oben definierten Korrelationsfunktionen folgende grundlegende Beziehung angeben:

$$R_{{uy}}(\tau)=\int\limits^{{\infty}}_{0}R_{{uu}}(\tau-\sigma)g(\sigma)\,{\text{d}}\sigma\;,$$
(12-22)

wobei g( ⋅ ) die Gewichtsfunktion des Systems beschreibt. Diese wichtige Beziehung bietet die Möglichkeit, bei bekannter AKF R uu (τ) und KKF R uy (τ) durch eine Entfaltung von (12-22) die das untersuchte System beschreibende Gewichtsfunktion zu ermitteln.

Ein wichtiger Sonderfall von (12-22) liegt dann vor, wenn das erregende Eingangssignal u(t) des untersuchten Systems als ideales weißes Rauschen beschrieben werden kann. Dann gilt für R uu (τ) = δ(τ), und somit folgt aus (12-22) aufgrund der Ausblendeigenschaft der δ-Funktion

$$R_{{uy}}(\tau)=\int\limits^{{\infty}}_{0}\delta(\tau-\sigma)g(\sigma)\,{\text{d}}\sigma=g(\tau)\;.$$
(12-23)

Dies bedeutet, dass hier die Messung der KKF identisch ist mit der Messung von g(t). Verschiedene Signale, insbesondere quantisierte zwei- und dreistufige Signale (binäre und ternäre Signale), stehen zur Realisierung eines angenähert weißen Rauschsignals zur Verfügung. Mit diesen lässt sich ( 12-23) leicht realisieren.

Für beliebige Rauschsignale u(t) und y(t) ist es häufig zweckmäßig, (12-22) durch eine Fourier-Transformation im Frequenzbereich in der Form

$$S_{{\! uy}}(\,{\text{j}}\omega)=S_{{\! uu}}(\omega)G({\text{j}}\omega)$$
(12-24)

darzustellen. Liegen die Spektren S uy ( j ω) oder S uu (ω) vor, z. B. indem die zugehörige AKF und KKF numerisch transformiert wurden, so lässt sich aus (12-24) der Frequenzgang des untersuchten Systems in nichtparametrischer Form

$$G({\text{j}}\omega)=S_{{\! uy}}(\,{\text{j}}\omega)/S_{{\! uu}}(\omega)$$
(12-25)

berechnen.

In diesem Zusammenhang ist eine zweite Beziehung für die Berechnung des Betrages des Frequenzganges wichtig:

$$S_{{\! yy}}(\omega)=|G({\text{j}}\omega)|^{2}S_{{\! uu}}(\omega)\;.$$
(12-26)

Bei Systemen mit minimalphasigem Verhalten lässt sich dazu auch der Phasengang φ(ω) von G(j ω) ermitteln.

Die für die Messung von Frequenzgängen eingesetzten Frequenzgangmessplätze beruhen auf dem Prinzip einer Kreuzkorrelationsmessung [6]. Wird das untersuchte System am Eingang sinusförmig erregt, dann erhält man für die betreffende Erregerfrequenz ω den Real- und Imaginärteil R(ω) und I(ω) von G(j ω) durch die Messung der KKF-Werte

$$\begin{aligned}\displaystyle R(\omega)&\displaystyle=R_{{uy}}(0)\;,\end{aligned}$$
(12-27a)
$$\begin{aligned}\displaystyle I(\omega)&\displaystyle=R_{{uy}}\left(-\frac{\pi}{2\omega}\right)\;.\end{aligned}$$
(12-27b)

Systemidentifikation mittels Parameterschätzverfahren

Gegeben sind zusammenhängende Datensätze oder Messungen des zeitlichen Verlaufs der Ein- und Ausgangssignale u(t) und y(t) eines dynamischen Systems. Gesucht sind Struktur und Parameter eines geeigneten mathematischen Modells. Zur Lösung dieser Aufgabe wird meist die Modellstruktur festgelegt und dann werden die zugehörenden Parameter geschätzt. Durch Strukturprüfverfahren lässt sich die günstigste Form des Modells überprüfen.

Für Parameterschätzverfahren werden gerne mathematische Modelle in diskreter Form gewählt. Dies erscheint zumindest im Hinblick auf die numerische Behandlung zweckmäßig. Bei der Parameterschätzung geht man gewöhnlich von der Vorstellung aus, dass dem tatsächlichen (zu identifizierenden) System ein Modell möglichst gleicher Struktur und mit zusätzlich noch frei einstellbaren Parametern, die in dem Parametervektor p zusammengefasst werden, parallel geschaltet sei. Beide Systeme werden durch u(t) erregt. Die Qualität des Modells wird durch Vergleich der Ausgangsgrößen y und y M, also durch den Modellausgangsfehler

$$e^{{\ast}}(k)=y(k)-y_{{\text{M}}}(k)$$
(12-28)

überprüft. Das messbare Ausgangssignal

$$y(k)=y_{{\text{s}}}(k)+r_{{\text{s}}}(k)$$
(12-29)

setzt sich aus dem ungestörten Ausgangssignal y s(k) und dem stochastischen Störsignal r s(k) zusammen. Das parallel geschaltete Modell wird durch die Differenzengleichung

$$\begin{aligned}\displaystyle y_{{\text{M}}}(k)=-\sum^{n}_{{\nu=1}}a_{\nu}y_{{\text{M}}}(k-\nu)+\sum^{n}_{{\nu=0}}b_{\nu}u(k-\nu)\end{aligned}$$
(12-30a)

bzw. durch die zugehörige Übertragungsfunktion

$$\begin{aligned}\displaystyle G_{\text{M}}(z)&\displaystyle=\frac{{\mathcal{Z}}\{ y_{\text{M}}(k)\}}{{\mathcal{Z}}\{ u(k)\}}=\frac{Y_{\text{M}}(z)}{U(z)}\\ \displaystyle&\displaystyle=\frac{b_{0}+b_{1}z^{{-1}}+\ldots+b_{{n}}z^{{-{n}}}}{1+a_{1}z^{{-1}}+\ldots+a_{{n}}z^{{-{n}}}}=\frac{B(z^{{-1}})}{A(z^{{-1}})}\end{aligned}$$
(12-30b)

beschrieben, wobei die Modellparameter a ν und b ν identifiziert (geschätzt) werden müssen.

Der Modellausgangsfehler e*(k) wird gewöhnlich für das angepasste Modell nur dann verschwinden oder minimal werden, wenn das Modell einen zusätzlichen Teil für die Nachbildung des stochastischen Störsignals r s(k) besitzt (Bild 12-3), der durch die Übertragungsfunktion

$$G_{{\text{r}}}(z)=R_{{\text{M}}}(z)/\mathcal{E}(z)$$
(12-31)

beschrieben wird. Dieses Störmodell erzeugt das stochastische Störsignal r M(k) durch Filterung von diskretem weißen Rauschen ε(k), dessen Mittelwert Null ist. Im Fall der vollständigen Anpassung gilt dann

$$y(k)=y_{{\text{M}}}(k)+r_{{\text{M}}}(k)\;,$$
(12-32)

oder im z-Bereich

$$\begin{aligned}\displaystyle Y(z)=Y_{{\text{M}}}(z)+G_{{\text{r}}}(z)\mathcal{E}(z)\end{aligned}$$

bzw. mit \(G_{{\text{r}}}(z)=G^{{\ast}}_{{\text{r}}}(z)/A(z^{{-1}})\) und (12-30b) in der meist gebräuchlicheren Form

$$A(z^{{-1}})Y(z)-B(z^{{-1}})U(z)=G^{{\ast}}_{{\text{r}}}(z)\mathcal{E}(z)=V(z)\;,$$
(12-33)

wobei v(k) = Z −1[V(z)] ein autokorreliertes (farbiges) Rauschsignal ist. Mit

$$G^{{\ast}}_{{\text{r}}}(z)=V(z)/\mathcal{E}(z)=C(z^{{-1}})$$
(12-34)

stellt (12-33) die allgemeine Form eines ARMAX-Modells ( auto-regressive moving average with exogenious variable) dar. Durch spezielle Wahl von \(G^{{\ast}}_{{\text{r}}}(z)\) lassen sich damit direkt die wichtigsten Modellstrukturen zur Parameterschätzung angeben [6]. Das LS-Verfahren (Verfahren der kleinsten Quadrate, least squares) erhält man z. B. für \(G^{{\ast}}_{{\text{r}}}(z)=1\) als ARX-Modellstruktur. Für dieses Verfahren folgt aus (12-33) durch inverse z-Transformation

Bild 12-3
figure 73

Vollständige Modellstruktur für das System und das stochastische Störsignal

$$y(k)=\boldsymbol{m}^{{\text{T}}}(k)\boldsymbol{p}+\varepsilon(k)$$
(12-35)

mit dem Datenvektor

$$\begin{aligned}\displaystyle\boldsymbol{m}^{{\text{T}}}(k)=&\displaystyle\,[-y(k-1)\ldots-y(k-n)|u(k-1)\\ \displaystyle&\displaystyle\,\ldots u(k-n)]^{{\text{T}}}\end{aligned}$$

und dem Parametervektor

$$\begin{aligned}\displaystyle\boldsymbol{p}=[a_{1}\ldots a_{n}|b_{1}\ldots b_{n}]^{{\text{T}}}\;,\end{aligned}$$

wobei b 0 = 0 gesetzt wurde (d. h., es werden nichtsprungförmige Systeme betrachtet). Die Minimierung von

$$I(\boldsymbol{p})=\frac{1}{2}\sum^{{n+N}}_{{k=n+1}}\boldsymbol{\varepsilon}^{2}(k)=\frac{1}{2}\boldsymbol{\varepsilon}^{{\text{T}}}(N)\boldsymbol{\varepsilon}(N)\stackrel{!}{=}{\text{Min}}$$
(12-36)

liefert mit (12-35) als direkte analytische Lösung des Schätzproblems

$$\boldsymbol{\hat{p}}\equiv\boldsymbol{\hat{p}}(N)=[\boldsymbol{M}^{{\text{T}}}(N)\boldsymbol{M}(N)]^{{-1}}\boldsymbol{M}^{{\text{T}}}(N)\boldsymbol{y}(N)$$
(12-37)

aufgrund der endlichen Anzahl N der Messdaten, wobei

$$\begin{aligned}\displaystyle&\displaystyle\boldsymbol{M}(N)=\left[\begin{array}[]{l}\boldsymbol{m}^{{\text{T}}}(n+1)\\ \vdots\\ \boldsymbol{m}^{{\text{T}}}(n+N)\end{array}\right]\;,\;{\boldsymbol{y}}(N)=\left[\begin{array}[]{l}\boldsymbol{y}(n+1)\\ \vdots\\ \boldsymbol{y}(n+N)\end{array}\right]\,\\ \displaystyle\text{und}&\displaystyle\;{\boldsymbol{\varepsilon}}(N)=\left[\begin{array}[]{l}{\varepsilon}(n+1)\\ \vdots\\ {\varepsilon}(n+N)\end{array}\right]\end{aligned}$$

die Datenmatrix der Messwerte von u(k) und y(k), sowie y(N) und ε(N) entsprechende Vektoren darstellen. Die Schätzung gemäß (12-37) ist konsistent.

Der Parametervektor \(\boldsymbol{\hat{p}}\) lässt sich auch durch eine rekursive Lösung bestimmen (RLS-Verfahren):

$$\begin{aligned}\displaystyle\boldsymbol{\hat{p}}(k+1)&\displaystyle=\boldsymbol{p}(k)+\boldsymbol{q}(k+1)\hat{\varepsilon}(k+1)\end{aligned}$$
(12-38a)
$$\begin{aligned}\displaystyle\boldsymbol{q}(k+1)&\displaystyle=\frac{\boldsymbol{P}(k)\boldsymbol{m}(k+1)}{1+\boldsymbol{m}^{{\text{T}}}(k+1)\boldsymbol{P}(k)\boldsymbol{m}(k+1)}\end{aligned}$$
(12-38b)
$$\begin{aligned}\displaystyle\boldsymbol{P}(k+1)&\displaystyle=\boldsymbol{P}(k)-\boldsymbol{q}(k+1)\boldsymbol{m}^{{\text{T}}}(k+1)\boldsymbol{P}(k)\end{aligned}$$
(12-38c)
$$\begin{aligned}\displaystyle\hat{\varepsilon}(k+1)&\displaystyle=y(k+1)-\boldsymbol{m}^{{\text{T}}}(k+1)\boldsymbol{\hat{p}}(k)\;.\end{aligned}$$
(12-38d)

Bei dieser Lösung kann man nach einer gewissen Anlaufphase eine ständige Schätzung der Parameter zu jedem Zeitpunkt (k + 1) unter Verwendung der um einen Zeitpunkt zurückliegenden Information erhalten. Dem Vorteil, dass die Inversion einer Matrix bei der rekursiven Lösung entfällt, steht als Nachteil die freie Wahl der Startwerte für \(\boldsymbol{\hat{p}}(0)\) und P(0) (Kovarianzmatrix) gegenüber. Während gewöhnlich \(\boldsymbol{\hat{p}}(0)=\mathbf{0}\) gesetzt wird, sollte für P(0) = αI mit α = 104 gewählt werden.

Weitere Reglerentwurfsverfahren

Übersicht

In den vorherigen Abschnitten wurden die wichtigsten klassischen Grundlagen zur Analyse und Synthese von Regelsystemen behandelt. Als wichtigste Regler wurden dabei der klassische PID-Regler sowie die aus ihm ableitbaren PI-, PD- und P-Regler und deren zweckmäßige Parametereinstellung eingeführt. Weiterhin wurden der Reglerentwurf nach dem Frequenzkennlinien- und dem Wurzelortskurven-Verfahren sowie analytische Kompensationsverfahren zum Entwurf kontinuierlicher und zeitdiskreter linearer Regler vorgestellt. Auch die Arbeitsweise von Zwei- und Dreipunktregler wurde gezeigt. Schließlich wurde für lineare Mehrgrößenregestrecken ein Verfahren zum Entwurf eines Polvorgabe-Reglers und eines Zustandsbeobachters hergeleitet. Der beschränkte Umfang dieses Kapitels ließ es leider nicht zu, näher auf weitere wichtige klassische und insbesondere moderne Reglerentwurfsverfahren einzugehen. Dennoch wird nachfolgend versucht, auf einige der wichtigsten Verfahren hinzuweisen.

Einige weitere klassische Regelkreisstrukturen

Klassische einschleifige Regelkreise können auch bei optimaler Auslegung besonders hohe Anforderungen bezüglich maximaler Überschwingweite, Anstiegszeit und Ausregelzeit bei Regelstrecken höherer Ordnung und eventuell vorhandener Totzeit häufig nicht erfüllen, insbesondere dann, wenn große Störungen und zwischen Stell- und Messglied große Verzögerungen auftreten. Eine Verbesserung des Regelverhaltens lässt sich jedoch erzielen, wenn die Signalwege zwischen Störung und Stelleingriff verkürzt werden, oder wenn Störungen bereits vor ihrem Eintritt in eine Regelstrecke weitgehend durch eine getrennte Vorregelung kompensiert werden, wozu allerdings die Störungen messbar und über ein Stellglied beeinflussbar sein müssen. Eine Verkürzung der Signalwege innerhalb eines Regelsystems führt zu einer strukturellen Erweiterung des Grundregelkreises und damit zu einem vermaschten Regelsystem. Nachfolgend werden einige dieser Regelkreisstrukturen erwähnt; bezüglich Details muss aber auf die tiefer gehende Fachliteratur zurückgegriffen werden.

Vermaschte Regelkreise

Störgrößenaufschaltung. Diese Struktur (Tabelle 13-1) besteht aus einem Regelkreis, dem eine Steuerglied ( G ST) mit dem Ziel so überlagert wird, dass die Störung weitgehend durch dieses kompensiert wird, bevor sie sich voll auf die Regelgröße Y auswirkt. Diese Schaltung lässt sich jedoch nur dann realisieren, wenn die Störung Z′ am Eingang der Regelstrecke (G S) messbar ist und somit im Steuerglied „verarbeitet“ werden kann. Das vom Steuerglied erzeugte Kompensationssignal kann dann entweder auf den Eingang des Reglers (G R) oder auf die Stellgröße U aufgeschaltet werden.

Tab. 13-1 Strukturen einiger wichtiger Regelkreisschaltungen (Bedeutung der Indizes der Übertragungsfunktionen G i : ST Steuerglied; S Regelstrecke; SZ Störverhalten der Regelstrecke; M Modell; R Regler; RH Hilfsregler; 1 und 2 Teilregelstrecke/Teilmodell/Regler)

Regelsysteme mit Hilfsregelgröße. Bei Regelstrecken mit ausgeprägtem Verzögerungsverhalten kann häufig neben der eigentlichen Regelgröße Y eine Zwischengröße gemessen und als Hilfsregelgröße Y H in einem Hilfsregler ( G RH) verwendet werden (Tabelle 13-1). Der dadurch entstehende Hilfsregelkreis besteht damit aus dem ersten Abschnitt der Regelstrecke ( \(G_{{\text{S}_{1}}})\) und diesem Hilfsregler. Das Ausgangssignal des Hilfsreglers wird mit negativem Vorzeichen dem Ausgangssignal des Hauptreglers zugeschaltet. Die so entstehende Stellgröße U wirkt wiederum auf den Eingang der Regelstrecke.

Kaskadenregelung. Diese Regelung (Tabelle  13-1) kann als Sonderfall des Regelverfahrens mit Hilfsregelgröße betrachtet werden. Hierbei bildet der Hilfsregler ( \(G_{{\text{R}_{2}}})\) direkt die Stellgröße U am Eingang der Regelstrecke. Die Eingangsgröße des Hilfsreglers wird aus der Differenz zwischen dem Ausgangssignal des Hauptreglers und der Hilfsregelgröße Y H gebildet. Es entsteht so ein Hauptregelkreis, dem der Hilfsregelkreis unterlagert ist. Störungen im ersten Regelstreckenabschnitt ( \(G_{{\text{S}_{1}}})\) werden durch den Hilfsregler bereits so weit ausgeregelt, dass sie im zweiten Regelstreckenabschnitt (\(G_{{\text{S}_{2}}})\) gar nicht oder nur stark reduziert bemerkbar sind. Der Hauptregler (\(G_{{\text{R}_{1}}})\) muss dann nur noch geringfügig eingreifen. Werden in einer Regelstrecke mehrere Hilfsregelgrößen gemessen und in unterlagerten Hilfsregelkreisen verarbeitet, so spricht man von Mehrfachkaskaden.

Regelsysteme mit Hilfsstellgröße (Tabelle  13-1). Einer Störung innerhalb zweier Regelstreckenabschnitte kann auch dadurch entgegengewirkt werden, indem außer der vom Hauptregler erzeugten Stellgröße U, die auf den ersten Regelstreckenabschnitt (\(G_{{\text{S}_{1}}})\) wirkt, am Eingang des zweiten Regelstreckenabschnitts (\(G_{{\text{S}_{2}}})\) eine Hilfsstellgröße U H aufgeschaltet wird. Dieses von einem Hilfsregler ( G RH) erzeugte Signal soll, möglichst nahe dem Eingriffsort der Störung durch den Einbau eines zusätzlichen Stellgliedes der Störung entgegenwirken. Der Hilfsregler ist dem Hauptregler parallel geschaltet und verarbeitet wie dieser dieselbe Regelabweichung.

Smith-Prädiktor

Dieser bereits 1959 vorgeschlagene Regler [1] (Tabelle 13-1) ist speziell zum Einsatz bei Regelstrecken mit aperiodischem Verhalten und großen Totzeiten geeignet. Für die Regelstrecke wird ein aus zwei in Reihe geschalteten Teilen ( \(G_{{\text{M}_{1}}})\) und (\(G_{{\text{M}_{2}}})\) bestehendes Modell angesetzt, wobei das zweite Teilmodell nur die Totzeit nachbildet. Das Modell wird parallel zur Regelstrecke (GS) geschaltet. Die zugehörende Regelungsstruktur besteht aus zwei Regelkreisen. Im inneren Regelkreis wird das erste Teilmodell (\(G_{{\text{M}_{1}}})\) zur Bestimmung („Prädiktion“) der Modellausgangsgröße \(Y_{{\text{M}_{1}}}\) verwendet, die dem eigentlichen Regler (G R) aufgeschaltet wird, der dann die Stellgröße U liefert und dafür sorgt, dass die Regelgröße Y dem Sollwert W folgt. Da dieser innere Regelkreis keine Totzeit enthält, sollte die Reglerverstärkung so groß gewählt werden, dass man schnelle, aber noch gut gedämpfte Einschwingvorgänge bei Sollwertänderungen erhält. Die Auswirkungen einer nicht messbarer Störung Z oder auch kleinerer Modellungenauigkeiten werden über den „Prädiktionsfehler“ Y − Y M im äußeren Regelkreis korrigiert. Diese Regelungsstruktur, die keine eigentliche Signalprädiktion enthält kann auch angewandt werden bei Regelstrecken mit ausgeprägtem nichtminimalem Phasenverhalten und durch gewisse Modifikationen bei instabilen Regelstrecken [2].

IMC-Regler

Aus der in Tabelle 13-1 dargestellten Blockstruktur ist zu ersehen, dass ein Regelkreis mit IMC-Regler zwei identische Modelle (G M) der Regelstrecke besitzt, von denen das eine parallel zur Regelstrecke das das andere in den direkten Rückkopplungszweig des Reglers ( G R) geschaltet ist. Die Stellgröße U dieses Reglers, der z. B. ein klassische PID-Verhalten aufweisen kann, wirkt sowohl auf die Regelstrecke (G S) als auch auf beide Modelle. Fasst man nun G M in der Rückkopplung mit G R in einen Block zusammen, so erhält man den eigentlichen Internal Model Controller (IMC), der im Weiteren als IMC-Regler ( G IMC) bezeichnet werden soll. Das Kennzeichen dieses Reglers ist also, dass er intern ein Modell der Regelstrecke besitzt. Im Idealfall, wenn G M = G S wäre, würde die Störung Z direkt auf den Reglereingang wirken und könnte somit rasch beseitigt werden. Bei den normalerweise stets vorhandenen Modellunsicherheiten (Ungenauigkeiten und Parameteränderungen) ist ein systematischer Entwurf von G IMC erforderlich, der im Wesentlichen aus zwei Schritten besteht und einen zweckmäßigen Kompromiss zwischen Regelgüte und Robustheit darstellt. Im Schritt 1 wird im Falle einer stabilen Regelstrecke ein stabiler, kausaler Regler G IMC unter Vorgabe der Empfindlichkeitsfunktion S = 1∕(1 + G 0), siehe auch (5-4) und (8-2) sowie deren Komplementärer T = G 0∕(1 + G 0), siehe auch (5-3) und (8-1), mit G 0 = G RG S entworfen, z. B. auf der Basis eines Integralkriterium und unter Verwendung eines PID-Reglers für G R. Im Schritt 2 wird der entworfene Regler G IMC durch ein zugeschaltetes Filter so erweitert, dass seine Übertragungsfunktion proper wird, d. h. sie muss für |s| → ∞ den Wert null annehmen und liefert damit bei einer sprungförmigen Erregung ein nichtsprungfähiges Ausgangsverhalten. Häufig eignet sich als Filterübertragungsfunktion ein PT n -Glied nach (12-2) mit K = 1 und einstellbarer Zeitkonstante T.

Der IMC-Regler wurde in zahlreichen Varianten sowohl für Eingrößensysteme oder SISO (Single-Input/Single-Output)-Systeme als auch Mehrgrößensysteme oder MIMO (Multi-Input/Multi-Output)-Systeme für stabile, nichtminimalphasige und instabile Regelstrecken entwickelt [3] und wird vor allem in der Verfahrenstechnik eingesetzt.

Robuste Regler

Stabilität und Regelgüte sind zwei der wichtigsten Forderungen an eine Regelung (siehe 8.1). Eine ganz wesentliche weitere Forderung besteht darin, dass Stabilität und Regelgüte auch dann gewährleistet werden, wenn in der Regelstrecke Unsicherheiten oder Änderungen, z. B. in den Parametern oder bei verschiedenen Arbeitspunkten, auftreten. Weitere Unsicherheiten können Ausfälle von Komponenten (Mess- oder Stellgliedern) darstellen. In allen diesen Situationen sollte ein robustes oder möglichst unempfindliches Regelsystem zuverlässig arbeiten. Seit den 1980er Jahren wurde dem Entwurf robuster Regler in Fachkreisen besondere Aufmerksamkeit gewidmet [4–6]. Bei der Lösung dieses Problems zeigte sich, dass die optimale Zustandsregelung (siehe 8) zur Formulierung der robusten Stabilität sich nicht eignete. Da etwa zur gleichen Zeit für die Analyse von MIMO-Systemen sich wesentliche Entwicklungen in der Frequenzbereichsdarstellung vollzogen, wie z. B. die Polynommatrizendarstellung von MIMO-Systemen oder auch die Erweiterungen von Wurzelortskurven, Nyquist- und Bode-Diagrammen auf MIMO-Systeme, lag es nahe, auch für das Robustheitsproblem Lösungen im Frequenzbereich zu formulieren. Zames [7] schlug zur Lösung des Problems der optimalen Unterdrückung einer ganzen Klasse von Störungen vor, nicht nur die Minimierung der Empfindlichkeitsfunktion S zu betrachten, sondern auch diese in geeigneter Weise zu optimieren. Das Minimierungsproblem von S ist mathematisch äquivalent mit dem Problem der Minimierung der Norm der Fehlerübertragungsfunktion. Zames führte dazu die so genannte H ∞-Norm ein, deren optimaler Wert zum gewünschten robusten Regler führt, der auch als H ∞-optimaler Regler bezeichnet wird und sowohl für SISO- als auch MIMO-Regelstrecken entworfen werden kann. Sofern keine geschlossene Lösung für dieses Problem möglich ist, empfiehlt sich die Anwendung der numerischen LMI (Linear Matrix Inequalities)-Technik [8].

Ein von Kharitonov bereits 1978 vorgestelltes Stabilitätskriterium ermöglicht auf der Basis von nur vier festen „charakteristischen Polynomen“ die Analyse und Synthese von linearen Regelsystemen mit großen Parameterunsicherheiten [9].

Modellbasierte prädiktive Regler

Modellbasierte prädiktive(MBP)-Regler werden in der Praxis als digitale Regler realisiert. Sie verwenden gewöhnlich ein festes Modell der Regelstrecke im On-line-Betrieb, mit dessen Hilfe die zukünftigen Werte y(k + j|k) der Regelgröße y(k) für j = 1, 2, …,  N k zum Zeitpunkt k vorausberechnet, also prädiziert werden, wobei N k den Prädiktionshorizont beschreibt. Die Prädiktion hängt jedoch nicht nur von dem Modellverhalten ab, sondern auch von den für j = 0, 1, 2, …,  N k − 1 sich ergebenden Werten u(k + j|k) der Stellgröße. Optimale Stellgrößenwerte erhält man aus der Minimierung einer geeignet gewählten Gütefunktion, zweckmäßig einer quadratischen Summenfunktion, die bei diskreten Systemen einem der quadratischen Integral-Gütemaße in Tabelle  8-1 entspricht. Die zu minimierende Gütefunktion muss die Regelabweichung e(k) und den Stellaufwand, ähnlich wie I 7 in Tabelle 8-1, berücksichtigen. Die Optimierungsaufgabe wird in jedem Abtastintervall – eventuell auch unter Berücksichtigung von Begrenzungen der Regelkreissignale – neu gelöst, jedoch wird von der berechneten optimalen Stellgrößenfolge gewöhnlich nur der erste Wert als Stellgröße im nächsten Abtastintervall verwendet. Diese Prozedur wird in derselben Weise im übernächsten Abtastintervall weitergeführt bis schließlich die Regelabweichung verschwindet. Da die hier beschriebene Optimierungsaufgabe nur selten analytisch gelöst werden kann, werden zur Lösung numerische Verfahren eingesetzt.

Die zahlreichen seit etwa 1980 vorgeschlagenen linearen MBP-Regler [10–12] unterscheiden sich im Wesentlichen durch die Art des Ansatzes für das gewählte Modell sowie durch die Wahl des Gütekriteriums und des numerischen Lösungswegs. Dennoch weisen sie viele Gemeinsamkeiten auf und können teilweise direkt ineinander übergeführt werden. Hinzu stehen MBP-Regler in einem engen Zusammenhang mit dem optimalen Zustandsregler (siehe  11.4.5) sowie mit dem IMC-Regler und dem Smith-Prädiktor, da sie ebenfalls – wie die beiden letztgenannten – sich besonders für Regelstrecken mit Totzeitverhalten eignen. Auch lassen sich MBP-Regler auf einfache Weise mittels einer Adaption des Regelstreckenmodells im laufenden Betrieb zu einem adaptiven Regelsystem (siehe  13.6) erweitern [13]. Mittels eines solchen adaptiven MBP-Reglers können dann auch zeitvariante und zahlreiche nichtlineare Regelstrecken beherrscht werden. Für allgemeine Nichtlinearitäten liegen ebenfalls entsprechende Entwurfskonzepte vor [14; 15].

In zahlreichen industriellen Anwendungen haben sich die MBP-Regler bewährt. Dies war möglich durch die Einführung dezentraler offener Strukturen bei Prozessleitsystemen (siehe  14), die charakterisiert sind durch eine horizontale und vertikale Durchgängigkeit und die Einbeziehung speicherprogrammierbarer Steuerungen und spezieller Controller, für die heute leistungsfähige Programmiersprachen für die Realisierung auch anspruchsvoller Regelalgorithmen zur Verfügung stehen (siehe  14.5.1).

GMV-Regler

Dieser Regler basiert auf dem Minimum-Varianz (MV)-Regler [16], dessen Arbeitsweise alslinearer diskreter stochastischer Regler darin besteht, die Varianz σ 2e der Regelabweichung e(k + d ) bei einer Regelstrecke mit der Totzeit d bzw. den Erwartungswert E{e(k + d )} mittels einer zum Zeitpunkt k optimal ermittelten Stellgröße u(k) zu minimieren. Der MV-Regler stellt einen Spezialfall des verallgemeinerten (generalized) GMV-Reglers  [17] dar, bei dem anstelle von σ 2e jedoch die Varianz eines Signals y e(k + d) minimiert wird, das sich aus der Summe der gefilterten Regelgröße y(k), Stellgröße u(k) und Führungsgröße w(k) zusammensetzt. Die Filterung dieser Signale erfolgt über Polynome in z −1, die in die Entwurfsgleichungen mit eingehen. Dieser Regler hat den Vorteil, dass er für stabile und instabile sowohl minimalphasige als auch nichtminimalphasige Regelstrecken eingesetzt werden kann. Sowohl der MV-Regler als auch der GMV-Regler basieren auf einer Einschritt-Vorhersage der Regelgröße und benötigen dazu ein explizites Modell der Regelstrecke und der Störgrößen, die auf die Regelstrecke einwirken, sowie die Kenntnis der aktuellen und zurückliegenden Messsignale der Ein- und Ausgangsgröße (im SISO-Fall) der Regelstrecke. Insofern existiert eine enge Verwandtschaft mit dem MBP-Regler, für den es übrigens eine äquivalente Verallgemeinerung, den GMBP-Regler, wie für den hier dargestellten GMV-Regler gibt. Dieser Regler kann ebenfalls wie der MBP-Regler bei unbekannter oder zeitvarianter Regelstrecke durch eine On-line-Identifikation mittels eines rekursiven Parameterschätzverfahrens (siehe  12.2.4) zu einem adaptiven GMV-Regler [13] erweitert werden.

Adaptive Regler

In einem adaptiven Regelsystem hat der Regler die Aufgabe, sich entweder an die unbekannten Eigenschaften einer invarianten Regelstrecke oder bei zeitvarianten Regelstrecken – bedingt z. B. durch unterschiedliche Arbeitsbedingungen, Störungen, Lastwechsel, Alterung usw. – selbsttätig im Sinne eines Optimierungskriteriums oder einer Einstellvorschrift anzupassen. Im ersten Fall erfolgt die Anpassung meist nur einmalig oder gelegentlich nach Bedarf, im zweiten Fall ist gewöhnlich eine ständige Anpassung des Reglers erforderlich. Diese selbsttätige Anpassung oder Adaption des Reglers erfolgt meist über dessen Parameter, seltener über die Reglerstruktur. Selbsteinstellend, selbstanpassend, selbstoptimierend oder gar selbstlernend sind nur häufig benutzte Synonyme für den Begriff „adaptiv“. Bei der adaptiven Regelung wird dem klassischen Grundregelkreis (Bild  5-1) ein Anpassungssystem überlagert, das aus den drei charakteristischen Teilprozessen Identifikation, Entscheidungsprozess und Modifikation gebildet wird. Die Identifikation erfolgt im „On-line“-Betrieb meist mittels rekursiver Parameterschätzverfahren ( 12.2.4) unter Verwendung der Ein- und Ausgangssignale der Regelstrecke. Dabei werden entweder die Parameter der Regelstrecke oder direkt diejenigen des Reglers bestimmt. Im Entscheidungsprozess wird mittels der bei der Identifikation erhaltenen Information der Regler auf der Basis vorgegebener Gütekriterien berechnet und seine Anpassung festgelegt. Je nach der Art der Anpassung unterscheidet man zwischen indirekter Adaption – sofern ein explizites Regelstreckenmodell dem Reglerentwurf zugrunde liegt – und direkter Adaption bei Umgehung dieses Zwischenschrittes. Die Modifikation stellt die Realisierung der Resultate des Entscheidungsprozesses dar. Dem Anpassungssystem kann noch ein Überwachungssystem überlagert werden, dessen Aufgabe in der Sicherstellung einer fehlerfreien Funktion des Gesamtsystems besteht.

Adaptive Regelsysteme lassen sich entsprechend ihrer Struktur und Funktionsweise unterscheiden in Modellvergleichsverfahren, Self-tuning (ST)-Verfahren und Verfahren der gesteuerten Adaption. Beim Modellvergleichsverfahren [18] wird meist dem Grundregelkreis ein paralleles, festes Modell zugeschaltet, welches das gewünschte Verhalten darstellt. Der Modellfehler, also die Differenz zwischen der Regelgröße und dem Modellausgangssignal, wird dem Adaptivregler zugeführt und von diesem gemäß einem Gütekriterium minimiert. Der ST-Regler [19] arbeitet ohne Vergleichsmodell. Sein Entwurfsprinzip besteht in einer „On-line“-Reglersynthese für eine Regelstrecke, deren Parameter entweder ständig identifiziert werden oder direkt in den Reglerentwurf eingehen. Als Basis des Entwurfs eignen sich zahlreiche unterschiedliche Regler, z. B. MV-, GMV-, PID-Regler, Polvorgaberegler, optimale Zustandsregler u. a. Die gesteuerte Adaption [20] wird dann eingesetzt, wenn das Verhalten eines Regelsystems für unterschiedliche messbare Parameteränderungen und Störungen der Regelstrecke bekannt ist. Dann kann die zugehörige Regleradaption über eine zuvor berechnete feste Zuordnung (  parameter scheduling) ausgeführt werden.

Adaptive Regelsysteme weisen stets eine nichtlineare Struktur auf. Dadurch bedingt stellte die Garantie ihrer Stabilität lange ein unbefriedigend gelöstes Problem dar, das aber heute als grundsätzlich gelöst betrachtet werden kann [21]. Neben der Lösung vieler signifikanter theoretischer Probleme haben die spektakulären Fortschritte der modernen Rechentechnik dazu geführt, dass viele adaptive Regler sich sehr erfolgreich in der industriellen Praxis bewährt haben. So reichen die Anwendungen vom einfachen, auf den Ziegler-Nichols-Regeln und einer Relaisumschaltung basierenden PID-ST-Regler (auch als Autotuning-Regler bezeichnet) [22] bis hin zur theoretisch anspruchsvollen adaptiven dualen Regelung [23], bei der die Parameterunsicherheit durch eine „vorsichtige“ Systemkomponente sowie eine ständige Erregungskomponente zur besseren Identifikation im Regelgesetz berücksichtigt werden.

Nichtlineare Regler

Neben den klassischen Methoden zur Analyse und Synthese nichtlinearer Regelsysteme soll nachfolgend auf einige der neueren Entwurfsverfahren für nichtlineare Regler noch kurz eingegangen werden. Die Singular perturbation-Methode [24] wird schon länger zur Vereinfachung des Entwurfs nichtlinearer Regler eingesetzt. Sie ist dann anwendbar, wenn das dynamische Verhalten der Regelstrecke durch zwei unterschiedliche Zeitmaßstäbe beschrieben werden kann, z. B. erfolgt beim Flugzeug ein relativ langsamer Regeleingriff bei Reisegeschwindigkeit und eine schnellere Reaktion beim Manöverflug. Der Reglerentwurf erfolgt dann in zwei Schritten: Zunächst wird ein Regler für das langsame Verhalten entworfen, dann erfolgt der Entwurf für das schnelle Verhalten. Der gesamte Regler setzt sich dann aus beiden Teilreglern zusammen.

Ein anderer nichtlinearer Regler ist der Sliding-mode (SM)-Regler, auch als Variable Structure (VS)-Regler bezeichnet. Dieser Regler [25; 26] arbeitet diskontinuierlich als spezieller Zweipunktregler, der aufgrund äußerer Signale seine Struktur umschaltet, um ein gewünschtes Regelverhalten zu erzielen. Die Aufgabe eines SM-Reglers besteht darin, den Zustandsvektor x des betreffenden Regelsystems entlang einer Trajektorie auf die Schaltebene σ(x) = 0 zu bringen, um ihn dann auf dieser in den Ursprung des Zustandsraumes gleiten zu lassen, der nun dem gewünschten Sollwert entspricht. Die Dynamik der zugehörigen Regelstrecke beeinflusst das Regelverhalten im Gleitzustand nicht. Zur Ermittlung der Schaltfunktion σ(x) existieren verschiedene Methoden. Dieser Regler hat sich aufgrund seiner Robustheit und Unempfindlichkeit gegenüber Parameteränderungen der Regelstrecke und äußeren Störungen in der Praxis besonders bewährt.

Die nichtlineare differenzial-geometrische Methode [27], die im Wesentlichen seit Anfang der 1990er Jahre entwickelt wurde, liefert interessante Möglichkeiten zur Stabilitätsanalyse und Untersuchung der Steuerbarkeit und Beobachtbarkeit nichtlinearer Systeme. Diese Methode ist aber nur anwendbar bei Systemen, deren Nichtlinearität stetig differenzierbar ist. Diese Voraussetzung ist jedoch bei vielen Nichtlinearitäten, wie z. B. bei fast allen in Tabelle 9-1 aufgelisteten Kennlinien, nicht gegeben. Andererseits liefert diese Methode die Basis der exakten Linearisierungsmethode, die oft auch als externe Linearisierung mittels Zustands- und Ausgangsrückführung bezeichnet wird. Durch Anwendung dieser Methode können einige nichtlineare Systeme in ein äquivalentes lineares System gleicher Ordnung übergeführt werden. Dies wird erreicht durch eine nichtlineare Koordinatentransformation sowie einer daraus resultierenden nichtlinearen Rückkopplung. Dann kann im nächsten Schritt für das exakt linearisierte System ein linearer Regler entworfen werden. Leider ist diese Methode nur auf wenige nichtlineare Systeme anwendbar. Größere praktische Bedeutung haben jedoch die in letzter Zeit entwickelten angenäherten Linearisierungsmethoden erlangt. Verschiedene Verfahren stehen hierfür zur Verfügung, doch der erforderliche Rechenaufwand ist teilweise sehr groß.

„Intelligente“ Regler

Expertensysteme oder wissensbasierte Systeme (WBS) werden seit den 1980er Jahren zur Regelung technischer Anlagen eingesetzt. Generell handelt es sich bei diesen Systemen um intelligente Rechenprogramme, die ein detailliertes Wissen auf einem eng begrenzten Spezialgebiet gespeichert haben und Entscheidungsregeln enthalten, sowie die Fähigkeit besitzen, logische Schlussfolgerungen zu ziehen ähnlich der Arbeitsweise eines menschliche Experten. Ein WBS kann sowohl für Überwachungsfunktionen in komplexen Automatisierungssystemen als auch direkt im geschlossenen Regelkreis als spezieller Regler eingesetzt werden. Der Fuzzy-Regler kann als ein spezielles Realzeit-WBS interpretiert werden. Bei diesem Regler [28] muss das Expertenwissen des Regelungsingenieurs in eine Reihe von Handlungsanweisungen in Form bestimmter Regeln, auch als Regelbasis bezeichnet, zur Verfügung gestellt werden. Der Fuzzy-Regler arbeitet intern mit Operatoren, z. B. „WENN“, „UND“ und „DANN“, sowie den (unscharfen) Fuzzy-Variablen, wie z. B. groß, klein, mittel. Die gewünschte Arbeitsweise lässt sich leicht als Rechenalgorithmus darstellen. Das analoge Eingangssignal dieses Reglers muss zunächst einer Fuzzifizierung unterzogen werden, während das Ausgangssignal erst über eine Defuzzifizierung die Stellgröße liefert. Während früher der Entwurf eines Fuzzy-Reglers meist heuristisch erfolgte, verwendet man heute bewährte systematische Entwurfsmethoden, die auch eine vielseitige Kombination dieses Reglers mit anderen Regelungskonzepten, z. B. adaptiven und prädiktiven Reglern oder Sliding-mode-Reglern, ermöglichen. Fuzzy-Regler stellen eine wertvolle Ergänzung zu den klassischen Regelverfahren dar. Durch ihre universale Approximationseigenschaft erweisen sie sich als besonders geeignet zur Regelung nichtlinearer Regelstrecken.

Auch künstlich neuronale Netzwerke (KNN) weisen als Hauptmerkmal eine universale Approximationsfähigkeit [29] auf. Sie sind daher besonders für die Regelung von linearen und nichtlinearen Regelstrecken mit unbekannter Struktur geeignet. Ein KNN besitzt die Eigenschaften der Lernfähigkeit und Adaption und wird daher in einer Trainingsphase dazu benutzt, anhand von Messwerten der Ein- und Ausgangssignale einer Regelstrecke ein dynamisches Modell derselben zu erstellen. Aber auch im On-line-Betrieb lässt sich ein KNN zur ständigen Identifikation einer stark zeitvarianten Regelstrecke oder zur Fehlerüberwachung einsetzen. Dann ist es möglich, einen geeigneten modellbasierten Regler unter Verwendung eines weiteren KNN zu entwerfen. Sowohl durch die in den letzten Jahren entwickelten speziellen, sehr schnellen und effizienten Lernalgorithmen als auch durch die Verfügbarkeit enormer prozessnaher Rechnerleistung haben KNN-Regler eine große Bedeutung in der industriellen Praxis erlangt.

Zum Abschluss soll noch erwähnt werden, dass KNN und Fuzzy-Systeme viele gemeinsame Eigenschaften aufweisen und daher auch – bei bestimmten Konfigurationen – unter dem Begriff der Neuro-Fuzzy-Systeme [30] zusammengefasst werden können, z. B. lässt sich zeigen, dass ein auf radialen Basis-Funktionen (RBF) beruhendes KNN als Spezialfall eines Fuzzy-Systems betrachtet werden kann. Neuro-Fuzzy-Regler werden u. a. in der Robotik mit Erfolg eingesetzt.

Im Zusammenhang mit Fuzzy-, Neuro-Fuzzy- und KNN-Reglern taucht seit kurzer Zeit immer häufiger auch der Begriff der evolutionären oder genetischen Regler auf [31]. Dahinter verbirgt sich eine Reihe sehr leistungsfähiger Algorithmen zur Optimierung der zuvor genannten Regler. Alle diese Regler werden neuerdings unter dem Begriff der „intelligenten“ Regler zusammengefasst.

Binäre Steuerungstechnik

Die binäre Steuerungstechnik behandelt die Beeinflussung von Prozessen durch Binärsignale, also Signale, die entweder den Zustand „0“ oder den Zustand „1“ annehmen können. Diese Steuerung verarbeitet binäre Eingangssignale vorwiegend mit Verknüpfungs-, Zeit- und Speichergliedern zu binären Ausgangssignalen. Aufgabe einer binären Steuerung ist die Realisierung von vorgegebenen (zustands- oder zeitabhängigen) Abläufen, die Verriegelung von nicht erlaubten Stelleingriffen oder die Kombination von beiden.

Zu den wichtigsten theoretischen Grundlagen der Steuerungstechnik zählen die auf der Boole'schen Aussagenlogik aufbauende Theorie der kombinatorischen Schaltungen und die von den Modellvorstellungen der Automatentheorie ausgehende Theorie der sequentiellen Schaltungen.

Grundstruktur binärer Steuerungen

Signalflussplan

Jede binäre Steuerung verarbeitet einen Vektor von binären Eingangssignalen zu einem Vektor binärer Ausgangssignale. Wie Bild  14-1 zeigt, setzt sich der Eingangsvektor aus den Signalen zusammen, die von den Bedienelementen erzeugt werden, und den Signalen der den Prozess beobachtenden Sensoren (Messglieder). Der Ausgangsvektor steuert die Anzeigeel

Bild 14-1
figure 74

Elemente einer binären Steuerung

emente und die Aktoren (Stellglieder) an, mit deren Hilfe der Prozess beeinflusst wird.

Beispiele für die Elemente einer binären Steuerung sind:

Bedienelemente: Schalter, Wahlschalter, Taster, Notausschalter, Meisterschalter (,Joysticks`), Schlüsselschalter, Schlüsseltaster, Tastaturen, Lichtgriffel.

Sensoren: Endschalter, Näherungsinitiatoren, Druckschalter, Lichtschranken, Kopierwerke (Endschalter an Kurvenscheiben, z. B. für Maschinenpressen), Temperaturschalter, Niveauschalter, Überstromschalter.

Anzeigeelemente: Kontrolllampen (Glühlampen, LEDs), Sichtmelderelais, Warnhupen, rechnergesteuerte Displays und Fließbilder, Protokolldrucker.

Aktoren: Motoren, Motorschieber, Magnetventile (hydraulisch, pneumatisch), Leistungsschalter, Magnetkupplungen, Magnetbremsen.

Klassifizierung binärer Steuerungen

–:

Eine Verknüpfungssteuerung ordnet im Sinne Boole'scher Verknüpfungen den Signalzuständen von Eingangsgrößen, Zwischenspeichern und Zeitgliedern Zustandsbelegungen der Ausgangssignale zu.

–:

Eine Ablaufsteuerung folgt einem festgelegten schrittweisen Ablauf (in dem auch bedingte Verzweigungen und Schleifen vorhanden sein dürfen), bei dem jeder Schritt einen Ausführungsteil und eine Weiterschaltbedingung enthält. Das Weiterschalten auf den jeweils nächsten Schritt erfolgt immer dann, wenn die aktuelle Weiterschaltbedingung erfüllt ist.

Nach der Art der technischen Realisierung wird zunächst, wie im Bild  14-2 dargestellt, zwischen verbindungs- und speicherprogrammierbaren Steuerungseinrichtungen unterschieden. Die gebräuchlichsten verbindungsprogrammierbaren Steuerungen sind die elektromechanischen Schütz- oder Relaissteuerungen. Bei speicherprogrammierbaren Steuerungen (SPS) wird die Funktion nicht durch eine Verschaltung einzelner Elemente, sondern durch ein im Speicher abgelegtes Programm realisiert. Ihr Vorteil liegt in der einfachen Modifizierbarkeit der Programme. Bei ihnen kann über eine Schnittstelle vom Programmiergerät oder Personal-Computer das entwickelte Programm direkt in die Steuerung geladen werden. Man spricht deshalb von freiprogrammierbaren Steuerungen (FPS).

Bild 14-2
figure 75

Einteilung binärer Steuerungen

Jede binäre Steuerung kann durch einen Mealy-Automaten beschrieben werden. Bei diesem automatentheoretischen Modell geht man von der Vorstellung aus, dass es in jeder Steuerungseinrichtung gespeicherte binäre Zustände gibt, deren Veränderung von ihrer Vorgeschichte und der Signalbelegung abhängt. Die Signalbelegung des Ausgangsvektors lässt sich aus diesen Zuständen und der Eingangsbelegung bilden. Bild 14-3 zeigt die Struktur eines Mealy-Automaten. Die Funktionen G(U, X) und F(U, X) stellen kombinatorische Verknüpfungen dar. Die speichernde Eigenschaft des Automaten ergibt sich erst durch die Rückführung des Zustandsvektors X. Eine Sonderform des Mealy-Automaten stellt der Moore-Automat dar. Bei ihm wird der Ausgangsvektor Y ausschließlich aus dem Zustandsvektor X gebildet. (Anmerkung: Bei Binärsteuerungen werden Vektoren mit großen Buchstaben charakterisiert.)

Bild 14-3
figure 76

Struktur des Mealy-Automaten

Grundlagen der kombinatorischen und der sequentiellen Schaltungen

Kombinatorische Schaltungen

Eine kombinatorische Schaltung ist dadurch gekennzeichnet, dass der Signalzustand ihrer Ausgänge nur von der Signalbelegung ihrer Eingänge, nicht aber von der Vorgeschichte dieser Signalbelegungen abhängt. Eine kombinatorische Schaltung hat also keine Speichereigenschaften. Innerhalb einer solchen Struktur liegen nur logische Signalverknüpfungen, aber keine Signalrückführungen vor. Zur Beschreibung von logischen Funktionen ist es üblich, sogenannte Wahrheitstabellen aufzustellen, aus denen für jede Eingangssignalbelegung die korrespondierende Ausgangssignalbelegung ersichtlich ist, siehe A I.3.

Tabelle 14-1 zeigt die für logische Verknüpfungen festgelegte Symbolik, wie sie z. B. in Logik- und Funktionsplänen verwendet wird.

Tab. 14-1 Symbole für binäre Verknüpfungen

Synthese und Analyse sequentieller Schaltungen

Die meisten binären Steuerungen werden als sequentielle Schaltung ausgeführt. Dabei hängt die Signalbelegung des Ausgangsvektors nicht nur von der aktuellen Belegung des Eingangsvektors ab, sondern auch von dessen Vorgeschichte, also von der Sequenz der Eingangsbelegungen. Solche Schaltungen lassen sich nicht mehr nur mithilfe der Boole'schen Aussagenlogik (siehe A I.3) beschreiben, da diese nicht die Behandlung von Signalspeichern, wie sie in jeder sequentiellen Schaltung enthalten sind, umfasst. Es ist aber möglich, jede Speicherschaltung auf logische Grundverknüpfungen mit mindestens einer Rückkopplung eines Signales auf den Eingang einer vorgeschalteten Verknüpfung zurückzuführen.

Trennt man alle Rückkopplungen einer sequentiellen Schaltung auf, so sind die verbleibenden Elemente einer Behandlung durch die Boole'sche Logik zugänglich. Allerdings hat diese Schaltung dann nur noch kombinatorischen Charakter. Der Ansatz, die rückgekoppelten Signale in einem System zu einem Vektor zusammenzufassen und die logischen Verknüpfungen von Signalvektoren zu Funktionsblöcken, führt zu den Modellen, wie sie auch in der Automatentheorie Verwendung finden. Für die weiteren Betrachtungen soll daher der zuvor eingeführte Mealy-Automat vorausgesetzt werden. Bei einem Mealy-Automaten mit aufgetrennter Zustandsrückführung hängen die logischen Funktionen F und G nun von den Signalvektoren U und X′ ab, wobei X′ den Ausgangszustand von X beschreibt.

Das wichtigste Verfahren, das auf diesen Modellen aufbaut, ist das Huffman-Verfahren zur Analyse und Synthese sequentieller Schaltkreise [1].

Beispiel:

Es soll eine Steuerung für eine Zweihandeinrückung an einer Maschinenpresse entworfen werden. Der Hub der Maschine (Y) darf hier nur dann ausgelöst werden, wenn beide Handtaster (U 1 und U 2) betätigt sind, sodass die Gefahr einer Verletzung des Bedienungspersonals ausgeschlossen ist. Zusätzlich soll jedoch überwacht werden, dass beide Taster nach einer Hubauslösung wieder losgelassen worden sind.

Zunächst wird für dieses Beispiel eine Flusstabelle (Tabelle  14-2) aufgestellt, in der alle Schritte des zu realisierenden Ablaufes, die Übergänge zwischen den Schritten in Abhängigkeit von der Belegung der Eingangssignale U 1 und U 2 und die den Schritten zugeordnete Belegung des Ausgangssignals Y eingetragen sind. Die Schritte werden im Allgemeinen auch Zustände des Automaten genannt. Jede Zeile der Flusstabelle entspricht einem Zustand und jede Spalte für U 1 und U 2 einer Eingangsbelegung. Es sind drei Zustände vorgesehen. Im Zustand 1 ist das Ausgangssignal mit 0 belegt. Ein Übergang zum Zustand 2 ist nur bei der Eingangssignalbelegung U 1 = 1 und U 2 = 1 möglich, also nur dann, wenn beide Handtaster betätigt sind. In diesem Zustand ist auch das Ausgangssignal mit 1 belegt, sodass der Hub ausgelöst wird. Beim Loslassen nur eines der beiden Taster wird auf den Zustand 3 weitergeschaltet, bei dem der Hub abgeschaltet wird. Dieser Zustand kann nur verlassen werden, wenn beide Handtaster wieder losgelassen worden sind, also U 1 = 0 und U 2 = 0 sind. Nach dem Aufstellen der Flusstabelle ist zu überprüfen, ob die Anzahl der spezifizierten Schritte minimal ist, oder ob die zu realisierende Funktion nicht auch durch eine geringere Anzahl von Zuständen verwirklicht werden kann.

Tab. 14-2 Flusstabelle für eine Zweihandeinrückung

Nach der Minimierung der Zustände erfolgt die Codierung. Darunter versteht man die Zuordnung der Zustände zu den möglichen Binärkombinationen des Zustandsvektors. Da im vorliegenden Beispiel drei Zustände zu realisieren sind, muss der Zustandsvektor mindestens die Dimension 2 haben. (Mit der Dimension n können 2n Zustände realisiert werden.) Die Zustände der Zweihandeinrückung sollen wie in Tabelle 14-3 dargestellt codiert werden.

Bei der Codierung ist darauf zu achten, dass keine Wettläufe entstehen können. Diese Wettlauferscheinungen treten immer dann auf, wenn sich bei einer Zustandsänderung mehr als ein Bit innerhalb des Zustandsvektors ändert und – bedingt durch unterschiedliche Signallaufzeiten in der kombinatorischen Schaltung, – der Signalübergang in diesen Binärpositionen nicht gleichzeitig erfolgt, sodass sich ein falscher Folgezustand einstellt.

Tab. 14-3 Zustandscodierung

Zur Bestimmung der kombinatorischen Gleichungen

$$\boldsymbol{X}=\boldsymbol{F}(\boldsymbol{U},\boldsymbol{X^{{\prime}}})\quad{\text{und}}\quad\boldsymbol{Y}=\boldsymbol{G}(\boldsymbol{U},\boldsymbol{X^{{\prime}}})$$
(14-1a,b)

empfiehlt es sich, die Funktionen in Form von Karnaugh-Diagrammen darzustellen. Wesentliches Kennzeichen dieser Diagramme ist, dass sich bei einem Übergang von einem Feld zum Nachbarfeld nur eine der unabhängigen Binärgrößen ändern darf. Bild 14-4 zeigt die für die Zweihandeinrückung aufgestellten F- und G-Tabellen des Karnaugh-Diagramms. Die redundanten Elemente der Tabellen sind mit „r“ gekennzeichnet worden. Diese Redundanz kann man bei der sich anschließenden Schaltungsminimierung nutzen. Um einen kritischen Wettlauf zu vermeiden, ist in der untersten Zeile der F-Tabelle der Zustand [X 1X 2] = [0 0] eingetragen. In der G-Tabelle ist, um den durch den verbleibenden nichtkritischen Wettlauf hervorgerufenen „Hazard“ zu vermeiden, eine 0 eingetragen.

Bild 14-4
figure 77

F- und G-Tabelle für Zweihandeinrückung

Mithilfe des Karnaugh-Verfahrens können nun die kombinatorischen Gleichungen gewonnen werden. Sie lauten:

$$\begin{aligned}\displaystyle X_{1}&\displaystyle=X^{{\prime}}_{1}\wedge(U_{1}\vee U_{2})\vee U_{1}\wedge U_{2}\\ \displaystyle X_{2}&\displaystyle=X^{{\prime}}_{2}\wedge(U_{1}\setminus U_{2})\vee X^{{\prime}}_{1}\wedge(\bar{U}_{1}\wedge U_{2}\vee U_{1}\wedge\bar{U}_{2})\\ \displaystyle Y&\displaystyle=X^{{\prime}}_{1}\wedge{X}^{{\prime}}_{2}\wedge U_{1}\wedge{U}_{2}\end{aligned}$$
(14-2)

Zusammen mit der Schließbedingung

$$X_{1}=X^{{\prime}}_{1}\,;\quad X_{2}=X^{{\prime}}_{2}$$
(14-3)

beschreiben sie die synthetisierte Steuerungsschaltung.

Darstellung von Zuständen durch Zustandsgraphen und Petri-Netze

Bild 14-5 zeigt einen Zustandsgraphen, der die oben entwickelte Zweihandeinrückung darstellt. Bei diesen Zustandsgraphen wird jedem Zustand des Automaten ein Platz zugeordnet, der gewöhnlich durch einen Kreis dargestellt wird. An den Zustandsübergängen sind die Eingangsbelegungen eingetragen, die zu einem Schalten auf den nächsten Zustand führen. Bei diesem Graphen ist zunächst keine Parallelarbeit darstellbar. Eine andere Möglichkeit der Darstellung von Steuerungsabläufen bieten die Petri-Netze [2]. Mit ihnen können auch parallele Prozesse beschrieben werden. Bei den Petri-Netzen handelt es sich um gerichtete Graphen, bei denen zwei Elemente immer einander abwechseln: Transitionen und Plätze (oder Stellen). Die Plätze stellen im Allgemeinen die Zustände eines Systems dar, während die Transitionen die möglichen Übergänge charakterisieren. Bild 14-6 zeigt einen einfachen Graphen, der den Zyklus der vier Jahreszeiten beschreibt. Ein Platz kann ein- oder mehrfach belegt werden. Man spricht hierbei meistens von einer Markierung. Für die Beschreibung steuerungstechnischer Prozesse eignen sich Petri-Netze, in denen nur eine Markierung pro Platz zugelassen ist. Man nennt solche Netze auch Einmarkennetze. Sie entsprechen dem Umstand, dass ein Automat einen Zustand annehmen oder auch nicht annehmen kann, der Zustand also nur markiert oder nicht markiert sein kann. Ein Übergang von einem Platz auf einen folgenden kann dann erfolgen, wenn die Transition „feuert“. Vorbedingung ist hierzu eine Markierung des vorhergehenden Platzes. Bei Einmarkennetzen muss außerdem der nachfolgende Platz zunächst leer sein. Man spricht hier auch von einer Nachbedingung.

Bild 14-5
figure 78

Zustandsgraph für Zweihandeinrückung

Bild 14-6
figure 79

Einfaches Petri-Netz

Von großer Bedeutung sind bei Petri-Netzen die Möglichkeiten der Aufspaltung und der Zusammenführung von Abläufen. In Bild  14-7 sind die möglichen Verzweigungen und Zusammenführungen in Petri-Netzen dargestellt. Grundsätzlich lassen sich diese Elemente beliebig kombinieren. Wichtige Standardformen stellen die in Bild 14-8 abgebildeten Verzweigungstypen dar. Bei der Alternativverzweigung wird nur ein einziger Zweig durchlaufen. Welcher Zweig dies ist, entscheidet sich an der ersten Transition eines jeden Zweiges. Die Transition, die zuerst feuert, leitet die Markierung des zugeordneten Pfades ein. Feuern mehrere Transitionen zur gleichen Zeit, so gilt die Konvention, dass der Pfad, der am weitesten ,links` steht, durchlaufen wird. Bei der Parallelverzweigung werden alle Zweige gleichzeitig durchlaufen, wobei die abschließende Transition t 2 nur feuern kann, wenn alle letzten Plätze der Parallelpfade markiert sind. Probleme ergeben sich allerdings im Falle einer Parallelverzweigung bei der Zuordnung der Zustände eines Automaten. Beispiel: Funktionsschema einer Coilanlage, Bild  14-9. Von einem Blechhaspel (Coil) wird ein Blechband abgewickelt. Ein Zangenvorschub greift das Band und befördert es um die gewünschte Schnittlänge zur Schere, die eine Blechtafel abschneidet. Damit an der Schnittkante das Blech plan aufliegt und beim Zurückfahren des Vorschubes nicht zurückrutscht, spannt ein Niederhalter das Blechband fest. Nachdem der Niederhalter gespannt hat, kann einerseits der Zangenvorschub lösen, zurückfahren und wieder spannen, andererseits, unabhängig davon, kann die Schere sich absenken und wieder hochfahren. In Bild 14-10 ist das zugehörige Petri-Netz dargestellt. Die Bedeutungen der Plätze und Transitionen ergeben sich aus Tabelle 14-4. Wie aus Tabelle 14-5 hervorgeht, sind genau 7 Kombinationen (man spricht auch von ,Fällen`) möglich. Man kann nun diesen Fällen wiederum Plätze in einem übergeordneten Fallgraphen zuordnen. Bild  14-11 zeigt den entsprechenden Fallgraphen. Wählt man die Abbildung der Zustände so, dass jedem Zustand des Automaten ein Platz im Fallgraphen, also einem Fall, entspricht, so lässt sich mit einem Automaten der gesamte Steuerungsprozess realisieren.

Bild 14-7
figure 80

Verzweigungen und Zusammenführungen in Petri-Netzen

Bild 14-8
figure 81

Verzweigungstypen in Petri-Netzen

Bild 14-9
figure 82

Coilanlage als steuerungstechnisches Beispiel

Bild 14-10
figure 83

Petri-Netz für die Coilanlage

Bild 14-11
figure 84

Übergeordneter Fallgraph für die Coilanlage

Tab. 14-4 Bedeutung der Plätze und Transitionen der Coilanlage
Tab. 14-5 Mögliche Fälle der Steuerung einer Coilanlage

Technische Realisierung von verbindungsprogrammierten Steuerungseinrichtungen

Relaistechnik

Die ältesten Steuerungseinrichtungen waren ausschließlich in Relaistechnik ausgeführt. Die logischen Grundverknüpfungen werden durch die Art der Zusammenschaltung der Kontakte eines Relais realisiert. Die Hintereinanderschaltung von Kontakten bewirkt eine UND-Verknüpfung, die Parallelschaltung eine ODER-Verknüpfung. Außerdem ist eine Negation einzelner Signale dadurch möglich, dass man Kontakte verwendet, die bei Betätigung des Relais öffnen. Diese Kontakte werden Öffner genannt, im Gegensatz zu den Schließern, die beim Anziehen des Relais schließen.

Diskrete Bausteinsysteme (DTL- und TTL-Logikfamilien)

Mitte der sechziger Jahre entstanden die ersten elektronischen Logikbausteine. Sie waren zumeist zunächst in Dioden-Transistor-Logik (DTL) aufgebaut, später in integrierter Transistor-Transistor-Logik (TTL). Das Kennzeichen dieser Systeme ist die Anordnung verschiedener kombinatorischer Standardverknüpfungsglieder oder Speicher auf einem Modul. Die Module sind entweder als einfache Europakartensysteme aufgebaut oder in Form von vergossenen Blöcken für raue Umgebungsbedingungen. Die Programmierung geschieht durch die Zusammenschaltung der einzelnen Elemente.

Speicherprogrammierbare Steuerungen

Seit Anfang der siebziger Jahre gibt es spezielle, auf steuerungstechnische Problemstellungen zugeschnittene Kleinrechner. Bei ihnen war es erstmals (sieht man von den schon länger existierenden Prozessrechnern ab) möglich, die Funktion einer Steuerungseinrichtung durch ein im Speicher abgelegtes Programm zu bestimmen. Die ersten speicherprogrammierbaren Steuerungen waren nur auf die Abarbeitung von kombinatorischen Verknüpfungen ausgelegt. Später kamen an Erweiterungen hinzu:

  • Zählen, arithmetische Befehle, Zeitgliedverwaltung, Formulierung von Ablaufsteuerungen, Kopplungsmöglichkeiten an Rechner, Protokollieren, Regeln.

Sprachen für Steuerungen nach der Norm IEC61131-3

Übersicht über die Sprachen

Mit der Norm IEC61131-3 ist eine gemeinsame Plattform geschaffen worden, die eine Portierung zwischen den Systemen verschiedener Anbieter gestattet. Bild 14-12 zeigt eine erste Übersicht über die in dieser Norm definierten Sprachen. Da sich in der Praxis die englischen Fachausdrücke durchgesetzt haben, werden sie auch im Folgenden verwendet.

Bild 14-12
figure 85

Übersicht über die Programmiersprachen nach IEC61131-3

Innerhalb der IEC61131-3 gibt es für alle Sprachen gemeinsame Elemente, zu denen die Variablen-Typen und die „Literals“ zählen, die im Folgenden näher erläutert werden. Hieraus ergibt sich die überaus wichtige Eigenschaft, dass für eine bestimmte Anwendung Programmiersprachen je nach Eignung gemischt eingesetzt werden können.

Das Software-Modell

SPS-Software ist – zumindest bei größeren Systemen – Multitasking- und Echtzeit-Software. Bild  14-13 gibt einen Überblick über die in der IEC61131-3 vorgesehenen Möglichkeiten, wie die Anbindung der einzelnen Programmteile und die Kommunikation dieser Blöcke untereinander organisiert werden soll. Allerdings sollte beachtet werden, dass nicht jede Implementierung alle diese Möglichkeiten umfassen muss. Die Verwendung von Teilen davon, also Subsets, ist durchaus möglich. So sind z. B. in der IEC61131-3 als eine Form der Kapselung Programme vorgesehen, obwohl diese nicht unbedingt erforderlich sind. Eine „Resource“ entspricht i. Allg. einer SPS oder einem Rechner. Eine „Configuration“ könnte einem Rechnerverbund (z. B. SPS mit mehreren Zentraleinheiten) entsprechen. Es ist nun möglich, sowohl einzelne Funktionsbausteine (FB) als auch – wenn implementiert – Programme komplett mit den darin eingeschlossenen Funktionsbausteinen an eine „Task“ zur Abarbeitung anzubinden.

Bild 14-13
figure 86

Software-Modell der IEC61131-3

Variablen, Literals und Konstanten
1):

Elementare Datentypen: Tabelle  14-6 gibt die Grunddatentypen der IEC61131-3 wieder.

2):

Abgeleitete Datentypen:

–:

Arrays: Diese werden aus Elementen des Gunddatentyps oder vom Benutzer definierter Datentypen definiert.

Beispiel:

$$\begin{aligned}\displaystyle&\displaystyle\text{VAR}\\ \displaystyle&\displaystyle\hphantom{000}\text{Vector16 : ARRAY[1..16] OF REAL;}\\ \displaystyle&\displaystyle\text{END}{\_}\text{VAR}\end{aligned}$$
–:

Strukturierte Datentypen: Hiermit können – wie bei anderen höheren Programmiersprachen auch – Grunddatentypen oder auch bereits strukturierte Datentypen („Structs“) in einer neuen Struktur zusammengefasst werden.

Beispiel:

$$\begin{aligned}\displaystyle\begin{array}[]{l}\text{TYPE}\\ \quad\text{PIDT1}{\_}\text{Parameters : STRUCT}\\ \quad\quad\quad\text{P : LREAL;}\\ \quad\quad\quad\text{Ti : LREAL;}\\ \quad\quad\quad\text{Td : LREAL;}\\ \quad\quad\quad\text{Tv : LREAL;}\\ \quad\text{END}{\_}\text{STRUCT}\\ \quad\text{PIDT1}{\_}\text{Controller}{\_}\text{Items : STRUCT}\\ \quad\quad\quad\text{Para : PIDT1}{\_}\text{Parameters;}\\ \quad\quad\quad\text{manualOperation : BOOL;}\\ \quad\quad\quad\text{Umin, Umax : LREAL;}\\ \quad\text{END}{\_}\text{STRUCT}\\ \text{END}{\_}\text{TYPE}\end{array}\end{aligned}$$
3):

Literals:

–:

Numerische Literals: Im Wesentlichen stimmen die Literals der IEC61131-3, die in Tabelle  14-7 dargestellt sind, mit denen anderer Rechnerhochspachen überein. Für hardwarenahe Problemstellungen ist es günstig, binäre, oktale oder hexadezimale Darstellungen zu verwenden. Diese werden deshalb bei der Darstellung als Literals unterstützt.

–:

Zeitdauer-Literals: Die Angabe der Zeitdauer (Duration) wird wahlweise durch die „Keywords“

T#

TIME#

eingeleitet.

Beispiele:

$$\begin{aligned}\displaystyle&\displaystyle\text{T}{\#}\text{14ms T}{\#}\text{14.7s T}{\#}\text{14.7m T}{\#}\text{14.7h t}{\#}\text{14.7d}\\ \displaystyle&\displaystyle\text{t}{\#}\text{25h15m t}{\#}\text{5d14h12m18s2.5ms}\end{aligned}$$
4):

Variablen:

–:

Darstellung:

(i) Single-element Variablen: Eine Single-element Variable besteht aus keinem Array oder Struct sondern nur aus einem elementaren Datentyp oder einem davon direkt abgeleiteten Datentyp. Wichtig sind die direkt dargestellten (directly represented) Datentypen, wie sie für das Ansprechen des Prozessinterfaces Verwendung finden. Sie werden mit einem %-Zeichen eingeleitet.

Beispiel:

$$\begin{aligned}\displaystyle\begin{array}[]{ll}{\%}\text{IX5.7}&\text{(* Eingangsbit 7 }\\ &\text{innerhalb von Byte 5 *)}\\ {\%}\text{QX1.2}&\text{(* Ausgangsbit 2 }\\ &\text{innerhalb von Byte 1 *)}\end{array}\end{aligned}$$

(ii) Multi-element Variablen :  Multielement-Variablen sind Arrays und Structs. Hier ist kein großer Unterschied zu den Programmiersprachen PASCAL und C festzustellen. Der indizierte Zugriff auf Array-Elemente erfolgt über eckige Klammern und die Bezeichner der hierarchischen Struktur eines Structs werden durch Punkte von einander getrennt.

Beispiel:

$$\begin{aligned}\displaystyle&\displaystyle\text{TempControllerData.Umin :}=-10.0\,;\\ \displaystyle&\displaystyle\text{TempControllerData.Para.P :}=3.47\,;\end{aligned}$$
–:

Deklaration: Vor der Variablenliste muss mithilfe eines entsprechenden Keywords spezifiziert werden, wie die Variable vom System behandelt werden soll. Dabei ergeben sich die in Tabelle  14-8 dargestellten Möglichkeiten.

Beispiel:

$$\begin{aligned}\displaystyle\begin{array}[]{l}\text{VAR}{\_}\text{INPUT}\\ \quad\text{W, Y : LREAL;}\\ \text{END}{\_}\text{VAR}\\ \text{VAR}{\_}\text{OUTPUT}\\ \quad\text{U : LREAL;}\\ \text{END}{\_}\text{VAR}\\ \end{array}\end{aligned}$$

(i) Type assignment: Diese Variablendeklaration lässt sich leicht aus den nachfolgend aufgeführten Beispielen ersehen.

$$\begin{aligned}\displaystyle\begin{array}[]{l}\text{VAR}{\_}\text{GLOBAL}\\ \quad\text{(* Weist das entsprechende Input-Bit der }\\ \quad\text{Variable Nothalt zu *)}\\ \quad\text{Nothalt : BOOL AT {\%}IX2.7;}\\ \quad\text{(* Einzelne Variable vom Typ LREAL *)}\\ \quad\text{Setpoint}{\_}\text{Temp : LREAL;}\\ \quad\text{(* eindimensionales Array *)}\\ \quad\text{StateVector : ARRAY[0..5] OF LREAL;}\\ \text{END}{\_}\text{VAR}\\ \end{array}\end{aligned}$$

(ii) Anfangswertzuweisung: Variablen ohne spezifizierte Anfangswerte sind nach IEC61131-3 grundsätzlich mit ,Null` vorbelegt. Strings sind anfangs leer. Andere Anfangswerte lassen sich aber immer deklarieren.

Beispiel: AutomaticMode : BOOL := TRUE;

Tab. 14-6 Elementare Datentypen
Tab. 14-7 Literals
Tab. 14-8 Variablendeklaration
Function Blocks und Function Block Diagram (FBD)
1):

Darstellung und Instanzierung:

Function Blocks stellen Programmorganisationseinheiten dar, die eine Kapselung erlauben, Ein- und Ausgänge besitzen und im Inneren Variablen aufweisen können, die über den Aufrufzeitraum hinweg gespeichert bleiben. Es handelt sich also um Klassen im Sinne der objektorientierten Programmierung. Die grafische Darstellung einer Verknüpfung dieser Bausteine stellt eine Programmiersprache der IEC61131-3, das sogenannte Function Block Diagram (FBD) dar. Es entspricht dem alten Logikplan (LOP) bzw. dem Funktionsplan (FUP). Wie nachfolgend gezeigt, kann ein Function Block nicht nur grafisch, sondern auch in einer textuellen Programmiersprache instanziert werden. Bei der textuellen Deklaration wird das Sprachkonstrukt

$$\begin{aligned}\displaystyle\text{VAR FB}{\_}\text{NAME : FB}{\_}\text{TYPE; END}{\_}\text{VAR}\end{aligned}$$

verwendet. Bei der grafischen Darstellung gilt die Regel, dass der Klassenname (Typ des Function Block) und die Namen der Ein- und Ausgänge innerhalb des Blocks dargestellt werden. Der Name der Instanz (des Exemplars) und die aktuelle Belegung der Ein- und Ausgänge stehen außerhalb, wie in Bild 14-14 dargestellt. Man beachte auch die in Tabelle 14-9 gezeigten Zuweisungen auf die Ein- und Ausgangsvariablen.

2):

Deklarierung: Die Function Blocks können textuell und grafisch deklariert werden. Die IEC61131-3 sieht eine Vielzahl von Möglichkeiten vor, wie Function Blocks verschachtelt angeordnet und miteinander verschaltet werden können. Dies wird anhand der in den Bildern  14-16 und 14-17 dargestellten Beispiele, die direkt der Norm entnommen wurden, gezeigt.

3):

Standard Function Blocks: In einer IEC61131-3-Implementierung sind herstellerseits gewöhnlich eine Reihe von Funktionsblocks mit enthalten. Die Norm gibt eine Reihe von Standard Function Blocks vor, die nachfolgend definiert werden.

–:

Flip-Flops: Bei RS-Flip-Flops ist grundsätzlich zwischen setz- und rücksetzdominanten Flip-Flops zu unterscheiden (Bild  14-17). Nach der Instanzierung soll der Ausgang Q immer gleich 0 sein.

–:

Timer: Als Standard-Timer sind eine Einschaltverzögerung (TON-Timer) und eine Ausschaltverzögerung (TOF-Timer) in der Norm vorgesehen. Bild  14-18 zeigt die Symbole in der FBD und die Timing-Diagramme.

–:

Tasks: In der Norm IEC61131-3 können Tasks auch wie Function Blocks dargestellt werden. Die Bilder  14-19 und 14-20 zeigen eine solche FBD-Darstellung. Es können sowohl Programme als auch Function Blocks an Tasks angebunden werden. Grundsätzlich gelten – im Wesentlichen – folgende Regeln:

1.:

Eine Task, deren Intervallzeit auf Null gesetzt ist (INTERVAL=T#0s) führt genau dann einen Zyklus aus, wenn am Eingang SINGLE ein positiver Flankenwechsel erfolgt.

2.:

Liegt am Eingang INTERVAL eine von Null verschiedene Zeit an, so arbeitet die Task alle mit ihr verbundenen Elemente mit dieser Zykluszeit ab, solange der Eingang SINGLE mit 0 (FALSE) belegt ist. Bei einer Belegung mit 1 (TRUE) stoppt die Task.

3.:

Es ist sowohl ein preemptives als auch ein non-preemptives scheduling möglich.

Bild 14-14
figure 87

Function Block Darstellung

Bild 14-15
figure 88

Beispiele für Deklarationen von Function Blocks

Tab. 14-9 Erlaubte und nicht erlaubte Zuweisungen auf Ein-Ausgangsvariablen
Bild 14-16
figure 89

Eigenschaften von Function Block Deklarierungen

Bild 14-17
figure 90

Flip-Flop–Function Blocks

Bild 14-18
figure 91

Darstellung und Timing eines a TON-Timers und eines b TOF-Timers

Bild 14-19
figure 92

Task in FBD-Darstellung

Bild 14-20
figure 93

Graphische Darstellung von Funktionsblock-Instanzen in Taskliste

Die Sprachen
1):

Ladder Diagram (LD): Das Ladder Diagram (früher Kontaktplan KOP genannt) stellt einen formalisierten Stromlaufplan einer Schütz- oder Relaisschaltung dar. Hierbei werden logische Verknüpfungen durch die Reihen- und Parallelschaltung von (Schütz-) Kontakten realisiert. Dabei wird ein Schließer durch das Symbol

—| |—

und ein Öffner (Negation) durch

—| / |—

dargestellt. Bei den Spulen gibt es – im Wesentlichen – die in Tabelle  14-10 aufgeführten Möglichkeiten.

Bild 14-21 zeigt als kleines Beispiel einen Motor, der innerhalb eines Funktionsbausteines aus- oder eingeschaltet wird. Man kann Speicherfunktionen – wie in der Schütztechnik gewohnt – durch Selbsthaltekontakte realisieren. Bild  14-21 zeigt diese Realisierungsmöglichkeit. Man benutzt dann nur die direkte Zuweisung auf die Spule. Einfacher geht es, wenn man die Möglichkeit der speichernden Zuweisung nutzt. Diese Variante ist in Bild 14-22 dargestellt.

2):

Instruction List (IL): Die Instruction List kommt der früher gebrauchten Anweisungsliste (AWL) sehr nahe. Allerdings sind hier alle Anweisungen einschließlich der zugehörigen Regeln genormt. Die entsprechenden Operatoren sind in Tabelle  14-11 dargestellt.

Nachfolgend werden zwei Beispiele für Anwendungen in IL vorgestellt. Das erste Beispiel nach Bild 14-24 zeigt eine Zuweisung mit Haltekontakt und entspricht dem im Bild 14-21 gezeigten Beispiel.

Im zweiten Beispiel nach Bild 14-25 wird das gleiche Problem mit einer setzenden und rücksetzenden Zuweisung gemäß Bild 14-22 gelöst. Diese Art von Anweisungen werden immer nur dann ausgeführt, wenn das vorhergehende Verknüpfungsergebnis vom Typ BOOL und vom Wert 1 (TRUE) ist. Da nur der zuletzt zugewiesene Wert bleibt, ist die Wirkung des Aus-Tasters hier dominant.

3):

Structured Text (ST): Structured Text ist eine textuelle Hochsprache mit starker Ähnlichkeit zu Pascal. Sie bietet die meisten Freiheitsgrade. Durch die Sprache ST ist es möglich geworden, benutzerdefinierte, intelligente regelungstechnische Algorithmen auf speicherprogrammierbare Steuerungen zu bringen. Tabelle  14-12 zeigt die möglichen Operatoren in logischen oder arithmetischen Verknüpfungen. Operationen mit der zahlenmäßig geringsten Zuordnung haben die höchste Priorität und werden daher zuerst ausgeführt.

Auch die Kontrollstrukturen, die in Tabelle 14-13 dargestellt sind, sehen der Sprache Pascal sehr ähnlich. Geklammert werden hier mehrere Statements nicht mit ,begin` und ,end` wie in Pascal oder mit ,{` und ,}` wie in C, sondern werden mit einem typisierten ,end_xyz` abgeschlossen, das auf den Typ des einleitenden Kontrollstatements xyz hinweist.

Auch hier sollen die beiden zuvor behandelten Beispiele eines Motors, der mit einem Austaster ausgeschaltet und mit einem Einschalter eingeschaltet wird, wieder verwendet werden. Die logischen Verknüpfungen nach Bild 14-26 beschreiben die gewünschte Struktur. Beim Aufruf einer Instanz eines Funktionsbausteins – in Bild  14-27 ist es ,M` – müssen nicht alle Parameter übergeben werden. Die Identifikation der Parameter erfolgt hierbei nicht durch die Reihenfolge, sondern durch die explizite Zuweisung. Ein Aufruf des FB bedeutet auch immer zugleich, dass dieser operiert wird. Die Ausgänge des FB können dann einzeln in einem Ausdruck des entsprechenden Datentyps abgefragt werden. In der Realisierung des FB nach Bild 14-28 werden die Eingänge in einer geschachtelten IF-Abfrage behandelt. Da das Einschalten nur im ELSE-Teil der Abfrage des Aussignals erfolgt, hat dieses Signal Vorrang.

4):

Sequential Function Chart (SFC): Die Sprache Sequential Function Chart basiert auf der Beschreibung sequentieller Prozesse durch Petri-Netze. Sie ist besonders zur Programmierung von Steuerungsabläufen geeignet und basiert auf den Elementen Step, Transition, Action und Action- Association.

–:

S: Tabelle  14-14 zeigt die grafische Darstellung von Steps.

–:

Transitions: Tabelle 14-15 zeigt die grafische Darstellung von Transitions.

–:

Actions: In den meisten Fällen stellt eine gewöhnliche Variable vom Typ BOOL eine Action innerhalb einer SFC dar. Möglich sind aber auch unterlagerte Strukturen, die in beliebigen Sprachen der IEC61131-3 formuliert sein können. Sie werden dann pro Taskzyklus jeweils einmal abgearbeitet, so lange die Action aktiv ist.

–:

Action-Associations mit S: Action-Associations stellen die Verbindung eines Step zu den korrespondierenden Actions dar. Sie legen fest, was jeweils mit einer dieser Actions geschehen soll, wenn ein solcher Step markiert ist.

–:

Action-Qualifier: Die Sequential Function Chart bietet eine große Pallette von Möglichkeiten hinsichtlich des Modus des Actions-Controls. Tabelle  14-17 enthält die vorgesehenen Qualifier.

Bild 14-21
figure 94

Beispiel eines in LD mit Selbsthaltekontakt geschalteten Ausgangs

Bild 14-22
figure 95

Wirkungsweise eines Verknüpfungsergebnisses bei verschiedener Art der Zuweisung

Tab. 14-10 Zuweisungsmöglichkeiten bei Spulen
Tab. 14-11 Operatoren der IL
Bild 14-23
figure 96

Beispiel eines mit setzender und rücksetzender Zuweisung geschalteten Ausgangs

Bild 14-24
figure 97

Beispiel einer Bool'schen Verknüpfung mit einem Selbsthaltekontakt in IL

Bild 14-25
figure 98

Beispiel einer Bool'schen Verknüpfung mit setzender und rücksetzender Zuweisung in IL

Bild 14-26
figure 99

Beispiel einer Bool'schen Verknüpfung mit einem Selbsthaltekontakt in ST

Bild 14-27
figure 100

Aufruf des Funktionsbausteins in ST

Bild 14-28
figure 101

ST Beispiel mit IF-Abfragen

Tab. 14-12 Operatoren der Sprache ST
Tab. 14-13 Statements der Sprache ST
Tab. 14-14 Step-Eigenschaften
Tab. 14-15 Transitionen und Transitionsbedingungen

Bild 14-29 zeigt ein Schaltbild, das die Funktion der Qualifier anschaulich beschreibt. Der Qualifier R bewirkt ein sofortiges Rücksetzen der hiermit assoziierten Action.

Bild 14-29
figure 102

Action_Control function block body

Nachfolgend ist im Bild 14-30 als abschließendes Beispiel die SFC-Realisierung der Steuerung der Coilanlage nach Bild 14-9 angegeben.

SPS und Prozessrechner

Tab. 14-16 Action-Associations
Tab. 14-17 Action-Qualifiers

Speicherprogrammierbare Steuerungen sind seit ihrem ersten Auftreten immer leistungsfähiger geworden. Damit ist allerdings die Grenze zum Prozessrechner mehr und mehr fließend, weil die leistungsfähigen speicherprogrammierbaren Steuerungen (SPS) immer mehr Funktionen übernehmen, die bisher Prozessrechnern bzw. Prozessleitsystemen (PLS) vorbehalten waren. Die Aufgaben eines PLS und einer SPS unterscheiden sich heute nicht mehr vom Inhalt, sondern durch den Umfang der zu lösenden Automatisierungsaufgabe. Herkömmliche SPS verarbeiten nicht nur binäre, sondern auch digitalisierte analoge Signale. Die mitgelieferten Funktionsbibliotheken umfassen z. B. auch Module für diskrete PID-Regelalgorithmen (vergl. Abschn. 10.6.1).

Moderne SPS bieten außerdem die Möglichkeit, verschiedene Programmteile – für den Anwender quasi gleichzeitig – abzuarbeiten (vergl. Bild 14-13). Dadurch kann eine Gesamtaufgabe in struktuierte Teilaufgaben zerlegt werden, wobei z. B. eine Task verknüpfungsorientierte binäre Variablen verarbeitet, während eine andere Task z. B. für das Hochfahren einer Maschine oder deren Drehzahlregelung abhängig von äußeren Randbedingungen zuständig ist.

Prozesssignale von Speicherprogrammierbaren Steuerungen

Für die analogen Spannungs-Ein-/Ausgangssignale hat sich zumeist ein Standardwertebereich von +∕ − 10 V oder 0…10 V eingebürgert. Bei den analogen Strom-Ein-/Ausgangssignalen sind es 0 …20 mA bzw. 4–20 mA. Bei letzteren Schnittstellen lassen sich auf einfache Weise Drahtbrüche erkennen, wenn der eingeprägte Strom unter 4 mA sinkt. Bei analogen Eingängen unterscheidet man die beiden Betriebsarten Single-Ended-Mode und Differenzial-Mode. Im Differenzial-Mode werden zum Anschluss von Hin- und Rückleitung eines Analogsignals zwei Kanäle benutzt, die vor der AD-Wandlung auf einen Differenzverstärker gegeben werden. Eingekoppelte Störsignale, die sich gegen Massepotenzial aufbauen, werden so weitgehend eliminiert.

Digitale Ein-/Ausgänge werden größtenteils in 24 V-Technik ausgeführt. Die digitalen Ausgänge können dabei meistens einen Strom treiben, der ausreichend ist, ein 24 V-Gleichstromschütz anzusteuern.

Für die elektrische Betriebssicherheit der Anlage, ist es oft von Bedeutung, dass die Prozessschnittstellen galvanisch entkoppelt sind.

Bild 14-30
figure 103

Beispiel Coil-Anlage

Formelzeichen der Regelungs- und Steuerungstechnik

a) Allgemeine Darstellung

e(t), f(t), …

kontinuierliche Zeitfunktionen, Signale

e(k), f(k), …

diskrete Zeitfunktionen, Folgen

E(s), F(s), …

Laplace-Transformierte von e(t), f(t), …

E( j ω), f( j ω), …

Fourier-Transformierte von e(t), f(t), …

E Z(z), F Z(z), …

z-Transformierte von e(k), f(k) …

x, x(t)

Vektoren (konstant bzw. zeitabhängig) (anders in Kap. 14!)

A, A(t), Φ(t)

Matrizen (konstant bzw. zeitabhängig)

|A|

Determinante der Matrix A

X(s), U(s), …

Laplace-Transformierte der Vektoren x(t), u(t), …

\(\underline{\boldsymbol{G}}({s}),\underline{\Phi}({s})\)

Matrizen, deren Elemente Funktionen, z. B. Polynome, von s sind

L

Operator der Laplace-Transformation

F

Operator der Fourier-Transformation

Z

Operator der z-Transformation

Z

doppelter Operator für Z{L −1{…}| t = kT }

x T, A T

Transponierte des Vektors x bzw. der Matrix A

A −1

Inverse der Matrix A

\(\hat{x},\hat{p}\)

Schätzwert oder rekonstruierter Wert von x oder p

b) Spezielle Kennzeichnungen

t

kontinuierliche Zeitvariable

σ(t)

Sprungfunktion

δ(t)

Impulsfunktion

h(t)

Übergangsfunktion

g(t)

Gewichtsfunktion

k

diskrete Zeitvariable

δ d(k)

diskreter Impuls

h(k)

Übergangsfolge

g(k)

Gewichtsfolge

u

Stellgröße

u R

Reglerausgangsgröße

w

Führungsgröße

y

Regelgröße

z

Störgröße

s

 = σ + j ω, komplexe Bildvariable für die Laplace-Transformation, auch als Frequenzvariable bezeichnet

ω

= 2 πT, Kreisfrequenz

G(s)

Übertragungsfunktion

G( j ω)

Frequenzgang (allgemein)

G 0(s), G 0( j ω)

Übertragungsfunktion bzw. Frequenzgang des offenen Regelkreises

G W(s)

Führungsübertragungsfunktion

G Z(s)

Störungsübertragungsfunktion

z

komplexe Bildvariable der z-Transformation

G(z)

z-Übertragungsfunktion

R(ω)

Realteil von G(j ω)

I(ω)

Imaginärteil von G(j ω)

x(t)

Vektor der Zustandsgrößen, Zustandsvektor

u(t)

Vektor der Stellgrößen, Stellvektor (auch Steuervektor)

y(t)

Vektor der Ausgangsgrößen, Ausgangsvektor

R ab(τ)

Korrelationsfunktion

S ab( j ω)

Spektrum

c) International genormte Formelzeichen (in Klammern die in Deutschland bevorzugten Ausweichzeichen) nach DIN 19221

u

Eingangsgröße

w

Führungsgröße

v, (z)

Störgröße

e

Regeldifferenz, Regelabweichung

m, (y)

Stellgröße

y, (x)

Regelgröße

q, (x A)

Aufgabengröße

f, (r)

Rückführgröße

Literatur

Allgemeine und weiterführende Literatur insbesondere zu den Kapiteln 1 bis 8

  • Angermann, A.; Beuschel, M.; Rau, M.; Wohlfarth, U.: Matlab – Simulink – Stateflow. München: 4. Aufl. Oldenbourg 2005

  • Antsaklis, P.; Michel, A.: Linear systems. New York: McGraw-Hill 1997

  • Belanger, P.: Control Engineering, Orlando, Fla.: Saunders 1995

  • Bode, H.: MATLAB in der Regelungstechnik. Stuttgart: Teubner 1998

  • Böttiger, A.: Regelungstechnik. 3. Aufl. München: Oldenbourg 1998

  • Cremer, M.: Regelungstechnik. 2. Aufl. Berlin: Springer 1995

  • De Carvalho, J.: Dynamical systems and automatic control. New York: Prentice-Hall 1993

  • Dickmanns, E.D.: Systemanalyse und Regelkreisynthese. Stuttgart: Teubner 1985

  • Dörrscheidt, F.; Latzel, W.: Grundlagen der Regelungstechnik. 2. Aufl. Stuttgart: Teubner 1993

  • Föllinger, O.: Regelungstechnik. 8. Aufl. Heidelberg: Hüthig 1994

  • Franke, D.; Krüger, K.; Knoop, M.: Systemdynamik und Reglerentwurf. München: Oldenbourg 1992

  • Geering, H.P.: Regelungstechnik. 3. Aufl. Berlin: Springer 1994

  • Grantham, W.: Modern control systems. New York: Wiley 1993

  • Leonhard, W.: Einführung in die Regelungstechnik. 6. Aufl. Wiesbaden: Vieweg 1992

  • Levine, W.: The control handbook, Boca Raton, Fla.: CRC Press 1996

  • Litz, L.: Grundlagen der Automatisierungstechnik. München: Oldenbourg 2005

  • Ludyk, G.: Theoretische Regelungstechnik, 2 Bde. Berlin: Springer 1995

  • Lunze, J.: Regelungstechnik, 2 Bde. Berlin: Springer 2006, 2007

  • Mann, H.; Schiffelgen, H.; Froriep, R.: Einführung in die Regelungstechnik. München: 9. Aufl. Hanser

  • Merz, L.; Jaschek, H.: Grundkurs der Regelungstechnik. 14. Aufl. München: Oldenbourg 2003

  • Ogata, K.: Modern control engineering. 2nd. Englewood Cliffs, N.J.: Prentice-Hall 1990

  • Olsson, G.; Piani, G.: Steuern, Regeln, Automatisieren. München: Hanser 1993

  • Oppelt, W.: Kleines Handbuch technischer Regelvorgänge. 5. Aufl. Weinheim: Verl. Chemie 1972

  • Philips, C.; Harbor, R.D.: Feedback control systems. 3rd ed. Englewood Cliffs, N.J.: Prentice-Hall 1996

  • Reinhardt, H.: Automatisierungstechnik. Berlin: Springer 1996

  • Reinisch, K.: Analyse und Synthese kontinuierlicher Steuerungssysteme. Berlin: Verl. Technik 1979

  • Reinschke, K.: Lineare Regelungs- u. Steuerungstheorie. Berlin: Springer 2006

  • Roppenecker, G.: Zeitbereichsentwurf linearer Regelungen. München: Oldenbourg 1990

  • Samal, E.; Becker, W.: Grundriß der praktischen Regelungstechnik. München: 21. Aufl. Oldenbourg 2004

  • Schlitt, H.: Regelungstechnik. 2. Aufl. Würzburg: Vogel 1993

  • Schmidt, G.: Grundlagen der Regelungstechnik. 2. Aufl. Berlin: Springer 1987

  • Schneider, W.: Regelungstechnik für Maschinenbauer. 2. Aufl. Wiesbaden: Vieweg 1994

  • Schulz, G.: Regelungstechnik Bd. 1 u. Bd. 2. München: Oldenbourg 2002 u. 2004

  • Solodownikow, W.W.: Analyse und Synthese linearer Systeme. Berlin: Verl. Technik 1971

  • Solodownikow, W.W.: Stetige lineare Systeme. Berlin: Verl. Technik 1971

  • Stefani, R.T. et al.: Design of feedback control systems. Orlando: Saunders College Publishing 1994

  • Unbehauen, H.: Regelungstechnik I: Klassische Verfahren zur Analyse und Synthese linearer kontinuierlicher Regelsysteme. 14. Aufl. Wiesbaden: Vieweg 2007

  • Weinmann, A.: Regelungen, Bd. I: Systemtechnik linearer und linearisierter Regelungen. 3. Aufl. Wien: Springer 1994

  • Wolovich, W.: Automatic control systems. Orlando, Fla.: Saunders 1994

  • Kahlert, J.; Frank, H.: Fuzzy-Logik und Fuzzy-Control. Braunschweig, Wiesbaden: Vieweg 1993

  • Kahlert, J.: Fuzzy Control für Ingenieure. Fuzzy-Regelsystemen. Braunschweig, Wiesbaden: Vieweg 1995

  • Zimmermann, H.: Fuzzy set theory and its applications. 2nd ed. Boston: Kluwer 1992

  • Boullart, L.: Krijgsman, A.: Vingerhoeds, R.A.: Application of artificial intelligence in process control. Oxford: Pergamon 1992

  • Hrycej, T.: Neurocontrol. New York: Wiley 1997

Spezielle Literatur zu Kapitel 1

1.:

Wiener, N.: Cybernetics; or, Control and communication in the animal and the machine. New York: Wiley 1948

2.:

DIN 19226-1/6: Leittechnik; Regelungstechnik und Steuerungstechnik

Spezielle Literatur zu Kapitel 2

1.:

Schöne, A.: Simulation technischer Systeme, 3 Bde. München: Hanser 1974

Spezielle Literatur zu Kapitel 3

1.:

Unbehauen, R.: Systemtheorie, Bd. 1 u. 2. München: Oldenbourg 1998/2002

Spezielle Literatur zu Kapitel 4

1.:

Doetsch, G.: Anleitung zum praktischen Gebrauch der Laplace-Transformation und der z-Transformation. 5. Aufl. München: Oldenbourg 1985

2.:

Föllinger, O.: Laplace- und Fourier-Transformation. Berlin: Elitera-Verl. 1977

3.:

[Unbehauen, Regelungstechnik I]

Spezielle Literatur zu Kapitel 5

1.:

[Unbehauen, Regelungstechnik I]

2.:

Tietze, U.; Schenk, Ch.: Halbleiter-Schaltungstechnik. 10. Aufl. Berlin: Springer 1993

Spezielle Literatur zu Kapitel 6

1.:

Hurwitz, A.: Über die Bedingungen, unter welchen eine Gleichung nur Wurzeln mit negativen reellen Teilen besitzt. Math. Ann. 46 (1895) 273–284

2.:

Routh, E.J.: A treatise on the stability of a given state of motion. London: Macmillan 1877

3.:

Nyquist, H.: Regeneration theory. Bell Syst. Tech. J. 11 (1932) 126–147

Spezielle Literatur zu Kapitel 7

1.:

Evans, W.R.: Control system dynamics. New York: McGraw-Hill 1954

Spezielle Literatur zu Kapitel 8

1.:

Newton, G.C.; Gould, L.A.; Kaiser, J.F.: Analytical design of linear feedback control. New York: Wiley 1957

2.:

Unbehauen, H.: Stabilität und Regelgüte linearer und nichtlinearer Regler in einschleifigen Regelkreisen bei verschiedenen Streckentypen mit P- und I-Verhalten. (Fortschr.-Ber., R. 8, 13) Düsseldorf: VDI-Verl. 1970

3.:

[Oppelt], S. 462–476

4.:

Ziegler, J.G.; Nichols, N.B.: Optimum settings for automatic controllers. Trans. ASME 64 (1942) 759–768

5.:

[Unbehauen, Regelungstechnik I]

6.:

Truxal, J.G.: Entwurf automatischer Regelsysteme. Wien, München: Oldenbourg 1960, S. 297–338

Allgemeine Literatur zu Kapitel 9

  • Atherton, D.: Nonlinear control engineering. London: Van Nostrand 1981

  • Föllinger, O.: Nichtlineare Regelung, 7. Aufl. München: Oldenbourg 1993

  • Khalil. K.: Nonlinear systems. New York: Macmillan 1992

  • Nijmeijer, H.; van der Schaft, A.: Nonlinear dynamical control systems. Berlin: Springer 1990

  • Parks, P.C.: Hahn, V.: Stabilitätstheorie. Berlin: Springer 1981

  • Schwarz, H.: Nichtlineare Regelungssysteme. München: Oldenbourg 1991

  • Unbehauen, H.: Regelungstechnik II: Zustandsregelungen, digitale und nichtlineare Regelsysteme. 9. Aufl. Wiesbaden: Vieweg 2007

  • Vidyasagar, M.: Nonlinear systems analysis. Englewood Clifs, N.J.: Prentice-Hall 1993

Spezielle Literatur zu Kapitel 9

1.:

Siehe [2] zu Kap. 8

2.:

[Unbehauen, Regelungstechnik II]

3.:

Gille, J.; Pelegrin, M.; Decaulne, O.: Lehrgang der Regelungstechnik, Bd. I. München: Oldenbourg 1960

4.:

Feldbaum, A.: Rechengeräte in automatischen Systemen. München: Oldenbourg 1962

5.:

Boltjanski, W.G.: Mathematische Methoden der optimalen Steuerung. München: Hanser 1972

6.:

Hahn, W.: Theorie und Anwendung der direkten Methode von Ljapunov. Berlin: Springer 1959

7.:

Aiserman, M.; Gantmacher, F.: Die absolute Stabilität von Regelsystemen. München: Oldenbourg 1965

8.:

Schultz, D.; Gibson, J.: The variable gradient method for generating Liapunov functions. Trans. AIEE 81, Part II (1962) 203–210

9.:

Popov, V.: Absolute stability of nonlinear systems of automatic control. Autom. Remote Control 22(1961) 961–978

Allgemeine Literatur zu Kapitel 10

  • Ackermann, J.: Sampled-data control systems. Berlin: Springer 1985

  • Braun, A.: Digitale Regelungstechnik. München: Oldenbourg 1997

  • Feindt, E.: Regeln mit dem Rechner. 2. Aufl. München: Oldenbourg 1994

  • Föllinger, O.: Lineare Abtastsysteme. 5. Aufl. München: Oldenbourg 1993

  • Franklin, G.; Powell, J.; Workman, M.: Digital control of dynamic systems. London: Addison-Wexley 1990

  • Gausch, F.; Hofer, A.: Schlachter, K.: Digitale Regelkreise. 2. Aufl. München: Oldenbourg 1993

  • Günther, M.: Zeitdiskrete Steuerungssysteme. Berlin: Verl. Technik 1986

  • Isermann, R.: Digitale Regelsysteme, 2 Bde. 2. Aufl. Berlin: Springer 1987

  • Kuo, B.: Digital control systems. Orlando, Fla.: Saunders 1992

  • Latzel, W.: Einführung in die digitalen Regelungen. Düsseldorf: VDI-Verlag 1995

  • Ogata, K.: Discrete-time control systems. 2nd ed. Englewood Cliffs, N.J.: Prentice-Hall 1995

  • Phillips, C.; Nagle, H.: Digital control system analysis and design. Englewood Cliffs, N.J.: Prentice-Hall 1984

  • Santina, M.; Stubberud, A.; Hostetter, G.: Digital control system design. Orlando, Fla.: Saunders 1994

  • Unbehauen, H.: Regelungstechnik II; siehe zu Kap. 9

  • Van den Enden, A.; Verhoeckx, N.: Digitale Signalverarbeitung. Wiesbaden: Vieweg 1990

Spezielle Literatur zu Kapitel 10

1.:

Siehe [1] zu Kap. 4

2.:

Zypkin, S.: Theorie der linearen Impulssysteme. München: Oldenbourg 1967

3.:

[Unbehauen, Regelungstechnik II]

4.:

Tustin, A.: Method of analysing the behaviour of linear systems in terms of time series. J. IEE 94, Part IIA (1947) 130–142

5.:

Jury, E.: Theory and application of the z-transform method. New York: Wiley 1964

6.:

[Föllinger, Abtastsysteme]

7.:

Takahashi, Y.; Chan, C.; Auslander, D.: Parametereinstellung bei linearen DDC-Algorithmen. Regelungstechnik 19 (1971) 237–244

Allgemeine Literatur zu Kapitel 11

  • Hippe, P.; Wurmthaler, Ch.: Zustandsregelung. Berlin: Springer 1985

  • Ludyk, G.: Theoretische Regelungstechnik Bd. 1 und Bd. 2. Berlin: Springer 1995

  • Ogata, K.: State space analysis of control systems. Englewood Cliffs, N.J.: Prentice-Hall 1967

  • Unbehauen, H.: Regelungstechnik II; siehe zu Kap. 9

Spezielle Literatur zu Kapitel 11

1.:

[Unbehauen, Regelungstechnik II]

2.:

Kalman, R.: On the general theory of control systems. Proc. 1st IFAC Congress, Moskau 1960, Bd. 1. München: Oldenbourg 1961, S. 481–492

3.:

[Unbehauen, Regelungstechnik III; siehe zu Kap. 12]

4.:

[Angermann, A., Beuschel, M.; Rau, M.; Wohlfarth, U.]

Allgemeine Literatur zu Kapitel 12

  • Eykhoff, P.: System identification. London: Wiley 1974

  • Gevers, M.; Li, G.: Parametrizations in control, estimation and filtering problems. Berlin: Springer 1993

  • Isermann, R.: Identifikation dynamischer Systeme. 2 Bde. 2. Aufl. Berlin: Springer 1992

  • Johansson, R.: System modeling and identification. New York: Prentice-Hall 1992

  • Juang, J.: Applied system identification. Englewood Cliffs, N.J.: Prentice-Hall 1994

  • Ljung, J.: System identification. 2nd ed. Englewood Cliffs, N.J.: Prentice-Hall 1999

  • Natke, H.G.: Einf. in Theorie und Praxis der Zeitreihen und Modalanalyse. 3. Aufl. Wiesbaden: Vieweg 1992

  • Sinha, N.; Rao, G.P.: Identification of continuous-time systems. Dortrecht: Kluwer 1991

  • Söderström, T.; Stoica, P.: System identification. New York: Prentice-Hall 1989

  • Unbehauen, H.: Regelungstechnik III: Identifikation, Adaption, Optimierung. 6. Aufl. Wiesbaden: Vieweg 2000

  • Unbehauen, H.; u.a.: Parameterschätzverfahren zur Systemidentifikation. München: Oldenbourg 1974

  • Unbehauen, H.; Rao, G. P.: Identification of continuous systems. Amsterdam: North-Holland 1987

Spezielle Literatur zu Kapitel 12

1.:

[Unbehauen, Regelungstechnik III]

2.:

Schwarze, G.: Algorithmische Bestimmung der Ordnung und Zeitkonstanten bei P-, I- und D-Gliedern. messen, steuern, regeln 7 (1964) 10–18

3.:

[Unbehauen/Rao]

4.:

Unbehauen, H.: Kennwertermittlung von Regelsystemen an Hand des gemessenen Verlaufs der Übergangsfunktion. messen, steuern, regeln 9 (1966) 188–191

5.:

Unbehauen, H.: Bemerkungen zu der Arbeit von W. Bolte ,,Ein Näherungsverfahren zur Bestimmung der Übergangsfunktion aus dem Frequenzgang“. Regelungstechnik 14 (1966) 231–233

6.:

[Unbehauen, Regelungstechnik III]

Allgemeine Literatur zu Kapitel 13

  • Ackermann, J.: Robust control: Systems with uncertain physical parameters. New York: Springer 1993

  • Aström, K.; Wittenmark, B.: Adaptive control. Reading (Ma.): Addison-Wesley 1989

  • Aström, K.; Wittenmark, B.: Computer-controlled systems: Theory and design. London: Prentice-Hall 1990

  • Chalam, V.: Adaptive control systems. New York: Dekker 1987

  • Cichocki A.; Unbehauen, R.: Neural networks for optimization and signal processing. Chichester (UK): Wiley 1993

  • De Keyser, R.; Van de Velde, P.; Dumortier, F.: A comparative study of self-adaptive long-range predictive control methods. Automatica 24 (1988) 149–163

  • Goodwin, G.; Sin, K.: Adaptive filtering and control. Englewood Cliffs (N.J.): Prentice-Hall 1984

  • Harris, C.; Billings, S.: Self-tuning and adaptive control. London: P. Peregrinus 1981

  • Ioannou, P.; Sun, J.: Robust adaptive control. Upper Saddle River (N.J.): Prentice-Hall 1996

  • Isermann, R.; Lachmann, K.; Matko, D.: Adaptive control systems. New York: Prentice-Hall 1992

  • Kahlert, J.; Frank, H.: Fuzzy-Logik und Fuzzy-Control. Braunschweig: Vieweg 1993

  • Kiendl, H.: Fuzzy Control methodenorientiert. München: Oldenbourg 1997

  • King, R.: Computational intelligence in control engineering. New York: Dekker 1999

  • Koch, H.; Kuhn, T.; Wernstedt, J.: Fuzzy Control. München: Oldenbourg 1996

  • Krstic, M.; Kanellakopoulos, I.; Kokotovic, P.: Nonlinear and adaptive control design. New York: Wiley 1995

  • Landau, Y.: Adaptive control. New York: Dekker 1979

  • Levine, W. (ed.): The control handbook. Boca Raton (Fl.): CRC Press 1996

  • Lin, C.: Advanced control systems design. Englewood Cliffs: Prentice-Hall 1994

  • Maciejowski, J.: Predictive control with constraints. London: Prentice-Hall 2002

  • Martin-Sanchez, J; Rodellar, J.: Adaptive predictive control. London: Prentice-Hall 1996

  • Mosca, E.: Optimal predictive and adaptive control. London: Prentice-Hall 1995

  • Mutambara, A.: Design and analysis of control systems. Boca Raton (Fl.): CRC Press 1999

  • Narendra, K.; Annaswami, A.: Stable adaptive systems. Englewood Cliffs (N.J.): Prentice-Hall 1989

  • Nijmeijer, H.; van der Schaft, A.: Nonlinear dynamic control systems. Berlin: Springer 1990

  • Nise, N.: Control systems engineering. New York: Wiley 2000

  • Rawlings, J.: Tutorial overview of model predictive control. IEEE Contr. Syst. Magazine 20-3 (2000) 38–52

  • Sastry, S.; Bodson, M.: Adaptive control – Stability, convergence and robustness. Englewood Cliffs: Prentice-Hall (N.J.) 1998

  • Strietzel, R.: Fuzzy-Regelung. München: Oldenbourg 1996

  • Unbehauen, H.: Regelungstechnik III; siehe zu Kap. 12

  • Wellstead, P.; Zarrop, M.: Self-tuning systems. Chichester (UK): Wiley 1991

  • Zilouchian, A.; Jamshidi, M. (eds.): Intelligent control systems using soft computing methodologies. Boca Raton (Fl.): CRC Press 2001

Spezielle Literatur zu Kapitel 13

1.:

Smith, O.: A controller to overcome dead-time. ISA Journal 6-2 (1959) 28–33

2.:

Hang, C.C.: Smith predictor and modifications. In: H. Unbehauen (ed.): Control systems, robotics and automation–UNESCO-Encyclopedia of Life Support Systems (EOLSS). Oxford (UK): Eolss-Publishers (Internet) 2003

3.:

Francis, B.; Wonham, W.: The internal model principle for linear multivariable regulators. Applied Mathematics and Optimization 2 (1975) 170–194

4.:

Morari, M.; Zafiriou, E.: Robust process control. Englewood Cliffs (N.J.): Prentice-Hall 1989

5.:

Barmish, B.: New tools for robustness of linear systems. New York: Macmillan 1994

6.:

Bhattacharyya, S.; Chappelat, H.; Keel, L.: Robust control: The parametric approach. Upper Saddle River (N.J.): Prentice-Hall 1995

7.:

Zames, G.: Feedback and optimal sensitivity: Model reference transformations, multiplicative seminorms, and approximate inverses. IEEE Trans. AC 26 (1981) 301-320

8.:

Boyd, S.; Barratt, C.: Linear controller design: Limits of performance. Englewood Cliffs (N.J.): Prentice- Hall 1991

9.:

Kharitonov, V.: Über eine Verallgemeinerung eines Stabilitätskriteriums (russ.). Izvetiy Akademii Nauk Kazakhskoi SSR, Seria Fizikomatematicheskaia 26 (1978) 53–57

10.:

Camacho, E.; Bordons, C.: Model predictive control. London: Springer 1999

11.:

Soeterboek, A.: Predictive control: A unified approach. New York: Prentice-Hall 1992

12.:

Clarke, D.: Advances in model-based predictive control. New York: Oxford University Press 1994

13.:

Krämer, K.: Ein Beitrag zur Analyse und Synthese adaptiver prädiktiver Regler. Düsseldorf: VDI-Verlag 1992

14.:

Chen, H.; Allgöwer, F.: Nonlinear model predictive control schemes with guaranteed stability. In: Berber, R.; Kravaris, C. (eds.): Nonlinear model based process control.Dordrecht: Kluwer Academic Publishers 1998

15.:

Halldorsson, U.: Synthesis of multirate nonlinear predictive control. Düsseldorf: VDI-Verlag 2003

16.:

[Unbehauen, Regelungstechnik III]

17.:

Clarke, D.; Gawthrop, P.: Self-tuning controller. IEE Proc. Pt.D: Control Theory and Applications 122-9 (1975) 929–934

18.:

Annaswamy, A.: Model reference adaptive control. In: H. Unbehauen (ed.): Control systems, robotics and automation–UNESCO-Encyclopedia of Life Support Systems (EOLSS). Oxford (UK): Eolss-Publishers (Internet) 2003

19.:

Gawthrop, P.: Continuous-time self-tuning control. Vol. 1: Design. Lechworth (UK): Research Study Press 1987

20.:

[Unbehauen, Regelungstechnik III]

21.:

Anderson, B. et al.: Stability of adaptive systems. Cambridge (Ma.): M.I.T. Press, 1986

22.:

Aström, K.; Hägglund, T.: Automatic tuning of simple regulators with specification on phase and amplitude margins. Automatica 20 (1984) 645–651

23.:

Filatov, N.; Unbehauen, H.: Adaptive dual control. Berlin: Springer 2004

24.:

Kokotovic, P.; Khalil, H.; O'Reilly, J.: Singular perturbation methods in control: Analysis and design. Philadelphia: SIAM 1999

25.:

Utkin, V.: Variable structure systems with sliding modes. IEEE Trans. AC 22 (1977) 212–222

26.:

Hung, J.Y.; Gao, W.; Hung, J.C.: Variable structure control. IEEE Trans. IE 40-1 (1993) 2–22

27.:

Khalil, H.: Nonlinear systems. Upper Saddle River (N.J.): Prentice-Hall 2002

28.:

Driankov, D.; Hellendorn, H.; Reinfrank, M.: An introduction to fuzzy control. Berlin: Springer 1993

29.:

Funahashi, K.: On the approximate realization of continuous mapping by neural networks. Neural Networks 2 (1989) 183–192

30.:

Harris, C.; Brown, M.; Bossley, M.; Milis, D.; Feng, M.: Advances in neurofuzzy algorithms for real-time modelling and control. Engng. Applic. Artif. Intell. 9 (1996) 1–16

31.:

Linkens, D.; Nyongesa, H.: Learning systems in intelligent control: An appraisal of fuzzy, neural and genetic control applications. IEE Proc. CTA 143 (1996) 367–386

Allgemeine Literatur zu Kapitel 14

  • Bonfatti, F.; Monari, P.D.; Sampieri, U.: IEC 1131-3 programming methodology. Seyssins: CJ International 1997

  • John, K.-H.; Tiegelkamp, M.: SPS-Programmierung mit IEC 1131-3. Berlin: Springer 1997

  • Lewis, R.W.: Programming industrial control systems using IEC 1131-3. London: The Institution of Electrical Engineers 1998

  • Pickhardt, R.: Grundlagen und Anwendungen der Steuerungstechnik. Braunschweig: Vieweg 2000

Allgemeine Literatur zu Kapitel 1 bis 14

  • Früh, K.F. (ed.): Handbuch der Prozeßautomatisierung. München: Oldenbourg 2000

  • Singh, M.G. (ed.): Systems and control encyclopedia. Oxford: Pergamon Press 1987

  • Levine, W.S. (ed.): The Control Handbook. Boca Raton (Fl): CRC Press 1996

  • Unbehauen, H. (ed.): Component Encyclopedia of Control Systems Rolotics and Automation (ECSRA) of UNESCO-Encyclopedia of Life Support Systems (EOLSS). Oxford (UK): EOLSS-Publishes (Internet) 2003