Skip to main content

Empirie – Empirische Methoden der Komplexitätsmessung

  • Chapter
  • First Online:
Komplexität und Entrepreneurship
  • 4423 Accesses

Zusammenfassung

Es ist unzweifelhaft, dass wirtschaftswissenschaftliche Theorien nur dann ein großes Maß an Erklärungskraft besitzen, wenn sie nicht nur in sich schlüssig sind, wie es beispielsweise für mathematische Theorien verlangt wird, sondern wenn sie auch einen überzeugenden Bezug zur ökonomischen Wirklichkeit haben.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Man vergleiche die deutsche Übersetzung: Bacon (2014; Argyris et al. 2010, S. 307).

  2. 2.

    Man vergleiche die deutsche Übersetzung: Hume (2012).

  3. 3.

    Keynes Theorie war vielleicht nie in sich richtig schlüssig, aber sie funktionierte in der Praxis, wenn man z. B. an den wirtschaftspolitischen Keynesianismus der Bundesrepublik der späten neunzehnhundertsechziger und Anfang der neunzehnhundertsiebziger Jahre denkt. Kaum ein Politiker ließ sich damals finden, der nicht von sich behauptete: Ich bin Keynesianer! Auf einem Bein kann man eben auch stehen. Aber seit der Stagflation ab Mitte der neunzehnhundertsiebziger Jahre verschwand die empirische Unterstützung von Keynes Ansätzen frappierend deutlich.

  4. 4.

    Die traditionellen Methoden ermöglichen es oftmals nicht, nicht-lineare dynamische Prozesse zu rekonstruieren und z. B. entstehende Seltsame Attraktoren und Emergenzprozesse zu untersuchen. Zur traditionellen Ökonometrie vgl. Heil (2000).

  5. 5.

    Unter einem Laplace Experiment versteht man ein Zufallsexperiment, bei dem sämtliche Möglichkeiten des Versuchsausgangs die gleiche Wahrscheinlichkeit aufweisen. Im dem vorliegenden Fall bedeutet dies, dass die Wahrscheinlichkeit eine 1 zu würfeln genauso groß ist, wie die, jede andere Zahl auf dem Würfel zu werfen.

  6. 6.

    Es sei an dieser Stelle noch einmal darauf hingewiesen, dass in der Wirtschaftswissenschaft ausschließlich dissipative Systeme von Interesse sind. Konservative Systeme, deren Phasenraumvolumen erhalten bleibt, stehen außen vor. Deshalb kann auch stets das Vorhandensein eines Attraktors unterstellt werden.

  7. 7.

    Rauschen lässt sich im Übrigen dadurch erzeugen, dass man zu einer dynamischen Variable an jedem einzelnen Mess- bzw. Zeitpunkt eine Zufallszahl addiert. Ist dieses Rauschen dabei gaußförmig mit einer bestimmten Breite, auch Rauschstärke genannt, verteilt, spricht man auch von breitbandigem oder weißem Rauschen. Der Begriff ist in Analogie zum weißen Licht zu sehen, das alle Spektren bzw. Frequenzen des sichtbaren Lichtes mit gleicher Stärke bzw. Intensität enthält. Gefiltertes weißes Rauschen, bei dem eine Dämpfung der höheren Frequenzen erfolgt, bei dem z. B. das Rauschen bei steigender Frequenz abnimmt (sogenanntes 1/f-Rauschen oder 1/f 2-Rauschen), wird auch farbiges Rauschen genannt. Hierbei sind offensichtlich die Zufallsdaten im Gegensatz zum weißen Rauschen miteinander korreliert (Müller 1990).

  8. 8.

    Vgl. zum KAM-Theorem die Ausführungen in Abschn. 4.1.1

  9. 9.

    Es gibt durchaus noch andere Algorithmen in diesem Kontext. So lassen sich beispielsweise ergänzend der Algorithmus von Benettin, der in Anlehnung an die Methode von Shinada und Nagashima entstanden ist, der Kurths-Herzel- und der Ruelle-Algorithmus unterscheiden (Loistl und Betz 1993, S. 70 ff.). Auch die von Brown et al. zum einen und zum anderen die von Holzfuß et al. vorgeschlagenen Algorithmen sollte man hierbei erwähnen (Loistl und Betz 1993, S. 79).

  10. 10.

    Es muss jedoch kritisch bemerkt werden, dass sich empirische Daten wahrscheinlich kaum mit einer derartigen Präzision messen lassen, sodass das Zustandekommen einer ganzzahligen Dimension mit dem Verfahren ermöglicht wird.

  11. 11.

    Man muss berücksichtigen, dass beispielsweise der ROI aus der Aggregation einer Vielzahl von Informationen über die Unternehmung besteht. So kann der ROI z. B. als Produkt des Kapitalumschlags und der Umschlagsrentabilität dargestellt werden. Diese Kennzahlen hängen ihrerseits vom Kapitalstock, vom Umsatz und vom Umschlag ab. Hier wiederum gibt es einen direkten Zusammenhang zu den produzierten Gütern, den Lagerbeständen, den Mitarbeitern, etc. Dahinter stehen am Ende Management-Entscheidungen und konkrete Prozessabläufe etc. Bedenkt man dies, dann zeigt sich, dass bereits in eine scheinbar einfache Größe wie dem ROI eine Fülle von Informationen einfließen. Mit anderen Worten: Der ROI ist bereits eine Kennzahl, die aus einer Summe von Einzelinformationen der Unternehmung besteht, die i. d. R. nur durch ein umfassendes Kennzahlensystem, im einfachsten Fall z. B. ein DuPont-Kennzahlensystem, offengelegt werden können. Schwierig wird es erst, wenn die Informationen dann auch noch nicht-linear miteinander verwoben sind, da sie dann nicht mit einem so einfachen Kennzahlensystem analysierbar sind. Aber hier helfen die obigen Ideen weiter.

  12. 12.

    Vgl. hierzu die Ausführungen zu Attraktoren im Theorie-Abschn. 4.1.1.2.

  13. 13.

    X ist dabei ein Vektor, denn es gilt: \( \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\rightharpoonup}$}}{X} = m \cdot \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\rightharpoonup}$}}{v} \), wobei m die Masse und \( \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\rightharpoonup}$}}{v} \) die Geschwindigkeit darstellt. Auf das übliche Pfeilsymbol verzichten wir hier.

  14. 14.

    Das kartesische Koordinatensystem geht auf René Descartes zurück (daher auch der Name.) Die beiden Achsen des Koordinatensystems stehen dabei orthogonal aufeinander. Die horizontale Achse wird als Abszissenachse oder x-Achse und die vertikale Achse als Ordinatenachse bzw. y-Achse bezeichnet.

  15. 15.

    Hinweis: Eine Zeitreihe als mathematische Funktion beschrieben lässt sich als Element eines Vektorraumes von Funktionen beispielsweise von -π bis π über einem Körper z. B. \( \left( {{\mathbb{R}}, + , \cdot } \right) \) darstellen (Liening 2006a, S. 26 f.).

  16. 16.

    Der Begriff ‚mathematisch komplex‘ hat zunächst einmal nichts mit unserem Komplexitätsbegriff gemein, zumal er im neunzehnten Jahrhundert gebildet wurde. Der Begriff wurde von Carl Friedrich Gauß eingeführt, der die bis dahin bekannten Zahlenmengen erheblich erweitert hat, indem er den Zahlenstrahl in eine Ebene einbettete, die von der bis dahin bekannten reellen Achse und der neuen imaginären Achse aufgespannt wird. Die sogenannten imaginären Zahlen entstehen dabei aus der komplexen Zahl i. Das ist per definitionem die Wurzel aus -1. Es sei daran erinnert, dass negative Wurzeln im Reellen nicht existieren. Jede derart gedachte mathematisch komplexe Zahl ist damit von der Form: \( z = x + i \cdot y \), mit i 2 = −1.

    Insgesamt ergibt sich damit die Zahlenmenge \( {\mathbb{C}} \).

  17. 17.

    Im Einheitskreis haben wir ein rechtwinkliges Dreieck vorliegen, wie Abb. 5.13 zeigt. Dabei gilt per definitionem: \( \sin \left( \alpha \right) = \frac{\text{Gegenkathete}}{\text{Hypotenuse}} \) und \( \cos \left( \alpha \right) = \frac{\text{Ankathete}}{\text{Hypotenuse}} \). Der Radius bildet in Abb. 5.13 die Hypotenuse. α beschreibt den Winkel zwischen dem Radius, also der Hypotenuse und der x-Achse, auf der die Ankathete liegt. Die Ankathete liegt also ‚an‘ dem Winkel α an. Die Ankathete entspricht damit dem Cosinus, da per Konstruktion eines Einheitskreises der Radius und damit die Hypotenuse = 1 ist. Gegenüber dem Winkel α liegt die Gegenkathete, die per Konstruktion senkrecht zur Ankathete steht. Diese entspricht aufgrund des Radius von 1 damit dem Sinus. Sinus und Cosinus stehen somit senkrecht aufeinander. Jeder Punkt auf dem Einheitskreis lässt sich dabei durch e ix darstellen, da \( \left| {{\text{e}}^{\text{ix}} } \right| = 1,(\left| {{\text{e}}^{{ix^{2} }} } \right| = e^{ix} e^{{\overline{ix} }} = e^{ix} e^{ - ix} = e^{0} : = 1) \). Insgesamt gilt offenbar: \( e^{ix} = \cos \left( x \right) + i \cdot { \sin }\left( x \right) \) (Liening 2007, S. 30 ff.)

  18. 18.

    Alternativ könnte man auch mit sukzessiven Ableitungen arbeiten, so denn die entsprechend ableitbare Funktion vorliegt, bzw. die Datenreihe durch eine Funktion beschreibbar ist, was in der Praxis eher schwierig erscheint: \( v_{k}^{\left( n \right)} \left( {x\left( {t_{k} } \right),x\left( {t_{k} } \right)^{\prime } ,x\left( {t_{k} } \right)^{\prime \prime } , \ldots ,x\left( {t_{k} } \right)^{{\left( {n - 1} \right)}} } \right) \).

  19. 19.

    Um die korrekte Einbettung des Systems zu gewährleisten, sollte die Dimension des Phasenraums sogar mindestens 2D+1 betragen, wobei D die fraktale Dimension des Attraktors angibt. Für verrauschte Daten kann die Verwendung von Zeitverzögerungskoordinaten dabei sogar suboptimal sein, sodass aufwendigere Methoden zur Konstruktion des Phasenraums angewendet werden müssten (z. B. Casdagli et al. 1991).

  20. 20.

    Man muss im Kontext der Interpretation beachten, dass man zum einem aus einem hohen Korrelationswert nicht fälschlicherweise einen kausalen Zusammenhang ableitet. Korrelation kann auf einen kausalen Zusammenhang hindeuten, muss es aber nicht, zumal aus der Korrelationsanalyse keineswegs die Richtung der Kausalität, ob also aus X tatsächlich Y folgt oder umgekehrt, abgeleitet werden kann.

    Über das schwierige Verhältnis von Kausalität und Korrelation beschreibt der renommierte Statistiker Walter Krämer ein eindrucksvolles Beispiel: So wurde auf den Neuen Hebriden festgestellt, dass es dort eine hohe Korrelation zwischen der Zahl der Läuse und der Gesundheit der Menschen gibt. Lange hielt sich das Vor-Urteil, dass man die Gesundheit dadurch fördern könne, wenn man möglichst viele Läuse habe. Die Ursache-Wirkungskette ist aber genau anders herum. „Nicht die Läuse vertreiben die Krankheit, sondern die Krankheit vertreibt die Läuse“ (Krämer 2012, S. 174 f.).

    Zum anderen muss man sich vor Scheinkorrelationen hüten. Man könnte z. B. leicht eine positive Korrelation zwischen dem ROI und der Zahl der Mitarbeiter nachweisen. Daraus aber zu folgern, je mehr Leute man einstellt, desto größer wird der ROI sein, ist ein offensichtlicher Trugschluss, da bei den beobachteten Merkmalen mindestens ein drittes hochkorreliertes Merkmal, wie z. B. die Qualifikation der Mitarbeiter, die Organisation der Produktion o. ä. übersehen wurde.

    Krämer zählt eine Unmenge an Beispielen auf, bei denen in Wahrheit nur Scheinkorrelationen vorhanden sind und überdies keinerlei kausaler Zusammenhang vorliegt, auch wenn manche dies glauben: „Angefangen bei den Klapperstörchen, deren Zahl hoch positiv mit den bundesdeutschen Geburten korreliert, über die Zahl der unverheirateten Tanten eines Menschen und den Kalziumgehalt seines Skeletts (negative Korrelation), Heuschnupfen und Weizenpreis (negative Korrelation), Schuhgröße und Lesbarkeit der Handschrift (positive Korrelation), Schulbildung und Einkommen (positive Korrelation) bis zu Ausländeranteil und Kriminalität (positive Korrelation) spannt sich ein weiter Bogen eines falsch verstandenen bzw. absichtlich missbrauchten Korrelationsbegriffs“, wobei, so fügt Krämer hinzu, bei „den Geburten und Klapperstörchen macht das weiter nichts. Zwar sind diese tatsächlich in manchen Gegenden eng korreliert, aber trotzdem glaubt deswegen niemand, dass der Storch die Kinder bringt. Die positive Korrelation von Ausländeranteil und Kriminalität in den Gemeinden der Bundesrepublik ist schon gefährlicher; hier unterstützt die Statistik unter Umständen nur ein ebenso populäres wie falsches Vorurteil, denn große Gemeinden ziehen sowohl Ausländer wie Kriminelle an“ (Krämer 2012, S. 172). Betrachtet man das letzte Beispiel, so wird deutlich, dass die Analyse mindestens einer entscheidenden Hintergrundvariablen wie z. B. die ‚Gemeindegröße‘ fehlt, sodass auch hier nur eine Scheinkorrelation vorliegt.

  21. 21.

    Linear unabhängig ist eine Menge von Vektoren genau dann, wenn sich keiner dieser Vektoren als Linearkombination (also durch Addition und skalare Multiplikation) der anderen darstellen lassen kann. Anders formuliert: n Vektoren \( v_{i} \in V \) und \( \lambda_{i} \in K \) mit \( 1 \le {\text{i}} \le {\text{n}} \) heißen linear unabhängig, wenn gilt: \( \sum\limits_{i = 0}^{n} {\lambda_{i} v_{i} = 0 \Leftrightarrow \lambda_{1} = \lambda_{2} = \ldots = \lambda_{n} = 0} \) (Liening 2006a, S. 31 ff.).

    So sind z. B. in der Ebene \( V = {\mathbb{R}}^{2} \) die beiden Einheitsvektoren \( e_{1} = \left( {\begin{array}{*{20}c} 1 \\ 0 \\ \end{array} } \right) \) und \( e_{2} = \left( {\begin{array}{*{20}c} 0 \\ 1 \\ \end{array} } \right) \)linear unabhängig. Dies ist offensichtlich, da die Gleichung \( \lambda_{1} \left( {\begin{array}{*{20}c} 1 \\ 0 \\ \end{array} } \right) + \lambda_{2} \left( {\begin{array}{*{20}c} 0 \\ 1 \\ \end{array} } \right) = \left( {\begin{array}{*{20}c} 0 \\ 0 \\ \end{array} } \right) \) nur dann gilt, wenn \( \lambda_{1} = 0 \wedge \lambda_{2} = 0 \), denn:

    $$ \lambda_{1} \left( {\begin{array}{*{20}c} 1 \\ 0 \\ \end{array} } \right) + \lambda_{2} \left( {\begin{array}{*{20}c} 0 \\ 1 \\ \end{array} } \right) = \left( {\begin{array}{*{20}c} {\lambda_{1} } \\ 0 \\ \end{array} } \right) + \left( {\begin{array}{*{20}c} 0 \\ {\lambda_{2} } \\ \end{array} } \right) = \left( {\begin{array}{*{20}c} {\lambda_{1} } \\ {\lambda_{2} } \\ \end{array} } \right) = \left( {\begin{array}{*{20}c} 0 \\ 0 \\ \end{array} } \right) \Leftrightarrow \lambda_{1} = 0 \wedge \lambda_{2} = 0. $$
  22. 22.

    Der (Zeilen-)Rang einer Matrix ist per definitionem identisch mit der Maximalzahl linear unabhängiger (Zeilen-)Vektoren der Matrix (Liening 2006b, S. 28f.).

  23. 23.

    Wenn f:V → V eine lineare Abbildung eines Vektorraumes V über einen Körper K in sich selbst darstellt, dann spricht man hier auch von einem Endomorphismus. Per definitionem heißt ein Wert λ ∈ K dann ein Eigenwert von f, wenn es ein v ∈ V gibt, mit v ≠ 0 und f(v) = λ•v. Jeder von Null verschiedene Vektor v ∈ V mit f(v) = λ•v heißt dann Eigenvektor von f (Liening 2006c, S. 42f.).

  24. 24.

    Dabei ist \( \varOmega \) der Ergebnisraum , also die Menge aller möglichen Ergebnisse eines Zufallsexperimentes; A ist die Ereignisalgebra , also jene nicht-leere Menge S von Ereignissen aus dem Ergebnisraum, für die folgende Bedingungen gelten:

    \( A \in S \Rightarrow \overline{A} \in S \) und \( A \in S \wedge B \in S \Rightarrow A \cup B \in S \), wobei \( \overline{A} \) das Ereignis Nicht-A ist. P ist das Wahrscheinlichkeitsmaß . Dieses ist eine Funktion, die jedem Ereignis aus A eine reelle Zahl zuordnet und folgende axiomatische Eigenschaften besitzt:

    $$ I:P\left( A \right) \ge 0,{\text{II:}}\ P\left( \varOmega \right) = 1,{\text{III:}\ A} \cap {\text{B = }}\left\{ {} \right\} \Rightarrow P\left( {A \cup B} \right) = P\left( A \right) + P\left( B \right). $$

    .

  25. 25.

    Betrachten wir zum besseren Verständnis der bedingten Wahrscheinlichkeit als einfaches Beispiel ein Würfelspiel. Hierzu wählen wir einen sogenannten Laplace-Würfel, also einen exakten Würfel, bei dem jede der 6 Augenzahlen gleichwahrscheinlich fallen kann. Damit gilt für das Ereignis A (‚Würfeln einer Augenzahl‘), dass \( A: = \left\{ {a_{1} = 1,a_{2} = 2,a_{3} = 3,a_{4} = 4,a_{5} = 5,a_{6} = 6} \right\} \). Da die Wahrscheinlichkeit für jede Zahl gleich groß ist, gilt: \( P\left( {A = a_{i} } \right) = {\raise0.7ex\hbox{$1$} \!\mathord{\left/ {\vphantom {1 6}}\right.\kern-0pt} \!\lower0.7ex\hbox{$6$}} \). Sei X nun das Ereignis: ‚Werfen der Augenzahl 5‘. Dann gilt: \( X: = \left\{ {x_{1} = 5} \right\} \). Ferner gilt für das Werfen der Augenzahl 5: \( P\left( {X = 5} \right) = {\raise0.7ex\hbox{$1$} \!\mathord{\left/ {\vphantom {1 6}}\right.\kern-0pt} \!\lower0.7ex\hbox{$6$}} \). Sei Y dass Ereignis: ‚Werfen einer ungeraden Zahl‘. Ungerade Zahlen auf einem Würfel sind 1, 3, und 5, d. h. \( Y: = \left\{ {y_{1} = 1,y_{2} = 3,y_{3} = 5} \right\} \). Für die Wahrscheinlichkeit, eine ungerade Zahl zu würfeln gilt somit: \( P\left( {Y = y_{i} } \right) = {\raise0.7ex\hbox{$3$} \!\mathord{\left/ {\vphantom {3 6}}\right.\kern-0pt} \!\lower0.7ex\hbox{$6$}} = {\raise0.7ex\hbox{$1$} \!\mathord{\left/ {\vphantom {1 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}} \). Für das Ereignis, dass X und Y zutreffen, gilt: \( X \cap Y = \left\{ 5 \right\} \) und damit \( P\left( {X \cap Y} \right) = {\raise0.7ex\hbox{$1$} \!\mathord{\left/ {\vphantom {1 6}}\right.\kern-0pt} \!\lower0.7ex\hbox{$6$}} \). Damit gilt für die bedingte Wahrscheinlichkeit, dass eine 5 unter der Bedingung gewürfelt wird, dass eine ungerade Zahl fällt: \( P\left( {X|Y} \right) = \frac{{P\left( {X \cap Y} \right)}}{P\left( X \right)} = \frac{{{\raise0.7ex\hbox{$1$} \!\mathord{\left/ {\vphantom {1 6}}\right.\kern-0pt} \!\lower0.7ex\hbox{$6$}}}}{{{\raise0.7ex\hbox{$1$} \!\mathord{\left/ {\vphantom {1 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}} = \frac{2}{6} = \frac{1}{3} \). Mit einer Wahrscheinlichkeit von ca. 33% fällt also bei einem nicht gefälschten Würfel eine 5 unter der Voraussetzung, dass eine ungerade Zahl geworfen wird.

  26. 26.

    Strunk weist darauf hin, dass „daher spezifischere Surrogatdatenverfahren vorgeschlagen worden (sind, d. Verf.), die es z. B. erlauben, linear-stochastische Prozesse auszuschließen. Ein Verfahren, mit dem dieses möglich ist, ist das der so genannten FFT-Surrogate. Durch Anwendung einer Fourier-Transformation (FFT – Fast Fourier Transformation ), Randomisation der Phasenwinkel und Rücktransformation, bleiben nur lineare Korrelationen in den Daten erhalten, während nichtlineare zerstört werden. Solche FFT-Surrogate testen also auf Nichtlinearität, die ja eine Voraussetzung für Chaos darstellt“ (Strunk 2009, S. 279).

  27. 27.

    Zum Begriff des ‚weißen‘ bzw. ‚farbigen‘ Rauschens sei noch einmal Folgendes gesagt: Der Begriff bezieht sich auf die Vorstellung von Licht und Farben. Physikalisch betrachtet sind bei weißem Rauschen sämtliche Wellenlängen und damit alle (Farb-)Frequenzen vorhanden. Diese Mischung an Frequenzen nehmen wir als weißes Licht war. Jede Frequenz taucht mit derselben Wahrscheinlichkeit auf. Wir haben hier ein gestreutes und damit zufälliges Verhalten vorliegen.

    Rotes Licht ist beispielsweise langwelliger als weißes Licht. Das bedeutet, dass z. B. die Farbe rot eine tiefere Frequenz als der Durchschnitt (weiß) aufweist. Rosa Rauschen entsteht beispielsweise dadurch, dass wir ein Farbgemisch vorliegen haben, das zwar alle Frequenzen umfasst, allerdings eine Betonung auf rot aufweist, also eine leichte Pegelanhebung im roten Bereich hat. Man nennt dieses Rauschen auch 1/f-Rauschen. Die Rauschleistungsdichte wächst dabei umgekehrt proportional zur Frequenz f. Ist die Betonung der langen Wellen noch größer, liegt z. B. ein 1/f 2-Rauschen vor. Man spricht hier auch von braunem Rauschen. Allgemein lässt sich von 1/fx-Rauschen sprechen.

    Würde man das weiße Rauschen in Musik bzw. Klang umsetzen, so hörte man ein hohes gleichmäßiges Rauschen, wie es z. B. wahrgenommen werden kann, wenn ein UKW-Radiosender keinen Empfang hat. 1/f-Rauschen klingt beispielsweise etwas tiefer als weißes Rauschen. Es ist basslastiger, da hier eine stärkere Betonung der tieferen Frequenzen vorliegt.

  28. 28.

    Dass die Menge aller Abbildungen einen Vektorraum bildet, kann man sich leicht überlegen: Sei I eine beliebige Menge, K ein Körper. \( K^{I} = {\text{Abb}}\left( {I,K} \right) \) sei die Menge aller Abbildungen von I nach K. Sind \( x,y \in K^{I} \), also \( x:I \to K \) und \( y:I \to K, \), so definieren wir die notwendige Addition \( x + y:I \to K \) durch \( \left( {x + y} \right)\left( i \right): = x\left( i \right) + y\left( i \right) \) und die notwendige skalare Multiplikation \( ax,\,a \in K,\,x \in K^{I} \) durch: \( \left( {ax} \right)\left( i \right) = a \cdot x\left( i \right) \). Dass die Gesetzmäßigkeiten eines Vektorraumes dabei gelten, kann man sich leicht überlegen. Damit ist K I ein K-Vektorraum. Vektoren sind dann Abbildungen, z. B. \( {\mathbb{R}}^{\mathbb{R}} = {\text{Abb}}\left( {{\mathbb{R}},{\mathbb{R}}} \right) \)und \( f:x \to { \sin }\left( x \right) \in {\mathbb{R}} \) (Liening 2006a, S. 26f.).

  29. 29.

    Im Gegensatz zum normalen ‚Mischen‘ werden bei DFT-Surrogaten durch die Randomisierung der Phasenwinkel nur die nichtlinearen Abhängigkeiten zerstört, während lineare Abhängigkeiten vorhanden bleiben. Dies hat für unser Anwendungsfeld, wie auch von Strunk erläutert, den Vorteil, dass man gezielt auf nichtlineare Abhängigkeiten prüfen kann, während bei einfach gemischten Daten ‚normale Tests‘ auch auf lineare Abhängigkeiten anspringen könnten. Ungleichverteilte Mischungen von Zufallsrauschen verschiedener Frequenzbänder imitieren u. U. bestimmte Eigenschaften Komplexer Systeme und erzeugen daher z. B. fehlerhafte Werte bei der Berechnung des D 2. Gerade für den Test solcher Komplexitätskennwerte benötigt man treffsicherere Surrogate als zufällig gemischte Daten (Strunk 2004, S. 351).

    In der Literatur findet man jedoch Argumente, die für normales weißes Rauschen genau das Gegenteil behaupten, nämlich dass Surrogate mit randomisierten Phasenwinkeln fälschlicherweise nicht-zufällige Strukturen aufweisen, während einfach randomisierte Surrogate die Daten korrekt als weißes Rauschen identifizieren (Rapp et al. 1994). Insofern scheinen auch die FFT- bzw. DFT-Surrogate ihre Vor- und Nachteile zu haben.

  30. 30.

    ‚LLE‘ steht für ‚Largest Lyapunov Exponent‘.

  31. 31.

    Neben der Ergänzung des ‚Theiler Window‘ fällt insbesondere auf, dass die gebildeten Summen in der Theiler-Formel mit 2 multipliziert, also explizit verdoppelt werden. Das liegt daran, dass bei Grassberger und Procaccias Weise des Addierens die Differenzen \( |X_{i} - X_{k} | \) doppelt gezählt werden. Die Zählweise von Theiler schließt hingegen diese Dopplungen aus. Um einen vergleichbaren Wert wie beim D 2 von Grassberger und Procaccia zu erhalten, multipliziert er daher das Ergebnis mit 2.

  32. 32.

    Im Theorieteil in Abschn. 4.2.2 haben wir gesehen, dass sich aus der Idee des exponentiellen Auseinanderdriftens zweier benachbarter Trajektorien \( \left| {v^{\left( n \right)} \left( {t_{k} } \right) - z_{0}^{\left( n \right)} \left( {t_{k} } \right)} \right| = \left| {v^{\left( n \right)} \left( {t_{0} } \right) - z_{0}^{\left( n \right)} \left( {t_{0} } \right)} \right| \cdot e^{L \cdot t} \) die Berechnung des Lyapunov-Exponenten L mit \( L = \mathop {\lim }\limits_{t \to \infty } \frac{1}{t} \cdot \sum\limits_{k = 0}^{t - 1} {\ln } \left| {f'\left( {v^{\left( n \right)} \left( {t_{k} } \right)} \right)} \right| \) ableiten lässt. Darauf baut letztendlich Wolfs Algorithmus auf, wobei Wolf log2 verwendet (Wolf 1986, S. 275).

  33. 33.

    Bei der Berechnung des lokalen effektiven Lyapunov-Exponenten entstehen Fluktuationen, gegeben durch den Winkel \( \phi \). Da diese Fluktuationen bei der anschließenden Berechnung des wahren Lyapunov-Exponenten wieder weggemittelt werden, wird an dieser Stelle nicht weiter auf diese Fluktuationen eingegangen. Für weitere Erläuterungen, siehe Kantz (1994).

  34. 34.

    Man vergleiche hierzu auch die Überlegungen, die Reszat in ihrem Aufsatz ‚Chaos in den Wechselkursen‘ ausführt. Vgl. Reszat (1993).

  35. 35.

    Gemäß der allgemein akzeptierten Theorie bewegen sich Aktienkurse als ‚Random Walk‘ , d. h. die realen Börsenkursentwicklungen lassen sich durch Normalverteilungen beschreiben, da das Steigen und Fallen der Kurse unabhängig voneinander und als gleichwahrscheinlich angesehen wird. Diese Theorie beginnt aber aufgrund komplexitätswissenschaftlicher Erkenntnisse zu wanken. Eine interessante Darstellung dieser Entwicklung findet man bei: Thoma (2001).

  36. 36.

    Platon lässt Sokrates sagen: „Stelle dir Menschen vor in einer unterirdischen Wohnstätte… von Kind auf sind sie in dieser Höhle festgebannt. (… Sie) sehen nur geradeaus vor sich hin (…); von oben her aber aus der Ferne von rückwärts erscheint ihnen ein Feuerschein; zwischen dem Feuer aber und den Gefesselten läuft oben ein Weg hin, längs dessen eine niedrige Mauer errichtet ist (…). Längs dieser Mauer (…) tragen Menschen allerlei Gerätschaften vorbei (…) Können denn erstlich solche Gefesselten von sich selbst sowohl wie gegenseitig voneinander etwas anderes gesehen haben als die Schatten, die durch die Wirkung des Feuers auf die ihnen gegenüberliegende Wand der Höhle geworfen werden? (…) Und ferner: gilt für die vorübergetragenen Gegenstände nicht dasselbe? (…) Durchweg also würden die Gefangenen nichts anderes für wahr gelten lassen als die Schatten der künstlichen Gegenstände“ (Platon 2010, S. 303).

  37. 37.

    Der einfache Algorithmus des ‚Sortieren durch Auswählen‘ sieht beim Sortieren einer Datenreihe in etwa wie folgt aus: Suche das kleinste Element in der Datenreihe und tausche es gegen das Element an der ersten Stelle aus. Suche dann das zweitkleinste Element in der Datenreihe und tausche es gegen das Element an der zweiten Stelle aus. Fahre auf diese Weise fort, bis die gesamte Datenreihe sortiert ist (Sedgewick 2002, S. 278).

  38. 38.

    Der ebenfalls einfache Algorithmus des ‚Bubblesort‘, auch ‚Sortieren durch Vertauschen‘ sieht beim Sortieren einer Datenreihe in etwa wie folgt aus: Durchlaufe immer wieder die Datenreihe und vertausche benachbarte Elemente, die sich noch nicht in der gewünschten Reihenfolge befinden. Fahre auf diese Weise fort, bis die Datenreihe vollständig sortiert ist (Sedgewick 2002, S. 282).

  39. 39.

    Der Algorithmus des ‚Shellsort‘ ist ein wenig allgemeiner als der des ‚Sortieren durch Einfügen‘: Letzterer Algorithmus funktioniert in etwa wie folgt, wenn wir z. B. aufsteigend sortieren wollen: Nehme das nächste Element aus der Datenreihe und füge es vor dem vorherigen Element ein, falls es kleiner als das vorherige ist. Zu diesem Zweck verschiebe alle größeren Daten um eine Stelle nach rechts und füge das ausgewählte Element an der freien Stelle ein. Das bedeutet, dass beim ‚Sortieren durch Einfügen‘ nur die benachbarten Elemente ausgetauscht werden, sodass jedes Element maximal immer nur um eine Stelle verschoben wird. Wenn aufsteigend sortiert wird und das kleinste Element ganz hinten in der Datenreihe steht benötigt man bei N Elementen N Schritte, um es bis nach ganz vorne zu befördern. Beim ‚Shell-Sort‘ nun wird jedes h-te Element zum sortieren verwendet. Wendet man dieses Verfahren auf eine Folge von h-Werten an, die mit h = 1 endet, ist die Datenreihe final sortiert. Auf dem Wege dorthin erhält man h sogenannte h-sortierte Dateien. Dadurch können zunächst Element über weite Entfernungen hinweg sortiert werden und damit zunehmend das Sortieren für kleinere h-Werte erleichtern (Sedgewick 2002, S. 290).

  40. 40.

    Der Algorithmus des ‚Quicksort‘ beruht auf dem ‚Teile und Herrsche‘-Prinzip. Der Algorithmus zum Sortieren einer Datenreihe sieht dabei in etwa wie folgt aus: Zerlege die Datenreihe in zwei Hälften und sortiere jede einzelne Hälfte unabhängig voneinander, indem die entstandenen Hälften wieder und wieder zerlegt werden. Dabei wird bereits im ersten Schritt irgendein Element, auch Trennelement genannt, an seine Stelle gebracht und dann wird die Datenreihe neu angeordnet, sodass bei aufsteigender Sortierung kleinere Elemente links und größere rechts von diesem Trennelement stehen. Dann wird der linke und rechte Teil jeweils rekursiv nach der gleichen Vorgehensweise sortiert, sodass schließlich die gesamte Datenreihe sortiert ist (Sedgewick 2002, S. 320).

  41. 41.

    ‚Mergesort‘ kann als Komplement zum ‚Quick-Sort‘ angesehen werden, das aus zwei rekursiven Prozeduren und einer Mischprozedur (‚Merge‘) besteht. Zunächst wird die Datenreihe geteilt. Jedes Teil wird für sich sortiert und dann wieder zu einem Ganzen im Sinne eines Reißschlussverfahrens zusammengestellt. Die Prozedur wird solange wiederholt, bis die Gesamtdatenreihe sortiert ist (Sedgewick 2002, S. 349 ff.).

  42. 42.

    Beim ‚Heapsort‘-Algorithmus wird die Datenreihe in einen binären Baum umgewandelt. Dieser ‚Heap‘ (Halde) dient als eine Art Zwischenlager, in dem die Daten auf Halde gelegt und wieder entnommen werden können. Die zu sortierende Datenreihe wird damit in eine solche verästelte Struktur (Baum) gebracht, in der jeder Knoten maximal zwei Äste (binär) besitzt. Anschließend werden von unten nach oben und von links nach rechts die Elemente der einzelnen Äste paarweise dergestalt vertauscht, dass sich das jeweils größte Element im Knotenpunkt befindet, bis das insgesamt größte Element ganz oben in der Baumstruktur steht. Dieses größte Element wird dann aus dem binären Baum entfernt und in eine (sortierte) Liste geschrieben. Das am weitesten rechts stehende Element der untersten Ebene wird dabei nach oben verschoben. Diese Prozedur wird rekursiv wiederholt, bis der ‚Heap‘ leer ist und somit alle Elemente der Datenreihen in der neuen Liste sortiert vorliegen (Sedgewick 2002, S. 390 ff.).

  43. 43.

    Beispielsweise benötigt man für das RGB-Verfahren zur Darstellung beliebiger Farben eine additive Mischung dreier Grundfarben: rot, grün und blau, für deren Kodierung man mit maximal zwei ‚Bit‘ auskommt, z. B.: rot = 10, grün = 01, blau = 11.

  44. 44.

    Das könnte man mit einem Bit darstellen: 1 für alles in einer Farbe, 0 für anderes.

  45. 45.

    ASCII steht für ‚American Standard Code for Information Interchange‘. In Computern werden Zeichen oft entsprechend dieser Kodierung gespeichert. Dabei wird jedem Zeichen des Alphabets und einigen Sonderzeichen eine Abfolge von 8 Bits = 1 Byte zugeordnet.

  46. 46.

    Der Begriff Ηντροπια bzw. εντροπια ist ein Kunstwort und setzt sich zusammen aus: εν (en) = innen, τροπιη (tropin) = Wende, Umkehr, wobei das Entropiemaß, als Maß für die Unumkehrbarkeit eines endogenen Prozesses mit dem griechischen Großbuchstaben Η (Eta) bezeichnet wird, also dem ersten Buchstaben des Wortes Entropie bzw. Ηντροπια.

  47. 47.

    Keynes sagt dies, um anzudeuten, dass z. B. bei hoher Arbeitslosigkeit auf die Selbstheilungskräfte des Marktes zu vertrauen u. U. sehr lange, zu lange dauern kann und ein Staatseingriff von daher geboten erscheint, um das Übel zeitnah zu bekämpfen. Er stellt zum Wahrheitsgehalt des neoklassischen Ansatzes fest: „Now, in the long run this is probably true (…) But this long run is a misleading guide to current affairs (…). Economists set themselves too easy, to useless a task if in tempestuous seasons they can only tell us that when the storm is long past the ocean is flat again“ (Keynes 1923, S. 80).

  48. 48.

    Ein kurzer Hinweis zum Begriff ‚Wärmetod‘: Mit ‚Wärmetod‘ ist der theoretische Zustand des Weltalls als abgeschlossenes thermodynamisches System gemeint, bei dem die Gesamtenergie auf die Materie gleichmäßig verteilt ist. So kann z. B. mechanische Arbeit vollständig in Wärme, Wärme aber nicht vollständig in mechanische Arbeit umgewandelt werden.

  49. 49.

    Dieser Hinweis auf die Entwicklung des Shannonschen Konzeptes ist von Bedeutung, wenn wir an späterer Stelle den Zusammenhang zur Komplexität erörtern.

  50. 50.

    Zur Begründung bzw. zum Beweis siehe: Forster (2004, S. 109 ff.).

  51. 51.

    Unter der Mächtigkeit einer Menge versteht man die Anzahl der Elemente einer Menge.

  52. 52.

    Die Kodierung beruht ferner auf einer Art ‚Heapsort‘, sodass man zum Verständnis auch die Anmerkungen zum ‚Heapsort‘ im Kapitel über Sortieralgorithmen nochmals verfolgen könnte.

  53. 53.

    Der Begriff der Gruppe stammt aus der Algebra. Die zugehörige Gruppentheorie hat ihren Ursprung in der Betrachtung endlicher Permutationsgruppen. Eine Gruppe von Permutationen einer endlichen Menge mit der Hintereinanderausführung als Gruppenverknüpfung wird dann als Permutationsgruppe bezeichnet. Kein geringerer als Everiste Galois, der Begründer der gleichnamigen Galoistheorie, erkannte die Bedeutung der Permutationsgruppen für die Theorie algebraischer Gleichungen (Meyberg 1980, S. 26).

  54. 54.

    Das Frequenzspektrum eines Signals gibt die Zusammensetzung des Signals aus verschiedenen Frequenzen an.

  55. 55.

    Ein endlich dimensionaler Vektorraum wird von einer endlichen Menge von Vektoren, sogenannter Basisvektoren, aufgespannt. Um als Basisvektoren zu gelten, müssen diese Vektoren linear unabhängig sein und ein Erzeugendensystem des Vektorraumes bilden.

    Linear unabhängig ist eine Menge von Vektoren genau dann, wenn sich keiner dieser Vektoren als Linearkombination (also durch Addition und skalare Multiplikation) der anderen darstellen lassen kann. Anders formuliert: n Vektoren \( v_{i} \in V \) und \( \lambda_{i} \in K \) mit \( 1 \le {\text{i}} \le {\text{n}} \) heißen linear unabhängig, wenn gilt: \( \sum\limits_{i = 0}^{n} {\lambda_{i} v_{i} = 0 \Leftrightarrow \lambda_{1} = \lambda_{2} = \ldots = \lambda_{n} = 0} \) (Liening 2006a, S. 31 ff.).

    Eine Teilmenge aus m Vektoren \( E = \left\{ {v_{1} ,v_{2} , \ldots ,v_{m} } \right\} \) eines Vektorraumes V heißt Erzeugendensystem eines Vektorraumes V über einem Körper K, wenn sämtliche Vektoren als Linearkombinationen aus den Vektoren aus V dargestellt werden können, wenn also für jeden beliebigen Vektor \( v \in V \) gilt: \( v = \sum\limits_{i = 0}^{m} {\lambda_{i} v_{i} } \), mit \( \lambda_{i} \in K,v_{i} \in E \) mit \( 1 \le {\text{i}} \le {\text{m}} \) (Liening 2006a, S. 40 ff.).

    Beispielsweise bilden die drei Vektoren \( v_{1} = \left( {\begin{array}{*{20}c} 1 \\ 0 \\ \end{array} } \right),v_{2} = \left( {\begin{array}{*{20}c} 0 \\ 1 \\ \end{array} } \right) \) und \( v_{3} = \left( {\begin{array}{*{20}c} 0 \\ 2 \\ \end{array} } \right) \) ein Erzeugendensystem des Vektorraumes \( V = {\mathbb{R}}^{2} \) über dem Körper \( {\mathbb{R}} \), also einer Ebene, da für jeden beliebigen Vektor \( v \in V \) mit \( v = \left( {\begin{array}{*{20}c} a \\ b \\ \end{array} } \right) \in {\mathbb{R}}^{2} \), mit \( a,b \in {\mathbb{R}} \) gilt:

    \( v = \left( {\begin{array}{*{20}c} a \\ b \\ \end{array} } \right) = a\left( {\begin{array}{*{20}c} 1 \\ 0 \\ \end{array} } \right) + \frac{b}{2}\left( {\begin{array}{*{20}c} 0 \\ 1 \\ \end{array} } \right) + \frac{b}{4}\left( {\begin{array}{*{20}c} 0 \\ 2 \\ \end{array} } \right) = a \cdot v_{1} + \frac{b}{2} \cdot v_{2} + \frac{b}{4} \cdot v_{3} \), d. h., dass sich jeder beliebige Vektor \( v \in {\mathbb{R}}^{2} \) durch eine Linearkombination der Vektoren aus \( {\text{E = }}\left\{ {v_{1} ,v_{2} ,v_{3} } \right\} \) darstellen bzw. erzeugen lässt.

    Eine Basis \( B \subset V \) ist somit eine Teilmenge von Vektoren \( v \in V \), für die gilt: B ist linear unabhängig und B ist ein Erzeugendensystem (Liening 2006a, S. 42 ff.).

  56. 56.

    Die Menge aller Polynome bildet einen Vektorraum, denn: Sei I eine beliebige Menge, K ein Körper. K I = Pol(I, K) sei die Menge aller Polynome, die jeweils einen Wertebereich I in einen Bildbereich K überführen. Sind \( f,g \in K^{I} \), also \( f,g:I \to K \),so definieren wir die notwendige Addition \( f + g:I \to K \) durch \( \left( {f + g} \right)\left( x \right): = f\left( x \right) + g\left( x \right) \) und die notwendige skalare Multiplikation \( a \cdot f:I \to K \) mit \( a \in K,f \in K^{I} \) durch: \( \left( {a \cdot f} \right)\left( x \right): = a \cdot f\left( x \right) \). Dass die Gesetzmäßigkeiten eines Vektorraumes wie Assoziativität, Vorhandenseins eines neutralen Elementes, etc. dabei gelten, kann man sich leicht überlegen. Damit ist K I ist ein K-Vektorraum. Vektoren sind dann Polynome, z. B. \( {\mathbb{R}}^{\mathbb{R}} = pol\left( {{\mathbb{R}},{\mathbb{R}}} \right) \) mit z. B. \( f:x \to x^{4} + 3x^{3} - 2x + 1 \in {\mathbb{R}} \) (Liening 2006a, S. 26 f.).

  57. 57.

    Ein Basiswechsel ist der Übergang von einer Basis eines endlich-dimensionalen K-Vektorraumes V in eine andere Basis, sodass sich im Allgemeinen, anschaulich gesprochen, die Koordinaten der Vektoren ändern. Ein Basiswechsel wird auch als Basistransformation bezeichnet. Der Basiswechsel kann durch eine Basiswechselmatrix beschrieben werden, mit der sich auch die Koordinaten bezüglich der neuen Basis bestimmen lassen.

    Man nimmt also an, dass es mindestens zwei verschiedene Basen für einen Vektorraum gibt, z. B.: B und C. Der Basiswechsel ist dann eine eineindeutige Abbildung von V in V (Isomorphismus) und somit kann jeder Basisvektor c i der neuen Basis \( C = \left\{ {c_{1} ,c_{2} , \ldots ,c_{n} } \right\} \) als Linearkombination von Basisvektoren b j der ursprünglichen Basis \( B = \left\{ {b_{1} ,b_{2} , \ldots ,b_{n} } \right\} \) dargestellt werden: \( c_{i} = \sum\limits_{j = 1}^{n} {a_{ji} b_{j} ,} \) mit \( c_{i} \in C,b_{j} \in B,a_{ji} \in K \) und \( 1 \le i,j \le n \).

    Die Basiswechselmatrix , auch Transformationsmatrix zum Basiswechsel von B nach C genannt, erhält man mit den obigen Skalaren aij.

    Man bezeichnet sie mit \( T_{C}^{B} = \left( {\begin{array}{*{20}l} {a_{11} } \hfill & {a_{12} } \hfill & \ldots \hfill & {a_{1n} } \hfill \\ {a_{21} } \hfill & {a_{22} } \hfill & \ldots \hfill & {a_{2n} } \hfill \\ \ldots \hfill & {} \hfill & {} \hfill & {} \hfill \\ {a_{n1} } \hfill & {a_{n2} } \hfill & \ldots \hfill & {a_{nm} } \hfill \\ \end{array} } \right). \)

    Diese Matrix ist quadratisch und invertierbar. Die entsprechende inverse Matrix \( \left( {T_{C}^{B} } \right)^{ - 1} \) beschreibt den Basiswechsel von C zurück nach B (Liening 2006c, S. 51ff.).

  58. 58.

    Ein Monom ist ein Polynom , das nur aus einem Glied besteht, also beispielsweise x 3. Ein ‚normales‘ Polynom, z. B. ein ganzrationales Polynom besteht hingegen aus n Summanden und ist von der Form \( p\left( x \right) = \sum\limits_{i = 0}^{n - 1} {\lambda_{i} x^{i} ,\lambda_{i} \in {\mathbb{R}}} \,{\text{mit}}\, 0\le {\text{i}} \le {\text{n}} . \)

  59. 59.

    Per Definitionem ist die Zahl der Basisvektoren die Dimension des von ihnen aufgespannten Vektorraumes (Liening 2006a, S. 46 ff.).

  60. 60.

    Die Sinusreihe lautet: \( \sin \left( x \right) = \sum\limits_{k = 0}^{\infty } {\left( { - 1} \right)^{k} \frac{{x^{2k + 1} }}{{\left( {2k + 1} \right)!}} = \frac{x}{1} - } \frac{{x^{3} }}{3!} + \frac{{x^{5} }}{5!} - \ldots \), wobei:\( k!: = k \cdot \left( {k - 1} \right) \cdot \left( {k - 2} \right) \ldots \cdot 2 \cdot 1 \). Die Cosinusreihe lautet: \( \cos \left( x \right) = \sum\limits_{k = 0}^{\infty } {\left( { - 1} \right)^{k} \frac{{x^{2x} }}{{\left( {2k} \right)!}} = 1 - \frac{{x^{2} }}{2!} + \frac{{x^{4} }}{4!}} - \ldots \).

  61. 61.

    Polynome können gegen unendlich streben, also: \( \mathop {\lim }\limits_{x \to \infty } \left( {f\left( x \right)} \right) = \pm \infty \). Da Sinus und Cosinus aber beschränkte Funktionen sind, sind hier offenbar Grenzen gesetzt, für welche Polynome eine derartige Darstellung möglich ist. Es müsste somit z. B. \( \mathop {\lim }\limits_{x \to \infty } \left( {f\left( x \right)} \right) = 0 \) gelten oder f müsste ebenfalls eine periodische Funktion sein.

  62. 62.

    Es gilt: \( e^{ix} = \cos \left( x \right) + i\,{ \sin }\left( x \right)\,{\text{mit}}\,i^{2} = - 1 \)

  63. 63.

    Die meisten Farbbilder werden mit je einer Komponente der Primärfarben Rot, Grün und Blau (RGB) kodiert, wobei dies typischerweise mit jeweils 8 Bit pro Komponente geschieht. Jedes Pixel eines Bildes besteht daher aus \( 3 \cdot 8 = 24 \) Bits, wobei der Wertebereich jeder einzelnen Farbkomponente damit 0,..,255 umfasst, da 28 = 256. Bei Grauwertbildern reichen hingegen bereits 1 Bit pro Pixel aus. So können z. B. höherwertige Grauwert-Bilder dabei statt 8, 12, 14 oder gar 16 Bit/Pixel umfassen, was den Wertebereich dieser Grauwertkodierungen auf maximal 0,…, 65535 erhöht (Burger und Burge 2015, S. 12).

  64. 64.

    Beim Frequenzspektrum liegt die Idee zugrunde, dass bestimmte Signale (Zeitreihen, Farben, Töne) sich mithilfe einer Transformation (z. B. Fourier-Transformation) in eine Summe (ggf. eines Integrals) verschiedener Frequenzen unterteilen lässt. Die Frequenz misst dabei periodische Wiederholungen, wobei z. B. Schwingungen sinus- oder cosinusförmig dargestellt werden können. Solche Schwingungen bestehen aus mehreren überlagerten Schwingungen mit unterschiedlichen Frequenzen, die gemeinsam das Frequenzspektrum bilden.

  65. 65.

    Die obige Approximation hängt mit der Eulerschen Gleichung und damit zusammen, dass die Koeffizienten a k ,b k mit k = 0…n sich aus der Bedingung, dass für jedes n der mittlere quadratische Fehler \( E^{2} = \frac{1}{T}\int\limits_{{{\raise0.7ex\hbox{${ - T}$} \!\mathord{\left/ {\vphantom {{ - T} 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}}^{{{\raise0.7ex\hbox{$T$} \!\mathord{\left/ {\vphantom {T 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}} {\left( {f\left( t \right) - S_{n} \left( t \right)} \right)^{2} dt} \) minimal sein soll, bestimmen lassen. Da die trigonometrischen Funktionen im mathematisch Komplexen orthogonal zueinander stehen, ergibt sich für die reellen Fourier-Koeffizienten mit k = 1…n:

    \( a_{0} = \frac{1}{T}\int\limits_{{{\raise0.7ex\hbox{${ - T}$} \!\mathord{\left/ {\vphantom {{ - T} 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}}^{{{\raise0.7ex\hbox{$T$} \!\mathord{\left/ {\vphantom {T 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}} {f\left( t \right)dt,a_{k} = \frac{1}{T}\int\limits_{{{\raise0.7ex\hbox{${ - T}$} \!\mathord{\left/ {\vphantom {{ - T} 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}}^{{{\raise0.7ex\hbox{$T$} \!\mathord{\left/ {\vphantom {T 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}} {f\left( t \right)\cos \left( {k\omega_{T} t} \right)dt,b_{k} = \frac{1}{T}\int\limits_{{{\raise0.7ex\hbox{${ - T}$} \!\mathord{\left/ {\vphantom {{ - T} 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}}^{{{\raise0.7ex\hbox{$T$} \!\mathord{\left/ {\vphantom {T 2}}\right.\kern-0pt} \!\lower0.7ex\hbox{$2$}}}} {f\left( t \right)\sin \left( {k\omega_{T} t} \right)dt,} } } \) (Argyris et al. 2010, S. 77 f.).

  66. 66.

    Der Unterschied zum Mittelwert liegt darin, dass \( \frac{1}{\sqrt 8 } \) statt \( \frac{1}{8} \) in der Formel steht.

  67. 67.

    Es wurde bereits darauf hingewiesen, dass FFT-Surrogate dazu dienen, insbesondere auch linear-stochastische Prozesse auszuschließen.

  68. 68.

    Sinnvoller wäre es jedoch, auf die Quantisierung zu verzichten, da ein verlustbehaftetes Komprimierungsverfahren nicht unbedingt sinnvoll sein muss. Wenn Muster nämlich sehr ähnlich (aber nicht gleich) sind, werden sie von solchen Verfahren angeglichen. Somit gehen Informationen verloren und es werden künstliche Strukturen erzeugt. Der Verzicht bedeutet jedoch, dass man nicht einfach JPEG einsetzen könnte, sondern die einzelnen Komprimierungsalgorithmen einzeln programmieren muss, um sie anzuwenden.

  69. 69.

    Dabei ist die Frage jedoch noch zu klären, ob tatsächlich das Rauschen in Audiodateien mit dem Rauschen in einer Zeitreihe vergleichbar ist.

Literatur

  • Andersson, G. (1988). Kritik und Wissenschaftsgeschichte. Kuhns, Lakatos' und Feyrabends Kritik des Kritischen Rationalismus. Tübingen: Mohr.

    Google Scholar 

  • Argyris, J., Gunter, F., Maria, H., & Rudolf, F. (2010). Die Erforschung des Chaos – Eine Einführung in die Theorie nicht-linearer dynamischer Systeme (2. Aufl.). Heidelberg: Springer.

    Google Scholar 

  • Augustinus (1983). Die Zeit und die Ewigkeit (confessiones XI). In A. Müller (Hrsg.), Erkenntnis- und Wissenschaftstheorie. S. 25–28, Münster: Aschendorffsche.

    Google Scholar 

  • Bachelier, L. (1900). Théorie de la spéculation. New York: Gauthier-Villars.

    Google Scholar 

  • Bachelier, L., Davis, M. H. A., Etheridge, A. M., & Samuelson, P. A. (2006). Louis bachelier’s theory of speculation: The origins of modern finance. Schwalbach/Ts: Princeton University Press.

    Google Scholar 

  • Bacon, F. (2014). Neues Organon. Vollständige deutsche Ausgabe. Prag: e-artnow.

    Google Scholar 

  • Bandt, C. & Pompe, B. (2002). Permutation entropy – a natural complexity measure for time series. In Physical Review Letters, 88(17), 174102-1-174102-4.

    Google Scholar 

  • Barber, B. M., & Terrance, O. (2000). Trading is hazardous to your wealth – The common stock investment performance of individual investors. Journal of Finance, 55(2), 773–806.

    Article  Google Scholar 

  • Black, F., & Myron, S. (1973). The pricing of options and corporate liabilities. Journal of Political Economy, 81(3), 637–654.

    Article  Google Scholar 

  • Brandes, W. (1985). Über die Grenzen der Schreibtisch-Ökonomie – Die Einheit der Gesellschaftswissenschaften. Tübingen: Mohr Siebeck.

    Google Scholar 

  • Bräuer, K. (2002). Chaos, Attraktoren und Fraktale. Berlin: Logos Verlag.

    Google Scholar 

  • Briggs, K. (1990). An improved method for estimating Lyapunov-exponents of chaotic time series. Physics Letters A, 151(4), 1–2.

    Google Scholar 

  • Brinson, G. P., Randolph, H., & Gilbert, L. B. (1986). Determinants of portfolio performance. Financial Analysts Journal, 42(4), 39–48.

    Article  Google Scholar 

  • Brock, W. A., Dechert, W. D., Scheinkman, J. A., & LeBaron, B. (1996). A test for independence based on the correlation dimension. Econometric reviews, 15, 197–235.

    Article  Google Scholar 

  • Brock, W. A., & Sayers, C. L. (1988). Is the business cycle characterized by deterministic chaos? Journal of monetary economics, 22(1), 11–14.

    Article  Google Scholar 

  • Burger, W., & Burge, M. J. (2015). Digitale Bildverarbeitung – Eine algorithmetische Einführung mit Java. Berlin: Springer-Viehweg.

    Google Scholar 

  • Casdagli, M., Eubank, S., Farmer, J. D., & Gibson, J. (1991). State space reconstruction in the presence of noise. Physica D: Nonlinear Phenomena, 51(1), 52–98.

    Article  Google Scholar 

  • Castro, I. P. (1989). An introduction to the digital analysis of stationary signals. Bristol: IOP Publishing Ltd.

    Google Scholar 

  • Fahrmeir, L., Künstler, R., Pigeot, I., & Tutz, G. (2007). Statistik (6. Aufl.). Berlin: Springer.

    Google Scholar 

  • Fama, E. F. (1965). Random walks in stock-market prizes. Chicago: University Press.

    Google Scholar 

  • Farmer, J. D., Ott, E., & Yorke, J. A. (1983). The dimension of chaotic attractors. Physica D, 7D, 153–180.

    Article  Google Scholar 

  • Feyerabend, P. (1986). Wider den Methodenzwang. Frankfurt a. M.: Suhrkamp Verlag.

    Google Scholar 

  • Fischer, G. (2014). Lineare algebra (18. Aufl.). Spektrum: Springer.

    Book  Google Scholar 

  • Forster, O. (2004). Analysis 1 (7. Aufl.). Wiesbaden: Vieweg+Teubner.

    Book  Google Scholar 

  • Frank, M., & Stengos, T. (1988). The stability of canadian macroeconomic data in measured by the largest Lyapunov. Economic Letters, 27(1), 11–14.

    Article  Google Scholar 

  • Fraser, A. M., & Swinney, H. L. (1986). Independent coordinates for strange attractors from mutual information. Physical Reveiw A, 33(2), 1134–1140.

    Article  Google Scholar 

  • Frank, M., Gencay, R., & Stengos, T. (1988). International Chaos? European economic review, 32(8), 1569–1584.

    Article  Google Scholar 

  • Grassberger, P., & Procaccia, I. (1983). Characterization of strange attractors. Physical Review Letters, 50(5), 346–349.

    Article  Google Scholar 

  • Greschik, S. (1998). Das Chaos und seine Ordnung: Einführung in komplexe Systeme. München: dtv – Deutscher Taschenbuch Verlag.

    Google Scholar 

  • Güting, R. H., & Dieker, S. (2013). Datenstrukturen und Algorithmen (3. Aufl.). Wiesbaden: Springer-Verlag.

    Google Scholar 

  • Grebogi, C., Ott, E., & Yorke, J. A. (1988). Unstable periodic orbits and the dimensions of multifractal chaotic attractors. Physical Reveiw A, 37(5), 1711–1725.

    Article  Google Scholar 

  • Glushkov, A. V., Khetselius, O. Y., Brusentseva, S. V., Zaichko, P. A., & Ternovsky, V. B. (2014). Studying interaction dynamics of chaotic systems within a non-linear prediction method. Advances in neural networks, fuzzy systems and artificial intelligence (21. Aufl., S. 69–75). Gdansk: Wseas Pub.

    Google Scholar 

  • Hawking, S. (1988). Eine kurze Geschichte der Zeit. Düsseldorf: Rowohlt Verlag.

    Google Scholar 

  • Heil, J. von. (2000). Einführung in die Ökonometrie (6. Aufl.). München: Pearson Deutschland GmbH.

    Google Scholar 

  • Holzer, C., & Manfred, P. (1993). Analyse der Schweinepreise mit Instrumenten der Chaostheorie. In E. Schulze, B. Petersen & H. Geidel (Hrsg.), Berichte der Gesellschaft für Informatik in der Land-, Forst- und Ernährungswirtschaft (5. Aufl.). Leipzig: GIL.

    Google Scholar 

  • Huffman, D. A. (1952). A method for the construction of minimum-redundancy codes. Proceedings of the I.R.E. 40,(9) 1098–1101.

    Google Scholar 

  • Hume, D. (2012). Eine Untersuchung über den menschlichen Verstand. Altenmünster: Jazzbee Verlag.

    Google Scholar 

  • Jumarie, G. (Hrsg.). (1990). Relative information – theories and applicatons (47. Aufl.). Berlin: Springer.

    Google Scholar 

  • Kant, I. (1995). Kritik der reinen Vernunft. In I. Kant (Hrsg.), Werke in sechs Bänden (Bd. 2). Köln: Könemann Verlagsgesellschaft mbH.

    Google Scholar 

  • Kantz, H. (1994). A robust method to estimate the maximal Lyapunov exponent of a time series. Physical Letters, 185(1), 77–87.

    Article  Google Scholar 

  • Keynes, J. M. (1923). Tract on monetary reform. New York: Prometeus Books.

    Google Scholar 

  • Klingen, B. (2001). Fouriertransformation für Ingenieur- und Naturwissenschaften. Berlin: Springer.

    Book  Google Scholar 

  • Knorr-Cetina, K. (2002). Die Frabikation von Erkenntnis. Zur Antropologie der Wissenschaft. Berlin: Suhrkamp Verlag.

    Google Scholar 

  • Kowalik, Z. J., & Elbert, T. (1995). A practical method for the measurements of the chaoticity of electric and magnetic brain activity. International Journal of Bifurcation and Chaos, 5(2), 475–490.

    Article  Google Scholar 

  • Kuhn, T. (1996). Die Struktur wissenschaftlicher Revolutionen. Berlin: Suhrkamp Verlag.

    Google Scholar 

  • Kugler, P. & Carlos L. (1990). Sind Wechselkursfluktuationen zufällig oder chaotisch? In (Schweizerische) Zeitschrift für Volkswirtschaft und Statistik, 2, 113–127.

    Google Scholar 

  • Krämer, W. (2012). So lügt man mit Statistik (3. Aufl.). München: Piper Verlag.

    Google Scholar 

  • Lakatos, I. (1974). Falsifikation und die Methodologie wissenschaftlicher Forschungsprogramme. In I. Lakatos & A. Musgrave (Hrsg.), Kritik und Erkenntnisfortschritt (S. 89–190). Braunschweig: Vieweg.

    Chapter  Google Scholar 

  • Lakatos, I., Worrall, J., & Currie, G. (1982). Die Methodologie wissenschaftlicher Forschungsprogramme. Wiesbaden: Springer.

    Book  Google Scholar 

  • Lenk, H. (1968). Kritik der logischen Konstanten: Philosophische Begründungen der Urteilsformen vom Idealismus bis zur Gegenwart. Berlin: De Gruyter.

    Google Scholar 

  • Liebert, W., Pawelzik, K., & Schuster, H. G. (1991). Optimal embeddings of chaotic attractors from topological considerations. Europhysics Letters, 14(6), 521–526.

    Article  Google Scholar 

  • Liening, A. (2006a). Lineare Algebra I: Vektoren und Vektorräume. Hagen: Institut für Verbundstudien NRW.

    Google Scholar 

  • Liening, A. (2006b). Lineare Algebra II: Matrizen und Determinanten. Hagen: Institut für Verbundstudien NRW.

    Google Scholar 

  • Liening, A. (2006c). Lineare Algebra III: Lineare Gleichungssysteme. Hagen: Institut für Verbundstudien NRW.

    Google Scholar 

  • Liening, A. (2007). Analysis I: Folgen und Funktionen (2. Aufl.). Hagen: Institut für Verbundstudien NRW.

    Google Scholar 

  • Lipschutz, S. (1990). Lineare Algebra. London: McGraw Hill.

    Google Scholar 

  • Locke, J. (2012). Über den menschlichen Verstand. Altenmünster: Jazzbe Verlag.

    Google Scholar 

  • Lorenz, H. W. (1993). Nonlinear dynamical economics and chaotic motion. Berlin: Springer Verlag.

    Book  Google Scholar 

  • Loistl, O., & Betz, I. (1993). Chaostheorie: Zur Theorie nichtlinearer dynamischer Systeme. München: Oldenbourg Wissenschaftsverlag.

    Google Scholar 

  • Mandelbrot, B. B., & Hudson, R. L. (2007). Fraktale und Finanzen. Märkte zwischen Risiko. Rendite und Ruin. München: Piper.

    Google Scholar 

  • Mañé, R. (1981). On the dimension of the compact invariant sets of certain non-linear maps. In D. Rand & L.-S. Young (Hrsg.), Dynamical Systems and turbulance – lecture notes in mathematics (S. 230–242). Berlin: Springer.

    Google Scholar 

  • Markowitz, H. M. (1959). Portfolio selection – efficient diversification of investments. Oxford: Blackwell.

    Google Scholar 

  • Meyberg, K. (1980). Algebra (2. Aufl.). München: Carl Hanser-Verlag.

    Google Scholar 

  • Mittelstädt, E. (2011). Ökonomische Schulentwicklung: Wissensbilanzierung zum angemessenen Umgang mit Komplexität. In A. Liening (Hrsg.), Komplexe Systeme und Ökonomie (Bd. 3). Frankfurt a. M.: Peter Lang-Verlag.

    Google Scholar 

  • Müller, R. (1990). Rauschen (2. Aufl.). Berlin: Springer Verlag.

    Book  Google Scholar 

  • Nebel, M. (2012). Entwurf und Analyse von Algorithmen. Wiesbaden: Vieweg+Teubner.

    Google Scholar 

  • Neubauer, A. (2012). DFT – Diskrete Fourier-Transformation. Wiesbaden: Springer Vieweg.

    Book  Google Scholar 

  • Ott, E. (1994). Chaos in dynamical systems. New York: Press Syndicate of the University of Cambridge.

    Google Scholar 

  • Packard, N. H., Crutchfield, J. P., Doyne Farmer, J., & Shaw, R. S. (1980). Geometry from a time series. Physical Review Letters, 45(9), 712–716.

    Article  Google Scholar 

  • Peitgen, H.-O., Jürgens, H., & Saupe, D. (1992). Chaos – Bausteine der Ordnung. Heidelberg: Klett-Cotta.

    Book  Google Scholar 

  • Platon. (2010). Der Staat. Köln: Anaconda.

    Google Scholar 

  • Popper, K. (1995). Objektive Erkenntnis (3. Aufl.). Hamburg: Hoffmann & Campe.

    Google Scholar 

  • Popper, K. (2004). Auf der suche nach einer besseren Welt. München: Piper.

    Google Scholar 

  • Popper, K. (2010). Die beiden Grundprobleme der Erkenntnistheorie: aufgrund von Manuskripten aus den Jahren 1930–1933 (3. Aufl.). Tübingen: Mohr Siebeck.

    Google Scholar 

  • Rao, K. R., Kim, D. N., & Hwang, J. J. (2010). Fast fourier transformation. Berlin: Springer Verlag.

    Google Scholar 

  • Rao, K. R., & Yip, P. C. (2000). The transform and data compression handbook boca raton. Florida: Taylor & Francis Inc.

    Book  Google Scholar 

  • Rapp, P. E., Albano, A. M., Zimmerman, I. D., & Jiménez-Montano, M. A. (1994). Phase-randomized surrogates can produce spurious identifications of non-random structure. Physics Letters A, 192(1), 27–33.

    Article  Google Scholar 

  • Reszat, B. (1993). Chaos in den Wechselkursen. WiSt, 3, 146–149.

    Google Scholar 

  • Rosenstein, M. T., Collins, J. J., & De Luca, C. J. (1993). A practical method for calculating largest Lyapunov exponents from small data sets. Physica D, 65, 117–134.

    Article  Google Scholar 

  • Sachs, L., & Hedderich, J. (2006). Angewandte Statistik (12. Aufl.). Berlin: Springer.

    Google Scholar 

  • Sauer, T., Yorke, J. A., & Casdagli, M. (1991). Ebedology. Journal of Statistical Physics, 65(3), 579–616.

    Article  Google Scholar 

  • Scheinkman, J. A., & LeBaron, B. (1989). Nonlinear dynamics and stock returns. Journal of business, 62(3), 311–337.

    Article  Google Scholar 

  • Schmidt, K., & Stahlecker, P. (1989). Gibt es Chaos im industriellen Sektor der Bundesrepublik Deutschland? Jahrbuch für Sozialwissenschaft, 40, 332–341.

    Google Scholar 

  • Schwager, J. D. (2005). Technische Analyse (5. Aufl.). München: Finanzbuch Verlag.

    Google Scholar 

  • Sedgewick, R. (2002). Algorithmen in C++ (3. Aufl.). München: Pearson Education.

    Google Scholar 

  • Sedgewick, R., & Wayne, K. (2014). Algorithmen: Algorithmen und Datenstrukturen (4. Aufl.). München: Pearson Education.

    Google Scholar 

  • Sengupta, J. K., & Zheng, Y. (1995). Empirical tests of chaotic dynamics in market volatility. Applied financial economics, 5(5), 291–300.

    Article  Google Scholar 

  • Shannon, C. E. (2001). A mathematical theory of communication. ACM Mobile Computing and Communications Review, 5(1), 3–55.

    Article  Google Scholar 

  • Sharpe, W. F. (1963). A simplified model for portfolio analysis. Management Science, 9(2), 277–293.

    Article  Google Scholar 

  • Sharpe, W. F. (1964). Capital asset prices – A theory of market equilibrium under conditions of risk. Journal of Finance, 19(3), 425–442.

    Google Scholar 

  • Skinner, J. E., Molnar, M., & Tomberg, C. (1994). The point correlation dimension: performance with nonstationary surrogate data and noise. Integrative Physiological and Behavioral Science, 29(3), 217–234.

    Article  Google Scholar 

  • Sterman, J. D. (1989). Deterministic chaos models of human behavior: methodological issues and experimental results. System Dynamics Review, 4(1–2), 148–178.

    Google Scholar 

  • Strunk, G. (2004). Organisierte Komplexität – Mikroprozess-Analysen der Interaktionsdynamik zweier Psychotherapien mit den Methoden der nichtlinearen Zeitreihenanalyse. Bamberg: University of Bamberg, OPUS.

    Google Scholar 

  • Strunk, G. (2009). Die Komplexitätshypothese der Karriereforschung. In A. Liening (Hrsg.), Komplexe Systeme und Ökonomie (Bd. 2). Frankfurt a. M.: Peter Lang.

    Google Scholar 

  • Strunk, G. (2015). GChaos – Nichtlineare Zeitreihenanalyse. Wien: Springer-Verlag.

    Google Scholar 

  • Strunk, G. (2016). Es gibt nichts Praktischeres als eine gute Theorie. In H. Arndt (Hrsg.), Das Theorie-Praxis-Verhältnis in der Ökonomischen Bildung (S. 17–29). Schwalbach/Ts.: Wochenschau Verlag.

    Google Scholar 

  • Strunk, G., & Schiepek, G. (1994). Dynamische Systeme – Grundlagen und Analysemethoden für Psychologen und Psychiater. Heidelberg: Asanger.

    Google Scholar 

  • Strunk, G., Schiffinger, M., & Mayrhofer, W. (2004). Lost in transition? Complexity in organisational behaviour – the contributions of systems theories. Management Revue, 15(4), 481–509.

    Google Scholar 

  • Sturm, G. (2003). Thermodynamik, Entropie und Quantenmechanik. Quanten.de Newsletter 2003 (Juli/August).

    Google Scholar 

  • Světlák, M., Bob, P., Černík, M., Chládek, J., & Kukleta, M. (2010). Electordermal dimensional complexity and smoking. Scripta Medica, 83(1), 63–68.

    Google Scholar 

  • Takens, F. (1981). Detecting strange attractors in turbulence. In D. A. Rand & L. S. Young (Hrsg.), Dynamicals systems and turbulence – lecture notes in mathematics (S. 366–381). Berlin: Springer.

    Google Scholar 

  • TenBroek, T. M., van Emmerik, R. E. A., Hasson, C. J., & Hamill, J. (2007). Lyapunov exponent estimation for human gait accelcerations signals. Journal of Biomechanics, 40, 210.

    Article  Google Scholar 

  • Theiler, J. (1987). Efficient algorithm for estimating the correlaton dimension form a set of discrete points. Physical Review A, 36(9), 4456–4462.

    Article  Google Scholar 

  • Theiler, J. (1989). Estimating fractal dimension. Journal of the Optical Society of America, 7(6), 1055–1073.

    Article  Google Scholar 

  • Thoma, B. (2001). Chaostheorie, Wirtschaft und Börse – Das neue Paradigma in den Wirtschaftswissenschaften. München: Oldenbourg.

    Google Scholar 

  • Weber, M. (2007). Genial einfach investieren. Frankfurt a. M.: Campus.

    Google Scholar 

  • Welch, T. (1984). A technique for high-performance data compression. IEEE Computer, 17(6), 8–19.

    Article  Google Scholar 

  • Whitney, H. (1936). Differentiable manifolds. The Annals of Mathematics, 37(3), 645–680.

    Article  Google Scholar 

  • Wittgenstein, L. (1963). Tractatus logico-philosophicus: Logisch-philosophische Abhandlung. Berlin: Suhrkamp Verlag.

    Google Scholar 

  • Wolf, A. (1986). Quantifying chaos with lyapunov exponents. In A. V. Holden (Hrsg.), Chaos (16. Aufl., S. 285–317). New Jersey: Manchester University Press.

    Google Scholar 

  • Wolf, A., Swift, J. B., Swinney, H. L., & Vastano, J. A. (1985). Determining lyapunov exponents from a time series. Physica D, 16(3), 285–317.

    Article  Google Scholar 

  • Ziv, J., & Lempel, A. (1977). A universal algorithm for sequential data compression. IEEE Transactions on Information Theory, 23(3), 337–343.

    Article  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Andreas Liening .

Rights and permissions

Reprints and permissions

Copyright information

© 2017 Springer Fachmedien Wiesbaden GmbH

About this chapter

Cite this chapter

Liening, A. (2017). Empirie – Empirische Methoden der Komplexitätsmessung. In: Komplexität und Entrepreneurship. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-13173-9_5

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-13173-9_5

  • Published:

  • Publisher Name: Springer Gabler, Wiesbaden

  • Print ISBN: 978-3-658-13172-2

  • Online ISBN: 978-3-658-13173-9

  • eBook Packages: Business and Economics (German Language)

Publish with us

Policies and ethics