Skip to main content

Makrobasierte Methoden der Datenauswertung und Dateninterpretation

  • Chapter
  • First Online:
Methoden der vergleichenden Politikwissenschaft

Part of the book series: Grundwissen Politik ((GPOL))

Zusammenfassung

In den folgenden Kap. 4–6 werden die zentralen Analyseverfahren der Vergleichenden Politikwissenschaft vorgestellt. Ziel ist es einen übergreifenden Einblick in die am meisten genutzten Methodiken der vergleichenden Politikwissenschaft zu geben, ohne dabei allerdings alle Einzelheiten der Analyseverfahren darzulegen. Da es sich hier aber um einen wichtigen Anwendungsbereich der vergleichenden Politikwissenschaft handelt, werden wir versuchen die einzelnen Zugangsweisen explizit darzustellen und mit Beispielen soweit zu verdeutlichen, dass ein Zugang zur eigenen Nutzung geöffnet wird. Ergänzend werden Literaturhinweise aufgeführt, die ein vertiefendes Studium der Materie ermöglichen. Für Erklärungen und Einlassungen, die über das für die vergleichende Perspektive Notwendige hinausgehen, sei bereits hier auf einschlägige Lehrbücher der empirischen Sozialforschung verwiesen (Diekmann 2007; Schnell et al. 2011; Behnke et al. 2010; Behnke und Behnke 2006).

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

eBook
USD 24.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 34.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Auf die Darstellung des bei Lijphart (1971) noch aufgeführten Experimentes wollen wir aufgrund seiner geringen Verwendung und begrenzten Anwendbarkeit in der vergleichenden Politikwissenschaft verzichten (zur Information siehe Diekmann 2004, S. 296–303).

  2. 2.

    Zur Anwendung von Experimenten in der Politikwissenschaft vgl. Faas 2010.

  3. 3.

    Daneben existieren Spezialprogramme, die teilweise käuflich oder als Sharewareversionen zu erwerben sind. Sie sind überwiegend auf einzelne methodische Funktionen ausgerichtet.

  4. 4.

    Daneben können noch weitere Vorgehensweisen, wie Process-Tracing oder hermeneutische Analysen in der Fallstudie zur Anwendung kommen. Gerade in den Internationalen Beziehungen kommt der Prozessanalyse (George und Bennett 2005; Schimmelpfennig 2006) eine große Bedeutung zu. In ihr wird versucht einen Ablaufprozess in seiner Entstehung zu rekonstruieren. Allerdings muss gesagt werden, dass es sich weniger um eine Methode als vielmehr um eine logische Konzeptionalisierung handelt (siehe auch Kap. 3).

  5. 5.

    Wobei viele der auf dieser Ebene verwendeten Daten (wie Arbeitslosenquoten) natürlich nicht rein makrobasiert sind, sondern auch aus den Merkmalen von Individuen gewonnen werden. Allerdings erfolgt ihre Verwendung durch den Zugriff auf amtliche Statistiken, die nur noch auf die Makrodaten verweisen und auf der Ebene der Individuen nicht rekonstruiert werden können.

  6. 6.

    Wie noch zu zeigen sein wird (Kap. 4.3), greift hier allerdings wieder die Mikro-Makro-Differenzierung, wird doch die QCA als so genanntes Makro-qualitatives Vorgehen bezeichnet.

  7. 7.

    Inferenz bezeichnet ganz allgemein den Begriff des Schließens von einem Phänomen auf ein anderes Phänomen (siehe dazu auch Definition im Glossar).

  8. 8.

    Als Beispiel qualitativer Analyse werden bei King et al. (1994) Fallstudien angesehen. Dabei unterscheiden sie nicht zwischen Studien ohne Einsatz von empirischen Methoden und Studien mit Experteninterviews bzw. anderen z. B. typologisierenden Vorgehen.

  9. 9.

    Letztere wird durch die Ausbreitung Mixed-Methods-Designs gestützt (siehe Kap. 6.2).

  10. 10.

    Bei diesem Punkt ist ein Problem anzusprechen: Immer noch wird oft, auch in Lehrbüchern (vgl. Peters 1998), davon ausgegangen, dass die Umfrageforschung nur Aussagen auf der Mikroebene trifft. Gerade dies ist mit der Entwicklung des Umfrageinstrumentariums nicht gemeint. Zweifelsohne gilt, dass der, ebenfalls gerne bemühte, individualistische Fehlschluss grundsätzlich möglich ist. So gilt es weiterhin, dass man von Korrelationen auf der Individualebene, ohne Überprüfung auf der Makroebene, keine Aussage über die höher liegende Ebene treffen sollte. Dies ist aber keine Einschränkung der repräsentativen Ergebnisse, wenn sie auf der Aggregatebene korreliert werden (auch Ingelhart und Welzel 2003).

  11. 11.

    So beschrieb Detlef Jahn (2008a, S. 145) „die Aggregatdatenanalyse als den Königsweg in der vergleichenden Politikwissenschaft“ und definierte sie zum Kernbereich der Disziplin (Jahn 2007, S. 19; 2006, S. 335). Selbst wenn diese Aussage vielleicht nicht von allen vergleichend arbeitenden Politikwissenschaftlern geteilt wird, beschreibt sie doch recht gut deren Position in der methodischen Diskussion der vergleichenden Politikwissenschaft.

  12. 12.

    Maier und Rattinger (2000, S. 10–11) unterscheiden Aggregatdaten nach Settingmerkmalen und Kontextmerkmalen. Diekmann (2000) gliedert sie nach ähnlichen Kriterien auf.

  13. 13.

    Widmaier definiert Aggregatdaten als „quantifizierte Charakteristika von Kollektiven (…), die sich entweder auf das Kollektiv als Ganzes beziehen oder durch eine deskriptiv-statistische Operation auf der Basis von Eigenschaften der individuellen Mitglieder des Kollektivs aggregiert wurden“ (Widmaier 1997, S. 104, siehe auch Niedermayer und Widmaier 2003, S. 77).

  14. 14.

    Eine reichhaltige Einführung in die Entstehungsgeschichte der Aggregatdatenanalyse liefert Achen (1995).

  15. 15.

    Bei Aggregatdaten gehen zumeist die Informationen über die untergeordneten Einheiten verloren. Nur gelegentlich, wie bei der vergleichenden Umfrageforschung noch zu zeigen sein wird (Kap. 5.1), können Beziehungen auf dieser Ebene rekonstruiert werden.

  16. 16.

    Häufig wird auf Publikationen anderer Autoren zurückgegriffen, die entsprechende Daten aufbereitet oder Indizes bzw. strukturelle Indikatoren gebildet haben. Von einer solchen Vorgehensweise kann man Gebrauch machen, wenn die Verlässlichkeit der Daten gesichert werden konnte. Ansonsten ist aufgrund der Distanz zum originalen Datenmaterial von einer Verwendung abzusehen und – wenn möglich – auf Primärdatenquellen zurückzugreifen.

  17. 17.

    Eine Aufzählung weiterer, für die vergleichende Politikwissenschaft interessanter, Datenquellen ist bei Widmaier (1997, S. 106–107) nachzulesen.

  18. 18.

    Als Sekundärforscher wird ein Forscher dann bezeichnet, wenn er mit Daten arbeitet, die von anderen Forschern oder Institutionen erhoben wurden. Ein Primärforscher dagegen erhebt die Daten, mit denen er arbeitet, selbst.

  19. 19.

    So ist eine Arbeitslosenquote von acht Prozent in Deutschland anders zu interpretieren als eine gleichlautende Quote in Mexiko.

  20. 20.

    Siehe z. B. Jahn (2008a, S. 19), der auf die formalisierten Analysetechniken als Grundmerkmal der Aggregatdatenanalyse verweist.

  21. 21.

    Der Begriff der,ökologischen Regression’ wird in Kap. 4.2.2 näher ausgeführt werden.

  22. 22.

    Besteht Zweifel an einer kausalen Ausrichtung, so sind auch einfache Zusammenhangsanalysen möglich. Diese sind allerdings in der Regel auf zwei Variablen limitiert, was komplexe Erklärungsmodelle nicht zulässt.

  23. 23.

    Die ersten Analysen auf der angesprochenen Ebene unterschiedlicher Aggregate lassen sich bis auf den berühmten Soziologien Emile Durkheim zurückführen. Exemplarisch sind seine Studien zu Typen des Selbstmords (1897).

  24. 24.

    Entsprechende Informationen sind unter www.worldbank.org/governance verfügbar.

  25. 25.

    Unter Zeitreihen werden Daten verstanden, die zu einer gleichen Aussage (z. B. Arbeitslosenquote) zu unterschiedlichen Zeitpunkten (z. B. im jährlichen Abstand) Informationen bereitstellen.

  26. 26.

    Hier handelt es sich üblicherweise um das Verfahren der Reliabilitätsanalyse. Analog kann auch die Faktorenanalyse zur Prüfung der Eindimensionalität verwendet werden.

  27. 27.

    Ergibt eine Dimensionsanalyse Eindimensionalität, so kann sowohl ein Index gebildet als auch ein Kennzeichnungsitem gewählt werden. Letzteres ist statthaft, weil Eindimensionalität, also die Zuordnung der verschiedenen Items zu einer gemeinsamen Hintergrunddimension, vorliegt.

  28. 28.

    Die Verfahren der Ereignisdatenanalyse wurden hauptsächlich in den Fachbereichen der Demographie und der Arbeits- und Berufssoziologie entwickelt und angewendet. Vor diesem Hintergrund ist die Bezeichnung „Survival-data-analysis“ nicht überraschend.

  29. 29.

    Eine Beschreibung der Ereignisdatenanalyse findet sich bei Blossfeld (2008, S. 113–123), eine Cox-Regression aus der vergleichenden Politikwissenschaft bei Jahn (2006, S. 400–405).

  30. 30.

    Bei dem Freedom House-Index handelt es sich um ein Instrumentarium der Demokratiemessung (vgl. Lauth 2004; Pickel und Pickel 2006; Lauth u. a. 2000), das einem Land über die (quantifizerte) Beurteilung von Experten Grade des Bestandes an Freiheit zuweist.

  31. 31.

    Die Daten zu den Indizes sind in der Regel frei im Internet verfügbar. Anbei die Datenquellen (mehr dazu siehe Pickel und Pickel 2006): Freedom House (Werte 1–7) www.freedomhouse.org; Polity IV (0–10 Demokratie); http://www.cidcm.umd.edu/inscr/polity/; ID = Index of Democratization (Vanhanen): polyarchy dataset; http://www.su.ntnu.no/iss/data/vanhanen (download 10.12. 2005); FH = Freedom House, CL = Subindex Civil Liberties; PR = Subindex Political Rights. Ein auf diesen Daten partiell aufbauendes Demokratiemaß bildet der ‚kombinierte Index der Demokratie‘ (KID), der durch die Integration anderer Daten eine differenzierte Messung der Demokratien erlaubt (http://opus.bibliothek.uni-wuerzburg.de/frontdoor.php?source_opus=7303&la=de).

  32. 32.

    Der Legitimitätsgrad gilt hier als Makrovariable, da aus der Verteilung der Demokratielegitimität in der Bevölkerung resultiert. Im Prinzip wird er aus Individualdaten gewonnen (siehe hierzu Kap. 5), dann aber als reiner Makroindikator bzw. Aggregatdatum (Anteile der Zustimmung oder Mittelwert) verwendet.

  33. 33.

    Sicherlich kann man einwenden, dass einige der Demokratieindizes bereits den Korruptionsgrad mit erfassen. Allerdings dient das hier vorgestellte Beispiel nur der Illustration der Methode und wird deswegen von weiteren inhaltlichen Diskussionen frei gehalten.

  34. 34.

    Allerdings wird Weißrussland eingeschlossen, welches aufgrund seiner autokratischen Tendenzen aus dem Europarat ausgeschlossen ist. Dies ist ein Sonderfall, begründet sich doch der Ausschluss nicht auf territoriale Gründe.

  35. 35.

    Die Normalverteilung ist eine symmetrische Verteilungsform, die einem umgedrehten U gleicht. Sie stellt eine Voraussetzung für die Umsetzbarkeit vieler statistischer Analysen dar (vgl. Jahn 2006, S. 366–368; ausführlich Behnke und Behnke 2006, S. 248–265).

  36. 36.

    Der Ausdruck bivariat bezieht sich auf die Verbindung von zwei Variablen. Betrachtungen einer Variablen werden üblicherweise als univariat bezeichnet.

  37. 37.

    Für die statistischen Vorgehensweisen der Korrelationsanalyse und der Regressionsanalyse sei auf einschlägige Lehrbücher verwiesen, da ihrer Erklärung in einer Darstellung vergleichender Methodik kein breiterer Platz eingeräumt werden kann (vgl. Backhaus u. a. 2000, S. 45–116; Diekmann 2004, S. 571–584; Gehring und Weins 2004, S. 144–159; Maier und Rattinger 2000; Rudolf und Müller 2003, S. 31–76; Schell et al. 1999, S. 419–423; Wagschal 1999, S. 230–243).

  38. 38.

    Korrelationskoeffizienten bilden die Abweichung der realen Varianz von der aus den Randauszählungen geschätzten Varianz (z. B. Behnke und Behnke 2006, S. 144–194; Gehring und Weins 2004, S. 117–143; Diekmann 2000, S. 571–584) ab. Als Korrelationsmaße stehen entsprechend des Skalenniveaus des Datenmaterials Pearsons r (metrisch), Gamma, Spearman’s R (ordinal), Eta (metrisch und nominal), Cramers V (nominal) zur Verfügung (Diekmann 2007, S. 703). Zu den Skalenniveaus siehe Maier und Rattinger 2000, S. 35–36.

  39. 39.

    Der Begriff des Assoziationsmaßes umfasst alle Arten von Zusammenhangsmaßen. Überwiegend wird der Begriff Korrelationsmaß synonym verwendet, auch wenn er streng genommen nur Beziehungen der metrischen Ebene behandelt.

  40. 40.

    Die Signifikanz gibt Auskunft über die Gefahr, zu Unrecht einen Zusammenhang anzunehmen, obwohl eigentlich in der Grundgesamtheit kein Zusammenhang besteht. Üblicherweise wird eine Fehlertoleranz von 5 % (p = .05) als Sigifikanzniveau verwendet.

  41. 41.

    Diese Beziehung entspricht einer bivariaten Korrelation mit dem Koeffizienten Pearsons r, sie setzt nur eine theoretisch begründete kausale Beziehung.

  42. 42.

    Möglicherweise war auch die Arbeit von Transparency International nur eingeschränkt möglich und der angegebene Wert unterschätzt das tatsächliche Ausmaß der Korruption.

  43. 43.

    Aus Übersichtsgründen wurden wiederum Albanien, Kroatien, Serbien-Montenegro und Weißrussland aus der Analyse ausgeschlossen, obwohl Kroatien und Albanien, wie Abb. (Abb. 4.8) zeigt, statistisch-analytisch gesehen relativ problemlos für den ermittelten Zusammenhang sind. Hier gelten aber die theoretischen Argumente als entscheidend.

  44. 44.

    An dieser Stelle wird noch einmal deutlich, dass die statistischen Analysen nur den Hinweis eines Zusammenhangs ergeben. Die inhaltliche Deutung bleibt dem Forscher überlassen, der dazu auf Theorien und Plausibilität zurückgreifen muss.

  45. 45.

    Der Begriff ökologisch bezieht sich auf die Untersuchung von Aggregaten und ist als Synonym zu dem Begriff ‚kollektiv’ zu verstehen. Er ist nicht mit dem Begriff der Ökologie als Umweltschutz in Verbindung zu bringen und besitzt einen räumlichen Charakter und wurde 1950 von Robinson als Begriff in der Sozialforschung etabliert.

  46. 46.

    Ausführliche Überlegungen zur ökologischen Regression führte King (1997) durch.

  47. 47.

    Zu genauen Beschreibungen der Regressionsanalyse inklusive ihrer verschiedenen Diagnostiken sei auf einschlägige Fachbücher, wie Schnell u. a. (2011), Diekmann (2007), Gujarati (2003), Kennedy (2003) verwiesen. Eine genauere Betrachtung der speziellen Vorgehensweisen zur Qualitätssicherung der Regressionsanalysen würde den Rahmen des Buches übersteigen. Hier ist auf die einschlägige, im Text genannte, Literatur zurückzugreifen.

  48. 48.

    Bei Multikollinearität handelt es sich um Beziehungen zwischen den unabhängigen Variablen, die sich auf deren Beziehungen zur abhängigen Variable verzerrend auswirken. Da die Variablen in der sozialwissenschaftlichen Realität in der Regel miteinander verknüpft sind, wird immer ein gewisses Ausmaß an Multikollinearität bestehen. Ein zu großes Maß ist allerdings zu vermeiden. So ist es nicht dienlich, hoch miteinander korrelierende Variablen gleichzeitig als unabhängige Prädiktoren einzusetzen. Um diese zu identifizieren, empfiehlt sich eine vorherige Diagnostik anhand einer Korrelationsmatrix der unabhängigen Variablen.

  49. 49.

    Zu der Diskussion der Grundbedingungen für Regressionsmodelle siehe Jahn 2006, S. 378.

  50. 50.

    Die Standardisierung setzt den Mittelwert gleich Null und die Varianz gleich 1.

  51. 51.

    Dies impliziert z. B. folgende Aussage: Sobald ein Land einen höheren Stand sozioökonomischer Modernisierung erreicht hat, ist die Wahrscheinlichkeit höher, dass es eine Demokratie wird oder bleibt.

  52. 52.

    Interaktionsvariablen können auf einfachem Weg durch die Multiplikation von zwei Variablen gebildet und dann in einem linearen Regressionsmodell verwendet werden. In logistischen Regressionsmodellen ist diese Möglichkeit bereits in den Programmpaketen standardmäßig vorgesehen.

  53. 53.

    Eine ausführliche Darstellung der logistischen Regression findet sich bei Backhaus u. a. (2000, S. 417–478) und Rudolf und Müller (2004, S. 237–266).

  54. 54.

    Aufgrund des primären Interesses des vorliegenden Lehrbuches an einem Einblick in die vergleichende Forschung und nicht in die empirische Sozialforschung im Allgemeinen, wird auf Ausführungen zur Cluster- oder Faktorenanalyse verzichtet. Gute Darstellungen hierzu finden sich bei Schnell et al. 2011; Backhaus u. a. 2010; Behnke et al. 2010; Rudolf und Müller 2004, S. 123–176.

  55. 55.

    Hier ist zu beachten, dass der Schluss von dem vorgestellten Ergebnis auf einen Individualzusammenhang – wie etwa: Personen mit einem höheren Einkommen sind die besseren Demokraten – einen möglichen Fehler oder Fehlschluss beinhaltet. Dieser wird in der Fachliteratur als ökologischer Fehlschluss bezeichnet (siehe auch ausführlich Kap. 6.1). Mit ihm ist ein ungerechtfertigter Schluss von Zusammenhängen von Merkmalen auf der Makroebene auf Zusammenhänge auf der Mikroebene angesprochen.

  56. 56.

    Bei Bootstrap-Verfahren wird auf die Sachlage reagiert, dass in kleinen Stichproben oft inferenzstatistische Probleme bestehen. Bootstrap-Verfahren verarbeiten diese Probleme dadurch, dass sie ihre Kennwerte statt aus der Gesamtheit „unmittelbar aus der konkret vorliegenden Stichprobe“ rekonstruieren (Shikano 2007, S. 69).

  57. 57.

    Modifikationen bietet die Time-Series Cross-Section Analyse (Beck und Katz 1995), die durch die eigenständige Modellierung von Länderdummies, zeitlich versetzte abhängige Variablen (lagged dependent variable), einer Kontrolle der Periodeneffekte sowie einer Korrektur der Schätzer für Standardfehler (Panel Corrected Standard Errors) den Problemen der Autokorrelation, Heteroskedastizität und der Korrelation der Fehlerterme (siehe Jahn 2012, S. 395; Tiemann 2008, S. 192–195) begegnet. Doch auch die dadurch erzielten Ergebnisse sind in ihrer allgemeinen Gültigkeit nicht unumstritten (vgl. Plümper und Troeger 2008).

  58. 58.

    Siehe hierzu die Abhandlungen von Berg-Schlosser und Quenter 1996; Berg-Schlosser 1997, 2003; Berg-Schlosser und Cronqvist 2007; De Meur und Rihoux 2002; Pennings 2003, 2008; Rihoux 2008; Rihoux und Grimm 2006, Schneider 2007; Schneider und Wagemann 2007, 2008; Wagemann und Schneider 2003.

  59. 59.

    Aus Platzgründen und da sie einen etwas anderen Zweig der QCA-Forschung darstellt, wird auf die Vorstellung der mvQCA hier verzichtet. Das Kapitel konzentriert sich auf die von Charles Ragin gelegte Linie. Zur mvQCA siehe Cronquist und Berg-Schlosser (2009).

  60. 60.

    Ausführlichere Erläuterungen hierzu in Kap. 4.3.2.

  61. 61.

    Äquifinalität bedeutet, dass ein Ergebnis die Folge unterschiedlicher Bedingungen bzw. Kombinationen von Bedingungen sein kann.

  62. 62.

    Asymmetrie bedeutet, dass zwar die Anwesenheit einer Bedingung zum Outcome führen kann, dass aber die Abwesenheit dieser Bedingung nicht zwingen zur Abwesenheit des Outcomes führt. Der Unterschied zwischen statistischen Verfahren und QCA zeigt sich auch in den verwendeten Begrifflichkeiten: während statistische Verfahren den Effekt unabhängiger auf eine/mehrere abhängige Variablen betrachten, wird mittels QCA der Zusammenhang zwischen Bedingungen und Outcome untersucht.

  63. 63.

    Anders als bei notwendigen Bedingungen, die per definitionem immer vorhanden sein müssen, wenn das zu erklärende Outcome in den Untersuchungsfällen vorhanden ist.

  64. 64.

    Dies kann hier nur in einem begrenzten Rahmen geschehen. Für eine intensivere Beschäftigung sei auf Ragin (1987, 2000) und Blatter et al. (2007) verwiesen. Eine Diskussion von Anwendungsmöglichkeiten findet sich bei Rihoux und Grimm (2006). Einen ausgezeichneten Einblick in die schrittweise Durchführung geben Schneider und Wagemann (2012).

  65. 65.

    Alle Analysen mit crisp-set QCA oder fuzzy-set QCA sind mit dem PC-Programm fs/QCA (Fuzzy-Set/Qualitative Comparative Analysis) durchführbar. Das Programm kann kostenlos von den folgenden Internetquellen heruntergeladen werden: http://smalln.spri.ucl.ac.be bzw. http://www.u.arizona.edu/~cragin.Dort findet sich auch ein User-Manual, welches die konkreten Schritte einer fuzzy-set QCA oder einer crisp-set QCA darlegt.

  66. 66.

    Welche Ausrichtung (politische Unterstützung (P) oder keine politische Unterstützung (p)) man untersucht, ergibt sich aus der vom Forscher formulierten Fragestellung.

  67. 67.

    Eine andere Darstellungsweise in der Literatur ist die Nutzung des Symbols ‚~’, um die Abwesenheit einer Bedingung darzustellen. So kann die Abwesenheit eines hohen ökonomischen Niveaus auch mit ~Ö dargestellt werden.

  68. 68.

    Durch diese in ihrer Richtung unterschiedlichen Zuweisungen wird deutlich, dass die Einordnung in 1,wahr’ und 0 ‚falsch’ einzig auf theoretisch begründeten Schwellenwerten beruht, die durch den Forscher bestimmt werden müssen.

  69. 69.

    Für das vorliegende Beispiel sind aus Einfachheitsgründen alle Zeilen auch mit realen Fällen belegt worden. Die empirischen Ergebnisse der Konfigurationen sind in den letzten beiden Spalten eingetragen und beinhalten damit eine Information, die über die Wahrheitstafel an sich hinausgeht.

  70. 70.

    Die gleichzeitige Analyse notwendiger und hinreichender Bedingungen kann unter Umständen zu Fehlern führen (Schneider und Wagemann 2007, S. 73). Eine getrennte Analyse ist daher zu empfehlen.

  71. 71.

    Der Name des ‚Bottom-Up’ Prozesses rührt daher, dass er die einzelnen Bedingungen in der Wahrheitstafel betrachtet, während der Quine-McClusky Algorithmus von den Kombinationen der Bedingungen in der Wahrheitstafel ausgeht.

  72. 72.

    Da wir den Outcome P erklären wollen, sind allerdings nur Polen, Slowenien und Ungarn von Interesse, da nur hier P = 1. Wollten wir die Abwesenheit politischer Unterstützung (p) untersuchen, müßten wir die Konfigurationen in den anderen sechs Ländern betrachten.

  73. 73.

    Technisch wird in den Programmen auf den Quine-McCluskey-Minimierungsalgorithmus zurückgegriffen (siehe Wagschal 1999, S. 293–294; Schneider und Wagemann 2007, S. 49).

  74. 74.

    Eine ausführliche Würdigung der Kritikpunkte der QCA-Analyse findet sich bei Jacobs (2003).

  75. 75.

    Dies betrifft viele sozioökonomische Phänomene (Grad der Entwicklung, des Wachstums, der Arbeitslosigkeit, der Verschuldung, etc.), deren typologische Abstufung (hoch – niedrig) entweder Konventionen folgt oder gut zu begründen ist. Zum Schellenwertproblem in der Demokratieforschung siehe Lauth (2004).

  76. 76.

    Die Variabel-Setzung erfolgt durch die Zuweisung von Fällen zu 0 oder 1, je nach der besten Passung für eine minimale Lösung. Im PC-Programm würde dies durch den Ausdruck P = D gekennzeichnet werden, der auf offene Beziehungen verweist (Wagschal 1999, S. 299–300).

  77. 77.

    Dies wäre z. B. in unserem Beispiel der Fall, wenn neben der Kombination von Russland (geringer ökonomischer Stand, hohe soziale Ungleichheit, keine demokratischen Institutionen) mit dem Ergebnis,keine Unterstützung der Demokratie’ gleichzeitig China mit einer gleichen Kombination (geringer ökonomischer Stand, hohe soziale Ungleichheit, keine demokratischen Institutionen) eine politische Unterstützung der Demokratie oberhalb unseres anfangs gesetzten Grenzwertes besitzen würde.

  78. 78.

    Ein mögliches Problem kann die unklare Setzung von Schwellenwerten sein.

  79. 79.

    Charles Ragin wehrte sich relativ lange gegen die Bezeichnung der Fuzzy-Set-Analyse als Fortführung der QCA-Analyse, da er beide Analysemethoden getrennt halten wollte und auch von der Logik her als unterschiedlich erachtet. Mittlerweile hat sich jedoch die Bezeichnung fuzzy-set QCA etabliert (siehe Ragins Vorwort im Lehrbuch von Schneider und Wagemann 2007).

  80. 80.

    Diese beruht auf den Überlegungen zur fuzzy-set Theorie des Mathematikers und Computerwissenschaftlers Lotfi Zadeh in den 1960er Jahren.

  81. 81.

    Die Verwendung des Wortes Fuzzy bezieht sich auf die lexikalische Unschärfe von Begriffen: fuzziness = Unschärfe, Undeutlichkeit. Die zugrunde legende Überlegung der fuzzy-set QCA entspricht der Einführung von reduzierten Subtypen in der Typologiebildung, die gleichfalls versuchen, graduelle Befunde angemessen zu berücksichtigen (vgl. Kap. 2.5).

  82. 82.

    Ragin (2008, S. 85–105) empfiehlt darüber hinaus die direkte und indirekte Methode der Kalibrierung auf die hier nicht näher eingegangen wird.

  83. 83.

    Eine ausführliche Erläuterung bei Schneider und Wagemann (2012, S. 91–115).

  84. 84.

    Der Punkt der Entfernung von der Theorie und die Kritik der Einschränkungen in den Kausalerklärungen werden in einem Aufsatz von Wagemann und Schneider (2003, S. 114–125) ausführlich aufgenommen und behandelt.

  85. 85.

    Nähere Ausführungen hierzu bei Schneider und Wagemann 2007, 2012.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Hans-Joachim Lauth .

Kernliteratur

Kernliteratur

4.1.1 Aggregatdatenanalyse

Achen et al. 1995: Cross-Level Inference. Chicago: University of Chicago Press.

Zentrales Buch zur Diskussion von Makroanalysen und deren Bedeutung und Wirkungen. Setzt sich mit unterschiedlichsten Problemen der Aggregatdatenanalyse auseinander und geht ausführlich auch auf die Problematik der Cross-Level Inferenzen ein.

Beck et al. (1995): What to do (and not to do) with Time-Series Cross-Section Data. In: American Political Science Review 89, S. 634–647.

Grundlegender Beitrag zum Verfahren der Time-Series Cross-Section Analysis. Immer noch der Bezugspunkt verschiedenster Diskussionen um die Zusammenführung von Zeitreihen- und Querschnittsdaten mit dem Ziel der Steigerung der Fallzahlen.

Jahn und Detlef (2009): Die Aggregatdatenanalyse in der Vergleichenden Politikwissenschaft. In: Pickel, Susanne und Pickel, Gert und Lauth, Hans-Joachim und Jahn, Detlef (Hrsg.): Methoden der vergleichenden Politik- und Sozialwissenschaft: Neue Entwicklungen und Methoden. Wiesbaden, S. 173–198.

Einführender Aufsatz in die Vorgehensweisen, Probleme und insbesondere neueren Möglichkeiten der Aggregatdatenanalyse. Stellt den Ablauf der Aggregatdatenanalyse dar und setzt sich detailliert mit dessen Weiterentwicklungen auseinander.

King und Gary (1997): A Solution to the Ecological Inference Problem. Princeton.

Detaillierte und stark methodisch orientierte Beschäftigung mit dem Problem des ökologischen Fehlschlusses und der Möglichkeit auch von Aggregatdaten auf individuelles Verhalten schließen zu können.

Kittel und Bernhard (1999): Sense and Sensitivity in Pooled Analysis of Political Data. In: European Journal of Political Research 35/2, S. 225–253.

Behandlung der Probleme und Möglichkeiten gepoolter Analysen im Ländervergleich. Für Interessenten weitergehender Verfahren der Aggregatdatenanalyse empfehlenswert.

Langbein et al. (1978): Ecological Inference. London (Sage University Paper Series: Quantitative Applications in the Social Sciences).

Detaillierte und verständliche Auseinandersetzung mit der ökologischen Inferenz und ihren Problemen. Kann trotz seines recht frühen Erscheinungsdatums als grundlegende Einführung für die Auseinandersetzung mit ökologischer Inferenz angesehen werden.

4.1.2 QCA und Fuzzy-Set-Analyse

Berg-Schlosser et al. (2011): Qualitative Comparative Analysis. In: Berg-Schlosser, Dirk/Cronqvist Lasse (Hrsg.): Aktuelle Methoden der Vergleichenden Politikwissenschaft. Einführung in konfigurationelle (QCA) und makro-quantitative Verfahren. Opladen, S. 135–230.

Überarbeiteter Basisaufsatz zu den makro-qualitativen Verfahren. Bringt Konzeption, Methodik und Beispiele in konzentrierter Form zusammen. Beschreibt fuzzy-set QCA und multi-value QCA im Detail.

Schneider und Carsten Q. (2007): Qualitative Comparative Analysis und Fuzzy Sets. In: Behnke, Joachim u. a. (Hrsg.): Methoden der Politikwissenschaft. Neuere qualitative und quantitative Analyseverfahren. Wiesbaden, S. 273–285.

Komprimierte und verständliche Einführung in die Grundprinzipien und die Denk- sowie Vorgehensweise der crisp-set QCA und der fuzzy-set QCA. Kann gut als geschlossener Einstieg in die Thematik verwendet werden.

Schneider et al. (2007): Qualitative Comparative Analysis (QCA) und Fuzzy Sets. Ein Lehrbuch für Anwender und jene, die es werden wollen. Opladen.

Umfassendes und gut aufgebautes Lehrbuch, welches Schritt für Schritt in das praktische Vorgehen bei der Durchführung einer crisp-set QCA oder fuzzy-set QCA einführt. Gerade für Einsteiger zu empfehlen, bringt aber auch weitere Erkenntnisse für bereits in die QCA eingeweihte Forscher.

Schneider et al. (2012): Set-Theoretic Methods for the Social Sciences. A Guide to Qualitative Comparative Analysis. New York.

Neustes und umfassendstes Lehrbuch zu QCA. Einführung in die Prinzipien und schrittweise Darstellung der Durchführung von crisp-set und fuzzy-set QCA mit verschiedenen Computerprogrammen. Ausführliche Darstellung und Weiterentwicklung der Konsistenz- und Abdeckungsmaße sowie Erläuterung neuer Umgangmöglichkeiten mitlimited diversity.

Ragin und Charles C. (1987): The Comparative Method: Moving Beyond Qualitative and Quantitative Strategies. Berkeley.

Das grundlegende Buch zur QCA. Mit diesem Band führte Ragin diese Analyseform in die Profession ein. Immer noch die ausführlichste und strengste Beschreibung der Qualitative Comparative Analysis und ihrer wissenschaftstheoretischen Fundierung. Kann auch darüber hinaus als anregende Lektüre für die vergleichende Methode verwendet werden.

Ragin und Charles C. (2000): Fuzzy-Set Social Science. Chicago.

Der Band, mit dem die fuzzy-set QCA eingeführt wurde. Spezifiziert sowohl Vorgehen als auch Anwendung. Für das Verständnis der fuzzy-set QCA unerlässlich.

Ragin und Charles (2008): Redesigning social inquiry: fuzzy-sets and beyond. Chicago.

Nachfolgeband zur Einführung der futty-set QCA mit weiteren Ausführungen und Problemdiskussionen.

Rihoux et al. (2006): Innovative Comparative Methods for Policy Analysis. New York.

Sammelband, der verschiedene Beispiele der Anwendung der makro-qualitativen Analyse und Beiträge zur grundlegenden Verwendbarkeit von crisp-set QCA und fuzzy-set QCA beinhaltet.

Wagemann et al. (2003): Fuzzy-Set Qualitative Comparative Analysis (fs/QCA): Ein Zwei-Stufen-Modul. In: Pickel, Susanne/Pickel, Gert/Lauth, Hans-Joachim/Jahn, Detlef (Hrsg.): Vergleichende Politikwissenschaftliche Methoden. Neue Entwicklungen und Diskussionen, Wiesbaden, S. 135–150.

Artikel mit einer versierten weitergehenden Betrachtung der fuzzy-set QCA anhand eines Beispiels. Gute Demonstration des dafür konzipierten EDV-Programms fs/QCA an einem einschlägigen Beispiel.

Rights and permissions

Reprints and permissions

Copyright information

© 2015 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Lauth, HJ., Pickel, G., Pickel, S. (2015). Makrobasierte Methoden der Datenauswertung und Dateninterpretation. In: Methoden der vergleichenden Politikwissenschaft. Grundwissen Politik. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-08636-7_4

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-08636-7_4

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-08635-0

  • Online ISBN: 978-3-658-08636-7

  • eBook Packages: Humanities, Social Science (German Language)

Publish with us

Policies and ethics