Skip to main content
  • 176 Accesses

Zusammenfassung

Die Ergebnisdarstellung gliedert sich in vier Bereiche100. Zuerst wird die Stichprobe deskriptiv beschrieben (Kapitel 4.1) und die Datenvorbereitung (Kapitel 4.2) erläutert. Dann werden die Regressionsanalysen, die die Interaktionen zwischen den Dimensionen „Merkmale“ und „Einflussfaktoren“ untersuchen, dargelegt (Kapitel 4.3). Abschließend werden die wichtigsten Erkenntnisse zusammengefasst dargestellt (Kapitel 4.4).

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 54.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Referenzen

  1. Die datenanalytischen Ergebnisauswertungen wurden mit dem Statistikprogramm SPSS 10.0 für Windows (Statistical Product and Service Solutions) durchgeführt.

    Google Scholar 

  2. Für konkrete Formulierungen wird auf den Fragebogen im Anhang (S. 98-98) verwiesen.

    Google Scholar 

  3. Der hier durchgehend aus Gründen der Vergleichbarkeit gewählte Korrelationskoeffizient „Pearsons r“ kann Werte von-1 (negative Beziehung) bis 1 (positive Beziehung) annehmen und misst den dynamischen Aspekt. „r2“ beschreibt von 0 (keine Beziehung) bis 1 (starke Beziehung) die Stärke des Zusammenhangs. Das „Signifikanzniveau“ ist die Obergrenze der Annahme-Wahrscheinlichkeit der Beziehung. (Vgl. Benninghaus, 1998, S. 222; Knieper, 1993, S. 374). Alternativen bei Nominalniveau wären: „Cramers V“ bzw. „Phi“.

    Google Scholar 

  4. Eine erschöpfende Darstellung aller Korrelationen sämtlicher Merkmale erfolgt jedoch nicht.

    Google Scholar 

  5. Zeitungen haben beispielsweise generell weniger, dafür größere Seiten als Zeitschriftenformate.

    Google Scholar 

  6. Vgl. zur Skalenbildung Schnell et al. (1999, S. 147f.). Cronbachs Alpha kann Werte zwischen 0 und 1 annehmen. Werte über. 8 gelten als akzeptabel, in der Praxis werden weit niedrigere Koeffizienten akzeptiert.

    Google Scholar 

  7. Cronbachs Alpha-Werte: Frage 16 =.179; Frage 10c =.645; Frage 13 =.034; Frage 18 =.155

    Google Scholar 

  8. Zur Dummy-Kodierung siehe u.a. Bortz und Döring (2002, S. 512), Bortz (1999, S. 472), Fox (1997, S. 318-321), Chatterjee und Price (1995, S. 99f.) sowie Hardy (1993).

    Google Scholar 

  9. Zur praktischen Anwendung der Faktorenanalyse unter SPSS 10.0 für Windows siehe u.a. RRZN (2000, Abschnitt 7-89f.) und Bortz (1999, S. 500-527).

    Google Scholar 

  10. Cronbachs Alpha beträgt hier. 836 und weist auf hohe Skalen-Reliabilität hin (vgl. RRZN, 2000, Abschnitt 7-135).

    Google Scholar 

  11. Faktorladungen repräsentieren Korrelationskoeffizienten zwischen den jeweiligen Variablen und dem Faktor (vgl. Backhaus et al., 2000, S. 276).

    Google Scholar 

  12. Faktorwerte beschreiben die Ausprägung der extrahierten Faktoren bezüglich der Ausgangsobjekte/Fälle (vgl. Backhaus et al., 2000, S. 295).

    Google Scholar 

  13. Bei einer Z-Standardisierung ließen sich auch Prozentwerte statt der Saliencen angeben. Die schnell erfassbare Vergleichbarkeit zur Ausgangsskala sollte jedoch gewahrt bleiben.

    Google Scholar 

  14. Cronbachs Alpha (763) weist auf hohe Skalen-Reliabilität (vgl. RRZN, 2000, Abschnitt 7-135).

    Google Scholar 

  15. Die Literaturangaben für die Anwendungsvoraussetzungen sind Kapitel 4.2.2.1 zu entnehmen.

    Google Scholar 

  16. Die schnell erfassbare Vergleichbarkeit zur Ausgangsskala sollte hier ebenfalls gewahrt bleiben.

    Google Scholar 

  17. Cronbachs Alpha beträgt. 222 und weist auf niedrige Skalen-Reliabilität hin. Zu viele nominale unabhängige Variablen können jedoch die Ergebnisse in der Regressionsanalyse verzerren (vgl. Bortz & Döring, 2002, S. 514). Aus forschungsökonomischen Gründen der hier erforderlichen Datenreduzierung wird die Faktorenanalyse somit dennoch durchgeführt.

    Google Scholar 

  18. Die Literaturangaben für die Anwendungsvoraussetzungen sind Kapitel 4.2.2.2.1 zu entnehmen.

    Google Scholar 

  19. Im Scree-Plot werden die Faktoren-Eigenwerte in einem Koordinatensystem nach abnehmender Wertefolge, sich der Abszisse nähernd, geordnet. Faktoren mit kleinen Eigenwerten werden für die Erklärungszwecke als unbrauchbar angesehen (Scree = „Geröll“) und nicht extrahiert. (Vgl. Backhaus et al., 2000, S. 289).

    Google Scholar 

  20. Erläuterungen zur Regressionsanalyse finden sich u.a. bei Backhaus et al. (2000, S. 2-69), Janssen und Laatz (1999, S. 265-404) sowie bei Bortz (1999, S. 426f.), auf denen die nachfolgenden Ausführungen beruhen.

    Google Scholar 

  21. Einige Variablen besitzen strenggenommen kein metrisches Datenniveau. Sie können jedoch aufgrund der durchgeführten Transformationen metrisch behandelt werden (siehe Kapitel 4.2) Prinzipiell ist die Logistische Regressionsanalyse das angemessene Verfahren für nichtmetrische Variablen (vgl. Backhaus et al., 2000, S. 104-144). Aus Gründen der diffizilen interpretativen Vergleichbarkeit der dort ermittelten Koeffizienten mit denen der linearen Regression, wurde die Durchführung auf ein Verfahren beschränkt.

    Google Scholar 

  22. Brosius (1998, S. 568) merkt an, dass automatische Verfahren, die die Auswahl der unabhängigen Variablen lediglich an ein statistisches Kriterium knüpfen, inhaltliche Überlegungen vernachlässigen und womöglich unplausible Regressionsgleichungen ermitteln (vgl. Backhaus et al., 2000, S. 55). Hier wurden mögliche Einflussfaktoren theoretisch begründet zusammengestellt. Zu klären bleibt, welche dieser Variablen tatsächlich einen Erklärungsbeitrag liefern. Des Weiteren wurde überprüft, dass auch andere Methoden (Einschluss, Ausschluss, Rück-, Vorwärts) ähnliche Ergebnisse bezüglich der relevanten Einflüsse lieferten.

    Google Scholar 

  23. Multikollineantät liegt vor, wenn verschiedene unabhängige Variablen untereinander (stark) korrelieren. Dies bewirkt, dass Regressionskoeffizienten und ihre Standardabweichungen falsch geschätzt und somit die Regressoren (unabhängige Variablen) in ihrer Wirkung auf die abhängige Variable falsch beurteilt werden (vgl. Schuchard-Ficher, Backhaus, Humme, Lohrberg, Plinke & Schreiner, 1985, S. 92)

    Google Scholar 

  24. Der Einschluss aller unabhängigen Variablen ergab für alle 34 Regressionsmodelle einen guten Konditionsindex von 12, 6. Erst Werte über 30 weisen starke Multikollinearität aus (Belsey, Kuh & Welsch, 1980, S. 105).

    Google Scholar 

  25. Die Toleranz kann Werte zwischen 0 und 1 annehmen, wobei geringe Werte ernsthafte Multikollinearität bedeuten (vgl. Backhaus et al., 2000, S. 49).

    Google Scholar 

  26. Es mindert das Bestimmtheitsmaß R um ein Korrekturmaß, das umso größer ist, je größer die Anzahl der Regressoren (unabhängige Variablen) und je kleiner die der Freiheitsgrade ist (vgl. Backhaus et al., 2000, S. 24).

    Google Scholar 

  27. Faktisch bedeutet dies, dass das Produzierende Gewerbe (ohne Baugewerbe) nicht direkt in die Analyse eingeht, sondern dass die anderen Variablen diese Branche durch die 0-1-Kodierung miterklären können.

    Google Scholar 

Download references

Authors

Rights and permissions

Reprints and permissions

Copyright information

© 2005 VS Verlag für Sozialwissenschaften/GWV Fachverlage GmbH, Wiesbaden

About this chapter

Cite this chapter

Cauers, C. (2005). Ergebnisse. In: Mitarbeiterzeitschriften heute. VS Verlag für Sozialwissenschaften. https://doi.org/10.1007/978-3-322-92448-3_5

Download citation

  • DOI: https://doi.org/10.1007/978-3-322-92448-3_5

  • Publisher Name: VS Verlag für Sozialwissenschaften

  • Print ISBN: 978-3-531-14445-0

  • Online ISBN: 978-3-322-92448-3

  • eBook Packages: Humanities, Social Science (German Language)

Publish with us

Policies and ethics