Advertisement

Methodik der empirischen Untersuchung

  • Katharina Wurst
Chapter
  • 170 Downloads

Zusammenfassung

Um die im theoretischen Teil der Arbeit aufgestellten Hypothesen zu testen, wurde als Untersuchungsgegenstand ein Multi-Team-Projekt in der europäischen Automobilindustrie ausgewählt. Durch die Entwicklung eines innovativen Fahrzeugs beabsichtigte das Unternehmen, seine Produktpalette zu erweitern und langfristig Wettbewerbsfähigkeit und Wachstum zu sichern. Das Großprojekt, das für ca. 36 Monate angesetzt war, gliederte sich in acht Teilprojekte (Subsysteme), die im Schnitt wiederum aus vier Modulen bestanden. Insgesamt war das Projekt aus 39 interdisziplinären Entwicklungsteams zusammengesetzt, die gemeinsam in einem Gebäude untergebracht waren. Die Teammitglieder gehörten unterschiedlichen funktionalen Unternehmensbereichen an, hauptsächlich F&E, Marketing, Produktion, Controlling, Logistik, Beschaffung, Qualitätsmanagement etc.. Die jeweilige Teamaufgabe bestand darin, ein innovatives Modul zu entwickeln, das sich mit den anderen Modulen bestmöglich zu einem Gesamtprodukt ergänzt. Somit waren die Teams nicht nur gefragt, sich intensiv mit neuen Technologien auseinander zu setzen, sondern auch ein hohes Maß an Aufgabenunsicherheit, Aufgabeninterdependenz sowie Dynamik zu bewältigen und Flexibilität aufzuweisen. Diese Merkmale sind kennzeichnend für Neuproduktentwicklungsprojekte aller Art.452

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 452.
    Vgl. Brodbeck (1996, S. 7ff.).Google Scholar
  2. 453.
    Siehe Schnell et al. (1992, S. 245f.); Laatz (1993, S. 535); Atteslander (1995, S. 368).Google Scholar
  3. 454.
    Vgl. Friedrichs (1990, S. 157); Laatz (1993, S. 535).Google Scholar
  4. 455.
    Siehe Schnell et al. (1992, S. 253).Google Scholar
  5. 456.
    Vgl. Friedrichs (1990, S. 125).Google Scholar
  6. 457.
    Siehe Schnell et al. (1992, S. 265ff.), die diese Diskussion wie folgt abschließen: „Eine generelle Empfehlung für oder gegen solche Fallstudien kann es nicht geben. Hier ist immer eine Abwägung zwischen der Vielschichtigkeit der interessierenden theoretischen Aspekte, dem bisherigen Kenntnisstand in dem betreffenden Forschungsgebiet und den Forschungsressourcen zu treffen“.Google Scholar
  7. 458.
    Siehe Atteslander (1995, S. 177).Google Scholar
  8. 459.
    Siehe Friedrichs (1990, S. 208); Schnell et al. (1992, S. 330); Atteslander (1995, S. 168).Google Scholar
  9. 460.
    Vgl. Atteslander (1995, S. 168).Google Scholar
  10. 461.
    Vgl. Friedrichs (1990, S. 175).Google Scholar
  11. 462.
    Siehe hierzu den theoretischen Teil dieser Arbeit.Google Scholar
  12. 463.
    Vgl. Schnell et al. (1992, S. 358ff).Google Scholar
  13. 464.
    Zur Interviewschulung siehe Schnell et al. (1992, S. 357); Atteslander (1995, S. 199).Google Scholar
  14. 465.
    Vgl. Schnell et al. (1992, S. 233); Atteslander (1995, S. 137).Google Scholar
  15. 466.
    Vgl. Atteslander (1995, S. 177).Google Scholar
  16. 467.
    Zusätzlich zu diesem „Mindestmaß“ an Datenerhebung wurden in t=l und t=2 jeweils noch von den Teammitgliedern, Teamleitern und Projektleitern Beurteilungen zum Teamergebnis erfragt, um die Analysemöglichkeiten zu vergrößern.Google Scholar
  17. 468.
    Siehe Homburg und Giering (1996, S. 6).Google Scholar
  18. 469.
    Atteslander (1995, S. 263) umschreibt Reliabilität mit der Stabilität der Messwerte bzw. Dem Ausmaß der Streuung des Instruments bei wiederholtem Messen. Siehe auch Friedrichs (1990, S. 102); Schnell et al. (1992, S. 158ff.); Homburg und Giering (1996, S. 6).Google Scholar
  19. 470.
    Siehe Friedrichs (1990, S. 102); Schnell et al. (1992, S. 162); Atteslander (1995, S. 343). Homburg und Giering (1996, S. 7) fuhren außerdem die nomologische Validität an, die prüft, ob die von der Theorie postulierten Zusammenhänge zwischen den Konstrukten wirklich bestehen.Google Scholar
  20. 471.
    Vgl. auch Lechler (1997, S. 153f.).Google Scholar
  21. 472.
    Homburg und Giering (1996, S. 7).Google Scholar
  22. 473.
    Vgl. Atteslander (1995, S. 343).Google Scholar
  23. 474.
    Siehe Schnell et al. (1992, S. 166) bzw. Bagozzi und Phillips (1982, S. 468): „Convergent vailidity is the degree to which two or more attempts to measure the same concept are in agreement“.Google Scholar
  24. 475.
    Vgl. Schnelletal. (1992, S. 166f.); Homburg und Giering (1996, S. 7); Lechler (1997, S. 152f.).Google Scholar
  25. 476.
    Vgl. Homburg und Giering (1996, S. 8).Google Scholar
  26. 477.
    Siehe Kumar et al. (1993, S. 12); Nunnally (1978); Lusch und O’Brian (1997).Google Scholar
  27. 478.
    Bei der eingesetzten FACTOR-Prozedur von SPSS wird (wie allgemein üblich) als Abbruchkriterium für die Anzahl extrahierter Faktoren das Kaiser-Kriterium gewählt, nach welchem die Zahl der extrahierten Faktoren der Zahl der Faktoren entspricht, deren Eigenwert größer als 1 ist. Vgl. Backhaus et al. (1996, S. 226).Google Scholar
  28. 479.
    Zur genauen Verwendung der Aussagen der verschiedenen Beurteilergruppen zum Teamergebnis siehe Kapitel E und F.Google Scholar
  29. 480.
    Diese Messung der Qualität zielt insbesondere auf reine Modulentwicklungsteams und weniger auf integrierende Teams ab, die keine spezifische Bauteil Verantwortung haben. Für diese Teams unterblieb i.d.R. eine Messung dieser Indikatoren — die Respondenten wurden darauf aufmerksam gemacht, unzutreffende Fragen zu streichen. Ein Urteil über die Qualität des Outputs dieser integrierenden Teams (in diesem Projekt waren es 7 von 39 Teams) muss über den Gesamterfolg der Teams erfolgen, der auch von qualitativen Aspekten geprägt ist.Google Scholar
  30. 481.
    Indikatoren mit der Bemerkung „invers“ sind im Sinne der Skalenbedeutung negativ formuliert. Um die Vergleichbarkeit mit den anderen positiv gefassten Indikatoren zu gewährleisten, wurden ihre Werte am theoretischen Skalenmittelpunkt gespiegelt. Die Invertierung erfolgte mit der Formel ‘6-x’.Google Scholar
  31. 482.
    Da dieses ergänzende Maß nur auf einem Indikator beruht, kann keine Reliabilitätsanalyse durchgeführt werden. Die Tabelle dient lediglich dazu den Wortlaut des Indikators zu dokumentieren.Google Scholar
  32. 483.
    Dies erfolgte auf der Basis der Individualaussagen aller befragten Projektbeteiligten zu diesem Konstrukt, d.h. auf den Daten der Teammitglieder und Teamleiter aus t=l und t=2.Google Scholar
  33. 484.
    Vgl. Homburg und Giering (1996, S. 8).Google Scholar
  34. 485.
    Vgl. Schnell et al. (1992, S. 171); Homburg und Giering (1996, S. 8).Google Scholar
  35. 486.
    Als Beispiele seien hier der „Leader Behavior Description Questionnaire“ (LBDQ) der Ohio-Schule (Hemphill und Coons, 1957; Stogdill, 1963), der „Supervisory Behavior Description Questionnaire“ (SBDQ) von Fleishman (1972) sowie der „Multifactor Leadership Questionnaire“ (MLQ) von Bass und Avolio (1988) genannt.Google Scholar
  36. 487.
    Da dieses übergeordnete Konstrukt der Teamführung lediglich in einer Korrelationsanalyse (in Abschnitt E.1.3) verwendet wird und daher weniger relevant ist, soll die suboptimale Messskala in Kauf genommen werden.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2001

Authors and Affiliations

  • Katharina Wurst

There are no affiliations available

Personalised recommendations