Zusammenfassung
Im folgenden wird in Abschnitt 4.1 die Verteilung des Ek5-Wertes dargestellt. Dieser spiegelt die langfristige Problemlösegüte einer Gruppe wider und ist somit das für die Überprüfung der Zusammenhangshypothesen zentrale Effektivitätskriterium.1 Dieses Kriterium geht in die Ergebnisdarstellungen zur Beziehung zwischen sozialer Einwirkung und Gruppeneffektivität (Abschnitt 4.2) und zur Beziehung zwischen Kontroversität und Gruppeneffektivität (Abschnitt 4.3) ein. Die nächsten beiden Abschnitte gelten der Überprüfung der Intervention von Hall und Watson: Während in Abschnitt 4.4 die Auswirkung der Intervention auf die Gruppeneffektivität dargestellt ist, befaßt sich Abschnitt 4.5 mit den Ergebnissen zur Auswirkung der Intervention auf den Gruppenprozeß. Die letzten beiden Abschnitte befassen sich mit dem Erkennen von Planspielkompetenz (Abschnitt 4.6) und mit dem Zusammenhang zwischen Personenvariablen und Gruppeneffektivität (Abschnitt 4.7).
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Die Kommas in den Zahlen trennen die Tausenderstelle bzw. die Millionenstelle von den übrigen Zahlen ab. 3,638,430 DM bezeichnet somit einen Betrag von über 3.6 Millionen DM. Punkte bei Zahlendarstellungen trennen dagegen die Werte ab, die kleiner als eins sind.
Die Kommas in den Zahlen trennen die Tausenderstelle bzw. die Millionenstelle von den übrigen Zahlen ab. 3,638,430 DM bezeichnet somit einen Betrag von über 3.6 Millionen DM. Punkte bei Zahlendarstellungen trennen dagegen die Werte ab, die kleiner als eins sind.
Die beiden Gruppen, die sich im Intervall zwischen 3,500,000 und 4,000,000 DM befinden, liegen über dem Startwert von 3,638,430 DM.
Bei der schlechten Gruppe handelt es sich um die Gruppe mit dem zweitniedrigsten EK5-Wert (Gruppe 10). Sie wird hier dargestellt, weil das Diskussionsprotokoll dieser Gruppe später eingehender analysiert wird (vgl. Abschnitt 5. 1 ).
Bei dem eingesetzten Verfahren handelt es sich um die Einfaktormethode. Diese gehört zu den Verfahren des Operations Research, die sich zur Suche von optimalen Lösungen bei komplexen Simulationsmodellen eignen. Das Verfahren wurde unter der Vorgabe der Maximierung von EK5 auf das Simulationsmodell EPEX angesetzt (vgl. hierzu Abschnitt 1.2.3 und Kolb, Petzing & Stumpf, in Druck). Die hierzu nötige Software wurde von Herrn Kolb erstellt.
Rang 1 = die Gruppenleistung ist besser als jede Individualleistung; Rang 2 = die Gruppenleistung ist schlechter als eine Individualleistung, aber besser als zwei; Rang 3 = die Gruppenleistung ist schlechter als zwei Individualleistungen, aber besser als eine; Rang 4 = die Gruppenleistung ist schlechter als jede Individualleistung. Vgl. hierzu Abschnitt 3. 13.
Die Korrelation ist negativ, weil die Ausprägung des Rangplatz-Indikators umso kleiner ist, je besser die Gruppenleistung im Vergleich zu den Individualleistungen ist (Rang 1 = die Gruppenleistung ist besser als alle Individualleistungen usw.; vgl. hierzu Abschnitt 3.23).
Falls eine Person ein Item nicht beantwortet - z.B. indem die Antwortmöglichkeit ‘r gewählt wird - so werden die Beurteilungen der übrigen Items zusammengezählt und durch die Anzahl der tatsächlich beantworteten Items geteilt.
Die bier verwendeten Rechenoperationen (Addieren, Multiplizieren, Dividieren) setzen mindestens Intervallskalenniveau voraus. Im folgenden wird bei dem SEMI-Daten Intervallskalenniveau zwar angenommen, ob es aber tatsächlich gegeben ist, kann nicht entschieden werden. Mit Bortz ( 1979, S. 32) soll davon ausgegangen werden, daß eine Überschätzung des Skalenniveaus zu keinen hypothesenkonformen Ergebnissen führt: “Lassen sich die Ergebnisse hingegen problemlos in einen breiteren, theoretischen Kontext eingliedern, besteht keine Veranlassung, am Intervallskalencharakter der Daten zu zweifeln” (S. 32).
Der Stichprobenmedian hat bei der Skala “Stärke sozialer Einwirkung” den Wert.50, bei der Skala “Macht-Einfluß-Differenzierung” den Wert 1.83 (Skalenbereiche jeweils von -4 bis +4). Diese Werte teilen die 60 Vpn jeweils in die 50% mit den höheren Werten und die 50% mit den niedrigeren Werten.
Der Chi-Quadrat-Test wird hier nicht angewendet, da für einige Zellen der Erwartungwert kleiner als 5 ist (vgl. Bortz,1979, S. 179).
Wird der DiskussionsprozeB z.B. von einem Gruppenmitglied eindeutig dominiert, so ist es möglich, daß dies dem dominanten Mitglied nicht auffällt bzw. es dies nicht zugeben möchte, während die anderen beiden Gruppenmitglieder sich über diesen Sachverhalt im klaren sind. Wählen die beiden dominierten Mitglieder nun bei Item 9 - der Frage nach der Ausgeglichenheit der Diskussion - den Wert 2 (dieser Wert liegt nahe am Pol “sehr wenig ausgeglichen”), das dominierende Mitglied dagegen den “verzerrten” Wert 7, so nimmt bei Verwendung des Medians der Gruppenindikator den Wert 2 an, d.h. die individuelle Verzerrung - wenn man diese Tendenz so bezeichnen möchte - fällt nicht ins Gewicht. Bei Anwendung des arithmetischen Mittels dagegen nähme der Gruppenindikator den Wert 11/3 = 3.67 an, d.h. die Verzerrung macht sich hier stärker bemerkbar. Die Ergebnisse zur Beziehung zwischen Fragebogendaten und Problemlösegüte werden aber - wie spätere Analysen zeigten - durch die Wahl “Median vs. arithmetisches Mittel” kaum beeinflußt: Die Ergebnisse sind für beide Indikatoren sehr ähnlich.
Um eine etwaige ZusammenfaBbarkeit der Fragebogenitems aufzudecken, wurden Faktorenanalysen (Hauptkomponentenanalyse, Varimax-Technik) durchgeführt. Anhand der dabei erhaltenen Ladungen der Items auf den Faktoren ließ sich aber keine dimensionale Struktur erkennen. Dies spricht wie erwartet dafür (vgl. Abschnitt 3.42), daß diese Items weitgehend unterschiedliche Aspekte der Konsensbildung repräsentieren.
Hier liegt möglicherweise ein Rückkopplungs-Effekt vor: Vielleicht sind die Mitglieder aus den guten Gruppen deswegen mit den Gruppenentscheidungen mehr zufrieden, weil sie mit diesen Erfolg hatten (zu Rückkopplungseffekten s. auch Abschnitt 5.1).
Das average-deviation-Maß wurde hier den üblichen Streuungsmaßen der Varianz und der Standardabweichung vorgezogen. Gegenüber der Varianz hat es den Vorteil, daß es inhaltlich besser zu interpretieren ist (vgl. Bortz, 1979, S. 53–54 ). Die Standardabweichung berücksichtigt aufgrund der Quadrierung größere Abweichungen stärker als kleinere. Das average-deviation-Maß gewichtet dagegen jede Abweichung gleich, was für die Indikatorbildung adäquater erscheint, nicht zuletzt auch deswegen, weil so etwaige Ausreißer weniger stark ins Gewicht fallen.
Diese Regeln können im übrigen leicht auf einem Computer implementiert werden, was auf die Simulation von Gruppenentscheidungsprozessen hinausläuft.
Die Trefferquote einer Regel sagt natürlich als solche nichts darüber aus, ob die Anwendung dieser Regel zu guten Gewinn-oder Eigenkapitalwerten führt.
Letzteres ist einfach die Summe aus der Häufigkeit des Zutreffens der einzelnen Regeln (vgl. auch die Anmerkungen zu den Tabellen 7 und 8).
Diese Argumentation läßt sich in leicht abgewandelter Form auch auf Fälle übertragen, in denen, wie beim SEMI-Fragebogen, Daten nach der sechsten Periode durch Befragung erhoben und sodann mit dem EK5-Wert korreliert werden: Der EICH-Wert ist, wie in Abschnitt 3.2.3 beschrieben und begründet, das Kriterium für die langfristige Problemjösegüte einer Gruppe. Angesichts der sich ergebenden sehr hohen Korrelation zwischen EK5 und EK6 dürften die Ergebnisse im übrigen sowieso nicht davon abhängig sein, ob man mit EK5 oder EK6 korreliert.
Die Periodengewinne wurden entsprechend dem in Abschnitt 3.7 beschriebenen Vorgehen ermittelt.
Hierzu ein Beispiel: Der Gewinn mit der Gruppenentscheidung sei 200,000 DM, der Gewinn mit der Individualentscheidung von Gruppenmitglied A sei 250,000 DM, mit der von B sei 170,000 DM und mit der von C 100,000 DM. Damit ist der Synergie-Bonus nicht erreicht, denn die Entscheidung von A ist besser als die Gruppenentscheidung. Die Variable “Synergie-Bonus” erhält deswegen den Wert “null”. Der Rangplatz-Indikator nimmt den Wert “2” an, da die Gruppenentscheidung hinter der Entscheidung von A auf Rang 2 liegt. Nehmen wir nun an, daß A nur 180,000 DM erreicht hätte und alles andere gleich bliebe, so hätten wir einen Synergie-Bonus-Wert von “eins” und eine Ausprägung des Rangplatz-Indikators von “eins”.
In den McNemar-Test, der auch Chi-Quadrat-Test für den “significance of change” genannt wird, gehen folgende Werte ein: Fünf Gruppen haben sich in der Experimentalbedingung verschlechtert, d.h. ohne Intervention den Synergie-Bonus erreicht, mit Intervention dagegen nicht. Acht Gruppen bekamen weder in der Kontroll-noch in der Experimentalbedingung den Synergie-Bonus. Eine Gruppe erreichte in der Kontroll-und der Experimentalbedingung den Synergie-Bonus. Somit haben sich neun Gruppen weder verbessert noch verschlechtert. Sechs Gruppen haben sich schließlich in der Experimentalbedingung verbessert, d.h. ohne Intervention den Synergie-Bonus nicht erreicht, mit Intervention dagegen schon. Der McNemar-Test wurde mit der Kontinuitätskorrektur nach Yates berechnet (vgl. Bortz, 1979, S. 188 ).
Je niedriger der Rangplatz für die Gruppenentscheidung, desto besser schneidet die Gruppenentscheidung im Vergleich zu den Individualentscheidungen ab und desto höher ist deswegen die Gruppeneffektivität.
Die Berechnung der Periodengewinne erfolgt durch Eingabe der gemittelten Entscheidungen in das Simulationsmodell EPEX analog zu der in Abschnitt 3.7 beschriebenen Vorgehensweise.
Nach Steuern“ bedeutet, daß hier vom Periodengewinn schon die abzuführenden 56% Körperschaftssteuer abgezogen wurden. Der Periodengewinn nach Steuern ist bei EPEX identisch mit der Eigenkapitalveränderung.
Obwohl bei den gemittelten Entscheidungen nur 7 von 20 besser waren als die reale Gruppenentscheidung, weisen die gemittelten Entscheidungen aber dennoch ein höheres arithmetisches Mittel auf, da bei den Entscheidungen unter der Interaktionsbedingung eine besonders krasse Fehlentscheidungen auftrat (Gruppe 10).
Natürlich heißt das nicht, daß man nun die entsprechende Nullhypothese, die die Nichtunterlegenheit der Mittelwertbildung postuliert, annehmen darf. Hier bestände die Gefahr eines Fehlers zweiter Art (Beta-Fehler). Dennoch sollte man aber bedenken, daß die Teststärke für einen großen Effekt.93 beträgt (vgl. Abschnitt 3.2.4), d.h. wenn ein großer Effekt bestünde, dann wäre er hier mit einer Wahrscheinlichkeit von.93 signifikant geworden.
Bei der Diskussion der Politik der kleinen Schritte in Abschnitt 5.1 wird auf diesen Aspekt wieder zurückgekommen. Die Vermeidung des größtmöglichen Übels als rationales Entscheidungsprinzip liegt im übrigen bei streng formalisierbaren Problemen als Grundidee der sogenannten Minimax-Strategie zugrunde (vgl. Kirsch, 1977, S. 41 ).
Aufgrund der in Abschnitt 4.4 dargestellten Ergebnisse erscheint dieser Glaube durchaus seine Berechtigung zu haben.
Natürlich kann anhand der vorhandenen Daten nicht festgestellt werden, ob dieses mangelnde Vertrauen in die Diskussionsrichtlinien gleich beim ersten Durchlesen entstand, oder aber erst aus dem Diskussionsverlauf resultierte. In einer Folgeuntersuchung könnte man gezielt danach fragen, was nach der Meinung der Probanden der Grund für diese Negativeinschätzung der Richtlinien ist.
Viele Vorarbeiten wurden hier von Annegret Koch geleistet.
Die Diskussion dieser Gruppe wird in Abschnitt 5.1 genauer beschrieben.
Natürlich wäre hier eine Entscheidung nach Konsensprinzip zwischen Annegret Koch und mir vorzuziehen gewesen. Doch aus zeitlichen Gründen war dies nicht möglich. Für eine genaue Behandlung der Kategorisierungsprobleme vgl. Koch (1992).
Zur Erklärung dieses Sachverhaltes vergleiche Abschnitt 4.3.2.
Im Gegensatz zum Wilcoxon-Text werden beim Null-Differenzen-Test auch diejenigen Fälle berücksichtigt, bei denen die Differenz zwischen den beiden Messungen Null beträgt. Da Nulldifferenzen dem Gelten der statistischen Hi entgegenwirken, wird durch ihr Ausblenden beim Wilcoxon-Test die H1 ungerechtfertigterweise begünstigt. Dies wird beim Null-Differenzen-Test vermieden, da hier sämtliche Fälle in die Prüfgrößenberechnung eingehen (vgl. Bortz, 1979, S. 178). Der Null-Differenzen-Test wurde in der Variante für einen kleinen Stichprobenumfang (N = 10) und - da es drei Nulldifferenzen gibt - für einen relativ großen Anteil von Nulldifferenzen angewandt (vgl. Lienert, 1973, S. 328 ).
So vor allem die Vorgabe, daß in dieser Periode für DM 3,000,000 Rohstoffe zur Verfügung stehen. Zur Funktion dieser Regelung vgl. Abschnitt 3. 6.
Hier wird das arithmetische Mittel des oben beschriebenen Indikators für die Güte der Kompetenzwahrnehmung einer Gruppe berechnet.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 1992 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
Stumpf, S. (1992). Ergebnisse. In: Diskussionsprozeß und Gruppeneffektivität beim Lösen komplexer ökonomischer Probleme. Handeln und Entscheiden in komplexen ökonomischen Situationen, vol 4. Physica, Heidelberg. https://doi.org/10.1007/978-3-662-01614-5_4
Download citation
DOI: https://doi.org/10.1007/978-3-662-01614-5_4
Publisher Name: Physica, Heidelberg
Print ISBN: 978-3-7908-0635-9
Online ISBN: 978-3-662-01614-5
eBook Packages: Springer Book Archive