Zusammenfassung
In Hauptkapitel C. wurden die Anforderungen an konstruktionsbegleitende Kalkulationsmodelle für die Entscheidungsunterstützung der Verantwortlichen in der Konstruktion sowie in den ablauforganisatorisch vor- und nachgelagerten Funktionsbereichen vorgestellt. Die bekannten Modelle zur konstruktionsbegleitenden Kalkulation wurden im Anschluß daran auf die Erfüllung dieses Anforderungsprofils hin verifiziert, wobei als Ergebnis zu konstatieren war, daß eine Weiter- beziehungsweise Neuentwicklung der Modelle erforderlich ist.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
literatur
Das grundsätzliche Vorgehen bei der Problemstrukturierung und -lösung ist bei funktions-wie komponentenbezogener Betrachtung identisch. Ein Unterschied ist nur in bezug auf Art und Umfang des Dateninputs gegeben.
Zur weiterführenden begrifflichen Präzisierung der Dispositionsstufe und zur Abgrenzung von Dispositions-und Fertigungsstufen vergleiche auch Kapitel D.II.4.
Zur Notwendigkeit der güterpreislichen Adaption des Wertgerüsts vergleiche etwa Kilger [Plankostenrechnung] 773 ff.
Nachteilig ist bei der Einzelbefragung die geringe Zuverlässigkeit der Ergebniswerte, wesentlicher Vorteil ist neben der Schnelligkeit der geringe personelle Aufwand, womit die Einzelbefragung in der Praxis die am häufigsten eingesetzte Form der Expertenbefragung darstellt. Vgl. Kraus [Vorkalkulation] 201 f.
Bei der Mehrfachbefragung werden die Schätzungen aller Experten arithmetisch gemittelt oder das gewichtete arithmetische Mittel bestimmt, womit die Folgen der Fehlschätzung eines einzelnen Experten vermindert werden. Da die Experten unabhängig voneinander befragt werden, können gruppendynamische Einflüsse ausgeschlossen werden. Vgl. Ostwald [Management] 167 ff.
Bei Teamschätzungen werden die Schätzergebnisse in einer oder mehreren Sitzungen gemeinsam ermittelt, wobei aufgrund kontroverser Positionen der Experten die verschiedenen Aspekte eines Projekts differenzierter analysiert werden, wogegen betriebliche Abhängigkeitsverhältnisse das Schätzergebnis verfälschen. Vgl. Brockhoff [Prognoseverfahren] 81, Riedl [Projekt-Controlling] 86 f.
Beim Delphi-Verfahren soll im Verlauf mehrerer Schätzrunden und durch Informationsrückkopplung aufgrund der Verwendung der anonym gehaltenen Ergebnisse der Expertenschätzungen der jeweiligen Vorrunde sowie der Begründung eigener Abweichungen vom Durchschnittswert ein näherungsweise einheitliches Ergebnis herausgebildet werden. Vgl. Pfohl [Planung] 168 ff.
Eine analoge Problemstellung ergibt sich etwa auch bei der Bewertung komplexer Investitionsvorhaben. Vgl. Horvath [CIM] 51, Wildemann [Investitionsplanung] 33
Eine differenzierte Kennzeichnung der Wissensrepräsentation etwa bei Jarke [Systeme] 461 f.
Zur weiterführenden Darstellung der Zielvorstellung bei der Ausrichtung von Entscheidungstabellen vergleiche beispielsweise Whitten/Bentley/Barlow [Systems Analysis] 438 ff.
Als eine vierte Form wird in der Literatur die bedingungslose Entscheidungstabelle angeführt, wobei unabhängig von bestimmten Bedingungen Aktionen ausgelöst werden. Zur differenzierten Kennzeichnung verschiedener Formen von Entscheidungstabellen vergleiche Elben [Entscheidungstabellentechnik] 25 ff.
Zur weiterführenden Kennzeichnung grundlegender Anforderungen an die Wissensrepräsentation vergleiche beispielsweise Puppe [Einführung] 18 f.
vgl. Strunz [Entscheidungstabellentechnik] 76 ff.
Zur Diskussion der Anforderung der Vollständigkeit vergleiche insbesondere Bergmann [Entscheidungstabellen] 453 ff.
Die Forderung nach Effizienz beinhaltet damit auch die Eindeutigkeit der Entscheidungstabelle. Vergleiche weiterführend dazu etwa Eiben [Entscheidungstabellentechnik] 53 ff.
Semantische Netze sind gerichtete Graphen aus Knoten und Kanten, wobei Knoten allgemeine Sachverhalte abbilden und Kanten die Beziehungen zwischen den Knoten beschreiben. Bei der Verwendung semantischer Netze ist eine Vererbungshierarchie gegeben, d.h. alle übergeordneten Eigenschaften werden auch auf untere Objekte übertragen, weshalb sich diese Repräsentation insbesondere für Wissensgebiete mit stabiler Taxonomie anbietet. Weiterführend vergleiche dazu auch Harmon/King [Expertensysteme] 41 ff., Rich [KI] 232 ff., Waterman [Systems] 70 ff., Winston [Intelligence] 253 ff.
Frames sind Datenstrukturen zur Abbildung stereotyper Situationen. Frames werden vielfach nur als eine Gesamtheit von Knoten gesehen, welche zur Abbildung von Klassen verwendet werden. Weiterführend dazu vergleiche Puppe [Einführung] 29 ff.
Bei Produktionsregeln wird das Wissen in Wenn-Dann-Regeln transformiert. Produktionsregeln bestehen neben der Regel-oder Wissensbasis aus einer dynamischen Datenbasis sowie einem Kontroll-und Ableitungssystem. Vgl. Jarke [Systeme] 466 f.
Der Inhalt der Aussagen ist hierbei von nachrangigem Interesse ebenso wie Aussagen, denen kein Wahrheitswert zurechenbar ist. Vgl. Wedekind [Datenbanksysteme I] 131 f.
vgl. Elben [Entscheidungstabellentechnik] 14 ff.
Zur weiterführenden Kennzeichnung der begrifflichen Abgrenzung der Aussagenverknüpfungen vergleiche Tietze [Wirtschaftsmathematik] 6 ff.
Die konjunktive Aussage wird formal auch folgendermaßen beschrieben: A ∧ B
Die disjunktive Aussage wird formal wie folgt abgebildet: A ∨ B
Subjunktive Aussagen werden wie folgt abgebildet: A → B
Die Implikation wird wie folgt dargestellt: A(x) ⇒ B(x)
Die Aquivalenz von Aussagen kann auch folgendermaßen abgebildet werden: A(x) ⇔ B(x)
vgl. im folgenden Elben [Entscheidungstabellentechnik] 31 ff.
Zur weiterführenden Kennzeichnung dieser Normalformen vergleiche insbesondere Hilbert/Ackermann [Logik] 34 ff.
Die disjunktive Normalform besagt, daß Aussagen innerhalb einer Klammer durch Konjunktion und Negation verbunden sind, während außerhalb der Klammer nur eine Disjunktion vorliegt.
vgl. Bibel [Knowledge] oder Schefe [Knowledge]
Zur inhaltlichen Abgrenzung von Aussagen-und Prädikatenlogik vergleiche beispielsweise Brewka [Wissensrepräsentation] 17 ff. oder Wedekind [Datenbanksysteme I] 134 ff.
Wissensbasierte Systeme bestehen nach Neumann aus drei Komponenten: dem Ablaufschema mit seiner Problemlösungsstrategie, dem eigentlichen Wissen und den Daten. Wissensbasierte Systeme werden auch als Expertensysteme oder Intelligent Decision Support Systems bezeichnet, wobei diese schwer verfügbare Experten ersetzen sollen. Vgl. Kurbel [Entwicklung] 17 ff.
vgl. Mertens [Expertensysteme] 19 ff., Nonhoff [Entwicklung] 106
Eine weiterführende inhaltliche Präzisierung und Diskussion der Zweckeignung dieser Schlußfolgerungsverfahren etwa bei Weller [Expertensysteme] 45 ff.
Zur Umsetzung der Prädikatenlogik mit dem Programmsystem PROLOG vergleiche Rich [Intelligence] 86 ff.
vgl. Perl [Graphentheorie] 16
vgl. Bamberg [Entscheidungsbaumverfahren] 887
vgl. Perl [Graphentheorie] 17
vgl. auch Kapitel D.I.1.
vgl. Scheer [Wirtschaftsinformatik] 129 f.
vgl. Schweitzer [Fertigungswirtschaft] 672 ff.
vgl. Serfling/Schulze [Target Costing] 29 ff.
vgl. etwa Schweitzer/Küpper [Systeme] 662 ff.
vgl. Gleich [Target Costing] 76 ff., Seidenschwarz [Target Costing] 70 ff.
Dellmann/Franz [Kostenmanagement] 17
Eine ähnliche Gedankenführung verwenden auch Hahn [Target Costing] 110 f., Horvath/Niemand/ Wolbold [Target Costing] 4, Monden/Hamada [Target Costing] 17 f.
vgl. kritisch dazu Schweitzer/Küpper [Systeme] 76.
vgl. weiterführend beispielsweise Seidenschwarz [Target Costing] 6 ff.
Zur produktionstheoretischen Fundierung von Kostenrechnungssystemen vergleiche Schweitzer/ Köpper [Systeme] 82 f.
Die Drifting Costs sind die Kosten, welche unter Beibehaltung der unternehmungsbezogenen Techniken im Rahmen des Leistungserstellungsprozesses für ein bestimmtes Endprodukt anfallen.
vgl. Schweitzer/Küpper [Systeme] 662
Eine solche Kombination ist etwa Into and out of Competitor, welche eine Mischform der beiden Ansätze „Market into Company“ und Out of Competitor” darstellt und durch Informationsaustausch Forderungen des Marktes und Möglichkeiten der Unternehmung gegenüberstellt. Vgl. Seidenschwarz [Target Costing] 115 ff. oder Serfling/Schultze [Target Costing] 33.
vgl. Seidenschwarz [Target Costing] 127 ff.
vgl. Peemöller [Zielkostenrechnung] 377
vgl. Seidenschwarz [Kostenmanagement] 199
Im einzelnen vergleiche dazu Hahn [Target Costing] 110 oder Heßen/Wesseler [Zielkostensteuerung] 149
Eine differenziertere Aussage zu der Frage, welcher Wert aus diesem Intervall genau verwendet werden soll, ist in der Literatur zwar etwa mit der Hälfte der Differenz von zulässigen Kosten und „Drifting Costs“ angegeben, eine wissenschaftlich fundierte Begründung für die Wahl eines bestimmten Zielkostenwerts ist jedoch nicht erkennbar. Zur Berechnung der Zielkosten vergleiche auch Seidenschwarz [Target Costing] 117 f.
In der Literatur wird trotzdem die These vertreten, daß bei fragmentarischer Kenntnis der Produkteigenschaften ein Zielpreis als Fixpunkt für die weitere Produktentwicklung anzugeben ist. Vergleiche insbesondere Seidenschwarz [Kostenmanagement] 200 f.
vgl. Franz [Target Costing] 125
Zur Problematik der Ermittlung entscheidungsorientierter Kosteninformationen unter Verwendung des Target Costing vergleiche beispielsweise Klingler [Target Cost Management] 201 f.
Zur Präzisierung des Begriffs der Kostenspaltung sowie zur Analyse verschiedener Verfahren der Kostenspaltung vergleiche Troßmann [Kostenspaltung] 333 ff.
Für die Kennzeichnung der einzelnen Verfahren vergleiche ebenda 334.
vgl. Franz [Target Costing] 125 ff., Schweitzer/Köpper [Systeme] 668, Tanaka [Cost Planning] 56 ff.
vgl. Tanaka [Design] 52
vgl. Horväth/Niemand/Wolbold [Target Costing] 13. In der Literatur wird dabei zwischen verschiedenen Klassen von Produktfunktionen differenziert, so z. B. zwischen objektiven Funktionen, die etwa aus bestimmten technischen Komponenten zwingend resultieren, und subjektiven Funktionen, welche durch die Entscheidungsträger bestimmt werden wie das äußere Erscheinungsbild oder die Benutzerfreundlichkeit. Zur weiterführenden Darstellung der verschiedenen Systematisierungsansätze vergleiche Gierse [Wertanalyse] 19 ff. oder Tanaka [Cost Planing] 56.
vgl. Niemand [Zielkostenmanagement] 121.
Zur differenzierten Darstellung der verschiedenen Verfahren der Conjoint-Analyse vergleiche insbesondere Green/Srinivasan [Conioint Analysis] 9 ff. und [Research] 103 ff., Schubert [Produktkonzeptentwicklung] 137 f.
Für die Kennzeichnung eines solchen Referenzmodells vergleiche Gaiser/ Klinger [Target Costing] 66 f.
Modellrechnungen mit Gemeinkostenschlüsselungen auf Komponentenebene wurden beispielsweise von Horvâth/Niemand/Wolbold [Target Costing] 10 ff., Müller/Wolbold [Target Costing] 132 oder Niemand [Target Costing] 330 vorgestellt.
vgl. beispielsweise Serfling/Schulze [Target Costing] 35 oder Tanaka [Cost Planning] 60 ff.
vgl. Horvdth/Niemand/Wolbold [Target Costing] 13 ff., Monden/Hamada [Target Costing] 22 ff.
vgl. auch Kapitel D.1.1.1)
vgl. Becker/Prischmann [Konstruktionsunterstützung] 18 oder Kiewert [Kostenfrüherkennung] 367 f.
vgl. insbesondere Friedl [Kostenplanung] 512, Kiewert [Kostenfrüherkennung] 369 f., Schweitzer/ Friedl [Konstruktion] 1119
Die Problematik der begrifflichen Präzisierung der Ähnlichkeit sowie ihrer numerischen Erfassung wurde bereits in Kapitel B.l.1.diskutiert.
vgl. Kiewert [Kostenfrüherkennung] 360, Klasmeier [Kostenermittlung] 63 f., Rothenbücher [Kostenprognose] 53 ff., Schweitzer/Friedl [Konstruktion] 1118
Im folgenden werden in Anlehnung an die Literatur die Begriffe Komponentenklasse und -familie synonym verwendet. Es handelt sich hierbei um Komponenten, welche möglichst gleiche, geometrisch und technisch begründete Kostenabhängigkeiten aufweisen. Vgl. Gröner [Vorkalkulation] 199 f.
vgl. Deimer [Clusteranalysemethoden] 13 f.
vgl. Steinhausen/Langer [Clusteranalyse] 25
Eine weiterführende Kennzeichnung der Einteilungsmöglichkeiten multivariater Analyseverfahren etwa bei Buttler [Verfahren] 597 ff. oder Deimer [Clusteranalysemethoden] 15.
Die Datenreduktion kann auf zweierlei Wegen realisiert werden: zum einen durch Zusammenfassung ähnlicher Objekte zu Clustern, zum anderen durch Senkung der Variablenzahl mittels der Faktorenanalyse. Ausgehend von der Vielzahl bestehender ähnlicher - als auch durch hohe Konzentration zwischen den Variablen gekennzeichneter - Einflußgrößen sind mittels Faktorenextraktion möglichst wenige, stochastisch unabhängige Faktoren zu bilden, welche wiederum für mehrere dieser ähnlichen Variablen stehen. Der Unterschied zur Clusteranalyse besteht also nicht nur im Analysegegenstand, sondern auch darin, daß die Faktorenanalyse stochastische Unabhängigkeit der Faktoren von vornherein bedingt, während die Clusteranalyse die Bildung ähnlicher Gruppen anstrebt. Bei der Faktorenanalyse besteht zudem meist eine Korrelation zwischen Variablen und mehreren Faktoren, während bei der Clusteranalyse ein Objekt genau einem Cluster zugeordnet wird. Vgl. Bergs [Clusteranalysen] 7 f. Zur Kennzeichnung der Faktorenanalyse vergleiche insbesondere Hartung/ Elpelt/Klösener [Statistik] 545, Karson [Methods] 225 ff., Ritsert/Stracke/ Heider [Grundzüge] 90 ff, Oberla [Faktorenanalyse] 50 ff., Young/Calvert [Classification] 224 ff.
Zur Stellung der Clusteranalyse innerhalb multivariater Analyseverfahren vergleiche z.B. Bergs [Clusteranalysen] 2 ff., Eckes/Roßbach [Clusteranalysen] 23 ff., Lebart/Morineau/Warwick [Analysis] 1 ff., Steinhausen/Langer [Clusteranalyse] 25 ff.
vgl. Bock [Klassifikation] 14 f., Duran/Odell [Analysis] 1 f., Kaufmann/Pape [Clusteranalyse] 371, Lebart/Morineau/Warwick [Analysis] 110 f., Stahl [Clusteranalyse] 1 ff., Steinhausen/Langer [Clusteranalyse] 14
vgl. Backhaus u. a. [Analysemethoden] 116
Die Merkmale können nominal, ordinal, intervall oder metrisch skaliert sein; insbesondere bei Nominalskalierung besteht zum einen das Problem Mehrfachnennung von Merkmalen, zum anderen können binäre Variablen auftreten, welche einfachalternativ - sofern beide Realisationsmöglichkeiten als gleichwertig informativ anzusehen sind - oder dichotom - falls eine Realisationsmöglichkeit einen höheren Informationsgehalt als die andere aufweist - sind.
vgl. Everitt [Cluster Analysis] 9 ff.
Zur weiterführenden Kennzeichnung der Distanzmaße und ihrer Axiome vergleiche etwa Deimer [Clusteranalysemethoden] 31 ff., Kaufmann/Pape [Clusteranalyse] 374 f. oder Vogel [Klassifikation] 79 ff.
Zur formalen Definiton von Ähnlichkeiten und Distanzen vergleiche beispielsweise Bergs [Cluster-
Die Ahnl chkeitsrelationen [Clusteranalyse] werden durch verschiedene Axiome wie etwa Identität oder Symmetrie eingeschränkt. Vgl. dazu insbesondere Bergs Clusteranalysen] 20 oder Steinhausen/Langer [Clusteranalyse] 51
Sofern keine binäre Merkmalsstruktur vorliegt, also mehr als zwei (r>2) Kategorien existieren, kann r in binäre Variablen in der Weise zerlegt werden, daß der Kategorie s der Wert 1 und allen anderen Kategorien (s-1) der Wert 0 zugeordnet wird, was gegebenenfalls mit Verzerrungen der Auswertung verbunden sein kann. Zur weiterführenden Diskussion dieser Problemstellung vergleiche beispielsweise Steinhausen/Langer [Clusteranalyse] 53 ff.
Entnommen aus Bock [Klassifikation] 49
vgl. Backhaus u.a. [Analysemethoden] 119
Als Transformationsansatz sind hierbei exemplarisch die Dichotomisierung und die binäre Codierung bei der Klassenbildung zu nennen. Vgl. Wördenweber [Datensätze] 72 ff.
Bei der Klassenbildung mit binärer Codierung ergibt sich zum einen das Problem der Wahl der Klassenspanne, zum anderen ist mit steigender Klassenzahl eine stärkere Gewichtung des entsprechenden Merkmals verbunden. Für eine differenzierte Diskussion dieser Problemstellung vergleiche beispielsweise Backhaus u.a. [Analysemethoden] 131.
Der Unterschied bei der Berechnung der Standardabweichung von einer Urliste gegenüber einer Zufallsstichprobe ist jedoch nicht von zentraler Bedeutung, weil sämtliche Variablen in gleicher Weise davon betroffen sind und daraus keine Veränderung der Gewichtung resultiert. Vgl. Schaich [Schätzmethoden] 46 f.
Zur Kennzeichnung weiterer Normierungstechniken vergleiche beispielsweise Bergs [Clusterana-lyse] 59 ff.
Eine Untersuchung zur Auswirkung der Normierung der Datensätze auf das Endergebnis sowie eine kritische Diskussion der Aussagefähigkeit von Normierungstechniken etwa bei Vogel [Klassifikation] 105 ff.
Zur Kennzeichnung weiterer Einteilungsmöglichkeiten sowie zur kritischen Analyse der Algorithmen zur Gruppenbildung vergleiche beispielsweise Backhaus u.a. [Analysemethoden] 133 ff., Eckes/ Roßbach [Clusteranalysen] 53 ff., Everitt [Cluster Analysis] 23 ff., Lebart/Morineau/Warwick [Analysis] 117 ff., Steinhausen/Langer [Clusteranalyse] 69 ff.
Für die weiterführende Charakterisierung dieser Methoden vergleiche Bergs [Clusteranalyse] 19 ff.
vgl. Kaufmann/Pape [Clusteranalyse] 408 ff.
vgl. Vogel [Klassifikation] 133 f.
Zur weiterführenden Analyse hierarchischer Verfahren vergleiche Bock [Klassifikation] 359 ff.
vgl. Späth [Cluster-Analyse-Algorithmen] 147 ff.
vgl. Backhaus u.a. [Analysemethoden] 134
Beim Ward-Verfahren wird beispielsweise das Elbow-Kriterium verwendet, bei dem sowohl die Fehlerquadratsumme als auch die Anzahl der Cluster in das Entscheidungskalkül einbezogen werden. Vgl. ebenda 147
Für eine über die folgende Charakterisierung und Interpretation hinausgehende Behandlung hierarchisch agglomerativer Clusteralgorithmen vergleiche Backhaus u.a. [Analysemethoden] 137, Bergs [Clusteranalyse] 27 ff., Steinhausen/Langer [Clusteranalyse] 76 ff., Vogel [Klassifikation] 293 ff.
Ein Dendrogramm dient zur Abbildung der Hierarchie von Clustern und ist durch Knoten und Kanten gekennzeichnet; die Knoten bis zu dem Endknoten stellen die Folge von Fusionen von Objekten und Subklassen dar. Zur weiterführenden Kennzeichnung von Dendrogrammen vergleiche zum Beispiel Eckes/Roßbach [Clusteranalysen] 64, Vogel [Klassifikation] 237 ff.
Die global optimale Partition wäre durch eine vollständige Enumeration bestimmbar, dies scheitert jedoch aufgrund der großen Anzahl zulässiger Partitionen. Vgl. Bock [Klassifikation] 110
vgl. Stahl [Clusteranalyse] 166
vgl. Backhaus u.a. [Analysemethoden] 154 ff.
Bei der Datenverarbeitung in Zusammenhang mit der Clusteranalyse wurde das Programm SPSS Version 3.0 eingesetzt.
vgl. Späth [Cluster-Analyse-Methoden] 162 ff.
Die in Abb. 30 angeführte laufende Nummer eines Konstruktionsobjekts wird auch als Case bezeichnet.
vgl. Vogel [Klassifikation] 350 ff.
vgl. Everitt [Cluster Analysis] 59 ff.
vgl. Lebart/Morineau/Warwick [Analysis] 77 ff.
Damit verbunden ist die Frage, ob eine derartige Einteilung durchweg zweifelsfrei vorgenommen werden kann, da zwischen den Variablen nicht nur einseitige und eindeutige Beziehungen existieren können. Die Basis für eine solche Differenzierung zwischen Ursache und Wirkung kann die Korrelationsanalyse bilden, welche überprüft, ob ein Zusammenhang zwischen den Variablen besteht. Zur weiterführenden Diskussion dieser Problemstellung vergleiche z. B. Hartung/Elpelt/ Klösener [Statistik] 545 ff. oder Sachs [Statistik] 298 ff.
Zur weiterführenden Kennzeichnung dieser Testverfahren vergleiche etwa Fröhlich/Becker [Forschungsstatistik] 480 ff. oder Rinne [Ökonometrie] 83 ff. Diese Methoden finden zum Teil auch bei der Prüfung auf Heteroskedastizität oder Multikollinearität Anwendung.
Die Berechnung der Regressionsfunktion hat zum Ziel, die Datenpaare (x;, y;) möglichst nahe um die Regressionsgerade anzuordnen. Als Verfahren können neben der Kleinsten-Quadrate-Methode die Umkehrregression, die orthogonale Regression sowie die Methode der absoluten Ordinatendifferenzen eingesetzt werden. Weiterführend dazu Heil [Ökonometrie] 28 ff., Huang [Regression] 149 f., Graybill [Theory] 275 ff., Schneeweiß [Ökonometrie] 51 ff., Schönfeld [Methoden] 23 ff.
Die Residualgröße e; ergibt sich aus der Differenz zwischen dem Beobachtungswert y; und dem geschätzten Regressionswert 9, für die abhängige Variable. Zum Begriff der Residualgröße vergleiche Schneeweiß [Ökonometrie] 42 oder Schönfeld [Methoden] 22.
Die Regressionsparameter sind b0 und b1, yi beziehungsweise xi und stellen die Beobachtungswerte für die abhängige bzw. unabhängige Variable dar. Es gilt damit Bei der einfachen Regressionsanalyse wird dabei der Parameter b1 des Regressors wie folgt ermittelt: Für den konstanten Regressionsparameter bo ergibt sich Zur weiterführenden Diskussion über das Formelwerk vergleiche insbesondere Rinne [Ökonometrie] 61 ff. und Schaich/Brachinger [Ökonometrie] 22 ff.
Das Bestimmtheitsmaß kann mit folgender Formel berechnet werden: Vgl. Backhaus u.a. [Analysemethoden] 13 ff.
Ein Wert von 0,95 besagt damit, daß die Gesamtstreuung zu 95% auf die erklärende Variable zurückgeht, während 5% der Streuung auf nicht erfaßte Einflüsse zurückzuführen sind.
Es handelt sich bei dem Beta-Wert um einen standardisierten Regressionskoeffizienten, für den gilt: Unterschiedliche Vorzeichen erweisen sich bei der Interpretation des Beta-Werts als im weiteren nicht entscheidungsrelevant. Aufgrund der Standardisierung kommt es zu einer Elimination der unterschiedlichen Dimensionen der Variablen. Bei der Durchführung der Regressionsanalyse mit standardisierten Daten würden Regressionskoeffizienten und Beta-Werte übereinstimmen, da der Quotient der Standardabweichungen von X; und Y eins und damit Beta; also gleich dem Regressionskoeffizienten b; wäre. Weiterführend dazu vergleiche z.B. Backhaus [Analysemethoden] 19 f.
Das bei der folgenden Untersuchung verwendete Programmsystem SPSS wählt als erste Variable diejenige heraus, welche die höchste Korrelation mit der abhängigen Variablen aufweist. In der nächsten Stufe wird dann die Variable mit der zweithöchsten Korrelation verwendet. Die Kernproblematik besteht darin, daß der Entscheidungsträger als Lösung nicht die Optimallösung erhalten muß, sondern das System eine Näherungslösung liefert. Vgl. Schubö u. a. [Handbuch] 557 f.
Für weiterführende Hypothesenprüfungen vergleiche Huang [Regression] 90 ff. oder Hübler [Ökonometrie] 57 ff.
Der F-Wert ergibt sich aus: Das Bestimmtheitsmaß der Stichprobe ist dabei r2, Z ist die Anzahl der Regressoren (also der erklärenden Variablen), Nder Stichprobenumfang, die Differenz (N-Z-1) gibt die Zahl der Freiheitsgrade an. Zur Kennzeichnung und Diskussion dieser Testmethodik vergleiche z. B. Graybill [Theory] 381 ff.
Ein multiplikativer Effekt wäre beispielsweise ein solcher Spezialfall des nicht-additiven Modells. Vgl. Namboodiri/Carter/Blalock [Analysis] 172 ff.
Zum Begriff der Multikollinearität vergleiche Assenmacher [Statistik] 136 oder Hübler [Ökonometrie] 85 ff.
vgl. Schaich/Brachinger [Ökonometrie] 134
vgl. Huang [Regression] 153 f.
Die Toleranz als Multikollinearitätsmaß wird folgendermaßen bestimmt: Als Extremwerte ergeben sich 0 und 1, wobei 0 bedeutet, daß sich die Variable xj als Linearkombination der anderen unabhängigen Variablen darstellen Läßt. Vergleiche Hübler [Ökonometrie] 97.
Klein hat daher ein Maß entwickelt, ab wann Multikollinearität problematische Auswirkungen mit sich bringt, und zwar wenn der multiple Gesamtkorrelationskoeffizient kleiner als der totale Korrelationskoeffizient Für zwei Regressoren ist. Vgl. Klein [Ökonometrie] 89 f.
Als Verfahren zur Reduktion von Multikollinearität werden die Variablenunterdrückung, die Lineartransformation der exogenen Variablen oder die Aufnahme zusätzlicher externer Information aufgeführt. In diesem Zusammenhang ist weiterführend auf die Fallspezikikation als Sonderproblem wegen der falschen exogenen Variablen oder die Nichtberücksichtigung aller relevanten Variablen zu verweisen. Vgl. Schaich/Brachinger [Ökonometrie] 134 ff.
Zur Kennzeichnung der Autokorrelationsprüfung mit dem Durban/Watson-Test und anderen Verfahren vergleiche etwa Assenmacher [Ökonmetrie] 143, Heil [Ökono-metrie] 161 ff. Oder Schnitzler/Dalichow/Krieger [Methoden] 165.
Für die regressionsanalytische Datenauswertung wurde das Programm SPSS Version 3.0 eingesetzt.
vgl. Backhaus [Analysemethoden] 19 f.
Vgl. Troßmann [Grundzüge] 68 ff.
Zur weiterführenden Darstellung der Teilaufgaben der Fertigungsplanung vergleiche insbesondere Schweitzer [Fertigungswirtschaft] 678 ff. oder Troßmann [Fertigungsvorbereitung] 245 ff.
vgl. Schweitzer [Fertigungswirtschaft] 680
Eine weiterführende Kennzeichnung der computergestützten Techniken wie CAP, CAM oder CAQ kann etwa Kargl [Datenverarbeitung] 1056 ff. oder Scheer [Wirtschaftsinformatik] 278 ff. entnommen werden.
vgl. dazu auch Gröner [Kalkulkation] 196 f.
Ein in der Wissenschaft besonders weit entwickeltes Integrationsmodell ist das ABIS-Modell nach Scheer, was jedoch bisher nur teilweise etwa mit den Materialwirtschafts-oder Kostenrechnungsteilmodulen von SAP umgesetzt wurde. Vgl. Scheer [Wirtschaftsinformatik] 4 ff.
vgl. Sinzig [Rechnungswesen] 10 f.
vgl. Scheer [Wirtschaftsinformatik] 4 ff.
vgl. dazu etwa Hansen [Wirtschaftsinformatik] 494 ff.
vgl. Troßmann [Finanzplanung] 465
vgl. Mertens u.a. [Wirtschaftsinformatik] 62
Die Verwendung der (min, max)-Notation dient dabei zur Angabe von Unter-beziehungsweise Obergrenzen für die Zahl der Beziehungsausprägungen (Kardinalitäten). Für die weiterführende Kennzeichnung der (min,max)-Notation vergleiche insbesondere Webre [Entity-Relationship Model] 193.
vgl. Scheer [Wirtschaftsinformatik] 33
vgl. Becker [CIM-Integrationsmodell] 192 ff.
Zur weiterführenden Charakterisierung der verschiedenen Integrationsstufen vergleiche im besonderen Becker [CIM-Integrationsmodell] 166 ff.
Rights and permissions
Copyright information
© 1997 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Eisinger, B. (1997). Konzeption einer konstruktionsbegleitenden Kalkulation bei Einzelfertigung. In: Konstruktionsbegleitende Kalkulation. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08650-5_4
Download citation
DOI: https://doi.org/10.1007/978-3-663-08650-5_4
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-6498-2
Online ISBN: 978-3-663-08650-5
eBook Packages: Springer Book Archive