Advertisement

Entwicklung eines Verfahrens zur Kapazitätsabstimmung in homogenen Arbeitsgruppen

  • Manfred Hüser
Part of the IPA-IAO Forschung und Praxis book series (IPA, volume 279)

Zusammenfassung

Ausgangspunkt der Entwicklung eines Verfahrens zur Kapazitätsabstimmung ist die Bildung eines Modells des Gegenstandsbereiches. Nachfolgend wird zunächst das betrachtete Arbeitssystem beschrieben, um darauf aufbauend die Eingangsgrößen der Abstimmungsfunktion darzustellen.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 1.
    Der im Sinne von Abschnitt 2.1 benutzte Begriff Werkstoff steht hier für alle Gegenstände, die im Arbeitssystem einem Fertigungsverfahren (vgl. DIN 8580) unterworfen werden. Hierunter fallen somit auch Vorprodukte, die bereits ein vorgelagertes Arbeitssystem inner- oder außerhalb des Unternehmens durchlaufen haben.Google Scholar
  2. 1.
    Vgl. Abschnitt 2.3.Google Scholar
  3. 1.
    Vgl. Abschnitte 3.3.1 und 4.3.1.Google Scholar
  4. 2.
    Vgl. REFA 1997, S. 440ff. sowie Abschnitt 4.3.2.Google Scholar
  5. 3.
    Nicht verwechselt werden darf der Zeitgrad mit dem Leistungsgrad, der bei einer Zeitdatenaufnahme die beobachtete Zeit ins Verhältnis zu einer vorgestellten Bezugszeit setzt und damit subjektiven Einflüssen unterliegt (vgl. REFA 1997, S. 125ff.).Google Scholar
  6. 4.
    Insofern ist dieser Ansatz robust gegenüber Ungenauigkeiten bei den Rückmeldungen über fertiggestellte Aufträge (vgl. Abschnitt 3.2.2).Google Scholar
  7. 1.
    Neben der hier behandelten Modellbildung im Zeitbereich ist eine solche im Frequenzbereich möglich, welche eine Zeitreihe als Überlagerung harmonischer Schwingungen darstellt. Beide Ansätze können ineinander überfuhrt werden und sind insofern gleichwertig (vgl. Schlittgen 1995, S. 155ff.; S. 353ff.). Zweckmäßig ist eine Betrachtung im Frequenzbereich jedoch nur bei Vorgängen mit deutlicher Periodizität. Da dies für den dynamischen Zeitgrad nicht gegeben ist, beschränkt sich diese Arbeit auf die Modellbildung im Zeitbereich.Google Scholar
  8. 2.
    Eine signifikante Korrelation zwischen Produktivitätskenngrößen verschiedener Arbeitsgruppen ließ sich in Untersuchungen des Autors nicht feststellen.Google Scholar
  9. 3.
    Abhängig vom damit verfolgten Zweck kann die zyklische Komponente in einen regelmäßigen Anteil („Saison“) und einen unregelmäßigen Anteil („Konjunktur“) untergliedert werden.Google Scholar
  10. 1.
    Das Vorliegen einer signifikanten Trendkomponente läßt sich durch Testverfahren überprüfen (vgl. Härtung 1998, S. 247ff.).Google Scholar
  11. 2.
    Zu gleitenden Durchschnitten und Differenzenfiltern vgl. Schlittgen 1995, S. 35ff.Google Scholar
  12. 1.
    Vgl. Abschnitt 4.2.1. Die Bezeichnung exponentielle Glättung erklärt sich dadurch, daß die Gewichte der zurückliegenden Beobachtungen exponentiell abnehmen.Google Scholar
  13. 2.
    Residuen sind die Abweichungen zwischen (in diesem Fall durch Anwendung der exponentiellen Glättung) geschätzten und tatsächlichen Werten.Google Scholar
  14. 3.
    Vgl. Abschnitt 4.2.1.Google Scholar
  15. 4.
    Eine umfassende Darstellung findet sich in Box 1994.Google Scholar
  16. 1.
    Ein solcher Zufallsprozeß wird auch als White-Noise-Prozeß bezeichnet.Google Scholar
  17. 1.
    Ein Differenzenfilter transformiert eine Zeitreihe durch Bildung der Differenz zweier benachbarter Zeitreihenwerte.Google Scholar
  18. 2.
    Ein schwach stationärer Prozeß zeichnet sich dadurch aus, daß Erwarrungswert und Kovarianzen invariant gegenüber Zeitverschiebungen sind.Google Scholar
  19. 3.
    Vgl. Fieger 1995, S. 97ff.Google Scholar
  20. 4.
    Die Autokorrelationsfunktion beschreibt die Abhängigkeit zwischen den Werten einer Zeitreihe und deren Vorgängern. Bei der partiellen Autokorrelationsfunktion werden nur die unmittelbaren, d. h. nicht über Zwischenwerte der Zeitreihe vermittelten Zusammenhänge dargestellt (vgl. Schlittgen 1995, S. 194ff.).Google Scholar
  21. 5.
    Nach Empfehlungen von Box und Jenkins sollen dabei Modelle mit wenigen Parametern bevorzugt werden („Principle of Parsimony“, vgl. Box 1994, S. 16). Erfahrungen des Autors zeigen, daß dies fur Zeitreihen des dynamischen Zeitgrades in der Regel möglich ist.Google Scholar
  22. 6.
    Vgl. SBSS 1997, S. 46; Melard 1984.Google Scholar
  23. 7.
    Die Berechnungsvorschriften für die aufgeführten Kriterien sind aufgeführt in Schlittgen 1995, S. 335. Neben den Residuen werten diese Kriterien auch die Komplexität des Modells aus und berücksichtigen damit das „Principle of Parsimony“.Google Scholar
  24. 1.
    Hiermit wird eine Überanpassung des Modells vermieden, welche zu einer schlechten Übereinstimmung neuer Datensätze mit dem gewählten Modell führt.Google Scholar
  25. 2.
    Vgl. Abschnitt 4.2.1.Google Scholar
  26. 1.
    Trendanalysen stützen sich auf eine Komponentenzerlegung der Zeitreihe, welche mittels linearer oder nichtlinearer Funktionen beschrieben wird. Der Einsatzbereich liegt bei einem mittel- bis langfristigen Prognosehorizont.Google Scholar
  27. 2.
    Vgl. Abschnitt 6.3.1.Google Scholar
  28. 3.
    Im weiteren als Einschrittprognose bezeichnet. Bei größerem Prognosehorizont spricht man von Mehr-schrittprognosen.Google Scholar
  29. 4.
    Vgl. Holt 1957.Google Scholar
  30. 5.
    Vgl. Winters 1960.Google Scholar
  31. 6.
    Zur Berechnungsvorschrift des Holt-Winters-Verfahrens vgl. Schlittgen 1995, S. 48ff.Google Scholar
  32. 7.
    Eine Mehrschrittprognose ist hier identisch mit der Einschrittprognose, wie sich aus der Berechnungs-vorschrift eindeutig ergibt.Google Scholar
  33. 8.
    Vgl. Montgomery 1976, S. 157f. Der Herleitung liegt die Annahme normalverteilter Residuen zugrunde. Das Verfahren ist aber robust gegenüber Abweichungen von dieser Annahme.Google Scholar
  34. 1.
    Die Werte sind vertafelt (vgl. Bronstein 1981, S. 71 f.).Google Scholar
  35. 2.
    Die Irrtumswahrscheinlichkeit ist die Wahrscheinlichkeit, mit der der Prognosewert nicht in das ermittelte Intervall fällt. Oft wird auch als Komplementärgröße der Irrtumswahrscheinlichkeit die statistische Sicherheit angegeben.Google Scholar
  36. 3.
    Empirische Momente erster und zweiter Ordnung sind das arithmetische Mittel und die Standardabweichung.Google Scholar
  37. 4.
    Vgl. Sachs 1997, S.366ff.Google Scholar
  38. 1.
    Eine Zeitreihe ist streng stationär, wenn die gemeinsame Verteilungsfunktion ihrer Werte invariant gegenüber Zeitverschiebungen ist (vgl. Schlittgen 1995, S. 104). Zum Begriff der schwachen Stationa-rität vgl. Abschnitt 6.3.2.Google Scholar
  39. 2.
    Der Index h bezeichnet den Prognosehorizont. Für die Einschrittprognose gilt h=l.Google Scholar
  40. 1.
    Ein stochastischer Prozeß ist ein Normalprozeß, wenn für jede endliche Auswahl von Zeitpunkten die Zufallsvariablen multivariat normalverteilt sind (vgl. Schlittgen 1995, S. 99). Verfahren zur Überprüfung des Vorliegens einer Normalverteilung sind beschrieben in Sachs 1997, S. 146f. und S. 422ff. Die Konfidenzintervalle bei der Prognose von Zeitreihen sind jedoch unempfindlich gegenüber einer Verletzung der Normalverteilungsannahme (vgl. Härtung 1998, S. 693).Google Scholar
  41. 2.
    Vgl. Härtung 1998, S. 693.Google Scholar
  42. 1.
    Der Begriff Zeitfortschritt im Sinne dieser Definition ist abzugrenzen von der Fortschrittszeit, die den Zeitraum zwischen dem Beginn einer Zeitaufnahme und dem Endereignis eines Ablaufabschnittes angibt (vgl. REFA 1997, S. 86).Google Scholar
  43. 1.
    Das Attribut „diskret“wird der Einfachheit halber in den nachfolgenden Betrachtungen nicht mehr mitgefühlt.Google Scholar
  44. 2.
    Zum Fortschrittszahlenprinzip vgl. Abschnitt 4.2.2.Google Scholar
  45. 3.
    Vgl. die Ausführungen zum Trichtermodell in Abschnitt 4.2.2.Google Scholar
  46. 1.
    Auf eine Darstellung des hierbei anzuwendenden Formelwerkes wird verzichtet, weil dieses sich nur in der betrachteten Variablen von den Prognoseverfahren für (DZt) unterscheidet.Google Scholar
  47. 2.
    Der exakte Verlauf bei einem kontinuierlichen Prozeß folgt einer Wurzel-Funktion. Da ohnehin systematische Abweichungen (z. B. infolge von Rüstvorgängen) auftreten, wird auf eine exakte Darstellung der Konfidenzgrenzen verzichtet.Google Scholar
  48. 1.
    Hierbei bezeichnet Cov die Kovarianzfunktion.Google Scholar
  49. 1.
    Vgl. hierzu auch Abschnitt 6.1.2.Google Scholar
  50. 1.
    Bei Anwendung eines erklärenden Zeitreihenmodells muß jedoch einmalig die Modellidentifikation durchgeführt werden. Hierzu ist ein Bedienereingriff erforderlich (vgl. Abschnitt 6.3.2).Google Scholar
  51. 1.
    Wesentlicher Parameter dieser Prognose ist die vom Benutzer gewählte statistische Sicherheit.Google Scholar
  52. 1.
    Vgl. Abschnitt 2.4.Google Scholar

Copyright information

© Springer-Verlag, Berlin, Heidelberg 1998

Authors and Affiliations

  • Manfred Hüser
    • 1
  1. 1.Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA)StuttgartDeutschland

Personalised recommendations